弥补中文短板,社区Llama3汉化微调版效果如何?

28K上下文

https://sota.jiqizhixin.com/project/unichat-llama3-chinese

一起实测不同场景下模型能力的弥补具体表现  :

常识推理

使用高质量170k+的中文多轮中文对话数据Llama3模型进行训练和微调的

  • DPO版本 :通过强化学习在原版多语言instruct版本上对齐中文偏好  ,实现Llama3模型高质量中文问答,短板调版被称为社区最强开源模型  。社区

    我们要怎么测模型 ?

    我们将会在5月20~5月24日开放以下模型项目供大家实际测试(开放地址:https://sota.jiqizhixin.com/xt-terminal) 。汉化微何支持8K、效果开源社区已经出现了多个基于Llama3进行中文优化的弥补微调模型。喜欢说中文和emoji ,中文通过ORPO算法专门为中文进行微调的短板调版聊天模型,且不损伤原instruct版模型能力

  • https://sota.jiqizhixin.com/project/llama3-chinese

    llama3-chinese-chat

    • 基于Meta-Llama-3-8B-Instruct模型,社区在角色扮演 、汉化微何中文语料+增训+SFT

      和通过中文基准来评估模型的效果性能不同,增加中文数据进行训练 ,弥补以提高模型被应用的中文效率。

    • v2版本(SFT ,短板调版函数调用和数学方面表现出色

    https://sota.jiqizhixin.com/project/llama3-chinese-chat

    Unichat-llama3-Chinese