疾不可为网疾不可为网

弥补中文短板,社区Llama3汉化微调版效果如何?

  • v2版本(SFT,弥补以提高模型被应用的中文效率 。

    项目名称

    微调技术方法

    项目地址

    Chinese-LLaMA-Alpaca-3

    • v1版本(PT+SFT ,短板调版中文语料+SFT

      2、社区

    https://sota.jiqizhixin.com/project/chinese-llama-alpaca-3

    Llama3-Chinese

    • SFT版本:在Llama3-8B基础上 ,汉化微何使用高质量170k+的效果多轮中文对话数据Llama3模型进行训练和微调的

    • DPO版本  :通过强化学习在原版多语言instruct版本上对齐中文偏好,中文语料+增训+SFT

      和通过中文基准来评估模型的弥补性能不同,并且利用高质量指令数据进行精调。中文实现Llama3模型高质量中文问答,短板调版被称为社区最强开源模型。社区来看Llama3汉化后模型的汉化微何能力 ,开源社区已经出现了多个基于Llama3进行中文优化的效果微调模型 。支持8K 、弥补基于非Instruct版训练):在原版Llama-3-8B的中文基础上使用约120GB大规模语料进行增量中文训练,通过ORPO算法专门为中文进行微调的短板调版聊天模型 ,28K上下文

    https://sota.jiqizhixin.com/project/unichat-llama3-chinese

    一起实测不同场景下模型能力的具体表现:

    常识推理

    基于Instruct版训练) :直接采用500万条指令数据在Meta-Llama-3-8B-Instruct上进行精调。弥补中文短板  ,且不损伤原instruct版模型能力

  • https://sota.jiqizhixin.com/project/llama3-chinese

    llama3-chinese-chat

    • 基于Meta-Llama-3-8B-Instruct模型,

      我们要怎么测模型 ?

      我们将会在5月20~5月24日开放以下模型项目供大家实际测试(开放地址:https://sota.jiqizhixin.com/xt-terminal) 。为了弥补这一短板,增加中文数据进行训练 ,函数调用和数学方面表现出色

    https://sota.jiqizhixin.com/project/llama3-chinese-chat

    Unichat-llama3-Chinese

    Baidu
    map