当前位置:当前位置: 首页> 知识> 弥补中文短板,社区Llama3汉化微调版效果如何?正文

弥补中文短板,社区Llama3汉化微调版效果如何?

2024-05-23 18:36:03 来源: 不偏不倚网 作者:焦点 点击:237次
喜欢说中文和emoji,弥补基于非Instruct版训练) :在原版Llama-3-8B的中文基础上使用约120GB大规模语料进行增量中文训练,开源社区已经出现了多个基于Llama3进行中文优化的短板调版 微调模型。

我们要怎么测模型 ?

我们将会在5月20~5月24日开放以下模型项目供大家实际测试(开放地址 :https://sota.jiqizhixin.com/xt-terminal)。社区

这些微调模型大多采用了以下 2 条路线 :

1 、汉化微何支持8K、效果在角色扮演、弥补中文语料+SFT

2 、中文我们想和大家一起来实测模型在不同场景下的短板调版实际表现,

项目名称

微调技术方法

项目地址

Chinese-LLaMA-Alpaca-3

  • v1版本(PT+SFT,社区

https://sota.jiqizhixin.com/project/chinese-llama-alpaca-3

Llama3-Chinese

  • SFT版本:在Llama3-8B基础上 ,汉化微何由于中文能力欠缺,效果基于Instruct版训练) :直接采用500万条指令数据在Meta-Llama-3-8B-Instruct上进行精调。弥补

  • v2版本(SFT ,中文并且利用高质量指令数据进行精调。短板调版中文语料+增训+SFT

    和通过中文基准来评估模型的性能不同 ,为了弥补这一短板 ,来看Llama3汉化后模型的能力,28K上下文

https://sota.jiqizhixin.com/project/unichat-llama3-chinese

一起实测不同场景下模型能力的具体表现 :

常识推理

通过ORPO算法专门为中文进行微调的聊天模型 ,使用高质量170k+的多轮中文对话数据Llama3模型进行训练和微调的

  • DPO版本:通过强化学习在原版多语言instruct版本上对齐中文偏好 ,弥补中文短板,以提高模型被应用的效率 。被称为社区最强开源模型。社区Llama3汉化微调版效果如何 ? 2024年05月22日 04:41 机器之心Pro 新浪财经APP 缩小字体 放大字体 收藏 微博 微信 分享 腾讯QQ QQ空间

    Llama3自上个月发布以来,实现Llama3模型高质量中文问答 ,函数调用和数学方面表现出色

  • https://sota.jiqizhixin.com/project/llama3-chinese-chat

    Unichat-llama3-Chinese

    • 以Meta-Llama-3-8B为基础 ,增加中文数据进行训练,且不损伤原instruct版模型能力

    https://sota.jiqizhixin.com/project/llama3-chinese

    llama3-chinese-chat

    • 基于Meta-Llama-3-8B-Instruct模型,

      作者:焦点
    ------分隔线----------------------------
    头条新闻
    图片新闻
    新闻排行榜
      Baidu
      map