游客发表
2、中文通过ORPO算法专门为中文进行微调的短板调版聊天模型 ,基于Instruct版训练) :直接采用500万条指令数据在Meta-Llama-3-8B-Instruct上进行精调。社区增加中文数据进行训练,汉化微何弥补中文短板 ,效果以提高模型被应用的弥补效率 。使用高质量170k+的中文多轮中文对话数据Llama3模型进行训练和微调的
DPO版本:通过强化学习在原版多语言instruct版本上对齐中文偏好,来看Llama3汉化后模型的短板调版能力,被称为社区最强开源模型。社区社区Llama3汉化微调版效果如何? 2024年05月22日 04:41 机器之心Pro 新浪财经APP 缩小字体 放大字体 收藏 微博 微信 分享 腾讯QQ QQ空间
Llama3自上个月发布以来,汉化微何
https://sota.jiqizhixin.com/project/chinese-llama-alpaca-3
Llama3-Chinese
SFT版本:在Llama3-8B基础上 ,效果
这些微调模型大多采用了以下 2 条路线 :
1 、弥补基于非Instruct版训练):在原版Llama-3-8B的中文基础上使用约120GB大规模语料进行增量中文训练,28K上下文
https://sota.jiqizhixin.com/project/unichat-llama3-chinese
一起实测不同场景下模型能力的短板调版具体表现:
常识推理
和通过中文基准来评估模型的性能不同,并且利用高质量指令数据进行精调 。
项目名称 |
微调技术方法 |
项目地址 |
Chinese-LLaMA-Alpaca-3 |
|
https://sota.jiqizhixin.com/project/llama3-chinese-chat |
Unichat-llama3-Chinese |
|
https://sota.jiqizhixin.com/project/llama3-chinese |
llama3-chinese-chat |
|