弥补中文短板,社区Llama3汉化微调版效果如何?
这些微调模型大多采用了以下 2 条路线 :
1 、短板调版通过ORPO算法专门为中文进行微调的社区聊天模型,并且利用高质量指令数据进行精调。汉化微何使用高质量170k+的效果多轮中文对话数据Llama3模型进行训练和微调的
DPO版本:通过强化学习在原版多语言instruct版本上对齐中文偏好 ,函数调用和数学方面表现出色
https://sota.jiqizhixin.com/project/llama3-chinese-chat
Unichat-llama3-Chinese
以Meta-Llama-3-8B为基础,弥补
https://sota.jiqizhixin.com/project/chinese-llama-alpaca-3
Llama3-Chinese
SFT版本 :在Llama3-8B基础上 ,中文我们想和大家一起来实测模型在不同场景下的短板调版实际表现,社区Llama3汉化微调版效果如何? 2024年05月22日 04:41 机器之心Pro 新浪财经APP 缩小字体 放大字体 收藏 微博 微信 分享 腾讯QQ QQ空间
Llama3自上个月发布以来,社区开源社区已经出现了多个基于Llama3进行中文优化的汉化微何微调模型 。来看Llama3汉化后模型的效果能力,中文语料+SFT
2 、弥补在角色扮演、中文
我们要怎么测模型 ?
我们将会在5月20~5月24日开放以下模型项目供大家实际测试(开放地址 :https://sota.jiqizhixin.com/xt-terminal)。短板调版基于非Instruct版训练) :在原版Llama-3-8B的基础上使用约120GB大规模语料进行增量中文训练 ,以提高模型被应用的效率。
v2版本(SFT,由于中文能力欠缺 ,喜欢说中文和emoji,支持8K、
项目名称
微调技术方法
项目地址
Chinese-LLaMA-Alpaca-3
v1版本(PT+SFT,基于Instruct版训练):直接采用500万条指令数据在Meta-Llama-3-8B-Instruct上进行精调。实现Llama3模型高质量中文问答,中文语料+增训+SFT
和通过中文基准来评估模型的性能不同 ,28K上下文
https://sota.jiqizhixin.com/project/unichat-llama3-chinese
一起实测不同场景下模型能力的具体表现:
常识推理
且不损伤原instruct版模型能力
https://sota.jiqizhixin.com/project/llama3-chinese
llama3-chinese-chat
基于Meta-Llama-3-8B-Instruct模型,弥补中文短板,为了弥补这一短板,
相关文章
-
V观财报|“牙茅”通策医疗实控人陷还款风波,刚退居二线,90后女儿首进董事会
V观财报|“牙茅”通策医疗实控人陷还款风波,刚退居二线,90后女儿首进董事会 2024年05月24日 15:54中新经纬2024-05-25 -
不会再有另一个布雷克-格里芬2024-04-18 19:13:28来源: 后厂村体工队 北京 举报2024-05-25
-
降脂药赛道大变局:他汀药物时代正在逝去 2024年04月17日 14:32投中网2024-05-25
-
玩家不看好PS5 Pro:应该重点提升帧数和分辨率 2024年04月17日 12:20中关村在线2024-05-25
-
天津大学研发超耐寒电子皮肤 2024年05月23日 22:36媒体滚动2024-05-25
-
白云山副总黄海文北大毕业去年降薪 副总郑浩珊和郑坚雄却为何涨薪?
白云山副总黄海文北大毕业去年降薪 副总郑浩珊和郑坚雄却为何涨薪? 2024年04月17日 13:38运营商财经网2024-05-25
最新评论