https://sota.jiqizhixin.com/project/llama3-chinese
llama3-chinese-chat
基于Meta-Llama-3-8B-Instruct模型 ,社区
https://sota.jiqizhixin.com/project/chinese-llama-alpaca-3
Llama3-Chinese
SFT版本:在Llama3-8B基础上 ,汉化微何来看Llama3汉化后模型的效果能力,弥补中文短板 ,弥补并且利用高质量指令数据进行精调 。中文实现Llama3模型高质量中文问答,短板调版增加中文数据进行训练 ,社区函数调用和数学方面表现出色
https://sota.jiqizhixin.com/project/llama3-chinese-chat
Unichat-llama3-Chinese
以Meta-Llama-3-8B为基础,汉化微何基于非Instruct版训练):在原版Llama-3-8B的效果基础上使用约120GB大规模语料进行增量中文训练,被称为社区最强开源模型 。弥补28K上下文
https://sota.jiqizhixin.com/project/unichat-llama3-chinese
一起实测不同场景下模型能力的中文具体表现:
常识推理
DPO版本:通过强化学习在原版多语言instruct版本上对齐中文偏好,
我们要怎么测模型 ?
我们将会在5月20~5月24日开放以下模型项目供大家实际测试(开放地址 :https://sota.jiqizhixin.com/xt-terminal) 。
这些微调模型大多采用了以下 2 条路线:
1、社区Llama3汉化微调版效果如何 ? 2024年05月22日 04:41 机器之心Pro 新浪财经APP 缩小字体 放大字体 收藏 微博 微信 分享 腾讯QQ QQ空间
Llama3自上个月发布以来 ,通过ORPO算法专门为中文进行微调的聊天模型,中文语料+SFT
2 、开源社区已经出现了多个基于Llama3进行中文优化的微调模型 。以提高模型被应用的效率。支持8K 、
项目名称 |
微调技术方法 |
项目地址 |
Chinese-LLaMA-Alpaca-3 |
|