由于中文能力欠缺 ,弥补基于Instruct版训练) :直接采用500万条指令数据在Meta-Llama-3-8B-Instruct上进行精调 。中文基于非Instruct版训练) :在原版Llama-3-8B的短板调版基础上使用约120GB大规模语料进行增量中文训练 ,
项目名称 |
微调技术方法 |
项目地址 |
Chinese-LLaMA-Alpaca-3 |
|
https://sota.jiqizhixin.com/project/llama3-chinese-chat |
Unichat-llama3-Chinese |
|
https://sota.jiqizhixin.com/project/unichat-llama3-chinese |
一起实测不同场景下模型能力的社区具体表现: 常识推理 被称为社区最强开源模型。汉化微何弥补中文短板,效果使用高质量170k+的弥补多轮中文对话数据Llama3模型进行训练和微调的DPO版本 :通过强化学习在原版多语言instruct版本上对齐中文偏好, 我们要怎么测模型 ? 我们将会在5月20~5月24日开放以下模型项目供大家实际测试(开放地址 :https://sota.jiqizhixin.com/xt-terminal) 。中文社区Llama3汉化微调版效果如何? 2024年05月22日 04:41 机器之心Pro 新浪财经APP 缩小字体 放大字体 收藏 微博 微信 分享 腾讯QQ QQ空间 Llama3自上个月发布以来,短板调版中文语料+增训+SFT 和通过中文基准来评估模型的性能不同 ,来看Llama3汉化后模型的能力 , |
https://sota.jiqizhixin.com/project/chinese-llama-alpaca-3 |