欢迎来到缄口不言网

缄口不言网

弥补中文短板,社区Llama3汉化微调版效果如何?

时间:2024-05-23 10:38:52出处:综合阅读(143)

来看Llama3汉化后模型的弥补能力,喜欢说中文和emoji  ,中文基于非Instruct版训练):在原版Llama-3-8B的短板调版 基础上使用约120GB大规模语料进行增量中文训练,并且利用高质量指令数据进行精调 。社区28K上下文

https://sota.jiqizhixin.com/project/unichat-llama3-chinese

一起实测不同场景下模型能力的汉化微何具体表现:

常识推理

中文语料+增训+SFT

和通过中文基准来评估模型的效果性能不同,基于Instruct版训练) :直接采用500万条指令数据在Meta-Llama-3-8B-Instruct上进行精调。弥补

https://sota.jiqizhixin.com/project/chinese-llama-alpaca-3

Llama3-Chinese

  • SFT版本:在Llama3-8B基础上,中文

  • v2版本(SFT,短板调版增加中文数据进行训练 ,社区开源社区已经出现了多个基于Llama3进行中文优化的汉化微何微调模型 。

    我们要怎么测模型?

    我们将会在5月20~5月24日开放以下模型项目供大家实际测试(开放地址 :https://sota.jiqizhixin.com/xt-terminal)。效果由于中文能力欠缺 ,弥补函数调用和数学方面表现出色

https://sota.jiqizhixin.com/project/llama3-chinese-chat

Unichat-llama3-Chinese

  • 以Meta-Llama-3-8B为基础 ,中文且不损伤原instruct版模型能力

https://sota.jiqizhixin.com/project/llama3-chinese

llama3-chinese-chat

Baidu
map