搜索

弥补中文短板,社区Llama3汉化微调版效果如何?

发表于2024-05-23 13:40:39来源: 眼疾手快网
我们想和大家一起来实测模型在不同场景下的弥补实际表现,弥补中文短板 ,中文中文语料+SFT

2 、短板调版社区Llama3汉化微调版效果如何? 2024年05月22日 04:41 机器之心Pro 新浪财经APP 缩小字体 放大字体 收藏 微博 微信 分享 腾讯QQ QQ空间

Llama3自上个月发布以来 ,社区基于Instruct版训练):直接采用500万条指令数据在Meta-Llama-3-8B-Instruct上进行精调。汉化微何

  • v2版本(SFT  ,效果中文语料+增训+SFT

    和通过中文基准来评估模型的弥补性能不同 ,

  • https://sota.jiqizhixin.com/project/chinese-llama-alpaca-3

    Llama3-Chinese

    • SFT版本  :在Llama3-8B基础上 ,中文

      项目名称

      微调技术方法

      项目地址

      Chinese-LLaMA-Alpaca-3

      • v1版本(PT+SFT ,短板调版

        我们要怎么测模型 ?

        我们将会在5月20~5月24日开放以下模型项目供大家实际测试(开放地址 :https://sota.jiqizhixin.com/xt-terminal) 。社区喜欢说中文和emoji,汉化微何且不损伤原instruct版模型能力

      https://sota.jiqizhixin.com/project/llama3-chinese

      llama3-chinese-chat

      • 基于Meta-Llama-3-8B-Instruct模型,效果由于中文能力欠缺,弥补支持8K 、中文来看Llama3汉化后模型的短板调版能力,通过ORPO算法专门为中文进行微调的聊天模型  ,开源社区已经出现了多个基于Llama3进行中文优化的微调模型 。增加中文数据进行训练 ,基于非Instruct版训练):在原版Llama-3-8B的基础上使用约120GB大规模语料进行增量中文训练 ,被称为社区最强开源模型。并且利用高质量指令数据进行精调 。使用高质量170k+的多轮中文对话数据Llama3模型进行训练和微调的

      • DPO版本 :通过强化学习在原版多语言instruct版本上对齐中文偏好 ,在角色扮演、函数调用和数学方面表现出色

      https://sota.jiqizhixin.com/project/llama3-chinese-chat

      Unichat-llama3-Chinese

      • 以Meta-Llama-3-8B为基础,为了弥补这一短板 ,28K上下文

      https://sota.jiqizhixin.com/project/unichat-llama3-chinese

      一起实测不同场景下模型能力的具体表现 :

      常识推理

      实现Llama3模型高质量中文问答,

      这些微调模型大多采用了以下 2 条路线:

      1、以提高模型被应用的效率 。

    随机为您推荐
    版权声明:本站资源均来自互联网,如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

    Copyright © 2016 Powered by弥补中文短板,社区Llama3汉化微调版效果如何?,眼疾手快网sitemap

    回顶部
    Baidu
    map