Llama3汉化版中文能力实测:5大模型性能对比

原文标题:弥补中文短板,社区Llama3汉化微调版效果如何?

原文作者:机器之心

冷月清谈:

为弥补开源模型Llama3的中文能力短板,社区推出了多个汉化微调模型。针对这些模型的中文表现,我们将于5月20-24日开放5个项目供实测,评估模型在常识推理、代码辅助、物理公式证明等场景下的中文能力。同时,实测参与者可加入社群讨论,了解汉化Llama3模型的中文表现、对原有能力的影响及解决方法等。另外,本周三(19:00-20:00)还将邀请Llama3-chinese项目发起人分享DPO微调Llama3模型的全链路实践。

怜星夜思:

1、您认为汉化后的Llama3模型在中文场景下表现如何?
2、除了本次实测提供的场景,您认为汉化后的Llama3模型还可以在哪些中文场景下发挥作用?
3、对于汉化Llama3模型,您有哪些建议或期待?

原文内容

Llama3自上个月发布以来,被称为社区最强开源模型。由于中文能力欠缺,为了弥补这一短板,开源社区已经出现了多个基于Llama3进行中文优化的微调模型。

这些微调模型大多采用了以下 2 条路线:

1、中文语料+SFT

2、中文语料+增训+SFT

和通过中文基准来评估模型的性能不同,我们想和大家一起来实测模型在不同场景下的实际表现,来看Llama3汉化后模型的能力,以提高模型被应用的效率。


我们要怎么测模型?

我们将会在5月20~5月24日开放以下模型项目供大家实际测试(开放地址:https://sota.jiqizhixin.com/xt-terminal)。

   项目名称

         微调技术方法

       项目地址

Chinese-LLaMA-Alpaca-3

  • v1版本(PT+SFT,基于非Instruct版训练):在原版Llama-3-8B的基础上使用约120GB大规模语料进行增量中文训练,并且利用高质量指令数据进行精调。

  • v2版本(SFT,基于Instruct版训练):直接采用500万条指令数据在Meta-Llama-3-8B-Instruct上进行精调。

https://sota.jiqizhixin.com/project/chinese-llama-alpaca-3

Llama3-Chinese

  • SFT版本:在Llama3-8B基础上,使用高质量170k+的多轮中文对话数据Llama3模型进行训练和微调的

  • DPO版本:通过强化学习在原版多语言instruct版本上对齐中文偏好,喜欢说中文和emoji,且不损伤原instruct版模型能力

https://sota.jiqizhixin.com/project/llama3-chinese

llama3-chinese-chat

  • 基于Meta-Llama-3-8B-Instruct模型,通过ORPO算法专门为中文进行微调的聊天模型,在角色扮演、函数调用和数学方面表现出色

https://sota.jiqizhixin.com/project/llama3-chinese-chat

Unichat-llama3-Chinese

  • 以Meta-Llama-3-8B为基础,增加中文数据进行训练,实现Llama3模型高质量中文问答,支持8K、28K上下文

https://sota.jiqizhixin.com/project/unichat-llama3-chinese


一起实测不同场景下模型能力的具体表现:

常识推理

代码助手

物理公式证明


参与实测,能够获得什么?

1、加入实测社群,通过实测和交流测试 Case,了解开源中文汉化 Llama3 在文本创意生成、角色扮演、工具调用、代码等任务的中文场景下表现如何?

2、中文 Llama3 汉化后是否会有损原来 Llama3 的能力?如果有损的话该如何解决?

3、和行业搞大模型开发的朋友,交流大模型开发所支持的工具链生态(推理加速、微调框架),以及延伸应用开发情况。

这周三(晚19:00-20:00)我们还邀请到了 Llama3-chinese 项目发起人和我们分享:使用DPO微调 Llama3 模型的全链路实践

👉欢迎扫码加入我们的实测社群~以及预约直播,一起来实测、聊模型微调细节~


值得期待!Llama3本来就很强,汉化后中文能力应该能媲美中文大模型了。

希望汉化后的模型能免费开放,让更多开发者和用户受益。

期待后续有更多实测结果和应用案例分享。

中文新闻摘要、问答、聊天机器人等自然语言处理任务。

这要看具体场景和应用方式。如果目标任务主要涉及中文,那汉化后的模型可能表现更好;如果涉及多语言或英文场景,则需要权衡利弊。

中文诗歌创作、歌词生成等创意写作领域。

汉化后应该会有显著提升,毕竟针对中文进行了专门优化。

希望汉化后的模型能保持原有能力,同时显著提升中文表现。

代码缺陷检测、软件设计建议等编程辅助场景。

期待更多微调模型的出现,针对不同的中文场景和任务进行优化。

不一定,汉化可能会影响原有能力,比如英文生成等。

建议建立一个中文汉化Llama3模型的社区,方便开发者交流和协作。

教育领域,例如中文作文批改、题目生成等。