零一万物推出Yi-34B-Chat 全球开发者瞩目微调模型的崭新时代

   时间:2023-12-11 15:28 来源:数据世界

【数据世界】12月11日消息,近期,零一万物推出的Yi-34B-Chat微调模型在全球范围内掀起了一场技术风潮。该模型于11月24日正式开源上线,两周内便吸引了全球开发者的广泛关注,并在多个英文和中文大模型权威榜单中名列前茅。

据数据世界了解,Yi-34B-Chat首月在Hugging Face社区下载量达到16.8万,而在魔搭社区的下载量也达到1.2万。同时,该模型在GitHub上获得了超过4900个Stars的支持。

截至目前,多家知名公司和机构已经推出了基于Yi模型基座的微调模型,其中包括猎户星空公司的OrionStar-Yi-34B-Chat模型以及南方科技大学和IDEA研究院合作发布的SUS-Chat-34B。此外,AMD和Hugging Face合作的GPU加速大模型实验中也选择了Yi-6B作为范例项目。

Yi-34B-Chat在世界范围内的大模型榜单中表现抢眼。在斯坦福大学研发的Alpacaeval Leaderboard中,以94.08%的胜率超越多个对手,成为仅次于GPT-4的英语能力大语言模型。在加州大学伯克利分校主导的LMSYS ORG排行榜中,Yi-34B-Chat以1102的Elo评分,晋升为最新开源SOTA开源模型之一,性能表现媲美GPT-3.5。

Yi-34B-Chat在中文能力方面同样表现亮眼。在SuperCLUE中文大模型排行榜上,该模型以31.82%的胜率仅次于GPT4-Turbo,成为中文领域的“最强王者”。

除了性能卓越,Yi-34B-Chat还为开发者提供了4bit/8bit量化版模型,大幅降低了基础模型运行的算力需求,使其更加适用于消费级显卡。

Yi-34B的成功源于零一万物强大的基座模型Yi-34B以及创新的对齐策略。通过精心设计的指令微调流程,模型在理解和适应人类需求方面能力得到强化,同时与人类价值观对齐,包括帮助性、可靠性和无害性等。

尽管Yi-34B取得了巨大成功,但在开源初期曾遭遇了一场“风波”。开发者Eric Hartford发现模型存在命名问题,并提出建议。零一万物团队及时回应并更新了版本,但在国内却引发了对Yi模型“抄袭”LLaMA的质疑。对此,零一万物团队明确表示,在LLaMA架构的基础上,他们从零开始,用高质量的数据集和自研训练科学,打造了Yi-34B模型,强调并未刻意隐瞒来源。

目前,Yi-34B已经赢得了全球开发社区的广泛认可,不仅在技术实力上取得了傲人成绩,也为开发者提供了友好、轻便的生态环境,受到了业界高度评价。

 
 
更多>同类内容
全站最新
热门内容