小米发布MoE大模型MiMo-V2-Flash,性能媲美顶尖模型,多项实测表现亮眼

   时间:2025-12-18 00:05 来源:快讯作者:柳晴雪

小米今日正式发布并开源了最新一代MoE架构大模型MiMo-V2-Flash,该模型总参数规模达3090亿,激活参数150亿,在推理、编码及智能体应用场景中展现出显著优势。模型支持混合思维模式,用户可自由切换深度思考与即时响应模式,并具备一键生成完整HTML网页的能力,可与Claude Code、Cursor等主流编码框架无缝协作。

在性能测试中,MiMo-V2-Flash与DeepSeek-V3.2形成直接竞争态势。基准数据显示,该模型在数学竞赛AIME 2025和科学知识GPQA-Diamond测试中位列开源模型前二,软件工程能力SWE验证及多语言测试中更超越所有开源竞品,性能表现与全球顶尖闭源模型持平。特别在长上下文处理方面,其性能已超越K2 Thinking模型,在SWE-Bench Verified测试中解决率达71.7%,BrowseComp搜索评估得分45.4,配合上下文管理后提升至58.3。

技术架构层面,模型采用全局注意力(GA)与滑动窗口注意力(SWA)的1:5混合结构,既保持了线性注意力的计算效率,又显著提升了长文本处理能力。创新引入的多词元预测(MTP)训练技术,通过同步生成多个候选token并并行验证的方式,使解码吞吐量提升2-2.6倍。后训练阶段采用的多教师在线策略蒸馏(MOPD)方法,仅需传统方法1/50的计算资源即可达成同等优化效果,形成"教学-学习"闭环迭代机制。

实际场景测试验证了模型的多样化能力:在网页开发任务中,可生成包含商品轮播、规格选择等功能的电商页面,以及支持手势交互的3D圣诞树应用;在创意生成方面,能创作忧郁爱情故事和非虚构社会观察作品;智能体交互测试中,既可解答"是否服用长生不老药"等哲学问题,也能编写科幻悬疑剧本。不过实测发现,部分复杂交互场景(如教育类太阳系探索器)仍存在稳定性问题,需多次生成才能达到预期效果。

该模型已实现全面开源,推理代码完整贡献至开发者社区SGLang,API服务开启限时免费体验。技术文档显示,在Prefill单机吞吐50000 toks/s条件下,16K上下文长度的解码吞吐量达5000-15000 toks/s,单请求吞吐量151-115 toks/s。价格策略方面,输入token单价0.7元/百万,输出token单价2.1元/百万,显著低于行业平均水平。

此次发布标志着小米大模型研发进入快车道。集团近期宣布将AI与现实世界深度结合列为未来十年核心战略,AI业务投入连续四个季度环比增长超50%。为加速技术突破,小米同步启动全球人才招募计划,设立千万元级岗位薪酬,重点引进大模型领域顶尖人才。技术团队近三个月已密集发布多篇学术论文,并陆续开源多个预训练模型,构建起完整的技术生态体系。

 
 
更多>同类内容
全站最新
热门内容