苹果公司正通过引入外部先进技术,为旗下语音助手Siri注入更强智能基因。据可靠消息,苹果已与谷歌达成深度合作,将采用后者研发的Gemini大模型作为Siri升级的核心技术支撑,这一举措旨在突破苹果自研大模型面临的瓶颈。
合作框架显示,苹果每年将向谷歌支付约10亿美元费用,以获取定制版Gemini 2.5 Pro模型的使用权。该模型拥有1.2万亿参数规模,相较于当前Siri使用的1500亿参数云端模型,在信息摘要、任务规划、复杂指令处理等核心功能上实现了质的飞跃。升级后的Siri将支持多模态交互和128K token超长文本处理,上下文理解能力得到显著提升。
在技术选型过程中,苹果对谷歌Gemini、OpenAI ChatGPT和Anthropic Claude三大主流模型进行了全面测试。最终选择Gemini 2.5 Pro的原因包括:其一,财务成本更具优势,Anthropic Claude的年合作费用超过15亿美元;其二,双方在搜索领域已建立长期合作关系;其三,该模型在最新大型语言模型排行榜中表现突出。Gemini采用的混合专家架构设计尤为关键,其万亿级参数中每次查询仅激活部分模块,在保证强大计算能力的同时有效控制了处理成本。
为保障用户数据安全,谷歌开发的AI模型将部署在苹果私有云计算服务器上运行。这种技术架构确保谷歌无法获取苹果用户的任何数据,从根本上消除了用户对数据泄露的顾虑。苹果同时采用混合模式架构,Gemini模型主要负责处理网页搜索摘要、跨应用任务调度等复杂云端任务,而设备端的个人数据(如健康信息、本地文件交互)仍由苹果自研模型处理,形成"云端+本地"的分层协作体系。
根据规划,搭载升级版Siri的iOS 26.4系统将于2026年春季正式推送。后续在2026年6月WWDC大会上预览的iOS 27、macOS 27等系统将进一步深化整合。这种技术升级路径既保持了Siri的智能水平提升,又通过分层处理机制确保了用户核心数据的控制权,为智能语音助手的发展提供了新的技术范式。










