谷歌Gemini Embedding 2登场:全模态融合,开启AI嵌入技术新篇章

   时间:2026-03-11 21:46 来源:快讯作者:顾雨柔

谷歌DeepMind近日宣布推出Gemini Embedding 2,这一突破性模型首次实现了文本、图像、视频、音频和文档五种媒体形式的原生多模态嵌入。通过将不同类型的数据统一映射到单一向量空间,该技术为人工智能在跨模态理解领域开辟了新路径,标志着嵌入技术从单一模态向全模态融合的重要跨越。

该模型支持超过100种语言的语义理解,在文本、图像和视频任务的基准测试中展现出超越现有主流模型的性能。其核心创新在于引入了原生语音处理能力,可直接将音频数据转换为嵌入向量,无需经过传统语音转文本的中间步骤。这种端到端的处理方式显著提升了语音数据的处理效率,同时保留了原始音频中的情感、语调等非文本信息。

在技术架构层面,Gemini Embedding 2基于成熟的Gemini框架扩展而来。输入处理能力覆盖多种媒体类型:文本支持最长8192个token;图像可同时处理6张PNG或JPEG格式图片;视频支持最长120秒的MP4/MOV文件;文档则可直接嵌入最多6页的PDF内容。更值得关注的是,模型支持交错输入模式,允许开发者在单次请求中组合多种媒体类型,从而捕捉不同形式数据间的复杂语义关联。

针对企业级应用场景,该模型提供了灵活的向量维度配置选项。开发者可根据实际需求选择3072、1536或768三档输出维度,在模型性能与存储成本间取得平衡。这项特性对于需要处理海量嵌入向量的企业尤为重要,例如构建多模态检索增强生成系统时,可在保证精度的前提下显著降低基础设施开销。

在技术实现上,模型延续了谷歌自主研发的Matryoshka表示学习技术。该技术通过动态压缩向量维度的"嵌套"机制,使输出维度可根据应用场景灵活调整。这种创新设计既保持了高维向量的表达能力,又通过维度缩减优化了存储效率,特别适用于需要大规模部署嵌入向量的商业场景。

目前,Gemini Embedding 2已通过Gemini API和Vertex AI平台开放公开预览。早期访问合作伙伴正在探索其在多模态语义搜索、数据分类等领域的实际应用,部分用例已展现出显著的技术优势。随着更多开发者接入该模型,预计将催生出更多创新应用场景,推动人工智能在跨模态理解领域的技术演进。

 
 
更多>同类内容
全站最新
热门内容