我国科学家攻克模拟计算难题,高精度可扩展芯片开启算力新时代

   时间:2025-10-14 14:00 来源:快讯作者:顾雨柔

北京大学人工智能研究院孙仲研究员团队携手合作单位,在国际权威学术期刊《自然・电子学》发表了题为《基于阻变存储器芯片实现高精度、可扩展的模拟矩阵方程求解》的突破性研究成果。该团队成功开发出全球首款兼具高精度与可扩展性的模拟矩阵计算芯片,首次将模拟计算精度提升至与数字计算相当的水平,为后摩尔时代的计算架构革新开辟了全新路径。

研究团队针对传统数字计算在处理大规模矩阵方程时面临的复杂度与能耗困境,创新性地提出基于阻变存储器的全模拟计算方案。通过将"阵列-运算放大器"闭环反馈结构与迭代算法深度融合,实现了矩阵求逆与矩阵-向量乘法的高效协同运算。实验数据显示,该方案在16×16矩阵求逆中达到24位定点精度,相对误差低至10⁻⁷量级,计算吞吐量较顶级GPU提升最高达1000倍,能效提升超过100倍。

在技术实现层面,研究团队突破了传统模拟计算的三大瓶颈:通过位切片技术将矩阵-向量乘法精度提升至24位;采用40nm CMOS工艺实现3比特电导态编程;创新性地构建了可扩展的阻变存储器阵列架构。这种设计使模拟矩阵求逆的迭代次数显著减少,同时保持了模拟计算固有的低复杂度优势。在32×32矩阵求逆测试中,其单核算力已超越高端GPU;扩展至128×128矩阵时,性能优势更加凸显。

实际应用验证表明,该技术在6G通信关键领域展现出独特价值。研究团队将其应用于大规模MIMO信号检测,在无线通信场景下,仅需3次迭代即可达到32位浮点数字处理器的检测性能。基于迫零检测的图像恢复实验显示,第二个迭代周期即可实现接收图像与原始图像的高度一致,误码率-信噪比曲线验证了其在实际通信系统中的可靠性。

这项突破性成果标志着我国在新型计算架构领域取得重大进展。研究团队通过器件-电路-算法的协同创新,成功破解了模拟计算精度与可扩展性难以兼顾的世纪难题。该技术不仅为人工智能大模型训练提供了高效算力支持,其低功耗特性更可推动AI训练与推理在终端设备的直接部署,显著降低对云端计算的依赖。在6G通信领域,该技术有望实现基站对海量天线信号的实时低能耗处理,大幅提升网络容量与能效。

据研究团队介绍,这项成果已形成完整的技术体系,相关论文同步发表于《自然・通讯》《科学进展》等顶尖期刊。随着后摩尔时代计算需求的爆发式增长,这种新型模拟计算架构将为智能计算与通信系统提供关键技术支撑,开启绿色高效的新计算时代。

 
 
更多>同类内容
全站最新
热门内容