Scaling Law遇瓶颈?2026年AI圈激辩:算力如何突破智能增长天花板

   时间:2025-12-31 19:39 来源:快讯作者:唐云泽

近年来,人工智能领域的发展引发了广泛关注,尤其是大模型技术的突破,让人们对其未来充满期待。然而,随着ChatGPT、DeepSeek、Gemini 3、GPT-5.2等顶级模型相继问世,一个关键问题逐渐浮现:支撑这些模型进步的Scaling Law是否即将触及天花板?这一疑问正在行业内引发激烈讨论。

多位知名专家对Scaling Law的未来表达了不同看法。Ilya Sutskever指出,单纯依靠增加预训练算力的方式正在进入平台期,智能提升需要转向新的研究范式。Yann LeCun则直言,当前大语言模型无论怎样扩展规模,都无法真正实现通用人工智能(AGI)。Sam Altman也承认,仅靠增加GPU数量已无法获得同比例的智能提升。这些观点反映了行业对算力增长与智能提升之间关系的深刻反思。

尤洋进一步分析了大模型成功的关键因素。他强调,Next-Token Prediction作为一种损失函数设计,通过最小化人为干预,为模型提供了近乎无限的训练数据。同时,Transformer架构的胜出并非因为它更接近人脑,而是因为其高度并行、计算密集的特性与GPU的计算模式高度契合。这些因素共同作用,使得大模型能够在过去十年中持续放大算力投入,并将其转化为可感知的智能提升。

然而,尤洋也指出,当前大模型发展正面临真正的瓶颈。他区分了效率提升和智能上限提升两个概念:前者关注如何用更少资源达到相同效果,后者则关注在相同计算总量下训练出能力更强的模型。他认为,当前的问题不在于算力不足,而在于现有范式无法充分利用持续增长的算力。换句话说,模型、损失函数和优化算法对算力的"消化能力"正在下降。

针对未来发展方向,尤洋提出了一系列建议。他认为,不应局限于节省算力,而应探索如何更有效地消耗更多算力。具体方向包括:研究更高数值精度的计算能力,探索更高阶的优化器,设计更具扩展性的模型架构或损失函数,以及进行更充分的训练和超参数搜索。他特别强调,推理优化、低精度训练等技术虽然对模型落地至关重要,但与提升智能上限属于不同的技术路径。

随着AI技术的不断发展,如何将算力真正转化为智能已成为行业面临的核心挑战。尤洋的观点为从业者提供了新的思考角度:当算力仍在增长但智能提升放缓时,需要重新审视哪些因素才是决定智能上限的关键。这一讨论不仅关乎技术发展方向,也将影响整个AI领域的未来格局。

 
 
更多>同类内容
全站最新
热门内容