近期,一则关于人工智能应用的趣闻在网络上引起了热议。这则消息揭示了一个令人啼笑皆非的现象:许多团队在致力于开发智能体时,反而导致了“智能降级”。
所谓“智能降级”,指的是在人工智能的开发过程中,人们往往试图通过添加各种规则和提示词(Prompt)来优化AI在特定任务上的表现。然而,这种做法实际上限制了AI的通用智能,使其难以展现出真正的潜力。
问题的根源在于,开发者们常常误以为通过引入人类认为对AI有益的知识,可以提升其在特定领域的性能。这些知识和技巧通常以提示词的形式出现,本质上是一系列为AI设定的规则。虽然这些规则有助于提高在特定目标下的精度,但对于拥有海量数据和复杂概率模型的大模型来说,却是一种束缚。
大模型的真正优势在于其通过学习海量数据而形成的模拟真实世界的复杂概率模型。这种模型具有一种“涌现”出来的通用智能,这是人们尚未完全理解的能力。然而,当开发者试图通过规则来优化AI时,就如同给一个充满想象力的画家规定了一个涂色框架,限制了其创作的自由。
这种做法的弊端在于,当面对开放、多变且贴近真实世界的需求时,如律师的日常工作,这种“局部优化”就变得得不偿失。因为通过规则限制AI所失去的通用智能部分,远远超过了在特定需求上获得的收益。最终,用户只会觉得这样的AI“不好用”。
要避免“智能降级”的陷阱,关键在于理解并尊重AI的通用智能。开发者应该停止尝试教AI“怎么思考”,而是为其提供“思考的材料”。这意味着要承认AI的底座模型在智能上已经超越了人类,因此应该像情报官一样为其提供高质量、独家的数据作为输入。
沿着这一思路,开发有价值智能体的方向变得清晰起来。首先,深挖“独占性上下文”。通用大模型理解的是公域知识,但对于特定公司或业务来说,内部数据才是其独一无二的护城河。将这些散落在公司各个角落的私有数据安全、高效地提供给大模型,是智能体的首要价值。
其次,提供“高势能工具箱”。一个好的智能体不仅需要能够理解和分析数据,还需要能够执行具体的任务。这并不意味着要为AI设定僵化的流程,而是要为其提供一个包含各种API的工具箱,让其根据任务需求自主选择工具。
以市面上两种不同形态的产品为例,可以清晰地看出“智能降级”与成功应用AI的差别。一种产品被称为“工作流AI”,它预设了一个封闭的流程,让AI填充其中的环节。这种做法导致上下文缺失、流程僵化和价值孤点等问题,是典型的“智能降级”表现。
而另一种成功形态的产品,如Glean,则是一个“上下文平台”。它不打预设任何流程,而是打通公司内部所有的数据孤岛,形成一个统一的“企业知识图谱”。这样的平台能够为AI提供最全、最准的数据作为输入,从而避免“智能降级”的问题。
Glean的成功在于它做的不是“减法”(用规则限制AI),而是“乘法”(用数据拓宽AI的视野)。它的核心价值在于构建了强大的“数据通路”,而不是设计了巧妙的提示词。当底层大模型升级时,Glean的价值反而会暴增,因为更强的大脑配上更全的数据,能够产生指数级增长的智能。
这一趋势背后体现了一种根本的范式转变,即从“流程优先”转变为“智能优先”。过去的思路是设计好流程,让AI辅助执行;而现在则是默认有一个聪明的“大脑”在核心位置,所有工作都是为这个大脑搭建一个能够发挥最大价值的环境。
在未来的组织中,智能体将成为业务逻辑的主要执行者,而人类则转变为目标的设定者和最终结果的监督者。这种转变要求开发者重新审视AI的角色和价值,避免通过规则限制其通用智能的发展。