在过去两年,大模型(LLM)的能力几乎以一种“跃迁”的方式进入大众视野。很多人开始讨论:AI 是否会改变学习方式、替代人类思考,甚至重塑认知本身。
但如果冷静来看,一个更接近现实的结论是:
AI 并没有改变人类认知的本质约束,它只是放大了人类本身的能力差异。
LLM 极大降低了获取知识的门槛。过去需要翻书、搜索、筛选的信息,现在几秒钟就可以得到一个结构化的答案。
但问题在于:获取知识 ≠ 提升认知。
真正的认知提升,来自于知识的内化——理解、重构、应用,以及在具体情境中的反复使用。这一过程,本质上仍然需要人类自身完成。AI 可以辅助,但无法替代。
如果回看历史,这其实并不是第一次“信息获取革命”。从竹简到纸书,从印刷术到互联网,再到搜索引擎,每一次技术进步都在降低信息成本。但这些技术,并没有自动带来人类整体认知水平的跃迁。
人类在知识获取上的惰性,始终存在。
在 AI 时代,这一规律并没有被打破。AI 让“知道”变得更容易,但“真正理解”依然是稀缺能力。
另一个经常被混淆的问题是:LLM 是否已经接近“主体性”,甚至某种形式的 AGI。
在我看来,答案是否定的。
LLM 本质上仍然是工具。它可以生成内容、执行任务、模拟对话,但它并不具备自我意识,也没有真正意义上的“动机”。当前所有的 Agent 系统,无论架构多复杂,本质上都依赖于预先设定的目标(objective)。
换句话说:
它们是在“被驱动”,而不是“自我驱动”。
如果我们对 AGI 做一个更严格的定义——例如具备自我意识、好奇心,以及主动探索的能力(proactiveness)——那么当前的系统显然还没有跨越这条边界。
相比之下,人类的存在并不完全依赖一个明确的目标函数。我们可以探索、好奇、犹豫,甚至在没有清晰 objective 的情况下行动。这种非结构化的认知和行为方式,是当前数字化系统难以表达的。
至少在可预见的短期内,LLM 仍然是“能力放大器”,而不是“独立主体”。
作为一个长期在大模型应用领域工作的人,我在过去几个月一个很强烈的感受是:
LLM 已经足够强大,真正的瓶颈反而在于人类如何使用它。
随着各种 Agent 工具和框架的爆发,很多人开始关注模型能力、工具链、架构设计。但在实际使用中,一个更常见的问题是:人类的表达能力、问题定义能力,以及系统设计能力,正在成为限制 AI 发挥的关键因素。
一个好的 Agent 系统,核心并不是“模型多强”,而是:
很多时候,人类会不自觉地把自己的局限性带入系统中,从而“束缚”了 AI 的能力。
一个更有效的方式,反而是:
定义好问题,然后尽可能减少干预,让系统在其能力范围内自主发挥。
这一点,其实很像管理一个优秀的科研团队。你不需要事无巨细地告诉每个人“该怎么做”,而是需要提供清晰的目标和足够的自由空间,让个体能力得到释放。
当我们把以上三点放在一起,其实可以得到一个更重要的推论:
AI 不会自动提升所有人的能力水平,反而更可能放大人与人之间的差距。
而缺乏这些能力的人,即使拥有同样的工具,也很难获得同样的收益。
换句话说:
AI 是一个放大器,而不是一个平均器。
技术在进步,但人类认知的基本规律并没有改变。
我们依然需要自己去理解、去思考、去构建能力。AI 可以让这个过程更高效,但无法替代这个过程本身。
在这个意义上,AI 的真正价值,也许不在于“替代人类”,而在于:
让那些本就具备认知能力的人,走得更远。