AI在线 AI在线

人工智能寒冬即将来临

规模给了我们工具,而不是思想。 这就是残酷的事实。 语言模型规模越来越大,并不能让我们更接近通用智能。

人工智能寒冬即将来临

规模给了我们工具,而不是思想。

这就是残酷的事实。

语言模型规模越来越大,并不能让我们更接近通用智能。它只会给我们带来更昂贵的自动补全机器。炒作之所以显得强烈,是因为演示看起来运行顺畅,资金仍在不断涌入,基准测试也不断上升。但我们以前也见过这种情况。故事的结局总是一样。灯光重新亮起,资金冷却,整个领域最终走向冷漠,思考到底出了什么问题。

Michael Wooldridge 已经给了我们地图。

在《通往意识机器之路》一书中,他讲述了人工智能的真正故事,即一个漫长的兴衰循环。从图灵时代,到符号逻辑,到专家系统,再到深度学习,每一次崛起都建立在大胆的承诺之上,而每一次崩盘都发生在局限性变得清晰之时。他的书的价值不在于它以怀旧的笔触回顾过去,而在于它揭示了一个清晰的模式。他甚至开篇就指出,大多数关于人工智能的流行文章都是胡说八道,然后又仔细地展示了该领域是如何在失败中成长起来的。这正是在人工智能炒作达到顶峰时,行业所忽视的那种诚实。

以20世纪70年代为例。英国政府请詹姆斯·莱特希尔爵士评估人工智能。他的报告直言不讳:目标宏大,示例却微不足道,算法在实验室外就失效了。资金崩溃,该领域进入了第一个寒冬。这并不是因为人工智能没有价值,而是因为世界并不关心新闻稿。

随后到了20世纪80年代。专家系统看似势不可挡。各大公司纷纷购买LISP机器。数字设备公司(DEC)凭借其XCON系统节省了数百万美元。董事会成员确信知识驱动的计算才是未来。然而,市场却崩溃了。机器变得过时,系统无法通用化,第二个寒冬开始了。伍尔德里奇以平衡的视角展现了这一点:它确实有一些价值,但工程设计薄弱,炒作过于夸张。

听起来很熟悉?

再看看今天。愿景已经从基于规则转向了Transformers,但口号始终如一:规模化将带来理解。然而,事实并非如此。深度学习的发明者之一Yann LeCun明确表示,大语言模型(LLM)并非通往人类智能的途径。他的观点很简单。这些系统无法将知识扎根于现实世界,缺乏永久记忆,无法构建因果模型,也无法进行长远规划。它们可以说话,但无法思考。LeCun主张研究世界模型、自监督学习以及像JEPA这样能够学习预测性抽象概念的架构。如果我们想要能够感知、规划和行动的智能,我们需要能够构建世界模型的系统,而不仅仅是预测下一个词。

这就是为什么伍尔德里奇和勒昆都很重要。伍尔德里奇是历史学家,他提醒我们,炒作之后的崩溃是人工智能基因的一部分。勒昆是建造者,他指出当前的高楼建立在薄弱的地基上,并提出了替代方案。将他们的论点放在一起,结论显而易见:围绕大语言模型规模化的炒作不会持续太久。能够熬过下一个寒冬的研究将是那些专注于表征、规划和通过经验学习的研究。

如果你想要快速证明,看看这些模型在训练数据之外的推理任务中是如何失败的。像汉诺塔这样的经典谜题暴露了它们的弱点。它们虚张声势,它们发明步骤,或者一旦推理链变得太长就会崩溃。这并非道德上的失败,而是一个设计缺陷。如果没有一个内在的世界模型,你就无法指望可靠的推理。媒体称之为“涌现推理”。工程师称其脆弱。投资者很快就会说它太贵了。

关于人工智能接管的末日警告也是不合时宜的。如果当前的模型无法提前十步规划,那么它们肯定不会计划推翻人类。LeCun 已经明确指出:智能并不会自动渴望权力。我们应该担心的是更实际的问题:大公司拥有核心基础设施,安全关键系统中使用的黑箱模型,培训的巨大环境成本,以及我们将思维外包所带来的社会技能下降。这些都是现实问题,可以通过监管、设计和政策来管理。

许多受人尊敬的科学家都曾警告过当前方法的局限性。加里·马库斯 (Gary Marcus) 认为深度学习贪婪、脆弱且肤浅,并主张建立将模式识别与符号推理相结合的混合系统。梅兰妮·米切尔 (Melanie Mitchell) 指出,人们很容易将表面表现与真正的智能相混淆。朱迪亚·珀尔 (Judea Pearl) 解释了为什么因果模型比原始相关性更重要。埃里克·拉尔森 (Erik Larson) 提醒我们,迈向真正的人工智能并非必然。他们中没有人说人工智能是无用的。他们说,如今的诀窍——扩大大语言模型(LLM) 的规模——并非通往思维之路。

历史也能告诉我们接下来会发生什么。人工智能的寒冬总是有规律可循的。期望过高,项目无法交付,预算紧缩,曾经看似通用的技术最终被发现用途狭窄。我们已经看到了这些迹象。培训成本的增长速度超过了能力的增长速度。脆弱的核心之上不断添加安全补丁。基准测试趋于平缓。监管机构正在觉醒。首席信息官们正在悄悄地重新发现那些不会产生幻觉的软件带来的舒适感。

这不是玩世不恭,而是一种策略。大语言模型(LLM)作为语言、编码和内容的工具非常有用。但我们不应该自欺欺人地认为它们能像工程师甚至孩子一样推理。就连LeCun也说它们做不到。如果我们想要机器能够理解和行动,我们就需要投资于世界模型、更好的自监督学习以及能够规划的系统。如果我们想要产品能够持久,我们就需要将学习与规则和显式算法相结合的混合系统。

Wooldridge 还提醒我们社会层面的问题。人工智能的寒冬不仅仅关乎科学,而关乎一种失败的战略。20 世纪 80 年代,公司组建了专家系统团队,然后在市场崩溃时将其解散。如今,整个公司都在围绕大语言模型(LLM)进行转型。当增长放缓、云计算费用上涨时,首席财务官们就会削减开支。如果你的业务仅仅依赖于规模,那么重新调整将是残酷的。如果你的业务建立在基本面之上,那么这将是一次健康的调整。

所以,没错,寒冬即将来临。它不会扼杀人工智能,而是会扫除那些炒作。赢家将是那些倾听批评者而不是将其驳斥的人。听听伍尔德里奇 (Wooldridge) 的说法:人工智能的过去充满了从未实现规模化的绝妙想法。听听勒昆 (LeCun) 的说法:单靠文本不足以教导世界。听听马库斯 (Marcus)、米切尔 (Mitchell)、珀尔 (Pearl) 和拉尔森 (Larson) 的说法:单靠模式识别将不断让我们失望。

这其中也蕴含着文化层面的积极意义。近年来,我们开始接受流畅的文字来替代真正的思考。“冬天”将提醒我们清晰的写作、扎实的代码以及能够自我解释的模型的价值。能够幸存下来的实验室将是那些将语言视为真正思考系统的用户界面的实验室。其余的实验室将保持原样:就像关在闪亮笼子里的昂贵鹦鹉。

如果你正在制定战略,请记住这句话:规模给了我们工具,而不是思维。这个领域以前也出现过类似的情况。下一代模型必须能够观察、记忆、规划和解释。资金应该随之而来,而不是又一轮参数膨胀。冬天不是终点。冬天是炒作消退,真正工作开始的时刻。

相关资讯

如何估算大语言模型LLM 的 GPU 内存:用于本地运行 LLM 的 GPU 内存

随着 DeepSeek、GPT、Llama、Mistral 等大规模 LLM 的兴起,AI 从业者面临的最大挑战之一是确定需要多少 GPU 内存才能高效地服务于这些模型。 GPU 资源昂贵且稀缺,因此优化内存分配至关重要。 本指南将引导您使用一个简单而有效的公式来估算服务 LLM 所需的 GPU 内存。
5/9/2025 1:00:00 AM
晓晓

大语言模型(LLM)是如何思考的?讲讲推动下一代人工智能推理的五种途径

译者 | 张哲刚审校 | 重楼大语言模型(LLMs)最早时期只是具备自动完成的功能,迄今为止,进步巨大,与当初已经不可同日而语。 然而,仅仅是生成流畅的文本并不足以体现真正的智能——真正的智能是需要推理能力的。 这意味着,大语言模型需要能够解决数学问题、能够调试代码、能够得出合乎逻辑的结论,还要能够检查和改正自身的错误。
4/8/2025 8:18:38 AM
张哲刚

揭秘 RAG:为什么说它是让大语言模型(LLM)更聪明的秘密武器?

现在人工智能(AI)很火,尤其是像 ChatGPT 这样的大语言模型(LLM),它们能聊天、写文章、写代码,感觉无所不能。 但有时候,它们也会犯一些小错误,比如信息过时了,或者一本正经地胡说八道(这叫“幻觉”),或者你问它一些你们公司内部的事情,它就完全不知道了。 为了解决这些问题,科学家们想出了一个聪明的办法,叫做RAG。
4/25/2025 10:03:12 AM
用户007
  • 1