AI在线 AI在线

大型推理模型

当人工智能推理遭遇瓶颈:大型推理模型的崩溃

最近,我们听说人工智能已经学会了思考。 OpenAI 的 o1 系列、DeepSeek 的 R1、Claude 的思维模型——这些“大型推理模型”声势浩大地问世,有望在机器解决复杂问题方面取得突破。 与之前那些仅仅通过模式匹配完成任务的模型不同,这些系统显然能够进行“真正的”推理,甚至拥有与人类思维相符的内心独白。
6/13/2025 1:00:00 AM

苹果研究揭示AI“假性思考”真相:推理模型在复杂任务下反而崩溃

一项由苹果研究人员主导的新研究,对当前被寄予厚望的大型推理模型(LRM)泼了一盆冷水。 研究发现,在解决复杂任务时,像 Claude3.7Thinking 和 Deepseek-R1等专为“模拟思维过程”设计的推理模型,不仅未能展现出优势,反而出现“思考不足”、性能崩溃等严重问题。 这项研究测试了四种经典逻辑谜题:汉诺塔、跳棋、渡河与积木世界。
6/9/2025 10:00:56 AM
AI在线

ALPHAONE(α1):LRM 自适应推理效率与准确性的平衡之道

大家好,我是肆〇柒。 今天,我们来聊大型推理模型(LRM)领域的一项研究 ——ALPHAONE(α1)框架。 当前,大型推理模型如 OpenAI 的 o1 和 DeepSeek-R1 等,已经在诸多复杂推理任务上展现出了强大的能力,但它们在推理过程中也面临着一些挑战,比如容易陷入过度推理或推理不足的困境。
6/9/2025 9:17:44 AM
肆零柒

DeepSeek R1也会大脑过载?过度思考后性能下降,少琢磨让计算成本直降43%

原来,大型推理模型(Large Reasoning Model,LRM)像人一样,在「用脑过度」也会崩溃,进而行动能力下降。 近日,加州大学伯克利分校、UIUC、ETH Zurich、CMU 等机构的研究者观察到了这一现象,他们分析了 LRM 在执行智能体任务过程中存在的推理 - 行动困境,并着重强调了过度思考的危险。 论文标题:The Danger of Overthinking: Examining the Reasoning-Action Dilemma in Agentic Tasks论文链接:「单机模式」下,这些模型在实时互动的环境中仍是「思想上的巨人,行动中的矮子」。
3/2/2025 2:07:00 PM
机器之心
  • 1