大型推理模型
苹果揭示当今先进模型存在严重缺陷,给企业高管敲响警钟
一份具有开创性的苹果研究论文在AI社区引发了轩然大波,该论文揭示了当今最先进模型中存在的严重局限性,这些缺陷此前一直未被发现。 论文《思考的错觉》表明,像GPT-4、Deep Seek和Claude Sonnet这样的高级模型所应用的“思维链”推理,在任务变得过于复杂时,会出现“完全的准确性崩溃”。 最令人担忧的方面似乎是,一旦任务复杂到一定程度,再投入更多的处理能力、标记或数据也无济于事。
6/17/2025 3:18:33 PM
Bernard Marr
当人工智能推理遭遇瓶颈:大型推理模型的崩溃
最近,我们听说人工智能已经学会了思考。 OpenAI 的 o1 系列、DeepSeek 的 R1、Claude 的思维模型——这些“大型推理模型”声势浩大地问世,有望在机器解决复杂问题方面取得突破。 与之前那些仅仅通过模式匹配完成任务的模型不同,这些系统显然能够进行“真正的”推理,甚至拥有与人类思维相符的内心独白。
6/13/2025 1:00:00 AM
苹果研究揭示AI“假性思考”真相:推理模型在复杂任务下反而崩溃
一项由苹果研究人员主导的新研究,对当前被寄予厚望的大型推理模型(LRM)泼了一盆冷水。 研究发现,在解决复杂任务时,像 Claude3.7Thinking 和 Deepseek-R1等专为“模拟思维过程”设计的推理模型,不仅未能展现出优势,反而出现“思考不足”、性能崩溃等严重问题。 这项研究测试了四种经典逻辑谜题:汉诺塔、跳棋、渡河与积木世界。
6/9/2025 10:00:56 AM
AI在线
ALPHAONE(α1):LRM 自适应推理效率与准确性的平衡之道
大家好,我是肆〇柒。 今天,我们来聊大型推理模型(LRM)领域的一项研究 ——ALPHAONE(α1)框架。 当前,大型推理模型如 OpenAI 的 o1 和 DeepSeek-R1 等,已经在诸多复杂推理任务上展现出了强大的能力,但它们在推理过程中也面临着一些挑战,比如容易陷入过度推理或推理不足的困境。
6/9/2025 9:17:44 AM
肆零柒
DeepSeek R1也会大脑过载?过度思考后性能下降,少琢磨让计算成本直降43%
原来,大型推理模型(Large Reasoning Model,LRM)像人一样,在「用脑过度」也会崩溃,进而行动能力下降。 近日,加州大学伯克利分校、UIUC、ETH Zurich、CMU 等机构的研究者观察到了这一现象,他们分析了 LRM 在执行智能体任务过程中存在的推理 - 行动困境,并着重强调了过度思考的危险。 论文标题:The Danger of Overthinking: Examining the Reasoning-Action Dilemma in Agentic Tasks论文链接:「单机模式」下,这些模型在实时互动的环境中仍是「思想上的巨人,行动中的矮子」。
3/2/2025 2:07:00 PM
机器之心
- 1
资讯热榜
标签云
人工智能
AI
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
谷歌
机器人
数据
大模型
Midjourney
开源
智能
用户
Meta
微软
GPT
学习
技术
图像
Gemini
AI创作
马斯克
论文
智能体
Anthropic
英伟达
代码
算法
训练
Stable Diffusion
芯片
蛋白质
开发者
腾讯
生成式
LLM
苹果
Claude
神经网络
AI新词
3D
研究
机器学习
生成
AI for Science
Agent
xAI
计算
人形机器人
Sora
AI视频
GPU
AI设计
百度
华为
搜索
大语言模型
工具
场景
字节跳动
具身智能
RAG
大型语言模型
预测
深度学习
伟达
视觉
Transformer
AGI
视频生成
神器推荐
亚马逊
Copilot
DeepMind
架构
模态
应用