LRM
研究人员发现奇怪现象:思考时间越长,大模型越笨
Michael Nuñez@MichaelFNunez译者 | 核子可乐审校 | 重楼Anthropic一项最新研究表明,AI模型耗费更长时间“思考”后表现未必更好,在某些情况下性能甚至会显著下降。 这一发现,挑战了AI行业推理浪潮的理论根基。 这项由Anthropic公司AI安全研究员Aryo Pradipta Gema及其他几位研究人员主导的项目,发现了所谓“测试时计算反比例”迹象,即延长大语言模型的推理长度实际上会降低其在多种任务中的表现。
7/28/2025 7:45:36 AM
核子可乐
苹果揭示当今先进模型存在严重缺陷,给企业高管敲响警钟
一份具有开创性的苹果研究论文在AI社区引发了轩然大波,该论文揭示了当今最先进模型中存在的严重局限性,这些缺陷此前一直未被发现。 论文《思考的错觉》表明,像GPT-4、Deep Seek和Claude Sonnet这样的高级模型所应用的“思维链”推理,在任务变得过于复杂时,会出现“完全的准确性崩溃”。 最令人担忧的方面似乎是,一旦任务复杂到一定程度,再投入更多的处理能力、标记或数据也无济于事。
6/17/2025 3:18:33 PM
Bernard Marr
ALPHAONE(α1):LRM 自适应推理效率与准确性的平衡之道
大家好,我是肆〇柒。 今天,我们来聊大型推理模型(LRM)领域的一项研究 ——ALPHAONE(α1)框架。 当前,大型推理模型如 OpenAI 的 o1 和 DeepSeek-R1 等,已经在诸多复杂推理任务上展现出了强大的能力,但它们在推理过程中也面临着一些挑战,比如容易陷入过度推理或推理不足的困境。
6/9/2025 9:17:44 AM
肆零柒
250多篇论文,上海AI Lab综述推理大模型高效思考
最近,像 OpenAI o1/o3、DeepSeek-R1 这样的大型推理模型(Large Reasoning Models,LRMs)通过加长「思考链」(Chain-of-Thought,CoT)在推理任务上表现惊艳。 但随之而来的是一个日益严重的问题:它们太能「说」了! 生成的推理过程往往充斥着冗余信息(比如反复定义)、对简单问题过度分析,以及对难题的探索浅尝辄止。
4/4/2025 1:47:00 PM
机器之心
- 1
资讯热榜
OpenAI 宣布印度用户可享受一年免费 ChatGPT Go 服务
软银豪掷225亿美元加码OpenAI,AI音乐与超级融资计划全面提速
全网刷屏的「电影感」三宫格图片,教你用AI快速生成!
LangChain V1.0 深度解析:手把手带你跑通全新智能体架构
消息称软银批准对 OpenAI 追加 225 亿美元投资,助力未来上市
LLM 应用评估综合指南(多轮对话系统、RAG、AI Agent)
红杉资本注资Rogo Technologies,AI 工具或将颠覆初级银行家角色
LLM近一半回答在扭曲真相!ChatGPT、Gemini,全部顶流模型统统中招!BBC研究:AI系统性错误把媒体拖下水,信任滑坡
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
大模型
数据
Midjourney
开源
Meta
智能
微软
用户
AI新词
GPT
学习
技术
智能体
马斯克
Gemini
图像
Anthropic
英伟达
AI创作
训练
LLM
论文
代码
算法
Agent
AI for Science
芯片
苹果
腾讯
Stable Diffusion
Claude
蛋白质
开发者
生成式
神经网络
xAI
机器学习
3D
RAG
人形机器人
研究
AI视频
生成
大语言模型
具身智能
Sora
工具
GPU
百度
华为
计算
字节跳动
AI设计
AGI
大型语言模型
搜索
视频生成
场景
深度学习
DeepMind
架构
生成式AI
编程
视觉
Transformer
预测
AI模型
伟达
亚马逊
MCP