AI在线 AI在线

Meta 团队研究发现:简化推理链条能显著提升 AI 准确率

近期,Meta 的 FAIR 团队与耶路撒冷希伯来大学的研究人员联合发布了一项新研究,表明减少大型语言模型的推理时间可以显著提高其在复杂推理任务中的表现。 研究结果显示,使用较短推理链的 AI 模型准确率提高了34.5%,这一发现对当前 AI 行业的假设提出了挑战。 图源备注:图片由AI生成,图片授权服务商Midjourney在这项研究中,作者指出,长时间的思考链条并不一定能够带来更好的推理能力,反而会导致计算资源的浪费。

近期,Meta 的 FAIR 团队与耶路撒冷希伯来大学的研究人员联合发布了一项新研究,表明减少大型语言模型的推理时间可以显著提高其在复杂推理任务中的表现。研究结果显示,使用较短推理链的 AI 模型准确率提高了34.5%,这一发现对当前 AI 行业的假设提出了挑战。

元宇宙 科幻 赛博朋克 绘画 (1)大模型

图源备注:图片由AI生成,图片授权服务商Midjourney

在这项研究中,作者指出,长时间的思考链条并不一定能够带来更好的推理能力,反而会导致计算资源的浪费。以往,许多公司投入大量资源以扩展计算能力,期望 AI 能够通过详尽的步骤来解决复杂问题。然而,这项研究表明,较短的推理过程不仅能提高准确性,还能显著降低计算成本。

研究团队提出了一种新方法,称为 “short-m@k”,该方法能够并行执行多个推理尝试,并在少数过程完成后立即停止计算。最终答案通过对这些较短推理链的多数投票选出。结果显示,该方法能够在保证性能不变的情况下,将计算资源减少最多40%。这种方法为组织部署大型 AI 推理系统提供了重要的参考,能够显著节约成本。

此外,研究还发现,训练 AI 模型时使用较短的推理实例,能够进一步提高模型的表现。这与以往的假设相悖,以往认为长时间的推理训练可以带来更好的性能,但实际上,采用较短的训练实例效果更佳。

在 AI 行业中,企业通常急于部署更强大的模型,而这些模型往往需要消耗巨大的计算资源。这项研究的发现,促使技术决策者重新思考推理 LLM(大型语言模型)在测试时的计算方法。研究表明,长时间的 “思考” 不一定能提高性能,反而可能导致结果的下降。

这一研究成果对希望节约计算成本并提升性能的技术巨头们来说,具有重要意义。在一个追求扩展的行业中,教授 AI 更加简洁的思维方式不仅能够节省计算资源,还能提升智能水平。归根结底,人工智能也受益于 “别想太多” 这一古老智慧。

划重点:  

🌟 研究发现,简化推理链条能使 AI 模型准确率提升34.5%。  

💡 新方法 “short-m@k” 能够将计算成本降低40%。  

📈 训练短推理实例可进一步提升 AI 性能,与以往的假设相悖。

相关资讯

Meta Ray-Ban 智能眼镜隐私政策调整:AI 随时“看”,语音云端存

Meta更新Ray-Ban智能眼镜隐私政策,AI摄像头功能默认开启,语音录音强制云端存储一年。用户需手动关闭“Hey Meta”功能以禁用AI分析,物理按键仍可作普通相机使用。#智能眼镜隐私# #MetaAI升级#
4/30/2025 11:24:30 PM
远洋

Meta首席AI科学家预测五年内将出现新的AI架构范式,开启 “机器人十年”

在日前的达沃斯 “技术辩论” 会上,Meta 的首席 AI 科学家 Yann LeCun 对未来五年的人工智能发展做出了激动人心的预测。 他认为,现有的人工智能系统将在未来3到5年内面临巨大的变革,将出现一种 “新的 AI 架构范式”,超越当今普遍使用的生成式 AI 和大型语言模型(LLM)的能力。 LeCun 指出,当前的 LLM 虽然在语言处理上表现良好,但在真正智能的行为上却存在显著局限性。
1/24/2025 9:43:00 AM
AI在线

Meta 创新推出 “连续概念混合” 框架,推动 Transformer 预训练新革命

近年来,随着大型语言模型(LLMs)的快速发展,自然语言处理领域经历了前所未有的变革。 这些技术如今广泛应用于代码助手、搜索引擎和个人 AI 助手等场景,展现了强大的能力。 然而,传统的 “下一个 token 预测” 范式存在一定局限性,尤其是在处理复杂推理和长期任务时,模型需要经历大量训练才能掌握深层次的概念理解。
2/17/2025 10:05:00 AM
AI在线
  • 1