AI在线 AI在线

MIT 推出新方法,显著提升大型语言模型计算效率

MIT 的研究团队近日发布了一项创新的计算方法,旨在提高大型语言模型(LLM)的运算效率,同时降低能源消耗。 这项名为实例自适应缩放的技术,可以根据提问的复杂程度调整计算资源。 研究小组的相关论文于11月初发布,得到了 MIT-IBM 沃森人工智能实验室、MIT-Amazon 科学中心、MIT-Google 计算创新项目以及 MathWorks 的支持。

MIT 的研究团队近日发布了一项创新的计算方法,旨在提高大型语言模型(LLM)的运算效率,同时降低能源消耗。这项名为实例自适应缩放的技术,可以根据提问的复杂程度调整计算资源。研究小组的相关论文于11月初发布,得到了 MIT-IBM 沃森人工智能实验室、MIT-Amazon 科学中心、MIT-Google 计算创新项目以及 MathWorks 的支持。

MIT 推出新方法,显著提升大型语言模型计算效率

图源备注:图片由AI生成,图片授权服务商Midjourney

传统的大型语言模型在处理问题时,往往会使用固定的推理过程奖励模型(PRMs),这使得它们在面对不同复杂度的问题时,计算资源利用率不高,且常常高估成功的概率。MIT 的研究人员通过重新设计 PRMs,使其能够根据不同的问题动态调整推理轨迹的数量。这样,简单的问题可以使用较少的计算资源,而复杂的问题则可以获得更多的推理支持。

研究人员指出,人的思维过程往往是通过分解复杂问题、逐步推理和不断修正来进行的,而 LLM 也同样能从这一过程中获益,能够在推理时获得更多的 “思考” 时间。研究显示,采用这种新方法后,计算资源的使用量减少了一半,同时依然能够提供与现有模型相媲美的准确回答。此外,经过重新校准的 PRMs 也为较小的 LLM 提升了性能。

鉴于这一技术的成功,MIT 团队表示他们将进一步探索该方法在其他应用中的表现,如代码生成和人工智能代理,并计划探索 PRM 校准方法在强化学习等领域的更多应用。

划重点:  

💡 研究团队提出的实例自适应缩放技术可以根据问题复杂性动态调整 LLM 的计算资源。  

🔍 通过重新设计的推理过程奖励模型,计算资源的利用效率大幅提高,简单问题减少计算,复杂问题获得更多支持。  

⚙️ 研究成果显示,该方法能将计算量减半,同时保持相似的准确性,未来将探索其在其他领域的应用潜力。

相关资讯

OpenAI 发布首份 ChatGPT AI 影响人类情绪健康研究

OpenAI与MIT Media Lab的研究揭示了AI聊天机器人对用户情感健康的复杂影响,强调了负责任开发和透明化的重要性。研究结果将为AI行业的未来发展提供重要指导,同时提醒用户合理使用AI工具,避免过度依赖。
3/22/2025 12:24:11 PM
故渊

MIT 具身智能达人志

作者 | 赖文昕编辑 | 陈彩娴「伟大的事情从来不是一个人做的,而是由一群人做的。 」智驾向左,具身向右2015 年的一天,赵行走出 MIT的实验室,收到了浙大本科同级朋友董思远的消息,向同样涉足过光学的他了解 CSAIL 里各位教授的具体研究方向,也想到 MIT 里做些 CV 的工作。 两年前,这两位青年从浙大毕业后赴美深造,都围着视觉打转:赵行到 MIT读博,先后师从Ramesh Raskar和Antonio Torralba教授,研究计算成像和多模态学习;董思远到康涅狄格大学读研,师从郑国安,研究傅里叶叠层成像技术。
4/18/2025 11:05:00 AM
赖文昕

21岁MIT辍学生AI创业团队获得3200万美元融资

在创业的浪潮中,许多年轻人追寻自己的梦想,而来自麻省理工学院(MIT)的两位21岁辍学生卡伦・考希克(Karun Kaushik)和塞林・科卡拉(Selin Kocalar)正在用他们的 AI 合规初创公司 Delve,重塑合规流程的未来。 刚刚完成3200万美元的 A 轮融资,Delve 的估值已高达3亿美元,这一成就让许多创业者心生羡慕。 Delve 的创始团队是 AI 领域的佼佼者,拥有 MIT、斯坦福和伯克利的背景。
7/23/2025 10:32:27 AM
AI在线