AI在线 AI在线

理论

Windows最新搭载微软自研模型Mu,一句话搞定所有系统配置

还在为复杂的Windows设置头疼? 微软来重新定义设置界面交互了。 全新发布的设备端小语言模型Mu,让Windows 11的设置也拥有了自己的AI Agent。
6/25/2025 1:42:54 PM

为什么MCP能爆火,但ChatGPT插件之流全都死了?神贴断言:MCP吞噬一切!网友:炒作太过,本质还是重复造轮子!

编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)MCP(Model Context Protocol)其实并不新,它早在去年就由 Anthropic 正式提出。 但短短几个月后,它的支持阵容迅速扩展,从 Cursor、Zed 等新兴工具,到谷歌、OpenAI 等顶级玩家,几乎整个 LLM 工具链都开始围绕 MCP 建设生态。 你有没有想过一个问题:为什么 MCP 之前的那些“前辈”都没活下来,它却突然火遍全场?
6/25/2025 1:13:52 PM
伊风

LLM 的反馈困境:为何大型语言模型难以完全吸收外部建议

大家好,我是肆〇柒。 在 AI 领域,大型语言模型(LLM)正以前所未有的速度改变着我们处理信息和解决问题的方式。 然而,在当下落地 AI 应用时,一个关键问题逐渐浮出水面:LLM 是否能够真正理解并整合外部反馈,从而实现自我改进并达到其性能的极限?
6/25/2025 10:21:08 AM
肆零柒

万字干货:小红书 hi lab 团队关于奖励模型的一些探索

奖励模型(Reward Models,RM)在确保大语言模型(LLMs)遵循人类偏好方面发挥着关键作用。 这类模型通过学习人类的偏好判断,为语言模型的训练提供重要的引导信号。 奖励模型很多科学问题都充满挑战,小红书 hi lab团队过去一段时间对下列几个问题和关键挑战进行了一些探索:奖励模型应该如何评估?
6/25/2025 9:53:59 AM

强化学习新发现:无需数学样本,仅游戏训练AI推理大增

第一作者谢云飞是莱斯大学博士生,导师为通讯作者魏晨教授,研究方向包括多模态生成与理解。 Project Leader 肖俊飞是约翰斯・霍普金斯大学博士生,导师为 Bloomberg Distinguished Professor Alan Yuille。 第二作者马崟淞是约翰斯・霍普金斯大学博士生。
6/25/2025 9:28:38 AM

外国小哥徒手改装消费级5090,一举击败巨无霸RTX Pro 6000

一块经过 shunt mod 改装的华硕 ROG Astral LC RTX 5090 的性能,超越了售价 10,000 美元的 RTX Pro 6000。 「Shunt Mod」 是一种硬件级别的、具有高风险性的电路改装方法,主要用于绕过电子设备(特别是高性能显卡和主板)内置的功耗(功率)和电流限制。 这项惊人的成果来自硬件改装大师 Der8auer(本名 Roman Hartung)。
6/25/2025 9:25:07 AM

ToMAP:赋予大模型「读心术」,打造更聪明的AI说服者

本文第一作者为韩沛煊,本科毕业于清华大学计算机系,现为伊利诺伊大学香槟分校(UIUC)计算与数据科学学院一年级博士生,接受 Jiaxuan You 教授指导。 其主要研究方向为:大语言模型的安全性及其在复杂场景中的推理。 说服,是影响他人信念、态度甚至行为的过程,广泛存在于人类社会之中。
6/25/2025 9:19:44 AM

Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?

普林斯顿大学计算机科学系助理教授陈丹琦团队又有了新论文了。 近期,诸如「长思维链」等技术的兴起,带来了需要模型生成数万个 token 的全新工作负载。 大多数语言模型都基于 Transformer 架构,其在进行自回归解码(即逐字生成文本)时,需要将所有先前 token 的注意力状态存储在一个名为 KV 缓存的内存区域中。
6/25/2025 9:15:38 AM

华科开源MonkeyOCR:3B小模型,居然把GPT-4o给比下去了

看到这个标题,你可能会想"又一个号称吊打GPT的模型"。 但这次不一样,华中科技大学真的搞出了点名堂。 前几天,华科和金山办公联合开源了一个叫MonkeyOCR的文档解析模型。
6/25/2025 9:14:00 AM
阿丸笔记

如何做到在手机上实时跑3D真人数字人?MNN-TaoAvatar开源了!

TaoAvatar 是由阿里巴巴淘宝 Meta 技术团队研发的 3D 真人数字人技术,这一技术能在手机或 XR 设备上实现 3D 数字人的实时渲染以及 AI 对话的强大功能,为用户带来逼真的虚拟交互体验。 它是如何实现的呢? 本文将为您揭秘 TaoAvatar 背后的黑科技!
6/25/2025 9:11:16 AM

谷歌发布本地具身智能模型!全程无联网执行精细操作,从人形机器人到工业机器人全覆盖

机器人终于有了自己的“离线大脑”。 Google DeepMind团队首个可以完全在机器人本地运行的视觉-语言-动作(VLA)模型Gemini Robotics On-Device发布。 这个模型不仅能离线运行,还保持了相当强悍的操作能力,能遵循指令完成各种需要精细操作的任务。
6/25/2025 9:04:59 AM

机器人视觉语言导航进入R1时代!港大联合上海AI Lab提出全新具身智能框架

你对着家里的机器人说:“去厨房,看看冰箱里还有没有牛奶。 ”它不仅准确走到了厨房,还在移动过程中避开了椅子,转身打开冰箱,并回答你:“还有半瓶。 ”这不是遥远的科幻,而是视觉语言导航技术的下一站。
6/25/2025 9:02:05 AM

ICML 2025 | 生成式视角重塑监督学习!标签不只是答案,更是学习指南

生成式视角可以对监督学习重新思考乃至重新定义! 想象你在教一个学生解数学题——你会直接让他交卷对答案,还是会让他参考完整答案来理解解题思路? 如今,一种全新的监督学习范式正受到关注:标签不应只是用于对照回答的标准答案,更可能成为学习过程中的辅助参考。
6/25/2025 8:59:49 AM

7B小模型超越DeepSeek-R1:模仿人类教师,弱模型也能教出强推理LLM | Transformer作者团队

Thinking模式当道,教师模型也该学会“启发式”教学了——由Transformer作者之一Llion Jones创立的明星AI公司Sakana AI,带着他们的新方法来了! 这个方法要求教师模型像优秀的人类教师一样,根据已知解决方案输出清晰的逐步解释,而不再是从头开始自己解决。 用Sanaka AI的新方法训练出的7B小模型,在传授推理技能方面,比671B的DeepSeek-R1还要有效。
6/25/2025 8:54:03 AM

合成数据>人工数据,绝对性能暴涨超10个点!仅需任务定义,高效微调大模型

尽管如GPT-4和Gemini等基础模型已在通用语言理解方面设立了新的行业标杆 ,但它们在需要深度领域知识的专业领域中,其表现常常不尽如人意。 当面临数学、医学、法律及金融等专门任务时,这些模型时常表现不佳,因为这些领域高度依赖特定的专业知识。 传统上,为了让这些模型适应特定领域,最直接的方法是使用大规模的人类标注数据进行微调。
6/25/2025 8:53:00 AM

为什么你的 AI 数据战略应该包含 MCP

随着代理系统变得越来越复杂,企业能力在这些系统中作为工具出现,建立明确且一致的规则对于自主工作流程的成功至关重要。 模型上下文协议 (MCP) 为代理、LLM 和企业系统提供通用语言。 将 MCP 纳入 AI 数据战略的企业将能够构建新功能,确保信任和可审计性,并适应快速发展的创新。
6/25/2025 2:30:00 AM
晓晓

你的 Cursor 用对了吗:SWE agent 智能协作之道

大家好,我是肆〇柒。 做过程序猿的朋友,或者与程序猿群体走的近的朋友,应该了解程序猿这个群体,每天都在正面临着日益增长的系统复杂性和高效交付的巨大压力。 为了提升生产力并应对这些挑战,Gen AI 工具,尤其是软件工程智能体(SWE agent,比如 cursor 等),逐渐成为了开发者的得力助手。
6/25/2025 2:00:00 AM
肆零柒

无训练智能体蒸馏:AgentDistill 低成本高能效的智能进化方案

大家好,我是肆〇柒。 在 AI 领域,大型语言模型(LLM)的蒸馏技术正以前所未有的速度发展,成为压缩模型规模、降低推理成本的关键手段。 然而,现有的 LLM 智能体蒸馏方法却面临着高计算成本、泛化能力不足等诸多挑战。
6/25/2025 1:00:00 AM
肆零柒