AI在线 AI在线

AI

熬死5家初创公司老鸟揭露业内残酷真相:70%的Agent产品系OpenAI套壳,没有上下文和工具,智能体就是笨蛋!无限记忆是陷阱

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto). 先坦白一件事:AI Agent 不是魔法。 它们脆弱、多变,更像是喝了咖啡的实习生,而不是能独立完成任务的员工。
10/11/2025 2:04:09 PM
云昭

Vision-Zero:零数据VLM自我进化!陈怡然团队提出零监督训练新范式

本文作者包括来自杜克大学的汪勤思、林阅千、李海教授、陈怡然教授,新加坡国立大学的刘博,马里兰大学的周天翼教授,和 Adobe 的研究员施靖、万锟、赵文天。 开源代码&模型:::,但训练过度依赖人工标注的数据与精心设计的强化学习奖励。 这种依赖带来数据稀缺问题:多模态标注成本高昂,限制了训练数据的规模与多样性。
10/11/2025 1:51:21 PM

西湖大学打造了一个AI科学家,突破人类SOTA,还能自己发论文

西湖大学用AI科学家,两周完成了人类三年的科研量。 这个科学家,是一个名叫DeepScientist的AI系统,自己捣鼓出了5000多个科学想法,动手验证了其中1100个,最后在三个前沿AI任务上,把人类科学家辛辛苦苦创造的SOTA纪录给刷新了。 西湖大学文本智能实验室(WestlakeNLP)发了篇论文,把这个能搞自主探索的AI科学家介绍给了全世界。
10/11/2025 9:15:57 AM

Anthropic发布的AI Agent设计哲学与经典设计模式

最近在学习AI Agent的设计模式时,发现了Anthropic发布的一篇好文《Building Effective agents》,仔细学习了下,值得跟大家分享。 在AI代理开发领域,Anthropic最新发布的研究报告为行业指明了方向。 经过与数十个跨行业团队的深度合作,Anthropic发现了一个令人意外的真相:最成功的LLM代理实现都采用简单、可组合的模式,而非复杂的框架。
10/11/2025 9:14:09 AM
阿丸笔记

让大模型合成检查器:UIUC团队挖出Linux内核90余个长期潜伏漏洞

这篇论文的作者来自伊利诺伊大学香槟分校(UIUC)张令明老师团队,包括:杨晨源,四年级博士生,研究方向是基于 AI 大模型的软件系统可靠性保障;赵子杰,四年级博士生,研究方向是模糊测试等软件工程技术与 AI 大模型的结合;谢子晨,科研实习生,目前为弗吉尼亚大学一年级博士生;李皓宇,科研实习生,目前为 UIUC 一年级博士生。 张令明老师现任 UIUC 计算机系副教授,主要从事软件工程、机器学习、代码大模型的相关研究。 想象一下,大语言模型不仅能生成代码,还能通过静态分析看代码找漏洞:在千万行的 Linux 内核代码中挖出 92 个长期潜伏的真实缺陷 —— 这也可能是 LLM 首次在 Linux 内核中发现如此多的实际漏洞。
9/28/2025 9:13:00 AM

刚刚,北大&360里程碑式突破!32B安全分碾压千亿巨兽

2025年9月23日,由「北大-360大模型联合实验室」研发的TinyR1-32B模型正式发布。 近年来开源大模型层出不穷,但对「安全性」的关注却严重不足。 北大-360联合实验室聚焦于大模型安全方向,以极高的安全性能和轻量化的创新设计,推出更安全的模型TinyR1-32B。
9/28/2025 9:12:00 AM

苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代

蛋白质折叠,一直是计算生物学中的一个核心难题,并对药物研发等领域产生着深远影响。 若把蛋白质折叠类比为视觉领域的生成模型,氨基酸序列相当于「提示词」,模型输出则是原子的三维坐标。 受此思维启发,研究人员构建了一个基于标准Transformer模块与自适应层的通用且强大的架构——SimpleFold。
9/28/2025 9:12:00 AM

估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」

刚刚,OpenAI前CTO Mira Murati创办的Thinking Machines Lab再次发布成果! 这是他们继《克服LLM推理中的不确定性》(Defeating Nondeterminism in LLM Inference)之后,第二篇研究文章——《模块流形》(Modular Manifolds)。 博客地址:「走钢丝」,必须小心翼翼地维持其内部「健康」,防止权重、激活值或梯度这些关键张量变得过大或过小,以免引发数值溢出等一系列问题。
9/28/2025 9:11:00 AM

免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」

在大型语言模型的优化中,业界通常认为计算量与模型性能正相关。 然而,杜克大学陈怡然教授团队的一项最新研究DPad,却揭示了一个反直觉的现象:对于扩散大语言模型(dLLMs),通过一种「先验丢弃」策略,主动减少其计算量,不仅能带来高达61倍的推理加速,还能意外地增强模型语境学习的能力。 这一发现源于对dLLM内部一种「中奖彩票」(Lottery Ticket)现象的洞察。
9/28/2025 9:10:00 AM

刚刚,奥特曼预言:人类「只剩」最后5年!

倒计时开始! 奥特曼把「超级智能」实现的时间线拉到了2030年。 5年后,AI将全面超越人类。
9/28/2025 9:09:00 AM

2025全球前2%顶尖科学家榜单发布!清华国内第一、Bengio全球前十

当地时间9月19日,斯坦福大学和国际权威学术出版社爱思唯尔(Elsevier)共同发布了「斯坦福2025全球前2%顶尖科学家榜单」。 全榜单链接:,国内共有1435人入选终身「斯坦福2025全球前2%顶尖科学家榜单」;有2270人入选年度「斯坦福2025全球前2%顶尖科学家榜单」。 这份榜单是学术界关注度最高的爱思唯尔发布的年度清单之一。
9/28/2025 9:08:00 AM

创智&交大发现AI能动性新规律, 78样本胜GPT5实现软件+科研自动化

本文来自于上海创智学院和上海交大刘鹏飞老师团队,团队专注于构建最前沿 AI 系统。 核心作者来自于香港理工大学,上海交通大学,以及中国科学技术大学。 从 ChatGPT 到 Claude,从 Codex 到 Claude Code,全球科技公司正在 "能动性" 领域展开激烈竞争。
9/28/2025 9:07:00 AM

强化学习之父Richard Sutton最新采访:LLM是“死路一条”

强化学习之父Richard Sutton老爷子加入了Yann LeCun行列,认为当前的LLM路线行不通,不可能通向AGI。 图灵奖获得者Richard Sutton,强化学习之父最新采访,认为当前热门的大语言模型是一条死胡同。 他的核心观点是,LLMs 的架构从根本上缺乏从实际互动(on-the-job)中持续学习的能力。
9/28/2025 8:58:55 AM

Agentic AI 的 17 种模式及其在下一代大规模 AI 系统中的价值

当你构建一个大规模AI系统时,你其实是在把不同的代理设计模式组合起来。 每个模式都有自己的阶段、构建方法、输出和评估。 如果我们退一步,把这些模式归类,它们可以分成17种高层架构,这些架构捕捉了代理系统可能采用的主要形式……Multi-Agent System,在这个系统中,几个工具和代理一起合作来解决问题。
9/28/2025 8:39:56 AM
AI研究生

为什么说“嵌入”是 AI 的灵魂?一文带你玩转 SpringAI 向量模型

最近有小伙伴问我,AI 里的“嵌入模型 API”到底是干嘛的? 其实,它就像把文字、图片、数据转成“数字DNA”,方便 AI 理解和处理。 在 SpringAI 里,这一套 API 已经封装得很优雅,今天小米就带大家从故事开头一路聊到落地实现,保证看完你能用得飞起。
9/28/2025 3:55:00 AM
软件求生

Stability AI前CEO惊人预测:人类智力价值归零,只剩1000天!

Stability AI前CEO、缔造者Emad Mostaque,观点惊人:未来1000天内,人工智能不仅将取代工作岗位,更将彻底重塑人类的经济结构。 AI的「无情优化」可能让人类劳动力变得一文不值,甚至变成负值。 在最近的《影响理论》(Impact Theory)播客节目上,Emad Mostaque讨论了他的新书《最后的经济》。
9/28/2025 3:00:00 AM
新智元

AI在前后端联调提效的实践

一、背景介绍现阶段前后端自测 联调耗时较长,经过摸底,耗时主要在以下几个方面:接口录入、接口转为前端代码、mock数据生成。 但是在我们预期中,联调耗时占比应该很少,理想情况下就像两个匹配的齿轮,各自完成开发后,组装在一起便可顺利运行。 为了达到这种状态,需要重新梳理我们现有的工具和流程,融入AI的能力,让联调自测环节更加高效。
9/28/2025 1:22:00 AM
叶宗洋

AI工作垃圾大爆发:员工花2小时擦屁股,企业一年亏900万美金

生成式 AI 本该成为效率革命的引擎,如今却被越来越多的员工拿来制造“看起来像完成了工作”的伪成果。 研究发现,所谓的“AI 工作垃圾”(Workslop),已经渗透进各大公司,并正以意想不到的方式削弱协作、拉低生产力。 从幻灯片、总结、代码到整篇报告,人们用 AI 生成光鲜的内容,但内容本身缺乏深度,缺少上下文,也没有真正的思考。
9/28/2025 12:00:05 AM