AI在线 AI在线

AI

读万卷书,大模型就能「看」懂视觉世界?Meta揭秘LLM视觉先验的起源

读万卷书,大模型就能「看」懂视觉世界?Meta揭秘LLM视觉先验的起源

一个只见过文本的大语言模型(LLM),在从未直接看过图像的情况下,竟然能学到可迁移到视觉任务的先验能力 —— 这是 Meta Superintelligence Labs 与牛津团队新论文的发现。 近日,Meta 超级智能实验室(Meta Superintelligence Labs)与牛津大学的研究者发布了一篇长达 33 页的重磅论文,通过超过 100 组受控实验、耗费 50 万 GPU 小时的庞大研究,系统性地揭开了 LLM 视觉先验的来源。 作者提出,视觉先验可分为「推理先验」和「感知先验」,并给出了一套预训练的数据混合配方,用于在只用文本预训练阶段就「播下」视觉能力的种子。
10/11/2025 6:05:23 PM
超越ZIP的无损压缩来了!华盛顿大学让大模型成为无损文本压缩器

超越ZIP的无损压缩来了!华盛顿大学让大模型成为无损文本压缩器

当大语言模型生成海量数据时,数据存储的难题也随之而来。 对此,华盛顿大学(UW)SyFI实验室的研究者们提出了一个创新的解决方案:LLMc,即利用大型语言模型自身进行无损文本压缩的引擎。 基准测试结果表明,无论是在维基百科、小说文本还是科学摘要等多种数据集上,LLMc的压缩率都优于传统的压缩工具(如ZIP和LZMA)。
10/11/2025 6:05:23 PM
库克虎口夺食:马斯克盯上的北大校友AI公司被苹果抢走

库克虎口夺食:马斯克盯上的北大校友AI公司被苹果抢走

好家伙,库克一个箭步,从马斯克手里截胡了一家AI公司。 他俩争抢的主角是Prompt AI,一家成立于2023年,专注于CV的初创公司。 其联创之一,是从北大计算机科学毕业的Tete Xiao。
10/11/2025 6:05:23 PM
微调已死?Agentic上下文工程登场,无需微调实现模型进化

微调已死?Agentic上下文工程登场,无需微调实现模型进化

是什么,让一位 AI 自动化架构师发出了「微调已死」的感慨? 一篇来自斯坦福大学、SambaNova、UC 伯克利的论文近日引发了广泛讨论。 他们提出了一种名为 Agentic Context Engineering(智能体 / 主动式上下文工程)的技术,让语言模型无需微调也能实现自我提升!
10/11/2025 6:05:23 PM
“现阶段就差数据了”Figure 03登《时代》最佳发明榜封面,CEO放话了

“现阶段就差数据了”Figure 03登《时代》最佳发明榜封面,CEO放话了

刚发布第三代机器人Figure 03、收获全网关注的Figure,很快又因CEO的言论再度引发热议? 事情是这样婶儿的……有网友发推文表示:Figure CEO Brett Adcock最近接受了《时代》采访,《时代》称Figure 03仍存在重大问题,尚未适用于日常工作。 当被问及还需要什么时,Brett回答:数据。
10/11/2025 3:55:41 PM
UC伯克利大牛预警:留给人类能干的活,只剩5年了!

UC伯克利大牛预警:留给人类能干的活,只剩5年了!

折衣、做饭、拖地,五年后可能都不用你亲自动手! UC伯克利教授、机器人顶级专家Sergey Levine预言:2030年前,机器人就能像家政阿姨一样,独立打理整个家庭。 这不是炫技演示,而是「自我进化飞轮」即将启动的信号。
10/11/2025 3:55:08 PM
77岁「AI教父」Hinton:AI早有意识!我们打造的智能,可能终结人类文明

77岁「AI教父」Hinton:AI早有意识!我们打造的智能,可能终结人类文明

当大家热议AI算力与应用之时,「AI教父」Hinton猛地扯回「何为人」的原点。 几十年来,Hinton像一位耐心的炼金术士,致力于将模仿大脑运作的理论,锻造成驱动现代AI的强大引擎。 然而,这位创造者如今却站在了自己创造物的阴影之下,发出了沉重的警告。
10/11/2025 3:38:01 PM
熬死5家初创公司老鸟揭露业内残酷真相:70%的Agent产品系OpenAI套壳,没有上下文和工具,智能体就是笨蛋!无限记忆是陷阱

熬死5家初创公司老鸟揭露业内残酷真相:70%的Agent产品系OpenAI套壳,没有上下文和工具,智能体就是笨蛋!无限记忆是陷阱

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto). 先坦白一件事:AI Agent 不是魔法。 它们脆弱、多变,更像是喝了咖啡的实习生,而不是能独立完成任务的员工。
10/11/2025 2:04:09 PM 云昭
Vision-Zero:零数据VLM自我进化!陈怡然团队提出零监督训练新范式

Vision-Zero:零数据VLM自我进化!陈怡然团队提出零监督训练新范式

本文作者包括来自杜克大学的汪勤思、林阅千、李海教授、陈怡然教授,新加坡国立大学的刘博,马里兰大学的周天翼教授,和 Adobe 的研究员施靖、万锟、赵文天。 开源代码&模型:::,但训练过度依赖人工标注的数据与精心设计的强化学习奖励。 这种依赖带来数据稀缺问题:多模态标注成本高昂,限制了训练数据的规模与多样性。
10/11/2025 1:51:21 PM
西湖大学打造了一个AI科学家,突破人类SOTA,还能自己发论文

西湖大学打造了一个AI科学家,突破人类SOTA,还能自己发论文

西湖大学用AI科学家,两周完成了人类三年的科研量。 这个科学家,是一个名叫DeepScientist的AI系统,自己捣鼓出了5000多个科学想法,动手验证了其中1100个,最后在三个前沿AI任务上,把人类科学家辛辛苦苦创造的SOTA纪录给刷新了。 西湖大学文本智能实验室(WestlakeNLP)发了篇论文,把这个能搞自主探索的AI科学家介绍给了全世界。
10/11/2025 9:15:57 AM
Anthropic发布的AI Agent设计哲学与经典设计模式

Anthropic发布的AI Agent设计哲学与经典设计模式

最近在学习AI Agent的设计模式时,发现了Anthropic发布的一篇好文《Building Effective agents》,仔细学习了下,值得跟大家分享。 在AI代理开发领域,Anthropic最新发布的研究报告为行业指明了方向。 经过与数十个跨行业团队的深度合作,Anthropic发现了一个令人意外的真相:最成功的LLM代理实现都采用简单、可组合的模式,而非复杂的框架。
10/11/2025 9:14:09 AM 阿丸笔记
让大模型合成检查器:UIUC团队挖出Linux内核90余个长期潜伏漏洞

让大模型合成检查器:UIUC团队挖出Linux内核90余个长期潜伏漏洞

这篇论文的作者来自伊利诺伊大学香槟分校(UIUC)张令明老师团队,包括:杨晨源,四年级博士生,研究方向是基于 AI 大模型的软件系统可靠性保障;赵子杰,四年级博士生,研究方向是模糊测试等软件工程技术与 AI 大模型的结合;谢子晨,科研实习生,目前为弗吉尼亚大学一年级博士生;李皓宇,科研实习生,目前为 UIUC 一年级博士生。 张令明老师现任 UIUC 计算机系副教授,主要从事软件工程、机器学习、代码大模型的相关研究。 想象一下,大语言模型不仅能生成代码,还能通过静态分析看代码找漏洞:在千万行的 Linux 内核代码中挖出 92 个长期潜伏的真实缺陷 —— 这也可能是 LLM 首次在 Linux 内核中发现如此多的实际漏洞。
9/28/2025 9:13:00 AM
刚刚,北大&360里程碑式突破!32B安全分碾压千亿巨兽

刚刚,北大&360里程碑式突破!32B安全分碾压千亿巨兽

2025年9月23日,由「北大-360大模型联合实验室」研发的TinyR1-32B模型正式发布。 近年来开源大模型层出不穷,但对「安全性」的关注却严重不足。 北大-360联合实验室聚焦于大模型安全方向,以极高的安全性能和轻量化的创新设计,推出更安全的模型TinyR1-32B。
9/28/2025 9:12:00 AM
苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代

苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代

蛋白质折叠,一直是计算生物学中的一个核心难题,并对药物研发等领域产生着深远影响。 若把蛋白质折叠类比为视觉领域的生成模型,氨基酸序列相当于「提示词」,模型输出则是原子的三维坐标。 受此思维启发,研究人员构建了一个基于标准Transformer模块与自适应层的通用且强大的架构——SimpleFold。
9/28/2025 9:12:00 AM
估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」

估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」

刚刚,OpenAI前CTO Mira Murati创办的Thinking Machines Lab再次发布成果! 这是他们继《克服LLM推理中的不确定性》(Defeating Nondeterminism in LLM Inference)之后,第二篇研究文章——《模块流形》(Modular Manifolds)。 博客地址:「走钢丝」,必须小心翼翼地维持其内部「健康」,防止权重、激活值或梯度这些关键张量变得过大或过小,以免引发数值溢出等一系列问题。
9/28/2025 9:11:00 AM
免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」

免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」

在大型语言模型的优化中,业界通常认为计算量与模型性能正相关。 然而,杜克大学陈怡然教授团队的一项最新研究DPad,却揭示了一个反直觉的现象:对于扩散大语言模型(dLLMs),通过一种「先验丢弃」策略,主动减少其计算量,不仅能带来高达61倍的推理加速,还能意外地增强模型语境学习的能力。 这一发现源于对dLLM内部一种「中奖彩票」(Lottery Ticket)现象的洞察。
9/28/2025 9:10:00 AM
刚刚,奥特曼预言:人类「只剩」最后5年!

刚刚,奥特曼预言:人类「只剩」最后5年!

倒计时开始! 奥特曼把「超级智能」实现的时间线拉到了2030年。 5年后,AI将全面超越人类。
9/28/2025 9:09:00 AM
2025全球前2%顶尖科学家榜单发布!清华国内第一、Bengio全球前十

2025全球前2%顶尖科学家榜单发布!清华国内第一、Bengio全球前十

当地时间9月19日,斯坦福大学和国际权威学术出版社爱思唯尔(Elsevier)共同发布了「斯坦福2025全球前2%顶尖科学家榜单」。 全榜单链接:,国内共有1435人入选终身「斯坦福2025全球前2%顶尖科学家榜单」;有2270人入选年度「斯坦福2025全球前2%顶尖科学家榜单」。 这份榜单是学术界关注度最高的爱思唯尔发布的年度清单之一。
9/28/2025 9:08:00 AM