AI在线 AI在线

论文

实锤了:GPU越多,论文接收率越高、引用越多

在过去三年里,AI 领域取得了显著进步,这一飞跃主要得益于基础模型的发展。 这些模型在大规模多模态数据上进行训练,并在公开发布后取得了巨大成功。 然而,基础模型的研究需要大量的数据、算力和人力资源。
10/17/2025 4:40:00 PM
机器之心

王兴兴硕士论文惊现GitHub,宇树雏形那时候就有了

人火了是连毕业论文都要被翻出来的(doge)。 这不,宇树科技CEO王兴兴的硕士毕业论文就被网友们掘地三尺找到了。 (不在知网,而是在GitHub上找到的。
10/16/2025 8:46:00 AM

读万卷书,大模型就能「看」懂视觉世界?Meta揭秘LLM视觉先验的起源

一个只见过文本的大语言模型(LLM),在从未直接看过图像的情况下,竟然能学到可迁移到视觉任务的先验能力 —— 这是 Meta Superintelligence Labs 与牛津团队新论文的发现。 近日,Meta 超级智能实验室(Meta Superintelligence Labs)与牛津大学的研究者发布了一篇长达 33 页的重磅论文,通过超过 100 组受控实验、耗费 50 万 GPU 小时的庞大研究,系统性地揭开了 LLM 视觉先验的来源。 作者提出,视觉先验可分为「推理先验」和「感知先验」,并给出了一套预训练的数据混合配方,用于在只用文本预训练阶段就「播下」视觉能力的种子。
10/11/2025 6:05:23 PM

NeurIPS近3万投稿爆仓,强拒400篇论文!博士疯狂内卷,AI顶会噩梦来袭

AI顶会,一场「爆仓危机」正在上演。 由于会议场地限制,NeurIPS 2025正通知「高级领域主席」(SAC),拒收已被录用的论文。 一位SAC爆料,大约400篇论文直接被砍掉,即便是三位审稿人和AC已通过初审。
9/1/2025 5:09:21 PM

AAAI-26投稿量爆炸:近3万篇论文,2万来自中国,评审系统都快崩了

你可能不信,你投的 AAAI-2026 会议,应该是有史以来投稿量最多的一次。 此前,取号人数就突破了 3 万,其中有不少 NeurIPS 转投的。 如今官方数据也公开了:主技术轨道共接收将近 29000 篇投稿,来自中国的投稿接近 20000 篇,占据了惊人的三分之二。
8/28/2025 3:32:51 PM

破解人机协作密码:工作技能拆成两层,AI执行人类决策成功率狂飙 | ICML 2025

人类和AI在工作中如何协作? 耶鲁和南大的研究人员合作的这篇论文讲清楚了。 这篇论文提出了一个数学框架,通过把工作技能拆分成两个层次来解释这个问题,具体包括:决策层子技能(decision-level subskill):确立目标、界定问题、权衡取舍的认知工作。
8/28/2025 9:12:00 AM

科学界论文高引第一人易主!AI站上历史巅峰

魔镜魔镜,谁是有史以来被引用次数最多的科学家? 答案:深度学习三巨头之一、图灵奖得主Yoshua Bengio。 如你所见,之所以提出这个问题,其实是因为相关消息正在引起热议ing。
8/26/2025 9:10:00 AM

AI顶会反噬整个学术圈!「不发表就会死」,NeurIPS爆仓,博士年肝4.5篇大崩溃

或许你也注意到了这个现象——AI和机器学习的繁荣,已经造成了一场少有人谈论的危机。 学生和研究人员过剩,就业前景有限,整个学术体系已经不堪重负。 随着NeurIPS、ICML和CVPR等会议的投稿数量激增,同行评审流程正在崩溃。
8/18/2025 8:51:00 AM

反击AI论文!arXiv每年拒掉2%造假内容,自动化工具加入审核

AI生成论文泛滥成灾,arXiv平台看不下去了——. 紧急升级审核机制,用自动化工具来检测AI生成内容。 Nature最新发现,原来每年竟然都有2%的论文会因为AI使用被拒?
8/14/2025 3:45:49 PM
鹭羽

刚刚!UCLA杨林团队证明:仅凭提示词,Gemini 2.5 Pro就可以拿到IMO2025金牌

最近大家应该都被OpenAI和谷歌的内部模型获得IMO2025金牌的消息刷屏了,但是正式参赛的公开的模型03high,Gemini 2.5 pro等表现很差,连铜牌都没拿到,不过现在又有了一个新情况刚刚发布在arXiv上的研究论文《Gemini 2.5 Pro Capable of Winning Gold at IMO 2025*》证明Gemini 2.5 Pro本体通过适当提示就可以获得IMO 2025金牌论文地址:(UCLA 电子与计算机工程系副教授)和黄溢辰撰写,详细阐述了他们如何利用谷歌最新的Gemini 2.5 Pro模型,成功解决了6道2025年国际数学奥林匹克(IMO)竞赛题目中的5道,达到了IMO金牌得主水平核心方法该研究的真正创新之处,在于设计了一套由两个核心角色解题者和验证者构成的自我验证流水线。 这两个角色均由Gemini 2.5 Pro扮演,但通过截然不同且高度特化的提示词(Prompt)来引导,使其各司其职,形成了高效的协作与迭代机制流水线流程如下图所示:初始解题 : 模型首先尝试对问题进行解答。
7/24/2025 10:36:51 AM

清华陈麟九人天团,攻克几何朗兰兹猜想!30年千页证明,冲刺菲尔兹大奖?

耗时30年,近1000页论文,终于攻克了「几何朗兰兹猜想」! 朗兰兹纲领,又被称为「大一统理论」,困扰了数学家多半个世纪,至今仍是一个未解之谜。 如今,来自普朗克数学研究所Dennis Gaitsgory和耶鲁大学Sam Raskin领衔九人团队,在五篇论文中,完成了证明其中一个分支的壮举。
7/18/2025 10:15:36 AM

首篇潜空间推理综述!模型思考不必依赖Token,带宽暴增2700+倍

大模型在潜空间中推理,带宽能达到普通(显式)思维链(CoT)的2700多倍? 史上首篇潜空间推理综述,对这种新兴的推理范式进行了全面总结。 这篇综述当中,作者分析了循环、递归、连续思维等潜空间推理的形式,并将这些方法总结成了一个框架。
7/16/2025 10:08:57 AM

无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

我们终于摆脱 tokenization 了吗? 答案是:可能性无限大。 最近,Mamba 作者之一 Albert Gu 又发新研究,他参与的一篇论文《 Dynamic Chunking for End-to-End Hierarchical Sequence Modeling 》提出了一个分层网络 H-Net,其用模型内部的动态分块过程取代 tokenization,从而自动发现和操作有意义的数据单元。
7/14/2025 8:50:00 AM

第一作者必须是AI!首个面向AI作者的学术会议来了,斯坦福发起

在 AI 已深度介入科研流程的今天,从提出假设到生成图表、撰写论文,它正逐步参与乃至重塑整个科学研究的方式。 但讽刺的是,尽管我们在 CVPR、NeurIPS、ICLR、ICML 甚至 ACL 等顶会中看到 AI 无处不在,却几乎没有任何一个会议或期刊承认 AI 的「作者身份」——AI 被广泛使用,却从未被名正言顺地署名。 这一局面,终于被打破了。
7/14/2025 8:47:00 AM

首创Mid-training范式破解RL奥秘,Llama终于追平Qwen!

近期,一份来自上海创智学院、上海交通大学的前沿研究论文吸引了人工智能领域的广泛关注。 该论文深入探讨了不同基础语言模型家族(如 Llama 和 Qwen)在强化学习(RL)训练中迥异表现的背后原因,并提出创新性的中期训练(mid-training)策略,成功地将 Llama 模型改造成高度适配强化学习的推理基础模型,显著缩小了其与天生擅长 RL 扩展的 Qwen 模型之间的性能差距,为下一代 reasoning 能力 AI 系统的开发提供了关键的科学基础和技术路径。 论文发布后在社交媒体引发广泛关注,Meta AI 研究科学家、即将赴 UMass Amherst 任助理教授的 Wenting Zhao 率先盛赞:“Truly impressed by how an academic lab just figured out a lot of mysteries in mid-training to close the RL gap between Llama and Qwen。
7/1/2025 9:10:00 AM

Claude与人类共著论文,苹果再遭打脸!实验黑幕曝光

几天前,苹果怒斥大模型根本不会推理论文,引发全网无数讨论与争议。 在许多人看来,没有站在AI前沿的人, 却质疑当今最领先推理模型o3-mini、DeepSeek-R1推理能力,实在没有说服力。 论文一出,备受质疑。
6/17/2025 8:52:00 AM

Muon作者仅用一篇博客,就被OpenAI看中了

「许多博士(包括过去的我)都陷入了这样一个误区:认为只有在顶级会议上发表论文才是终极目标。 」AI 云服务商 Hyperbolic CEO Yuchen Jin 如是说。 但现在,发表论文并不与学术影响力直接画等号了。
6/16/2025 2:43:38 PM

Transformer八周年!Attention Is All You Need被引破18万封神

Transformer,八岁了! 开创如今这场生成式AI革命的论文《Attention Is All You Need》迎来了第8个年头。 Transformer催生了ChatGPT、Gemini、Claude等诸多前沿产品。
6/13/2025 3:59:48 PM