AI在线 AI在线

论文

NeurIPS近3万投稿爆仓,强拒400篇论文!博士疯狂内卷,AI顶会噩梦来袭

AI顶会,一场「爆仓危机」正在上演。 由于会议场地限制,NeurIPS 2025正通知「高级领域主席」(SAC),拒收已被录用的论文。 一位SAC爆料,大约400篇论文直接被砍掉,即便是三位审稿人和AC已通过初审。
9/1/2025 5:09:21 PM

AAAI-26投稿量爆炸:近3万篇论文,2万来自中国,评审系统都快崩了

你可能不信,你投的 AAAI-2026 会议,应该是有史以来投稿量最多的一次。 此前,取号人数就突破了 3 万,其中有不少 NeurIPS 转投的。 如今官方数据也公开了:主技术轨道共接收将近 29000 篇投稿,来自中国的投稿接近 20000 篇,占据了惊人的三分之二。
8/28/2025 3:32:51 PM

破解人机协作密码:工作技能拆成两层,AI执行人类决策成功率狂飙 | ICML 2025

人类和AI在工作中如何协作? 耶鲁和南大的研究人员合作的这篇论文讲清楚了。 这篇论文提出了一个数学框架,通过把工作技能拆分成两个层次来解释这个问题,具体包括:决策层子技能(decision-level subskill):确立目标、界定问题、权衡取舍的认知工作。
8/28/2025 9:12:00 AM

科学界论文高引第一人易主!AI站上历史巅峰

魔镜魔镜,谁是有史以来被引用次数最多的科学家? 答案:深度学习三巨头之一、图灵奖得主Yoshua Bengio。 如你所见,之所以提出这个问题,其实是因为相关消息正在引起热议ing。
8/26/2025 9:10:00 AM

AI顶会反噬整个学术圈!「不发表就会死」,NeurIPS爆仓,博士年肝4.5篇大崩溃

或许你也注意到了这个现象——AI和机器学习的繁荣,已经造成了一场少有人谈论的危机。 学生和研究人员过剩,就业前景有限,整个学术体系已经不堪重负。 随着NeurIPS、ICML和CVPR等会议的投稿数量激增,同行评审流程正在崩溃。
8/18/2025 8:51:00 AM

反击AI论文!arXiv每年拒掉2%造假内容,自动化工具加入审核

AI生成论文泛滥成灾,arXiv平台看不下去了——. 紧急升级审核机制,用自动化工具来检测AI生成内容。 Nature最新发现,原来每年竟然都有2%的论文会因为AI使用被拒?
8/14/2025 3:45:49 PM
鹭羽

刚刚!UCLA杨林团队证明:仅凭提示词,Gemini 2.5 Pro就可以拿到IMO2025金牌

最近大家应该都被OpenAI和谷歌的内部模型获得IMO2025金牌的消息刷屏了,但是正式参赛的公开的模型03high,Gemini 2.5 pro等表现很差,连铜牌都没拿到,不过现在又有了一个新情况刚刚发布在arXiv上的研究论文《Gemini 2.5 Pro Capable of Winning Gold at IMO 2025*》证明Gemini 2.5 Pro本体通过适当提示就可以获得IMO 2025金牌论文地址:(UCLA 电子与计算机工程系副教授)和黄溢辰撰写,详细阐述了他们如何利用谷歌最新的Gemini 2.5 Pro模型,成功解决了6道2025年国际数学奥林匹克(IMO)竞赛题目中的5道,达到了IMO金牌得主水平核心方法该研究的真正创新之处,在于设计了一套由两个核心角色解题者和验证者构成的自我验证流水线。 这两个角色均由Gemini 2.5 Pro扮演,但通过截然不同且高度特化的提示词(Prompt)来引导,使其各司其职,形成了高效的协作与迭代机制流水线流程如下图所示:初始解题 : 模型首先尝试对问题进行解答。
7/24/2025 10:36:51 AM

清华陈麟九人天团,攻克几何朗兰兹猜想!30年千页证明,冲刺菲尔兹大奖?

耗时30年,近1000页论文,终于攻克了「几何朗兰兹猜想」! 朗兰兹纲领,又被称为「大一统理论」,困扰了数学家多半个世纪,至今仍是一个未解之谜。 如今,来自普朗克数学研究所Dennis Gaitsgory和耶鲁大学Sam Raskin领衔九人团队,在五篇论文中,完成了证明其中一个分支的壮举。
7/18/2025 10:15:36 AM

首篇潜空间推理综述!模型思考不必依赖Token,带宽暴增2700+倍

大模型在潜空间中推理,带宽能达到普通(显式)思维链(CoT)的2700多倍? 史上首篇潜空间推理综述,对这种新兴的推理范式进行了全面总结。 这篇综述当中,作者分析了循环、递归、连续思维等潜空间推理的形式,并将这些方法总结成了一个框架。
7/16/2025 10:08:57 AM

无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

我们终于摆脱 tokenization 了吗? 答案是:可能性无限大。 最近,Mamba 作者之一 Albert Gu 又发新研究,他参与的一篇论文《 Dynamic Chunking for End-to-End Hierarchical Sequence Modeling 》提出了一个分层网络 H-Net,其用模型内部的动态分块过程取代 tokenization,从而自动发现和操作有意义的数据单元。
7/14/2025 8:50:00 AM

第一作者必须是AI!首个面向AI作者的学术会议来了,斯坦福发起

在 AI 已深度介入科研流程的今天,从提出假设到生成图表、撰写论文,它正逐步参与乃至重塑整个科学研究的方式。 但讽刺的是,尽管我们在 CVPR、NeurIPS、ICLR、ICML 甚至 ACL 等顶会中看到 AI 无处不在,却几乎没有任何一个会议或期刊承认 AI 的「作者身份」——AI 被广泛使用,却从未被名正言顺地署名。 这一局面,终于被打破了。
7/14/2025 8:47:00 AM

首创Mid-training范式破解RL奥秘,Llama终于追平Qwen!

近期,一份来自上海创智学院、上海交通大学的前沿研究论文吸引了人工智能领域的广泛关注。 该论文深入探讨了不同基础语言模型家族(如 Llama 和 Qwen)在强化学习(RL)训练中迥异表现的背后原因,并提出创新性的中期训练(mid-training)策略,成功地将 Llama 模型改造成高度适配强化学习的推理基础模型,显著缩小了其与天生擅长 RL 扩展的 Qwen 模型之间的性能差距,为下一代 reasoning 能力 AI 系统的开发提供了关键的科学基础和技术路径。 论文发布后在社交媒体引发广泛关注,Meta AI 研究科学家、即将赴 UMass Amherst 任助理教授的 Wenting Zhao 率先盛赞:“Truly impressed by how an academic lab just figured out a lot of mysteries in mid-training to close the RL gap between Llama and Qwen。
7/1/2025 9:10:00 AM

Claude与人类共著论文,苹果再遭打脸!实验黑幕曝光

几天前,苹果怒斥大模型根本不会推理论文,引发全网无数讨论与争议。 在许多人看来,没有站在AI前沿的人, 却质疑当今最领先推理模型o3-mini、DeepSeek-R1推理能力,实在没有说服力。 论文一出,备受质疑。
6/17/2025 8:52:00 AM

Muon作者仅用一篇博客,就被OpenAI看中了

「许多博士(包括过去的我)都陷入了这样一个误区:认为只有在顶级会议上发表论文才是终极目标。 」AI 云服务商 Hyperbolic CEO Yuchen Jin 如是说。 但现在,发表论文并不与学术影响力直接画等号了。
6/16/2025 2:43:38 PM

Transformer八周年!Attention Is All You Need被引破18万封神

Transformer,八岁了! 开创如今这场生成式AI革命的论文《Attention Is All You Need》迎来了第8个年头。 Transformer催生了ChatGPT、Gemini、Claude等诸多前沿产品。
6/13/2025 3:59:48 PM

顶会0篇,一夜RLHF爆文刷屏!他靠写作逆袭AI圈,院士都说好

Ai2的高级研究科学家Nathan Lambert,最近分享了他如何走上AI之路。 尽管起步艰难、几经波折,他依旧在AI领域站稳脚跟、有所成就。 博士毕业时,他没有在NeurIPS/ICML/ICLR等顶会上发表过文章。
6/9/2025 9:00:00 AM

美国白宫委员会编制儿童健康报告被指 AI 造假:引用“幽灵论文”,结论遭质疑

纽约时报于 5 月 29 日发布博文,报道称由美国白宫 Make America Healthy Again Commission 委员会编写的儿童健康报告,大量引用了不存在的科学研究,因此报告给出的数据和结论遭到质疑。
5/31/2025 10:27:05 AM
故渊

基准测试揭秘大模型“字数危机”:26个模型长文本生成普遍拉胯,最大输出长度过度宣传

你是否曾对大语言模型(LLMs)下达过明确的“长度指令”? 比如,“写一篇10,000字的长文,详细分析某个议题。 ”看似简单的要求,实际却往往让这些模型“力不从心”:不是生成内容不足,就是重复啰嗦,甚至直接罢工拒绝生成。
5/30/2025 9:10:00 AM