AI在线 AI在线

论文

首创Mid-training范式破解RL奥秘,Llama终于追平Qwen!

近期,一份来自上海创智学院、上海交通大学的前沿研究论文吸引了人工智能领域的广泛关注。 该论文深入探讨了不同基础语言模型家族(如 Llama 和 Qwen)在强化学习(RL)训练中迥异表现的背后原因,并提出创新性的中期训练(mid-training)策略,成功地将 Llama 模型改造成高度适配强化学习的推理基础模型,显著缩小了其与天生擅长 RL 扩展的 Qwen 模型之间的性能差距,为下一代 reasoning 能力 AI 系统的开发提供了关键的科学基础和技术路径。 论文发布后在社交媒体引发广泛关注,Meta AI 研究科学家、即将赴 UMass Amherst 任助理教授的 Wenting Zhao 率先盛赞:“Truly impressed by how an academic lab just figured out a lot of mysteries in mid-training to close the RL gap between Llama and Qwen。
7/1/2025 9:10:00 AM

Claude与人类共著论文,苹果再遭打脸!实验黑幕曝光

几天前,苹果怒斥大模型根本不会推理论文,引发全网无数讨论与争议。 在许多人看来,没有站在AI前沿的人, 却质疑当今最领先推理模型o3-mini、DeepSeek-R1推理能力,实在没有说服力。 论文一出,备受质疑。
6/17/2025 8:52:00 AM

Muon作者仅用一篇博客,就被OpenAI看中了

「许多博士(包括过去的我)都陷入了这样一个误区:认为只有在顶级会议上发表论文才是终极目标。 」AI 云服务商 Hyperbolic CEO Yuchen Jin 如是说。 但现在,发表论文并不与学术影响力直接画等号了。
6/16/2025 2:43:38 PM

Transformer八周年!Attention Is All You Need被引破18万封神

Transformer,八岁了! 开创如今这场生成式AI革命的论文《Attention Is All You Need》迎来了第8个年头。 Transformer催生了ChatGPT、Gemini、Claude等诸多前沿产品。
6/13/2025 3:59:48 PM

顶会0篇,一夜RLHF爆文刷屏!他靠写作逆袭AI圈,院士都说好

Ai2的高级研究科学家Nathan Lambert,最近分享了他如何走上AI之路。 尽管起步艰难、几经波折,他依旧在AI领域站稳脚跟、有所成就。 博士毕业时,他没有在NeurIPS/ICML/ICLR等顶会上发表过文章。
6/9/2025 9:00:00 AM

美国白宫委员会编制儿童健康报告被指 AI 造假:引用“幽灵论文”,结论遭质疑

纽约时报于 5 月 29 日发布博文,报道称由美国白宫 Make America Healthy Again Commission 委员会编写的儿童健康报告,大量引用了不存在的科学研究,因此报告给出的数据和结论遭到质疑。
5/31/2025 10:27:05 AM
故渊

基准测试揭秘大模型“字数危机”:26个模型长文本生成普遍拉胯,最大输出长度过度宣传

你是否曾对大语言模型(LLMs)下达过明确的“长度指令”? 比如,“写一篇10,000字的长文,详细分析某个议题。 ”看似简单的要求,实际却往往让这些模型“力不从心”:不是生成内容不足,就是重复啰嗦,甚至直接罢工拒绝生成。
5/30/2025 9:10:00 AM

两岁的Llama,最初的14位作者已跑了11个!Mistral成最大赢家

Meta 开源 Llama 模型家族帮助该公司制定了 AI 战略,某种程度上也改变了全世界的大模型格局。 然而,令人意想不到的是,短短几年,Llama 的初创者们大多已经转投他处。 在 2023 年发表的那篇具有里程碑意义的论文《 LLaMA: Open and Efficient Foundation Language Models 》中,Llama 被推向世界,当时论文共有 14 位作者。
5/27/2025 3:37:46 PM

DeepSeek发布大模型训练端到端论文,展示卓越工程深度

近日,DeepSeek发布了一篇关于大模型训练的最佳端到端技术论文,引发业界广泛关注。 该论文全面阐述了DeepSeek在大模型研发中的技术突破,涵盖软件、硬件及混合优化方案,展现了其令人惊叹的工程深度。 在**软件**层面,论文详细介绍了多头潜在注意力机制(MLA),显著降低推理过程中的内存占用;FP8混合精度训练通过低精度计算提升效率,同时保证数值稳定性;DeepEP通信库优化了专家并行(EP)通信,支持FP8低精度操作,加速MoE模型训练与推理;LogFMT对数浮点格式则通过均匀化激活分布,进一步优化计算效率。
5/21/2025 11:01:05 AM
AI在线

谢赛宁团队提出BLIP3-o:融合自回归与扩散模型的统一多模态架构,开创CLIP特征驱动的图像理解与生成新范式!

BLIP3-o 是一个统一的多模态模型,它将自回归模型的推理和指令遵循优势与扩散模型的生成能力相结合。 与之前扩散 VAE 特征或原始像素的研究不同,BLIP3-o 扩散了语义丰富的CLIP 图像特征,从而为图像理解和生成构建了强大而高效的架构。 此外还发布了包含 2000 万张带详细标题的图片(BLIP3o Pretrain Long Caption)和 400 万张带短标题的图片(BLIP3o Pretrain Short Caption)的数据集。
5/20/2025 9:08:59 AM

AI入侵学术圈,超700篇顶刊论文暴雷!科学侦探揭秘真相,登Nature头版

「截至我最后的知识更新」,「重新生成响应」,「作为一个AI语言模型」......这些短句,已经成为顶刊论文中的常态。 2024年,一篇发表在Radiology Case Reports上论文,因文中出现了「我是一个AI语言模型」,直接被撤稿。 令人震惊的是,这句话不仅没有引起作者注意,更逃过了编辑、审稿人、排版人的审查。
4/25/2025 10:57:39 AM
新智元

ICLR 2025时间检验奖颁给Adam之父!Bengio「注意力机制」摘亚军

刚刚,ICLR 2025时间检验奖公布! 斩获大奖的是,xAI工程师、Hinton高徒Jimmy Ba发表的Adam优化器。 获得亚军的是,Yoshua Bengio团队提出的「注意力机制」,为Transformer和大模型奠定了基础。
4/16/2025 8:30:00 AM
新智元

首个AI科学家发论文进ICLR!得分6/7/6,从选题到实验全程零人工,连GitHub代码库都是AI写的

嚯! 完全由AI生成的论文,通过顶会ICLR评审? !
4/9/2025 9:12:28 AM
量子位

DeepSeek前脚发新论文,奥特曼立马跟上:GPT-5就在几个月后啊

有点意思。 这不DeepSeek前脚刚刚上新了一篇关于推理时Scaling Law的论文嘛,引得大家纷纷联想是不是R2马上要来了。 然鹅……奥特曼这边却发了一条“变卦”的消息:计划改变:我们可能在几周之后先发布o3和o4-mini。
4/7/2025 8:15:00 AM
量子位

CVPR 2025:单图秒变专业影棚,几何/材质/光影全搞定,数据训练代码全开源

如何从一张普通的单幅图像准确估计物体的三维法线和材质属性,是计算机视觉与图形学领域长期关注的难题。 这种单图逆渲染任务存在严重的不确定性,传统方法通常需要多角度或多光源的拍摄条件,难以在日常场景中普遍应用。  近日,由香港中文大学、上海人工智能实验室及南洋理工大学的研究团队联合研发的论文《Neural LightRig: Unlocking Accurate Object Normal and Material Estimation with Multi-Light Diffusion》。
4/3/2025 9:25:53 AM
量子位

三大模型巨头比拼思考“幻觉”:DeepSeek 不敌 ChatGPT,Gemini 用词最少

近日,智利大学 CIAE 教育研究所的研究员 Roberto Araya 进行了 4 组对照实验:提供相同的提示词,让 Gemini 2.0 Flash、ChatGPT o3-mini、DeepSeek R1 进行推理分析,研究三个模型在应对幻觉问题上的性能对比。 其研究发现:ChatGPT 03-mini 在应对大模型幻觉问题上占有绝对优势,能够灵活切换不同的策略进行思考推理。 相比之下,DeepSeek R1 和 Gemini 2.0 Flash 虽然能够尝试使用策略,但表现了出对这些策略的抗拒,且推理过程存在错误或混乱。
3/28/2025 3:37:00 PM
郑佳美

性能无损,模型隐私保护效果提升50%!蚂蚁数科创新跨域微调框架| AAAI 2025 Oral

大模型的快速及持续发展,离不开对模型所有权及数据隐私的保护。 AAAI 2025期间,蚂蚁数科、浙江大学、利物浦大学和华东师范大学联合团队提出了一种创新的跨域微调框架ScaleOT,可以实现在模型性能无损的前提下,将模型隐私保护效果提升50%。 相比于知识蒸馏技术,还降低了90%的算力消耗,为百亿级参数模型的跨域微调提供了一种高效和轻量化的解决方案。
3/4/2025 9:20:00 AM
量子位

CVPR 2025录用率22.1%,LeCun中奖!大模型参评,审稿人19篇论文被拒

刚刚,CVPR 2025录用结果出炉! 今年,共有13008份有效投稿并进入评审流程,其中2878篇被录用,最终录用率为22.1%。 近两年来,CVPR录用结果逐年递减。
2/27/2025 12:30:00 PM
新智元