AI在线 AI在线

模型

超越纯视觉模型!不改VLM标准架构,实现像素级深度预测

超越纯视觉模型!不改VLM标准架构,实现像素级深度预测

在当前多模态AI发展浪潮中,视觉语言模型(Vision Language Models, VLMs)因其能通过「看图 文字交互」处理多样任务而备受关注。 然而,尽管在语义理解、视觉问答、图像指令等任务上表现优异,它们在从 2D 图像理解 3D 空间结构方面仍显薄弱。 相比之下,纯视觉模型(pure vision models)在 绝对深度估计(metric depth estimation) 等三维理解任务上,凭借专门设计的网络结构与损失函数,早已达到了超越人类的精度。
10/20/2025 9:09:00 AM
长上下文窗口、Agent崛起,RAG已死?

长上下文窗口、Agent崛起,RAG已死?

在技术飞速更新迭代的今天,每隔一段时间就会出现「XX 已死」的论调。 「搜索已死」、「Prompt 已死」的余音未散,如今矛头又直指 RAG。 向量数据库 Chroma 创始人兼 CEO Jeff Huber 在播客与访谈中抛出「RAG 已死,上下文工程当立」的表述,主张以上下文工程框架取代对「RAG」这一术语的狭义依赖。
10/20/2025 9:06:00 AM
教多模态大模型学会“反思”和“复盘”,上交&上海AI Lab重磅发布MM-HELIX&AHPO,破解多模态复杂推理难题

教多模态大模型学会“反思”和“复盘”,上交&上海AI Lab重磅发布MM-HELIX&AHPO,破解多模态复杂推理难题

多模态大模型表现越来越惊艳,但人们也时常困于它的“耿直”。 无论是生成代码、分析图表还是回答问题,诸多多模态大模型(MLLM)都倾向于给出一个“一步到位”的答案。 它们就像一个从不检查作业的“学霸”,虽然知识渊博,但一旦在复杂的、需要反复试错的问题上走错一步,就很难回头。
10/20/2025 9:02:00 AM
让模型“看视频写网页”,GPT-5仅得36.35分!上海AI Lab联合发布首个video2code基准

让模型“看视频写网页”,GPT-5仅得36.35分!上海AI Lab联合发布首个video2code基准

多模态大模型在根据静态截图生成网页代码(Image-to-Code)方面已展现出不俗能力,这让许多人对AI自动化前端开发充满期待。 然而,一个网页的真正价值远不止于其静态布局。 用户的点击、筛选、表单提交,乃至游戏中的每一步操作,都构成了其核心的交互功能。
10/20/2025 9:01:00 AM
训练成本暴降99%,35秒出1分钟高清视频!英伟达MIT等引爆视频AI革命

训练成本暴降99%,35秒出1分钟高清视频!英伟达MIT等引爆视频AI革命

27帧每秒的实时视频生成、35秒合成1分钟高清视频——这不是遥远的未来,而是刚刚由英伟达联合MIT与港大团队带来的现实。 全新一代视频扩散模型SANA-Video横空出世,凭借革命性的线性DiT架构与恒定显存KV缓存机制,不仅速度超越所有同类模型,更以高达720p的分辨率与分钟级时长生成,重新定义了AI视频生成的效率极限。 SANA-Video不仅在速度和性能上表现出色,生成的图像质量也非常高。
10/20/2025 8:58:00 AM
数学界地震!GPT-5连破10道「百年悬案」,陶哲轩:AI革命才刚开始

数学界地震!GPT-5连破10道「百年悬案」,陶哲轩:AI革命才刚开始

科学研究,尤其是数学研究,真的要被AI彻底改变了。 两位数学研究人员,利用GPT-5,只用一个周末就解决了10个「百年悬案」级的埃尔德什难题。 埃尔德什难题,又名为Erdös problems,是数学家埃尔德什生前留下的大约1000多个问题,此前人类只解决了部分。
10/20/2025 8:57:00 AM
礼貌=更不准?宾夕法尼大学新论文:对 AI 粗鲁点,提升 4% 准确率

礼貌=更不准?宾夕法尼大学新论文:对 AI 粗鲁点,提升 4% 准确率

据2025年9月发表于arXiv的论文《Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy》。 图片论文地址:arxiv.org/abs/2510.04950宾夕法尼亚州立大学的两位研究者提出了一个出人意料的发现:越有礼貌的提问,ChatGPT 的回答越不准确。 实验结果显示,当用户以“非常礼貌”的语气提问时,ChatGPT-4o 的平均准确率仅为 80.8%。
10/20/2025 12:00:00 AM
GPT-5 Pro惊现「神之一手」,30分钟攻克黑洞难题!

GPT-5 Pro惊现「神之一手」,30分钟攻克黑洞难题!

OpenAI真的要放大招了! 今天,黑洞理论物理学家Alex Lupsasca官宣入职,正式成为OpenAI新成立的「科学团队」的一员。 曾经,Alex一直认为AI离科研前沿遥不可及,直到他亲眼见证了GPT-5 Pro的惊人能力——它在短短30分钟内,竟破解了困扰Alex数日的「黑洞微扰」理论难题!
10/17/2025 5:49:11 PM
Mamba 架构上顶会ICLR 2026,AI大脑核心Transformer的王座还能坐稳吗?

Mamba 架构上顶会ICLR 2026,AI大脑核心Transformer的王座还能坐稳吗?

Transformer统治了AI大模型领域。 有人认为,实现AGI,Transformer就够了! 还有人认为,还需要几次底层架构革新。
10/17/2025 10:23:00 AM
打败 Qwen2.5-VL,完全开源可复现 LLaVA-OneVision-1.5 的多模态模型

打败 Qwen2.5-VL,完全开源可复现 LLaVA-OneVision-1.5 的多模态模型

一个完全开源多模态模型,全面超越 Qwen2.5-VL。 LLaVA(Large Language and Vision Assistant,大型语言与视觉助手)的故事,是开源社区用两年时间,真正复现出一个顶级的多模态模型的拼搏史。 23年4月,一个名为 LLaVA 的开创性工作横空出世。
10/17/2025 10:03:23 AM
RL微调,关键在前10%奖励!基于评分准则,Scale AI等提出新方法

RL微调,关键在前10%奖励!基于评分准则,Scale AI等提出新方法

让大模型按照人类意图行事,一直是AI领域的核心挑战。 目前主流的强化学习微调(RFT)方法虽然有效,但存在一个致命弱点:奖励过度优化(reward over-optimization)。 奖励过度优化是大模型对齐的「阿喀琉斯之踵」。
10/17/2025 9:56:05 AM
李飞飞全新「世界模型」问世!单张H100实时生成3D永恒世界

李飞飞全新「世界模型」问世!单张H100实时生成3D永恒世界

就在刚刚,李飞飞World Labs重磅发布全新实时生成式世界模型——RTFM(Real-Time Frame Model,实时帧模型)! 这是一款效率极高的,在大型视频数据上进行端到端训练的自回归扩散Transformer模型。 仅需一块H100 GPU,RTFM就能在你与之交互时,实时渲染出持久且3D一致的世界,无论是真实场景还是想象空间。
10/17/2025 9:53:23 AM
紧急应对Sora 2,谷歌推出Veo 3.1版本:一手实测

紧急应对Sora 2,谷歌推出Veo 3.1版本:一手实测

刚刚,谷歌Veo 3进行了更新,最新版本Veo 3.1,可以在这里体验,fast模式每次生成耗费20积分,相比sora 2 看起来贵很多,sora 2到目前为止都是无限制生成,完全免费我第一时间就做了一个Veo 3.1和sora 2的初步对比测试,测试下来,Veo 3.1审美以及提示词遵循能力还是不如sora 2,不过好处是,Veo 3.1支持上传人像进行创作,sora 2 目前图生视频不支持人像废话不多说,看玩法:上手测试1.图生视频:nanobanana  Veo 3.1先用nanobanana生成一个超高清小姐姐提示词:复制进入:,提示词:展示穿搭。
10/16/2025 9:37:11 AM
「重要性采样」并不「重要」?快手清华ASPO攻克重要性采样权重错配

「重要性采样」并不「重要」?快手清华ASPO攻克重要性采样权重错配

从ChatGPT到DeepSeek,强化学习(Reinforcement Learning, RL)已成为大语言模型(LLM)后训练的关键一环。 然而,随着模型参数规模的不断扩大,一个长期被忽视的问题正悄然成为性能瓶颈:重要性采样真的「重要」吗? 近期,由快手与清华合作的研究团队发现,现有的结果监督强化学习范式存在一种深层次的权重错配现象,它不仅让模型「过度自信」,甚至可能导致熵坍缩与训练早熟收敛。
10/16/2025 8:55:00 AM
清华&巨人网络首创MoE多方言TTS框架,数据代码方法全开源

清华&巨人网络首创MoE多方言TTS框架,数据代码方法全开源

无论是中文的粤语、闽南话、吴语,还是欧洲的荷兰比尔茨语方言、法国奥克语,亦或是非洲和南美的地方语言,方言都承载着独特的音系与文化记忆,是人类语言多样性的重要组成部分。 然而,许多方言正在快速消失,语音技术如果不能覆盖这些语言,势必加剧数字鸿沟与文化失声。 在当今大模型引领的语音合成时代,通用 TTS 系统已展现出令人惊叹的能力,但方言 TTS 依然是相关从业者难以触及的「灰色地带」。
10/15/2025 2:10:47 PM
一个模型装下整个物种树!伯克利GPN-Star斩获基因预测双料冠军

一个模型装下整个物种树!伯克利GPN-Star斩获基因预测双料冠军

让大模型读懂物种关系,这可能吗? 近日,加州大学伯克利分校等机构的研究人员,推出了一个全新、通用且功能强大的GLM框架GPN-Star。 论文地址:、且在一些预测任务中不如传统进化模型等短板。
10/15/2025 9:11:41 AM
NeurIPS 25 | 中大&UC Merced等开源RAPID Hand,重新定义多指灵巧手数据采集

NeurIPS 25 | 中大&UC Merced等开源RAPID Hand,重新定义多指灵巧手数据采集

在最近的一篇 NeurIPS 25 中稿论文中,来自中山大学、加州大学 Merced 分校、中科院自动化研究所、诚橙动力的研究者联合提出了一个全新开源的高自由度灵巧手平台 — RAPID Hand (Robust, Affordable, Perception-Integrated, Dexterous Hand)。 论文标题:RAPID Hand: A Robust, Affordable, Perception-Integrated, Dexterous Manipulation Platform for Generalist Robot Autonomy论文地址:: 地址:。 无论是日常的家庭整理、物品归置,还是辅助类服务任务,若缺乏灵巧的操作能力,机器人便难以真正完成复杂交互。
10/15/2025 8:55:43 AM
混元3D开源端到端全景深度估计器,代码+精选全景数据已上线,在线可玩

混元3D开源端到端全景深度估计器,代码+精选全景数据已上线,在线可玩

全景图具有完整的视场 (360°×180°),比透视图提供更完整的视觉描述。 得益于此特性,全景深度估计在3D视觉领域正日益受到关注。 然而,由于全景数据的稀缺,以往的方法通常局限于域内设置,导致零样本泛化能力较差。
10/14/2025 1:56:59 PM