AI在线 AI在线

AI 技术获全球顶级学术会议认可,小米 2 篇论文入选 ICCV 2025

AI在线 7 月 8 日消息,据小米技术消息,计算机视觉国际大会 ICCV 2025 论文录用结果公布,小米两篇论文凭借创新性研究成果成功入选:视频理解大模型核心技术 Q-Frame,推出行业首个动态帧选择与分辨率自适应框架,实现即插即用;持续学习框架 Analytic Subspace Routing (Any-SSR),成功解决大语言模型在持续学习领域的核心难题「灾难性遗忘」问题。 据介绍,计算机视觉国际大会 ICCV 与国际计算机视觉与模式识别会议 CVPR、欧洲计算机视觉国际会议 ECCV 并称为计算机领域世界三大顶级学术会议,每两年举办一次。 其中,ICCV 2025 年投稿量达 11239 篇,录用率为 24%。

AI在线 7 月 8 日消息,据小米技术消息,计算机视觉国际大会 ICCV 2025 论文录用结果公布,小米两篇论文凭借创新性研究成果成功入选:视频理解大模型核心技术 Q-Frame,推出行业首个动态帧选择与分辨率自适应框架,实现即插即用;持续学习框架 Analytic Subspace Routing (Any-SSR),成功解决大语言模型在持续学习领域的核心难题「灾难性遗忘」问题

AI 技术获全球顶级学术会议认可,小米 2 篇论文入选 ICCV 2025

据介绍,计算机视觉国际大会 ICCV 与国际计算机视觉与模式识别会议 CVPR、欧洲计算机视觉国际会议 ECCV 并称为计算机领域世界三大顶级学术会议,每两年举办一次。其中,ICCV 2025 年投稿量达 11239 篇,录用率为 24%。上述两篇论文代表了小米 AI 团队在基座大模型领域的最新探索成果,其中视频理解大模型核心技术 Q-Frame 由小米 AI 团队全面自研,大模型持续学习框架 Any-SSR 由小米 AI 团队联合华南理工大学攻关

全自研视频理解大模型核心技术 Q-Frame

在视频理解大模型(Video-LLMs)的研究中,小米 AI 团队针对传统“均匀帧采样”处理方式存在时间碎片化信息丢失、盲目采样及算力浪费等问题痛点,推出全自研的 Q-Frame 核心技术,该成果以论文《Q-Frame: Query-aware Frame Selection and Multi-Resolution Adaptation for Video-LLMs》入选 ICCV 2025。

Q-Frame 作为视频理解大模型核心技术,是行业首个动态帧选择与分辨率自适应框架,也是首个无需训练,市面上各类视频理解大模型基座均可即插即用的算法框架。Q-Frame 拥有三大行业首次创新,能够精准理解视频内容与用户问题,通过精准捕捉跟用户问题最相关的视频关键内容,将有效信息量提升 5 倍:

  • 跨模态查询检索(Cross-modal Query Retrieval, CQR)

  • 查询感知帧选择(Query-aware Frame Selection, QFS)

  • 多分辨率自适应(Multi-Resolution Adaptation, MRA)

在 MLVU 评测集上,Q-Frame 使 Qwen2-VL 的理解准确率从 55.5% 提升至 65.4%;在 LongVideoBench 上,让 GPT-4o 的准确率从 53.3% 提升到 58.6% 。此外,其多分辨率自适应特性可根据内容重要性和查询需求动态调整帧分辨率,避免算力浪费。

通过采用动态查询感知帧选择和多分辨率自适应,Q-Frame 还有效解决了「均匀帧采样」策略下时间碎片化的信息丢失、问题无感知的盲目采样和分辨率一刀切的算力浪费三大难题。与传统均匀选帧、统一处理方式不同,在有限计算资源下,Q-Frame 可使模型更高效准确理解视频。

此外,Q-Frame 具有即插即用(plug-and-play)的特点,可与市场上现有的各类视频理解大模型兼容,无论是开源模型还是闭源模型,无需对模型进行额外的训练或微调。以 VILA-V1.5 和 Qwen2-VL 等开源模型为例,在集成 Q-Frame 后,这些模型在视频理解任务上的性能均得到了显著提升。同样,对于闭源的 GPT-4o 模型,Q-Frame 也展现出了良好的兼容性,进一步证明了其广泛的适用性。

Q-Frame 在小米「人车家全生态」战略中有着多元的应用场景,目前正在持续探索和落地:小米 YU7 发布时提到的哨兵模式中,能够分清楚普通的风吹草动和可能带来剐蹭、碰撞的危险行为;智能家居中,能够在监控画面中找到最关键的画面,帮助用户解答问题;在小爱视频问答场景中,可以直接定位到视频中能够解答问题的片段开始播放等。

大模型持续学习框架 Any-SSR

在大语言模型(LLMs)持续学习(Continual Learning, CL)领域,往往会因新任务的学习而导致对旧任务知识的遗忘,即灾难性遗忘问题。小米 AI 团队联合华南理工大学针对这一难题开展研究,其成果《Analytic Subspace Routing: How Recursive Least Squares Works in Continual Learning of Large Language Model》成功入选 ICCV 2025。

Any-SSR 框架作为行业首个将递归最小二乘法(Recursive Least Squares, RLS)引入大语言模型持续学习的技术框架,通过分析路由机制,动态地把不同任务分配到独立子空间学习,避免任务间知识干扰,创新性解决了大语言模型持续学习中灾难性遗忘问题。同时,利用低秩适应(Low-Rank Adaptation, LoRA)与分析路由相结合的方式,实现了新旧知识的无缝整合与动态学习。

在一系列技术创新的基础上,Any-SSR 方法实现了“近乎完美”的知识保留(即不遗忘),同时能无缝地学习新知识。在实验中,Any-SSR 在 TRACE 基准测试上的表现显著优于其他方法,包括多任务学习(MTL)等,不仅在整体性能(OP)上取得了优异成绩,还实现了零反向知识转移(BWT)

AI在线从小米技术获悉,过去五年,小米集团研发投入约 1020 亿元,在 2025 年的 300 亿研发投入中,大约有四分之一将被用于 AI 相关方向。未来五年(2026-2030 年),小米还将在核心技术赛道再投入 2000 亿元。

相关资讯

New Breakthrough in Real-Time Video Generation: Meta StreamDiT Can Generate High-Quality Videos Frame by Frame with a Single GPU

Meta and researchers from the University of California, Berkeley have developed StreamDiT, a revolutionary AI model that can create 512p resolution videos in real-time at 16 frames per second, requiring only a single high-end GPU. Unlike previous methods that needed to fully generate a video clip before playback, StreamDiT enables real-time video stream generation frame by frame.The StreamDiT model has 4 billion parameters and demonstrates impressive versatility.
7/14/2025 2:01:51 PM
AI在线

NeurIPS 2023 | 「解释一切」图像概念解释器来了,港科大团队出品

Segment Anything Model(SAM)首次被应用到了基于增强概念的可解释 AI 上。你是否好奇当一个黑盒深度神经网络 (DNN) 预测下图的时候,图中哪个部分对于输出预测为「击球手」的帮助最大?香港科技大学团队最新的 NeurIPS2023 研究成果给出了他们的答案。论文:: Meta 的分割一切 (SAM) 后,港科大团队首次借助 SAM 实现了人类可解读的任意 DNN 模型图像概念解释器:Explain Any Concept (EAC)。你往往会看到传统的 DNN 图像概念解释器会给出这样的解
10/25/2023 11:38:00 AM
机器之心

分割一切「3D高斯」版来了:几毫秒完成3D分割、千倍加速

有了上海交大和华为提出的 SAGA,辐射场中的交互式 3D 分割任务实现起来会更快、效果更好。今年 4 月,Meta 发布「分割一切(SAM)」AI 模型,这项成果不仅成为很多 CV 研究者心中的年度论文,更是在 ICCV 2023 上斩获最佳论文提名 。「分割一切」实现了 2D 分割的「既能」和「又能」,可以轻松地执行交互式分割和自动分割,且能泛化到任意新任务和新领域。现在,这种思路也延展到了 3D 分割领域。辐射场中的交互式 3D 分割一直是个备受关注的课题,在场景操作、自动标注和 VR 等多个领域均有潜在应用
12/6/2023 2:52:00 PM
机器之心
  • 1