AI在线 AI在线

AI 技术获全球顶级学术会议认可,小米 2 篇论文入选 ICCV 2025

AI在线 7 月 8 日消息,据小米技术消息,计算机视觉国际大会 ICCV 2025 论文录用结果公布,小米两篇论文凭借创新性研究成果成功入选:视频理解大模型核心技术 Q-Frame,推出行业首个动态帧选择与分辨率自适应框架,实现即插即用;持续学习框架 Analytic Subspace Routing (Any-SSR),成功解决大语言模型在持续学习领域的核心难题「灾难性遗忘」问题。 据介绍,计算机视觉国际大会 ICCV 与国际计算机视觉与模式识别会议 CVPR、欧洲计算机视觉国际会议 ECCV 并称为计算机领域世界三大顶级学术会议,每两年举办一次。 其中,ICCV 2025 年投稿量达 11239 篇,录用率为 24%。

AI在线 7 月 8 日消息,据小米技术消息,计算机视觉国际大会 ICCV 2025 论文录用结果公布,小米两篇论文凭借创新性研究成果成功入选:视频理解大模型核心技术 Q-Frame,推出行业首个动态帧选择与分辨率自适应框架,实现即插即用;持续学习框架 Analytic Subspace Routing (Any-SSR),成功解决大语言模型在持续学习领域的核心难题「灾难性遗忘」问题

AI 技术获全球顶级学术会议认可,小米 2 篇论文入选 ICCV 2025

据介绍,计算机视觉国际大会 ICCV 与国际计算机视觉与模式识别会议 CVPR、欧洲计算机视觉国际会议 ECCV 并称为计算机领域世界三大顶级学术会议,每两年举办一次。其中,ICCV 2025 年投稿量达 11239 篇,录用率为 24%。上述两篇论文代表了小米 AI 团队在基座大模型领域的最新探索成果,其中视频理解大模型核心技术 Q-Frame 由小米 AI 团队全面自研,大模型持续学习框架 Any-SSR 由小米 AI 团队联合华南理工大学攻关

全自研视频理解大模型核心技术 Q-Frame

在视频理解大模型(Video-LLMs)的研究中,小米 AI 团队针对传统“均匀帧采样”处理方式存在时间碎片化信息丢失、盲目采样及算力浪费等问题痛点,推出全自研的 Q-Frame 核心技术,该成果以论文《Q-Frame: Query-aware Frame Selection and Multi-Resolution Adaptation for Video-LLMs》入选 ICCV 2025。

Q-Frame 作为视频理解大模型核心技术,是行业首个动态帧选择与分辨率自适应框架,也是首个无需训练,市面上各类视频理解大模型基座均可即插即用的算法框架。Q-Frame 拥有三大行业首次创新,能够精准理解视频内容与用户问题,通过精准捕捉跟用户问题最相关的视频关键内容,将有效信息量提升 5 倍:

  • 跨模态查询检索(Cross-modal Query Retrieval, CQR)

  • 查询感知帧选择(Query-aware Frame Selection, QFS)

  • 多分辨率自适应(Multi-Resolution Adaptation, MRA)

在 MLVU 评测集上,Q-Frame 使 Qwen2-VL 的理解准确率从 55.5% 提升至 65.4%;在 LongVideoBench 上,让 GPT-4o 的准确率从 53.3% 提升到 58.6% 。此外,其多分辨率自适应特性可根据内容重要性和查询需求动态调整帧分辨率,避免算力浪费。

通过采用动态查询感知帧选择和多分辨率自适应,Q-Frame 还有效解决了「均匀帧采样」策略下时间碎片化的信息丢失、问题无感知的盲目采样和分辨率一刀切的算力浪费三大难题。与传统均匀选帧、统一处理方式不同,在有限计算资源下,Q-Frame 可使模型更高效准确理解视频。

此外,Q-Frame 具有即插即用(plug-and-play)的特点,可与市场上现有的各类视频理解大模型兼容,无论是开源模型还是闭源模型,无需对模型进行额外的训练或微调。以 VILA-V1.5 和 Qwen2-VL 等开源模型为例,在集成 Q-Frame 后,这些模型在视频理解任务上的性能均得到了显著提升。同样,对于闭源的 GPT-4o 模型,Q-Frame 也展现出了良好的兼容性,进一步证明了其广泛的适用性。

Q-Frame 在小米「人车家全生态」战略中有着多元的应用场景,目前正在持续探索和落地:小米 YU7 发布时提到的哨兵模式中,能够分清楚普通的风吹草动和可能带来剐蹭、碰撞的危险行为;智能家居中,能够在监控画面中找到最关键的画面,帮助用户解答问题;在小爱视频问答场景中,可以直接定位到视频中能够解答问题的片段开始播放等。

大模型持续学习框架 Any-SSR

在大语言模型(LLMs)持续学习(Continual Learning, CL)领域,往往会因新任务的学习而导致对旧任务知识的遗忘,即灾难性遗忘问题。小米 AI 团队联合华南理工大学针对这一难题开展研究,其成果《Analytic Subspace Routing: How Recursive Least Squares Works in Continual Learning of Large Language Model》成功入选 ICCV 2025。

Any-SSR 框架作为行业首个将递归最小二乘法(Recursive Least Squares, RLS)引入大语言模型持续学习的技术框架,通过分析路由机制,动态地把不同任务分配到独立子空间学习,避免任务间知识干扰,创新性解决了大语言模型持续学习中灾难性遗忘问题。同时,利用低秩适应(Low-Rank Adaptation, LoRA)与分析路由相结合的方式,实现了新旧知识的无缝整合与动态学习。

在一系列技术创新的基础上,Any-SSR 方法实现了“近乎完美”的知识保留(即不遗忘),同时能无缝地学习新知识。在实验中,Any-SSR 在 TRACE 基准测试上的表现显著优于其他方法,包括多任务学习(MTL)等,不仅在整体性能(OP)上取得了优异成绩,还实现了零反向知识转移(BWT)

AI在线从小米技术获悉,过去五年,小米集团研发投入约 1020 亿元,在 2025 年的 300 亿研发投入中,大约有四分之一将被用于 AI 相关方向。未来五年(2026-2030 年),小米还将在核心技术赛道再投入 2000 亿元。

相关资讯

New Breakthrough in Real-Time Video Generation: Meta StreamDiT Can Generate High-Quality Videos Frame by Frame with a Single GPU

Meta and researchers from the University of California, Berkeley have developed StreamDiT, a revolutionary AI model that can create 512p resolution videos in real-time at 16 frames per second, requiring only a single high-end GPU. Unlike previous methods that needed to fully generate a video clip before playback, StreamDiT enables real-time video stream generation frame by frame.The StreamDiT model has 4 billion parameters and demonstrates impressive versatility.
7/14/2025 2:01:51 PM
AI在线

从「塑料人」到「有血有肉」:角色动画的物理革命,PhysRig实现更真实、更自然的动画角色变形效果

作者:张昊,伊利诺伊大学香槟分校博士生,研究方向为 3D/4D 重建、生成建模与物理驱动动画。 目前在 Snap 担任研究实习生,曾于 Stability AI 和上海人工智能实验室实习。 PhysRig 由 UIUC 与 Stability AI 联合完成,旨在推动角色动画迈向更真实、可控的物理解法。
7/10/2025 5:02:00 PM
机器之心

ICCV 2025 | UniOcc: 自动驾驶占用预测与推理统一数据集及基准平台

来自加州大学河滨分校(UC Riverside)、密歇根大学(University of Michigan)、威斯康星大学麦迪逊分校(University of Wisconsin–Madison)、德州农工大学(Texas A&M University)的团队在 ICCV 2025 发表首个面向自动驾驶语义占用栅格构造或预测任务的统一基准框架 UniOcc。 UniOcc 融合真实世界(nuScenes、Waymo)与仿真环境(CARLA、OpenCOOD)的多源数据,统一体素(voxel)格式与语义(semantic)标签,首次引入体素级前后向运动流标注,并支持多车协同占位预测与推理。 为摆脱伪标签(pseudo-label)评估限制,UniOcc 设计了多项免真值(ground-truth-free)指标,用于衡量物体形状合理性与时序一致性。
7/9/2025 3:36:00 PM
机器之心
  • 1