驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

研究者分享了他们对自动驾驶场景中高效快速进行时序建模和多物体跟踪朋分的思考。

本文是对苏黎世联邦理工、香港科技大学和快手科技的论文《Prototypical Cross-Attention Networks for Multiple Object Tracking and Segmentation- PCAN》的解读,该论文被 NeurIPS 2021 接收为 spotlight。

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

论文地址:https://arxiv.org/pdf/2106.11958.pdf

项目主页:https://www.vis.xyz/pub/pcan/

GitHub 地址:https://github.com/SysCV/pcan

知乎原文:https://zhuanlan.zhihu.com/p/445457150

B 站地址:https://www.bilibili.com/video/BV1Rb4y1i7zS?spm_id_from=333.999.0.0

深度学习模型的训练和评估离不开大型数据集的支撑。本文提出的原型穿插注意力网络( Prototypical Cross-Attention Network, PCAN)是基于苏黎世联邦理工和 UC 伯克利推出的学术界最大规模的自动驾驶多目标跟踪和朋分(MOTS)数据集 – BDD100K Tracking and Segmentation。其中,BDD Tracking Segmentation 数据集的规模是 KITTI-MOTS 的 6 倍(3,0817 vs 5,027 训练图像、480K vs 26K 实例掩码),标注物体数目是 KITTI 的近 20 倍,并覆盖白天、夜间、 雨雪等更为丰富真实的自动驾驶场景。研究者展示了在 BDD100K – Day 数据集上 PCAN 的车辆预测结果(白天场景)。驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分以及 BDD100K-Night 数据集上 PCAN 的预测结果(夜晚场景)。

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

引言多目标跟踪和朋分(MOTS),是自动驾驶和视频分析等许多实际应用中的一个重要问题。该任务需要将视频中给定的类别的所有物体进行检测、分类、跟踪和像素级朋分。在自动驾驶场景中,复杂的路况、市区内密集且相似的车辆和行人、以及对低功耗低延时(low computation & low memory cost & onlin)的预测需求又给这一任务带来了新的挑战。由于引入了大规模数据集,如 BDD100K、KITTI 等作为深度学习模型训练和测试基准,对 MOTS/VIS 的研究兴趣正迅速增长。MOTS 的大部分 online 方法(MaskTrack R-CNN、SipMask 等)主要遵循基于检测的跟踪范式(tracking-by-detection paradigm)。首先在单张图片内检测和朋分对象,然后是帧之间的关联。尽管这些方法已取得较好的结果,但在对时序建模上仅限于物体关联阶段,并且仅在两个相邻帧之间。另一方面,工夫维度包含关于场景的丰富信息,同一物体的不同工夫下多个角度的视图可以提高预测的物体朋分、定位和类别的质量。然而,高效地利用历史信息(memory information)仍然是一个挑战。虽然基于注意力机制的时序建模方法(包含 Self-Attention, Non-local Attention 和 Transformer 等)已应用于视频处理,但它们通常直接对高分辨率的深度特点图进行操作。长工夫序列上的密集的像素级注意力操作会产生对长度的二次复杂性(quadratic complexity),进一步带来巨大的计算负担和 GPU 内存消耗(例如 VisTR 等),也极大地限制了它们的实际应用。PCAN 提出了一种简单高效地利用视频时序信息的机制, 通过对目标物体及过去帧的外观特点做高斯混合建模,得到数目较少且低秩(sparse and low-rank)的表征混合原型(可以理解为多个不同的 cluster centers), 实现了对历史信息(memory bank)的压缩。这一操作在降低注意力运算复杂度和内存需求的同时, 也提高了视频物体朋分的质量和跟踪的稳定性。PCAN 包括帧级(frame-level module)和实例级(instance-level module)两个模块的原型穿插注意力(prototypical cross-attention),前者重构过去帧的深度特点并将其与当前帧对齐,而后者聚焦于视频中的被跟踪物体。 为了增强对物体外观随工夫变化的鲁棒性,PCAN 通过对比学习(contrastive learning)的机制分别使用 foreground/positive 和 background/negative prototypes(前景和背景原型)来进一步表示每个对象实例,并且将这些原型以在线方式传播更新(online updating)。由于每个实例或帧的原型数目有限,PCAN 在视频中具有工夫线性复杂度的高效地执行远程特点聚合和传播。方法概述PCAN 的结构框架PCAN 首先将历史信息(memory bank)中的高分辨率特点压缩到帧级和实例级的原型(prototypes)中,然后通过原型穿插注意力(prototypical cross-attention)操作,从由原型组成的 space-time memory bank 中去提取和利用过去帧中包含的丰富的外观、纹理和共享信息等。空间 – 工夫中的传统穿插注意力公式:

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

空间 – 工夫中的原型穿插注意力公式:

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

Memory bank 中 prototypes 的数目驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分 ,这有效地避免了对整个高分辨率的历史特点做逐像素密集的 attention 操作。PCAN 采用高斯混合模型(Gaussian Mixture Models, GMM)来进行无监督特点聚类,并选取 EM(Expectation-Maximization)迭代算法的得到的高斯分布拟合聚类中心作为 prototypes。其中,每个像素特点点到 prototype 中心驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分的距离定义为驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分。更为详细的公式讲解请参考原论文:

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

PCAN 框架概览图如下:

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

Frame-level PCAN对于 memory bank 中的帧特点,研究者首先进行基于 GMM 的聚类(高斯分布拟合)以获得 key 和 value prototypes,并根据当前帧的产生的 key 根据 cross-attention weights 将其低秩重建。

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

基于原型和当前帧重建帧特点。重建的特点驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分不仅与当前帧驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分对齐,还通过有限数目的高斯分布拟合去除了特点中冗余信息 (noise reduced),在保持像素点特点空间差异的同时,相似点间的内部差异得到进一步缩小。随后,重建特点与当前帧特点做加权融合,产生的新时序特点用于后续 MOTS 中的分类,检测,朋分和跟踪等多个子任务。

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

frame-level 原型穿插注意力概览图。Instance-level PCAN对于 MOTS 中感兴趣跟踪的物体,研究者进一步根据初始的 mask 和 bounding box 对物体做前后背景的区分,前景(黄色区域)建模为 positive instance prototypes,背景建模(蓝色区域)为 negative prototypes。这些 instance specific 的 prototypes 随着工夫不断更新,更新机制采用滑动平均来更新,类似于 LSTM 中的 hidden state。在第驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分帧时,这些 positive 和 negative 的 prototypes 分别产生不同的 attention maps,从中也能看出不同 prototype 的关注代表区域。最后将初始的物体 mask、产生的 instance attention map、以及融合时序新的 frame feature concat 在一起,通过一个简单的朋分 FCN 网络得到最终的 mask 预测。

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

随工夫更新实例原型。

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

具有前景和背景原型、时序传播的实例级原型注意力。实验PCAN 作为一个 online method 在两个最大规模的 MOTS 数据集 BDD100K 和 Youtube-VIS 上都取得了领先性能。

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

BDD100K 朋分跟踪验证集上的比较结果。

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

Youtube-VIS 验证集上的比较结果。PCAN 在 Youtube-VIS 的性能随着 memory tube length 和 prototype 数目的变化,从中可看出长时序建模和在一定范围内增多 prototype 数目的带来的性能改善。

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

长期时序信息和原型聚类的影响。原型穿插注意力可视化【Instance-level】对红色虚线框中的汽车的 instance attention 可视化。研究者选择前四个前景 / 背景原型作为示例,其中每个都专注于特定的汽车子区域,例如第一个 prototype 关注于车头的位置,并且这一 attention 分布随着工夫的推移具有隐式无监督一致性。

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

由红色点边界框定的汽车实例穿插注意力对红色虚线框中的行人的 instance attention 可视化:

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

红色点边界框定的行人原型实例穿插注意力地图。【Frame-level】对整张图 frame-level 的可视化,其中随机选择了 8 个 frame prototypes 并在图像上显示了它们的注意力分布。显然,每个 frame prototype 都学会对应图像的一些语义概念,涵盖前景和背景区域,例如人、滑板、雨伞和网球拍等等,这些都是通过无监督聚类所学习到的。

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

可视化随机帧原型的 frame-level 原型穿插注意力地图。BDD100k 实例朋分跟踪竞赛

驾驭白夜场景、刷新多个SOTA,苏黎世联邦理工用高效时序建模提升多目标跟踪与朋分

BDD100K Dataset 地址:https://www.bdd100k.com/

BDD100K Tracking & Segmentation 排行榜:https://eval.ai/web/challenges/challenge-page/1295/overview

参考链接

Non-local Neural Networks: https://arxiv.org/abs/1711.07971 

EMANet: Expectation-Maximization Attention Networks for Semantic Segmentation

KITTI MOTS: MOTS: Multi-Object Tracking and Segmentation

Space-Time Memory Networks: https://arxiv.org/abs/1904.0060 

原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/27913

(0)
上一篇 2021年12月26日 下午8:39
下一篇 2021年12月27日 下午7:02

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注