完全基于Transformer的方针检测器,ICLR匿名论文实现视觉、检测统一

一种新的集成视觉和检测 Transformer 的方针检测器 ViDT。Transformer 在 NLP 任务中取得不错的发展,许多研究将其引入到计算机视觉任务中。毫不夸张的说,Transforme

一种新的集成视觉和检测 Transformer 的方针检测器 ViDT。Transformer 在 NLP 任务中取得不错的发展,许多研究将其引入到计算机视觉任务中。毫不夸张的说,Transformer 正在改变计算机视觉的格局,尤其是在识别任务方面。例如 Detection transformer 是第一个用于方针检测的、端到端的学习系统,而 vision transformer 是第一个完全基于 transformer 的图像分类架构。在本文中,一篇被 ICLR 2022 接收的匿名论文集成了视觉和检测 Transformer (Vision and Detection Transformer,ViDT) 来构建有效且高效的方针检测器。ViDT 引入了一个重新配置的注意力模块(reconfigured attention module),将 Swin Transformer 扩展为一个独立的方针检测器,之后是一个计算高效的 Transformer 解码器,该解码器利用多标准特性和辅助(auxiliary)技术,在不增加计算负载的情况下提高检测功能。在 Microsoft COCO 基准数据集上的评估表明,ViDT 在现有的完全基于 transformer 的方针检测器中获得了最佳的 AP 和延迟权衡,其对大型模型的高可扩展性,可达 49.2AP。

图片

 论文地址:https://openreview.net/pdf?id=w4cXZDDib1HViDT:视觉与检测 TransformerViDT 架构如下图 2 (c) 所示:

首先,ViDT 引入了一种改进的注意力机制,名为 Reconfigured Attention Module (RAM),该模块有助于 ViT 变体处理附加的 [DET(detection tokens)] 和 [PATCH(patch tokens)] token 以进行方针检测。因此,ViDT 可以将最新的带有 RAM 的 Swin Transformer 主干修改为方针检测器,并利用其具有线性复杂度的局部注意力机制获得高可扩展性;

其次,ViDT 采用轻量级的无编码器 neck 架构来减少计算开销,同时仍然在 neck 模块上启用额外的优化技术。请注意,neck 编码器是不必要的,因为 RAM 直接提取用于方针检测的细粒度表示,即 [DET ] token。结果,ViDT 获得了比 neck-free 对应物更好的功能;

最后,该研究引入了用于知识蒸馏的 token 立室新概念,它可以在不影响检测效率的情况下从大型模型到小型模型带来额外的功能提升。

图片

RAM 模块该研究引入了 RAM 模块,它将与 [PATCH] 和 [DET] token 相关的单个全局注意力分解为三个不同的注意力,即 [PATCH]×[PATCH]、[DET]× [DET] 和 [DET] × [PATCH] 注意力。如图 3 所示,通过共享 [DET] 和 [PATCH] token 的投影层,全部复用 Swin Transformer 的所有参数,并执行三种不同的注意力操作:

图片

ENCODER-FREE  neck 结构为了利用多标准特性图,ViDT 结合了多层可变形 transformer 解码器。在 DETR 家族中(图 2 (a)),其 neck 部分需要一个 transformer 编码器,用于将从骨干中提取的用于图像分类的特性转换为适合方针检测的特性;编码器通常在计算上很昂贵,因为它涉及 [PATCH] × [PATCH] 注意力。然而,ViDT 只保留了一个 Transformer 解码器作为其 neck,因为带有 RAM 的 Swin Transformer 直接提取适合方针检测的细粒度特性作为独立的方针检测器。因此,ViDT 的 neck 结构在计算上是高效的。解码器从带有 RAM 的 Swin Transformer 接收两个输入:(1)从每个阶段生成的 [PATCH] token(2)从最后阶段生成的 [DET ] token,如图 2 (c) 的 Neck 所示。在每个可变形的 transformer 层中,首先执行 [DET] × [DET] 注意力。对于每个 [DET] token,应用多标准可变形注意力以生成一个新的 [DET] token,聚合从多标准特性图图片中采样的一小组关键内容:

图片

用于方针检测的 token 立室知识蒸馏虽然大型模型具有实现高功能的高容量,但在实际运用中它的计算成本可能很高。因此,该研究还提出了一种简单的知识蒸馏方法,可以通过 token 立室从大型 ViDT 模型中迁移知识。立室每一层的所有 token 在训练中非常低效,因此,该研究只立室对预测贡献最大的 token。两组 token 直接相关:(1)P:用作多标准特性图的 [PATCH] token 集合,由 body 中的每个阶段生成,(2)D:[DET ] token 的集合,它们是从 neck 的每个解码层生成的。因此,基于 token 立室的蒸馏损失公式为:

图片

评估表 2 将 ViDT 与 DETR (ViT) 和 YOLOS 的 AP、FPS 等进行了比较,其中 DETR (ViT) 有两个变体:DETR 和 Deformable DETR。实验结果表明:ViDT 实现了 AP 和 FPS 之间的最佳权衡。凭借其高可扩展性,其功能优于 1 亿个参数的 Swin-base,在相似的 AP 的下,FPS 比 Deformable DETR 快 2 倍。此外,ViDT 参数为 16M,得到 40.4AP,比 DETR (swin-nano) 和 DETR (swin-tiny) 高分别高 6.3AP、12.6AP。

图片

图片

表 3 对比了不同空间位置编码与 ViDT(w.o. Neck)的结果。结果表明:pre-addition 比 post-addition 带来的功能提升更高,即 sinusoidal encoding 优于 learnable 编码;因此,正弦空间编码的 2D 归纳偏置在方针检测中更有帮助。特别是,与不运用任何编码相比,运用正弦编码的预加法(pre-addition)将 AP 增加了 5.0。

图片

表 4 总结了运用不同选择策略进行交叉注意力(cross-attention)时的 AP 和 FPS,其中 Swin Transformer 总共包含四个阶段。有趣的是,只要在最后阶段激活交叉注意力,所有策略都表现出相似的 AP。由于在各个阶段中以自下而上的方式提取特性,因此在低级别阶段很难直接获得有关方针对象的有用信息。因此,研究者想要获得较高的 AP 和 FPS,只运用最后阶段是最好的设计选择,因为 [PATCH] token 的数量最少。

图片

为了彻底验证辅助解码损失(auxiliary decoding loss)和迭代框细化(iterative box refinement)的有效性,该研究甚至对 YOLOS 等 neck-free 检测器进行了扩展。表 5 显示了两种 neck-free 检测器 YOLOS 和 ViDT (w.o. Neck) 功能。实验结果证明在 ViDT 中运用 Neck 解码器来提高方针检测功能是合理的。

图片

下图表明:教师模型的规模越大,学生模型的收益越大。从系数来看,系数值越大,功能越好。模型蒸馏将 AP 提高了 1.0-1.7,而不会影响学生模型的推理速度。

图片

研究者将所有提议的组件结合起来,以实现方针检测的高精度和速度。如表 8 所示,有四个组件:(1) RAM 将 Swin Transformer 扩展为独立的方针检测器,(2) neck 解码器利用多标准特性和两种辅助技术,(3) 从大模型中获益知识蒸馏,(4) 解码层 drop 进一步加快推理速度。结果表明:当运用 Swin-nano 作为其主干时,它仅运用 13M 参数就达到了 41.7AP 和合理的 FPS。此外,当运用 Swin-tiny 时,它仅损失了 2.7 FPS 而表现出 46.4AP。

图片

原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/25754

(0)
上一篇 2022年2月10日 下午3:16
下一篇 2022年2月11日 下午2:04

相关推荐

  • 线上分享 | Transformers库维护者之一、UCSD博士生分享库背后的故事

    自 2017 年提出以来,Transformer 已经成为占据主导地位的自然语言处理(NLP)架构,在自然语言理解和自然语言生成等任务上表现出的性能超过了卷积和循环神经网络等其他神经模型。之后,Transformer 的训练数据和模型规模也不断扩展,从而促进了高效并行训练以及长期序列特征捕获。

    2020年12月11日
  • 有理论基础,我们就可以从事深度优化了。

    为什么 transformer 机能这么好?它给众多大语言模型带来的上下文进修 (In-Context Learning) 能力是从何而来?在人工智能领域里,transformer 已成为深度进修中的

    2023年9月19日
  • 听我说,Transformer它就是个支持向量机

    SVM is all you need,支持向量机永不过时。

    2023年9月4日
  • 论文分享 | 丢弃卷积,纯Transformer建立GAN收集

    最近,计算机视觉(CV)领域的钻研者对 Transformer 产生了极大的兴趣并陆续取得了不少突破。比如,2020 年 5 月,Facebook AI 的钻研者推出了 Transformer 的视觉版本——Detection Transformer,在性能上媲美当时的 SOTA 方法,但架构得到了极大简化;10 月,谷歌提出了 Vision Transformer (ViT),可以直接利用 transformer 对图像进行分类,而不需要卷积收集。

    2021年2月26日

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注