Sparse4D v3来了!推进端到端3D检测和跟踪

人工智能 新闻
本文引入了两个辅助训练任务(时序实例去噪-Temporal Instance Denoising和质量估计-Quality Estimation),并提出解耦注意力(decoupled attention)来进行结构改进,从而显着提高检测性能。

原标题:Sparse4D v3 Advancing End-to-End 3D Detection and Tracking

论文链接:https://arxiv.org/pdf/2311.11722.pdf

代码链接:https://github.com/linxuewu/Sparse4D

作者单位:地平线

图片

论文思路:

在自动驾驶感知系统中,3D检测和跟踪是两项基本任务。本文基于 Sparse4D 框架更深入地研究了该领域。本文引入了两个辅助训练任务(时序实例去噪-Temporal Instance Denoising和质量估计-Quality Estimation),并提出解耦注意力(decoupled attention)来进行结构改进,从而显着提高检测性能。此外,本文使用一种简单的方法将检测器扩展到跟踪器,该方法在推理过程中分配实例 ID,进一步突出了 query-based 算法的优势。在 nuScenes 基准上进行的大量实验验证了所提出的改进的有效性。以ResNet50为骨干,mAP、NDS和AMOTA分别提高了3.0%、2.2%和7.6%,分别达到46.9%、56.1%和49.0%。本文最好的模型在 nuScenes 测试集上实现了 71.9% NDS 和 67.7% AMOTA。

主要贡献:

本文提出了 Sparse4D-v3,这是一个强大的 3D 感知框架,具有三种有效的策略:时序实例去噪、质量估计和解耦注意力。

本文将 Sparse4D 扩展为端到端跟踪模型。

本文展示了 nuScenes 改进的有效性,在检测和跟踪任务中实现了最先进的性能。

网络设计:

首先,本文观察到与 dense-based 算法相比,sparse-based 算法在收敛方面遇到了更大的挑战,最终影响了它们的最终性能。这个问题已经在 2D 检测领域得到了彻底的研究[17,48,53],并且主要归因于一对一正样本匹配的使用。这种匹配方式在训练初期不稳定,而且与一对多匹配相比,正样本数量有限,从而降低了解码器训练的效率。此外,Sparse4D 使用稀疏特征采样而不是全局交叉注意力,由于正样本稀缺,这进一步阻碍了编码器收敛。在 Sparse4Dv2 [27] 中,引入了密集深度监督(dense depth supervision)来部分缓解图像编码器面临的这些收敛问题。本文主要旨在通过关注解码器训练的稳定性来增强模型性能。本文将去噪任务作为辅助监督,并将去噪技术(denoising techniques)从 2D 单帧检测扩展到 3D 时序检测。不仅保证了稳定的正样本匹配,而且显着增加了正样本的数量。此外,本文引入了质量评估(quality estimation)任务作为辅助监督。这使得输出的置信度分数更加合理,提高了检测结果排名的准确性,从而获得更高的评估指标。此外,本文增强了Sparse4D中实例自注意力(instance self-attention)和时序交叉注意力模块(temporal cross-attention modules)的结构,引入了一种解耦注意力机制(decoupled attention mechanism),旨在减少注意力权重计算过程中的特征干扰。如图 3 所示,当添加 anchor embedding 和实例特征作为注意力计算的输入时,所得注意力权重中存在异常值的实例。这无法准确反映目标特征之间的相互关联,导致无法聚合正确的特征。通过用 concatenation 代替 attention,本文显着减少了这种错误现象的发生。此增强功能与 Conditional DETR [33] 具有相似之处。然而,关键的区别在于本文强调 queries 之间的注意力,与 Conditional DETR 不同,其专注于 queries 和图像特征之间的交叉注意力。此外,本文的方法涉及独特的编码方法。

最后,为了提高感知系统的端到端能力,本文探索将3D多目标跟踪任务集成到Sparse4D框架中,从而能够直接输出目标运动轨迹。与 tracking-by-detection 方法不同,本文消除了数据关联和过滤的需要,将所有跟踪功能集成到检测器中。此外,与现有的联合检测和跟踪方法不同,本文的跟踪器不需要修改训练过程或损失函数。它不需要提供 ground truth IDs,但可以实现预定义的 instance-to-tracking 回归。本文的跟踪实现最大限度地集成了检测器和跟踪器,不需要修改检测器的训练过程,也不需要额外的微调。

图1:Sparse4D框架概述,输入多视图视频并输出所有帧的感知结果。

图 2:不同算法的 nuScenes 验证数据集上的推理效率 (FPS) - 感知性能 (mAP)。

图 3:实例自注意力中的注意力权重的可视化:1)第一行显示了普通自注意力中的注意力权重,其中红色圆圈中的行人显示出与目标车辆(绿色框)的意外相关性。2)第二行显示了解耦注意力中的注意力权重,有效解决了该问题。

图 4:时序实例去噪的图示。(a) 在训练阶段,实例包含两个组成部分:可学习的和噪声的。噪声实例由时间和非时间元素组成。对于噪声实例,本文采用预匹配方法来分配正样本和负样本——将 anchors 与 ground truth 进行匹配,而可学习实例与预测和 ground truth 进行匹配。在测试阶段,仅保留图中的绿色块。(b) 采用 Attention mask 来防止 groups 之间的特征传播,其中灰色表示 queries 和 keys 之间没有注意力,绿色表示相反。

图片

图 5:anchor encoder 和注意力的架构。本文独立地对 anchor 的多个组件进行高维特征编码,然后将它们连接起来。与原始 Sparse4D 相比,这种方法可以降低计算和参数开销。E 和 F 分别表示 anchor embedding 和实例特征。

图片

实验结果:

图片图片图片图片图片图片图片

总结:

本文首先提出了增强 Sparse4D 检测性能的方法。这一增强主要包括三个方面:时序实例去噪、质量估计和解耦注意力。随后,本文说明了将 Sparse4D 扩展为端到端跟踪模型的过程。本文在 nuScenes 上的实验表明,这些增强功能显着提高了性能,使 Sparse4Dv3 处于该领域的前沿。

引用:

Lin, X., Pei, Z., Lin, T., Huang, L., & Su, Z. (2023). Sparse4D v3: Advancing End-to-End 3D Detection and Tracking. ArXiv. /abs/2311.11722

责任编辑:张燕妮 来源: 自动驾驶之心
相关推荐

2023-11-29 11:45:54

模型智能

2024-01-23 13:32:53

地平线自动驾驶

2011-08-26 14:50:23

2012-11-26 12:51:44

木材3D打

2022-12-16 09:44:39

3D智能

2024-04-17 09:56:24

算法模型

2011-05-26 10:55:39

2024-04-24 11:23:11

3D检测雷达

2011-10-06 13:30:45

宏碁投影仪

2017-03-22 11:57:57

3D XPoint存储英特尔

2015-04-27 15:35:42

Cocos3D场景编辑器

2013-01-30 16:15:40

adobeHTML5css3

2011-05-26 10:05:07

优派投影机

2023-12-14 11:18:16

视觉检测

2011-08-08 09:42:41

OGRE iOS

2023-10-12 09:47:00

4D雷达

2011-05-25 16:07:17

2011-09-22 10:07:52

奥图码投影仪

2021-03-11 12:33:20

Windows 10Windows操作系统

2015-09-09 11:05:52

3d视差引导页
点赞
收藏

51CTO技术栈公众号