分享好友 资讯首页 频道列表

毫米波雷达在多模态视觉任务上的近期工作及简析

2022-09-28 23:39

自动驾驶中雷达与相机融合的目标检测工作多模态目标检测:

介绍的工作都比较冷门,很少有源码开放,因此对一些细节分析可能并不到位,欢迎大家在评论区讨论,提出自己的宝贵意见,指正我的一些偏见。

一、3D Detection

1.1 GCN:图卷积用于毫米波目标检测

1.1.1 GCN用于毫米波点云

1.1.2 GCN用于原始毫米波信号

  1. Abstract:作者借鉴GCN,提出基于毫米波原始数据Range-beam-Doppler tensor进行3D目标检测GRT-Net,相比作者自设定的baseline(grid-based-convolutional baseline也就是voxel这类方法)提升约10%,同时作者在真实环境下自采的数据集合来验证模型效果。此外,将检测距离增加至100m,大幅度提升检测范围。

  2. 网络结构:

图片

这项工作的输入数据,并不是常见的雷达点云形式,这类点云是经过CFAR等算法处理后的结果,这类算法处理后的结果会导致原始信息丢失的问题(部分工作将CFAR更换为DL模型后能够有效降低点云噪声),近期的一些工作例如CRUW数据集,提供点云的上层数据-Range-Doppler数据,这类数据能够以较小损失的条件下保留较多的原始信息,但是,相对点云原始数据无法直接将数据用于检测等现有任务并且数据的直观性和结构化降低。在GCN中,RD不能够直接用于构建Graph,作者将其处理为range-beam-doppler坐标系下的voxel用于构建节点,edge则采用两种方案:根据节点的距离确定和固定权重。

  1. 重要部分:

(1) 极坐标系和笛卡尔坐标系

图片


原始毫米波数据转换到极坐标系的表示图片

这里简单聊一下毫米波数据的转换过程,如上图所示,从左到右经过三次FFT变换,从原始的传感器采集到的MNK维度的IF信号到最后的RD数据,就是我们所需要的原始雷达数据,对RD数据进一步处理,得到点云数据信息,我们需要的是上图中最后一个数据的形式。(2) 图的构建

首先,Radar-Doppler-Tensor作为输入数据(HWC),然后将输入切分成range-beam为单位的cell作为基本单元,每个cell(256 channels doppler)作为node feature,这样就完成了节点的原始特征定义。对于edge的定义如下(图的边则连接相邻range或者相邻angle的节点,边的权重与欧式空间中节点距离成反比(实验证明这个权重的设置并不重要):

图片


GCN包括两层的图卷积(Aggregate Spatial Information, ReLU),此时向量变为channel=3的Tensor,然后经过双线形插值将数据转换为笛卡尔坐标系方便目标检测,后送入到FPN中融合多尺度的Range-Doppler数据,最后通过two-stage方法,将RoI-Proposal的向量提取并通过两个FC进行类别和属性的判别并通过NMS进行处理。以下是原始的Radar beam Tensor和经过转换到笛卡尔坐标系后的Tensor。

  1. 实验:

如下,作者采集自真实场景的数据集各项参数:可以看出,部分遮挡的目标占有大半部分,目标大都分布在33.7m左右

图片

如下,数据集中对于目标检测难度的定义:从距离和遮挡程度两者考虑

图片

baseline(GRT-Net):作者仅是为了证明voxel-based方法和graph-based方法的优劣性,将上述的两层图卷积网络替换为普通的2D卷积,激活函数等其他网络设置相同,具体结果如下所示:

图片

来源:自动驾驶之心

« 上一页 1/5 下一页 »
评论 0
同类信息