您當前的位置:首頁 > 攝影

鐳射雷達和相機感知融合簡介

作者:由 十點雨 發表于 攝影時間:2021-12-16

前言

本文介紹鐳射雷達和相機融合的兩種方法:

前融合:融合原始資料(點雲和畫素/目標框)。

後融合:融合目標框。

1 前融合

前融合一般指融合原始資料,最容易、最普遍的方式是將點雲

投影

到影象。然後檢查點雲

是否屬於

影象中檢測的2D目標框。流程如下:

鐳射雷達和相機感知融合簡介

1。1 點雲投影

三步:

將3D鐳射雷達點轉換為

齊次座標

將點雲變換到影象座標系(LiDAR-Camera外參)

透視投影到影象平面 (相機內參)

鐳射雷達和相機感知融合簡介

1。2 影象目標檢測

一般使用YOLO系列演算法。可以參考:Introduction to YOLOv4: Research review

1。3 ROI匹配

ROI (Region Of Interest)匹配即融合目標邊界框內的資料。這一步的輸出:

對於每個2D邊界框,影象檢測提供

類別

對於每個LiDAR投影點,我們有準確的

距離

因此,融合目標語義類別和空間位置就完善了。這一步的重點是

如何融合目標邊界框內的投影點,作為目標位置

:求平均,中值,中心點,最近點? ​

另外,影象目標框往往比真實目標大一些

,目標邊界框內投影點雲可能不屬於真實目標

(比如可能屬於背景,或附近目標)。針對這個問題,採用

影象分割

,可以更準確地匹配投影點和畫素。 ​

下圖箭頭處顯示了投影點在目標框內,但不屬於目標框對應的車輛,而是前方車輛的點雲。

鐳射雷達和相機感知融合簡介

2 後融合

後融合是融合各個感測器獨立的檢測結果,有兩種融合思路:

2D融合:影象2D檢測,點雲3D檢測投影到影象生成的2D檢測。如下圖:

鐳射雷達和相機感知融合簡介

3D融合:影象3D檢測,點雲3D檢測。流程如下:

鐳射雷達和相機感知融合簡介

下文詳細介紹下3D融合的思路。

2。1 點雲3D目標檢測

傳統方法:聚類,L-shape fitting等

深度學習方法:centerpoint等

2。2 影象3D目標檢測

單目3D目標檢測,需要知道投影引數(相機內參,標定外參),並使用深度學習。知道目標的真實大小和朝向也有助於得到目標的準確邊界框。 ​

分享一篇單目3D檢測論文: 3D Bounding Box Estimation Using Deep Learning and Geometry

鐳射雷達和相機感知融合簡介

2。3 IOU匹配

IOU即Intersection Over Union, 描述兩個邊界框的重合程度。

2。3。1 空域上的IOU匹配

匹配

就是看影象3D邊界框和點雲3D邊界框是否

重合

(用IOU衡量),重合度高則是同一個目標。 3D Iou——Net (2020)中的示例影象:

鐳射雷達和相機感知融合簡介

因此,我們可以在

空域

上將不同感測器的檢測目標進行

關聯

鐳射雷達和相機感知融合簡介

這個過程在9 Types of Sensor Fusion Algorithms中,被定義為中級(middle-level)感測器融合。

中級感測器融合和高階感測器融合的區別是,高階感測器融合包括跟蹤。

而為了時間跟蹤,則需要時域上的

資料關聯

2。3。2 時域上的IOU匹配

目標跟蹤

一般用

卡爾曼濾波

匈牙利演算法

來關聯時域上的目標,從而跨幀跟蹤目標,甚至預測目標位置。

鐳射雷達和相機感知融合簡介

跟蹤3D邊界框位置時,一般

用IOU作為度量進行資料關聯

。當然也可以使用深度卷積特徵來確保目標一致。我們稱該過程為SORT (Simple Online Realtime Tracking), 或Deep SORT,如果使用深度卷積特徵。

時域上IOU匹配

的原理與空域上類似:如果第一幀和第二幀的邊界框

重合

,則說明兩個目標是相同的。 ​

既然我們可以在空域和時域上跟蹤目標,那麼也可以利用類似方法進行高階的感測器融合。 ​

2。4 後融合總結

融合檢測目標是中級的融合,需要空域上的IOU匹配;融合跟蹤軌跡是高階的融合,需要時域上的IOU匹配(匹配度量),卡爾曼濾波(狀態估計),匈牙利演算法(資料關聯)。

標簽: 融合  3D  目標  影象  點雲