偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

自動駕駛汽車中的激光雷達(dá)和攝像頭傳感器融合

人工智能 無人駕駛 智能汽車
傳感器融合是感知模塊的一部分。我們希望融合來自視覺傳感器的數(shù)據(jù),以增加冗余、確定性或利用多個傳感器的優(yōu)勢。

 傳感器融合是自動駕駛汽車的關(guān)鍵技術(shù)之一。這是自動駕駛汽車工程師都必須具備的技能。原因很簡單:感知無處不在,無時無刻不在使用。

自動駕駛汽車通過4個關(guān)鍵技術(shù)工作:感知、定位、規(guī)劃和控制。

傳感器融合是感知模塊的一部分。我們希望融合來自視覺傳感器的數(shù)據(jù),以增加冗余、確定性或利用多個傳感器的優(yōu)勢。

傳感器數(shù)據(jù)和融合

在感知步驟中,使用激光雷達(dá)、雷達(dá)和攝像頭的組合來理解環(huán)境是很常見的。這3個傳感器各有優(yōu)缺點(diǎn),使用它們可以幫助您擁有所有優(yōu)點(diǎn)。

如上圖所示:

  • 攝像頭擅長處理對象分類及理解場景。
  • 作為一種飛行時間傳感器,激光雷達(dá)非常適合估計距離。
  • 雷達(dá)可以直接測量障礙物的速度。

在本文中,我們將學(xué)習(xí)融合激光雷達(dá)和攝像頭,從而利用攝像頭的分辨率、理解上下文和對物體進(jìn)行分類的能力以及激光雷達(dá)技術(shù)來估計距離并查看3D世界。

攝像頭:2d傳感器

相機(jī)是一種眾所周知的傳感器,用于輸出邊界框、車道線位置、交通燈顏色、交通標(biāo)志和許多其他東西。在任何自動駕駛汽車中,攝像頭從來都不是問題。

如何使用這種2D傳感器,并將其與3D傳感器(如:激光雷達(dá))一起應(yīng)用于3D世界?

激光雷達(dá):3d傳感器

激光雷達(dá)代表光檢測和測距。它是一個3D傳感器,輸出一組點(diǎn)云;每個都有一個(X,Y,Z)坐標(biāo)。可以在3D數(shù)據(jù)上執(zhí)行許多應(yīng)用:包括運(yùn)行機(jī)器學(xué)習(xí)模型和神經(jīng)網(wǎng)絡(luò)。下面是一個輸出示例。

如何將此3D傳感器與相機(jī)等2D傳感器配合使用?

今天,我們介紹融合激光雷達(dá)和相機(jī)之間的數(shù)據(jù)。

傳感器融合算法

傳感器融合算法非常多。許多不同的方法都是可能的。“我們想要哪種類型的融合?”至關(guān)重要。

如文章所屬,有3種方式來對融合算法分類:

  • 按抽象級別:“何時”進(jìn)行融合?when
  • 按中心化級別:在“哪里”進(jìn)行融合?where
  • 按競爭級別:融合“什么”?what

“什么”很清楚:我們的目標(biāo)是競爭和冗余。“在哪里”并不重要,很多解決方案都可以解決。剩下“何時”...

在傳感器融合中,有兩種可能的過程:

  • 早期融合:融合原始數(shù)據(jù)--像素和點(diǎn)云。
  • 后期融合:融合結(jié)果--來自激光雷達(dá)和相機(jī)的邊界框。

在本文中,我們將研究這兩種方法。

We then check whether or not the point clouds belong to 2D bounding boxes detected with the camera.

This 3-step process looks like this:

我們從早期融合開始。

早期傳感器融合:融合原始數(shù)據(jù)

早期融合是融合來自傳感器的原始數(shù)據(jù)的。因此,一旦插入傳感器,該過程就會很快的發(fā)生。

最簡單和最常見的方法是將點(diǎn)云(3D)投影到2D圖像上。然后檢查點(diǎn)云和相機(jī)檢測到的2D邊界框的重合度。

這個3步過程如下所示:

此過程已在此文中歸類為低級別傳感器融合。

1.點(diǎn)云投影到2D

第一個想法是將激光雷達(dá)幀中的3D點(diǎn)云轉(zhuǎn)換為相機(jī)幀中的2D投影。為此,需要應(yīng)用幾何原理如下:

(輸入點(diǎn)云在激光雷達(dá)幀/歐幾里得坐標(biāo)中。)

(1)將每個3D激光雷達(dá)點(diǎn)轉(zhuǎn)換為齊次坐標(biāo)。

輸出:激光雷達(dá)幀/齊次坐標(biāo)

(2)應(yīng)用該轉(zhuǎn)換點(diǎn)的投影方程(平移和旋轉(zhuǎn))將該點(diǎn)從激光雷達(dá)幀轉(zhuǎn)換為相機(jī)幀。

輸出:相機(jī)幀/齊次坐標(biāo)

(3)最后,將點(diǎn)轉(zhuǎn)換回歐幾里得坐標(biāo)。

輸出:相機(jī)幀/歐幾里得坐標(biāo)

如果不熟悉投影、旋轉(zhuǎn)和齊次坐標(biāo),可以學(xué)習(xí)立體視覺課程。

這是第1步的結(jié)果。

2.2D對象檢測

下一部分是用相機(jī)檢測物體。這部分不過多描述,像YOLOv4這樣的算法可以執(zhí)行對象檢測。有關(guān)它的更多信息,可以閱讀YOLOv4研究評論。

3.ROI匹配

最后一部分稱為感興趣區(qū)域匹配。我們將簡單地融合每個邊界框內(nèi)的數(shù)據(jù)。

輸出是什么?

  • 對于每個邊界框,相機(jī)給出分類結(jié)果。
  • 對于每個激光雷達(dá)投影點(diǎn),都有一個非常準(zhǔn)確的距離。

➡️ 因此,我們得到了準(zhǔn)確測量和分類的物體。

可能會出現(xiàn)一個問題:我們選擇哪一點(diǎn)作為距離?

  • 每個點(diǎn)的平均值?
  • 中位數(shù)?
  • 中心點(diǎn)?
  • 最近的?

使用2D障礙物檢測時,會遇到如下問題。如果我們選擇的點(diǎn)屬于另一個邊界框怎么辦?或者屬于背景?這是一個棘手的過程。分割方法可能會更好,因?yàn)閷Ⅻc(diǎn)與像素精確匹配。

下面是結(jié)果的樣子,箭頭顯示融合可能失敗的點(diǎn)。

后期傳感器融合:融合結(jié)果

后期融合是在獨(dú)立檢測后融合結(jié)果。

我們可以想到的一種方法是運(yùn)行獨(dú)立檢測,在兩端獲得3D邊界框,然后融合結(jié)果。

另一種方法是運(yùn)行獨(dú)立檢測,得到兩端的2D邊界框,然后融合結(jié)果。

因此我們有兩種可能;在2D或3D中進(jìn)行融合。

下面是一個2D示例:

在本文中,我將介紹3D過程,因?yàn)樗y。相同的原則適用于2D。

過程如下所示:

1.3D障礙物檢測(激光雷達(dá))

使用激光雷達(dá)在3D中尋找障礙物的過程是眾所周知的。有兩種方法:

樸素的方法,使用無監(jiān)督的3D機(jī)器學(xué)習(xí)。

深度學(xué)習(xí)方法,使用RANDLA-NET等算法。

激光雷達(dá)課程這兩種方法都有講。

2.3D障礙物檢測(相機(jī))

這個過程要困難得多,尤其是在使用單目相機(jī)時。在3D中尋找障礙物需要我們準(zhǔn)確地知道我們的投影值(內(nèi)在和外在校準(zhǔn))并使用深度學(xué)習(xí)。如果我們想獲得正確的邊界框,了解車輛的大小和方向也至關(guān)重要。

本文是關(guān)于融合的文章,不介紹檢測部分??梢圆榭次恼?。

最后,關(guān)注一下匹配。

Here's an example coming from the paper 3D Iou-Net (2020) .

3.IOU匹配

空間中的IOU匹配

匹配背后的過程非常簡單:如果來自攝像頭和激光雷達(dá)的邊界框在2D或3D中重疊,我們認(rèn)為障礙是相同的。

下面是來自論文3D Iou-Net(2020)的示例。

利用這個想法,我們可以將空間中的物體關(guān)聯(lián)起來,從而在不同的傳感器之間進(jìn)行關(guān)聯(lián)。

此過程在文章中歸類為中級別傳感器融合。

中級傳感器融合和高級傳感器融合的區(qū)別在于高級傳感器的融合包括跟蹤。

要添加時間跟蹤,我們需要一個稱為時間關(guān)聯(lián)的類似過程。

時間上的IOU匹配

在障礙物追蹤 課程中,講了一種使用卡爾曼濾波器和匈牙利算法從幀到幀在時間上關(guān)聯(lián)對象的技術(shù)。結(jié)果使我們能夠在幀之間跟蹤對象,甚至預(yù)測它們的下一個位置。

如下所示:

IOU匹配的原理完全一樣:如果從第一幀到第二幀的邊界框重疊,我們認(rèn)為這個障礙物是相同的。

此處,我們跟蹤邊界框位置并使用IOU(Intersection Over Union)作為指標(biāo)。我們還可以使用深度卷積特征來確保邊界框中的對象是相同的--我們將此過程稱為SORT(簡單在線實(shí)時跟蹤),如果使用卷積特征,則稱為深度SORT。

由于我們可以在空間和時間中跟蹤對象,因此我們還可以在這種方法中使用完全相同的算法進(jìn)行高級傳感器融合。

總結(jié)

我們現(xiàn)在已經(jīng)研究了激光雷達(dá)和相機(jī)融合的兩種方法。

讓我們總結(jié)一下我們學(xué)到的東西:

傳感器融合過程是關(guān)于融合來自不同傳感器的數(shù)據(jù),此處是激光雷達(dá)和攝像頭。

可以有早期或后期融合--早期融合(低級傳感器融合)是關(guān)于融合原始數(shù)據(jù)。后期融合是關(guān)于融合對象(中級傳感器融合)或軌跡(高級傳感器融合)

在做早期傳感器融合時,要做點(diǎn)云和像素或者框的關(guān)聯(lián)。

在進(jìn)行后期傳感器融合時,我們想要做結(jié)果(邊界框)之間的關(guān)聯(lián),因此有諸如匈牙利算法和卡爾曼濾波器之類的算法來解決它。

 

責(zé)任編輯:張燕妮 來源: 汽車電子與軟件
相關(guān)推薦

2021-07-02 09:00:00

自動駕駛特斯拉技術(shù)

2017-07-21 10:42:27

自動駕駛應(yīng)用機(jī)器學(xué)習(xí)

2023-03-21 10:11:29

自動駕駛

2023-06-16 09:55:29

2021-11-01 13:42:39

芯片自動駕駛技術(shù)

2022-04-25 15:13:03

自動駕駛傳感器

2022-02-25 10:56:08

自動駕駛傳感器技術(shù)

2019-08-20 16:20:27

自動駕駛AI人工智能

2023-05-22 10:00:09

雷達(dá)激光

2023-10-24 10:00:17

2023-01-31 15:31:36

2023-11-27 09:49:37

自動駕駛數(shù)據(jù)

2022-12-08 09:25:58

自動駕駛技術(shù)

2023-10-26 09:34:44

自動駕駛技術(shù)

2023-04-13 10:08:29

自動駕駛雷達(dá)

2021-07-20 13:43:50

自動駕駛雷達(dá)技術(shù)

2023-02-16 10:25:26

自動駕駛特斯拉

2024-02-21 09:25:50

3D自動駕駛

2023-04-07 13:05:39

自動駕駛雷達(dá)

2022-01-04 17:52:13

激光雷達(dá)高精地圖
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號