偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

OccNeRF:完全無(wú)需激光雷達(dá)數(shù)據(jù)監(jiān)督

人工智能 智能汽車(chē)
近年來(lái),隨著人工智能技術(shù)的飛速發(fā)展,自動(dòng)駕駛領(lǐng)域也取得了巨大進(jìn)展。3D 感知是實(shí)現(xiàn)自動(dòng)駕駛的基礎(chǔ),為后續(xù)的規(guī)劃決策提供必要信息。

本文經(jīng)自動(dòng)駕駛之心公眾號(hào)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

寫(xiě)在前面&筆者的個(gè)人總結(jié)

近年來(lái),3D 占據(jù)預(yù)測(cè)(3D Occupancy Prediction)任務(wù)因其獨(dú)特的優(yōu)勢(shì)獲得了學(xué)界及業(yè)界的廣泛關(guān)注。3D 占據(jù)預(yù)測(cè)通過(guò)重建周?chē)h(huán)境的 3D 結(jié)構(gòu)為自動(dòng)駕駛的規(guī)劃和導(dǎo)航提供詳細(xì)信息。然而,大多數(shù)現(xiàn)有方法依賴(lài) LiDAR 點(diǎn)云生成的標(biāo)簽來(lái)監(jiān)督網(wǎng)絡(luò)訓(xùn)練。在 OccNeRF 工作中,作者提出了一種自監(jiān)督的多相機(jī)占據(jù)預(yù)測(cè)方法。該方法參數(shù)化的占據(jù)場(chǎng)(Parameterized Occupancy Fields)解決了室外場(chǎng)景無(wú)邊界的問(wèn)題,并重新組織了采樣策略,然后通過(guò)體渲染(Volume Rendering)來(lái)將占用場(chǎng)轉(zhuǎn)換為多相機(jī)深度圖,最后通過(guò)多幀光度一致性(Photometric Error)進(jìn)行監(jiān)督。此外,該方法利用預(yù)訓(xùn)練的開(kāi)放詞匯語(yǔ)義分割模型(open vocabulary semantic segmentation model)生成 2D 語(yǔ)義標(biāo)簽對(duì)模型進(jìn)行監(jiān)督,來(lái)賦予占據(jù)場(chǎng)語(yǔ)義信息。

圖片

  • 論文鏈接:https://arxiv.org/pdf/2312.09243.pdf
  • 代碼鏈接:https://github.com/LinShan-Bin/OccNeRF

OccNeRF問(wèn)題背景

近年來(lái),隨著人工智能技術(shù)的飛速發(fā)展,自動(dòng)駕駛領(lǐng)域也取得了巨大進(jìn)展。3D 感知是實(shí)現(xiàn)自動(dòng)駕駛的基礎(chǔ),為后續(xù)的規(guī)劃決策提供必要信息。傳統(tǒng)方法中,激光雷達(dá)能直接捕獲精確的 3D 數(shù)據(jù),但傳感器成本高且掃描點(diǎn)稀疏,限制了其落地應(yīng)用。相比之下,基于圖像的 3D 感知方法成本低且有效,受到越來(lái)越多的關(guān)注。多相機(jī) 3D 目標(biāo)檢測(cè)在一段時(shí)間內(nèi)是 3D 場(chǎng)景理解任務(wù)的主流,但它無(wú)法應(yīng)對(duì)現(xiàn)實(shí)世界中無(wú)限的類(lèi)別,并受到數(shù)據(jù)長(zhǎng)尾分布的影響。

3D 占據(jù)預(yù)測(cè)能很好地彌補(bǔ)這些缺點(diǎn),它通過(guò)多視角輸入直接重建周?chē)鷪?chǎng)景的幾何結(jié)構(gòu)。大多數(shù)現(xiàn)有方法關(guān)注于模型設(shè)計(jì)與性能優(yōu)化,依賴(lài) LiDAR 點(diǎn)云生成的標(biāo)簽來(lái)監(jiān)督網(wǎng)絡(luò)訓(xùn)練,這在基于圖像的系統(tǒng)中是不可用的。換言之,我們?nèi)孕枰冒嘿F的數(shù)據(jù)采集車(chē)來(lái)收集訓(xùn)練數(shù)據(jù),并浪費(fèi)大量沒(méi)有 LiDAR 點(diǎn)云輔助標(biāo)注的真實(shí)數(shù)據(jù),這一定程度上限制了 3D 占據(jù)預(yù)測(cè)的發(fā)展。因此探索自監(jiān)督 3D 占據(jù)預(yù)測(cè)是一個(gè)非常有價(jià)值的方向。

詳解OccNeRF算法

下圖展示了 OccNeRF 方法的基本流程。模型以多攝像頭圖像  作為輸入,首先使用 2D backbone 提取 N 個(gè)圖片的特征 ,隨后直接通過(guò)簡(jiǎn)單的投影與雙線(xiàn)性插值獲 3D 特征(在參數(shù)化空間下),最后通過(guò) 3D CNN 網(wǎng)絡(luò)優(yōu)化 3D 特征并輸出預(yù)測(cè)結(jié)果。為了訓(xùn)練模型,OccNeRF 方法通過(guò)體渲染生成當(dāng)前幀的深度圖,并引入前后幀來(lái)計(jì)算光度損失。為了引入更多的時(shí)序信息,OccNeRF 會(huì)使用一個(gè)占據(jù)場(chǎng)渲染多幀深度圖并計(jì)算損失函數(shù)。同時(shí),OccNeRF 還同時(shí)渲染 2D 語(yǔ)義圖,并通過(guò)開(kāi)放詞匯語(yǔ)義分割模型進(jìn)行監(jiān)督。

圖片

Parameterized Occupancy Fields

Parameterized Occupancy Fields 的提出是為了解決相機(jī)與占據(jù)網(wǎng)格之間存在感知范圍差距這一問(wèn)題。理論上來(lái)講,相機(jī)可以拍攝到無(wú)窮遠(yuǎn)處的物體,而以往的占據(jù)預(yù)測(cè)模型都只考慮較近的空間(例如 40 m 范圍內(nèi))。在有監(jiān)督方法中,模型可以根據(jù)監(jiān)督信號(hào)學(xué)會(huì)忽略遠(yuǎn)處的物體;而在無(wú)監(jiān)督方法中,若仍然只考慮近處的空間,則圖像中存在的大量超出范圍的物體將對(duì)優(yōu)化過(guò)程產(chǎn)生負(fù)面影響?;诖耍琌ccNeRF 采用了 Parameterized Occupancy Fields 來(lái)建模范圍無(wú)限的室外場(chǎng)景。

圖片

OccNeRF 中的參數(shù)化空間分為內(nèi)部和外部。內(nèi)部空間是原始坐標(biāo)的線(xiàn)性映射,保持了較高的分辨率;而外部空間表示了無(wú)窮大的范圍。具體來(lái)說(shuō),OccNeRF 分別對(duì) 3D 空間中點(diǎn)的  坐標(biāo)做如下變化:

其中    坐標(biāo),, 是可調(diào)節(jié)的參數(shù),表示內(nèi)部空間對(duì)應(yīng)的邊界值, 也是可調(diào)節(jié)的參數(shù),表示內(nèi)部空間占據(jù)的比例。在生成 parameterized occupancy fields 時(shí),OccNeRF 先在參數(shù)化空間中采樣,通過(guò)逆變換得到原始坐標(biāo),然后將原始坐標(biāo)投影到圖像平面上,最后通過(guò)采樣和三維卷積得到占據(jù)場(chǎng)。

Multi-frame Depth Estimation

為了實(shí)現(xiàn)訓(xùn)練 occupancy 網(wǎng)絡(luò),OccNeRF選擇利用體渲染將 occupancy 轉(zhuǎn)換為深度圖,并通過(guò)光度損失函數(shù)來(lái)監(jiān)督。渲染深度圖時(shí)采樣策略很重要。在參數(shù)化空間中,若直接根據(jù)深度或視差均勻采樣,都會(huì)造成采樣點(diǎn)在內(nèi)部或外部空間分布不均勻,進(jìn)而影響優(yōu)化過(guò)程。因此,OccNeRF 提出在相機(jī)中心離原點(diǎn)較近的前提下,可直接在參數(shù)化空間中均勻采樣。此外,OccNeRF 在訓(xùn)練時(shí)會(huì)渲染并監(jiān)督多幀深度圖。

下圖直觀地展示了使用參數(shù)化空間表示占據(jù)的優(yōu)勢(shì)。(其中第三行使用了參數(shù)化空間,第二行沒(méi)有使用。)

圖片

Semantic Label Generation

OccNeRF 使用預(yù)訓(xùn)練的 GroundedSAM (Grounding DINO + SAM) 生成 2D 語(yǔ)義標(biāo)簽。為了生成高質(zhì)量的標(biāo)簽,OccNeRF 采用了兩個(gè)策略,一是提示詞優(yōu)化,用精確的描述替換掉 nuScenes 中模糊的類(lèi)別。OccNeRF中使用了三種策略?xún)?yōu)化提示詞:歧義詞替換(car 替換為 sedan)、單詞變多詞(manmade 替換為 building, billboard and bridge)和額外信息引入(bicycle 替換為 bicycle, bicyclist)。二是根據(jù) Grounding DINO 中檢測(cè)框的置信度而不是 SAM 給出的逐像素置信度來(lái)決定類(lèi)別。OccNeRF 生成的語(yǔ)義標(biāo)簽效果如下:

圖片

OccNeRF實(shí)驗(yàn)結(jié)果

OccNeRF 在 nuScenes 上進(jìn)行實(shí)驗(yàn),并主要完成了多視角自監(jiān)督深度估計(jì)和 3D 占據(jù)預(yù)測(cè)任務(wù)。

多視角自監(jiān)督深度估計(jì)

OccNeRF 在 nuScenes 上多視角自監(jiān)督深度估計(jì)性能如下表所示??梢钥吹交?3D 建模的 OccNeRF 顯著超過(guò)了 2D 方法,也超過(guò)了 SimpleOcc,很大程度上是由于 OccNeRF 針對(duì)室外場(chǎng)景建模了無(wú)限的空間范圍。

圖片

論文中的部分可視化效果如下:

圖片

3D 占據(jù)預(yù)測(cè)

OccNeRF 在 nuScenes 上 3D 占據(jù)預(yù)測(cè)性能如下表所示。由于 OccNeRF 完全不使用標(biāo)注數(shù)據(jù),其性能與有監(jiān)督方法仍有差距。但部分類(lèi)別(如 drivable surface 與 manmade)已達(dá)到與有監(jiān)督方法可比的性能。

圖片

文中的部分可視化效果如下:

圖片

總結(jié)

在許多汽車(chē)廠商都嘗試去掉 LiDAR 傳感器的當(dāng)下,如何利用好成千上萬(wàn)無(wú)標(biāo)注的圖像數(shù)據(jù),是一個(gè)重要的課題。而 OccNeRF 給我們帶來(lái)了一個(gè)很有價(jià)值的嘗試。

原文鏈接:https://mp.weixin.qq.com/s/UiYEeauAGVtT0c5SB2tHEA

責(zé)任編輯:張燕妮 來(lái)源: 自動(dòng)駕駛之心
相關(guān)推薦

2023-09-06 09:59:12

雷達(dá)技術(shù)

2023-09-08 11:55:19

雷達(dá)視覺(jué)

2023-05-22 10:00:09

雷達(dá)激光

2019-04-24 23:02:25

激光雷達(dá)3D檢測(cè)

2024-04-19 12:38:20

3D檢測(cè)

2022-01-13 13:38:29

激光雷達(dá)車(chē)燈

2023-05-09 11:28:03

雷達(dá)技術(shù)

2024-05-09 09:34:53

雷達(dá)數(shù)據(jù)

2023-01-31 15:31:36

2021-07-02 09:00:00

自動(dòng)駕駛特斯拉技術(shù)

2023-12-27 08:28:54

自動(dòng)駕駛模型

2022-02-16 10:56:32

雷達(dá)4D汽車(chē)

2021-11-01 13:42:39

芯片自動(dòng)駕駛技術(shù)

2023-07-28 10:13:05

雷達(dá)技術(shù)

2016-12-21 13:55:46

無(wú)人機(jī)自駕汽車(chē)導(dǎo)航

2024-04-24 11:29:54

模型雷達(dá)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)