偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

入行自動駕駛數(shù)據(jù)閉環(huán),今年必讀的十三篇最前沿論文

人工智能 智能汽車
今天為大家盤點3DGS&NeRF在自動駕駛重建方面的工作!

本文經自動駕駛之心公眾號授權轉載,轉載請聯(lián)系出處。

近幾年,自動駕駛技術的發(fā)展日新月異。從ECCV 2020的NeRF問世再到SIGGRAPH 2023的3DGS,三維重建走上了快速發(fā)展的道路!再到自動駕駛端到端技術的問世,與之相關的仿真閉環(huán)開始頻繁出現(xiàn)在大眾視野中,新興的三維重建技術由此在自動駕駛領域也逐漸煥發(fā)新機。2023年8月特斯拉發(fā)布FSD V12;2024年4月商湯絕影發(fā)布面向量產的端到端自動駕駛解決方法UniAD;2024年7月理想夏季發(fā)布會宣稱端到端正式上車,快系統(tǒng)4D One Model、慢系統(tǒng)VLM,并首次提出『重建+生成』的世界模型測試方案。

可以說,端到端+仿真閉環(huán)是當下自動駕駛發(fā)展的主流路線。但是仿真閉環(huán)提了很多年,到底什么是仿真閉環(huán)?仿真閉環(huán)的核心又是什么?三維重建又在閉環(huán)中起到什么樣的作用?業(yè)內也一直在討論,百花齊放。無論如何,閉環(huán)的目的是明確的,降低實車測試的成本和風險、有效提高模型的開發(fā)效率進而優(yōu)化系統(tǒng)性能、測試各種corner case并優(yōu)化整個端到端算法。

今天就和大家盤一盤自動駕駛中新興的三維重建技術相關算法。

MARS: An Instance-aware, Modular and Realistic Simulator for Autonomous Driving(CICAI 2023)

  • 論文鏈接:https://arxiv.org/abs/2307.15058v1
  • 代碼鏈接:https://github.com/OPEN-AIR-SUN/mars

圖片

清華AIR提出的首個開源自動駕駛NeRF仿真工具!如今自動駕駛汽車在普通情況下可以平穩(wěn)行駛,人們普遍認為,逼真的傳感器仿真將在通過仿真解決剩余的corner case方面發(fā)揮關鍵作用。為此,我們提出了一種基于神經輻射場(NeRFs)的自動駕駛仿真器。與現(xiàn)有的工作相比,我們有三個顯著的特點:

  • Instance-aware:前景目標和背景,單獨建模,因此可以保證可控性
  • Modular:模塊化設計,便于集成各種SOTA的算法進來
  • Realistic:由于模塊化的設計,不同模塊可以靈活選擇比較好的算法實現(xiàn),因此效果SOTA。

UniSim: A Neural Closed-Loop Sensor Simulator(CVPR 2023)

  • 論文鏈接:https://arxiv.org/abs/2308.01898v1
  • 項目主頁:https://waabi.ai/unisim/

圖片

Waabi和多倫多大學在CVPR 2023上的工作:嚴格測試自動駕駛系統(tǒng)對于實現(xiàn)安全的自動駕駛汽車(SDV)至關重要。它要求人們生成超出世界上安全收集范圍的安全關鍵場景,因為許多場景很少發(fā)生在公共道路上。為了準確評估性能,我們需要在閉環(huán)中測試這些場景中的SDV,其中SDV和其他參與者在每個時間步相互作用。以前記錄的駕駛日志為構建這些新場景提供了豐富的資源,但對于閉環(huán)評估,我們需要根據(jù)新的場景配置和SDV的決定修改傳感器數(shù)據(jù),因為可能會添加或刪除參與者,現(xiàn)有參與者和SDV之間的軌跡將與原始軌跡不同。本文介紹了UniSim,這是一種神經傳感器模擬器,它將配備傳感器的車輛捕獲的單個記錄日志轉換為現(xiàn)實的閉環(huán)多傳感器模擬。UniSim構建神經特征網(wǎng)格來重建場景中的靜態(tài)背景和動態(tài)參與者,并將它們組合在一起,以在新視角仿真LiDAR和相機數(shù)據(jù),添加或刪除參與者以及新的位置。為了更好地處理外推視圖,我們?yōu)閯討B(tài)目標引入了可學習的先驗,并利用卷積網(wǎng)絡來完成看不見的區(qū)域。我們的實驗表明,UniSim可以在下游任務中模擬具有較小域間隙的真實傳感器數(shù)據(jù)。通過UniSim,我們演示了在安全關鍵場景下對自主系統(tǒng)的閉環(huán)評估,就像在現(xiàn)實世界中一樣。UniSim的主要貢獻如下:

  • 高度逼真(high realism): 可以準確地模擬真實世界(圖片和LiDAR), 減小鴻溝(domain gap )
  • 閉環(huán)測試(closed-loop simulation): 可以生成罕見的危險場景測試無人車, 并允許無人車和環(huán)境自由交互
  • 可擴展 (scalable): 可以很容易的擴展到更多的場景, 只需要采集一次數(shù)據(jù), 就能重建并仿真測
  • 知乎解讀:https://zhuanlan.zhihu.com/p/636695025
  • 一作直播:https://www.bilibili.com/video/BV1nj41197TZ

EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision

  • 論文鏈接:https://arxiv.org/abs/2311.02077v1
  • 代碼鏈接:https://github.com/NVlabs/EmerNeRF

圖片

加利福尼亞大學的工作:本文提出了EmerNeRF,這是一種簡單而強大的學習動態(tài)駕駛場景時空表示的方法。EmerNeRF以神經場為基礎,通過自舉同時捕獲場景幾何、外觀、運動和語義。EmerNeRF依賴于兩個核心組件:首先,它將場景劃分為靜態(tài)和動態(tài)場。這種分解純粹源于自監(jiān)督,使我們的模型能夠從一般的、野外的數(shù)據(jù)源中學習。其次,EmerNeRF將動態(tài)場中的感應流場參數(shù)化,并使用該流場進一步聚合多幀特征,從而提高了動態(tài)目標的渲染精度。耦合這三個場(靜態(tài)、動態(tài)和流)使EmerNeRF能夠自給自足地表示高度動態(tài)的場景,而無需依賴GT標注或預先訓練的模型進行動態(tài)目標分割或光流估計。我們的方法在傳感器仿真中實現(xiàn)了最先進的性能,在重建靜態(tài)(+2.93 PSNR)和動態(tài)(+3.70 PSNR)場景時明顯優(yōu)于以前的方法。此外,為了支持EmerNeRF的語義泛化,我們將2D視覺基礎模型特征提升到4D時空中,并解決了現(xiàn)代變形金剛中的普遍位置偏差問題,顯著提高了3D感知性能(例如,職業(yè)預測精度平均相對提高了37.50%)。最后,我們構建了一個多樣化且具有挑戰(zhàn)性的120序列數(shù)據(jù)集,用于在極端和高度動態(tài)的環(huán)境下對神經場進行基準測試。總結來說,本文的主要貢獻如下:

  • EmerNeRF是一種新穎的4D神經場景表示框架,在具有挑戰(zhàn)性的自動駕駛場景中表現(xiàn)出色。EmerNeRF通過自監(jiān)督執(zhí)行靜態(tài)動態(tài)分解和場景流估計;
  • 一種簡化的方法,可以解決ViT中位置嵌入圖案的不良影響,該方法可立即應用于其他任務;
  • 我們引入NOTR數(shù)據(jù)集來評估各種條件下的神經場,并促進該領域的未來發(fā)展;
  • EmerNeRF在場景重建、新視角合成和場景流估計方面實現(xiàn)了最先進的性能。

NeuRAD: Neural Rendering for Autonomous Driving

  • 論文鏈接:https://arxiv.org/abs/2311.15260v3
  • 代碼鏈接:https://github.com/georghess/neurad-studio

圖片

Zenseact的工作:神經輻射場(NeRF)在自動駕駛(AD)領域越來越受歡迎。最近的方法表明,NeRF具有閉環(huán)仿真的潛力,能夠測試AD系統(tǒng),并作為一種先進的訓練數(shù)據(jù)增強技術。然而,現(xiàn)有的方法通常需要較長的訓練時間、密集的語義監(jiān)督或缺乏可推廣性。這反過來又阻止了NeRFs大規(guī)模應用于AD。本文提出了NeuRAD,這是一種針對動態(tài)AD數(shù)據(jù)量身定制的魯棒新型視圖合成方法。我們的方法具有簡單的網(wǎng)絡設計,對相機和激光雷達進行了廣泛的傳感器建模,包括滾動快門、光束發(fā)散和光線下降,適用于開箱即用的多個數(shù)據(jù)集。我們在五個流行的AD數(shù)據(jù)集上驗證了它的性能,全面實現(xiàn)了最先進的性能。

DrivingGaussian: Composite Gaussian Splatting for Surrounding Dynamic Autonomous Driving Scenes

  • 論文鏈接:https://arxiv.org/abs/2312.07920v3
  • 項目主頁:https://pkuvdig.github.io/DrivingGaussian/

圖片

北大&谷歌的工作:本文提出了DrivingGaussian模型,這是一個用于環(huán)視動態(tài)自動駕駛場景的高效和有效的框架。對于具有運動目標的復雜場景,DrivingGaussian首先使用增量靜態(tài)3D高斯對整個場景的靜態(tài)背景進行順序和漸進的建模。然后利用復合動態(tài)高斯圖來處理多個運動目標,分別重建每個目標并恢復它們在場景中的準確位置和遮擋關系。我們進一步使用激光雷達先驗進行 Gaussian Splatting,以重建具有更多細節(jié)的場景并保持全景一致性。DrivingGaussian在動態(tài)驅動場景重建方面優(yōu)于現(xiàn)有方法,能夠實現(xiàn)高保真度和多相機一致性的逼真環(huán)繞視圖合成。總結來說,本文的主要貢獻如下:

  • 據(jù)我們所知,DrivingGaussian是基于復合Gaussian Splatting的大規(guī)模動態(tài)駕駛場景的第一個表示和建??蚣?;
  • 引入了兩個新模塊,包括增量靜態(tài)3D高斯圖和復合動態(tài)高斯圖。前者逐步重建靜態(tài)背景,而后者用高斯圖對多個動態(tài)目標進行建模。在激光雷達先驗的輔助下,所提出的方法有助于在大規(guī)模駕駛場景中恢復完整的幾何形狀;
  • 綜合實驗表明,Driving Gaussian在挑戰(zhàn)自動駕駛基準測試方面優(yōu)于以前的方法,并能夠為各種下游任務進行角情況仿真;

Street Gaussians: Modeling Dynamic Urban Scenes with Gaussian Splatting(ECCV 2024)

  • 論文鏈接:https://arxiv.org/abs/2401.01339v2
  • 代碼鏈接:https://github.com/zju3dv/street_gaussians

圖片

浙大&理想在ECCV 2024上的工作:本文旨在解決自動駕駛場景中動態(tài)城市街道的建模問題。最近的方法通過將跟蹤的車輛姿態(tài)結合到車輛動畫中來擴展NeRF,實現(xiàn)了動態(tài)城市街道場景的照片級逼真視圖合成。然而,它們的訓練速度和渲染速度都很慢。為此本文引入了Street Gaussians,這是一種新的顯式場景表示,可以解決這些限制。具體來說,動態(tài)城市場景被表示為一組配備語義邏輯和3D高斯的點云,每個點云都與前景車輛或背景相關聯(lián)。為了仿真前景目標車輛的動力學,每個目標點云都使用可優(yōu)化的跟蹤姿態(tài)進行優(yōu)化,并使用4D球諧模型進行動態(tài)外觀優(yōu)化。顯式表示允許輕松組合目標車輛和背景,這反過來又允許在半小時的訓練內以135 FPS(1066×1600分辨率)進行場景編輯操作和渲染。該方法在多個具有挑戰(zhàn)性的基準上進行了評估,包括KITTI和Waymo Open數(shù)據(jù)集。實驗表明在所有數(shù)據(jù)集上,所提出的方法始終優(yōu)于最先進的方法。

GaussianPro: 3D Gaussian Splatting with Progressive Propagation

  • 論文鏈接:https://arxiv.org/abs/2402.14650v1
  • 代碼鏈接:https://github.com/kcheng1021/GaussianPro

圖片

中科大&港大的工作:3DGS的出現(xiàn)最近在神經渲染領域帶來了一場革命,促進了實時速度的高質量渲染。然而,3DGS在很大程度上依賴于運動結構(SfM)技術產生的初始化點云。當處理不可避免地包含無紋理曲面的大規(guī)模場景時,SfM技術總是無法在這些曲面上產生足夠的點,也無法為3DGS提供良好的初始化。因此,3DGS存在優(yōu)化困難和渲染質量低的問題。在這篇論文中,受經典多視圖立體(MVS)技術的啟發(fā),我們提出了GaussianPro,這是一種應用漸進傳播策略來指導3D Gaussian致密化的新方法。與3DGS中使用的簡單分割和克隆策略相比,我們的方法利用場景現(xiàn)有重建幾何的先驗和補丁匹配技術來生成具有精確位置和方向的新高斯分布。在大規(guī)模和小規(guī)模場景上的實驗驗證了我們方法的有效性,我們的方法在Waymo數(shù)據(jù)集上顯著超過了3DGS,在PSNR方面提高了1.15dB。

LidaRF: Delving into Lidar for Neural Radiance Field on Street Scenes

  • 論文鏈接:https://arxiv.org/abs/2405.00900v2

圖片

加州大學歐文分校的工作:真實仿真在自動駕駛等應用中起著至關重要的作用,神經輻射場(NeRF)的進步可以通過自動創(chuàng)建數(shù)字3D資產來實現(xiàn)更好的可擴展性。然而,由于共線相機的大運動和高速下的稀疏樣本,街道場景的重建質量會受到影響。另一方面,實際使用通常要求從偏離輸入的相機視圖進行渲染,以準確模擬車道變換等行為。在這篇論文中,我們提出了幾個見解,可以更好地利用激光雷達數(shù)據(jù)來提高街道場景的NeRF質量。首先,我們的框架從激光雷達中學習幾何場景表示,將其與隱式基于網(wǎng)格的表示融合用于輻射解碼,然后提供顯式點云提供的更強幾何信息。其次提出了一種魯棒的遮擋感知深度監(jiān)督方案,該方案允許通過累積來利用密集的激光雷達點。第三本文從激光雷達點生成增強訓練視圖,以進一步改進。我們的見解轉化為在真實駕駛場景下大大改進的新視圖合成。

Gaussian: Self-Supervised Street Gaussians for Autonomous Driving

  • 論文鏈接:https://arxiv.org/abs/2405.20323v1

圖片

UC Berkeley&北大&清華的工作:街道場景的真實感3D重建是開發(fā)自動駕駛仿真的關鍵技術。盡管神經輻射場(NeRF)在駕駛場景中的效率很高,但3DGS因其更快的速度和更明確的表示而成為一個有前景的方向。然而,大多數(shù)現(xiàn)有的街道3DGS方法需要跟蹤的3D車輛邊界框來分解靜態(tài)和動態(tài)元素以進行有效的重建,這限制了它們在自由場景中的應用。為了在沒有標注的情況下實現(xiàn)高效的3D場景重建,我們提出了一種自監(jiān)督街道高斯(S3Gaussian)方法,用于從4D一致性中分解動態(tài)和靜態(tài)元素。我們用3D高斯分布來表示每個場景,以保持其明確性,并進一步用時空場網(wǎng)絡來壓縮4D動力學模型。我們在具有挑戰(zhàn)性的Waymo Open數(shù)據(jù)集上進行了廣泛的實驗,以評估我們方法的有效性。我們的S3Gaussian展示了分解靜態(tài)和動態(tài)場景的能力,并在不使用3D標注的情況下實現(xiàn)了最佳性能。

Dynamic 3D Gaussian Fields for Urban Areas

  • 論文鏈接:https://arxiv.org/abs/2406.03175v1
  • 代碼鏈接:https://github.com/tobiasfshr/map4d(待開源)

圖片

ETH和Meta的工作:本文提出了一種高效的神經3D場景表示方法,用于大規(guī)模動態(tài)城市地區(qū)的新視圖合成(NVS)。由于其有限的視覺質量和非交互式渲染速度,現(xiàn)有工作品不太適合混合現(xiàn)實或閉環(huán)仿真等應用。最近,基于光柵化的方法以令人印象深刻的速度實現(xiàn)了高質量的NVS。然而,這些方法僅限于小規(guī)模、均勻的數(shù)據(jù),即它們無法處理由于天氣、季節(jié)和光照引起的嚴重外觀和幾何變化,也無法擴展到具有數(shù)千張圖像的更大、動態(tài)的區(qū)域。我們提出了4DGF,這是一種神經場景表示,可擴展到大規(guī)模動態(tài)城市區(qū)域,處理異構輸入數(shù)據(jù),并大大提高了渲染速度。我們使用3D高斯作為高效的幾何支架,同時依賴神經場作為緊湊靈活的外觀模型。我們通過全局尺度的場景圖集成場景動力學,同時通過變形在局部層面建模關節(jié)運動。這種分解方法實現(xiàn)了適用于現(xiàn)實世界應用的靈活場景合成。在實驗中,我們繞過了最先進的技術,PSNR超過3dB,渲染速度超過200倍。

StreetSurf: Extending Multi-view Implicit Surface Reconstruction to Street Views

  • 論文鏈接:https://arxiv.org/abs/2306.04988v1
  • 代碼鏈接:https://github.com/pjlab-ADG/neuralsim

圖片

上海AI Lab和商湯的工作:本文提出了一種新的多視圖隱式表面重建技術,稱為StreetSurf,該技術很容易應用于廣泛使用的自動駕駛數(shù)據(jù)集中的街景圖像,如Waymo感知序列,而不一定需要LiDAR數(shù)據(jù)。隨著神經渲染研究的迅速發(fā)展,將其整合到街景中開始引起人們的興趣。現(xiàn)有的街景方法要么主要關注新視圖合成,很少探索場景幾何,要么在研究重建時嚴重依賴密集的LiDAR數(shù)據(jù)。他們都沒有研究多視圖隱式表面重建,特別是在沒有激光雷達數(shù)據(jù)的情況下。我們的方法擴展了現(xiàn)有的以目標為中心的神經表面重建技術,以解決由非以目標為核心、長而窄的相機軌跡捕獲的無約束街景所帶來的獨特挑戰(zhàn)。我們將無約束空間劃分為近距離、遠景和天空三個部分,具有對齊的長方體邊界,并采用長方體/超長方體哈希網(wǎng)格以及路面初始化方案,以實現(xiàn)更精細和更復雜的表示。為了進一步解決無紋理區(qū)域和視角不足引起的幾何誤差,我們采用了使用通用單目模型估計的幾何先驗。再加上我們實施了高效細粒度的多級光線行進策略,我們使用單個RTX3090 GPU對每個街道視圖序列進行訓練,僅需一到兩個小時的時間,即可在幾何和外觀方面實現(xiàn)最先進的重建質量。此外,我們證明了重建的隱式曲面在各種下游任務中具有豐富的潛力,包括光線追蹤和激光雷達模擬。

AutoSplat: Constrained Gaussian Splatting for Autonomous Driving Scene Reconstruction

  • 論文鏈接:https://arxiv.org/abs/2407.02598v2

圖片

多倫多大學和華為諾亞的工作:逼真的場景重建和視圖合成對于通過仿真安全關鍵場景來推進自動駕駛系統(tǒng)至關重要。3DGS在實時渲染和靜態(tài)場景重建方面表現(xiàn)出色,但由于復雜的背景、動態(tài)對象和稀疏視圖,在建模駕駛場景方面遇到了困難。我們提出了AutoPlat,這是一個采用Gaussian Splatting實現(xiàn)自動駕駛場景高度逼真重建的框架。通過對表示道路和天空區(qū)域的高斯分布圖施加幾何約束,我們的方法能夠對包括車道變換在內的具有挑戰(zhàn)性的場景進行多視圖一致的模擬。利用3D模板,我們引入了反射高斯一致性約束來監(jiān)督前景對象的可見面和不可見面。此外,為了模擬前景對象的動態(tài)外觀,我們估計了每個前景高斯的殘差球面諧波。在Pandaset和KITTI上進行的大量實驗表明,AutoPlat在各種駕駛場景中的場景重建和新穎視圖合成方面優(yōu)于最先進的方法。

DHGS: Decoupled Hybrid Gaussian Splatting for Driving Scene

  • 論文鏈接:https://arxiv.org/abs/2407.16600v3

圖片

長安汽車的工作:現(xiàn)有的GS方法在實現(xiàn)駕駛場景中令人滿意的新視圖合成方面往往不足,主要是由于缺乏巧妙的設計和所涉及元素的幾何約束。本文介紹了一種新的神經渲染方法,稱為解耦混合GS(DHGS),旨在提高靜態(tài)駕駛場景新型視圖合成的渲染質量。這項工作的新穎之處在于,針對道路和非道路層的解耦和混合像素級混合器,沒有針對整個場景的傳統(tǒng)統(tǒng)一差分渲染邏輯,同時通過提出的深度有序混合渲染策略仍然保持一致和連續(xù)的疊加。此外,對由符號距離場(SDF)組成的隱式道路表示進行訓練,以監(jiān)控具有微妙幾何屬性的路面。伴隨著輔助傳輸損耗和一致性損耗的使用,最終保留了具有不可察覺邊界和高保真度的新圖像。在Waymo數(shù)據(jù)集上進行的大量實驗證明,DHGS的性能優(yōu)于最先進的方法。

責任編輯:張燕妮 來源: 自動駕駛之心
相關推薦

2024-08-14 10:40:00

模型自動駕駛

2023-04-28 09:24:50

自動駕駛數(shù)據(jù)

2023-12-18 10:15:30

自動駕駛自然語言

2024-09-06 09:55:08

2024-06-05 09:22:43

2022-08-09 14:42:44

自動駕駛算力

2021-12-24 13:28:15

自動駕駛數(shù)據(jù)人工智能

2022-08-29 09:15:54

自動駕駛數(shù)據(jù)

2023-11-14 10:41:00

2023-07-26 09:37:17

自動駕駛研究

2024-01-04 09:27:00

模型自動駕駛

2023-12-08 10:10:56

模型論文調研

2021-04-30 11:10:36

自動駕駛AI人工智能

2022-10-27 10:18:25

自動駕駛

2019-09-19 14:10:12

人工智能物聯(lián)網(wǎng)自動駕駛

2020-03-27 22:15:52

自動駕駛物聯(lián)網(wǎng)大數(shù)據(jù)

2021-11-18 09:50:35

自動駕駛輔助駕駛人工智能

2022-07-12 09:42:10

自動駕駛技術

2024-01-31 09:59:43

自動駕駛數(shù)據(jù)
點贊
收藏

51CTO技術棧公眾號