偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

速度提升1000倍,效果還全面碾壓!JHU等提出首個(gè)可渲染HDR場景的3DGS

人工智能 新聞
研究人員提出首個(gè)可以渲染高動(dòng)態(tài)范圍(High Dynamic Range, HDR)自然光的3DGaussian Splatting模型HDR-GS,以用于新視角合成(Novel View Synthesis, NVS)。該方法可以根據(jù)用戶輸入的曝光時(shí)間來改變渲染場景的光照強(qiáng)度,同時(shí)還可以直接渲染高動(dòng)態(tài)范圍場景。比當(dāng)前最好的算法HDR-NeRF速度上要快1000倍。

常見的RGB圖像大都為低動(dòng)態(tài)范圍(Low Dynamic Range, LDR),亮度的取值范圍在[0,255]之間。

然而人眼對(duì)亮度的感知范圍要比RGB圖像寬廣得多,一般為[0,+∞],導(dǎo)致LDR圖像很難反映真實(shí)場景的亮度范圍,使得一些較暗或者較亮的區(qū)域的細(xì)節(jié)難以被捕捉,高動(dòng)態(tài)范圍(High Dynamic Range,HDR)圖像應(yīng)運(yùn)而生,具有更廣的亮度范圍。

新視角合成(Novel View Synthesis,NVS)任務(wù)是在給定「一個(gè)場景的幾張不同視角圖像,并且相機(jī)位姿已知」的情況下,合成其他新視角的場景圖像。

同比于LDR NVS,HDR NVS能更好地?cái)M合人類視覺,捕獲更多的場景細(xì)節(jié),渲染更高質(zhì)量、視覺效果更好的圖片,在自動(dòng)駕駛、圖像編輯、數(shù)字人等方面有著十分廣泛的應(yīng)用。

當(dāng)前主流的HDR NVS方法主要基于神經(jīng)輻射場(Neural Radiance Fields, NeRF),然而,NeRF的ray tracing加volume rendering機(jī)制都十分耗時(shí),常常需要十分密集地采集射線,然后在每一條射線上采集多個(gè)3D點(diǎn),對(duì)每一個(gè)3D點(diǎn)過一遍MLP來計(jì)算體密度和顏色,嚴(yán)重拖慢了訓(xùn)練時(shí)間和推理速度。當(dāng)前最好的NeRF算法HDR-NeRF需要耗費(fèi)9小時(shí)來訓(xùn)練一個(gè)場景,8.2秒來渲染一張尺寸為400x400的圖像。

為了解決上述問題,約翰霍普金斯大學(xué)、香港科技大學(xué)、清華大學(xué)、上海交通大學(xué)的研究人員提出了首個(gè)基于3DGS的方法HDR-GS,用于三維HDR成像;設(shè)計(jì)了一種有著雙動(dòng)態(tài)范圍的三維高斯點(diǎn)云模型,同時(shí)搭配兩條平行的光柵化處理管線以用于渲染HDR圖像和光照強(qiáng)度可控的LDR圖像。

圖片

論文鏈接:https://arxiv.org/abs/2405.15125

代碼鏈接:https://github.com/caiyuanhao1998/HDR-GSgithub.com/caiyuanhao1998/HDR-GS

Youtube視頻講解:https://www.youtube.com/watch?v=wtU7Kcwe7ck

研究人員還重新矯正了一個(gè)HDR多視角圖像數(shù)據(jù)集,計(jì)算得到的相機(jī)參數(shù)和初始化點(diǎn)云能夠支持3DGS類算法的研究。HDR-GS算法在超過當(dāng)前最好方法1.91 dB PSNR的同時(shí)僅使用6.3%的訓(xùn)練時(shí)間并實(shí)現(xiàn)了1000倍的渲染速度。

圖片

圖1 HDR-GS與HDR-NeRF各項(xiàng)性能對(duì)比圖

一大波演示如下:

圖片

圖片

圖片

圖片

對(duì)比近期出現(xiàn)的3D Gaussian Splatting(3DGS),雖然能在保證圖像質(zhì)量的同時(shí)也大幅提升了訓(xùn)練和渲染速度,但卻很難直接應(yīng)用到HDR NVS上,仍然存在三個(gè)主要問題:

1. 渲染的圖片的動(dòng)態(tài)范圍依舊是[0,255],仍舊屬于LDR;

2. 直接使用不同光照的圖片來訓(xùn)練3DGS容易導(dǎo)致模型不收斂,因?yàn)?DGS的球諧函數(shù)(Spherical Harmonics,SH)無法適應(yīng)光照的變化,時(shí)常會(huì)導(dǎo)致偽影、模糊、顏色畸變等問題;

3. 常規(guī)的3DGS無法改變渲染場景的亮度,極大限制了應(yīng)用場景,尤其是在AR/VR、電影、游戲等領(lǐng)域,經(jīng)常需要改變光照條件來反映人物的心情與環(huán)境氛圍。

圖片

圖2 常規(guī)3DGS對(duì)比HDR-GS

方法架構(gòu)


圖片

圖3 HDR-GS的整體算法流程

研究人員首先使用Structure-from-Motion(SfM 算法來重新矯正場景的相機(jī)參數(shù)并初始化高斯點(diǎn)云,然后將數(shù)據(jù)喂入到雙動(dòng)態(tài)范圍(Dual Dynamic Range,DDR)的高斯點(diǎn)云模型來同時(shí)擬合HDR和LDR顏色,使用SH來直接擬合HDR顏色。

再使用三個(gè)獨(dú)立的MLP來分別對(duì)RGB三通道做tone-mapping操作,根據(jù)用戶輸入的曝光時(shí)間將HDR顏色轉(zhuǎn)為LDR顏色,然后將3D點(diǎn)的LDR和HDR顏色喂入到平行光柵化(Parallel Differentiable Rasterization, PDR)處理管線來渲染出HDR和LDR圖像。

雙動(dòng)態(tài)范圍高斯點(diǎn)云模型

場景可以用一個(gè)DDR高斯點(diǎn)云模型來表示:

圖片

其中的Np是3D Gaussians的數(shù)量,Gi表示第i個(gè)Gaussian,其中心位置、協(xié)方差、不透明度、LDR顏色和HDR顏色記為圖片。

除了這些屬性外,每一個(gè)Gi還包含一個(gè)用戶輸入的曝光時(shí)間Δt和一個(gè)全局共享的基于MLP的tone-mapper θ,由一個(gè)旋轉(zhuǎn)矩陣Ri和一個(gè)縮放矩陣Si表示成如下形式:

圖片

其中的μi,Ri,Sii和θ是可學(xué)習(xí)參數(shù),Tone-mapping操作fTM(?)模擬相機(jī)響應(yīng)函數(shù)來將HDR顏色非線性地映射到LDR顏色:

圖片

為了訓(xùn)練穩(wěn)定,研究人員將公式(3)從線性域轉(zhuǎn)成對(duì)數(shù)域如下:

圖片

對(duì)此公式取反函數(shù):

圖片

然后用三個(gè)MLP θ在RGB三通道上分別擬合公式(5)的變換。簡潔起見,將tone-mapper的映射函數(shù)記為圖片,然后公式(5)便可被重新推導(dǎo)為

圖片

然后使用SH函數(shù)來擬合HDR顏色如下:

圖片

將公式(7)代入公式(6)便可得到:

圖片

每一個(gè)獨(dú)立的MLP包括一層全連接、一層ReLU、一層全連接和一個(gè)Sigmoid激活函數(shù)。

平行光柵化處理管線

將3D Gaussian的HDR顏色和LDR顏色輸入到平行光柵化處理管線中,分別渲染出LDR和HDR圖像,這一過程可以被概括為如下:

圖片

首先計(jì)算出第i個(gè)3D Gaussian在一個(gè)3D點(diǎn)x處概率值如下:

圖片

然后將3D Gaussian從三維空間中投影到2D成像平面上。在這一投影過程中,中心點(diǎn)的位置μi首先被從世界坐標(biāo)系變換到相機(jī)坐標(biāo)系,然后再投影到圖像坐標(biāo)系上:

圖片

三維協(xié)方差矩陣也被從世界坐標(biāo)系投影到相機(jī)坐標(biāo)系上:

圖片

后在圖像坐標(biāo)系下的二維協(xié)方差矩陣是直接取圖片的前兩行前兩列。

將2D projection分割成互不重疊的titles,每一個(gè)三維高斯點(diǎn)云都按照其對(duì)應(yīng)投影所落在的位置分配到對(duì)應(yīng)的tiles上。這些3D高斯點(diǎn)云按照與二維探測器平面的距離進(jìn)行排序。

那么,在2D projection上像素點(diǎn)p上的HDR顏色和LDR顏色便是混合N個(gè)與p重疊的排好序的3D點(diǎn)得到的,如下公式所示

圖片

HDR-GS的初始化與訓(xùn)練過程

阻礙3DGS類算法在三維HDR成像上發(fā)展的一大障礙,是原先HDR-NeRF搜集的多視角HDR圖像數(shù)據(jù)集的僅提供normalized device cooridnate(NDC)的相機(jī)位姿。

然而NDC并不適用于3DGS,主要有兩個(gè)原因

首先,NDC描述的是投影后2D屏幕上的位置。然而,3DGS是一個(gè)顯式的3D表征,需要對(duì)三維空間中的高斯點(diǎn)云進(jìn)行變換和投影。

其次,NDC將坐標(biāo)限制在[-1,1]或者[0,1]。Voxel的分辨率有限,使得3DGS很難刻畫場景中的細(xì)節(jié)。另外,原先搜集好的數(shù)據(jù)中并沒有提供SfM點(diǎn)云來給3DGS進(jìn)行初始化。

為解決這一問題,研究人員使用了SfM算法來對(duì)多視角HDR數(shù)據(jù)集重新計(jì)算相機(jī)參數(shù)和初始化點(diǎn)云如下:

圖片

其中的Mint,Mext分別表示相機(jī)的內(nèi)外參數(shù)矩陣。對(duì)LDR圖像的訓(xùn)練監(jiān)督函數(shù)如下:

圖片

類似于HDR-NeRF,也對(duì)HDR圖像施加限制。需要注意的是,HDR-NeRF施加的約束是直接使用CRF矯正的GT參數(shù),這是一個(gè)很強(qiáng)的先驗(yàn)。使用的是μ - law tone-mapping后的HDR圖像。損失函數(shù)如下:

圖片

最終總的訓(xùn)練損失函數(shù)是兩者的加權(quán)和:

圖片

需要注意,由于真實(shí)場景中并無法直接獲得HDR圖像,所以分別對(duì)合成場景與真實(shí)場景設(shè)置γ=0.6和γ=0

實(shí)驗(yàn)結(jié)果

定量結(jié)果

圖片

表1 合成實(shí)驗(yàn)對(duì)比結(jié)果

圖片

表2 真實(shí)實(shí)驗(yàn)對(duì)比結(jié)果

合成實(shí)驗(yàn)和真實(shí)實(shí)驗(yàn)的定量對(duì)比結(jié)果分別如表1和表2所示,HDR-GS在性能上顯著超過之前方法的同時(shí),訓(xùn)練和推理也分別達(dá)到了16倍速和1000倍速。

視覺結(jié)果

圖片

圖 4 合成場景的LDR NVS視覺對(duì)比

圖片

圖 5 真實(shí)場景的LDR NVS視覺對(duì)比

圖片

圖6 HDR NVS視覺對(duì)比

LDR NVS的視覺對(duì)比結(jié)果如圖4和圖5所示,HDR NVS的視覺對(duì)比結(jié)果如圖6所示。HDR-GS能夠渲染出更豐富更清晰的圖像細(xì)節(jié),更好地捕獲HDR場景并能靈活地改變LDR場景的光照強(qiáng)度。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-09-11 14:00:00

3D框架

2024-04-29 09:43:21

傳感器激光雷達(dá)

2024-10-12 10:29:11

計(jì)算機(jī)圖形

2024-11-08 14:30:00

自動(dòng)駕駛AI

2021-04-14 15:03:16

數(shù)據(jù)性能存儲(chǔ)

2025-06-18 08:54:48

2024-12-13 10:20:00

3D自動(dòng)駕駛AI

2022-07-17 13:07:26

模型開源

2010-01-14 09:34:49

網(wǎng)絡(luò)能效貝爾實(shí)驗(yàn)室

2025-04-23 08:50:00

3D算法AI

2025-03-27 10:54:06

2009-03-29 09:47:24

蘋果Iphone移動(dòng)OS

2025-06-06 09:07:00

2022-06-15 11:19:19

MySQL數(shù)據(jù)庫

2024-11-01 10:40:00

自動(dòng)駕駛智能汽車

2024-01-15 08:47:22

3D自動(dòng)駕駛

2024-06-14 09:21:56

2021-09-30 11:27:58

模型人工智能神經(jīng)網(wǎng)絡(luò)

2024-09-12 12:46:36

2025-01-22 11:00:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)