偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

新聞
我們嘗試用最簡潔易懂的方式介紹NeRV,除了最關(guān)鍵重要的推導(dǎo),盡量少做數(shù)學(xué)推理,讓你一文看懂。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

2D變3D,還不用建模,今年谷歌用NeRF做到了以假亂真的程度:

[[360440]]

感覺就像是視頻里截出來的是不是?神經(jīng)網(wǎng)絡(luò)只需要幾張靜態(tài)照片就能生成這樣的結(jié)果。

但,總感覺離真實(shí)的場景還差點(diǎn)什么?

沒錯,缺的就是光影變換效果,NeRF只高度還原了空間,沒有給人時間上的直觀感受

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

上面的結(jié)果,同樣是用幾張2D照片作為輸入,但有實(shí)時光影效果的生成結(jié)果,更加逼真生動,讓人有些“斗轉(zhuǎn)星移”的錯覺。

這項(xiàng)讓2D照片變“4D”的研究,是谷歌團(tuán)隊(duì)聯(lián)合MIT、UC伯克利對之前的NeRF做出的重要改進(jìn),稱為NeRV,即用于照明渲染和視圖合成的神經(jīng)反射場和可見光場。

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

下面我們嘗試用最簡潔易懂的方式介紹NeRV,除了最關(guān)鍵重要的推導(dǎo),盡量少做數(shù)學(xué)推理,讓你一文看懂。

谷歌“升維”打擊

光影變幻給了我們對于場景直觀的時間感受,而研究團(tuán)隊(duì)實(shí)現(xiàn)這個效果的方法,就是在原先的NeRF上,添加了光模擬過程。

在NeRF中,沒有將場景建模為吸收和發(fā)射光的連續(xù)的3D粒子場,而是將場景表示為吸收和反射外部光源定向粒子3D場。

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

這樣的模型模擬光傳輸是低效的,并且無法擴(kuò)展到全局照明的場景。

研究人員引入神經(jīng)能見度場參數(shù)來彌補(bǔ)這一點(diǎn),它允許有效查詢模擬光傳輸所需的光線和像素點(diǎn)之間的能見度。

具體來說,NeRV網(wǎng)絡(luò)還原4D效果有3步,分別對應(yīng)著3D場景生成、光影效果模擬、渲染。

神經(jīng)反射場

NeRF并沒有將入射光線的效果與表面的材料屬性分開。

這意味著NeRF只能在輸入圖像中呈現(xiàn)的固定光照條件下呈現(xiàn)場景的視圖。

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

修改NeRF以實(shí)現(xiàn)動態(tài)光照是很直接的:將場景表示為反射入射光的粒子場。

給定一個任意的光照條件,就可以用一個標(biāo)準(zhǔn)的體積渲染積分來模擬光在粒子反射時在場景中的傳輸:

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

其中,方程(1)中的視圖相關(guān)發(fā)射項(xiàng)Le(x, ωo)被替換為物體表面S上,光射入方向的積分,即來自任何方向的進(jìn)光輻射度Li和反射函數(shù) R的乘積,它描述了從某一個方向ωi入射的光有多少被反射到方向ωo。

神經(jīng)可視場的光傳輸

雖然修改NeRF實(shí)現(xiàn)一定程度的光照效果是很直接的,但對于像NeRF這樣的連續(xù)體積表示法,一般照明場景的體積渲染積分,在計(jì)算上是有難度的。

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

上圖直觀地展示了模擬光照場景的縮放特性,這使得模擬體積光傳輸特別困難。

即使只考慮從光源到場景點(diǎn)的直接照明,對于超過單點(diǎn)光源的情況下,暴力計(jì)算的方案也很吃力,因?yàn)樗枰刂鴱拿總€場景點(diǎn)到每個光源的路徑,反復(fù)查詢形狀MLP的體積密度。

暴力采樣渲染一束間接照明下的單條光線將需要一個petaflop的計(jì)算量,而訓(xùn)練過程中渲染大約十億條光線。

所以團(tuán)隊(duì)通過用學(xué)習(xí)的近似值替換幾個體積密度積分來改善這個問題:引入一個 “能見度 “多層神經(jīng)網(wǎng)絡(luò),它可以對任意輸入方向的照明能見度給出近似值,以及相應(yīng)光線的預(yù)期終止深度的近似值。

這種方法,大大降低將直接照明和間接照明的計(jì)算復(fù)雜度,使得在優(yōu)化連續(xù)照明場景表示的訓(xùn)練循環(huán)中,可以同時模擬直接照明和其反彈的間接照明。

渲染

假設(shè)現(xiàn)在有一條通過NeRV的相機(jī)射線x(t)=c tωo,使用以下過程來渲染:

1) 沿射線繪制256個分層樣本,并查詢每個點(diǎn)的體積密度、表面法線和BRDF(雙向反射分布函數(shù))參數(shù)的形狀和反射神經(jīng)網(wǎng)絡(luò)。

2)沿射線對每個點(diǎn)進(jìn)行直接照明的遮擋。

3) 用間接照明對射線沿線的每個點(diǎn)進(jìn)行遮擋。

4) 沿著攝影機(jī)光線的每個點(diǎn)的總反射輻射度 Lr(x(t), ωo)是步驟 2 和步驟 3 的數(shù)量之和。將這些沿射線復(fù)合起來,用同樣的正交規(guī)則計(jì)算像素顏色。

通俗的說,就是對一條入射光線在整個場景所有像素點(diǎn)上的反射情況分別計(jì)算,然后整合起來。

測試結(jié)果

在最后的測試結(jié)果上,NeRV的表現(xiàn)遠(yuǎn)遠(yuǎn)超過了NeRF和NLT:

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

團(tuán)隊(duì)分別在不同的數(shù)據(jù)集上訓(xùn)練模型,然后對雕像、推土機(jī)、熱狗三個圖像進(jìn)行還原。

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

從結(jié)果中可以看出,峰值信噪比(PSNR)、MS-SSIM(多尺度結(jié)構(gòu)比)損失函數(shù)這兩個指標(biāo),普遍優(yōu)于之前的方法。

對于個人視頻制作者、游戲開發(fā)人員,以及缺乏3D建模經(jīng)驗(yàn)的動畫公司來說,這類技術(shù)的成熟,可謂“福音”。

通過AI技術(shù),讓3D效果的實(shí)現(xiàn)進(jìn)一步簡化,這也是Facebook、Adobe及微軟等公司紛紛投入這方面研究的原因所在。

最后,研究人員透露,這個算法即將開源,直接把項(xiàng)目主頁給你,先馬后看:

https://people.eecs.berkeley.edu/~pratul/nerv/

這是最近最酷的3D圖片方面的突破了。

 

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2020-04-10 12:30:16

3D圖片代碼

2013-01-30 16:15:40

adobeHTML5css3

2020-08-26 10:37:21

阿里3D

2024-12-16 14:40:00

AI模型訓(xùn)練

2020-03-06 10:34:40

AI 數(shù)據(jù)人工智能

2019-09-16 17:46:34

AI 數(shù)據(jù)人工智能

2011-04-25 14:36:24

Ubuntu Unit

2023-11-27 09:49:37

自動駕駛數(shù)據(jù)

2023-05-03 09:01:41

CanvasWebGL

2024-10-17 10:28:23

2024-01-03 10:05:07

自動駕駛4D雷達(dá)

2011-08-11 18:07:55

iPhoneQuratz 2D

2024-10-28 13:30:00

2022-05-23 10:26:10

人工智能機(jī)器學(xué)習(xí)機(jī)器視覺

2012-12-24 09:11:58

iOSUnity3D

2020-10-26 13:40:00

CascadingSt

2012-05-07 14:13:59

HTML5

2013-01-08 11:00:20

IBMdW
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號