偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

用于形狀精確三維感知圖像合成的著色引導(dǎo)生成隱式模型

人工智能 新聞
生成輻射場的發(fā)展推動了3D感知圖像合成的發(fā)展。由于觀察到3D對象從多個視點(diǎn)看起來十分逼真,這些方法引入了多視圖約束作為正則化,以從2D圖像學(xué)習(xí)有效的3D輻射場。

本文轉(zhuǎn)自雷鋒網(wǎng),如需轉(zhuǎn)載請至雷鋒網(wǎng)官網(wǎng)申請授權(quán)。

生成輻射場的發(fā)展推動了3D感知圖像合成的發(fā)展。由于觀察到3D對象從多個視點(diǎn)看起來十分逼真,這些方法引入了多視圖約束作為正則化,以從2D圖像學(xué)習(xí)有效的3D輻射場。盡管取得了進(jìn)展,但由于形狀-顏色的模糊性,它們往往無法捕獲準(zhǔn)確的3D形狀,從而限制了在下游任務(wù)中的適用性。在這項研究工作中,來自馬普所和港中文大學(xué)的學(xué)者通過提出一種新的著色引導(dǎo)生成隱式模型ShadeGAN來解決這種模糊性,它學(xué)習(xí)了一種改進(jìn)的形狀表示。

論文地址:https://arxiv.org/pdf/2110.15678.pdf代碼地址:https://github.com/xingangpan/shadegan關(guān)鍵在于,精確的3D形狀還應(yīng)在不同的照明條件下產(chǎn)生逼真的渲染效果。多重照明約束通過顯式建模照明和在各種照明條件下執(zhí)行著色實(shí)現(xiàn)。梯度是通過將合成圖像饋送到鑒別器得到的。為了補(bǔ)償計算曲面法線的額外計算負(fù)擔(dān),研究團(tuán)隊進(jìn)一步設(shè)計了通過曲面跟蹤的高效體繪制策略,將訓(xùn)練和推理時間分別減少24%和48%。在多個數(shù)據(jù)集上實(shí)驗表明,在捕獲精確的底層三維形狀的同時,ShadeGAN做到了實(shí)現(xiàn)具備真實(shí)感的三維感知圖像合成。他們還展示了該方法在三維形狀重建方面相對于現(xiàn)有方法的改進(jìn)性能,在圖像重照明方面亦有適用性。

1.介紹

高級深度生成模型,例如StyleGAN和BigGAN,在自然圖像合成方面取得了巨大成功。但這些基于2D表示的模型無法以3D一致性方式合成實(shí)例新視圖。它們也無法表示明確的三維物體形狀。為了克服這些限制,研究人員提出了新的深度生成模型,將3D場景表示為神經(jīng)輻射場。3D感知生成模型可以顯式控制視點(diǎn),同時在圖像合成過程中保持3D一致性。它們展示了在無監(jiān)督情況下從一組無約束的2D圖像中學(xué)習(xí)3D形狀的巨大潛力。如果可以訓(xùn)練出學(xué)習(xí)精確3D物體形狀的3D感知生成模型,各種下游應(yīng)用就可以的到拓展,如3D形狀重建和圖像重照明?,F(xiàn)有3D感知圖像合成嘗試傾向于學(xué)習(xí)不準(zhǔn)確且有噪聲的粗略3D形狀,如下圖所示。研究發(fā)現(xiàn),這種不準(zhǔn)確是由于方法所采用的訓(xùn)練策略不可避免地存在模糊性。特別是一種正則化,稱之為“多視圖約束”,用于強(qiáng)制三維表示,使其從不同的視點(diǎn)看起來更逼真。這種約束通常首先將生成器的輸出(例如,輻射場)投影到隨機(jī)采樣視點(diǎn),然后將它作為假圖像提供給鑒別器進(jìn)行訓(xùn)練。雖然這種約束使模型能夠以3D感知的方式合成圖像,但會受到形狀-顏色模糊關(guān)聯(lián)的影響,即便有微小的形狀變化也能生成類似的RGB圖像,這些圖像在鑒別器看來同樣可信,因為許多物體顏色是局部平滑的。因此,不準(zhǔn)確的形狀仍然隱藏在這個約束下。

在本文中,研究團(tuán)隊提出了一種新的著色引導(dǎo)生成隱式模型(ShadeGAN)來解決上述歧義。特別是,ShadeGAN通過顯式建模著色(即照明和形狀的交互)學(xué)習(xí)更精確的3D形狀。一個精確的3D形狀不僅應(yīng)該從不同的角度看起來很逼真,在不同的照明條件下也應(yīng)該十分逼真,即滿足“多重照明約束”。這一想法與光度立體有著相似的直覺,它表明可以從不同照明條件下拍攝的圖像中恢復(fù)精確表面法線。請注意,多重照明約束是可行的,因為用于訓(xùn)練的真實(shí)圖像通常是在各種照明條件下拍攝的。為了滿足此約束,ShadeGAN采用可重新照明的顏色場作為中間表示,近似反照率,但不一定滿足視點(diǎn)獨(dú)立性。渲染期間,顏色場在隨機(jī)采樣的照明條件下著色。由于通過這種著色處理的圖像外觀強(qiáng)烈依賴于曲面法線,因此與早期的著色不可知生成模型相比,不準(zhǔn)確的3D形狀表示將更清晰地顯示出來。通過滿足多重照明約束,可以鼓勵ShadeGAN推斷更精確的3D形狀,如上圖中右下所示。上述著色處理需要通過反向傳播來通過生成器計算法線方向,并且在3D體繪制中,對于單個像素的計算需要重復(fù)幾十次,從而引入額外的計算開銷。

現(xiàn)有高效體繪制技術(shù)主要針對靜態(tài)場景,面對動態(tài)特性無法直接應(yīng)用于生成模型。為了提高ShadeGAN的渲染速度,研究團(tuán)隊建立了一個有效的曲面跟蹤網(wǎng)絡(luò),以評估基于潛在代碼的渲染對象曲面。這使他們能夠通過僅查詢預(yù)測曲面附近的點(diǎn)來節(jié)省渲染計算,從而在不影響渲染圖像質(zhì)量的情況下減少24%和48%的訓(xùn)練和推理時間。通過多個數(shù)據(jù)集上進(jìn)行綜合實(shí)驗驗證ShadeGAN的有效性。結(jié)果表明,與之前的生成方法相比,本文提出的方法能夠合成照片級真實(shí)感圖像,同時捕獲更精確的底層三維形狀。學(xué)習(xí)到的三維形狀分布能夠?qū)崿F(xiàn)各種下游任務(wù),比如三維形狀重建,其中ShadeGAN明顯優(yōu)于BFM數(shù)據(jù)集上的其他基線。對著色過程進(jìn)行建模,可以顯式控制照明條件,實(shí)現(xiàn)圖像重照明效果。

ShadeGAN可以總結(jié)如下:1)使用滿足多重照明約束的著色引導(dǎo)生成模型,從而解決現(xiàn)有三維感知圖像合成中形狀-顏色模糊問題。ShadeGAN能夠?qū)W習(xí)更精確的3D形狀,從而更好地進(jìn)行圖像合成。2) 通過曲面跟蹤設(shè)計了一種高效的繪制技術(shù),這大大節(jié)省了基于體繪制生成模型的訓(xùn)練和推理時間。3)ShadeGAN學(xué)會了將陰影和顏色分離,更接近反照率,在圖像合成中達(dá)到了自然重新照明效果

2.ShadeGAN 神經(jīng)體繪制

從神經(jīng)輻射場(NeRF)的開創(chuàng)性工作開始,神經(jīng)體繪制在表示3D場景和合成新視圖方面得到了廣泛的應(yīng)用。通過基于坐標(biāo)神經(jīng)網(wǎng)絡(luò)與體繪制相結(jié)合,NeRF以3D一致性完成高保真視圖合成。目前已經(jīng)提出了一些嘗試擴(kuò)展或改進(jìn)NeRF。比如進(jìn)一步模擬照明,然后學(xué)習(xí)在給定對齊多視圖、多照明圖像情況下,將反射與著色分離。此外,許多研究從空間稀疏性、建筑設(shè)計或高效渲染角度加速了靜態(tài)場景的渲染。這些照明和加速技術(shù)應(yīng)用于基于體繪制的生成模型并非易事,因為它們通常從為定位、未配對的圖像中學(xué)習(xí),表示相對于輸入潛在編碼變化的動態(tài)場景。研究團(tuán)隊首次嘗試在基于體繪制的生成模型中對照明進(jìn)行建模,作為精確三維形狀學(xué)習(xí)的正則化。并進(jìn)一步為方法設(shè)計了高校的渲染技術(shù),它具有相似的見解,但不依賴于通過真實(shí)深度進(jìn)行訓(xùn)練,也不限于視點(diǎn)小范圍。

生成三維感知圖像合成

生成對抗網(wǎng)絡(luò)(GANs)可以生成高分辨率的真實(shí)照片圖像,但對攝像機(jī)視點(diǎn)的明確控制卻很匱乏。為了能夠以3D感知的方式合成圖像,許多最新方法研究了如何將3D表示合并到GANs中。有些研究直接從3D數(shù)據(jù)中學(xué)習(xí),但在本文中,研究團(tuán)隊關(guān)注的是只能訪問無約束2D圖像方法,因為這是更實(shí)際的設(shè)置。研究團(tuán)隊多次嘗試采用3D體素特征和學(xué)習(xí)神經(jīng)渲染,雖然產(chǎn)生了逼真的3D感知合成,但3D體素不可解釋,無法轉(zhuǎn)換為3D形狀。NeRF可以成功促使在GANs中使用輻射場作為中間3D表示,是有一些令人印象深刻、具有多視圖一致性的3D感知圖像合成,但這些方法提取的3D形狀通常不精確且有噪聲。在本文中,研究團(tuán)隊的主要目標(biāo)是通過在渲染過程中顯式地建模照明來解決不準(zhǔn)確形狀。這項創(chuàng)新有助于實(shí)現(xiàn)更好的3D感知圖像合成,將具有更廣泛的應(yīng)用。

從2D圖像進(jìn)行無監(jiān)督的3D形狀學(xué)習(xí)

ShadeGAN涉及無監(jiān)督方法,即從無約束單目視圖2D圖像中學(xué)習(xí)3D物體形狀。雖然一些方法使用外部3D形狀模板或2D關(guān)鍵點(diǎn)作為弱監(jiān)督,但本文考慮了更有難度的設(shè)置——只有2D圖像是可用的。大多數(shù)方法采用“綜合分析”范式,就是設(shè)計了照片幾何自動編碼器,以在重建損失情況下推斷每個圖像的三維形狀和視點(diǎn)。這是可以學(xué)習(xí)一些對象類的3D形狀,只是通常依賴正則化來防止瑣碎的解決方案,如常用的對象形狀對稱假設(shè)。這種假設(shè)傾向于產(chǎn)生對稱結(jié)果,可能忽略對象的不對稱方面。最近,GAN2Shape表明,可以為2D GAN生成的圖像恢復(fù)3D形狀。但這種方法需要低效的實(shí)例特定訓(xùn)練,并恢復(fù)深度貼圖,而不是完整的三維表示。本文提出的三維感知生成模型也可以作為無監(jiān)督三維形狀學(xué)習(xí)的有力方法。與上述基于自動編碼器的方法相比,基于GAN的方法避免了推斷每個圖像的視點(diǎn)需求,而且不依賴于強(qiáng)正則性。通過實(shí)驗更加證明了與最新、最先進(jìn)的方法Unsp3d和GAN2Shape相比,ShadeGAN具有更高的性能。

3.ShadeGAN方法論

ShadeGAN通過無約束和未標(biāo)記的 2D 圖像學(xué)習(xí)考慮3D 感知圖像合成問題。在生成隱式模型中建模著色,也就是照明和形狀的交互,實(shí)現(xiàn)對更精確三維對象形狀的無監(jiān)督學(xué)習(xí)。接下來會先提供關(guān)于神經(jīng)輻射場(NeRF)的初步介紹,然后詳細(xì)介紹著色引導(dǎo)生成隱式模型。

3.1 神經(jīng)輻射場的初步研究

作為一種深度隱式模型,NeRF使用MLP網(wǎng)絡(luò)將3D場景表示為輻射場。取三維坐標(biāo)和觀察方向作為輸入,并輸出體積密和顏色。為了在給定的相機(jī)姿勢下渲染圖像,通過沿其對應(yīng)的相機(jī)光線的體繪制獲得圖像的每個像素顏色C,如下所示:

實(shí)踐中,這種體繪制是使用分層和分層采樣的離散形式實(shí)現(xiàn)的。由于該渲染過程是可微分的,因此通過靜態(tài)場景的姿勢圖像直接優(yōu)化NeRF。經(jīng)過訓(xùn)練后,NeRF允許在新的相機(jī)姿勢下渲染圖像,實(shí)現(xiàn)高質(zhì)量新穎視圖合成。

3.2著色引導(dǎo)生成隱式模型

開發(fā)生成隱式模型是十分有趣的,它可以為3D感知圖像合成顯式著色過程建模。研究團(tuán)隊對NeRF中的MLP網(wǎng)絡(luò)進(jìn)行了兩個擴(kuò)展。首先,與大多數(shù)深度生成模型類似,它進(jìn)一步取決于從先驗分布中采樣的潛在編碼z。其次,它不直接輸出顏色c,而是輸出可重新點(diǎn)亮的前余弦顏色項。

它在概念上類似于反照率,在給定的光照條件下,它可以被遮蔽。雖然反照率是獨(dú)立于視點(diǎn)的,但在這項工作中,為了解釋數(shù)據(jù)集偏差,并沒有嚴(yán)格地對一個數(shù)據(jù)集實(shí)現(xiàn)這種獨(dú)立性。因此,本文的生成器取坐標(biāo)x、觀察方向d和潛在方向編碼z作為輸入,并輸出體積密度σ和前余弦顏色a。注意,這里σ獨(dú)立于d,而a對d的依賴是可選的。為了獲得相機(jī)光線的顏色C,近界和遠(yuǎn)界,研究團(tuán)隊通過以下方式計算最終的前余弦顏色A:

研究團(tuán)隊還使用以下公式計算法向n:是體積密度σ相對于其輸入坐標(biāo)的導(dǎo)數(shù),它自然捕捉局部法線方向,并可通過反向傳播計算。然后通過Lambertian著色獲得最終顏色C,如下所示:

是照明方向,是環(huán)境系數(shù)和漫反射系數(shù)。

攝像機(jī)和照明采樣等式(2-4)描述了給定相機(jī)光線r(t)和照明條件渲染像素顏色的過程。生成完整圖像要求除潛在編碼z外,還需對攝像姿勢和照明條件μ進(jìn)行采樣,即。

在設(shè)置中,攝像姿態(tài)可以用俯仰角和偏航角來描述,并從先前的高斯分布或均勻分布中采樣,正如在以前的工作中所做的一樣。在訓(xùn)練過程中隨機(jī)采樣相機(jī)姿勢將激發(fā)學(xué)習(xí)的3D場景從不同角度看起來逼真。雖然這種多視圖約束有利于學(xué)習(xí)有效的三維表示,但它通常不足以推斷準(zhǔn)確的三維對象形狀。

因此,在本文中,研究團(tuán)隊還通過從先驗分布中隨機(jī)采樣照明條件μ來進(jìn)一步引入多重照明約束。實(shí)際上,可以使用現(xiàn)有方法從數(shù)據(jù)集估算。在實(shí)驗中,一個簡單且手動調(diào)整的先驗分布也可以產(chǎn)生合理結(jié)果。由于等式(4)中的漫反射項導(dǎo)致著色過程對法線方向敏感,該多重照明約束將使模型正則化,學(xué)習(xí)產(chǎn)生自然著色的更精確3D形狀。

訓(xùn)練生成模型遵循GANs范例,生成器與參數(shù)為φ的鑒別器D一起以對抗的方式進(jìn)行訓(xùn)練。在訓(xùn)練期間,生成器通過相應(yīng)的先驗分布pz、中采樣潛在編碼z、相機(jī)姿勢和照明條件μ來生成假圖像讓l表示從數(shù)據(jù)分布pI中采樣的真實(shí)圖像。用正則化的非飽和GAN損耗來訓(xùn)練ShadeGAN模型:

公式中λ 控制正則化強(qiáng)度。

探討在等式(2-4)中,研究團(tuán)隊通過體繪制獲得A和n之后執(zhí)行著色。另一種方法是在每個局部空間點(diǎn)執(zhí)行著色,其中:是局部正常。然后可以使用c(r(t), z) 執(zhí)行體積排序,從而獲得最終的像素顏色。在實(shí)踐中,研究團(tuán)隊觀察到該公式獲得了次優(yōu)結(jié)果。直觀原因是,在此公式中,法線方向在每個局部點(diǎn)處歸一化,忽略了在物體表面附近趨于較大。

本文使用的Lambertian著色近似于真實(shí)照明場景。雖然作為改進(jìn)學(xué)習(xí)的三維形狀的良好正則化,但它可能會在生成圖像的分布和真實(shí)圖像的分布之間引入額外的間隙。為了補(bǔ)償這種風(fēng)險,可以選擇將預(yù)測的a調(diào)節(jié)到光照條件,即a = a(r(t), d, μ, z)。在照明條件偏離實(shí)際數(shù)據(jù)分布的情況下,生成器可以學(xué)習(xí)調(diào)整a值并減小上述間隙。

3.3通過曲面跟蹤實(shí)現(xiàn)高效體繪制

與NeRF類似,研究團(tuán)隊使用離散積分實(shí)現(xiàn)體繪制,這通常需要沿攝影機(jī)光線采樣幾十個點(diǎn),如圖所示。在本文中,還需要在等式(3)中對生成器執(zhí)行反向傳播,以獲得每個點(diǎn)的法線方向,這會大大增加計算成本。為了實(shí)現(xiàn)更高效的體繪制,一個自然的想法是利用空間稀疏性。通常,體繪制中的權(quán)重T (t, z)σ(r(t), z)在訓(xùn)練過程中會集中在物體表面位置上。如果在渲染之前知道粗糙曲面的位置,就可以在曲面附近采樣點(diǎn)以節(jié)省計算。對于靜態(tài)場景,將這種空間稀疏性存儲在稀疏體素網(wǎng)格中,但這種技術(shù)不能直接應(yīng)用于我們的生成模型,因為3D場景相對于輸入的潛在編碼不斷變化。

為了在生成隱式模型中實(shí)現(xiàn)更高效的體繪制,研究團(tuán)隊進(jìn)一步提出了一種曲面跟蹤網(wǎng)絡(luò)S,該網(wǎng)絡(luò)學(xué)習(xí)模仿以潛在編碼為條件的曲面位置。特別是,體渲染自然允許通過以下方式對對象曲面進(jìn)行深度估計:

T (t, z)的定義方式與(2)中的方式相同。因此,給定相機(jī)姿態(tài)和潛在編碼z,可以渲染全深度貼圖。如上圖(b)所示,使用表面跟蹤網(wǎng)絡(luò)模擬,這是一個以z,為輸入并輸出深度圖的輕量級卷積神經(jīng)網(wǎng)絡(luò)。深度模擬損失為:

其中,Prec是促使更好地捕捉表面邊緣的感知損失。在訓(xùn)練過程中,與發(fā)生器和鑒別器一起進(jìn)行優(yōu)化。每次在采樣一個潛在編碼z和一個相機(jī)姿勢之后,可以得到深度貼圖的初始猜測

然后,對于具有預(yù)測深度s像素,可以在等式(2,3,6)中執(zhí)行體繪制,且近邊界和遠(yuǎn)界,是體積渲染的間隔,該間隔隨著訓(xùn)練迭代i的增長而減小。

具體來說,我們從一個大的間隔開始并減小到。像減少時,用于渲染m的點(diǎn)數(shù)也相應(yīng)減少。與生成器相比,高效的曲面跟蹤網(wǎng)絡(luò)的計算成本是微乎其微的,因為前者只需要一次前向過程來渲染圖像,而后者將被查詢H × W × m 次。因此,m的減少將顯著加快ShadeGAN的訓(xùn)練和推理速度。

4.實(shí)驗

實(shí)驗表明,ShadeGAN學(xué)習(xí)的3D形狀比以前的方法精確得多,同時允許對照明條件進(jìn)行顯式控制。使用的數(shù)據(jù)集包括CelebA、BFM和CAT,它們都只包含無約束的2D RGB圖像。在模型結(jié)構(gòu)方面,我們采用了基于SIREN的MLP作為生成器,卷積神經(jīng)網(wǎng)絡(luò)作為鑒別器。對于光照條件的先驗分布,使用Unsup3d估計真實(shí)數(shù)據(jù)的光照條件,然后擬合的多元高斯分布作為先驗。消融研究中還包括手工制作的先驗分布。除非另有說明,否則在所有實(shí)驗中,讓前余弦顏色a取決于照明條件μ以及觀察方向d。

與基線進(jìn)行比較

將ShadeGAN與兩種最先進(jìn)的生成隱式模型(GRAF和pi-GAN)進(jìn)行比較。具體地,圖4包括合成圖像以及它們對應(yīng)的3D網(wǎng)格,其通過在體積密度σ上執(zhí)行 marching cubes而獲得。雖然GRAF和pi-GAN可以合成具有可控姿勢的圖像,但它們學(xué)習(xí)到的3D形狀不準(zhǔn)確且有噪聲。相比之下,本文的方法不僅合成真實(shí)感的3D一致圖像,而且還學(xué)習(xí)更精確的3D形狀和曲面法線,這表明所提出的多重照明約束作為正則化的有效性。圖5中包含了更多的合成圖像及其相應(yīng)的形狀。除了更精確的3D形狀外,ShadeGAN還可以從本質(zhì)上了解反照率和漫反射著色組件。如圖所示,盡管并不完美,ShadeGAN已成功以令人滿意的質(zhì)量分離陰影和反照率,因為這種分離是多照明約束的自然解決方案。

在BFM數(shù)據(jù)集上對學(xué)習(xí)的3D形狀的質(zhì)量進(jìn)行定量評估。具體來說,使用每個生成隱式模型生成50k圖像及其相應(yīng)的深度貼圖。來各個模型的圖像深度對被用作訓(xùn)練數(shù)據(jù),來訓(xùn)練額外的卷積神經(jīng)網(wǎng)絡(luò)(CNN),這個網(wǎng)絡(luò)學(xué)習(xí)預(yù)測輸入圖像的深度圖。然后,在BFM測試集上測試每個經(jīng)過訓(xùn)練的CNN,并將其預(yù)測與真實(shí)深度圖進(jìn)行比較,作為對所學(xué)3D形狀質(zhì)量的測量。本文報告了尺度不變深度誤差(SIDE)和平均角度偏差(MAD)度量。其中ShadeGAN的表現(xiàn)明顯優(yōu)于GRAF和pi GAN。ShadeGAN還優(yōu)于其他先進(jìn)的無監(jiān)督3D形狀學(xué)習(xí)方法,包括unsupervised和GAN2Shape,在無監(jiān)督3D形狀學(xué)習(xí)都有著巨大潛力。不同模型合成的圖像的FID分?jǐn)?shù)上,其中ShadeGAN的FID分?jǐn)?shù)略差于BFM和CelebA中的pi GAN。直觀地說,這是由近似著色(即朗伯著色)和真實(shí)照明之間的差距造成的,可以通過采用更真實(shí)的著色模型和改進(jìn)之前的照明來避免。

消融研究

研究團(tuán)隊進(jìn)一步研究了ShadeGAN中幾種設(shè)計選擇的影響。首先,執(zhí)行局部點(diǎn)特定的著色。如圖所示,局部著色策略的結(jié)果明顯比原始策略差,這表明考慮是有益的。

為了驗證所提出的高效體繪制技術(shù)的有效性,研究團(tuán)隊將其對圖像質(zhì)量和訓(xùn)練/推理時間的影響包含在選項中。據(jù)觀察,高效體繪制對性能影響不大,但ShadeGAN的訓(xùn)練和推理時間分別顯著減少了24%和48%。此外,在下圖中可視化了曲面跟蹤網(wǎng)絡(luò)預(yù)測的深度圖和通過體繪制獲得的深度圖。結(jié)果表明,在不同的身份和相機(jī)姿態(tài)下,曲面跟蹤網(wǎng)絡(luò)可以一致地預(yù)測非常接近真實(shí)曲面位置的深度值,因此可以在不犧牲圖像質(zhì)量的情況下采樣預(yù)測曲面附近的點(diǎn)進(jìn)行渲染。

光照感知圖像合成

由于ShadeGAN對著色過程進(jìn)行建模,因此在設(shè)計上允許對照明條件進(jìn)行顯式控制。下圖提供了這樣的照明感知圖像合成結(jié)果,其中ShadeGAN在不同的照明方向下生成有希望的圖像。在預(yù)測的a以照明條件μ為條件的情況下,a會略微改變w.r.t.照明條件,如在陰影過暗的區(qū)域,a會更亮,最終圖像更自然。我們還可以在等式4(即Blinn Phong著色,其中h是視點(diǎn)和照明方向之間角度的平分線)中選擇性地添加鏡面反射項,以創(chuàng)建鏡面反射高光效果。

GAN反演

ShadeGAN還可以通過執(zhí)行GAN反演來重建給定的目標(biāo)圖像。如下圖所示,這種反演允許我們獲得圖像的幾個因素,包括3D形狀、表面法線、近似反照率和陰影。此外,我們還可以通過更改視點(diǎn)和照明條件來進(jìn)一步執(zhí)行視圖合成和重新照明。

討論

由于使用的朗伯陰影近似于真實(shí)照明,因此ShadeGAN學(xué)習(xí)的反照率并沒有完全分離。本文的方法不考慮對象的空間變化的材料特性。在未來,研究團(tuán)隊打算結(jié)合更復(fù)雜的著色模型,以更好地了解分離的生成反射場。

5.結(jié)論

本文提出的ShadeGAN是一種新的生成隱式模型,用于形狀精確的3D感知圖像合成。并證實(shí)在ShadeGAN中通過顯式光照建模實(shí)現(xiàn)的多重光照約束顯著有助于從2D圖像學(xué)習(xí)精確的3D形狀。ShadeGAN還可以在圖像合成過程中控制照明條件,實(shí)現(xiàn)自然的圖像重新照明效果。為了降低計算成本,研究團(tuán)隊進(jìn)一步設(shè)計了一種輕量級曲面跟蹤網(wǎng)絡(luò),它為生成隱式模型提供了一種高效的體繪制技術(shù),顯著加快了訓(xùn)練和推理速度。

責(zé)任編輯:張燕妮 來源: 雷鋒網(wǎng)
相關(guān)推薦

2024-12-12 08:28:11

2022-10-08 14:47:21

Python工具開源

2023-08-01 14:14:14

2009-11-10 12:48:17

VB.NET三維模型

2009-11-10 12:55:26

VB.NET三維模型

2023-10-28 13:31:08

模型數(shù)據(jù)

2025-01-07 13:19:48

模型AI訓(xùn)練

2023-06-02 13:35:11

AI檢索

2024-02-19 13:10:38

模型訓(xùn)練

2025-03-20 14:30:02

2023-09-11 12:04:20

2024-08-14 16:30:00

3D AIGC

2025-03-24 09:41:22

2025-04-25 09:15:00

模型數(shù)據(jù)AI

2023-10-11 10:22:55

數(shù)據(jù)集計算機(jī)

2022-08-10 10:00:00

人工智能三維模型編程技術(shù)

2025-03-14 12:03:29

2021-11-10 10:10:18

智能自動駕駛汽車

2023-04-18 23:33:46

分類模型辨別式模型生成式模型

2023-01-13 21:13:31

AI人工智能醫(yī)療
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號