偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

五分鐘技術(shù)趣談 | GET3D生成模型淺析

人工智能
為了便于內(nèi)容創(chuàng)建過程并能夠?qū)嶋H得到應(yīng)用,能夠產(chǎn)生高質(zhì)量和多樣化3D資產(chǎn)的生成性3D網(wǎng)絡(luò)最近已經(jīng)成為活躍的研究領(lǐng)域。

Part 01●

前言

近年來,隨著以Midjourney和Stable Diffusion為代表的AI圖像生成工具的興起,2D AIGC技術(shù)已經(jīng)作為輔助工具被許多設(shè)計(jì)師運(yùn)用到實(shí)際的項(xiàng)目工作中,在各類顯性的商業(yè)場景中落地,創(chuàng)造越來越多的現(xiàn)實(shí)價值。同時隨著元宇宙熱潮的到來,許多行業(yè)正朝著創(chuàng)建大規(guī)模3D虛擬世界的方向發(fā)展,多樣化、高質(zhì)量的3D內(nèi)容對一些行業(yè)正變得越來越重要,包括游戲、機(jī)器人、建筑和社交平臺等。但是,手動創(chuàng)建3D資源非常耗時且需要特定的藝術(shù)素養(yǎng)以及建模技能。主要的挑戰(zhàn)之一是規(guī)?!M管可以在3D市場上找到大量的3D模型,在游戲或電影中填充一群看起來都不一樣的角色或建筑仍然需要耗費(fèi)藝術(shù)家大量的時間。因此,對能夠在3D內(nèi)容的數(shù)量、質(zhì)量和多樣性方面進(jìn)行擴(kuò)展的內(nèi)容制作工具的需求也變得越來越明顯。

圖片圖片

圖1 元宇宙空間(來源:《無敵破壞王2》)

得益于2D生成模型在高分辨率圖像合成中已經(jīng)獲得了逼真的質(zhì)量,這一進(jìn)展也啟發(fā)了3D內(nèi)容生成的研究。早期的方法旨在將2D CNN生成器直接擴(kuò)展到3D體素網(wǎng)格,但3D卷積的高內(nèi)存占用和計(jì)算復(fù)雜性阻礙了高分辨率下的生成過程。作為一種替代方案,其他研究已經(jīng)探索了點(diǎn)云、隱式或八叉樹表示。然而,這些工作主要集中在生成幾何體上,而忽略外觀。它們的輸出表示也需要進(jìn)行后處理,使其與標(biāo)準(zhǔn)圖形引擎相兼容。

為了能夠?qū)嶋H應(yīng)用到內(nèi)容制作中,理想的3D生成模型應(yīng)當(dāng)滿足以下要求:

(a)有能力生成具有幾何細(xì)節(jié)和任意拓?fù)涞男螤睢?/p>

(b)輸出的應(yīng)該是紋理網(wǎng)格,這是Blender和Maya等標(biāo)準(zhǔn)圖形軟件所使用的主要表達(dá)。

(c)可以利用2D圖像進(jìn)行監(jiān)督,因?yàn)樗鼈儽让鞔_的3D形狀更廣泛。

Part 02

3D生成模型簡介

為了便于內(nèi)容創(chuàng)建過程并能夠?qū)嶋H得到應(yīng)用,能夠產(chǎn)生高質(zhì)量和多樣化3D資產(chǎn)的生成性3D網(wǎng)絡(luò)最近已經(jīng)成為活躍的研究領(lǐng)域。每年都會有許多3D生成模型發(fā)表于ICCV、NeurlPS、ICML等大會,其中前沿的模型有以下幾種:

Textured3DGAN:作為卷積生成紋理3D網(wǎng)格方法的延伸,是能夠在二維監(jiān)督下,學(xué)習(xí)使用GAN從實(shí)物圖像中生成紋理網(wǎng)格的一種生成模型。相較于以前的方法,放寬了姿態(tài)估計(jì)步驟中對關(guān)鍵點(diǎn)的要求,并將該方法推廣到未標(biāo)記的圖像集合和新的類別/數(shù)據(jù)集,如ImageNet。

DIB-R:底層由PyTorch機(jī)器學(xué)習(xí)框架構(gòu)建的一種基于插值的可微分渲染器,已經(jīng)被添加到3D深度學(xué)習(xí)的PyTorch GitHub庫中(Kaolin)。該方法允許對圖像中的所有像素的梯度進(jìn)行分析計(jì)算,核心是將前景光柵化視為局部屬性的加權(quán)插值,將背景光柵化視為由全局幾何體的基于距離的聚合,從而學(xué)會了從單個圖像預(yù)測形狀,紋理和光線。

PolyGen:使用基于Transformer的架構(gòu)依次預(yù)測網(wǎng)格頂點(diǎn)和面的一種直接對網(wǎng)格建模的自回歸生成模型。通過ShapeNet Core V2數(shù)據(jù)集進(jìn)行訓(xùn)練,得到的模型已經(jīng)十分接近于人類構(gòu)建的結(jié)果。

SurfGen:具有顯式表面鑒別器的對抗性3D形狀合成。通過端到端訓(xùn)練的模型能夠生成具有不同拓?fù)涞母弑U?D形狀。

GET3D:從圖像學(xué)習(xí)的高質(zhì)量3D紋理形狀的生成模型。核心是通過可微分表面建模、可微分渲染以及2D生成對抗性網(wǎng)絡(luò),可以從2D圖像集合中訓(xùn)練模型,直接生成具有復(fù)雜拓?fù)?、豐富幾何細(xì)節(jié)和高保真紋理的顯式紋理3D網(wǎng)格。

圖片圖片

圖2 GET3D生成模型(來源:GET3D論文官網(wǎng)https://nv-tlabs.github.io/GET3D/)

作為最近提出來的3D生成模型,GET3D通過ShapeNet、Turbosquid和Renderpeople中多個具有復(fù)雜幾何圖形的類別,如椅子、摩托車、汽車、人物和建筑,展示了在無限制生成3D形狀方面的最先進(jìn)性能。

Part 03

GET3D的架構(gòu)和特性

圖片圖片

圖3 GET3D架構(gòu)(來源:GET3D論文官網(wǎng)https://nv-tlabs.github.io/GET3D/)

通過兩個潛在編碼生成了一個3D SDF(Signed Distance Field/有向距離場)和一個紋理場(Texture Field),再利用DMTet(Deep Marching Tetrahedra)從SDF中提取3D表面網(wǎng)格,并在表面點(diǎn)云查詢紋理場以獲取顏色。整個過程使用在2D圖像上定義的對抗性損失來進(jìn)行訓(xùn)練。特別是,RGB圖像和輪廓是使用基于光柵化的可微分渲染器來獲取的。最后使用兩個2D鑒別器,每個鑒別器分別針對RGB圖像和輪廓,來分辨輸入是真的還是假的。整個模型是端到端可訓(xùn)練的。

除了以顯式網(wǎng)格作為輸出表達(dá),GET3D在其他方面也非常靈活,可以很容易地適應(yīng)其他任務(wù),包括:

實(shí)現(xiàn)幾何體和紋理的分離:模型在幾何和紋理之間實(shí)現(xiàn)了很好的解耦,并且對幾何潛在代碼和紋理潛在代碼都可以進(jìn)行有意義的插值。

不同類別形狀之間生成平滑過渡:通過在潛在空間中應(yīng)用隨機(jī)行走,并生成相應(yīng)的3D形狀。

生成新的形狀:通過添加一個小噪聲來擾動局部的潛在代碼,可以生成看起來相似但局部略有差異的形狀。

無監(jiān)督材質(zhì)生成:與DIBR++相結(jié)合,以完全無監(jiān)督的方式生成材質(zhì)并產(chǎn)生有意義的視圖相關(guān)照明效果。

以文本為導(dǎo)向的形狀生成:結(jié)合StyleGAN NADA,通過計(jì)算渲染的2D圖像和用戶提供的文本上的定向CLIP損失來微調(diào)3D生成器,用戶可以通過文本提示生成大量有意義的形狀。

圖片圖片

圖4 基于文本生成形狀(來源:GET3D論文官網(wǎng)https://nv-tlabs.github.io/GET3D/)

Part 04

總結(jié)

雖然GET3D朝著實(shí)用的3D紋理形狀的3D生成模型邁出了重要一步,但它仍有一些局限性。特別是,在訓(xùn)練過程中,仍然依賴2D剪影以及相機(jī)分布的知識。因此,GET3D目前僅根據(jù)合成數(shù)據(jù)進(jìn)行評估。一個有前景的擴(kuò)展是可以利用實(shí)例分割和相機(jī)姿態(tài)估計(jì)方面的進(jìn)步來緩解這個問題,并將GET3D擴(kuò)展到真實(shí)世界的數(shù)據(jù)。GET3D也按類別進(jìn)行訓(xùn)練,未來將擴(kuò)展到多個類別,可以更好地表示類別間的多樣性。希望這項(xiàng)研究能讓人們離使用人工智能進(jìn)行3D內(nèi)容的自由創(chuàng)作更近一步。

責(zé)任編輯:龐桂玉 來源: 移動Labs
相關(guān)推薦

2023-09-12 07:10:13

Nacos架構(gòu)

2023-09-17 17:51:43

Android 14

2023-08-06 06:55:29

數(shù)字可視化物聯(lián)網(wǎng)

2023-09-18 07:10:48

限流算法

2023-07-23 18:47:59

Docker開源

2023-08-06 07:00:59

Openstack網(wǎng)絡(luò)

2023-07-16 18:49:42

HTTP網(wǎng)絡(luò)

2023-04-15 20:25:23

微前端

2023-07-02 16:34:06

GPU虛擬化深度學(xué)習(xí)

2023-07-02 16:09:57

人工智能人臉識別

2023-07-12 15:56:08

2023-07-31 08:55:15

AI技術(shù)網(wǎng)絡(luò)暴力

2023-07-12 15:50:29

機(jī)器學(xué)習(xí)人工智能

2024-12-18 14:10:33

2023-08-29 06:50:01

Javamaven

2023-09-03 19:21:07

大數(shù)據(jù)架構(gòu)

2023-07-12 16:03:37

Android開發(fā)架構(gòu)

2023-08-15 14:46:03

2023-07-12 16:13:01

2023-09-02 20:22:42

自動化測試軟件開發(fā)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號