偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

上科大等發(fā)布DreamFace:只需文本即可生成「超寫實3D數(shù)字人」

人工智能 新聞
AIGC進入3D時代,用文字就能生成超逼真數(shù)字人!

隨著大型語言模型(LLM)、擴散(Diffusion)等技術的發(fā)展,ChatGPT、Midjourney等產(chǎn)品的誕生掀起了新一波的AI熱潮,生成式AI也成為備受關注的話題。

與文本和圖像不同,3D生成仍處于技術探索階段。

2022年年底,Google、NVIDIA和微軟相繼推出了自己的3D生成工作,但大多基于先進的神經(jīng)輻射場(NeRF)隱式表達,與工業(yè)界3D軟件如Unity、Unreal Engine和Maya等的渲染管線不兼容。

即使通過傳統(tǒng)方案將其轉換為Mesh表達的幾何和顏色貼圖,也會造成精度不足和視覺質(zhì)量下降,不能直接應用于影視制作和游戲生產(chǎn)。

圖片

項目網(wǎng)站:https://sites.google.com/view/dreamface

論文地址:https://arxiv.org/abs/2304.03117

Web Demo:https://hyperhuman.top

HuggingFace Space:https://huggingface.co/spaces/DEEMOSTECH/ChatAvatar

為了解決這些問題,來自影眸科技與上??萍即髮W的研發(fā)團隊提出了一種文本指導的漸進式3D生成框架。

該框架引入符合CG制作標準的外部數(shù)據(jù)集(包含幾何和PBR材質(zhì)),可以根據(jù)文本直接生成符合該標準的3D資產(chǎn),是首個支持Production-Ready 3D資產(chǎn)生成的框架。

為了實現(xiàn)文本生成可驅動的3D超寫實數(shù)字人,該團隊將這個框架與產(chǎn)品級3D數(shù)字人數(shù)據(jù)集相結合。這項工作已經(jīng)被計算機圖形領域國際頂級期刊Transactions on Graphics接收,并將在國際計算機圖形頂級會議SIGGRAPH 2023上展示。

DreamFace主要包括三個模塊,幾何體生成,基于物理的材質(zhì)擴散和動畫能力生成。

相比先前的3D生成工作,這項工作的主要貢獻包括:

· 提出了DreamFace這一新穎的生成方案,將最近的視覺-語言模型與可動畫和物理材質(zhì)的面部資產(chǎn)相結合,通過漸進式學習來分離幾何、外觀和動畫能力。

· 引入了雙通道外觀生成的設計,將一種新穎的材質(zhì)擴散模型與預訓練模型相結合,同時在潛在空間和圖像空間進行兩階段優(yōu)化。

· 使用BlendShapes或生成的Personalized BlendShapes的面部資產(chǎn)具備動畫能力,并進一步展示了DreamFace在自然人物設計方面的應用。

幾何生成

幾何體生成模塊可以根據(jù)文本提示生成與之一致的幾何模型。然而,在人臉生成方面,這可能難以監(jiān)督和收斂。

因此,DreamFace提出了一個基于CLIP(Contrastive Language-Image Pre-Training)的選擇框架,首先從對人臉幾何參數(shù)空間內(nèi)隨機采樣的候選項中選擇最佳的粗略幾何模型,然后雕刻幾何細節(jié),使頭部模型更符合文本提示。

圖片

根據(jù)輸入提示,DreamFace利用CLIP模型選擇匹配得分最高的粗略幾何候選項。接下來,DreamFace使用隱式擴散模型(LDM)在隨機視角和光照條件下對渲染圖像進行得分蒸餾采樣(SDS)處理。

這使得DreamFace可以通過頂點位移和詳細的法線貼圖向粗略幾何模型添加面部細節(jié),從而得到高度精細的幾何體。

與頭部模型類似,DreamFace還基于該框架進行發(fā)型和顏色的選擇。

基于物理的材質(zhì)擴散生成

基于物理的材質(zhì)擴散模塊旨在預測與預測幾何體和文本提示一致的面部紋理。

首先,DreamFace將預先訓練的LDM在收集的大規(guī)模UV材質(zhì)數(shù)據(jù)集上微調(diào),得到兩個LDM擴散模型。

圖片

DreamFace采用了一種聯(lián)合訓練方案,協(xié)調(diào)兩個擴散過程,一個用于直接去噪UV紋理貼圖,另一個用于監(jiān)督渲染圖像,以確保面部UV貼圖和渲染圖像的正確形成與文本提示一致。

為了減少生成時間,DreamFace采用了一個粗糙紋理潛在擴散階段,為細節(jié)紋理生成提供先驗潛在。

圖片

為了確保所創(chuàng)建的紋理地圖不含有不良特征或照明情況,同時仍保持多樣性,設計了一種提示學習策略。

團隊利用兩種方法生成高質(zhì)量的漫反射貼圖:

(1)Prompt Tuning。與手工制作的特定領域文本提示不同,DreamFace將兩個特定領域的連續(xù)文本提示 Cd 和 Cu 與相應的文本提示結合起來,這將在U-Net去噪器訓練期間進行優(yōu)化,以避免不穩(wěn)定和耗時的手工撰寫提示。

(2)非面部區(qū)域遮罩。LDM去噪過程將額外地受到非面部區(qū)域遮罩的限制,以確保生成的漫反射貼圖不含有任何不需要的元素。

圖片

作為最后一步,DreamFace應用超分辨率模塊生成4K基于物理的紋理,以進行高質(zhì)量渲染。

圖片

DreamFace框架在名人生成,根據(jù)描述生成角色上都取得了相當不錯的效果,在User Study中獲得了遠超先前工作的成績。相比先前的工作,在運行時間上也具備明顯的優(yōu)勢。

圖片

除此之外,DreamFace還支持使用提示和草圖進行紋理編輯。通過直接使用微調(diào)的紋理LDM和提示,可以實現(xiàn)全局的編輯效果,如老化和化妝。通過進一步結合掩?;虿輬D,可以創(chuàng)建各種效果,如紋身、胡須和胎記。

圖片

動畫能力生成

圖片

DreamFace生成的模型具備動畫能力。與基于BlendShapes的方法不同,DreamFace的神經(jīng)面部動畫方法通過預測獨特的變形來為生成的靜息(Neutral)模型賦予動畫效果,從而產(chǎn)生個性化的動畫。

首先,訓練一個幾何生成器,學習表情的潛在空間,其中解碼器被擴展為以中性幾何形狀為條件。接著,進一步訓練表情編碼器,從RGB圖像中提取表情特征。因此,DreamFace能夠通過使用單目RGB圖像以中性幾何形狀為條件來生成個性化的動畫。

與使用通用BlendShapes進行表情控制的DECA相比,DreamFace的框架提供了細致的表情細節(jié),并且能夠精細地捕捉表演。

結論

本文介紹了DreamFace,一種文本指導的漸進式3D生成框架,它結合了最新的視覺-語言模型、隱式擴散模型,以及基于物理的材質(zhì)擴散技術。

DreamFace的主要創(chuàng)新包括幾何體生成、基于物理的材質(zhì)擴散生成和動畫能力生成。與傳統(tǒng)的3D生成方法相比,DreamFace具有更高的準確性、更快的運行速度和較好的CG管線兼容性。

DreamFace的漸進式生成框架為解決復雜的3D生成任務提供了一種有效的解決方案,有望推動更多類似的研究和技術發(fā)展。

此外,基于物理的材質(zhì)擴散生成和動畫能力生成將推動3D生成技術在影視制作、游戲開發(fā)和其他相關行業(yè)的應用。

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-05-08 15:44:23

3D數(shù)字人

2024-12-10 15:17:11

2024-07-16 12:02:11

2025-03-18 10:32:47

2023-09-21 12:33:31

3DAI

2023-07-14 09:41:01

3DAI

2023-01-10 14:25:24

微軟AI

2022-09-29 16:11:54

3D訓練

2009-12-14 08:58:25

HTML5網(wǎng)頁3DWebGL

2025-01-14 10:30:00

3D生成AI

2023-05-09 13:45:46

ChatGPT3D

2022-08-03 13:52:22

AI建筑師

2025-01-14 09:24:46

2011-04-26 14:21:20

3DJVC投影機

2018-08-14 13:59:00

大數(shù)據(jù)

2019-11-18 10:22:01

深度學習編程人工智能

2023-12-07 10:37:55

3D框架AI

2024-01-08 13:34:00

模型訓練

2011-05-03 11:07:46

2D3D麗訊
點贊
收藏

51CTO技術棧公眾號