偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

一句話搞定3D模型紋理貼圖,全程只需30秒

人工智能 新聞
現(xiàn)在,來自港大、港中文和TCL的研究人員,搞出了一種AI設計3D物體紋理的新方法,不僅完美保留物體之前的形狀,而且設計出來的紋理真實感更強、完美貼合物體表面。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯(lián)系出處。

用上擴散模型,3D物體生成紋理一句話就能搞定!

像是輸入“一張帶有棕色和黑色幾何圖案的椅子”,擴散模型就能立刻給它復個古,貼上頗具年代感的紋理:

圖片

甚至只是丟給它一張看不出桌面長啥樣的“截圖”,AI也能立刻憑借想象力,給桌面加上木質(zhì)的細節(jié)紋理:

圖片

要知道,給3D物體加上紋理,可不只是“變變顏色”這么簡單。

它包含粗糙度、反射、透明、漩渦、泛光等大量參數(shù),要想設計好不僅需要了解材質(zhì)、燈光、渲染等知識,還需要反復測試渲染效果并修改。如果材質(zhì)有變,更是可能“重頭來過”。

圖片

△游戲場景中紋理丟失的效果

然而,此前用AI設計出來的紋理又“不太能看”,因此設計紋理一直費時費力,成本也比較高。

現(xiàn)在,來自港大、港中文和TCL的研究人員,搞出了一種AI設計3D物體紋理的新方法,不僅完美保留物體之前的形狀,而且設計出來的紋理真實感更強、完美貼合物體表面。

目前這項研究已經(jīng)被ICCV 2023收錄Oral論文。

圖片

這究竟是怎么做到的?我們一起來看看。

用上擴散模型,3D紋理一句話搞定

此前用AI設計3D紋理,主要存在兩類問題。

一類是生成的紋理不真實,細節(jié)有限:

圖片

另一類是生成過程中會對3D物體本身的幾何做特殊處理,使得生成的紋理無法和原物體完美貼合,會“冒出”奇怪的形狀:

圖片

因此,為了能確保3D物體結構穩(wěn)定、同時生成細節(jié)逼真的紋理,這項研究設計了一個名叫Point-UV diffusion的框架。

這個框架包含“粗設計”和“精加工”兩個模塊,都基于擴散模型打造,不過二者用到的擴散模型有所不同。

首先在“粗設計”模塊中,訓練一個以形狀特征(包括表面法線、坐標和遮罩)為輸入條件的3D擴散模型,用來預測物體形狀中每個點的顏色,從而生成一個粗糙紋理圖像效果:

圖片

然后在“精加工”模塊中,又設計了一個2D擴散模型,進一步將之前生成的粗糙紋理圖像和物體形狀作為輸入條件,用來生成更加精細的紋理:

圖片

之所以采取這種設計結構,是因為之前的高分辨率點云生成方法,計算成本通常過高。

用這種兩階段生成的方法,不僅節(jié)省了計算成本,讓兩個擴散模型“各司其職”,而且相比之前的方法,不僅保留了原來3D物體的結構,生成的紋理也要更加精細。

至于通過輸入文字或圖片控制生成效果,則是CLIP的“功勞”。

針對輸入,作者會先用預訓練的CLIP模型提取文本或圖像embeddings,然后將它輸入一個MLP模型中,最終將條件整合進“粗設計”和“精加工”兩階段的網(wǎng)絡中。

這樣一來,就能實現(xiàn)通過文字和圖像控制生成的紋理,從而得到最終輸出結果。

所以,這樣的模型實現(xiàn)效果究竟如何?

生成速度從10分鐘縮短至30秒

先來看看Point-UV diffusion的生成效果。

從效果圖中可見,除了桌椅,Point-UV diffusion同樣還能生成汽車等物體的紋理,種類更豐富:

圖片

不僅能根據(jù)文字生成紋理:

圖片

也能根據(jù)一張圖像生成對應物體的紋理效果:

圖片

除此之外,作者們還將Point-UV diffusion生成紋理效果與之前的方法做了個對比。

從圖中可見,與Texture Fields、Texturify、PVD-Tex等其他紋理生成模型相比,Point-UV diffusion在結構和精細度上都表現(xiàn)出了更好的效果。

圖片

作者還提到,同樣硬件配置下,相比Text2Mesh需要10分鐘的計算,Point-UV diffusion只需要30秒。

圖片

不過,作者也提到了Point-UV diffusion目前還存在的一些局限之處,例如當UV貼圖存在太多“碎片化”的部分時,它還是無法生成無縫的紋理效果。此外,由于依賴3D數(shù)據(jù)進行訓練,而3D 數(shù)據(jù)的精細化質(zhì)量和數(shù)量目前還不能達到2D 數(shù)據(jù)的水平,生成的效果暫時還無法達到像2D圖像生成那么精細化的效果。

圖片

對這項研究感興趣的小伙伴,可以戳下方論文看看~

論文地址:https://cvmi-lab.github.io/Point-UV-Diffusion/paper/point_uv_diffusion.pdf

項目地址(還在施工中):https://github.com/CVMI-Lab/Point-UV-Diffusion

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-05-08 15:44:23

3D數(shù)字人

2021-12-30 10:00:07

3DAI 人工智能

2023-05-12 14:13:23

3D建模OpenAI

2025-09-19 09:06:00

2018-01-15 10:45:43

社交網(wǎng)絡互聯(lián)網(wǎng)巨頭百度

2023-10-09 12:45:09

數(shù)據(jù)訓練

2015-08-03 10:21:04

設計模式表達

2020-11-27 09:57:11

Python代碼PyPy

2023-09-05 23:34:52

Kubernetes云原生

2025-05-12 01:22:00

2023-07-18 09:47:11

谷歌模型

2023-10-25 14:17:00

2023-03-20 16:15:20

模型數(shù)字

2024-07-01 07:40:00

2010-03-29 11:55:12

無線上網(wǎng)報錯

2025-06-25 13:42:54

微軟模型系統(tǒng)

2025-09-22 09:09:00

2024-02-08 09:33:37

蘋果AI

2022-12-12 13:45:46

模型修圖

2023-12-14 12:51:28

LLM3D場景
點贊
收藏

51CTO技術棧公眾號