偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Stable Video 3D震撼登場:單圖生成無死角3D視頻、模型權(quán)重開放

人工智能 新聞
3D 生成領(lǐng)域迎來新的「SOTA 級選手」,支持商用和非商用。

Stability AI 的大模型家族來了一位新成員。

昨日,Stability AI 繼推出文生圖 Stable Diffusion、文生視頻 Stable Video Diffusion 之后,又為社區(qū)帶來了 3D 視頻生成大模型「Stable Video 3D」(簡稱 SV3D)。

該模型基于 Stable Video Diffusion 打造,能夠顯著提升 3D 生成的質(zhì)量和多視角一致性,效果要優(yōu)于之前 Stability AI 推出的 Stable Zero123 以及豐田研究院和哥倫比亞大學(xué)聯(lián)合開源的 Zero123-XL。

目前,Stable Video 3D 既支持商用,需要加入 Stability AI 會員(Membership);也支持非商用,用戶在 Hugging Face 上下載模型權(quán)重即可。

Stability AI 提供了兩個模型變體,分別是 SV3D_u 和 SV3D_p。其中 SV3D_u 基于單個圖像輸入生成軌道視頻,不需要相機(jī)調(diào)整;SV3D_p 通過適配單個圖像和軌道視角擴(kuò)展了生成能力,允許沿著指定的相機(jī)路徑創(chuàng)建 3D 視頻。

目前,Stable Video 3D 的研究論文已經(jīng)放出,核心作者有三位。


  • 論文地址:https://stability.ai/s/SV3D_report.pdf
  • 博客地址:https://stability.ai/news/introducing-stable-video-3d
  • Huggingface 地址:https://huggingface.co/stabilityai/sv3d

技術(shù)概覽

Stable Video 3D 在 3D 生成領(lǐng)域?qū)崿F(xiàn)重大進(jìn)步,尤其是在新穎視圖生成(novel view synthesis,NVS)方面。

以往的方法通常傾向于解決有限視角和輸入不一致的問題,而 Stable Video 3D 能夠從任何給定角度提供連貫視圖,并能夠很好地泛化。因此,該模型不僅增加了姿勢可控性,還能確保多個視圖中對象外觀的一致性,進(jìn)一步改進(jìn)了影響真實和準(zhǔn)確 3D 生成的關(guān)鍵問題。

如下圖所示,與 Stable Zero123、Zero-XL 相比,Stable Video 3D 能夠生成細(xì)節(jié)更強(qiáng)、更忠實于輸入圖像和多視角更一致的新穎多視圖。

此外,Stable Video 3D 利用其多視角一致性來優(yōu)化 3D 神經(jīng)輻射場(Neural Radiance Fields,NeRF),以提高直接從新視圖生成 3D 網(wǎng)格的質(zhì)量。

為此,Stability AI 設(shè)計了掩碼分?jǐn)?shù)蒸餾采樣損失,進(jìn)一步增強(qiáng)了預(yù)測視圖中未見過區(qū)域的 3D 質(zhì)量。同時為了減輕烘焙照明問題,Stable Video 3D 采用了與 3D 形狀和紋理共同優(yōu)化的解耦照明模型。

下圖為使用 Stable Video 3D 模型及其輸出時,通過 3D 優(yōu)化改進(jìn)后的 3D 網(wǎng)格生成示例。

圖片

下圖為使用 Stable Video 3D 生成的 3D 網(wǎng)格結(jié)果與 EscherNet、Stable Zero123 的生成結(jié)果比較。

圖片

架構(gòu)細(xì)節(jié)

Stable Video 3D 模型的架構(gòu)如下圖 2 所示,它基于 Stable Video Diffusion 架構(gòu)構(gòu)建而成,包含一個具有多個層的 UNet,其中每一層又包含一個帶有 Conv3D 層的殘差塊序列,以及兩個帶有注意力層(空間和時間)的 transformer 塊。

具體流程如下所示:

(i) 刪除「fps id」和「motion bucket id」的矢量條件, 原因是它們與 Stable Video 3D 無關(guān);

(ii) 條件圖像通過 Stable Video Diffusion 的 VAE 編碼器嵌入到潛在空間,然后在通向 UNet 的噪聲時間步 t 處連接到噪聲潛在狀態(tài)輸入 zt;

(iii) 條件圖像的 CLIPembedding 矩陣被提供給每個 transformer 塊的交叉注意力層來充當(dāng)鍵和值,而查詢成為相應(yīng)層的特征;

(iv) 相機(jī)軌跡沿著擴(kuò)散噪聲時間步被饋入到殘差塊中。相機(jī)姿勢角度 ei 和 ai 以及噪聲時間步 t 首先被嵌入到正弦位置嵌入中,然后將相機(jī)姿勢嵌入連接在一起進(jìn)行線性變換并添加到噪聲時間步嵌入中,最后被饋入到每個殘差塊并被添加到該塊的輸入特征中。

此外,Stability AI 設(shè)計了靜態(tài)軌道和動態(tài)軌道來研究相機(jī)姿勢調(diào)整的影響,具體如下圖 3 所示。

在靜態(tài)軌道上,相機(jī)采用與條件圖像相同的仰角,以等距方位角圍繞對象旋轉(zhuǎn)。這樣做的缺點是基于調(diào)整的仰角,可能無法獲得關(guān)于對象頂部或底部的任何信息。而在動態(tài)軌道上,方位角可以不等距,每個視圖的仰角也可以不同。

為了構(gòu)建動態(tài)軌道,Stability AI 對靜態(tài)軌道采樣,向方位角添加小的隨機(jī)噪聲,并向其仰角添加不同頻率的正弦曲線的隨機(jī)加權(quán)組合。這樣做提供了時間平滑性,并確保相機(jī)軌跡沿著與條件圖像相同的方位角和仰角循環(huán)結(jié)束。

實驗結(jié)果

Stability AI 在未見過的 GSO 和 OmniObject3D 數(shù)據(jù)集上,評估了靜態(tài)和動態(tài)軌道上的 Stable Video 3D 合成多視圖效果。結(jié)果如下表 1 至表 4 所示,Stable Video 3D 在新穎多視圖合成方面實現(xiàn)了 SOTA 效果。

表 1 和表 3 顯示了 Stable Video 3D 與其他模型在靜態(tài)軌道的結(jié)果,表明了即使是無姿勢調(diào)整的模型 SV3D_u,也比所有先前的方法表現(xiàn)得更好。

消融分析結(jié)果表明,SV3D_c 和 SV3D_p 在靜態(tài)軌道的生成方面優(yōu)于 SV3D_u,盡管后者專門在靜態(tài)軌道上進(jìn)行了訓(xùn)練。

下表 2 和表 4 展示了動態(tài)軌道的生成結(jié)果,包括姿勢調(diào)整模型 SV3D_c 和 SV3D_p,后者在所有指標(biāo)上實現(xiàn)了 SOTA。

下圖 6 中的視覺比較結(jié)果進(jìn)一步表明,與以往工作相比,Stable Video 3D 生成的圖像細(xì)節(jié)更強(qiáng)、更忠實于條件圖像、多視角更加一致。

更多技術(shù)細(xì)節(jié)和實驗結(jié)果請參閱原論文。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2024-12-10 15:17:11

2025-03-27 09:26:30

2024-07-16 12:02:11

2021-09-14 10:11:46

谷歌3D舞蹈生成模型FACT

2025-02-13 08:26:26

2011-09-22 10:07:52

奧圖碼投影儀

2012-07-24 10:05:09

打印機(jī)

2011-10-06 13:30:45

宏碁投影儀

2020-08-26 10:37:21

阿里3D

2012-11-26 12:51:44

木材3D打

2023-07-14 09:41:01

3DAI

2011-12-21 12:46:43

2022-09-19 19:16:42

輪播圖has

2024-09-27 17:58:26

2024-12-23 15:46:59

2011-05-26 10:05:07

優(yōu)派投影機(jī)

2024-01-29 06:50:00

3D模型

2023-11-22 17:34:37

2024-12-10 09:40:00

AI3D模型

2011-04-26 14:21:20

3DJVC投影機(jī)
點贊
收藏

51CTO技術(shù)棧公眾號