偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

視頻也可以用擴散模型來生成了,效果很能打:新SOTA已達成

人工智能 新聞
為了讓生成視頻更長、分辨率更高,作者在這個擴散模型中引入了一種全新的采樣方法。

本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。

?擴散模型最近是真的有點火。

前有OpenAI用它打敗霸榜多年的GAN,現在谷歌又緊隨其后,提出了一個視頻擴散模型。

和圖像生成一樣,初次嘗試,它居然就表現出了不俗的性能。

比如輸入“fireworks”,就能生成這樣的效果:

滿屏煙花盛放,肉眼看上去簡直可以說是以假亂真了。

為了讓生成視頻更長、分辨率更高,作者還在這個擴散模型中引入了一種全新的采樣方法。

最終,該模型在無條件視頻生成任務中達到全新SOTA

一起來看。

由圖像擴散模型擴展而成

這個擴散視頻模型,由標準的圖像擴散模型UNet擴展而成。

UNet是一種神經網絡架構,分為空間下采樣通道和上采樣通道,通過殘差連接。

該網絡由多層2D卷積殘差塊構建而成,每個卷積塊后面跟著一個空間注意塊。

通過固定幀數的塊,以及在空間和時間上分解的3D U-Net,就可以將它擴展為視頻模型。

具體來說:

先將每個二維卷積更改為三維卷積(space-only),比如將3x3卷積更改為1x3x3卷積(第一軸(axis)索引視頻幀,第二軸和第三軸索引空間高度和寬度)。

每個空間注意塊中的注意力仍然專注于空間維度。

然后,在每個空間注意塊之后,插入一個時間注意塊;該時間注意塊在第一個軸上執(zhí)行注意力,并將空間軸視為批處理軸(batch axes)。

眾所周知,像這樣在視頻Transformer中分對時空注意力進行分解,會讓計算效率更高。

由此一來,也就能在視頻和圖像上對模型進行聯合訓練,而這種聯合訓練對提高樣本質量很有幫助。

此外,為了生成更長和更高分辨率的視頻,作者還引入了一種新的調整技術:梯度法。

它主要修改模型的采樣過程,使用基于梯度的優(yōu)化來改善去噪數據的條件損失,將模型自回歸擴展到更多的時間步(timestep)和更高的分辨率。

評估無條件和文本條件下的生成效果

對于無條件視頻生成,訓練和評估在現有基準上進行。

該模型最終獲得了最高的FID分數和IS分數,大大超越了此前的SOTA模型。

對于文本條件下的視頻生成,作者在1000萬個字幕視頻的數據集上進行了訓練,空間分辨率為64x64px;

在此之前,視頻生成模型采用的都是各種GAN、VAE,以及基于流的模型以及自回歸模型。

所以這也是他們首次報告擴散模型根據文本生成視頻的結果。

下圖則顯示了無分類器引導對該模型生成質量的影響:與其他非擴散模型一致,添加引導會增加每個單獨圖像的保真度(右為該視頻擴散模型,可以看到它的圖片更加真實和清晰)。

△ 圖片為隨機截取的視頻幀

最后,作者也驗證發(fā)現,他們所提出的梯度法在生成長視頻時,確實比此前的方法更具多樣性,也就更能保證生成的樣本與文本達成一致。

△ 右為梯度法

論文地址:https://arxiv.org/abs/2204.03458

項目主頁:https://video-diffusion.github.io/

責任編輯:張燕妮 來源: 量子位
相關推薦

2022-05-26 13:57:00

AI數據庫SOTA

2022-12-19 14:46:53

視頻方法

2009-07-29 08:11:57

雅虎微軟合作wangluo

2019-12-01 16:05:00

NvidiaInter英特爾

2020-09-15 15:45:38

Visual Stud數據IDE

2023-06-27 09:53:11

論文AI

2021-12-30 10:11:38

模型人工智能深度學習

2024-06-12 11:54:21

2025-02-25 09:30:00

2015-09-29 14:31:06

安裝量目標Windows 10

2023-12-29 13:18:23

模型NeRFTICD

2022-12-25 12:57:00

模型自然學習

2023-10-16 12:31:17

人工智能數據

2024-02-26 08:25:00

模型訓練

2024-05-10 07:58:03

2024-03-27 10:20:31

模型場景

2025-04-16 09:20:00

虛擬模型數字

2021-07-19 18:00:50

ZoomFive9收購

2024-08-26 09:35:00

模型文生圖

2023-12-08 14:14:00

模型訓練
點贊
收藏

51CTO技術棧公眾號