偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

無(wú)需文本標(biāo)注,TF-T2V把AI量產(chǎn)視頻的成本打下來(lái)了!華科阿里等聯(lián)合打造

人工智能 新聞
TF-T2V 方案為視頻生成領(lǐng)域帶來(lái)了新思路,克服了數(shù)據(jù)集規(guī)模和標(biāo)注難題帶來(lái)的挑戰(zhàn)。

在過(guò)去短短兩年內(nèi),隨著諸如 LAION-5B 等大規(guī)模圖文數(shù)據(jù)集的開(kāi)放,Stable Diffusion、DALL-E 2、ControlNet、Composer ,效果驚人的圖片生成方法層出不窮。圖片生成領(lǐng)域可謂狂飆突進(jìn)。

然而,與圖片生成相比,視頻生成仍存在巨大挑戰(zhàn)。首先,視頻生成需要處理更高維度的數(shù)據(jù),考慮額外時(shí)間維度帶來(lái)的時(shí)序建模問(wèn)題,因此需要更多的視頻 - 文本對(duì)數(shù)據(jù)來(lái)驅(qū)動(dòng)時(shí)序動(dòng)態(tài)的學(xué)習(xí)。然而,對(duì)視頻進(jìn)行準(zhǔn)確的時(shí)序標(biāo)注非常昂貴。這限制了視頻 - 文本數(shù)據(jù)集的規(guī)模,如現(xiàn)有 WebVid10M 視頻數(shù)據(jù)集包含 10.7M 視頻 - 文本對(duì),與 LAION-5B 圖片數(shù)據(jù)集在數(shù)據(jù)規(guī)模上相差甚遠(yuǎn),嚴(yán)重制約了視頻生成模型規(guī)?;臄U(kuò)展。

為解決上述問(wèn)題,華中科技大學(xué)、阿里巴巴集團(tuán)、浙江大學(xué)和螞蟻集團(tuán)聯(lián)合研究團(tuán)隊(duì)于近期發(fā)布了 TF-T2V 視頻方案:

圖片


論文地址:https://arxiv.org/abs/2312.15770

項(xiàng)目主頁(yè):https://tf-t2v.github.io/

即將開(kāi)源代碼地址:https://github.com/ali-vilab/i2vgen-xl (VGen 項(xiàng)目)

該方案另辟蹊徑,提出了基于大規(guī)模無(wú)文本標(biāo)注視頻數(shù)據(jù)進(jìn)行視頻生成,能夠?qū)W習(xí)豐富的運(yùn)動(dòng)動(dòng)態(tài)。

先來(lái)看看 TF-T2V 的視頻生成效果:

文生視頻任務(wù)

提示詞:生成在冰雪覆蓋的土地上有一只冰霜般的大生物的視頻。

圖片

提示詞:生成一只卡通蜜蜂的動(dòng)畫(huà)視頻。

圖片

提示詞:生成包含一輛未來(lái)幻想摩托車的視頻。

圖片

提示詞:生成一個(gè)小男孩快樂(lè)微笑的視頻。

圖片

提示詞:生成一個(gè)老人感覺(jué)頭疼的視頻。

圖片

組合式視頻生成任務(wù)

給定文本與深度圖或者文本與素描草圖,TF-T2V 能夠進(jìn)行可控的視頻生成:

圖片

也可以進(jìn)行高分辨率視頻合成:

圖片

圖片


圖片

半監(jiān)督設(shè)定

在半監(jiān)督設(shè)定下的 TF-T2V 方法還可以生成符合運(yùn)動(dòng)文本描述的視頻,如 「人從右往左跑」。

圖片

圖片

方法簡(jiǎn)介

TF-T2V 的核心思想是將模型分為運(yùn)動(dòng)分支和表觀分支,運(yùn)動(dòng)分支用于建模運(yùn)動(dòng)動(dòng)態(tài),表觀分支用于學(xué)習(xí)視覺(jué)表觀信息。這兩個(gè)分支進(jìn)行聯(lián)合訓(xùn)練,最終可以實(shí)現(xiàn)通過(guò)文本驅(qū)動(dòng)視頻生成。

為了提升生成視頻的時(shí)序一致性,作者團(tuán)隊(duì)還提出了一種時(shí)序一致性損失,顯式地學(xué)習(xí)視頻幀之間的連續(xù)性。

圖片

值得一提的是,TF-T2V 是一種通用的框架,不僅適用于文生視頻任務(wù),還能應(yīng)用于組合式視頻生成任務(wù),如 sketch-to-video、video inpainting、first frame-to-video 等。

具體細(xì)節(jié)和更多實(shí)驗(yàn)結(jié)果可以參考原論文或者項(xiàng)目主頁(yè)。

此外,作者團(tuán)隊(duì)還把 TF-T2V 作為教師模型,利用一致性蒸餾技術(shù)得到了 VideoLCM 模型: 

圖片

論文地址:https://arxiv.org/abs/2312.09109

項(xiàng)目主頁(yè):https://tf-t2v.github.io/

即將開(kāi)源代碼地址:https://github.com/ali-vilab/i2vgen-xl (VGen 項(xiàng)目)

不同于之前視頻生成方法需要大約 50 步 DDIM 去噪步驟,基于 TF-T2V 的 VideoLCM 方法可以只需要進(jìn)行大約 4 步推理去噪就生成高保真的視頻,極大地提升了視頻生成的效率。

一起來(lái)看看 VideoLCM 進(jìn)行 4 步去噪推理的結(jié)果:

圖片

圖片

圖片

具體細(xì)節(jié)和更多實(shí)驗(yàn)結(jié)果可以參考 VideoLCM 原論文或者項(xiàng)目主頁(yè)。

總而言之,TF-T2V 方案為視頻生成領(lǐng)域帶來(lái)了新思路,克服了數(shù)據(jù)集規(guī)模和標(biāo)注難題帶來(lái)的挑戰(zhàn)。利用大規(guī)模的無(wú)文本標(biāo)注視頻數(shù)據(jù),TF-T2V 能夠生成高質(zhì)量的視頻,并應(yīng)用于多種視頻生成任務(wù)。這一創(chuàng)新將推動(dòng)視頻生成技術(shù)的發(fā)展,為各行各業(yè)帶來(lái)更廣闊的應(yīng)用場(chǎng)景和商業(yè)機(jī)會(huì)。

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2023-11-24 12:11:35

2022-11-09 17:12:38

AI模型

2024-02-28 11:37:53

英偉達(dá)AI

2023-06-20 13:38:22

2022-12-29 08:17:57

AIAI人工標(biāo)注ChatGPT

2015-10-10 08:38:34

清華平安校園華科鴻泰華為

2023-11-01 13:15:13

單點(diǎn)端識(shí)別框架

2024-02-20 08:46:54

2023-01-04 12:47:05

AI

2023-06-26 12:49:25

2021-12-24 10:52:03

微軟操作系統(tǒng)Windows

2017-09-28 13:30:55

阿里巴巴

2025-04-15 06:41:41

2011-07-12 09:22:54

諾基亞聯(lián)發(fā)科HTC

2023-06-16 14:11:00

研究監(jiān)督

2025-06-26 11:32:24

ClaudeAI編程工具

2015-04-17 15:23:10

互動(dòng)百科

2025-03-19 10:41:11

2020-12-28 10:06:18

科華恒盛數(shù)據(jù)中心IDC

2016-02-15 11:42:20

華為
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)