偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

一句話讓小姐姐為我換了N套衣服,谷歌卷出視頻生成新高度,網(wǎng)友:競(jìng)賽加碼

人工智能 新聞
Lumiere的創(chuàng)新點(diǎn)在于,提出了時(shí)空U-Net(STU-Net)架構(gòu):將視頻在空間和時(shí)間兩個(gè)維度同時(shí)進(jìn)行下采樣和上采樣,在網(wǎng)絡(luò)的中間層得到視頻的壓縮時(shí)空表示。

谷歌一出手,又把AI視頻生成卷上了新高度。

一句話生成視頻,現(xiàn)在在名為Lumiere的AI操刀下,可以是醬嬸的:

圖片

△“陽(yáng)光明媚,帆船在湖中航行”

如此一致性和質(zhì)量,再次點(diǎn)燃了網(wǎng)友們對(duì)AI視頻生成的熱情:谷歌加入戰(zhàn)局,又有好戲可看了。

圖片

不止是文生視頻,Lumiere把Pika的“一鍵換裝”也復(fù)現(xiàn)了出來(lái)。

圖片

左谷歌右pika,同樣是選中區(qū)域一句話完成視頻編輯,你pick哪一邊?

讓圖片中靜止的火焰躍動(dòng)起來(lái),也同樣一選就能完成:

圖片

還有圖片轉(zhuǎn)視頻:

圖片

視頻風(fēng)格化:

圖片

總之就是主打一個(gè)質(zhì)量又高又全能。

更多細(xì)節(jié),我們論文扒起~

用于視頻生成的時(shí)空擴(kuò)散模型

Lumiere旨在解決以往視頻生成中存在的幾個(gè)關(guān)鍵問(wèn)題:

  • 真實(shí)性
  • 多樣化
  • 運(yùn)動(dòng)的連貫性

在此前的方法中,常見的做法是,擴(kuò)散模型先生成一些稀疏的關(guān)鍵幀,而后通過(guò)一系列時(shí)間超分辨率(TSR)模型來(lái)填補(bǔ)關(guān)鍵幀之間的空白,接著再用空間超分辨率模型獲取高清視頻結(jié)果。

可以想見,在全局連貫性上,這樣的做法存在先天的缺陷。

Lumiere的創(chuàng)新點(diǎn)在于,提出了時(shí)空U-Net(STU-Net)架構(gòu):將視頻在空間和時(shí)間兩個(gè)維度同時(shí)進(jìn)行下采樣和上采樣,在網(wǎng)絡(luò)的中間層得到視頻的壓縮時(shí)空表示。

圖片

具體來(lái)說(shuō),基于這一架構(gòu),模型能夠一次性生成視頻中的所有幀——這也就提升了生成視頻的連貫性。

同時(shí),因?yàn)榇蟛糠钟?jì)算發(fā)生在壓縮后的表示上,STU-Net能有效減少計(jì)算量,降低對(duì)計(jì)算和內(nèi)存的需求。

圖片

另外,為了提升視頻的分辨率,研究人員使用多重?cái)U(kuò)散(MultiDiffusion)技術(shù),通過(guò)線性加權(quán)空間超分辨率網(wǎng)絡(luò)來(lái)處理重疊時(shí)間窗口帶來(lái)的邊界偽影等問(wèn)題,從而能將生成畫面融合為一個(gè)整體,得到連貫、高清的視頻效果。

時(shí)長(zhǎng)和分辨率方面,Lumiere能輸出1024×1024、16fps下長(zhǎng)5秒的視頻。

研究人員提到:

5秒已經(jīng)超過(guò)了大多數(shù)視頻作品中的平均鏡頭長(zhǎng)度。

值得一提的是,得益于時(shí)空U-Net架構(gòu)端到端全幀率視頻生成的能力和高效計(jì)算,Lumiere靈活可擴(kuò)展,可以輕松應(yīng)用到下游任務(wù)中,包括文生視頻、圖生視頻、視頻風(fēng)格化、視頻編輯修復(fù)等等。

圖片

△視頻修復(fù)

實(shí)驗(yàn)結(jié)果

研究人員將Lumiere與其他文本-視頻生成模型進(jìn)行了實(shí)驗(yàn)對(duì)比。

首先來(lái)看人類用戶的判斷。

圖片

實(shí)驗(yàn)設(shè)計(jì)是這樣的:志愿者會(huì)同時(shí)看到一對(duì)視頻,一個(gè)來(lái)自Lumiere,另一個(gè)來(lái)自其他基線模型。志愿者被要求從中選出視覺質(zhì)量、動(dòng)態(tài)效果更好,更符合文本提示的視頻。

圖片

研究人員收集了大約400份反饋,結(jié)果顯示,在視頻質(zhì)量、文本匹配度方面,Lumiere超越了Pika、Gen2、Imagen Video、SVD等一眾頂級(jí)視頻生成模型。

同時(shí),在UCF101數(shù)據(jù)集(動(dòng)作識(shí)別數(shù)據(jù)集)上,與MagicVideo、Make-A-Video、SVD等模型相比,Lumiere取得了具有競(jìng)爭(zhēng)力的FVD和IS指標(biāo)。

圖片

網(wǎng)友:谷歌,模型呢?

效果很驚艷,網(wǎng)友很興奮,但橋豆麻袋……

這次,谷歌依然只放出了論文,沒有試玩,更沒有開源。

這種似曾相識(shí)的操作,把人快整麻了:

視頻很不錯(cuò),但是谷歌,你又不打算發(fā)布任何代碼、權(quán)重,也不提供API了,對(duì)嗎?

圖片

還有人想起了Gemini發(fā)布時(shí)那個(gè)造假的小藍(lán)鴨視頻……

圖片

那么,這波你還會(huì)看好谷歌嗎?

論文地址:https://arxiv.org/abs/2401.12945項(xiàng)目地址:
https://lumiere-video.github.io/#section_video_stylization

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2022-09-30 15:35:43

AI視頻

2024-01-11 12:45:12

AI訓(xùn)練

2023-05-08 15:44:23

3D數(shù)字人

2022-12-12 13:45:46

模型修圖

2015-08-03 10:21:04

設(shè)計(jì)模式表達(dá)

2020-11-27 09:57:11

Python代碼PyPy

2023-09-05 23:34:52

Kubernetes云原生

2023-03-20 10:01:57

人工智能模型

2023-12-13 21:50:59

騰訊AI模型

2023-02-06 10:48:48

谷歌

2014-12-16 08:58:17

甲骨文Oracle數(shù)據(jù)庫(kù)選件

2021-11-29 09:45:32

模型人工智能深度學(xué)習(xí)

2023-10-14 13:06:11

AI視頻

2010-03-29 11:55:12

無(wú)線上網(wǎng)報(bào)錯(cuò)

2023-11-03 11:03:10

AIGen-2

2023-10-27 16:53:50

Copilot AI微軟

2014-05-07 10:47:51

移動(dòng)金融互聯(lián)網(wǎng)金融GMIC

2020-12-16 10:43:44

PythonPyPy代碼

2018-01-15 10:45:43

社交網(wǎng)絡(luò)互聯(lián)網(wǎng)巨頭百度
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)