偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

一句話生成視頻AI爆火!Meta最新SOTA模型讓網(wǎng)友大受震撼

人工智能 新聞
Meta新模型Make-A-Video,可以從文本一鍵生成視頻了!AI的進(jìn)展太神了……

給你一段話,讓你做個視頻,你能行嗎?

Meta表示,我可以啊。

你沒聽錯:使用AI,你也可以變成電影人了!

近日,Meta推出了新的AI模型,名字起得也是非常直接:做個視頻(Make-A-Video)。

這個模型強大到什么程度?

一句話,就能實現(xiàn)「三馬奔騰」的場景。

圖片

就連LeCun都說,該來的總是會來的。

圖片

視覺效果超炫

話不多說,咱們直接看效果。

倆袋鼠在廚房忙著做飯(做出來能不能吃另說)

圖片

近景:畫師在畫布上作畫

圖片

大雨中漫步的二人世界(步伐整齊劃一)

圖片

馬在喝水

圖片

芭蕾舞女孩在摩天大樓跳舞

圖片

美麗的夏日熱帶海灘上,一只金毛在吃冰激凌(爪子已進(jìn)化)

圖片

貓主子拿著遙控器在看電視(爪子已進(jìn)化)

圖片

一只泰迪熊給自己畫自畫像

圖片

意料之外但情理之中的是,狗拿冰淇淋、貓拿遙控器以及泰迪熊畫畫的「手」,果然都「進(jìn)化」得和人一樣?。。☉?zhàn)術(shù)后仰)

當(dāng)然,Make-A-Video除了可以把文本變成視頻之外,也可以把靜態(tài)圖變成Gif。

輸入:

圖片

輸出:

圖片

輸入:

圖片

輸出:(亮的似乎有點不是地方)

圖片

2張靜圖變GIF,輸入隕石圖

圖片

輸出:

圖片

以及,把視頻,變成視頻?

輸入:

圖片

輸出:

圖片

輸入:

圖片

輸出:

圖片

技術(shù)原理

今天,Meta放出了自己的最新研究MAKE-A-VIDEO: TEXT-TO-VIDEO GENERATION WITHOUT TEXT-VIDEO DATA。

圖片

論文地址:https://makeavideo.studio/Make-A-Video.pdf

在這個模型出現(xiàn)之前,我們已經(jīng)有了Stable Diffusion。

聰明的科學(xué)家已經(jīng)讓AI用一句話生成圖像了,下一步他們會做什么呢?

很顯然,是生成視頻。

圖片

一只穿著紅色斗篷的超級英雄狗在天空中飛翔

比起生成圖像來,生成視頻可難多了。我們不僅需要生成相同主題和場景的多個幀,還必須讓它們及時、連貫。

這就增加了圖像生成任務(wù)的復(fù)雜性——我們不可能就簡單地使用DALLE生成60張圖像,然后把它們拼成一個視頻。它的效果會很差,很不真實。

因此,我們需要一個能夠以更強大的方式理解世界的模型,并且讓它按照這種理解水平來生成一系列連貫的圖像。只有這樣,這些圖像才可以天衣無縫地融合在一起。

也就是說,我們的訴求是模擬一個世界,然后再模擬它的記錄。該怎么做到呢?

圖片

按照以前的思路,研究人員會用大量的文本-視頻對來訓(xùn)練模型,但在現(xiàn)在的這種情況下,這種處理方法并不現(xiàn)實。因為這些數(shù)據(jù)很難獲得,并且訓(xùn)練成本非常昂貴。

因此,研究人員開了腦洞,采用了一種全新的方式。

他們選擇開發(fā)一個文本到圖像的模型,然后把它應(yīng)用于視頻。

巧了,前段時間,Meta就曾開發(fā)過這么一個從文本到圖像的模型Make-A-Scene。

圖片

Make-A-Scene的方法概述

這個模型產(chǎn)生的契機是,Meta希望推動創(chuàng)意表達(dá),將這種文本到圖像的趨勢與以前的草圖到圖像模型相結(jié)合,從而產(chǎn)生文本和以草圖為條件的圖像生成之間的奇妙融合。

這意味著我們可以快速勾勒出一只貓,寫出自己想要什么樣的圖像。遵循草圖和文本的指導(dǎo),這個模型會在幾秒鐘內(nèi),生成我們想要的完美插圖。

圖片

你可以把這種多模態(tài)生成AI方法看作是一個對生成有更多控制的Dall-E模型,因為它還可以將快速草圖作為輸入。

之所以稱它為多模態(tài),是因為它可以將多種模態(tài)作為輸入,比如文本和圖像。相比之下,Dall-E只能從文本生成圖像。

為了生成視頻,就需要加入時間的維度,因此研究人員在Make-A-Scene模型中添加了時空管道。

圖片

加入時間維度后,這個模型就不是只生成一張圖片,而是生成16張低分辨率的圖片,以創(chuàng)建一個連貫的短視頻。

這個方法其實與文本到圖像模型類似,但不同之處在于:在常規(guī)的二維卷積的基礎(chǔ)上,它增加一維卷積。

圖片

只是簡單地增加了一維卷積,研究人員就能保持預(yù)先訓(xùn)練的二維卷積不變的同時,增加一個時間維度。然后,研究人員就可以從頭開始訓(xùn)練,重新使用Make-A-Scene圖像模型的大部分代碼和參數(shù)。

圖片

同時,研究人員還想用文本輸入來指導(dǎo)這個模型,這將與使用CLIP嵌入的圖像模型非常相似。

在這種情況下,研究人員是在將文本特征與圖像特征混合時,增加空間維度,方法同上:保留Make-A-Scene模型中的注意力模塊,并為時間增加一個一維注意力模塊——復(fù)制粘貼圖像生成器模型,為多一個維度重復(fù)生成模塊,來獲得16個初始幀。

圖片

但是只靠這16個初始幀,還不能生成視頻。

研究人員需要從這16個主幀中,制作一個高清晰度的視頻。他們采用的方法是:訪問之前和未來的幀,并同時在時間和空間維度上對它們進(jìn)行迭代插值。

就這樣,他們在這16個初始幀之間,根據(jù)前后的幀生成了新的、更大的幀,這樣就使運動變得連貫,整體視頻變得流暢了。

這是通過一個幀插值網(wǎng)絡(luò)完成的,它可以采取已有的圖像來填補空白,生成中間的信息。在空間維度上,它會做同樣的事情:放大圖像,填補像素的空白,使圖像更加高清。

圖片

總而言之,為了生成視頻,研究人員微調(diào)了一個文本到圖像的模型。他們采用了一個已經(jīng)訓(xùn)練好的強大模型,對它進(jìn)行調(diào)整和訓(xùn)練,讓它適應(yīng)視頻。

因為添加了空間和時間模塊,只要簡單地讓模型適應(yīng)這些新數(shù)據(jù)就可以了,而不必重新訓(xùn)練它,這就節(jié)省了大量的成本。

這種重新訓(xùn)練使用的是未標(biāo)記的視頻,只需要教模型理解視頻和視頻幀的一致性就可以了,這就可以更簡單地建立數(shù)據(jù)集。

最后,研究人員再次使用了圖像優(yōu)化模型,提高了空間分辨率,并使用了幀插值組件增加了更多的幀,使視頻變得流暢。

當(dāng)然,目前Make-A-Video的結(jié)果還存在缺點,就如同文本到圖像的模型一樣。但我們都知道,AI領(lǐng)域的進(jìn)展是多么神速。

圖片

如果你想進(jìn)一步了解,可以參考鏈接中Meta AI的論文。社區(qū)也正在開發(fā)一個PyTorch的實現(xiàn),如果你想自己實現(xiàn)它,請繼續(xù)關(guān)注。

圖片

作者介紹

這篇論文中有多位華人研究人員參與:殷希、安捷、張宋揚、Qiyuan Hu。

殷希,F(xiàn)AIR研究科學(xué)家。此前曾供職微軟,任Microsoft Cloud and AI 的高級應(yīng)用科學(xué)家。在密歇根州立大學(xué)計算機科學(xué)與工程系獲博士學(xué)位,2013年畢業(yè)于武漢大學(xué)電氣工程專業(yè),獲學(xué)士學(xué)位。主要研究領(lǐng)域為多模態(tài)理解、大規(guī)模目標(biāo)檢測、人臉推理等。

安捷,羅切斯特大學(xué)計算機科學(xué)系博士生。師從羅杰波教授。此前于 2016 年和 2019 年在北京大學(xué)獲得學(xué)士和碩士學(xué)位。研究興趣包括計算機視覺、深度生成模型和AI+藝術(shù)。作為實習(xí)生參與了Make-A-Video研究。

張宋揚,羅切斯特大學(xué)計算機科學(xué)系博士生,師從羅杰波教授。在東南大學(xué)獲得學(xué)士學(xué)位,在浙江大學(xué)獲得碩士學(xué)位。研究興趣包括自然語言矩定位、無監(jiān)督語法歸納、基于骨架的動作識別等。作為實習(xí)生參與了Make-A-Video研究。

Qiyuan Hu,時任FAIR的AI Resident,從事提高人類創(chuàng)造力的多模態(tài)生成模型的研究。她在芝加哥大學(xué)獲得醫(yī)學(xué)物理學(xué)博士學(xué)位,曾從事AI輔助的醫(yī)學(xué)圖像分析工作?,F(xiàn)已供職Tempus Labs,任機器學(xué)習(xí)科學(xué)家。

網(wǎng)友大受震撼

前段時間,谷歌等大廠紛紛放出自家的文本到圖像模型,如Parti,等等。

有人甚至認(rèn)為文本到視頻生成模型還有一段時間才能到來。

沒想到,Meta這次投了一顆重磅炸彈。

其實,同在今天,還有一個文本到視頻生成模型Phenaki,目前已提交到ICLR 2023,由于還處于盲審階段,作者機構(gòu)還是未知。

圖片

網(wǎng)友稱,從DALLE到Stable Diffuson再到Make-A-Video,一切來得太快。

圖片

圖片

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2022-12-12 13:45:46

模型修圖

2023-08-04 17:33:27

Meta音頻AI

2024-01-11 12:45:12

AI訓(xùn)練

2023-06-09 08:35:54

2023-05-08 15:44:23

3D數(shù)字人

2021-11-29 09:45:32

模型人工智能深度學(xué)習(xí)

2024-02-08 09:33:37

蘋果AI

2020-11-27 09:57:11

Python代碼PyPy

2015-08-03 10:21:04

設(shè)計模式表達(dá)

2025-03-17 08:55:00

AI開源模型

2025-06-11 09:10:00

2023-09-05 23:34:52

Kubernetes云原生

2019-09-05 10:13:28

2024-01-06 17:12:44

視頻AI

2023-12-13 21:50:59

騰訊AI模型

2025-05-12 01:22:00

2022-11-01 09:26:55

模型三維

2010-03-29 11:55:12

無線上網(wǎng)報錯

2023-02-06 10:48:48

谷歌
點贊
收藏

51CTO技術(shù)棧公眾號