偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

把腳本變成視頻,人工智能只需要一步

人工智能
來(lái)自Meta的一個(gè)機(jī)器學(xué)習(xí)工程師團(tuán)隊(duì)發(fā)布了一個(gè)名為Make-A-Video的新系統(tǒng)。顧名思義,這種人工智能模型允許用戶以文本方式輸入一個(gè)場(chǎng)景的粗略描述,它將快速生成與文本匹配的短視頻。這些視頻雖然主題模糊,動(dòng)畫失真,但仍然代表著人工智能內(nèi)容生成領(lǐng)域的重大發(fā)展。

Meta在一篇宣布這項(xiàng)工作的博客文章中表示:“生成式人工智能研究為人們提供了快速、輕松創(chuàng)建新內(nèi)容的工具,從而推動(dòng)了創(chuàng)造性表達(dá)的發(fā)展。只需幾句話或幾行文字,Make-A-Video就能將想象力賦予生命,創(chuàng)造出獨(dú)一無(wú)二的充滿生動(dòng)色彩和風(fēng)景的視頻?!?/span>

Meta首席執(zhí)行官馬克·扎克伯格在Facebook上稱這項(xiàng)工作是“驚人的進(jìn)步”,并補(bǔ)充說(shuō):“生成視頻比生成照片要困難得多,因?yàn)槌苏_生成每個(gè)像素外,系統(tǒng)還必須預(yù)測(cè)它們將如何隨時(shí)間變化?!?/span>

這些視頻不超過(guò)5秒,不包含任何音頻,但包含了大量的提示。判斷模型性能的最佳方法是觀察它的輸出。不過(guò)目前不允許任何人訪問(wèn)模型。這意味著這些片段可能是研發(fā)人員精心挑選出來(lái)的,以最好的方式展示這個(gè)系統(tǒng)。

同樣,雖然這些視頻顯然是計(jì)算機(jī)生成的,但這種人工智能模型的輸出在不久的將來(lái)將迅速提高。相比之下,在短短幾年的時(shí)間里,人工智能圖像生成器已經(jīng)從創(chuàng)造難以理解的邊緣圖片發(fā)展到逼真的內(nèi)容。盡管視頻的進(jìn)展可能會(huì)因?yàn)檫@一主題的近乎無(wú)限的復(fù)雜性而緩慢,但無(wú)縫視頻生成的價(jià)值將激勵(lì)許多機(jī)構(gòu)和公司向該項(xiàng)目投入大量資源。

與文本到圖像模型一樣,有可能也會(huì)產(chǎn)生有害的應(yīng)用。

Meta在宣布Make-a-Video的博客中指出,視頻生成工具“對(duì)創(chuàng)作者和藝術(shù)家”來(lái)說(shuō)可能是無(wú)價(jià)的。但是,就像從文本到圖像的模式一樣,前景也令人擔(dān)憂。這些工具的輸出可能被用于虛假信息、宣傳。

Meta表示,它希望“對(duì)如何構(gòu)建這樣的生成式AI系統(tǒng)進(jìn)行深思熟慮”,目前只發(fā)表了一篇關(guān)于Make-A-Video模型的論文。該公司表示,計(jì)劃發(fā)布該系統(tǒng)的演示版本,但沒有說(shuō)明何時(shí)或如何限制對(duì)該模型的訪問(wèn)。

值得一提的是,Meta并不是唯一一家致力于AI視頻生成器的機(jī)構(gòu)。今年早些時(shí)候,清華大學(xué)和北京人工智能研究院(BAAI)的一組研究人員發(fā)布了他們自己的文本到視頻模型,命名為CogVideo。

Meta的研究人員在一篇描述該模型的論文中指出,Make-A-Video正在對(duì)成對(duì)的圖像和標(biāo)題以及未標(biāo)記的視頻片段進(jìn)行訓(xùn)練。培訓(xùn)內(nèi)容來(lái)自兩個(gè)數(shù)據(jù)集(WebVid-10M和HD-VILA-100M),這兩個(gè)數(shù)據(jù)集總共包含了數(shù)百萬(wàn)個(gè)視頻,跨越數(shù)十萬(wàn)小時(shí)的鏡頭。這包括由Shutterstock等網(wǎng)站創(chuàng)建并從網(wǎng)上抓取的庫(kù)存視頻片段。

研究人員在論文中指出,除了模糊的鏡頭和不連貫的動(dòng)畫外,該模型還有許多技術(shù)局限性。例如,它們的訓(xùn)練方法無(wú)法學(xué)習(xí)可能只有人類觀看視頻時(shí)才能推斷出的信息——例如,一個(gè)揮手的視頻是從左向右還是從右向左。其他問(wèn)題包括生成超過(guò)5秒的視頻,包含多個(gè)場(chǎng)景和事件的視頻,以及更高的分辨率。Make-A-Video目前輸出16幀分辨率為64 * 64像素的視頻,然后使用單獨(dú)的人工智能模型將其尺寸提高到768 * 768。

Meta的團(tuán)隊(duì)還指出,就像所有使用從網(wǎng)絡(luò)上抓取的數(shù)據(jù)訓(xùn)練的人工智能模型一樣,Make-A-Video學(xué)習(xí)并可能夸大了社會(huì)偏見,包括有害的偏見。在文本到圖像的模型中,這些偏見通常會(huì)強(qiáng)化社會(huì)偏見。例如,讓一個(gè)生成一個(gè)“恐怖分子”的圖像,它很可能描繪的是一個(gè)戴著頭巾的人。然而,在沒有開放訪問(wèn)的情況下,很難說(shuō)Meta的模型學(xué)習(xí)到了什么偏見。

Meta表示,該公司“正在與技術(shù)社區(qū)公開分享這種生成式AI研究和結(jié)果,以獲得他們的反饋,并將繼續(xù)使用我們負(fù)責(zé)任的AI框架來(lái)完善和發(fā)展我們對(duì)這種新興技術(shù)的方法?!?/span>

隨著繪畫和視頻領(lǐng)域人工智能生成器逐漸火熱,相信很快(也許已經(jīng))就會(huì)出現(xiàn)其他藝術(shù)(比如音樂)的人工智能生成工具了。

責(zé)任編輯:華軒 來(lái)源: Ai時(shí)代前沿
相關(guān)推薦

2018-08-01 09:22:29

人工智能機(jī)器學(xué)習(xí)機(jī)器人

2022-01-18 11:23:21

人工智能機(jī)器學(xué)習(xí)

2021-09-07 10:06:00

人工智能機(jī)器學(xué)習(xí)技術(shù)

2022-02-19 23:05:19

人工智能算法核聚變

2020-10-09 10:05:00

智能

2017-03-19 15:44:25

卷積神經(jīng)網(wǎng)絡(luò)

2021-07-13 08:14:27

色彩用色類型輔助色

2020-06-30 08:45:00

人工智能醫(yī)療技術(shù)

2023-12-15 11:42:49

人工智能機(jī)器人AI

2020-10-04 11:15:29

人工智能

2022-05-26 21:30:37

人工智能AI

2025-05-29 08:19:49

2022-10-09 14:38:22

人工智能直播安全

2021-01-10 23:46:19

人工智能機(jī)器人科技

2021-01-11 14:07:27

人工智能生物安全智慧城市

2016-10-14 14:21:40

2017-11-20 11:17:52

2018-08-03 12:21:02

2021-10-09 21:00:15

人工智能AI

2021-10-20 22:28:02

人工智能開發(fā)系統(tǒng)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)