偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過(guò)程

新聞 人工智能
僅僅根據(jù)兩張圖片,AI處理了一下,便能生成整個(gè)運(yùn)動(dòng)過(guò)程。

 本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

先給一張側(cè)臉(關(guān)鍵幀1):

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過(guò)程

再給一張正臉(關(guān)鍵幀2):

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過(guò)程

然后僅僅根據(jù)這兩張圖片,AI處理了一下,便能生成整個(gè)運(yùn)動(dòng)過(guò)程

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過(guò)程

而且不只是簡(jiǎn)單的那種,連在運(yùn)動(dòng)過(guò)程中的眨眼動(dòng)作也“照顧”得很到位。

效果一出,便在Reddit上引發(fā)了不少熱議:

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過(guò)程

僅需2個(gè)關(guān)鍵幀,如何實(shí)現(xiàn)完整運(yùn)動(dòng)?

不需要冗長(zhǎng)的訓(xùn)練過(guò)程。

不需要大量的訓(xùn)練數(shù)據(jù)集。

這是論文作者對(duì)本次工作提出的兩大亮點(diǎn)。

具體而言,這項(xiàng)工作就是基于關(guān)鍵幀將視頻風(fēng)格化。

先輸入一個(gè)視頻序列 I ,它由N個(gè)幀組織,每一幀都有一個(gè)掩膜Mi來(lái)劃分感興趣的區(qū)域。

與此前方法不同的是,這種風(fēng)格遷移是以隨機(jī)順序進(jìn)行的,不需要等待順序靠前的幀先完成風(fēng)格化,也不需要對(duì)來(lái)自不同關(guān)鍵幀的風(fēng)格化內(nèi)容進(jìn)行顯式合并。

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過(guò)程

也就是說(shuō),該方法實(shí)際上是一種翻譯過(guò)濾器,可以快速?gòu)膸讉€(gè)異構(gòu)的手繪示例 Sk 中學(xué)習(xí)風(fēng)格,并將其“翻譯”給視頻序列 I 中的任何一幀。

這個(gè)圖像轉(zhuǎn)換框架基于 U-net 實(shí)現(xiàn)。并且,研究人員采用基于圖像塊 (patch-based)的訓(xùn)練方式和抑制視頻閃爍的解決方案,解決了少樣本訓(xùn)練和時(shí)間一致性的問(wèn)題。

而為了避免過(guò)擬合,研究人員采用了基于圖像塊的訓(xùn)練策略。

從原始關(guān)鍵幀(Ik)中隨機(jī)抽取一組圖像塊(a),在網(wǎng)絡(luò)中生成它們的風(fēng)格化對(duì)應(yīng)塊(b)。

然后,計(jì)算這些風(fēng)格化對(duì)應(yīng)塊(b)相對(duì)于從風(fēng)格化關(guān)鍵幀(Sk)中取樣對(duì)應(yīng)圖像塊的損失,并對(duì)誤差進(jìn)行反向傳播。

這樣的訓(xùn)練方案不限于任何特定的損失函數(shù)。本項(xiàng)研究中,采用的是L1損失、對(duì)抗性損失和VGG損失的組合。

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過(guò)程

另一個(gè)問(wèn)題便是超參數(shù)的優(yōu)化。

這是因?yàn)椴划?dāng)?shù)某瑓?shù)可能會(huì)導(dǎo)致推理質(zhì)量低下。

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過(guò)程

研究人員使用網(wǎng)格搜索法,對(duì)超參數(shù)的4維空間進(jìn)行采樣:Wp——訓(xùn)練圖像塊的大?。籒b——一個(gè)batch中塊的數(shù)量;α——學(xué)習(xí)率;Nr——ResNet塊的數(shù)量。

對(duì)于每一個(gè)超參數(shù)設(shè)置:

(1)執(zhí)行給定時(shí)間訓(xùn)練;

(2)對(duì)不可見(jiàn)幀進(jìn)行推理;

(3)計(jì)算推理出的幀(O4)和真實(shí)值(GT4)之間的損失。

而目標(biāo)就是將這個(gè)損失最小化。

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過(guò)程

團(tuán)隊(duì)介紹

這項(xiàng)研究一作為Ondřej Texler,布拉格捷克理工大學(xué)計(jì)算機(jī)圖形與交互系的博士生。

[[397471]]

而除了此次的工作之外,先前他和團(tuán)隊(duì)也曾做過(guò)許多有意思的工作。

例如一邊畫(huà)著手繪畫(huà),一邊讓它動(dòng)起來(lái)。

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過(guò)程

再例如給一張卡通圖片,便可讓視頻中的你頂著這張圖“聲情并茂”。

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過(guò)程

想了解更多有趣的研究,可戳下方鏈接。

參考鏈接:

[1]https://www.reddit.com/r/MachineLearning/comments/n3b1m6/r_fewshot_patchbased_training_siggraph_2020_dr/
[2]https://ondrejtexler.github.io/patch-based_training/index.html

 

 

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2022-05-09 11:15:05

RocketMQPULL 模式PUSH 模式

2023-02-20 09:58:35

模型3D

2025-04-01 08:15:00

漏洞安全報(bào)告企業(yè)安全

2009-09-02 15:37:26

Windows 7Windows XP操作系統(tǒng)

2023-01-05 13:13:18

2025-06-12 02:55:00

數(shù)據(jù)指標(biāo)體系

2025-04-30 08:30:48

2025-02-11 10:48:08

2024-08-01 20:08:17

2015-10-12 17:55:26

云計(jì)算運(yùn)維運(yùn)維技能

2024-07-10 12:41:40

數(shù)據(jù)訓(xùn)練

2025-03-11 08:37:42

2022-08-19 14:46:16

視覺(jué)框架

2014-06-23 10:31:09

Android啟動(dòng)過(guò)程

2011-07-28 10:34:38

Cocoa 程序 啟動(dòng)

2011-09-05 17:35:18

MTK啟動(dòng)過(guò)程RTOS

2024-06-24 09:35:52

圖像代碼

2011-10-11 09:39:24

Web

2025-06-10 04:11:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)