偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Adobe實習(xí)生的智能景深算法:2D圖片3秒變立體,變換視角流暢自然

新聞 人工智能 算法
2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登頂級期刊。這種特效處理,常常用于紀(jì)錄片等視頻的后期制作,名為Ken Burns Effect。

   [[276909]]

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

你離礁石越來越近,仿佛還有一秒就要觸礁了。

不過這張動圖,并不是從人類拍攝的視頻里截下來的。

是Adobe放出的新魔法,把這張靜態(tài)照片變出了立體感,整個過程只需要2-3秒:

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

這種特效處理,常常用于紀(jì)錄片等視頻的后期制作,名為Ken Burns Effect。

原本只是2D縮放 (下圖左) ,通過對靜止圖像的平移和縮放,來產(chǎn)生視差,從而實現(xiàn)動畫效果。

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

但Adobe這種3D效果 (上圖右) ,不僅有平移和縮放,還有視角轉(zhuǎn)換,給人更沉浸的體驗。

想要實現(xiàn),需要專業(yè)的設(shè)計師在Photoshop等軟件中花費數(shù)個小時時間。

而且制作成本也很高,一張照片大概需要40-50美元 (約合人民幣280-350元) 。

Adobe也登上了ACM主辦的計算機(jī)圖形學(xué)頂級期刊TOG,引發(fā)了大量討論與關(guān)注。不乏有激動的網(wǎng)友給出“三連”:

Incredible. Amazing. Holy shit.

完全不是簡單的縮放

透視原理決定,前景比背景的移動/縮放更劇烈。

所以,前景移動的時候,背景除了移動,也要跟著修復(fù)。

AI的背景修復(fù)十分自然,手法明顯比“前輩”更高超:

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

△形狀有點奇怪的教堂

并且,不論背景簡單復(fù)雜,AI都不怕。

比如,走到沙發(fā)跟前,沙發(fā)就擋住了后面窗戶外的草地:

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

背景的色彩和結(jié)構(gòu)都很復(fù)雜,但AI并沒有蒙蔽。

如果你覺得,剛才的視角變化只是由遠(yuǎn)及近,不夠復(fù)雜。那就看一眼這古老的臺階吧:

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

仿佛你打算走上臺階,所以正在朝著它的方向,慢慢轉(zhuǎn)身。

除此之外,一條古老的走廊,你置身其中,好像正在從上仰的視角,變得平視前方。

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

當(dāng)然,不只是風(fēng)景,人像也可以處理。

比如,草地上的新娘,可以遠(yuǎn)觀,也可以近距離欣賞:

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

就像開頭說的那樣,所有的變換,只靠一張靜態(tài)圖來完成。

這自然不是普通的縮放可以做到的:

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

△ 左為普通縮放,右為3D魔法

所以,究竟是怎樣的技術(shù)做到的?

三步定邊界,結(jié)合上下文感知

用單個圖像合成逼真的相機(jī)移動的效果要解決兩個基本問題。

首先,要設(shè)置一個新的相機(jī)位置,合成新視圖,并且需要準(zhǔn)確地恢復(fù)原始視圖的場景幾何結(jié)構(gòu)。

其次,根據(jù)預(yù)測的場景幾何結(jié)構(gòu),要將新視圖在連續(xù)的時間線上合成,這就涉及到去遮擋這樣的圖像修復(fù)手段。

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

研究人員們用了三個神經(jīng)網(wǎng)絡(luò)來構(gòu)建處理框架。

用以訓(xùn)練的數(shù)據(jù)集是用計算機(jī)生成的。研究人員從UE4 Marketplace2收集了32種虛擬環(huán)境,用虛擬攝像機(jī)在32個環(huán)境中捕獲了134041個場景,包括室內(nèi)場景,城市場景,鄉(xiāng)村場景和自然場景。每個場景包含4個視圖,每個視圖都包含分辨率為512×512像素的顏色、深度和法線貼圖。

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

指定一張高分辨率圖像,首先根據(jù)其低分辨率版本估計粗糙深度。這一步由VGG-19來實現(xiàn),根據(jù)VGG-19提取的語義信息指導(dǎo)深度估計網(wǎng)絡(luò)的訓(xùn)練,并用具有g(shù)round truth的計算機(jī)合成數(shù)據(jù)集進(jìn)行監(jiān)督。如此,就能提取出原始圖像的深度圖。

第二個網(wǎng)絡(luò),是Mask R-CNN。為了避免語義失真,平行于VGG-19,用Mask R-CNN對輸入的高分辨率圖像進(jìn)行分割,而后用分割的結(jié)果來對深度圖進(jìn)行調(diào)整,以確保圖中的每個對象都映射到一個相干平面上。

最后,利用深度細(xì)化網(wǎng)絡(luò),參考輸入的高分辨率圖像,對提取出的粗糙深度進(jìn)行上采樣,確保深度邊界更加精確。

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

之所以要采用深度細(xì)化網(wǎng)絡(luò),是因為裁切對象的過程中,對象很可能在邊界處被撕開。

有了從輸入圖像獲得的點云和深度圖(注:點云指通過3D掃描得到的物品外觀表面的點數(shù)據(jù)集合),就可以渲染連續(xù)的新視圖了。

不過,這里又會出現(xiàn)一個新的問題——當(dāng)虛擬攝像機(jī)向前移動的時候,對象本身會產(chǎn)生裂隙(下圖中高塔右側(cè)像被網(wǎng)格切開了)。

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

為了解決這個問題,研究人員采取了結(jié)合上下文感知修復(fù)的方法。

結(jié)合上下文信息能夠產(chǎn)生更高質(zhì)量的合成視圖。上下文信息劃定了相應(yīng)像素在輸入圖像中位置的鄰域,因此點云中的每個點都可以利用上下文信息來進(jìn)行擴(kuò)展。

具體而言,第一步,是進(jìn)行顏色和深度圖像修復(fù),以從不完整的渲染中恢復(fù)出完整的新視圖,其中每個像素都包含顏色,深度和上下文信息。

而后,利用圖像修復(fù)深度,將圖像修復(fù)顏色映射到點云中新的色調(diào)點。

重復(fù)這一過程,直到點云充分?jǐn)U展,填補(bǔ)空隙,可以實時地呈現(xiàn)完整且連續(xù)的畫面。

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

“用過都說好”

研究人員覺得好,那不算好。新方法效果如何,還是用戶說了算。

于是,研究團(tuán)隊搞出了一個“非正式用戶調(diào)研”。他們在YouTube上搜集了30個人類創(chuàng)造的3D Ken Burns視頻,將其分成“風(fēng)景”,“肖像”,“室內(nèi)”,“人造室外環(huán)境”四組,每組隨機(jī)抽取三個視頻作為樣本。

8位志愿者參與到了這個測試之中。團(tuán)隊為每個志愿者分配了一張靜態(tài)圖,并提供了人類作品作為參考,要求志愿者使用新方法和Adobe After Effects模板、移動App Viewmee這兩種Ken Burns制作工具創(chuàng)作類似的效果。

志愿者會依據(jù)自己的主觀意見評價每種工具的可用性和質(zhì)量。

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

在志愿者們看來,不論是從效果上,還是易用性上,Adobe的這個新工具顯然好得多。

來自Adobe的實習(xí)生(現(xiàn)已轉(zhuǎn)Google)

這項研究的第一作者,是一名波特蘭州立大學(xué)的博士生,名為Simon Niklaus,研究方向為計算機(jī)視覺與深度學(xué)習(xí)。

他在Adobe Research實習(xí)的時候完成了這項工作,目前他正在Google實習(xí)。

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

他的博士生導(dǎo)師,名為Feng Liu,博士畢業(yè)于威斯康辛大學(xué)麥迪遜分校,現(xiàn)在是波特蘭州立大學(xué)的助理教授,也是這一研究的做作者之一。

此外,這項研究還有另外兩名作者,分別是Long Mai和Jimei Yang,都是Adobe的研究科學(xué)家。

2D圖片3秒變立體,變換視角流暢自然:Adobe實習(xí)生成果登<span><span><span><i style=頂級期刊">

Simon Niklaus在Hacker News上與網(wǎng)友互動時也談到了研究的開源計劃。

他說,自己計劃公布代碼以及數(shù)據(jù)集,但還沒有得到批準(zhǔn)。因為這項工作是“實習(xí)生”完成的, Adobe在開源方面都比較大度。

當(dāng)然,這也無法排除他們商業(yè)化的可能性,如果你對這一研究感興趣,可以先看下研究論文:

3D Ken Burns Effect from a Single Image

https://arxiv.org/abs/1909.05483

One more thing……

關(guān)于Ken Burns Effect,也有一段喬布斯的往事。

為了將這一特效用到蘋果中,喬布斯還專程聯(lián)系了Ken Burns,希望能夠得到他的許可。

一開始,Burns是拒絕的,他不想自己的名字被商業(yè)化。

但后來,Burns透露,他同意了喬布斯的請求。

[[276910]]頂級期刊">

這中間到底發(fā)生了什么,也沒有太多信息傳遞出來。

現(xiàn)在,這一效應(yīng)在iPhone中應(yīng)用非常廣泛,比如照片的“回憶”功能,就能夠自動利用這一特效,把一張張照片制作成視頻。

這也給Burns帶來了很多“麻煩”。

他說,有時候自己走在街上,會有陌生人沖到他面前,說自己如何在iPhone上使用它,或者是問他問題。

對于這種情況,他說自己都是盡力快速逃離現(xiàn)場。跟明星遇上私生飯差不多。

emmm……

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2020-04-10 12:30:16

3D圖片代碼

2020-08-26 10:37:21

阿里3D

2012-11-19 13:53:42

職場Google實習(xí)生

2020-12-28 10:08:08

谷歌3D技術(shù)

2012-05-08 10:20:36

HTML5

2010-10-12 11:06:07

招聘

2013-06-07 09:59:40

Google實習(xí)面試

2014-01-07 09:23:41

項目管理

2022-07-13 10:20:14

自動駕駛3D算法

2020-03-06 10:34:40

AI 數(shù)據(jù)人工智能

2020-07-27 08:26:03

數(shù)據(jù)庫 SQL索引

2023-05-03 09:01:41

CanvasWebGL

2009-09-17 09:35:17

微軟實習(xí)生

2012-11-07 17:05:41

Google實習(xí)生

2013-11-26 14:15:43

2024-01-09 15:51:56

Rust開發(fā)Trait

2011-12-07 20:37:42

iOSAndroid谷歌

2021-05-20 19:56:08

泄露密碼數(shù)據(jù)泄露網(wǎng)絡(luò)攻擊

2015-04-14 15:05:35

Web前端開發(fā)騰訊暑期實習(xí)生

2009-03-13 08:58:04

AOL裁員實習(xí)
點贊
收藏

51CTO技術(shù)棧公眾號