偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

ICCV'23論文頒獎(jiǎng)“神仙打架”!Meta分割一切和ControlNet共同入選,還有一篇讓評(píng)委們很驚訝

人工智能 新聞
自開源以來(lái),ControlNet已經(jīng)在GitHub上攬獲24k星。無(wú)論是對(duì)擴(kuò)散模型、還是對(duì)整個(gè)計(jì)算機(jī)視覺領(lǐng)域而言,這篇論文獲獎(jiǎng)都可以說(shuō)是實(shí)至名歸。

剛剛,計(jì)算機(jī)視覺巔峰大會(huì)ICCV 2023,在法國(guó)巴黎正式“開獎(jiǎng)”!

今年的最佳論文獎(jiǎng),簡(jiǎn)直是“神仙打架”。

例如,獲得最佳論文獎(jiǎng)的兩篇論文中,就包括顛覆文生圖AI領(lǐng)域的著作——ControlNet。

自開源以來(lái),ControlNet已經(jīng)在GitHub上攬獲24k星。無(wú)論是對(duì)擴(kuò)散模型、還是對(duì)整個(gè)計(jì)算機(jī)視覺領(lǐng)域而言,這篇論文獲獎(jiǎng)都可以說(shuō)是實(shí)至名歸。

圖片

而最佳論文獎(jiǎng)榮譽(yù)提名,則頒給了另一篇同樣出名的論文,Meta的「分割一切」模型SAM。

自推出以來(lái),「分割一切」已經(jīng)成為了各種圖像分割A(yù)I模型的“標(biāo)桿”,包括后來(lái)居上的不少FastSAM、LISA、SegGPT,全部都是以它為參考基準(zhǔn)進(jìn)行效果測(cè)試。

圖片

論文提名都如此重量級(jí),這屆ICCV 2023競(jìng)爭(zhēng)有多激烈?

整體來(lái)看,ICCV 2023一共提交了8068篇論文,其中只有約四分之一、即2160篇論文被錄用。

其中近10%的論文來(lái)自中國(guó),除了高校以外也有不少產(chǎn)業(yè)機(jī)構(gòu)的身影,像商湯科技及聯(lián)合實(shí)驗(yàn)室有49篇論文入選ICCV 2023,曠視有14篇論文入選。

一起來(lái)看看這一屆ICCV 2023的獲獎(jiǎng)?wù)撐亩加心男?/p>

ControlNet獲ICCV最佳論文

首先來(lái)看看今年獲得最佳論文獎(jiǎng)(馬爾獎(jiǎng))的兩篇論文。

ICCV最佳論文又名馬爾獎(jiǎng)(Marr Prize),每?jī)赡暝u(píng)選一次,被譽(yù)為計(jì)算機(jī)視覺領(lǐng)域的最高榮譽(yù)之一。

這一獎(jiǎng)項(xiàng)因計(jì)算機(jī)視覺之父、計(jì)算機(jī)視覺先驅(qū)、計(jì)算神經(jīng)科學(xué)的創(chuàng)始人David Courtnay Marr(大衛(wèi)·馬爾)而得名。

第一篇最佳論文獎(jiǎng)「Adding Conditional Control to Text-to-Image Diffusion Models」,來(lái)自斯坦福。

這篇論文提出了一種名叫ControlNet的模型,只需給預(yù)訓(xùn)練擴(kuò)散模型增加一個(gè)額外的輸入,就能控制它生成的細(xì)節(jié)。

這里的輸入可以是各種類型,包括草圖、邊緣圖像、語(yǔ)義分割圖像、人體關(guān)鍵點(diǎn)特征、霍夫變換檢測(cè)直線、深度圖、人體骨骼等,所謂的“AI會(huì)畫手”了,核心技術(shù)正是來(lái)自于這篇文章。

圖片

它的思路和架構(gòu)如下:

ControlNet先復(fù)制一遍擴(kuò)散模型的權(quán)重,得到一個(gè)“可訓(xùn)練副本”(trainable copy)。

相比之下,原擴(kuò)散模型經(jīng)過幾十億張圖片的預(yù)訓(xùn)練,因此參數(shù)是被“鎖定”的。而這個(gè)“可訓(xùn)練副本”只需要在特定任務(wù)的小數(shù)據(jù)集上訓(xùn)練,就能學(xué)會(huì)條件控制。

即使數(shù)據(jù)量很少(不超過5萬(wàn)張圖片),模型經(jīng)過訓(xùn)練后條件控制生成的效果也很好。

“鎖定模型”和“可訓(xùn)練副本”通過一個(gè)1×1的卷積層連接,名叫“0卷積層”。0卷積層的權(quán)重和偏置初始化為0,這樣在訓(xùn)練時(shí)速度會(huì)非???,接近微調(diào)擴(kuò)散模型的速度,甚至在個(gè)人設(shè)備上訓(xùn)練也可以。

圖片

例如一塊英偉達(dá)RTX 3090TI,用20萬(wàn)張圖像數(shù)據(jù)訓(xùn)練的話只需要不到一個(gè)星期。

ControlNet論文的第一作者Lvmin Zhang,目前是斯坦福博士生,除了ControlNet以外,包括Style2Paints、以及Fooocus等著名作品也出自他之手。

論文地址:https://arxiv.org/abs/2302.05543

第二篇論文「Passive Ultra-Wideband Single-Photon lmaging」,來(lái)自多倫多大學(xué)。

這篇論文被評(píng)選委員會(huì)稱之為“在主題(topic)上最令人驚訝的論文”,以至于其中一位評(píng)委表示“他幾乎不可能想到去嘗試這樣的事情”。

圖片

論文的摘要如下:

這篇文章討論了如何同時(shí)在極端時(shí)間尺度范圍內(nèi)(從秒到皮秒)對(duì)動(dòng)態(tài)場(chǎng)景進(jìn)行成像,同時(shí)要求成像passively(無(wú)需主動(dòng)發(fā)送大量光信號(hào))并在光線非常稀少的情況下進(jìn)行,而且不依賴于來(lái)自光源的任何定時(shí)信號(hào)。

由于現(xiàn)有的單光子相機(jī)的光流估計(jì)技術(shù)在這個(gè)范圍內(nèi)失效,因此,這篇論文開發(fā)了一種光流探測(cè)理論,借鑒了隨機(jī)微積分的思想,以從單調(diào)遞增的光子檢測(cè)時(shí)間戳流中重建像素的時(shí)間變化光流。

基于這一理論,論文主要做了三件事:
(1)表明在低光流條件下,被動(dòng)自由運(yùn)行的單光子波長(zhǎng)探測(cè)器相機(jī)具有可達(dá)到的頻率帶寬,跨越從直流到31 GHz范圍的整個(gè)頻譜;
(2)推導(dǎo)出一種新穎的傅立葉域光流重建算法,用于掃描時(shí)間戳數(shù)據(jù)中具有統(tǒng)計(jì)學(xué)顯著支持的頻率;
(3)確保算法的噪聲模型即使在非常低的光子計(jì)數(shù)或非可忽略的死區(qū)時(shí)間(dead times)情況下仍然有效。

作者通過實(shí)驗(yàn)證明了這種異步成像方式的潛力,包括一些前所未見的能力:
(1)在沒有同步(如燈泡、投影儀、多脈沖激光器)的情況下,對(duì)以不同速度運(yùn)行的光源同時(shí)照明的場(chǎng)景進(jìn)行成像;
(2)被動(dòng)的非視域(non-line-of-sight)視頻采集;
(3)記錄超寬帶視頻,可以在30 Hz的頻率下回放,展示日常運(yùn)動(dòng),但也可以以每秒十億分之一的速度播放,以展示光的傳播過程。

圖片

論文一作Mian Wei,多倫多大學(xué)博士生,研究方向是計(jì)算攝影,目前的研究興趣在于基于主動(dòng)照明成像技術(shù)改進(jìn)計(jì)算機(jī)視覺算法。

論文地址:https://openaccess.thecvf.com/content/ICCV2023/papers/Wei_Passive_Ultra-Wideband_Single-Photon_Imaging_ICCV_2023_paper.pdf

「分割一切」獲榮譽(yù)提名

除了備受關(guān)注的ControNet之外,紅極一時(shí)的Meta「分割一切」模型獲得了此次大會(huì)的最佳論文獎(jiǎng)榮譽(yù)提名。

圖片

這篇論文不僅提出了一個(gè)當(dāng)前最大的圖像分割數(shù)據(jù)集,在11M圖像上擁有超過10億個(gè)遮罩(mask),而且為此訓(xùn)練出了一個(gè)SAM模型,可以快速分割沒見過的圖像。

圖片

相比于之前比較零散的圖像分割模型,SAM可以說(shuō)是對(duì)這一系列模型功能進(jìn)行了“大一統(tǒng)”,而且在各項(xiàng)任務(wù)中都表現(xiàn)出了不錯(cuò)的性能。

目前,這一開源模型已經(jīng)在GitHub上攬獲38.8k星,可以說(shuō)是語(yǔ)義分割工業(yè)界的「標(biāo)桿」了。

圖片

論文地址:https://arxiv.org/abs/2304.02643
項(xiàng)目主頁(yè):https://segment-anything.com/

而在學(xué)生作品當(dāng)中,Google提出的「追蹤一切」模型脫穎而出。

就像文章的標(biāo)題一樣,這個(gè)模型可以在任何地點(diǎn)同時(shí)對(duì)圖像中的任意(多個(gè))物體進(jìn)行像素級(jí)追蹤。

圖片

該項(xiàng)目的第一作者是康奈爾大學(xué)的華人博士Qianqian Wang,目前正在UCB進(jìn)行博士后研究。

圖片

論文地址:https://arxiv.org/abs/2306.05422
項(xiàng)目主頁(yè):https://omnimotion.github.io/

此外,開幕式上還公布了由PAMITC委員會(huì)成員捐助的特別獎(jiǎng)項(xiàng),該委員會(huì)同時(shí)也捐助CVPR和WACV兩個(gè)計(jì)算機(jī)視覺領(lǐng)域會(huì)議的獎(jiǎng)項(xiàng)。

這些獎(jiǎng)項(xiàng)包括以下四個(gè):

  • 亥姆赫茲獎(jiǎng):十年前對(duì)計(jì)算機(jī)視覺研究產(chǎn)生重大影響的ICCV論文
  • Everingham獎(jiǎng):計(jì)算機(jī)視覺領(lǐng)域的進(jìn)步
  • 杰出研究者:對(duì)計(jì)算機(jī)視覺的進(jìn)步做出重大貢獻(xiàn)的研究人員
  • Rosenfeld終身成就獎(jiǎng):在長(zhǎng)期職業(yè)生涯中對(duì)計(jì)算機(jī)視覺領(lǐng)域做出重大貢獻(xiàn)的研究人員

其中獲得亥姆赫茲獎(jiǎng)的是Meta AI的華裔科學(xué)家Heng Wang和Google的Cordelia Schmid。

他們憑借2013年發(fā)表的一篇有關(guān)動(dòng)作識(shí)別的論文獲得了這一獎(jiǎng)項(xiàng)。

當(dāng)時(shí)兩人都在法國(guó)國(guó)立計(jì)算機(jī)及自動(dòng)化研究院(法語(yǔ)縮寫:INRIA)下屬的Lear實(shí)驗(yàn)室工作,Schmid是當(dāng)時(shí)該實(shí)驗(yàn)室的領(lǐng)導(dǎo)者。

圖片

論文地址:https://ieeexplore.ieee.org/document/6751553

Everingham獎(jiǎng)則頒發(fā)給了兩個(gè)團(tuán)隊(duì)。

第一組獲得者是來(lái)自Google的Samer Agarwal、Keir Mierle和他們的團(tuán)隊(duì)。

兩位獲獎(jiǎng)?wù)叻謩e畢業(yè)于華盛頓大學(xué)和多倫多大學(xué),獲獎(jiǎng)的成果是計(jì)算機(jī)視覺領(lǐng)域廣泛使用的開源C++庫(kù)Ceres Solver。

圖片

項(xiàng)目主頁(yè):http://ceres-solver.org/

另一項(xiàng)獲獎(jiǎng)成果是COCO數(shù)據(jù)集,它包含了大量的圖像和注釋,有豐富的內(nèi)容和任務(wù),是測(cè)試計(jì)算機(jī)視覺模型的重要數(shù)據(jù)集。

該數(shù)據(jù)集由微軟提出,相關(guān)論文第一作者是華裔科學(xué)家Tsung-Yi Lin,博士畢業(yè)于康奈爾大學(xué),現(xiàn)在英偉達(dá)實(shí)驗(yàn)室擔(dān)任研究人員。

圖片
圖片

論文地址:https://arxiv.org/abs/1405.0312
項(xiàng)目主頁(yè):https://cocodataset.org/

獲得杰出研究者榮譽(yù)的則是德國(guó)馬普所的Michael Black和約翰森霍普金斯大學(xué)的Rama Chellappa兩位教授。

圖片

來(lái)自MIT的Ted Adelson教授則獲得了終身成就獎(jiǎng)。

圖片

你的論文被ICCV 2023錄用了嗎?感覺今年的獎(jiǎng)項(xiàng)評(píng)選如何?

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2023-10-05 12:28:41

AI論文

2024-03-01 10:04:11

研究訓(xùn)練編碼器

2022-04-02 09:38:00

CSS3flex布局方式

2024-07-30 10:51:51

2023-05-04 12:19:47

模型AI

2018-01-09 20:35:11

Swift編程語(yǔ)言

2023-04-10 15:52:57

模型樣本

2023-12-07 07:16:57

Meta訓(xùn)練

2020-08-18 14:20:44

谷歌算力開發(fā)者

2023-07-17 13:14:45

模型分割

2023-04-27 09:27:44

視頻AI

2025-03-13 11:11:04

2016-08-31 17:24:05

大數(shù)據(jù)分析

2012-12-31 11:22:58

開源開放

2020-09-11 10:55:10

useState組件前端

2020-07-14 09:01:19

PGMySQLPostgreSQL

2022-04-01 15:24:39

物聯(lián)網(wǎng)

2011-10-10 09:24:39

Android后PC時(shí)代兼容

2020-09-23 10:59:00

開發(fā)技能代碼

2021-08-03 13:42:34

數(shù)字化
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)