偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

LeCun聯(lián)手博士后arxiv發(fā)文,遭reddit網(wǎng)友質(zhì)疑:第一張圖就錯了

新聞 人工智能
兩個月前自監(jiān)督學習領(lǐng)域出了一篇重磅論文,LeCun和他的學生共同完成新模型Barlow Twins,reddit網(wǎng)友指出,第一張圖就錯了!

  神經(jīng)網(wǎng)絡模型訓練最大的弊端在于需要大量的訓練數(shù)據(jù),而非監(jiān)督學習和自監(jiān)督學習則能很好地解決標注的問題。

今年三月,F(xiàn)acebook AI Research和紐約大學的Yann LeCun聯(lián)手在arxiv上發(fā)布一篇關(guān)于自監(jiān)督學習的論文,提出模型Barlow Twins,這個名字來源于神經(jīng)科學家H. Barlow的redundancy-reduction原則。

近日這篇論文又在Reddit上掀起一陣討論熱潮,網(wǎng)友對LeCun的論文似乎有些不買賬。

自監(jiān)督學習

所謂自監(jiān)督,就是訓練了,但沒有完全訓練,用到的標簽來源于自身,它與無監(jiān)督學習之間的界限逐漸模糊。

自監(jiān)督學習在NLP領(lǐng)域已經(jīng)取得了非常大的成就,BERT、GPT、XLNET等自監(jiān)督模型幾乎刷遍了NLP各大榜單,同時在工業(yè)界也帶來了很多的進步。在CV領(lǐng)域,自監(jiān)督似乎才剛剛興起。

從Kaiming的MoCo和Hinton組Chen Ting的SimCLR,近兩年自監(jiān)督學習(SSL,self-supervised learning)在大佬們的推動下取得了很大的成功。

何愷明一作的Moco模型發(fā)表在CVPR2020上,并且是Oral。文章核心思想是使用基于contrastive learning的方式自監(jiān)督的訓練一個圖片表示器也就是編碼器,能更好地對圖片進行編碼然后應用到下游任務中?;趯Ρ鹊淖员O(jiān)督學習最大的問題就是負樣本數(shù)量增大后會帶來計算開銷的增大,何愷明使用了基于隊列的動態(tài)字典來存儲樣本,同時又結(jié)合了動量更新編碼器的方式,解決了編碼器的快速變化會降低了鍵的表征一致性問題。MoCo在多個數(shù)據(jù)集上取得了最優(yōu)效果,縮小了監(jiān)督學習和無監(jiān)督學習之間的差距。

而Hinton組的SimCLR側(cè)重于同一張圖像的不同數(shù)據(jù)增強的方法,具體而言就是隨機采樣一個batch,對batch里每張圖像做兩種增強,可以認為是兩個view;讓同一張圖的不同view在latent space里靠近,不同圖的view在latent space里遠離,通過NT-Xent實現(xiàn)。

LeCun聯(lián)手博士后arxiv發(fā)文,遭reddit網(wǎng)友質(zhì)疑:第一張圖就錯了

從AutoEncoder到語言模型,可以說是無標簽的數(shù)據(jù)讓預訓練模型取得驚人的成績,之后在有標簽數(shù)據(jù)上的fine tune讓他有了應用價值。

Barlow Twins

今年3月,arxiv上多了一篇Yann Lecun的論文。

CV領(lǐng)域的自監(jiān)督學習的最新成果總是向世人證明無需數(shù)據(jù)標簽也可以達到有監(jiān)督的效果。目前自監(jiān)督學習主流的方法就是使網(wǎng)絡學習到輸入樣本不同失真(distortions)版本下的不變性特征(也稱為數(shù)據(jù)增強),但是這種方法很容易遭遇平凡解,現(xiàn)有方法大多是通過實現(xiàn)上的細節(jié)來避免出現(xiàn)collapse。

LeCun團隊解釋說,這種方法經(jīng)常會出現(xiàn)瑣碎的常量表示形式,這些方法通常采用不同的機制和仔細的實現(xiàn)細節(jié),以避免collapse的解決方案。Barlow Twins是解決此問題的目標函數(shù),它測量兩個相同網(wǎng)絡的輸出特征之間的互相關(guān)矩陣,這些輸出饋送了失真的版本,以使其盡可能接近單位矩陣,同時最大程度地減少了相關(guān)向量分量之間的冗余。

LeCun聯(lián)手博士后arxiv發(fā)文,遭reddit網(wǎng)友質(zhì)疑:第一張圖就錯了

這個方法受英國神經(jīng)科學家霍勒斯·巴洛(Horace Barlow)在1961年發(fā)表的文章中的啟發(fā),Barlow Twins方法將「減少冗余」(一種可以解釋視覺系統(tǒng)組織的原理)應用于自我監(jiān)督學習,也是感官信息轉(zhuǎn)化背后的潛在原理。

研究人員通過遷移學習將模型應用到不同的數(shù)據(jù)集和計算機視覺任務來評估Barlow Twins的表示形式,還在圖像分類和對象檢測的任務上進行試驗,使用ImageNet ILSVRC-2012數(shù)據(jù)集上的自我監(jiān)督學習對網(wǎng)絡進行了預訓練。

LeCun聯(lián)手博士后arxiv發(fā)文,遭reddit網(wǎng)友質(zhì)疑:第一張圖就錯了

結(jié)果表明,Barlow Twins在概念上更簡單并且避免了瑣碎的參數(shù),其性能優(yōu)于以前的自我監(jiān)督學習方法。研究人員認為,所提出的方法只是應用于SSL的信息瓶頸原理的一種可能實例,并且進一步的算法改進可能會導致更有效的解決方案。

Jing Li

靖禮是這篇論文的第二作者,本科被保送到北大物理學院,獲得了物理學學士學位和經(jīng)濟學學士學位,獲得了麻省理工學院的物理學博士學位。他在2010年贏得了第41屆國際中學生物理學奧林匹克競賽金牌。

LeCun聯(lián)手博士后arxiv發(fā)文,遭reddit網(wǎng)友質(zhì)疑:第一張圖就錯了

目前是Facebook AI Research(FAIR)的博士后研究員,與Yann LeCun一起研究自我監(jiān)督學習。

他的研究領(lǐng)域還包括表示學習,半監(jiān)督學習,多模式學習,科學AI。

他還是Lightelligence Inc.的聯(lián)合創(chuàng)始人,該公司生產(chǎn)光學AI計算芯片。

在企業(yè)技術(shù)領(lǐng)域,他被授予《福布斯》中國30位30歲以下人士。

而Yann LeCun是CNN之父,紐約大學終身教授,與Geoffrey Hinton、Yoshua Bengio并成為“深度學習三巨頭”。前Facebook人工智能研究院負責人,IJCV、PAMI和IEEE Trans 的審稿人,他創(chuàng)建了ICLR(International Conference on Learning Representations)會議并且跟Yoshua Bengio共同擔任主席。

1983年在巴黎ESIEE獲得電子工程學位,1987年在 Université P&M Curie 獲得計算機科學博士學位。1998年開發(fā)了LeNet5,并制作了被Hinton稱為“機器學習界的果蠅”的經(jīng)典數(shù)據(jù)集MNIST。2014年獲得了IEEE神經(jīng)網(wǎng)絡領(lǐng)軍人物獎,2019榮獲圖靈獎。

大牛也會出錯?

Yann LeCun可謂是深度學習界的大牛,但同樣要遭受質(zhì)疑。

有網(wǎng)友評價這篇論文是完全沒意義的,這篇論文中提出的方法只有在特定條件下才好用,并且仍然需要大規(guī)模計算資源。

并且隨著batch size的增加,效果下降了,但是為什么?

還有說圖1就是錯的,損失函數(shù)也是無意義的。

LeCun聯(lián)手博士后arxiv發(fā)文,遭reddit網(wǎng)友質(zhì)疑:第一張圖就錯了

知乎網(wǎng)友討論中也有認為Barlow Twins只是整合了自監(jiān)督學習的技巧,如增加batch size、增加訓練時間、交替迭代、predictor機制、stop gradient等這些技巧層面的工作,學習過程則是讓互相關(guān)矩陣與單位陣要盡可能接近。

LeCun聯(lián)手博士后arxiv發(fā)文,遭reddit網(wǎng)友質(zhì)疑:第一張圖就錯了

對此你怎么看?

 

責任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2021-05-07 15:27:30

人工智能機器學習技術(shù)

2021-02-07 09:01:10

Java并發(fā)編程

2015-06-24 10:51:10

iOS學習流程

2009-01-07 08:44:09

3G牌照中國移動

2012-11-16 14:18:22

LTE商用網(wǎng)絡華為America Mov

2013-12-10 13:58:01

阿里云云安全

2021-01-29 15:00:04

Zabbix5.2Grafana儀表盤

2019-04-12 09:45:57

硬盤數(shù)據(jù)

2024-01-26 12:48:49

AI數(shù)據(jù)

2020-11-24 09:46:50

算法開源視頻

2019-04-15 07:47:09

戴爾

2019-09-11 10:12:12

華為

2013-07-04 10:50:33

騰訊移動互聯(lián)網(wǎng)大數(shù)據(jù)

2015-03-10 10:15:27

AppleWatch開發(fā)Swift

2019-03-21 12:55:36

名片劉強東馬化騰

2017-11-30 10:51:57

英特爾人工智能

2015-09-14 09:07:15

Java多線程

2017-10-17 10:00:17

科學家

2013-02-21 15:46:32

寶德深圳博士后

2022-02-25 15:08:16

強化學習職業(yè)博士
點贊
收藏

51CTO技術(shù)棧公眾號