偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

神仙打架激辯深度學習:LeCun出大招,馬庫斯放狠話

新聞 人工智能
AI學術圈,又吵了起來,圖靈獎得主、年近古稀的機器學習奠基者、唱衰AI的代表人物等等,紛紛下場“開懟”。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

AI學術圈,又吵了起來,圖靈獎得主、年近古稀的機器學習奠基者、唱衰AI的代表人物等等,紛紛下場“開懟”。

相關話題在Twitter上轉(zhuǎn)發(fā)過千,點贊數(shù)萬,場面極其激烈。

究其源頭,起于一個直擊靈魂的問題:什么是深度學習?

什么是深度學習?

你可能會很自然地想起那段再熟悉不過的定義:

深度學習(DL)是一類機器學習算法,使用多個層逐步從原始數(shù)據(jù)中提取更高層的特征。

——維基百科

有點懵逼?

現(xiàn)在,有人給出了更明確的說法,出手者不是旁人,正是深度學習三巨頭之一,圖靈獎得主Yann LeCun。他說:

有些人似乎仍然對什么是深度學習感到困惑。以下是深度學習的定義:深度學習就是構建由參數(shù)化功能模塊構成的網(wǎng)絡,并利用基于梯度的優(yōu)化方法進行樣本訓練。

與此定義正交的是學習范式:強化學習、監(jiān)督學習或自監(jiān)督學習。不要說“深度學習沒法做X” ,如果你真正想的是“監(jiān)督學習需要太多數(shù)據(jù)所以沒法做X”。

對于其擴展形態(tài)(動態(tài)網(wǎng)絡、可微編程、圖神經(jīng)網(wǎng)絡等),網(wǎng)絡結構可以依數(shù)據(jù)動態(tài)變化。

神仙打架激辯深度學習:LeCun出大招,馬庫斯放狠話

這話之后還沒完,他又一口氣放出了5個排比句,對當前深度學習領域出現(xiàn)的“術語”進行了解讀:

別說“DL對對抗樣本很敏感”,你真正的意思是“受監(jiān)督的卷積神經(jīng)網(wǎng)絡對對抗樣本很敏感”。

別說“DL存在偏見”,你真正的意思是“純監(jiān)督學習再現(xiàn)了訓練數(shù)據(jù)中的偏見”。

別說“DL無法處理組合性”,你真正的意思是“此特定體系結構不能推廣到許多以前不可見的部件組合”。

別說“DL不做邏輯推理”,你真正的意思是“一個簡單的前饋神經(jīng)網(wǎng)絡不能做長鏈的推理”。

別說“DL不做因果推理”,你真正的意思是“一個普通的、有監(jiān)督的神經(jīng)網(wǎng)絡不會自發(fā)地發(fā)現(xiàn)因果關系。”

神仙打架激辯深度學習:LeCun出大招,馬庫斯放狠話

本來是對自己去年初提出的觀點——“深度學習不再是流行概念”進行了一次回應。

但誰能想到,推文一出,各路大神紛紛出面發(fā)表觀點,展開了激烈的討論。

一場大型“互懟現(xiàn)場”就此拉開序幕。

機器學習奠基人下場激辯

馬庫斯開杠LeCun

第一批下場的,有DeepMind的高級研究科學家Danilo Jimenez Rezende。

他點贊認同,對Yann LeCun的觀點進行了簡要總結:

深度學習是用于構建復雜模塊化可微函數(shù)的工具的集合。討論深度學習能做或不能做什么毫無意義。真正有意義的是如何訓練它,以及如何把數(shù)據(jù)喂給它。

但知名AI“杠精”——馬庫斯看到這條推特,當場不干了:

如果不能討論一種方法可以做什么不能做什么,那它還算是一種方法?

推崇深度學習的人現(xiàn)在為了不被批評,總是在盡量避免提出具體、可驗證的主張。這是有一個很危險的信號。

 

機器學習先驅(qū)下場反擊:深度學習是方法論

對此,機器學習領域奠基人之一、AAAI前主席Thomas G. Dietterich迅速下場回擊:

深度學習本來就不是一種方法,而是方法論。是一種研究路徑。

神仙打架激辯深度學習:LeCun出大招,馬庫斯放狠話

結果,這一辯論分會場又炸出了另一位大佬——機器人教父Rodney Brooks。

他說:啊,所以深度學習是AI還是AGI哇?還是說人能想到的未來科技都基于深度學習?

神仙打架激辯深度學習:LeCun出大招,馬庫斯放狠話

這一發(fā)言似乎又點燃了馬庫斯新的戰(zhàn)斗熱情:

Rodney Brooks說得對啊!深度學習社區(qū)現(xiàn)在給自己的定位就是所有未來科技都將歸功于DL,但他們并沒有真正致力于任何事情。

等著吧,我馬上就會火力全開。

神仙打架激辯深度學習:LeCun出大招,馬庫斯放狠話

面對這樣的“挑釁”,Dietterich表示圖樣圖森破:DL(以及AI社區(qū))的目標是推動智能系統(tǒng)的科學和工程進步,而不是成為嘴炮王者。

神仙打架激辯深度學習:LeCun出大招,馬庫斯放狠話

深度學習沒有定義“是什么”,而是“如何進行”

在各方互懟之外,Keras創(chuàng)造者François Chollet也另開新帖,對“什么是深度學習”發(fā)表了觀點。

神仙打架激辯深度學習:LeCun出大招,馬庫斯放狠話

他認為,截至現(xiàn)在,深度學習的定義對他來說過于“嚴格”。并且和以下情況是相反的:

⑴ 非表征性學習(如SIFT、symbolic AI等人工特征工程);
⑵ “淺層學習(shadow learning)”,其中只有一個特征提取層。

此外,它沒有規(guī)定一個特定的學習機制(如反向傳播)或一個特定的用例(如監(jiān)督學習或強化學習),也不需要端到端的聯(lián)合學習。

現(xiàn)在的定義描述的是我們該如何進行深度學習,而不是它是什么。

而現(xiàn)在的深度學習的定義,只是給出了一個比較清晰邊界:哪些是深度學習,哪些不是。例如:

DNN是深度學習,而遺傳編程、快速排序和支持向量機就不屬于深度學習。

單個的密集層(dense layer)不是深度學習,而密集堆棧(dense stack)是深度學習。

K-means不是深度學習,而堆疊K-means特征提取器是深度學習。

通常由人類工程師編寫的程序不是DL,參數(shù)化這樣的程序來自動學習一些常量仍然不是DL。

需要用一連串的特征提取器來進行表征學習。

François Chollet認為,深度學習模型只代表了很小很小的程序空間。

神仙打架激辯深度學習:LeCun出大招,馬庫斯放狠話

本來Chollet并未加入論戰(zhàn),誰知道還是被拉下了水。

有好事網(wǎng)友Ben Kamphaus在馬庫斯的推文下,當場@了他,還有另一位深度學習巨頭、圖靈獎得主Bengio,他說:

Bengio、Chollet以及其他人正在對需要解決的問題進行實質(zhì)性的處理了。

不知道那些憤怒高呼讓DL研究人員去做他們已經(jīng)做了很多年工作的人,對解決這個問題有什么幫助。

神仙打架激辯深度學習:LeCun出大招,馬庫斯放狠話

馬庫斯則坦然解釋說:

我很了解Bengio和Chollet,只是希望他們更坦率些。

你曲解我的意思了。

對于馬庫斯的這一說法,Bengio和Chollet都沒有給出直接回應。

吃瓜群眾一臉懵逼

場面上,感覺大半個AI學術圈都下場爭鳴了。如此盛景,吃瓜群眾不免有些懵逼。

有人問:這個問題這么棘手的嗎?

神仙打架激辯深度學習:LeCun出大招,馬庫斯放狠話

當然,還有一臉懵逼的。

神仙打架激辯深度學習:LeCun出大招,馬庫斯放狠話

那么,你是怎么看的呢?

第一現(xiàn)場傳送門

https://bit.ly/2ZqjKkA

 

責任編輯:張燕妮 來源: 量子位
相關推薦

2022-08-12 15:21:19

深度學習智能

2022-09-28 08:23:56

AI人工智能工具

2023-01-26 01:46:10

2017-01-05 19:01:11

Windows 10微軟游戲

2022-08-14 08:50:52

人工智能深度學習

2020-07-14 09:01:19

PGMySQLPostgreSQL

2021-02-02 14:17:58

谷歌微軟開發(fā)

2021-08-26 10:40:12

芯片半導體技術

2016-08-29 20:43:00

NvidiaIntel

2020-06-08 11:30:04

PGMySQL數(shù)據(jù)庫

2023-02-14 14:54:09

模型AI

2023-01-09 13:22:51

AI技術

2019-12-08 18:38:17

網(wǎng)絡安全國際網(wǎng)絡安全大賽

2023-11-26 17:14:05

2022-02-09 17:19:07

谷歌亞馬遜微軟

2019-08-28 20:30:09

2025-07-02 09:56:09

2022-08-09 07:53:49

gRPC框架通信

2019-02-19 15:01:40

Python

2020-04-26 09:48:55

Redis面試
點贊
收藏

51CTO技術棧公眾號