LeCun論文被指「洗稿」? LSTM之父發(fā)文怒懟:抄我的還標原創(chuàng)
?圖靈獎得主Yann Lecun,作為AI界的三巨頭之一,他發(fā)表的論文自然是被人當成「圣經(jīng)」來學習的。
然而,最近突然有一個人跳出來炮轟LeCun「炒冷飯」:「無非就是把我的核心觀點換種說法罷了」。
莫非……
沒錯,此人正是「LSTM之父」Jürgen Schmidhuber。
Schmidhuber表示,LeCun的這篇論文并未提及1990-2015年期間的重要成果,文中所提及的「主要原創(chuàng)成果」,包括「學習子目標、可預測的抽象表征、多個時間尺度」等概念,他們也已經(jīng)發(fā)表過了。
原推中用的rehash這個詞,也就是把原先的idea用另一種方式表達而不做創(chuàng)新,妥妥的「洗稿」了。
同時,他還發(fā)長文詳細地列出了證據(jù)。當然,這只能算是Schmidhuber的一面之詞罷了。
不過,網(wǎng)友們顯然并不買賬。
「你過去是AI界的一位重量級人物,但現(xiàn)在你出名的地方在聲稱每個人的學術(shù)成果都是剽竊了你的觀點」。
「神經(jīng)網(wǎng)絡(luò)、transformers、LSTMS是你發(fā)明的,那廁紙和面包片是不是也是你們家發(fā)明的」。
所以,到底是個啥事?
讓我們先捋一捋事情的來龍去脈。
2022年6月14日,被Schmidhuber稱作Science Tabloid的一家「科學小報」(說的就是你MIT科技評論)發(fā)表了一篇LeCun的報告,其中闡述了他對AGI的新構(gòu)想。
6月27日,Yann LeCun發(fā)表了自己積蓄幾年的論文「A Path Towards Autonomous Machine Intelligence」,并稱其為「指明AI未來發(fā)展方向之作」。
這篇論文系統(tǒng)講述了關(guān)于「機器如何能像動物和人類一樣學習」的問題,長達60多頁,感興趣的朋友可以去看看。
LeCun表示,此文不僅是自己關(guān)于未來5-10年內(nèi)關(guān)于AI發(fā)展大方向的思考,也是自己未來幾年打算研究的內(nèi)容,并希望能夠啟發(fā)AI界的更多人來一起研究。
大概是看LeCun這篇論文的影響越來越大,Schmidhuber終于決定在7月7日,放出自己寫的長文,怒斥Lecun抄襲他的idea。
Schmidhuber稱,在文章還沒公開發(fā)表之前,那家「科學小報」發(fā)來一份報告的草稿(還在保密期),并希望他能對此發(fā)表一些評論。
于是,Schmidhuber便洋洋灑灑地寫了一篇「控告」,表示LeCun的文章基本上就是自己以前工作的翻版,而且還沒有引用。
不出意料,他的評論石沉大海了。
LeCun只是重提我的工作,而且還沒標引用!
Schmidhuber在這篇長文中表示,希望讀者能研究原始論文,自己判斷這些評論的科學內(nèi)容,并且還希望自己的工作得到承認和認可。
LeCun論文開頭部分說,本文描述的許多觀點(幾乎都是)由許多作者在不同的背景下以不同的形式提出,Schmidhuber則反駁稱不幸的是,這篇論文的大部分內(nèi)容就和我們1990年以來的論文「似曾相識」,且沒有任何引用的標識。
先來看看他這次炮轟LeCun的證據(jù)(部分)。
證據(jù)1:
LeCun:今天的人工智能研究必須解決三個主要挑戰(zhàn):(1)機器如何能學會代表世界,學會預測,并學會主要通過觀察來采取行動(2)機器如何以與基于梯度的學習兼容的方式進行推理和計劃(3)機器如何以分層的方式,在多個抽象層次和多個時間尺度上學習表征感知(3a)和行動計劃(3b)
Schmidhuber:這些問題在1990年、1991年、1997年和2015年發(fā)表的一系列論文中得到了詳細解決。
1990年,第一篇關(guān)于基于梯度的人工神經(jīng)網(wǎng)絡(luò)(NN)用于長期規(guī)劃和強化學習(RL)以及通過人工好奇心進行探索的工作發(fā)表。
它描述了兩個遞歸神經(jīng)網(wǎng)絡(luò)(RNN,最強大的NNN)的組合,稱為控制器和世界模型。
其中,世界模型學習預測控制器行動的后果,控制器可以利用世界模型提前規(guī)劃幾個時間步驟,選擇使預測獎勵最大化的行動序列。
關(guān)于基于神經(jīng)網(wǎng)絡(luò)的分層感知(3a)的答案,這個問題至少部分由我 1991年發(fā)表的「第一臺深度學習機器—神經(jīng)序列分塊器」解決。
它在遞歸神經(jīng)網(wǎng)絡(luò) (RNN) 的深層層次結(jié)構(gòu)中使用無監(jiān)督學習和預測編碼,以在多個抽象級別和多個時間尺度(正是 LeCun 所寫的內(nèi)容)上找到「長數(shù)據(jù)序列的內(nèi)部表征」。
關(guān)于基于神經(jīng)網(wǎng)絡(luò)的分層行動計劃(3b)的答案,已在 1990 年通過我的分層強化學習 (HRL)這篇論文至少部分解決了這個問題。
證據(jù)2:
LeCun :由于成本模塊的兩個子模塊都是可微的,所以能量梯度可以通過其他模塊反向傳播,特別是世界模塊、表演模塊和感知模塊。
Schmidhuber:這正是我在 1990 年發(fā)表的內(nèi)容,引用了 1980 年發(fā)表的「具有前饋神經(jīng)網(wǎng)絡(luò)的系統(tǒng)識別」論文。
2000年,我的前博士后 Marcus Hutter 甚至發(fā)表了用于學習世界模型和控制器的理論上最優(yōu)、通用、不可微的方法。(另請參考稱為哥德爾機的數(shù)學上最優(yōu)的自我參照 AGI)
證據(jù)3:
LeCun :短期記憶模塊架構(gòu)可能類似于鍵值記憶網(wǎng)絡(luò)。
Schmidhuber:然而,他沒有提到我在 1991 年發(fā)表了第一個這樣的「鍵值記憶網(wǎng)絡(luò)」,當時我描述了序列處理「Fast Weight Controllers」或 Fast Weight Programmers (FWPs)。FWP 擁有一個慢速的神經(jīng)網(wǎng)絡(luò),它通過反向傳播學習以快速修改另一個神經(jīng)網(wǎng)絡(luò)的快速權(quán)重。
證據(jù)4:
LeCun:這篇論文的主要原創(chuàng)貢獻在于:(I)一個整體認知架構(gòu),其中所有模塊都是可區(qū)分的,其中許多模塊是可訓練的。(II)H-JEPA:預測世界的非生成層次架構(gòu)在多個抽象級別和多個時間尺度上學習表示的模型。(III)一系列非對比自我監(jiān)督學習范式,產(chǎn)生同時提供信息和可預測的表示。(IV)使用 H-JEPA 作為不確定性下分層規(guī)劃的預測世界模型的基礎(chǔ)。
對此,Schmidhuber也按照LeCun列出的這四個模塊一一校對,并給出了與他論文中有重合的點。
文章最后,他表示這篇文章的重點不是攻擊發(fā)表的論文或是其作者所反映的想法,關(guān)鍵是這些想法并不像LeCun 的論文中寫的那樣「原創(chuàng)」。
他說,這些觀點的提出中許多都有著我和我的同事的努力,LeCun現(xiàn)在所提出的他的「Main original contribution」其實與我?guī)资陙硌芯康呢暙I密不可分,我希望讀者自己判斷我的評論的有效性。
從LSTM之父到……
其實,這位大爺聲稱別人抄襲他的成果也不是第一回了。
早在去年9月,他就在博客上發(fā)文表示,現(xiàn)在引用最多的神經(jīng)網(wǎng)絡(luò)論文成果,都是建立在我實驗室完成的工作之上的:
「LSTM不用說了,其他還有今天鼎鼎大名的開創(chuàng)性工作比如ResNet,比如AlexNet、GAN、Transformer,都和我的工作有關(guān)系。有些工作的第一版就是我做出來的,但是現(xiàn)在這些人不講武德,引用不規(guī)范,搞得這些成果現(xiàn)在的歸屬認知有問題。」雖然大爺氣性很大,但不得不說Jürgen Schmidhuber這么多年來確實有些意難平。同為AI領(lǐng)域的前輩級人物,開創(chuàng)性成果沒少做,但獲得的聲譽和認可度似乎總與期望值有很大差距。
尤其是在2018年,深度學習三巨頭:Yoshua Bengio、Geoffrey Hinton、Yann LeCun榮獲圖靈獎時,就有不少的網(wǎng)友發(fā)出了質(zhì)疑:圖靈獎為什么沒頒給LSTM之父Jürgen Schmidhuber?他也是深度學習領(lǐng)域的大家啊。
時間回到2015年,當時Bengio、Hinton和LeCun三位大神聯(lián)手在Nature上發(fā)了一篇review,題目直接就叫《Deep Learning》。
文章從傳統(tǒng)的機器學習技術(shù)講起,總結(jié)了現(xiàn)代機器學習的主要架構(gòu)和方法,描述了訓練多層網(wǎng)絡(luò)架構(gòu)的反向傳播算法,以及卷積神經(jīng)網(wǎng)絡(luò)的誕生,分布式表示和語言處理,以及遞歸神經(jīng)網(wǎng)絡(luò)及其應用等等。
不到一個月后,Schmidhuber就在自己的博客上發(fā)文進行了批評。
Schmidhuber表示,這篇文章讓他非常不爽,因為全文多次引用三位作者自己的研究成果,而對于其他先驅(qū)人物對深度學習更早的貢獻則只字不提。
他認為,獲得圖靈獎的「深度學習三巨頭」儼然成了貪他人之功,以為己利的雞賊、借助江湖地位互相吹捧,壓制老前輩的學閥。
2016年,Jürgen Schmidhuber又在NIPS大會的Tutorial上和「GAN之父」Ian Goodfellow正面交鋒。
當時,Goodfellow正講到GAN與其他模型相比較時,Schmidhuber便站出來提問打斷。
Schmidhuber的問題很長,大概說了兩分鐘,主要內(nèi)容是強調(diào)說自己在1992年就已經(jīng)提出來PM,接著說了一大堆它的原理、實現(xiàn)過程等等,最后圖窮匕見:你說說你的GAN和我的PM有沒有相似之處?
Goodfellow也不示弱:你說的問題我們之前在郵件里已經(jīng)交流過很多次了,我也早就公開回應過你了,不想在現(xiàn)在的場合浪費聽眾的耐心。
等等,等等……
或許Schmidhuber的這些「蜜汁操作」,可以用LeCun曾經(jīng)的一封郵件來解釋:
「Jürgen 對眾人的認可過于癡迷,總是說自己沒有得到應得的很多東西。幾乎是慣性地,他總是在別人每次講話結(jié)束時都要站起來,說剛剛提出的成果有他的功勞,大體上看,這種行為并不合理?!?