為什么AI教父Hinton會恐懼自己親手創(chuàng)造的人工智能?
Geoffrey Hinton一生都在教計算機學(xué)習(xí)?,F(xiàn)在他擔(dān)心人造大腦會控制人類的未來。
紐約客記者面對面深度采訪了Hinton,從他人生經(jīng)歷展開,向大眾解釋了為什么,人工智能之父,會在自己的晚年,要疾呼:AI如果不加以控制將可能毀滅人類。
「人工智能如果能獲得更多控制權(quán),會有利于他實現(xiàn)幾乎一切目標(biāo)」Hinton 談到人工智能的未來時說道,「研究問題是:如何防止它們想要控制一切?現(xiàn)在沒有人知道答案。」
在你的大腦中,神經(jīng)元排列成大大小小的網(wǎng)絡(luò)。隨著你的每一個動作、每一個想法,這些網(wǎng)絡(luò)都在發(fā)生變化:神經(jīng)元被納入或排除,它們之間的聯(lián)系在不斷加強或者減弱。
這個過程無時無刻不在進行——就在你讀這些文字的時候,它也在發(fā)生——其規(guī)模之大超乎想象。
人類有大約800億個神經(jīng)元,共享1萬億個連接。人類的頭骨中包含了一個星系的星球,它們一直在變化。
Geoffrey Hinton,這位常被稱為「人工智能教父」的計算機科學(xué)家,遞給我一根手杖。
他說:「你需要一根這個。然后,他沿著一條穿過樹林的小路向岸邊走去。小路蜿蜒穿過一片綠樹成蔭的空地,經(jīng)過一對棚屋,然后沿著石階下到一個小碼頭?!高@里很滑,」Hinton在我們開始下坡時提醒道。
新知識會以微調(diào)的形式融入你的現(xiàn)有網(wǎng)絡(luò)。有時它們只是暫時的:如果你在聚會上遇到一個陌生人,他的名字可能只會在你記憶的網(wǎng)絡(luò)中留下短暫的印象。
但它們也可能持續(xù)一生,比如說,如果這個陌生人成為了你的配偶。
因為新知識與舊知識相融合,你所知道的知識會影響你所學(xué)到的。
如果派對上有人告訴你他的阿姆斯特丹之行,第二天,在博物館里,你的網(wǎng)絡(luò)可能會讓你容易記住Vermeer(荷蘭著名畫家)。這樣,微小的變化就有可能帶來深刻的轉(zhuǎn)變。
Hinton說:「我們在這里舉行了篝火晚會。」我們站在一塊突出安大略喬治亞灣的巖石臺階上,喬治亞灣一直向西延伸到休倫湖。水面上島嶼星羅棋布。
2013 年,六十五歲的Hinton將一家三人初創(chuàng)公司以四千四百萬美元的價格賣給谷歌,然后買下了這座島嶼。
在此之前,他在多倫多大學(xué)(University of Toronto)擔(dān)任了三十年的計算機科學(xué)教授,是神經(jīng)網(wǎng)絡(luò)這個并不被外界看好的子領(lǐng)域的領(lǐng)軍人物。
「成績非常一般,因此大多數(shù)研究人員覺得這個技術(shù)方向基本上是在浪費時間」
Hinton回憶說:「我們的神經(jīng)網(wǎng)絡(luò)的能力還不如一個小孩?!?/span>
十九世紀八十年代,當(dāng)他看到《終結(jié)者》時,電影中毀滅世界的人工智能 「天網(wǎng) 」是一個神經(jīng)網(wǎng)絡(luò)并沒有出乎他的意料。他很高興看到這項技術(shù)被導(dǎo)演如此看好。
從著火的小凹陷處,石頭上因高溫而產(chǎn)生的裂縫向外輻射。Hinton身材高大、苗條,是個英國人。他用棍子戳了戳那個地方。
作為一個典型的科學(xué)家,他總是對物理世界中發(fā)生的事情發(fā)表評論:動物的生活、海灣中的水流、島嶼的地質(zhì)。
「我在木頭下面放了一個鋼筋網(wǎng),這樣空氣就能進來,溫度高到金屬都變軟了,」他用一種奇怪的語氣說?!高@才是真正的火,值得驕傲!」
數(shù)十年來,Hinton不斷想辦法,以巧妙的方式構(gòu)建更大的神經(jīng)網(wǎng)絡(luò)。
他設(shè)計出新的方法來訓(xùn)練神經(jīng)網(wǎng)絡(luò),不斷提升性能。
他招募研究生,讓他們相信神經(jīng)網(wǎng)絡(luò)并不是一個沒有前途的方向。他認為自己參與的項目可能會在一個世紀后——在他死后取得成果。
與此同時,他中年就兩次喪偶,獨自撫養(yǎng)兩個年幼的孩子。在一個特別困難的時期,家庭生活和研究的壓力壓得他喘不過氣來,他認為自己已經(jīng)盡了全力。
他說:「我在 46 歲的時候就死心了?!顾麤]有預(yù)料到,大約十年前,神經(jīng)網(wǎng)絡(luò)技術(shù)會突然飛速進步。
計算機的速度越來越快,神經(jīng)網(wǎng)絡(luò)利用互聯(lián)網(wǎng)上的數(shù)據(jù),開始轉(zhuǎn)錄語音、玩游戲、翻譯語言,甚至駕駛汽車。
就在Hinton的公司被收購的同時,人工智能開始蓬勃發(fā)展,OpenAI的ChatGPT 和谷歌的Bard等系統(tǒng)應(yīng)運而生,許多人認為它們正在以不可預(yù)知的方式改變世界。
Hinton沿著海岸出發(fā)了,我跟在后面,腳下的碎石在晃動。他說:「現(xiàn)在看這個。他站在一塊人頭大小的巨石前,擋住了我們的去路。」
「這樣你就能過去了,你把棍子扔過去」—— 他把自己的棍子扔到巨石的另一邊——「然后這里和這里有支點,這里還有一個手扶點」。我看著他輕車熟路地爬過去,然后,我自己也試探性地邁出了同樣的步伐。
Hinton與神經(jīng)網(wǎng)絡(luò)結(jié)緣
每當(dāng)我們學(xué)習(xí)時,我們的神經(jīng)元網(wǎng)絡(luò)就會發(fā)生變化,但究竟是如何變化的呢?
像Hinton這樣的研究人員與計算機合作,試圖發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)的 「學(xué)習(xí)算法」,這是一個通過改變?nèi)斯ど窠?jīng)元之間連接的統(tǒng)計 「權(quán)重 」來吸收新知識的程序。
1949年,心理學(xué)家Donald Hebb就人們?nèi)绾螌W(xué)習(xí)提出了一個簡單的規(guī)則,通常被概括為 「同時激活的神經(jīng)元將會連接在一起」。
大腦中的一組神經(jīng)元一旦同步激活,就更有可能再次激活。這有助于解釋為什么人類第二次做某事會感覺容易得多。
但很快人們就發(fā)現(xiàn),計算機化的神經(jīng)網(wǎng)絡(luò)需要另一種方法來解決復(fù)雜的問題。
十九世紀六七十年代,作為一名年輕的研究人員,Hinton在筆記本上繪制了神經(jīng)元網(wǎng)絡(luò),并想象著新知識到達它們的邊界。
由幾百個人工神經(jīng)元組成的網(wǎng)絡(luò)如何存儲一個概念?如果這個概念有缺陷,它又該如何修正呢?
我們走過海岸,來到Hinton的小屋,這是島上唯一的一間小屋。
小屋用玻璃封閉,高蹺矗立在寬闊黝黑的巖石階梯之上。有一次,我們來到這里,一條巨大的水蛇把頭伸了過來。這是一段美好的回憶。
他的父親是一位著名的昆蟲學(xué)家,他的父親向他灌輸了對冷血動物的喜愛。
小時候,他和父親在車庫里養(yǎng)了很多毒蛇、烏龜、青蛙、蟾蜍和蜥蜴。如今,當(dāng)Hinton在島上時--他經(jīng)常在溫暖的月份去島上--他有時會找到蛇并把它們帶到家里,這樣他就可以在一個飼養(yǎng)箱里觀察它們。
他一生都在自下而上地思考問題,因此善于觀察非人類的思維。
今年早些時候,Hinton離開了谷歌。他擔(dān)心人工智能可能對人類造成危害,并開始在接受采訪時談?wù)撨@項技術(shù)可能對人類構(gòu)成的 「生存威脅」。
他越是使用ChatGPT——一個在大量人類寫作語料庫中訓(xùn)練出來的人工智能系統(tǒng)——就越是感到不安。
有一天,??怂剐侣劦娜藢懶沤o他,要求就人工智能問題進行采訪。Hinton喜歡用電子郵件發(fā)送尖刻的單句回復(fù)——在收到一封來自加拿大情報機構(gòu)的長信后,他回復(fù)道:「斯諾登是我的英雄」。
最后,他回復(fù)道:「Fox News is an oxy moron.」。然后,他靈機一動,問 ChatGPT 能否解釋他的笑話。
系統(tǒng)告訴他,他的句子暗示??怂剐侣勈羌傩侣劊?dāng)他提示「moron 」前有個空格時,系統(tǒng)解釋說福克斯新聞會讓人上癮,就像藥物「OxyContin」一樣。
Hinton大吃一驚。這種理解水平似乎代表了人工智能的一個新時代。
我們有很多理由擔(dān)心人工智能的不斷發(fā)展。例如,擔(dān)心人類工作被計算機取代就是一個很正常的事情。
但是,Hinton與包括OpenAI首席執(zhí)行官Sam Altman在內(nèi)的許多著名技術(shù)專家一起警告外界,人工智能系統(tǒng)可能會開始獨立思考,甚至試圖取代或消滅人類文明。
人工智能最杰出的研究人員之一竟然說出了如此令人震驚的觀點。
人類智能,到底能孕育出什么
他站在自家廚房里對我說:「很多人說,LLM就是一個很高級的自動完成功能」。
他一生中大部分時間都在忍受背痛的折磨,最終嚴重到他完全沒辦法坐著。自2005年以來,他從來沒有坐著超過1個小時。
「現(xiàn)在,讓我們來分析一下。假設(shè)你想成為預(yù)測下一個單詞的高手。如果你想成為真正的高手,就必須理解別人在說什么。」
「這是唯一的辦法。因此,通過訓(xùn)練讓某個東西真正擅長預(yù)測下一個單詞,實際上就是強迫它去理解。是的,這是確實只是「自動補全」--但你并沒有想清楚擁有一個真正好的「自動補全」意味著什么」。
Hinton認為,大型語言模型,例如OpenAI聊天機器人背后的GPT技術(shù),是可以理解單詞和想法的含義的。
那些認為我們高估了人工智能能力的懷疑論者指出,人類思維與神經(jīng)網(wǎng)絡(luò)之間存在著巨大的差異。
首先,神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方式與我們不同:我們是有組織地獲取知識,通過經(jīng)歷和把握這些經(jīng)歷與現(xiàn)實和自身的關(guān)系。
而神經(jīng)網(wǎng)絡(luò)則是抽象地學(xué)習(xí),通過處理有關(guān)它們并不真正居住的世界的龐大信息庫。
但Hinton認為,人工智能系統(tǒng)所展示的智能超越了其人工起源。
他告訴我:「當(dāng)你吃東西時,你把食物吃進去,然后把它分解成微小的各個部分。所以你可以說,我身體里的各個部分都是由其他動物的各個部分組成的。但這是不可能的?!?/span>
他認為,通過分析人類的書寫,像GPT這樣的大型語言模型可以了解世界是如何運作的,從而產(chǎn)生一個能夠思考的系統(tǒng)。
而書寫只是這個系統(tǒng)所能做的一部分。他接著說:「這就好比毛毛蟲如何變成蝴蝶。毛毛蟲變成蛹,然后從蛹里破繭成蝶」。
他開始在廚房外的一個小柜子里翻找起來?!赴」?!」他說。他興致勃勃地把一個東西放在柜臺上——一只死蜻蜓。
它保存得非常完好。他解釋說:「這是我在碼頭發(fā)現(xiàn)的。它剛在石頭上孵化出來,正在晾干翅膀,所以我把它捉住了。看看下面?!?/span>
Hinton捕捉到的這只蜻蜓剛從幼蟲形態(tài)中蛻變出來。這只幼蟲長相迥異,有自己的眼睛和腿。它的背部有一個洞,蜻蜓就是從這個洞里爬出來的。
「蜻蜓的幼蟲是生活在水下的怪物,」Hinton說。「就像電影《異形》中一樣,蜻蜓從怪物的背部爬出。幼蟲在這個階段變成了液體,然后蜻蜓從液體中誕生了?!?/span>
在他的比喻中,幼蟲代表了用于訓(xùn)練現(xiàn)代神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù),蜻蜓則代表了由此產(chǎn)生的人工智能。
深度學(xué)習(xí)——Hinton開創(chuàng)的技術(shù)——導(dǎo)致了這種蛻變。
我彎下腰,想看得更清楚一些。Hinton站得筆直,他幾乎總是這樣,小心翼翼地保持著姿勢。
「非常漂亮,」他輕聲說?!改忝靼琢税?。一開始是一個東西,現(xiàn)在卻變成了另一個完全不一樣的東西?!?/span>
幾周前,當(dāng)Hinton邀請我參觀他的小島時,我曾想象過可能出現(xiàn)的情況。也許他是一個想要獨處的內(nèi)向者,或者是一個有著上帝情結(jié)和未來主義情結(jié)的科技霸主。
在我抵達的前幾天,他通過電子郵件發(fā)送了一張他拍攝的照片,照片上一條響尾蛇盤踞在島上的草叢中。我不知道自己是感到高興還是害怕。
事實上,就私人島嶼而言,Hinton的島嶼并不算大,總共只有兩英畝。
Hinton本人與硅谷的技術(shù)大亨截然相反?,F(xiàn)年七十五歲的他有著Joshua Reynolds畫作中的英倫面孔,白發(fā)襯托著寬闊的前額。他的藍眼睛通常很穩(wěn)重,只留下嘴巴來表達情感。
他是一個善于侃侃而談的人,喜歡談?wù)撟约骸?/span>
但是他告訴作者,他并不是一個自負的人,他的生活一直籠罩在悲痛之中。
「我也許應(yīng)該告訴你我的妻子們的事情,」我們第一次交談時他說。「我有過三次婚姻。一次友好結(jié)束,另外兩次悲劇收場」。
他與早年結(jié)婚的第一任妻子Joanne仍然保持著友好關(guān)系,但他的第二任和第三任妻子Rosalind和Jackie都分別于1994年和2018年死于癌癥。
在過去的四年里,Hinton一直和退休社會學(xué)家Rosemary Gartner在一起。
她溫柔地告訴我:「我覺得Hinton是那種總是需要伴侶的人。他是一個浪漫的理性主義者,對科學(xué)和情感有著平衡的感性認識。
他把蜻蜓放好,然后走到一張小書桌前,那里擺放著一臺筆記本電腦,旁邊是一堆數(shù)獨謎題和一本筆記本。。他問道:「我們來畫畫我的家譜吧?」他用兩根手指輸入了 「Geoffrey Hinton家譜」,然后按了回車鍵。
Hinton的家譜
2013 年,谷歌收購了Hinton的初創(chuàng)公司,部分原因是該團隊發(fā)現(xiàn)了如何利用神經(jīng)網(wǎng)絡(luò)大幅提高圖像識別能力?,F(xiàn)在,屏幕上出現(xiàn)了無窮無盡的家譜。
Hinton出身于一個特殊的英國科學(xué)世家:政治上激進,富有創(chuàng)造力。
在他的家譜中,他的叔祖父Sebastian Hinton是叢林健身器的發(fā)明者,他的堂姐Joan Hinton是參與曼哈頓計劃的物理學(xué)家。
在他上一輩,還有Lucy Everest,她是第一位當(dāng)選為英國皇家化學(xué)研究所成員的女性。
Charles Howard Hinton,是一位數(shù)學(xué)家,創(chuàng)造了魔方的概念,魔方是通往四維空間的大門(電影《星際穿越》中出現(xiàn)了一個魔方)。
James Hinton,他是一位開創(chuàng)性的耳外科醫(yī)生。19 世紀中葉,希頓的曾曾祖父、英國數(shù)學(xué)家George Boole發(fā)明了二進制推理系統(tǒng),即現(xiàn)在的布爾代數(shù),它是所有計算的基礎(chǔ)。
Boole的妻子Mary Everest是一位數(shù)學(xué)家和作家,也是George Everes的侄女。
「Hinton生來就是搞科學(xué)的料,」Hinton以前的學(xué)生和合作者、現(xiàn)在 Meta 公司負責(zé)人工智能的Yann LeCun告訴我。
然而,Hinton的家庭比這更奇怪。他的父親Howard Everest Hinton于19世紀10年代墨西哥革命期間在墨西哥長大,在他父親管理的銀礦上工作。
「他是個狠人」Hinton這樣評價他的父親。
家族傳說說,12歲時,Howard Everest Hinton曾威脅要射殺他的拳擊教練,因為他的教練太嚴厲了,教練把他的話當(dāng)真了,就逃離了小鎮(zhèn)。
Howard的母語是西班牙語,在伯克利上大學(xué)時,他的口音曾被人嘲笑?!杆鸵蝗和瑯邮艿狡缫暤姆坡少e人混在一起,成為了伯克利的激進分子。
在學(xué)校,Hinton喜歡自然科學(xué)。但是,出于意識形態(tài)的原因,他的父親禁止他學(xué)習(xí)生物學(xué)。
在布里斯托爾大學(xué)任教的Howard是昆蟲學(xué)家中的印第安納-瓊斯:他把世界各地的珍稀生物裝在行李中偷運回英國,并編輯了一份該領(lǐng)域的重要期刊。
Hinton的中間名也是Everest,所以他感受到了巨大的壓力,必須做出自己的成績。
他記得父親曾對他說:「如果你比我努力一倍,當(dāng)你比我大一倍時,你可能會有我一半優(yōu)秀?!?/span>
在劍橋大學(xué),Hinton嘗試了不同的領(lǐng)域,但他沮喪地發(fā)現(xiàn)自己從來都不是班上最聰明的學(xué)生。
他曾短暫地離開大學(xué),「閱讀令人沮喪的小說」,并在倫敦打零工,然后又回來嘗試建筑學(xué),但只做了一天。
最后,他涉獵了物理、化學(xué)、生理學(xué)和哲學(xué),尋找重點,最終選擇了實驗心理學(xué)學(xué)位。
他在道德哲學(xué)家Bernard Williams的辦公室里 「出沒」,發(fā)現(xiàn)他對計算機和心靈很感興趣。
有一天,Williams指出,我們不同的思想一定反映了我們大腦中不同的物理設(shè)定。這與計算機中的情況完全不同,在計算機中,軟件獨立于硬件。
Hinton被這一觀察所震撼;他記得在高中時,一位朋友曾告訴他,記憶可能是以 「全息 」的方式存儲在大腦中的——也就是說,記憶是分散的,但可以通過任何一個部分訪問整體。
他所遇到的是 「連接主義」—— 一種結(jié)合神經(jīng)科學(xué)、數(shù)學(xué)、哲學(xué)和編程的方法,旨在探索神經(jīng)元如何共同 「思考」。
「聯(lián)結(jié)主義」的一個目標(biāo)是在計算機中創(chuàng)建一個類似大腦的系統(tǒng)。
這方面已經(jīng)取得了一些進展:1950 年代,心理學(xué)家、聯(lián)結(jié)主義先驅(qū)Frank Rosenblatt制造了一臺機器,名為 「感知器(Perceptron)」,它使用簡單的計算機硬件模擬了一個由數(shù)百個神經(jīng)元組成的網(wǎng)絡(luò)。
當(dāng)連接到光線傳感器時,該儀器可以通過跟蹤不同光線模式激活了哪些人工神經(jīng)元來識別字母和形狀。
在小屋里,Hinton站著來回踱步,在廚房柜臺后面來回走動,并在一樓轉(zhuǎn)了一圈。
他做了一些吐司,給我們每人拿了一個蘋果,然后用階梯凳為自己支起了一張小桌子。
家庭的壓力讓他無法滿足暫時的需求?!肝乙恢焙芟矚g木工活,」我們吃飯時,他俏皮地回憶道?!冈趯W(xué)校,我晚上自己會去做木工。我經(jīng)常在想,如果我是一名建筑師,是否會更快樂,因為我不必強迫自己去做。
而對于科學(xué),我總是不得不強迫自己。因為家庭的原因,我必須成功,我必須找到一條路。這其中有快樂,但更多的是焦慮?,F(xiàn)在我成功了,這讓我感到無比欣慰?!?/span>
Hinton的筆記本電腦叮當(dāng)作響。自從他離開谷歌后,他的收件箱里就不斷收到關(guān)于人工智能的評論請求。他走過去看了看郵件,然后又迷失在家族樹的森林里,所有這些樹似乎都有這樣或那樣的問題。
他說:「看看這個。」
我走過去看了看屏幕。這是一棵 「學(xué)術(shù)家譜」,亨廷頓在最上面,下面排列著他的學(xué)生和他們的學(xué)生。
這棵樹太大了,他必須橫向滾動才能看到他的影響范圍?!概叮炷?,」Hinton說?!杆鋵嵅皇俏业膶W(xué)生。"」他進一步滾動?!杆湃A橫溢,卻不善于當(dāng)顧問,因為他自己總能做得更好?!?/span>
Hinton是一位精心培育人才的人,他似乎很享受被學(xué)生超越的感覺:在評估求職者時,他經(jīng)常問他們的顧問:「他們比你強嗎?」
回憶起1977年去世的父親,Hinton說:「他非常好勝。我經(jīng)常在想,如果他能在我身邊看到我取得成功,他會不會很高興。因為現(xiàn)在我比他更成功?!?/span>
根據(jù)谷歌學(xué)術(shù)的數(shù)據(jù),Hinton現(xiàn)在是心理學(xué)家中被引用次數(shù)第二多的研究者,也是計算機和認知科學(xué)家中被引用次數(shù)最多的研究者。
如果說他在劍橋大學(xué)的起步是緩慢而古怪的,那么部分原因是他在一個新興領(lǐng)域探索。
他合上筆記本電腦,說道:「神經(jīng)網(wǎng)絡(luò)——當(dāng)時在好大學(xué)里做這個的人很少。在麻省理工學(xué)院做不了,在伯克利做不了,斯坦福也不行?!?/span>
所以Hinton作為一個新興技術(shù)的開創(chuàng)者也給他帶來了優(yōu)勢。多年來,許多最優(yōu)秀的人才都來找他。
「天氣不錯,」希頓第二天早上說 「我們應(yīng)該去砍棵樹?!?他穿著一件正裝襯衫,看起來不太像伐木工人。
不過,他還是搓了搓手。在島上,他總是在砍樹,以創(chuàng)造更有序、更美麗的場景。
幾乎每個房間都有需要改的地方,在我參觀的時候,Hinton已經(jīng)在這些地方上上附上了小紙條,來提醒新的工人,而且經(jīng)常就直接寫在建筑材料上。
在一樓的浴室里,靠墻的一塊底板上寫著:「浴室應(yīng)使用這種底板(僅限淋浴前的楓木裝飾)」。在客房的壁櫥里,遮蔽膠帶沿著架子延伸: 「不要給架子打底,給架子支撐打底」。
給事物貼標(biāo)簽對人的思維很有幫助,可以幫助他們把握現(xiàn)實。
但人工智能這么做意味著什么呢?當(dāng)Hinton在愛丁堡大學(xué)獲得人工智能博士學(xué)位時,他想到了如何在計算機中模擬大腦中的 「認知」。當(dāng)時,也就是 1970 年代,絕大多數(shù)人工智能研究人員都是 「符號主義者」。
在他們看來,對番茄醬的認識可能涉及許多概念,如 「食物」、「醬汁」、「調(diào)味品」、「甜味」、「鮮味」、「紅色」、「西紅柿」、「美國人」、「炸薯條」、「蛋黃醬 」和 「芥末」;這些概念合在一起,就形成了一個腳手架,「番茄醬 」這樣一個新概念就可能被掛在上面。
一個資金雄厚的大型人工智能項目名為 「Cyc」,其核心是建立一個龐大的知識庫,科學(xué)家們可以使用一種特殊的語言將概念、事實、規(guī)則以及不可避免的例外情況輸入其中。(鳥會飛,但企鵝、翅膀受損的鳥或......)。
但是,Hinton對這種方法表示懷疑。這種方法似乎過于僵化,過于專注于哲學(xué)家和語言學(xué)家所擁有的推理能力。
他知道,在自然界中,許多動物在沒有獲得可以用語言表達的概念的情況下也能做出聰明的行為。它們只是通過經(jīng)驗學(xué)會了如何變得聰明。
學(xué)習(xí),而不是知識,才是智慧的動力。
人類的復(fù)雜思維似乎往往是通過符號和文字進行的。但是,Hinton和他的合作者James L. McClelland以及David Rumelhart認為,很多行為都發(fā)生在次概念層面。
他們寫道,請注意,「如果你了解了關(guān)于某個物體的新事實,你對其他類似物體的預(yù)期往往會發(fā)生變化」:例如,如果你被告知黑猩猩喜歡洋蔥,你可能會猜測大猩猩也喜歡洋蔥。
如何感受到神經(jīng)網(wǎng)絡(luò)的魅力
1986年,Hinton、Rumelhart和Williams在《自然》雜志上發(fā)表了一篇三頁的論文,展示了這樣一個系統(tǒng)如何在神經(jīng)網(wǎng)絡(luò)中工作。
他們指出,像玻爾茲曼機一樣,反向傳播并不是「大腦學(xué)習(xí)的合理模型」。與計算機不同,大腦無法倒帶以審核其過去的表現(xiàn)。但反向傳播仍然實現(xiàn)了類似大腦的神經(jīng)特化。
在真正的大腦中,神經(jīng)元有時被排列成旨在解決特定問題的結(jié)構(gòu)。例如,在視覺系統(tǒng)中,不同的神經(jīng)元「列」識別我們所看到的邊緣。
因此,負責(zé)破譯筆跡的網(wǎng)絡(luò)的某些層可能會緊緊地集中在識別線條、曲線或邊緣上。最終,整個系統(tǒng)可以發(fā)展出「適當(dāng)?shù)膬?nèi)部表示」。
在十九世紀五十年代和六十年代,感知器和聯(lián)結(jié)主義曾短暫興起,又漸漸衰落。反向傳播作為其中的一部分,也獲得了廣泛的關(guān)注。
但是,受限于當(dāng)時的硬件能力,構(gòu)建反向傳播網(wǎng)絡(luò)的實際工作進展緩慢。「進步的速度基本上是,計算機能在一夜之間學(xué)到多少東西?」Hinton回憶道。
從概念上講,神經(jīng)網(wǎng)絡(luò)是神秘的。不可能以傳統(tǒng)方式編程。你不能進去編輯人工神經(jīng)元之間連接的權(quán)重。而且,很難理解這些權(quán)重意味著什么,因為他們已經(jīng)通過訓(xùn)練適應(yīng)和改變了自己。
學(xué)習(xí)過程有很多種方式可能會出錯。例如,在「過度擬合」中,網(wǎng)絡(luò)有效地記住了訓(xùn)練數(shù)據(jù),而不是從中學(xué)習(xí)泛化。避免各種陷阱并不總是那么簡單。
新的神經(jīng)網(wǎng)絡(luò)架構(gòu)被開發(fā)出來:「循環(huán)」和「卷積」網(wǎng)絡(luò)允許系統(tǒng)通過以不同的方式構(gòu)建自己的工作來取得進展。但就好像研究人員發(fā)現(xiàn)了一種他們不知道如何使用的外星技術(shù)。
「我一直相信這不是胡說八道,這不是信仰——對我來說只是完全顯而易見的事實」,Hinton說。大腦使用神經(jīng)元來學(xué)習(xí),因此,通過神經(jīng)網(wǎng)絡(luò)進行復(fù)雜的學(xué)習(xí)必須成為可能。
當(dāng)網(wǎng)絡(luò)通過反向傳播進行訓(xùn)練時,需要告訴他們什么時候錯了,錯了多少,這需要大量準確標(biāo)記的數(shù)據(jù)。這將使網(wǎng)絡(luò)能夠看到手寫的「7」和「1」之間的區(qū)別,或者金毛獵犬和紅色二傳手之間的區(qū)別。
但是很難找到足夠大的標(biāo)記良好的數(shù)據(jù)集,而且構(gòu)建數(shù)據(jù)集是一項艱巨的任務(wù)。LeCun和他的合作者開發(fā)了一個巨大的手寫數(shù)字數(shù)據(jù)庫,后來他們用它來訓(xùn)練一個網(wǎng)絡(luò),可以讀取美國郵政服務(wù)提供的樣本郵政編碼。
斯坦福大學(xué)的李飛飛教授率先開展了一項名為ImageNet的巨大研究。創(chuàng)建它需要收集超過 1400 萬張圖像,并手動將它們分類為兩萬個類別。
隨著神經(jīng)網(wǎng)絡(luò)變得越來越大,Hinton設(shè)計了一種將知識從大型網(wǎng)絡(luò)獲取到可以在手機等設(shè)備上運行的較小網(wǎng)絡(luò)的方法——蒸餾。
在蒸餾學(xué)習(xí)中,一個神經(jīng)網(wǎng)絡(luò)不僅為另一個神經(jīng)網(wǎng)絡(luò)提供正確的答案,還為另一個神經(jīng)網(wǎng)絡(luò)提供一系列可能的答案及其概率。這是一種更豐富的知識。
Hinton并不愛反向傳播網(wǎng)絡(luò),因為這一切都是確定性的。不過,隨著計算機性能的進步,反向傳播的力量變得不可否認。
Hinton在腦海中做了一個計算。假設(shè)在1985年,他開始在一臺快速研究計算機上運行一個程序,并一直運行到現(xiàn)在。如果他今天開始在目前人工智能使用的最快系統(tǒng)上運行相同的程序,那么只需不到一秒鐘的時間就可以趕上。
在2000年左右,隨著配備強大計算機的多層神經(jīng)網(wǎng)絡(luò)開始在更大的數(shù)據(jù)集上進行訓(xùn)練,Hinton、Bengio 和 LeCun 開始談?wù)摗干疃葘W(xué)習(xí)」的潛力。
這項工作在2012年跨過了一個門檻,當(dāng)時Hinton,Alex Krizhevsky和Ilya Sutskever推出了AlexNet,這是一個八層神經(jīng)網(wǎng)絡(luò),最終能夠以人類水平的精度識別ImageNet中的對象。
2017年6月,Hinton、Bengio和LeCun獲得了圖靈獎,相當(dāng)于計算機科學(xué)領(lǐng)域的諾貝爾獎。
Hinton相信,在某種意義上,神經(jīng)網(wǎng)絡(luò)能夠產(chǎn)生感覺。他認為感覺是關(guān)于什么會導(dǎo)致行動的反事實陳述。
Hinton告訴我,他在1973年看到了一個「沮喪的人工智能」。一臺計算機連接到兩個電視攝像機和一個簡單的機械臂上,該系統(tǒng)的任務(wù)是將一些積木組裝成玩具車的形式。
Hinton說,「這很難,尤其是在1973年,如果這些積木都是分開的,視覺系統(tǒng)可以識別它們,但如果你把它們放在一小堆里,就無法識別?!?/span>
計算機無法處理這個問題,所以砰的一聲,把它們攤在桌子上。如果一個人這樣做了,你會說他很沮喪。這就像是想要你無法擁有的東西。
Hinton說,「每個人對人工智能的第一反應(yīng)是,我們必須阻止這種情況。就像每個人對癌癥的第一反應(yīng)是,我們該如何切除它?但重要的是要認識到,當(dāng)剪掉它只是一個幻想時?!?/span>
他嘆了口氣,「我們不能否認,我們需要思考,我們?nèi)绾巫屗鼘θ祟悂碚f不像它可能的那樣可怕?」
人工智能會變得多么有用或危險?沒有人確切知道,部分原因是神經(jīng)網(wǎng)絡(luò)太奇怪了。
在二十世紀,許多研究人員想要制造模仿大腦的計算機。但是,盡管像OpenAI 的GPT模型這樣的神經(jīng)網(wǎng)絡(luò)是類腦的,因為它們涉及數(shù)十億個人工神經(jīng)元,但它們實際上與生物大腦截然不同。
今天的人工智能是基于云端的,存儲在工廠一般的數(shù)據(jù)中心中。它們在某些方面能力很差,而在其他方面卻很智能,它們?yōu)閿?shù)百萬用戶推理,但只有在收到提示時才會回復(fù)。
他們可能已經(jīng)通過了圖靈測試——這是由計算先驅(qū)Alan Turing建立的長期標(biāo)準。
該標(biāo)準認為,任何能夠在對話中令人信服地模仿人類的計算機都可以合理地說是思考。
在谷歌的最后幾年里,Hinton專注于使用更接近大腦的硬件來創(chuàng)造更傳統(tǒng)的類似思維的人工智能。在當(dāng)今的人工智能中,人工神經(jīng)元之間連接的權(quán)重以數(shù)字方式存儲,就好像大腦在記錄自己一樣。
然而,在實際的模擬大腦中,權(quán)重被內(nèi)置在神經(jīng)元之間的物理連接中。Hinton致力于使用專門的計算機芯片創(chuàng)建該系統(tǒng)的人工版本。
芯片將能夠通過改變它們的「電導(dǎo)」來學(xué)習(xí)。由于權(quán)重將集成到硬件中,因此不可能將它們從一臺機器復(fù)制到另一臺機器。每個人工智能都必須自己學(xué)習(xí)?!杆麄儽仨毴ド蠈W(xué)?!?/span>
因為每個人工智能芯片獲得的知識在被拆解時都會丟失,所以他稱這種方法為「凡人計算(Mortal Computation)」。
在這種情況下,我們會得到更重要的東西,那就是能源效率。此外,能源效率鼓勵個性:因為人類的大腦可以靠燕麥片運行,所以世界可以支持數(shù)十億個大腦,所有大腦都不同,每個大腦都可以不斷學(xué)習(xí)。
作為一項科學(xué)事業(yè),「凡人計算」可能會讓我們更接近于復(fù)制自己的大腦。但Hinton認為,數(shù)字智能可能更強大。在模擬智能中,如果大腦死亡,知識就會死亡。
相比之下,在數(shù)字智能中,如果一臺特定的計算機死了,這些相同的連接強度可以在另一臺計算機上使用。即使所有的數(shù)字計算機都死了,如果你把連接強度存儲在某個地方,你就可以制造并運行另一臺數(shù)字智能。
一萬個神經(jīng)網(wǎng)絡(luò)可以同時學(xué)習(xí)一萬個不同的東西,然后分享他們所學(xué)到的東西。這種不朽和可復(fù)制性的結(jié)合表明,我們應(yīng)該關(guān)注數(shù)字智能取代生物智能的問題。
Hinton懷疑,對人工智能潛力的懷疑雖然令人欣慰,但往往是出于對人類例外論的不合理信念。他對當(dāng)前人工智能聊天機器人「產(chǎn)生幻覺」這個說法提出了質(zhì)疑。
「這就是人類記憶的樣子。在我們看來,編造和說實話之間沒有界限。說實話只是正確地編造。從這個角度來看,ChatGPT的編造能力是一個缺陷,但也是其類人智能的標(biāo)志?!?/span>
Hinton經(jīng)常被問到他是否后悔自己的工作。他沒有。
他說,當(dāng)他開始研究時,沒有人認為這項技術(shù)會成功,即使它開始成功,也沒有人想到它會這么快成功。正是因為他認為人工智能是真正的智能,所以他期望它將在許多領(lǐng)域做出貢獻。
然而,他擔(dān)心當(dāng)有權(quán)勢的人濫用它時會發(fā)生什么。蛻變還沒有完成。我們不知道人工智能會變成什么樣子。
對一些人來說,這是一個哥白尼式的故事,在這個故事中,我們對人類思維特殊性的直覺正在被思考的機器所取代。對其他人來說,這是普羅米修斯——偷了火,我們就有可能被燒死。
有些人認為我們在自欺欺人,被我們自己的機器和希望從中獲利的公司所吸引。以一種奇怪的方式,它也可能是一個關(guān)于人類局限性的故事。
如果我們是神,我們可能會制造出一種不同的人工智能——一種我們可以管理的版本。