圖靈獎得主吵起來了,LeCun:Bengio、Hinton等的AI滅絕論是荒謬的
關(guān)于 AI 風(fēng)險的問題,各路大佬們也是意見不統(tǒng)一。有人帶頭簽署聯(lián)名信,呼吁 AI 實驗室應(yīng)立即暫停研究,深度學(xué)習(xí)三巨頭 Geoffrey Hinton、Yoshua Bengio 等都支持這一觀點(diǎn)。
就在近幾日,Bengio、Hinton 等再發(fā)聯(lián)名信《在快速發(fā)展的時代管理人工智能風(fēng)險》,呼吁在開發(fā) AI 系統(tǒng)之前,研究者應(yīng)該采取緊急治理措施,將安全和道德實踐納入重點(diǎn),呼吁各國政府應(yīng)該采取行動,管理 AI 帶來的風(fēng)險。
文中提到了一些緊急治理措施,例如,讓國家機(jī)構(gòu)也參與進(jìn)來,從而防止人們對 AI 的濫用。為了實現(xiàn)有效的監(jiān)管,政府需要全面了解人工智能的發(fā)展。監(jiān)管機(jī)構(gòu)應(yīng)采取一系列措施,如模型注冊、對舉報人進(jìn)行有效保護(hù)以及對模型開發(fā)和超級計算機(jī)使用的監(jiān)控等。監(jiān)管機(jī)構(gòu)還需要在部署之前訪問先進(jìn)的人工智能系統(tǒng),以評估其危險功能。
不僅如此,時間再往前一點(diǎn),今年五月,美國非營利組織人工智能安全中心發(fā)表了一份聲明,警告人工智能應(yīng)被視為與流行病一樣存在滅絕人類的風(fēng)險,支持該聲明的人同樣包括 Hinton、Bengio 等人。
今年 5 月,為了暢所欲言地談?wù)撊斯ぶ悄軒淼娘L(fēng)險,Hinton 還辭去了在谷歌的工作。在一次紐約時報的采訪中,他表示:「大多數(shù)人認(rèn)為這(AI 危害)還很遙遠(yuǎn)。我過去也認(rèn)為這還很遙遠(yuǎn),可能是 30 到 50 年甚至更長的時間。但顯然,我現(xiàn)在不這么想了?!?/span>
可以預(yù)見,在 Hinton 等 AI 大佬眼里,管理 AI 帶來的風(fēng)險是一項非常緊急的事情。
然而,作為深度學(xué)習(xí)三巨頭之一的 Yann LeCun,對 AI 發(fā)展持有非常樂觀的態(tài)度。對于簽署關(guān)于 AI 風(fēng)險的聯(lián)名信,他基本上都是持反對態(tài)度,認(rèn)為人工智能的發(fā)展遠(yuǎn)未構(gòu)成對人類的威脅。
剛剛, LeCun 在與 X 用戶的交流中,對網(wǎng)友的一些關(guān)于 AI 風(fēng)險的問題給出了回答。
該網(wǎng)友是針對 LeCun 對文章《‘This is his climate change’: The experts helping Rishi Sunak seal his legacy》的看法進(jìn)行提問的,文章認(rèn)為 Hinton、Bengio 等人發(fā)表聯(lián)名信的行為使人們轉(zhuǎn)變了對 AI 的看法,從一開始將 AI 視為輔助助手,轉(zhuǎn)變?yōu)閷?AI 視為潛在威脅。文章接著表示,近幾個月來,觀察家們在英國發(fā)現(xiàn)了越來越多的關(guān)于 AI 會造成世界末日的氛圍。今年三月,英國政府公布了一份白皮書,承諾不會扼殺 AI 領(lǐng)域的創(chuàng)新。然而僅僅兩個月后,英國就開始談?wù)搶?AI 設(shè)置護(hù)欄,并敦促美國接受其全球人工智能規(guī)則計劃。
文章地址:https://www.telegraph.co.uk/business/2023/09/23/artificial-intelligence-safety-summit-sunak-ai-experts/
LeCun 對這篇文章的反應(yīng)是這樣的,他不希望英國對 AI 存在宿命論風(fēng)險的擔(dān)憂傳播給其他國家。
之后,就有了我們前面提到的 LeCun 與 X 用戶的交流,以下是 LeCun 全部的回答:
「Altman、Hassabis 以及 Amodei 正在進(jìn)行大規(guī)模的企業(yè)游說。他們正嘗試對 AI 產(chǎn)業(yè)進(jìn)行監(jiān)管。而你、Geoff,還有 Yoshua 正在給那些游說禁止開放 AI 研究的人提供『彈藥』。
如果你們的恐懼宣傳活動取得成功,將不可避免地造成你我都認(rèn)為是災(zāi)難的結(jié)果:少數(shù)公司將控制 AI。
絕大多數(shù)學(xué)術(shù)同行都非常支持開放式 AI 研發(fā)。很少有人相信你所鼓吹的末日場景。你、Yoshua、Geoff 和 Stuart 是唯一的例外。
和許多人一樣,我非常支持開放式 AI 平臺,因為我相信各種力量的結(jié)合:人們的創(chuàng)造力、民主、市場力量和產(chǎn)品法規(guī)。我也知道,生產(chǎn)安全且受我們控制的 AI 系統(tǒng)是可能的。我已經(jīng)為此提出了具體建議。這一切都將促使人們做正確的事。
你寫得好像 AI 是憑空產(chǎn)生的,它是我們無法控制的自然現(xiàn)象。但事實并非如此。它之所以取得進(jìn)步,是因為你我所認(rèn)識的每一個人。我們和他們都有能力打造『正確的事物』。要求對研發(fā)(相對于產(chǎn)品部署)進(jìn)行監(jiān)管,其實暗含了這樣的假設(shè):這些人和他們所服務(wù)的組織都是無能、魯莽、自我毀滅或者邪惡的。但事實并非如此。
我已經(jīng)提出了很多論據(jù)來證明你所害怕的末日場景是荒謬的。在此我就不再贅述了。但主要的一點(diǎn)是,如果強(qiáng)大的 AI 系統(tǒng)是由目標(biāo)(包括護(hù)欄)驅(qū)動的,那么它們就會是安全可控的,因為他們設(shè)定了這些護(hù)欄和目標(biāo)。(目前的自回歸 LLM 并不是由目標(biāo)驅(qū)動的,所以我們不要從自回歸 LLM 的弱點(diǎn)來推斷)。
關(guān)于開源這件事,你的活動所產(chǎn)生的效果將與你所追求的完全相反。在未來,AI 系統(tǒng)將成為人類所有知識和文化的寶庫,我們需要的是開源和免費(fèi)的平臺,以便每個人都能為之做出貢獻(xiàn)。開放是讓 AI 平臺反映人類全部知識和文化的唯一途徑。這就要求對這些平臺的貢獻(xiàn)是眾包的,類似于維基百科。除非平臺是開放的,否則這樣做是行不通的。
如果開放源代碼的 AI 平臺被監(jiān)管,那么另一種情況將一定發(fā)生,那就是少數(shù)公司將控制 AI 平臺,進(jìn)而控制人們的全部數(shù)字依賴。這對民主意味著什么?這對文化多樣性意味著什么?這是讓我徹夜難眠的原因?!?/span>
在 LeCun 長推文的下方,也有許多人「聲援」他的觀點(diǎn)。
蒙特利爾大學(xué)計算機(jī)科學(xué)與運(yùn)籌學(xué)系教授 Irina Rish,也是 Mila - Quebec AI 研究所的核心成員。她表示或許支持開源 AI 的研究人員們不應(yīng)該再沉默了,應(yīng)該引領(lǐng)新興 AI 的發(fā)展。
e/acc創(chuàng)始人 Beff Jezos 也在評論區(qū)中表示,這樣的評論是重要的,也是人們所需要的。
網(wǎng)友表示,一開始,討論安全問題可以豐富大家對未來科技的想象,但是聳人聽聞的科幻小說不應(yīng)當(dāng)導(dǎo)致壟斷政策的出現(xiàn)。
播客主持人 Lex Fridman 對這場辯論有更多的期待。
關(guān)于 AI 風(fēng)險的問題討論也將影響著 AI 的未來發(fā)展。當(dāng)一個觀點(diǎn)搶占風(fēng)頭時,人們會盲目跟從。只有兩方能夠不斷地進(jìn)行理性探討,才能夠真正地看清 AI 的「真面目」。