馬斯克等人呼吁暫停AI研究公開(kāi)信遭質(zhì)疑 被指加劇炒作、歪曲論文
3月31日消息,特斯拉首席執(zhí)行官埃隆·馬斯克?(Elon Musk)、蘋(píng)果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)以及其他上千名AI?研究人員日前簽署公開(kāi)信,呼吁暫停研究更先進(jìn)的AI技術(shù)。然而,此信遭到許多專(zhuān)家甚至簽名者的質(zhì)疑,被指加劇AI炒作、簽名造假以及歪曲論文等。
這封公開(kāi)信由非營(yíng)利組織“生命未來(lái)研究所”(Future of Life Institute)撰寫(xiě),其使命是“減少?gòu)?qiáng)大技術(shù)帶來(lái)的全球?yàn)?zāi)難性和生存風(fēng)險(xiǎn)”。具體來(lái)說(shuō),該研究所專(zhuān)注于減輕人類(lèi)的長(zhǎng)期“生存”風(fēng)險(xiǎn),比如超級(jí)智能AI。馬斯克是該組織的支持者,他在2015年曾向其捐贈(zèng)了1000萬(wàn)美元。
信中寫(xiě)道:“只有在我們確信AI的影響是積極的、風(fēng)險(xiǎn)是可控的情況下,才應(yīng)該開(kāi)發(fā)更強(qiáng)大的AI系統(tǒng)。因此,我們呼吁所有AI實(shí)驗(yàn)室立即暫停至少6個(gè)月訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)。AI實(shí)驗(yàn)室和獨(dú)立專(zhuān)家應(yīng)該利用這段時(shí)間,共同開(kāi)發(fā)和實(shí)施一套高級(jí)AI設(shè)計(jì)和開(kāi)發(fā)的共享安全協(xié)議,這些協(xié)議由獨(dú)立的外部專(zhuān)家嚴(yán)格審計(jì)和監(jiān)督?!?/p>
這封信還澄清說(shuō):“這并不意味著AI發(fā)展總體上處于暫停狀態(tài),只是從危險(xiǎn)的競(jìng)賽退回到具有緊急功能的更大、不可預(yù)測(cè)的黑箱模型。”它指的是微軟和谷歌等大型科技公司之間的AI競(jìng)賽,這兩家公司在過(guò)去一年發(fā)布了許多新的AI產(chǎn)品。
其他著名的簽名者包括圖像生成器創(chuàng)企Stability AI首席執(zhí)行官伊馬德·穆斯塔克(Emad Mostaque)、作家兼歷史學(xué)家尤瓦爾·諾亞·哈拉里(Yuval Noah Harari)和Pinterest聯(lián)合創(chuàng)始人埃文·夏普(Evan Sharp)等。也有參與AI競(jìng)賽的公司的員工簽名,包括谷歌姊妹公司DeepMind和微軟。盡管OpenAI開(kāi)發(fā)并商業(yè)化了GPT系列AI模型,但沒(méi)有人在信上簽名。
盡管經(jīng)過(guò)了驗(yàn)證過(guò)程,但這封信一開(kāi)始還是有許多虛假簽名者,包括冒充OpenAI首席執(zhí)行官薩姆·阿爾特曼(Sam Altman)、Meta首席AI科學(xué)家雅恩·勒昆(Yann LeCun)的人。之后,生命未來(lái)研究所清理了名單,并在驗(yàn)證每個(gè)簽名時(shí)暫停了在信上顯示更多簽名。
然而,這封公開(kāi)信的發(fā)布已經(jīng)引起了軒然大波,受到許多AI研究人員的仔細(xì)審查,包括許多簽名者本人。有些簽名者重新改變了自己的立場(chǎng),有些知名人士的簽名被證明是假的,更多AI研究人員和專(zhuān)家則公開(kāi)對(duì)這封信中的描述和提議的方法表達(dá)了反對(duì)意見(jiàn)。
紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)教授加里·馬庫(kù)斯(Gary Marcus)說(shuō):“這封信并不完美,但其精神是正確的?!蓖瑫r(shí),Stability AI首席執(zhí)行官穆斯塔克在推特上表示,OpenAI是一家真正“開(kāi)放”的AI公司,“所以,我不認(rèn)為暫停訓(xùn)練六個(gè)月時(shí)間是最好的主意,也不同意信中的很多觀點(diǎn),但這封信中有些地方的確很有趣。”
AI專(zhuān)家批評(píng)這封信進(jìn)一步推動(dòng)了“AI炒作”,但卻沒(méi)有列出或呼吁對(duì)當(dāng)今存在的AI危害采取具體行動(dòng)。有些人認(rèn)為,這宣揚(yáng)了一種長(zhǎng)期卻有些不符合實(shí)際的觀點(diǎn),這種觀點(diǎn)被批評(píng)為有害和反民主的,因?yàn)樗鼘?duì)超級(jí)富豪更有利,并允許他們?cè)谀承├碛上虏扇〉赖律峡梢傻男袨椤?/p>
華盛頓大學(xué)語(yǔ)言學(xué)系教授、公開(kāi)信開(kāi)頭所引用論文的合著者艾米麗·本德?tīng)枺‥mily M. Bender)在推特上寫(xiě)道,這封信中“充斥著AI炒作”,并濫用了她的研究成果。信中稱(chēng):“廣泛的研究表明,具有堪比人類(lèi)智慧的AI系統(tǒng)可能會(huì)對(duì)社會(huì)和人類(lèi)構(gòu)成重大威脅?!钡镜?tīng)柗瘩g說(shuō),她在研究中特別指出,這種威脅是指目前的大型語(yǔ)言模型及其在壓迫系統(tǒng)中的使用情況,這比公開(kāi)信中假設(shè)的未來(lái)AI威脅要具體得多,也更緊迫。
本德?tīng)柪^續(xù)寫(xiě)道:“我們?cè)?020年底發(fā)布了完整論文,指出這種不考慮風(fēng)險(xiǎn)而急于建立更大語(yǔ)言模型的做法存在問(wèn)題。但風(fēng)險(xiǎn)和危害從來(lái)都不是‘AI過(guò)于強(qiáng)大’,相反,它們關(guān)乎權(quán)力集中在人民手中,關(guān)乎重現(xiàn)壓迫體系,關(guān)乎對(duì)信息生態(tài)系統(tǒng)的破壞,關(guān)乎對(duì)自然生態(tài)系統(tǒng)的破壞等?!?/p>
AI初創(chuàng)公司Hugging Face的研究科學(xué)家薩莎·盧西奧尼(Sasha Luccioni)在接受采訪時(shí)表示:“公開(kāi)信在本質(zhì)上是一種誤導(dǎo):讓每個(gè)人都注意到大型語(yǔ)言模型被臆想的力量和危害,并提出非常模糊、幾乎無(wú)效的解決方案,而不是在此時(shí)此刻關(guān)注這些危害并解決它們。例如,在涉及LLM的培訓(xùn)數(shù)據(jù)和能力時(shí)要求更多的透明度,或者要求立法規(guī)定在哪里和何時(shí)可以使用它們?!?/p>
普林斯頓大學(xué)計(jì)算機(jī)科學(xué)副教授阿爾溫德·納拉亞南(Arvind Narayanan)表示,這封公開(kāi)信充滿(mǎn)了AI炒作,“使解決真實(shí)的、正在發(fā)生的AI危害變得更加困難”。
公開(kāi)信中提出了幾個(gè)問(wèn)題:“我們是否應(yīng)該自動(dòng)化所有工作,包括那些讓人有成就感的工作?我們是否應(yīng)該培養(yǎng)非人類(lèi)思維,這些思維最終可能會(huì)超過(guò)人類(lèi)智慧并取代我們?我們應(yīng)該冒著失去對(duì)文明控制的風(fēng)險(xiǎn)繼續(xù)開(kāi)發(fā)AI嗎?”
對(duì)此,納拉亞南說(shuō),這些問(wèn)題都是“無(wú)稽之談”,“荒謬無(wú)比”。計(jì)算機(jī)是否會(huì)取代人類(lèi)并接管人類(lèi)文明,這是一個(gè)非常遙遠(yuǎn)的問(wèn)題,是長(zhǎng)期主義思維的一部分,它分散了我們對(duì)當(dāng)前問(wèn)題的注意力。畢竟,AI已經(jīng)被整合到人們的工作中,減少了對(duì)某些職業(yè)的需求,而不是一種會(huì)讓我們“過(guò)時(shí)”的“非人類(lèi)思維”。
納拉亞南還稱(chēng):“我認(rèn)為,這些可以算是合理的長(zhǎng)期擔(dān)憂(yōu),但它們已被反復(fù)提及,轉(zhuǎn)移了人們對(duì)當(dāng)前危害的注意力,包括非常真實(shí)的信息安全和安全風(fēng)險(xiǎn)!而解決這些安全風(fēng)險(xiǎn)將需要我們精誠(chéng)合作。但不幸的是,這封信中的炒作,包括對(duì)AI能力和事關(guān)人類(lèi)生存風(fēng)險(xiǎn)的夸大,可能會(huì)導(dǎo)致AI模型被更多地束縛,使應(yīng)對(duì)風(fēng)險(xiǎn)變得更加困難?!?/p>
不過(guò),許多公開(kāi)信的簽字人也進(jìn)行了辯護(hù)。研究機(jī)構(gòu)Mila創(chuàng)始人兼科學(xué)主任約書(shū)亞·本吉奧(Yoshua Bengio)表示,六個(gè)月的暫停時(shí)間對(duì)于包括政府在內(nèi)的治理機(jī)構(gòu)理解、審計(jì)和驗(yàn)證AI系統(tǒng)是必要的,可以確保這些系統(tǒng)對(duì)公眾是安全的。他補(bǔ)充說(shuō),目前存在危險(xiǎn)的權(quán)力集中,AI工具有可能破壞民主的穩(wěn)定,“民主價(jià)值觀和開(kāi)發(fā)這些工具的方式之間存在沖突”。
麻省理工學(xué)院NSF AI與基礎(chǔ)交互研究所(IAIFI)物理學(xué)教授、未來(lái)生命研究所所長(zhǎng)馬克斯·泰格馬克(Max Tegmark)表示,最糟糕的情況是,人類(lèi)將逐漸失去對(duì)文明的控制。他說(shuō),目前的風(fēng)險(xiǎn)在于,“我們失去了對(duì)科技公司中一群未經(jīng)選舉產(chǎn)生的權(quán)力人士的控制,他們的影響力太大了?!?/p>
這些評(píng)論談到了廣闊的未來(lái),暗示著對(duì)失去文明控制的恐懼,但除了呼吁6個(gè)月的暫停期之外,沒(méi)有談到任何具體措施。
計(jì)算機(jī)科學(xué)家、分布式AI研究所創(chuàng)始人蒂姆尼特·格布魯(Timnit Gebru)在推特上發(fā)帖稱(chēng),具有諷刺意味的是,他們呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的AI模型,但卻未能解決圍繞GPT-4本身的大量擔(dān)憂(yōu)。