公開信敦促暫停人工智能研究
生命未來研究所(Future of Life Institute)發(fā)布了一封公開信,呼吁暫停某些形式的人工智能研究六個月。該組織以“對社會和人類的嚴重風險”為由,要求人工智能實驗室暫停對比GPT-4更強大的人工智能系統(tǒng)的研究,直到可以在它們周圍設置更多的“安全護欄”。

生命未來研究所在3月22日的公開信中寫道:“具有與人類競爭的人工智能系統(tǒng)會給社會和人類帶來巨大風險。”“先進的人工智能可能代表著地球生命史的深刻變化,應該以相應的謹慎和資源進行規(guī)劃和管理。不幸的是,這種水平的規(guī)劃和管理并沒有實現(xiàn)。”
該研究所認為,如果沒有人工智能治理框架——比如阿西洛馬人工智能原則(Asilomar AI Principles,是著名的阿西莫夫的機器人三大法則的擴展版本。這23條準則由該研究所牽頭制定。)——我們就缺乏適當?shù)臋z查機制來確保人工智能以有計劃和可控的方式發(fā)展。這就是我們今天面臨的情況。
信中寫道:“不幸的是,這種水平的規(guī)劃和管理并沒有發(fā)生,盡管最近幾個月人工智能實驗室陷入了一場失控的競賽,以開發(fā)和部署越來越強大的數(shù)字思維,而沒有人——甚至他們的創(chuàng)造者——能夠理解、預測或可靠地控制這些思維。”
在人工智能研究人員沒有自愿暫停的情況下,生命未來研究所敦促政府采取行動,防止對大型人工智能模型的持續(xù)研究造成傷害。
頂尖的人工智能研究人員在是否暫停研究的問題上存在分歧。5000多人簽名支持這封公開信,其中包括圖靈獎得主Yoshua Bengio、OpenAI聯(lián)合創(chuàng)始人埃隆·馬斯克和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克。

然而,并不是每個人都相信禁止研究比GPT-4更強大的人工智能系統(tǒng)符合我們的最大利益。
“我沒有簽署這封信,”Meta首席人工智能科學家、圖靈獎得主Yann LeCun(2018年與Bengio和Geoffrey Hinton一起獲得圖靈獎)在推特上說?!拔也煌馑那疤帷!?/span>
LeCun、Bengio和Hinton被美國計算機協(xié)會(ACM)稱為“深度學習革命之父”,他們在十多年前通過對神經(jīng)網(wǎng)絡的研究掀起了當前的人工智能熱潮。當年,深度神經(jīng)網(wǎng)絡是世界各地人工智能研究人員的主要關注點。
隨著谷歌2017年發(fā)表的Transformer論文,人工智能研究進入了超速狀態(tài)。很快,研究人員注意到大型語言模型意外出現(xiàn)的能量財富,例如學習數(shù)學的能力、思維鏈推理和指令遵循。
2022年11月下旬,當OpenAI向世界發(fā)布ChatGPT時,公眾嘗到了這些LLM能做什么的滋味。從那時起,科技界一直致力于在他們所做的一切中實施LLM,而建造更大、更強大的模型的“軍備競賽”也獲得了額外的動力,正如3月15日GPT-4的發(fā)布。

盡管一些人工智能專家對LLM的負面影響表示擔憂,包括撒謊傾向、私人數(shù)據(jù)披露風險以及對就業(yè)的潛在影響,但它并沒有使公眾對新人工智能功能的巨大需求降溫。英偉達首席執(zhí)行官黃仁勛(Jensen Huang)稱,我們可能正處于人工智能的轉折點。但精靈似乎已經(jīng)從瓶子里出來了,不知道它下一步會去哪里。
































