技術(shù)樂(lè)觀主義者和末日論者在硅谷展開(kāi)的關(guān)于AI潛藏的危險(xiǎn)的激烈辯論

如今,在推出ChatGPT一年多之后,2023年最大的AI故事可能與其說(shuō)是技術(shù)本身,不如說(shuō)是OpenAI董事會(huì)對(duì)其快速發(fā)展的戲劇性報(bào)道。在奧特曼被趕下臺(tái)并隨后復(fù)職擔(dān)任CEO期間,GenAI進(jìn)入2024年的潛在緊張局勢(shì)顯而易見(jiàn):AI處于巨大分歧的中心,一方是完全接受其快速創(chuàng)新步伐的人,另一方是由于涉及的許多風(fēng)險(xiǎn)而希望它放緩的人。
這場(chǎng)在科技界被稱(chēng)為e/acc vs.Decels的辯論自2021年以來(lái)一直在硅谷流傳,但隨著AI在權(quán)力和影響力上的增長(zhǎng),理解分歧的雙方變得越來(lái)越重要。
以下是一些關(guān)鍵術(shù)語(yǔ)的入門(mén)讀物,以及一些塑造AI未來(lái)的知名參與者。
e/acc與技術(shù)樂(lè)觀主義
術(shù)語(yǔ)“e/acc”代表有效的加速主義。
簡(jiǎn)而言之,那些支持e/acc的人希望技術(shù)和創(chuàng)新盡可能快地發(fā)展。
這一概念的支持者在關(guān)于e/acc的第一篇帖子中解釋道:“科技資本可以帶來(lái)意識(shí)的下一次進(jìn)化,創(chuàng)造不可想象的下一代生命形式和基于硅的意識(shí)?!?/p>
在AI方面,“AI”,或稱(chēng)AGI,是這里辯論的基礎(chǔ)。AGI是一種超級(jí)智能的AI,它非常先進(jìn),可以做得和人類(lèi)一樣好,甚至比人類(lèi)做得更好。AGI也可以改進(jìn)自己,創(chuàng)造一個(gè)無(wú)限的反饋循環(huán),具有無(wú)限的可能性。
一些人認(rèn)為AGI將擁有直到世界末日的能力,變得如此聰明,以至于它們找到了如何消滅人類(lèi)的方法,但e/acc的愛(ài)好者選擇關(guān)注AGI可以提供的好處。創(chuàng)始的e/acc子棧解釋說(shuō):“沒(méi)有什么能阻止我們?yōu)榛钪拿恳粋€(gè)人創(chuàng)造財(cái)富,除了這樣做的意愿。”
e/acc Start的創(chuàng)始人一直籠罩在神秘之中,但是@basedbeffjezos,可以說(shuō)是e/acc最大的支持者,最近在他的身份被媒體曝光后透露自己是Guillaume Verdon。
Verdon之前曾在Alphabet、X和谷歌工作,現(xiàn)在他正在致力于他所說(shuō)的“AI曼哈頓項(xiàng)目”,并在X上說(shuō):“這不是e/acc的結(jié)束,而是一個(gè)新的開(kāi)始。在這里,我可以站出來(lái),讓我們的聲音在X之外的傳統(tǒng)世界被聽(tīng)到,并利用我的資歷為我們社區(qū)的利益提供支持?!?/p>
Verdon也是科技初創(chuàng)公司Extrotic的創(chuàng)始人,他將該公司描述為“通過(guò)利用熱力學(xué)物理,在物理世界中為生成性AI構(gòu)建終極基礎(chǔ)?!?/p>
頂級(jí)風(fēng)投的AI宣言
最著名的e/acc支持者之一是安德森-霍洛維茨公司(Andreessen Horowitz)的風(fēng)險(xiǎn)投資家馬克·安德森,他此前曾稱(chēng)韋爾登為“科技樂(lè)觀主義的守護(hù)神”。
技術(shù)樂(lè)觀主義就像它聽(tīng)起來(lái)那樣:信徒認(rèn)為更多的技術(shù)最終會(huì)讓世界變得更美好。安德森撰寫(xiě)了《技術(shù)樂(lè)觀主義宣言》,這是一份5000多字的聲明,解釋了技術(shù)將如何賦予人類(lèi)力量,并解決所有物質(zhì)問(wèn)題。安德森甚至說(shuō):“AI的任何減速都會(huì)以生命為代價(jià)”,如果不發(fā)展到足以防止死亡的程度,這將是一種“謀殺形式”。
他寫(xiě)的另一篇技術(shù)樂(lè)觀主義文章《為什么AI將拯救世界》被Meta的首席AI科學(xué)家Yann LeCun轉(zhuǎn)發(fā),他因在AI方面的突破而獲得著名的圖靈獎(jiǎng),被稱(chēng)為“AI教父”之一。
LeCun在X雜志上給自己貼上了“人文主義者”的標(biāo)簽,他認(rèn)同積極的和規(guī)范的積極技術(shù)樂(lè)觀主義。
LeCun最近表示,他預(yù)計(jì)AI在很長(zhǎng)一段時(shí)間內(nèi)都不會(huì)到來(lái),他在公開(kāi)場(chǎng)合與那些他所說(shuō)的“懷疑當(dāng)前的經(jīng)濟(jì)和政治機(jī)構(gòu),以及整個(gè)人類(lèi)是否有能力永遠(yuǎn)使用AI”的人形成了鮮明的對(duì)比。
Meta對(duì)開(kāi)源AI的擁抱奠定了LeCun的信念,即這項(xiàng)技術(shù)將提供更多的潛力,而不是有害的,而其他人則指出了像Meta這樣的商業(yè)模式的危險(xiǎn),這種模式正在推動(dòng)將廣泛可用的新一代AI模型置于許多開(kāi)發(fā)者手中。
AI協(xié)調(diào)和減速
今年3月,Encode Justice和未來(lái)生活研究所(Future Of Life Institute)發(fā)表了一封公開(kāi)信,呼吁“所有AI實(shí)驗(yàn)室立即暫停對(duì)比GPT-4更強(qiáng)大的AI系統(tǒng)的培訓(xùn)至少六個(gè)月。”
這封信得到了科技界知名人士的支持,如埃隆·馬斯克和蘋(píng)果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克。
OpenAI的CEO奧特曼在4月份的一次麻省理工學(xué)院活動(dòng)中發(fā)表了這封信,他說(shuō):“我認(rèn)為謹(jǐn)慎行事,對(duì)安全問(wèn)題越來(lái)越嚴(yán)格真的很重要。我認(rèn)為這封信不是解決這個(gè)問(wèn)題的最佳方式?!?/p>
當(dāng)OpenAI董事會(huì)大戲上演時(shí),奧特曼再次卷入了這場(chǎng)戰(zhàn)斗,OpenAI非營(yíng)利性部門(mén)的原始董事們?cè)絹?lái)越擔(dān)心進(jìn)展的速度及其宣稱(chēng)的使命,即確保通用人工智能-通常比人類(lèi)更聰明的AI系統(tǒng)-造福全人類(lèi)。
公開(kāi)信中的一些想法是減速的關(guān)鍵,也是AI減速的支持者。Decel希望進(jìn)展放慢,因?yàn)锳I的未來(lái)是危險(xiǎn)和不可預(yù)測(cè)的,他們最大的擔(dān)憂(yōu)之一是AI的一致性。
AI協(xié)調(diào)問(wèn)題解決了這樣一種想法,即AI最終將變得如此智能,以至于人類(lèi)將無(wú)法控制它。
“我們作為一個(gè)物種的統(tǒng)治地位是由我們相對(duì)優(yōu)越的智力驅(qū)動(dòng)的,這給其他物種帶來(lái)了有害的后果,包括滅絕,因?yàn)槲覀兊哪繕?biāo)與他們的目標(biāo)不一致。我們控制著未來(lái)——?jiǎng)游飯@里有黑猩猩。先進(jìn)的AI系統(tǒng)也同樣可以影響人類(lèi)?!皺C(jī)器智能研究所的CEO Malo Bourgon說(shuō)。
AI協(xié)調(diào)研究,如MIRI的,旨在訓(xùn)練AI系統(tǒng),使其與人類(lèi)的目標(biāo)、道德和倫理相結(jié)合,這將防止對(duì)人類(lèi)的任何生存風(fēng)險(xiǎn)?!昂诵娘L(fēng)險(xiǎn)在于創(chuàng)造比我們聰明得多的實(shí)體,目標(biāo)錯(cuò)位,其行動(dòng)不可預(yù)測(cè)和無(wú)法控制。”Bourgon說(shuō)。
政府和AI的世界末日問(wèn)題
戰(zhàn)略風(fēng)險(xiǎn)委員會(huì)CEO、前五角大樓官員克里斯汀·帕特莫爾將她的職業(yè)生涯獻(xiàn)給了降低危險(xiǎn)情況的風(fēng)險(xiǎn),她最近告訴記者,當(dāng)我們考慮到AI如果被用來(lái)監(jiān)督核武器可能導(dǎo)致的“大規(guī)模死亡”時(shí),這是一個(gè)需要立即關(guān)注的問(wèn)題。
但她強(qiáng)調(diào),“盯著問(wèn)題看”不會(huì)有任何好處,“關(guān)鍵是要解決風(fēng)險(xiǎn),找到最有效的解決方案,”她說(shuō)。她補(bǔ)充說(shuō):“這是一項(xiàng)純粹的兩用技術(shù)。沒(méi)有哪種情況下,AI更像是一種武器,而不是一種解決方案?!崩纾笮驼Z(yǔ)言模型將成為虛擬實(shí)驗(yàn)室助手,加快醫(yī)學(xué)進(jìn)程,但也會(huì)幫助邪惡的行為者識(shí)別最好、最具傳播性的病原體用于攻擊。這是AI無(wú)法阻止的原因之一,她說(shuō)?!胺怕俣炔皇墙鉀Q方案的一部分。”帕特莫爾說(shuō)。
今年早些時(shí)候,她的前雇主國(guó)防部在使用AI系統(tǒng)時(shí)表示,循環(huán)中永遠(yuǎn)會(huì)有一個(gè)人。她說(shuō),這是一種應(yīng)該在任何地方都采用的協(xié)議?!癆I本身不可能是權(quán)威,”她說(shuō)。我們需要信任這些工具,或者我們不應(yīng)該使用它們,但我們需要將它們與環(huán)境聯(lián)系起來(lái)。人們普遍缺乏對(duì)這個(gè)工具集的了解,因此過(guò)度自信和過(guò)度依賴(lài)的風(fēng)險(xiǎn)更高。
政府官員和政策制定者已經(jīng)開(kāi)始注意到這些風(fēng)險(xiǎn)。今年7月,拜登-哈里斯政府宣布,它已獲得AI巨頭亞馬遜、Anthropic、谷歌、Inflect、Meta、微軟和OpenAI的自愿承諾,將“朝著安全、可靠和透明的AI技術(shù)發(fā)展方向邁進(jìn)?!?/p>
就在幾周前,拜登總統(tǒng)發(fā)布了一項(xiàng)行政命令,進(jìn)一步建立了AI安全和安保的新標(biāo)準(zhǔn),盡管社會(huì)上的利益攸關(guān)方團(tuán)體對(duì)其局限性感到擔(dān)憂(yōu)。同樣,英國(guó)政府在11月初引入了AI安全研究所,這是第一個(gè)專(zhuān)注于導(dǎo)航AI的國(guó)家支持組織。
在全球?qū)I霸主地位的爭(zhēng)奪中,以及與地緣政治競(jìng)爭(zhēng)的聯(lián)系中,中國(guó)正在實(shí)施自己的一套AI護(hù)欄。
負(fù)責(zé)任的AI承諾和懷疑
OpenAI目前正在研究SuperAlign,目標(biāo)是在四年內(nèi)解決超智能Align的核心技術(shù)挑戰(zhàn)。
在亞馬遜最近舉行的亞馬遜網(wǎng)絡(luò)服務(wù)Re:Inventt 2023大會(huì)上,它宣布了AI創(chuàng)新的新能力,并在整個(gè)公司內(nèi)實(shí)施了負(fù)責(zé)任的AI保障措施。
AWS負(fù)責(zé)AI的負(fù)責(zé)人Diya Wynn表示:“我經(jīng)常說(shuō),負(fù)責(zé)任的AI不應(yīng)被視為一個(gè)單獨(dú)的工作流程,而應(yīng)最終融入我們的工作方式,這是商業(yè)上的當(dāng)務(wù)之急?!?/p>
根據(jù)AWS委托Morning Consult進(jìn)行的一項(xiàng)研究,負(fù)責(zé)任的AI對(duì)59%的商業(yè)領(lǐng)袖來(lái)說(shuō)是越來(lái)越重要的商業(yè)優(yōu)先事項(xiàng),約一半(47%)的人計(jì)劃在2024年比2023年更多地投資于負(fù)責(zé)任的AI。
盡管考慮到負(fù)責(zé)任的AI可能會(huì)減緩AI的創(chuàng)新步伐,但像永利這樣的團(tuán)隊(duì)認(rèn)為自己正在為更安全的未來(lái)鋪平道路?!肮究吹搅藘r(jià)值,并開(kāi)始優(yōu)先考慮負(fù)責(zé)任的AI,”韋恩說(shuō),因此,“系統(tǒng)將變得更安全、更有保障、更具包容性?!?/p>
Bourgon并不信服,他說(shuō),像政府最近宣布的那些行動(dòng)“遠(yuǎn)遠(yuǎn)不是最終需要的”。
他預(yù)測(cè),AI系統(tǒng)很可能最早在2030年就會(huì)發(fā)展到災(zāi)難性的水平,政府需要準(zhǔn)備好無(wú)限期停止AI系統(tǒng),直到領(lǐng)先的AI開(kāi)發(fā)人員能夠“有力地證明他們系統(tǒng)的安全性”。















 
 
 





 
 
 
 