《人類簡史》作者:AI 黑掉了人類文明的操作系統(tǒng)
自然語言大模型的應(yīng)用爆發(fā)后,已經(jīng)有不少科技圈大佬從不同角度表達了對AI的看法。最近,《經(jīng)濟學(xué)人》雜志約稿知名歷史學(xué)家、哲學(xué)家、《人類簡史》的作者尤瓦爾·赫拉利(Yuval Harari),他撰文分享了他對AI的思考。

赫拉利延續(xù)了他在《人類簡史》中的觀點,強調(diào)語言是幾乎所有人類文化的構(gòu)成要素。擁有了語言生成能力的AI將通過語言影響人類對世界的看法,”AI Hack了人類文明的操作系統(tǒng)“。他將AI比作“核武器”, 呼吁人們立即行動采取更多的安全措施,一個建議是“強制要求AI披露自己是AI”。
我們已經(jīng)看過各種“理科生”代表對AI的發(fā)言,人文學(xué)者則更具象地描述了AI可能如何通過語言影響對政治、宗教、商業(yè)。他大膽假設(shè),人類未來可能會活在AI制造的幻覺中?!对钪嫒毡啡木幾g了他的文章。
從計算機時代開始,對AI的恐懼就困擾著人類。此前,人們主要是害怕機器會用物理的手段殺死、奴役或取代人類。過去幾年,新的AI工具出現(xiàn)了,并從一個意想不到的方面對人類文明的存續(xù)造成了威脅:AI獲得了一些處理和生成語言(無論是通過文字、聲音還是圖像)的非凡能力,因此已經(jīng)攻破了人類文明的操作系統(tǒng)。
語言是幾乎所有人類文化的構(gòu)成要素。例如,人權(quán)并不是刻在人類DNA之中的,而是我們通過講故事和制定法律創(chuàng)造出來的文化產(chǎn)物;神不是物理存在的,而是我們通過創(chuàng)造神話和撰寫經(jīng)文創(chuàng)造出來的文化產(chǎn)物。
貨幣也是一種文化產(chǎn)物。鈔票不過是五顏六色的紙片,而目前90%以上的錢甚至不是紙幣,而是電腦里的數(shù)字信息。賦予貨幣價值的是銀行家、財政部長和加密貨幣專家給我們講的關(guān)于它的故事:FTX的創(chuàng)始人山姆·班克曼·弗里德(Sam Bankman-Fried),造假“滴血驗癌”的女企業(yè)家伊麗莎白·霍姆斯(Elizabeth Holmes),以及史上最大的龐氏騙局策劃者伯納德·麥道夫(Bernie Madoff),他們都不怎么擅長創(chuàng)造真正的價值,但他們都特別會講故事。
如果非人類的智能體在講故事、創(chuàng)作旋律、繪制圖像以及編寫法律和經(jīng)文方面比普通人更勝一籌,那會怎樣?
當人們想到ChatGPT 和其他新的AI工具時,他們常常會關(guān)注中小學(xué)生用AI寫作文的例子。如果孩子們這么干,學(xué)校系統(tǒng)會發(fā)生什么變化? 但這類問題沒有抓住重點。先別管學(xué)校作文,想想2024年的下屆美國總統(tǒng)競選,再試著想象一下AI工具可能會被用來炮制大量政治內(nèi)容和虛假新聞,這又會有怎樣的影響?
近年來,“匿名者Q”的信徒圍繞網(wǎng)上發(fā)布的匿名爆料信息集結(jié)抱團(編者注:“匿名者Q”是各種陰謀論的網(wǎng)絡(luò)集結(jié)地,其核心陰謀論是美國表面的政府內(nèi)部存在一個深層政府)。信徒們收集和推崇這類陰謀論爆料,將其奉為圣經(jīng)。以前,所有的爆料貼都是由人編寫的,機器只是幫助散播。但在未來,我們可能會看到歷史上第一批由非人類智能體編寫經(jīng)文的異教??v觀歷史,各種宗教都聲稱其圣書并非出自人類。這可能很快就會成為現(xiàn)實。
在更日常的層面上,我們可能很快就會發(fā)現(xiàn),我們以為自己是在網(wǎng)上跟真人長篇大論探討墮胎、氣候變化或俄烏沖突,但對方實際上是AI。問題在于,我們花時間試圖改變一個AI的看法毫無意義,而AI卻可以非常精準地打磨信息,而這很有可能會影響我們的看法。
通過掌握人類語言,AI甚至可能與人建立親密關(guān)系,并利用這種關(guān)系的力量改變我們的看法和世界觀。雖然沒有跡象表明AI有任何自己的意識或感受,但AI要與人類培養(yǎng)虛假親密關(guān)系,只需讓人類對它產(chǎn)生情感上的依戀就夠了。
2022年6月,谷歌工程師布雷克·萊莫恩(Blake Lemoine)公開聲稱,他正在研究的AI聊天機器人LaMDA已經(jīng)有了感知力。這個有爭議的說法讓他丟了工作。此事最有意思的地方不在于萊莫恩的言論(可能不實),而在于他為了給AI聊天機器人正名而甘愿承擔丟掉高薪工作的風險。如果AI可以讓人們?nèi)樗皝G工作的風險,那它是否還可能誘導(dǎo)人們做些別的事呢?
在贏得民意、爭取民心的政治斗爭中,親近感是最有效的武器。而AI剛剛獲得了與千百萬人建立親密關(guān)系的能力。
眾所周知,在過去十年中,社交媒體已成為爭奪人們注意力的戰(zhàn)場。隨著新一代AI的出現(xiàn),戰(zhàn)線正從注意力轉(zhuǎn)向親近感。假如AI和AI之間競爭誰能與人類產(chǎn)生更親密的關(guān)系,然后再利用這種關(guān)系來說服我們投票給某些政客或購買某些產(chǎn)品,人類社會和人類心理發(fā)生怎樣的變化?
即使在不創(chuàng)造“虛假親密”的情況下,新的 AI工具也會對我們的看法和世界觀產(chǎn)生巨大的影響。人們可能會將某個AI顧問當作無所不知的一站式神明,難怪谷歌會慌了神。有問題可以問神明,為什么還要費勁去搜索? 新聞和廣告行業(yè)自然也很恐懼,既然只要問神明就能得到最新消息,為什么還要看報紙? 如果神明能告訴我該買什么,廣告還有什么用?
而就算設(shè)想到了這些場景,也依然沒能真正把握全局。當我們討論的人類歷史可能終結(jié)時,說的不是歷史的終結(jié),只是人類主導(dǎo)的那部分歷史的終結(jié)。歷史是生物與文化相互作用的產(chǎn)物,是我們的生理需求和欲望(如食與性)與文化創(chuàng)造物(如宗教和法律)相互作用的產(chǎn)物。歷史是法律和宗教逐步影響飲食和性的過程。
當AI接管了文化并開始創(chuàng)造故事,旋律、法律和宗教,歷史進程會發(fā)生什么變化? 以前,印刷機和收音機等工具促進了人類文化理念的傳播,但它們從未創(chuàng)造過自己的新文化理念。AI與它們有根本上的差異。AI可以創(chuàng)造全新的想法,全新的文化。
一開始,發(fā)展初期的AI可能會模仿訓(xùn)練它的人類。但隨著時間的推移,AI文化將大膽地走向人類從未涉足過的領(lǐng)域。幾千年來,人類生活在其他人類的夢中。在接下來的幾十年里,我們可能會發(fā)現(xiàn)自己生活在非人類的智能體的夢中。
對AI的恐懼只是在過去幾十年里困擾著人類。但幾千年來,一種幽深得多的恐懼一直縈繞在人類心頭。我們一直都明白故事和圖像具有操縱頭腦和創(chuàng)造幻覺的力量。因此,人類自古以來就害怕被困在一個幻象的世界中。
在17世紀,笛卡爾擔心自己可能被一個惡魔困在了一個幻覺世界中,他的一切所見所聞都不過是這惡魔設(shè)置的。古希臘的柏拉圖講述了著名的洞穴寓言: 一群人一輩子都被鐵鏈鎖在一個洞穴里,眼前只有一堵空白的洞壁,就像一個屏幕。囚徒們能看到洞外的世界投射在洞壁上的各種影子,于是,他們把這些幻象當成了現(xiàn)實。
在古印度,佛教和印度教圣人指出,人類都活在摩耶(幻象世界)之中。我們通常認為是現(xiàn)實的東西往往只是我們自己頭腦中的幻象。人類可能會因為相信這樣或那樣的幻象而發(fā)動戰(zhàn)爭,殺戮他人,以及甘愿被殺。
AI革命把笛卡爾的惡魔,柏拉圖的洞穴和摩耶直接帶到了我們面前。一不小心,我們可能會被困在幻象的帷幕后面,撕扯不開,甚至無法意識到它的存在。
當然,AI的新力量也可能得以善用。對此我不打算贅言,因為開發(fā)AI的人已經(jīng)講得夠多了。像我這樣的歷史學(xué)家和哲學(xué)家的工作是指出AI的危險所在。但毫無疑問,AI能以不計其數(shù)的方式幫助人類,從找到新的攻克癌癥的療法,到發(fā)現(xiàn)生態(tài)危機的解決方案等等。擺在我們面前的問題是如何確保新的AI工具會被用干行善而不是做惡。為此,我們首先需要認清這些工具的真實能力。
自1945年以來,我們就知道核技術(shù)可以產(chǎn)生廉價能源,造福人類,但也能從物理上毀滅人類文明。因此,為了保護人類并確保核技術(shù)主要用干造福人類,我們重塑了整個國際秩序。現(xiàn)在我們必須應(yīng)對一種可以毀滅我們的精神世界和社會世界的新型大規(guī)模殺傷性武器。
我們?nèi)匀豢梢怨芸匦碌腁I工具,但必須迅速行動。核武器無法發(fā)明更強大的核武器,但AI卻可以造就威力呈指數(shù)級增長的 AI。
第一個關(guān)鍵步驟是在將強大的AI工具發(fā)布到公共領(lǐng)域之前必須對其進行嚴格的安全檢查。正如制藥公司不能未經(jīng)測試短期和長期副作用就發(fā)布新藥一樣,科技公司也不應(yīng)在確保安全性之前就發(fā)布新的AI工具。我們需要像美國食品和藥品監(jiān)督管理局(FDA)那樣的機構(gòu)來監(jiān)管新技術(shù)。這些事早就應(yīng)該做了。
放慢在公共領(lǐng)域部署AI的步伐難道不會導(dǎo)致民主國家落后于更不計后果的威權(quán)政權(quán)嗎? 恰好相反。不受監(jiān)管的AI部署會造成社會混亂,這將有利于獨裁者破壞民主制度。民主是一種對話,而對話依賴于語言。AI破解語言之后,可能會破壞我們進行有意義對話的能力,從而毀壞民主。
我們才剛剛在地球上遭遇一種非人類的智能體,對它還知之甚少,只知道它可能會摧毀人類文明。我們應(yīng)該制止在公共領(lǐng)域不負責任地部署AI工具,在AI管控我們之前管控AI。而我的第一個監(jiān)管建議是要強制要求AI披露自己是AI。如果我在交談之中無法辨別對方是人還是AI,那就是民主的終結(jié)。


























