人工智能最糟糕的真實應用場景
人工智能(AI)的最糟糕應用場景在好萊塢電影大片中屢見不鮮:機器學會了類似人類的智能,具備了感知能力,免不了變成邪惡的霸主,并企圖摧毀人類。這種敘事技巧利用了我們對技術的先天恐懼,反映出時常伴隨新技術產生的深刻變化。

不過,就像機器學習工程師,同時也是小說《量子價格》(The Quantum Price,2019年)作者的馬爾科姆?默多克(Malcolm Murdock)所說的那樣:“人工智能要想殺死我們,不一定要有感情。在有感情的人工智能成為問題之前,就有很多可能消滅我們的場景?!?/p>
通過對人工智能專家的采訪,本刊揭示了真實世界中的6個最糟糕的人工智能場景,這些場景遠比電影中描繪的平淡,但它們依然是反烏托邦的。大多數(shù)這些場景都不需要惡毒的獨裁者來實現(xiàn)。相反,如果不采取措施進行阻止,這些可能會輕易成為默許場景并自然地呈現(xiàn)出來。為了防止這些最糟糕的場景發(fā)生,我們必須摒棄對人工智能的流行文化看法,謹慎對待其意外后果。
1.當虛構來定義我們的現(xiàn)實
如果讓虛構來定義我們的現(xiàn)實,那么就可能發(fā)生不必要的悲劇。然而,在數(shù)字世界中我們無法分辨真假,如何進行選擇呢?
在可怕的場景中,不斷增多的深度偽造(高級機器學習工具產生的偽造圖像、視頻、音頻和文本等)有一天可能會導致國家安全決策者根據(jù)錯誤信息在真實世界中采取行動,從而造成重大危機,甚至更嚴重地引發(fā)戰(zhàn)爭。
喬治敦大學安全和新興技術中心(CSET)的高級研究員安德魯?洛恩(Andrew Lohn)說:“現(xiàn)在,采用人工智能的系統(tǒng)能夠(大規(guī)模)生成虛假信息?!蓖ㄟ^產生大量、多變的虛假信息,這些系統(tǒng)能夠混淆其本質,進行優(yōu)化并獲取成功,隨著時間的推移,提高其預期影響。
在緊要關頭,如果無法及時地確認信息的真實性,深度偽造的概念就足以導致領導者行動時猶豫不決。
德國漢堡研究和安全政策研究所的研究員瑪麗娜?法瓦羅(Marina Favaro)指出:“深度偽造損害了我們對信息流的信任?!鄙疃葌卧鞂е碌淖鳛楹筒蛔鳛槎伎赡軙o世界帶來災難性的后果。
2.逼近底線的危險競爭
涉及人工智能和國家安全時,速度是重點也是難點。采用人工智能的系統(tǒng)能夠給用戶帶來更大的速度效益,發(fā)展軍事應用領先的國家將具備戰(zhàn)略優(yōu)勢。不過,在這個過程中,可能會犧牲哪些設計原則呢?
系統(tǒng)的微小缺陷和被黑客利用會造成形勢崩潰。喬治敦大學安全和新興技術中心的戰(zhàn)略總監(jiān)海倫?托納(Helen Toner)表示,危機可能會“從一次無惡意的單點故障開始,故障導致所有通信中斷,引發(fā)人們的恐慌并造成經濟活動停滯。信息持續(xù)缺失,伴隨其他誤判,可能會造成事態(tài)急劇失控?!?/p>
瑞典斯德哥爾摩國際和平研究所(SIPRI)的高級研究員文森特?博拉寧(Vincent Boulanin)警告說,重大災難可能會導致“大國為了搶占先機而搶先走上捷徑。如果一個國家將速度優(yōu)先于安全、檢測或人類監(jiān)督,那就會形成逼近底線的危險競爭?!?/p>
例如,為了獲得速度優(yōu)勢,國家安全負責人可能會被誘惑下放指揮和控制權,去除對我們并未充分了解的機器學習模型的人工監(jiān)督。在這種場景中,無需人類授權便可啟動的導彈防御系統(tǒng),可能會導致事件意外升級并引發(fā)核戰(zhàn)爭。
3.隱私和自由意志的終結
每一次數(shù)字行為都會產生新的數(shù)據(jù),如電子郵件、文本、下載、采購、信息發(fā)布、自拍和GPS定位等。在允許企業(yè)和政府不受限制地訪問這些數(shù)據(jù)的過程中,我們拱手交出了監(jiān)督和控制的工具。
再加上面部識別、生物特征提取、基因組數(shù)據(jù),以及采用人工智能的預測分析,喬治敦大學安全和新興技術中心的洛恩很擔心:“隨著通過數(shù)據(jù)進行監(jiān)管和跟蹤的增多,我們進入了一個未知的危險領域,我們對潛在影響幾乎一無所知。”
經過收集和分析的數(shù)據(jù)力量遠遠不止檢查和監(jiān)督等預測性控制功能。如今,采用人工智能的系統(tǒng)能夠預測我們購買什么商品、觀看什么娛樂節(jié)目,以及會點擊哪些鏈接。如果這些平臺比我們更了解我們自己,我們可能無法注意到自己的自由意志逐漸被剝奪,并受到外部力量的控制。
4.人類行為實驗
孩子延遲即時滿足的能力,等待第二塊棉花糖,曾被認為是預測人生成功的重要指標。很快,即便是獲得第二塊棉花糖的孩子也會屈服于撩人的參與算法。
社交媒體用戶已經成為了實驗室里的小白鼠,生活在人類的斯金納箱中,緊盯著智能手機屏幕,被迫犧牲珍貴的時間和精力,貢獻給從中贏利的平臺。
喬治敦大學安全和新興技術中心的海倫?托納說:“算法被優(yōu)化,盡可能讓用戶長時間停留在平臺。”馬爾科姆?默多克解釋道,通過點贊、評論和關注等形式提供獎勵,“算法讓我們大腦的工作短路,讓我們無法抗拒地繼續(xù)參與?!?/p>
為了最大限度地追求廣告利潤,企業(yè)在我們的工作、家庭和朋友、責任,甚至業(yè)余愛好中,偷走我們的精力。更可怕的是,平臺的內容讓我們感覺比以前更痛苦、更糟糕。托納警告道:“在這些平臺上花的時間越多,我們在追求積極、豐富、有意義的生活上花的時間就越少。”
5.人工智能設計的專制
每天,我們把更多的日常生活交給采用人工智能的機器。這很成問題,正如霍洛維茨所說:“我們還沒有充分認識到人工智能的偏見問題。即便是出于善意,采用人工智能的系統(tǒng)設計(包括訓練數(shù)據(jù)和數(shù)學模型)也反映了設計者有偏見的狹隘經驗和利益。我們每個人都有偏見。”
因此,美國佛羅里達州克利爾沃特IT安全公司KnowBe4的新興技術分析高級副總裁莉迪亞?科斯托普洛斯(Lydia Kostopoulos)表示:“許多采用人工智能的系統(tǒng)未能考慮不同人的不同經驗和特征?!庇捎谌斯ぶ悄芙鉀Q問題的根據(jù)是有偏見的觀點和數(shù)據(jù),而不是每一個個體的獨特需求,因此這種系統(tǒng)產生的某種程度的一致性,在人類社會是不存在的。
甚至在人工智能興起之前,我們日常生活中常見物品的設計也往往是迎合特定類型的人群而設計的。例如,研究表明,汽車、手機等手持型工具,甚至是辦公環(huán)境中的溫度設定都是針對中等身材的男性而設計的,這給身材和體型不同的人群(包括女性)帶來了諸多不便,有時甚至會給他們的生活帶來很大風險。
當處于偏見常態(tài)之外的個體被忽略、被邊緣化、被排斥時,人工智能就成為了卡夫卡式的“看門人”,導致這些人無法享受客戶服務、獲得工作、享受醫(yī)療衛(wèi)生服務,等等。人工智能設計的決策會限制人們,而不是將其從日常問題中解放出來。此外,這些選擇會將有些不好的人類偏見轉化成為種族和性別的歧視和風險實踐,以及有嚴重缺陷和偏見的判決結果。
6.對人工智能的恐懼使人類不再受益
隨著計算能力和運行硬件復雜性的提高,人工智能的功能一定會增強,社會對人工智能的恐懼似乎只會隨著時間而增強?!叭斯ど窠浘W絡可以做出非常瘋狂的事?!蹦嗫苏f,“我們需要謹慎對待相關風險?!辈贿^,如果人們過于害怕人工智能,以至于政府對人工智能進行嚴格管控,使得人類不再受益,那又會怎樣呢?例如,DeepMind的AlphaFold程序實現(xiàn)重大突破,能夠預測氨基酸是如何折疊形成蛋白質的,科學家因此有可能確定人類98.5%的蛋白質結構。這一里程碑將為生命科學的快速發(fā)展建立富有成效的基礎。再比如,人工智能通過各種人類語言組合的流暢翻譯,使推進跨文化交流和理解成為可能;采用人工智能的系統(tǒng)可以識別新的疾病治療和護理方法等。為了防止發(fā)生人工智能的最壞結果,政府的本能性監(jiān)管行為也可能帶來事與愿違的效果,產生意外的負面影響,導致我們害怕這種強大技術的威力,抵制利用它真正為世界造福。




























