
譯者 | 李睿
審校 | 重樓
從圖像識別、語言翻譯到在國際象棋比賽中擊敗人類,人工智能如今取得了非凡的成就。然而,人工智能并非萬能,其在一些關(guān)鍵領(lǐng)域和任務(wù)上的能力仍遠遜于人類。目前的人工智能系統(tǒng)是“狹義”的專家,擅長解決定義明確的問題,但在需要常識、創(chuàng)造力或情感理解的情境中卻難以應(yīng)對。本文將探討人工智能尚未有效替代人類的核心領(lǐng)域和實際應(yīng)用,進一步凸顯了人工智能的固有局限性,進而闡明人類在這些方面不可替代的價值。
具體而言,人工智能目前在以下領(lǐng)域表現(xiàn)尤為不足:
創(chuàng)造力和原創(chuàng)性
創(chuàng)造力是公眾對人工智能最常見的誤解之一,因此需要澄清一些誤解。事實上,“人工智能并不具備人類意義上的真正創(chuàng)造力。”
迄今為止,人工智能在創(chuàng)造性領(lǐng)域的表現(xiàn)本質(zhì)上是模仿。它缺乏進行有意義或帶有意圖的創(chuàng)新的能力。在創(chuàng)造性領(lǐng)域,人類的創(chuàng)造力仍然占據(jù)上風(fēng)。雖然人工智能可以通過從現(xiàn)有作品中學(xué)習(xí)模式來創(chuàng)作藝術(shù)或?qū)懽?,但它缺乏想象力、文化洞察力和情感深度。雖然人工智能擅長整合已知信息,但難以進行巧妙的創(chuàng)造。這意味著人工智能藝術(shù)家可以重新混合不同風(fēng)格,或者人工智能作家可以模仿某種流派,但要構(gòu)思出蘊含深刻含義的原創(chuàng)概念或者能夠在深層次上與人類產(chǎn)生共鳴的故事則是另一回事。

圖1 人工智能面臨“有嘴無腦”的困境
在一項調(diào)查中,76%的人認為人工智能生成的內(nèi)容并不是“真正的藝術(shù)”,他們認為人工智能創(chuàng)造的內(nèi)容缺乏真實性或靈魂。人類創(chuàng)造者利用個人經(jīng)驗、豐富情感和明確意圖進行創(chuàng)作——其核心在于自我表達。而人工智能沒有自己的想法和目的,其輸出僅僅是執(zhí)行預(yù)設(shè)指令的結(jié)果。因此,從科學(xué)創(chuàng)新、小說創(chuàng)作到設(shè)計實踐,這些依靠原創(chuàng)思想和創(chuàng)造性而蓬勃發(fā)展的領(lǐng)域仍然很難被人工智能真正顛覆。人工智能是一種強大的創(chuàng)意工具,但就目前而言,它更像是聰明的模仿者,而不是真正的靈感來源。專家認為人工智能“有嘴無腦”是可以理解的!
倫理與道德推理
人工智能缺乏真正的道德指南或者對倫理的理解,這在一定程度上是由于道德困境的復(fù)雜性所致。在倫理考量方面,沒有絕對的“是”或“否”。倫理觀念可能會隨著時代的發(fā)展而演變,并且深受文化和政治的影響。人工智能可以遵循預(yù)先設(shè)定的規(guī)則和算法,但它不具備人類價值觀或良知。因此,人工智能缺乏復(fù)雜倫理決策所需的價值觀、同理心和道德推理能力。
例如,在醫(yī)療分類或自動駕駛場景中,人們無法信任沒有人類監(jiān)督的人工智能做出的最終決策。人工智能可能會機械地優(yōu)化結(jié)果(如效率或效用)而忽視公平性或同理心。在刑事司法領(lǐng)域,用于量刑或警務(wù)的算法由于基于歷史數(shù)據(jù)進行訓(xùn)練而顯示偏見,這可能會加劇不公平的偏見。

圖2 結(jié)果和價值之間的權(quán)衡
這些人工智能工具無法識別個體情況或公平性,機器缺乏人類的道德推理和同理心。簡而言之,每當決定涉及道德判斷或責(zé)任時,人類的判斷仍然是不可替代的,因為人類能夠以人工智能無法做到的方式權(quán)衡是非。
判斷與人類價值觀
現(xiàn)實世界的決策往往不存在單一的“正確答案”。它們?nèi)Q于個人價值觀、文化背景和情境判斷。人工智能系統(tǒng)對此缺乏自己的理解,它依靠數(shù)據(jù)和目標進行決策,而不是對意義、情感或價值共鳴的把握。
以廣告宣傳活動的設(shè)計或制定社區(qū)政策為例。其成功與否遠不止于測試數(shù)據(jù)(如點擊率)。關(guān)鍵在于它是否契合目標受眾的情感、價值觀與文化語境——美學(xué)、價值觀、基調(diào),所有這些都來自人類的經(jīng)驗。就人類價值觀而言,沒有一刀切的解決方案,因為他們深受過去經(jīng)驗的影響、人工智能無法察言觀色,它不知道某件事對某個人意味著什么。

圖3 人類價值觀與傳統(tǒng)數(shù)據(jù)點的區(qū)別
這就是與道德、文化或判斷相關(guān)的選擇仍然需要人類主導(dǎo)的根據(jù)原因。人類擁有感知微妙差異、理解深層背景的獨特能力,能夠直覺性地察覺問題所在——即便所有量化指標看似完美。人工智能并不是為這種理解而設(shè)計的。
荷蘭的福利政策就是一個很好的案例,該政策旨在為荷蘭居民提供經(jīng)濟援助,其資格的篩選取決于機器學(xué)習(xí)算法。但由于預(yù)測工具存在缺陷,導(dǎo)致對移民和低收入女性的評估出現(xiàn)了不公平的情況。這進一步凸顯了其訓(xùn)練數(shù)據(jù)中的偏見。
情商和同理心
情商和同理心是許多人類角色的關(guān)鍵要素,也是人工智能的一個主要盲點。雖然人工智能可以模擬禮貌的對話,但它缺乏情商,無法真正理解或分享感受。例如,在醫(yī)療保健和心理咨詢領(lǐng)域,患者不僅需要專業(yè)的診斷或治療建議,往往還需要同理心和情感支持。在某些情況下,安慰和幫助是應(yīng)對心理困擾的治療性干預(yù)手段。

圖4 情感的鴻溝是人工智能的優(yōu)化陷阱
人工智能治療師或護理人員或許能夠提供信息,但人工智能無法對人類能夠感受到的難以言喻的情感線索做出反應(yīng)。同樣,客戶服務(wù)聊天機器人可以處理簡單的查詢,但憤怒或苦惱的客戶可能需要能夠感同身受并解決矛盾的人工客服的幫助。建立有意義的人際關(guān)系(無論是作為老師、咨詢師還是護士)都需要同理心、對情感的細致理解以及對社交線索的適應(yīng)能力,這些都是人類獨有的特征。現(xiàn)實世界的經(jīng)驗反映了這一點:護理、咨詢和社會工作中的角色仍然依賴于情感,因為人工智能無法提供用戶所需的溫暖和理解。在能夠真正感受到或深度模擬人類情感之前,人工智能在任何需要情感聯(lián)系的應(yīng)用中仍然存在局限性。
身體感知和運動技能
配備人工智能的機器人在受控環(huán)境(如工廠)中取得了長足的進步,但它們?nèi)噪y以應(yīng)對現(xiàn)實世界的復(fù)雜性。有一個廣為人知的觀點叫做“莫拉維克悖論”:人類認為容易的任務(wù)(行走、感知和操縱物體)是人工智能最難復(fù)制的功能。人工智能可以擊敗國際象棋大師,但家用機器人仍然無法疊好衣物。

圖5 機器人難以完成基本的任務(wù)
模仿人類的感知和感覺運動技能需要對無數(shù)變量的實時理解,這對人工智能來說極具挑戰(zhàn)性。例如,自動駕駛汽車可以在繪制地圖的道路上以最優(yōu)的方式行駛,但在不可預(yù)測、非結(jié)構(gòu)化的環(huán)境中會表現(xiàn)不佳,例如在處理道路上意外出現(xiàn)的障礙物或人類手勢等環(huán)境變化迅速的情況下。護理人員移動病人或廚師實時調(diào)整食譜依賴于人工智能所缺乏的人類智能和直覺。盡管機器人取得了長足的進步,但人類的靈活性和對現(xiàn)實世界的適應(yīng)能力在很大程度上仍然是無與倫比的。
領(lǐng)導(dǎo)力和戰(zhàn)略愿景
領(lǐng)導(dǎo)力的核心在于激勵人心、在不確定性中做出判斷以及建立深厚信任。在這些高度依賴智慧的領(lǐng)域,人工智能的表現(xiàn)存在根本性局限——因為照本宣科的管理法替代真實的領(lǐng)導(dǎo)力。管理者和高管依賴于人工智能無法模仿的人際交往和戰(zhàn)略技能,這些技能是他們多年經(jīng)驗積累的結(jié)果。

圖6 結(jié)果導(dǎo)向的短視決策
人工智能可能比任何人都更快地處理業(yè)務(wù)指標,但它無法感知團隊士氣的微妙變化,也無法預(yù)測最近的決策對未來的影響。有效溝通和同理心是良好領(lǐng)導(dǎo)力的關(guān)鍵要素,而這些是人類固有的品質(zhì)。正如一項分析指出,通過愿景、同理心和溝通來激勵和引導(dǎo)他人的行為是人工智能無法企及的人類能力。
此外,人們通常不愿意在重要問題上接受機器的指令;他們希望領(lǐng)導(dǎo)者理解他們的價值觀,并且愿意為自己的決策承擔(dān)責(zé)任。如果由人工智能主導(dǎo)的決策導(dǎo)致事故,那誰為負責(zé)?程序員,公司,還是算法本身?人類喜歡找出根本原因。然而,當問題根源涉及復(fù)雜的人工智能系統(tǒng)時,往往缺乏可行的追責(zé)路徑或有效的約束機制,
關(guān)鍵模式
綜合考慮人工智能在諸多領(lǐng)域表現(xiàn)出的局限性,可以確定一些關(guān)鍵的模式:
- 能夠感知模式,而不能理解意義:人工智能在處理數(shù)據(jù)時沒有真正理解情境、情感或意圖。
- 可以執(zhí)行規(guī)則,難以應(yīng)對模糊性:人工智能在結(jié)構(gòu)化的環(huán)境中工作,但在不可預(yù)測、混亂的現(xiàn)實世界中會崩潰。
- 只能模仿,而不會原創(chuàng):人工智能將現(xiàn)有的內(nèi)容重新整合在一起,沒有真正的創(chuàng)造力、直覺或自我驅(qū)動的目的。
- 只生成結(jié)果,不承擔(dān)后果:人工智能不能像人類那樣關(guān)心后果、承擔(dān)責(zé)任或做出符合道德的決策。
- 知識聚合者,而不是智慧擁有者:人工智能缺乏來自生活經(jīng)驗和人類洞察力的判斷力、靈活性和視角。
人工智能的局限性是恒定不變的嗎?
本文聚焦于當前人工智能技術(shù)所展現(xiàn)的能力,必須明確的是,這些局限性并不是恒定不變。人工智能領(lǐng)域正在快速發(fā)展與演進,可以預(yù)見,其現(xiàn)有的局限性將隨著技術(shù)進步而逐步減少。人工智能在未來能夠克服一些挑戰(zhàn),這不足為奇。而如果人工智能在某些方面(例如倫理)能夠取得突破,將會看到人工智能運作方式的范式轉(zhuǎn)變。
常見問題解答
Q1:為什么人工智能不能取代人類的創(chuàng)造力?
答:人工智能模仿現(xiàn)有數(shù)據(jù)的模式,但缺乏想象力、情感和意圖。它并非出于目的或意義進行創(chuàng)作,只是根據(jù)訓(xùn)練輸出內(nèi)容。人類憑借個人經(jīng)歷和情感進行創(chuàng)作,雖然人工智能可以重新組合內(nèi)容,但無法真正創(chuàng)新。
Q2:可以信任人工智能做出倫理或道德決策嗎?
答:不能。人工智能并不理解倫理,只是遵循規(guī)則。它缺乏同理心、文化意識和是非感。在涉及公平或責(zé)任的復(fù)雜決策中,人類判斷仍然至關(guān)重要。
Q3:人工智能在現(xiàn)實應(yīng)用中最失敗的地方是什么?
答:人工智能在非結(jié)構(gòu)化、不可預(yù)測的情境中表現(xiàn)不佳。它無法感知情感、處理細微差別或像人類一樣適應(yīng)變化。而需要同理心、判斷力或身體感知的角色(例如護理人員、領(lǐng)導(dǎo)者或社會工作者)仍然依賴于人類。
原文標題:Limits of AI: Domains and Tasks Beyond AI’s Reach,作者:Vasu Deo Sankrityayan
































