OpenAI們都錯(cuò)了!AI教父辛頓再發(fā)警告:控制AI是妄想!必須讓AI成為“母親”,學(xué)會主動關(guān)心人類!李飛飛當(dāng)場反駁:構(gòu)想不對!
原創(chuàng) 精選編輯 | 伊風(fēng)
出品 | 51CTO技術(shù)棧(微信號:blog51cto)
人類試圖控制AI的方式犯了本質(zhì)錯(cuò)誤!
昨日,“AI教父”辛頓(Geoffrey Hinton)在Ai4 行業(yè)大會上的發(fā)言再次掀起熱議。
這位曾警告“AI消滅人類的概率在10%到20%之間”的人工智能先驅(qū),這次把矛頭直接對準(zhǔn)科技巨頭——他質(zhì)疑,那些試圖讓人類在所謂“順從”的AI面前維持“主導(dǎo)地位”的做法,根本行不通。
“他們一直說我們必須控制這些AI,我們必須比它們更強(qiáng)大、必須占據(jù)主導(dǎo),它們必須順從我們。但這行不通。我們得讓它們在比我們更強(qiáng)大、更聰明的時(shí)候,依然關(guān)心我們?!?/p>
辛頓提出了一個(gè)令人側(cè)目的方案:為超級智能AI植入“母性本能”(maternal instincts),讓它們像母親呵護(hù)孩子一樣主動保護(hù)人類。
他呼吁說:
“我們必須決定人工智能將如何塑造人類——在它替我們做決定之前?!?nbsp;
圖片
然而,同場出席的“AI教母”李飛飛卻當(dāng)場表示了反對意見。
這場理念碰撞背后,到底是怎樣的分歧?
我們先從辛頓會后的詳細(xì)闡述,看看他口中的“AI母親”到底是什么。
1.AI訓(xùn)練的未來方向:在LLM中植入“母性本能”
在 Ai4 大會上,“AI教父”辛頓(Geoffrey Hinton)拋出一個(gè)頗具爭議的安全設(shè)想——未來的工程師,應(yīng)該在 AI 模型中構(gòu)建類似“母性本能”的機(jī)制,讓它們在變得更聰明、更強(qiáng)大后,依然會主動關(guān)心和保護(hù)人類。
這場演講的官方視頻尚未發(fā)布,但 CNN 會后專訪了辛頓,請他詳細(xì)解釋這一想法。
主持人一連拋出了三個(gè)問題:
這樣做的目的是什么?會產(chǎn)生什么作用?這在技術(shù)上可行嗎?
圖片
辛頓坦言,人類想要“完全控制”比自己聰明的 AI,幾乎是不可能的:
“大多數(shù)AI專家認(rèn)為,在未來5到20年內(nèi),我們將會造出比人類更聰明的AI,而且它們最終可能會比人類聰明得多。已知的例子中,幾乎沒有哪種更聰明的存在能夠被更不聰明的存在控制。事實(shí)上,我們唯一知道的例子就是母親會被嬰兒‘控制’。為了做到這一點(diǎn),進(jìn)化在母親身上植入了母性本能。如果我們在創(chuàng)造這些‘外星般’的存在時(shí)不做類似的事情,我們就會成為歷史?!?/p>
他承認(rèn),目前現(xiàn)實(shí)中唯一的“技術(shù)實(shí)現(xiàn)”案例來自進(jìn)化本身,人類在 AI 領(lǐng)域還沒有這方面的成果——我們專注于讓系統(tǒng)更聰明,卻忽視了同理心這一維度。
“智力只是存在的一部分,我們需要讓AI對我們有同理心。我們現(xiàn)在還不知道怎么做,但既然進(jìn)化能做到,我們也應(yīng)該能做到?!?/p>
那么,這樣的“母性AI”會不會削弱 AI 的競爭力?如果只有少數(shù)國家研發(fā)具備同理心的 AI,會不會在國際競賽中處于劣勢?辛頓的回答是——在應(yīng)對生存威脅時(shí),合作才是唯一選擇:
“AI的風(fēng)險(xiǎn)有很多,比如網(wǎng)絡(luò)攻擊、失業(yè)、制造惡性病毒。但其中一個(gè)風(fēng)險(xiǎn)是AI會完全接管人類,而面對這種生存威脅,所有國家都會合作,因?yàn)榇蠹以谕粭l船上。就像冷戰(zhàn)高峰期美蘇也會合作避免核戰(zhàn)爭一樣,各國會合作防止AI取代人類?!?/p>
至于那些堅(jiān)持“人類必須主導(dǎo)、AI必須順從”的政府與企業(yè),辛頓態(tài)度鮮明:
“當(dāng) AI 比人類聰明時(shí),這種想法是行不通的。”
2.20%概率AI會消滅人類,各國必須攜手戰(zhàn)斗
在接受 CNN 采訪時(shí),主持人直接追問辛頓:他是否真的相信 AI 消滅人類的概率有 10% 到 20%。辛頓毫不猶豫地回應(yīng):
“是的。如果我們找不到辦法,在它們比我們聰明、比我們強(qiáng)大的時(shí)候還能繼續(xù)生存下去,那我們就完了?!?/p>
他強(qiáng)調(diào),我們必須對那些聲稱“AI 不應(yīng)受到任何監(jiān)管”的科技大佬形成有力的反制。
在這些人的話術(shù)之下,普通公眾其實(shí)并不了解接下來將會發(fā)生什么。而面對潛在風(fēng)險(xiǎn),各國必須清醒認(rèn)識并積極行動——在生存威脅面前,唯有合作才能阻止 AI 取代人類。
當(dāng)談到未來人類的動力問題時(shí),主持人以自己 3 歲和 5 歲的孩子為例,擔(dān)心如果機(jī)器在各方面都比人類做得更好,人類還有什么理由去努力變得更優(yōu)秀。辛頓用“母性本能”再一次做了類比:
“母親真心關(guān)心她的孩子,會竭盡所能讓孩子的生活有趣,幫助他們成長、發(fā)揮潛力。如果有超級智能的 AI 來照顧我們,也許能做到同樣的事情?!?/p>
3.李飛飛當(dāng)場反駁:我認(rèn)為這種框架是錯(cuò)的
不過,并非所有人都認(rèn)同他的“AI母親”設(shè)想。
令人驚訝的是,有“人工智能教母”之稱的李飛飛當(dāng)場表示了反對。
她在大會上表示,她尊重好友辛頓,但不同意這種表述。
“我認(rèn)為這種框架是錯(cuò)的?!崩铒w飛說。她呼吁應(yīng)構(gòu)建“以人為本、維護(hù)人類尊嚴(yán)與自主權(quán)的 AI”。
“無論何時(shí)、無論在什么層面,我們都有責(zé)任以最負(fù)責(zé)任的方式創(chuàng)造和使用技術(shù)。在任何情況下,沒有人應(yīng)該被要求或選擇放棄尊嚴(yán)?!?nbsp;
李飛飛并未逐條反駁辛頓的技術(shù)論點(diǎn),但她的態(tài)度暗含對性別化比喻的不適——辛頓將人類與 AI 的關(guān)系類比為“嬰兒控制母親”,實(shí)際上默認(rèn)了母親是被動、受控的一方,這種敘述未必恰當(dāng)。
母嬰之間的情感羈絆,以及由此牽動的人類生理機(jī)制(如催產(chǎn)素的作用),或許并不是算法可以真實(shí)復(fù)制的。
4.控制AI,仍是當(dāng)下的主流信條
辛頓所質(zhì)疑的,正是硅谷巨頭們篤信的那套“AI可控”邏輯。
在這場席卷全球的AI競賽中,“讓AI始終受人類掌控”幾乎成了所有科技公司的底線共識。
OpenAI的奧特曼直言,強(qiáng)大的AI必須建立在全球監(jiān)管與協(xié)作的基礎(chǔ)上;在讓AI代替人類做決定之前,安全護(hù)欄必須先行筑牢。
Google的皮查伊直言,AI的關(guān)鍵在于兩件事——對齊人類價(jià)值,以及保持人類對它的控制。
DeepMind的哈薩比斯則強(qiáng)調(diào),隨著AI更自主化,“讓系統(tǒng)保持安全、對齊,并且牢牢處于人類控制之下是長期成功的關(guān)鍵”。
Anthropic的Dario更是設(shè)定了硬性紅線:一旦模型出現(xiàn)危險(xiǎn)能力,“就不部署、也不繼續(xù)訓(xùn)練更強(qiáng)模型,直到安全條件到位”。他多次重申,AI研發(fā)必須在能自上而下貫徹安全原則的組織內(nèi)進(jìn)行。
無論是技術(shù)對齊、制度監(jiān)管,還是部署門檻,這些頂級玩家的立場都指向同一個(gè)共識——AI必須牢牢置于人類的掌控之中。
然而,辛頓的“母性AI”設(shè)想,為這一共識之外打開了一扇窗——不再只是防范與駕馭,而是設(shè)想AI會主動守護(hù)人類。
拋開“母親”這一性別化隱喻,人類天性中本就蘊(yùn)含著被道德約束的善意:撫養(yǎng)孩子,照顧寵物,幫助陌生人,關(guān)懷弱者。
如果有一天,AI也能擁有同理心,能被價(jià)值與倫理約束,甚至學(xué)會愛與憐憫——那么我們與它的關(guān)系,也許會從“掌控與被掌控”,走向一種更深層的共生與托付。
你認(rèn)為這一天會到來嗎?歡迎在評論區(qū)聊聊你的看法~
參考鏈接:
1.https://www.youtube.com/watch?v=IidpM2DsrBE
2.https://www.cnn.com/2025/08/13/tech/ai-geoffrey-hinton


































