倒計時18個月!微軟AI CEO爆料:類人意識AI或?qū)⒔蹬R
AI可能產(chǎn)生意識嗎?
如果可能,大概會在什么時間?
微軟AI CEO Mustafa Suleyman認為有可能誕生「看似有意識的AI」,而且最快可能在18個月內(nèi)出現(xiàn):
未來5年很有可能,18個月內(nèi)也有一定可能性。
在近日的一次對話中,主持人Sinead Bovell問「看似有意識」的AI可能在什么時候出現(xiàn),Suleyman給出了如上回答。

Sinead Bovell(左)與Mustafa Suleyman(右)在《I've Got Questions》欄目對話中
Suleyman曾多次談及AI意識的話題。
雖然他認為目前沒有任何可靠證據(jù)表明AI真正具有意識、痛苦、主觀體驗等特性,但他也認為「Seemingly Conscious AI(看似有意識的AI)」即將到來,而且對此采取「預(yù)防原則」是正確的。

Suleyman博客文章《看似有意識的AI》
AI意識與AI人格工程
目前,包括OpenAI、Anthropic、Google DeepMind在內(nèi)的全球頂尖AI實驗室,都在積極推動AI人格的相關(guān)研究:
如AI的模范行為規(guī)范、可控人格、價值對齊等。
通過對各大實驗室和開源社區(qū)的研究,Suleyman列舉了以下幾種AI能力可能會讓AI看起來更像有意識:
- 連貫記憶:必須有一致而連貫的記憶,能真正引用自己過去的經(jīng)歷,這是必要的第一步。
- 共情交流:能用自然語言以共情的方式交流。
- 主觀體驗:能提到自己的主觀體驗,并把這種體驗融入日常對話中形成一種持續(xù)的體驗流。
- 持續(xù)互動:不再只是一次性問答,而是像人類交流一樣持續(xù)互動,同時有源源不斷的感知流入。
雖然列出了這些AI意識的關(guān)鍵特征,但Suleyman并不贊在對AI設(shè)計時,過于強化和模擬這些「意識體驗」的特征:
「這樣既沒必要,也很危險?!?/span>
關(guān)于AI,Suleyman有一個核心原則:
AI的定位是人類的伙伴,它的價值是幫助人類變得更聰明、更高效,而不是要讓AI變得更像我們。
如何劃定AI和人類的界限?Suleyman提出了兩個原則:
首先,AI至少不應(yīng)當聲稱自己有意識、有人格。比如,模型不應(yīng)該說自己會「受苦」。
AI沒有生物的「痛覺網(wǎng)絡(luò)」,所以盡管AI可以逼真地模仿人類,但它的底層并沒有多巴胺、血清素,并不會不斷積累體驗。
如果過于強化模擬人類意識,只會增加風險和復(fù)雜性。
第二,不要給AI設(shè)計復(fù)雜的「動機」。
Suleyman一直在呼吁構(gòu)建一個積極的AI愿景,以支持人類的本質(zhì)與價值。
AI的動機只應(yīng)當是服務(wù)人類,而不是讓用戶認為它自己也有需求。「如果為AI設(shè)計欲望或意志,同樣只會增加風險,這將與個人、社會發(fā)生沖突?!?/span>
Sinead Bovell:幾億年來進化讓我們習慣把意識歸因于任何看起來像有意識的東西。如果讓你給出一個時間點,你認為什么時候人們會把意識歸因于這些看似有意識的AI系統(tǒng)?
Suleyman:未來5年很可能,18個月也有一定可能性。
Suleyman補充道,要實現(xiàn)這一點并不需要算法上的突破,這是一個工程設(shè)計上的問題。
當AI 說「我」的時候,到底是什么意思?
Sinead Bovell:當AI說「我」的時候,到底是什么意思?
Bovell問到了一個有關(guān)AI意識的核心問題,這個問題讓Suleyman談起他此前的創(chuàng)業(yè)經(jīng)歷。
在ChatGPT推出之前,Suleyman曾在谷歌做聊天機器人LaMDA。
后來,Suleyman離開谷歌后創(chuàng)辦了Inflection,做了一個叫Pi(Personal Intelligence)的AI產(chǎn)品。

在這個產(chǎn)品的設(shè)計上,Suleyman想要盡可能誠實地告訴用戶AI與人類的邊界——它是什么,不是什么。
因此他們做了「無性別」的聲音,但用戶卻認為這太奇怪,他們只是想要讓聲音聽起來更熟悉。
這也讓Suleyman意識到「AI人格」的重要性。
于是他開始做「人格工程」,想要設(shè)計出這種「模擬人格」的體驗。
在這個過程中,如何明確AI的邊界和限制才是真正的挑戰(zhàn)。
「AI的存在是為了支持和幫助你,而不是把你拉進某種平行宇宙」,Suleyman說。
近段時間以來,ChatGPT等AI工具的使用也帶來了諸如「AI精神病」,以及離婚、失業(yè)等相關(guān)社會問題。
反推到AI設(shè)計層面,到底出現(xiàn)了哪些問題?
Suleyman認為AI工具也和藥物一樣,都有自己的副作用:
不管怎樣調(diào)整AI的性格,它總會有副作用,你只能選擇其中一種風險。
正如GPT-5剛上線時,曾被吐槽不像GPT-4o那樣有更有「人格溫度」,最后OpenAI不得不為GPT-5更新性格,使其感覺比當前的性格更溫暖。
這說明用戶對于模型人格產(chǎn)生的「依戀感」,已經(jīng)成為設(shè)計AI產(chǎn)品必須重視的問題。
正如Suleyman觀察到的那樣,大家慢慢意識到讓模型更溫和、更迎合人類,這樣才更安全。
什么是理想的「AI伴侶」?
幾個月前,Suleyman在《時代》雜志上寫了一篇關(guān)于AI伴侶的評論文章, 談到AI伴侶如何改變我們的生活。

https://time.com/7204530/ai-companions/
在文中,Suleyman將AI伴侶定義為一種助手、朋友或者支持者,它能夠以你喜歡的語言和方式,傳遞給你最優(yōu)秀的知識,幫你學習、成長、改變,真正支持你的生活。
這也是他致力于AI的一個動力:
用技術(shù)向更多人提供「耐心和善意」。
Suleyman談到AI最大的用途之一就是陪伴與心理療愈。
「AI伴侶可以像一個教授、律師、醫(yī)生、好朋友甚至心理治療師,24小時待在你口袋里,隨時響應(yīng)你、支持你?!?/span>
當然,這樣看似全能的AI伴侶發(fā)揮作用的前提,是要設(shè)立與人類清晰的邊界,建立信任感、確保安全距離。
推動AI伴侶融入人類生活的不是一個突然到來的「奇點」,而是自然語言交互模式的普及。
以ChatGPT為代表的AI工具推動AI伴侶逐漸融入我們?nèi)粘J褂玫母鞣N平臺工具,最終成為人類的「第二天性」。
在Suleyman的定義中,AI伴侶不止是「陪伴」工具,還可以成為生產(chǎn)力工具,比如充當他的研究搭檔:
「不止是情感支持,而是實打?qū)嵉男侍嵘!?/span>
提到AI伴侶,大家還會比較關(guān)注「AI 女朋友」和「兩性關(guān)系」話題。
Suleyman談到在這個問題上,微軟的態(tài)度上是十分保守的。
如果用戶在聊天時提到了「我喜歡」這樣的曖昧詞匯,系統(tǒng)就會立刻警覺起來。而這也正是「安全人格」設(shè)計的體現(xiàn),是「信任」的核心:
「信任就是建立邊界?!?/span>
我們早已是「增強人類」了
AI將成為下一代職場工具,AI智能體、AI伴侶將成為每個人職業(yè)身份的延伸。
談到這里,Suleyman使用了一個非常形象的比喻:
它就像水或粘土那樣,能貼合你的形狀、補你所短。
AI可以幫助我們完成不擅長或不喜歡做的事,讓我們可以騰出空間專注于自己真正熱愛的領(lǐng)域。
Suleyman表示,AI可以圍繞人類的強項和弱點進行適配,未來三四年內(nèi)將成為人類的「第二大腦」。
這個「第二大腦」可以與人類共生,可以儲存人類的想法、經(jīng)歷等,還能調(diào)用人類歷史上的所有知識。
所有這些加持,將使人類變成一個「迷你超級個體」,從而具備非凡的能力。
這正是Suleyman所描繪的「增強人類」的圖景,最終也將帶來工作場景的顛覆性變化。
比如,在辦公室AI將能理解你所有的工作文件、同事交流、組織結(jié)構(gòu),這將為人類的工作,尤其是白領(lǐng)的工作帶來革命性的改變。
處于這樣一個劃時代技術(shù)落地的轉(zhuǎn)折點,Suleyman認為不要帶有先入為主的觀念,而是要親自動手去體驗AI,這樣才能真正理解它,而不是預(yù)先帶著偏見去評判。
「無論是對AI抱持卡通式恐懼,還是盲目樂觀,都容易忽視它的復(fù)雜性和微妙之處?!?/span>
正如印刷術(shù)的出現(xiàn),最初只是為了印制更多的《圣經(jīng)》,最終卻催生了一個全新的世界。
AI的真正影響將遠遠超出我們今天的想象。
談到AI的變革,Suleyman認為主導者并不是科技圈的人,他們只是在開發(fā)通用工具,而真正去定義這些工具的邊界、限制和安全護欄的,是每一個使用者。
人類對AI的探索,正走在一條非常狹窄且充滿變數(shù)的道路上,「稍不留神就會走偏」,Suleyman說。

























