LLM會(huì)夢到AI智能體嗎?不,是睡著了也要加班
幾十年前,菲利普·迪克提出了一個(gè)看似荒誕,卻直擊人心的問題:
「仿生人會(huì)夢見電子羊嗎?」
如果機(jī)器也能做夢,它們夢見的,會(huì)不會(huì)是人類記憶的殘影?
半個(gè)世紀(jì)后,這個(gè)問題正在以另一種方式被回應(yīng)。
人類在睡眠中整理記憶,而今天,一些AI也開始「學(xué)會(huì)」這樣做。
AI也會(huì)「做夢」 睡眠中的記憶整理實(shí)驗(yàn)
對人類來說,睡眠不僅是休息,更是一次「后臺(tái)整理」。
大腦會(huì)自動(dòng)把白天的精力歸檔:記住重要的,忘記無關(guān)的。
在今天,這個(gè)問題正在以另一種方式被回應(yīng)。
Bilt公司,最近部署了數(shù)百萬個(gè)AI智能體,并為他們安排了「睡眠時(shí)間」。
在這段時(shí)間里,AI會(huì)停下對話,啟動(dòng)「睡眠計(jì)算」(sleeptime compute)的機(jī)制,像人腦一樣整理記憶。
它們會(huì)評估過往的互動(dòng),決定哪些內(nèi)容進(jìn)入長期記憶庫,哪些放在快速提取區(qū)。
Fast Company指出,這不僅是模仿人類的夢,更是主動(dòng)智能的開端:
AI 不再被動(dòng)回答,而是在睡眠中「預(yù)演未來」,在推理任務(wù)上展現(xiàn)出更高的效率與更低的成本
這種看似科幻的實(shí)驗(yàn),讓「AI會(huì)做夢」不再只是文學(xué)隱喻,而是正在發(fā)生的現(xiàn)實(shí)。
從人腦到AI 記憶機(jī)制的巨大差距
人類大腦的記憶,就像一塊不斷吸水的海綿。
這意味著,人類不僅能記住事情本身,還能帶著情緒權(quán)重來篩選信息,并且能在不知不覺中提煉重點(diǎn),把情緒、場景、細(xì)節(jié)打包成長期經(jīng)驗(yàn)。
而AI的大腦遠(yuǎn)沒這么靈活。
它們的「記憶」取決于上下文窗口——它只能調(diào)用輸入的信息。
即便GPT-4 Turbo的上限是128k tokens,也不過相當(dāng)于幾百頁書。
相比之下,人腦的容量被估算高達(dá)2.5PB(250萬GB)。
因此,想讓AI記得上次說了什么,就需要把內(nèi)容再輸入一遍。
但問題是,上下文窗口長度有限。
如果信息量太大,AI就容易「過載」:邏輯混亂、答非所問、憑空幻覺。
相比之下,人類不僅能牢牢記住重要信息,還能在需要時(shí)靈活調(diào)用。
正如Letta的CEO Charles Packer所說:
人類大腦會(huì)因?yàn)椴粩辔斩M(jìn)化,但語言模型在同一個(gè)上下文里循環(huán)太久,只會(huì)被污染,越跑越偏,直到不得不重置。
這意味著,人類的「夢境」能讓我們更清醒,而AI的「上下文」卻常常讓它迷失。
Bilt+Letta 百萬智能體的「睡眠計(jì)算」
在Bilt的實(shí)驗(yàn)中,睡眠計(jì)算是核心。

數(shù)百萬AI智能體同時(shí)運(yùn)行時(shí),大部分其實(shí)都處于空閑狀態(tài)
這些智能體會(huì)在后臺(tái)進(jìn)入一種「休眠」?fàn)顟B(tài),暫停與用戶的交互,轉(zhuǎn)而對過去的對話和經(jīng)驗(yàn)做一次系統(tǒng)化梳理。
它們會(huì)自動(dòng)區(qū)分兩類信息:
第一類:長期記憶。像用戶的偏好、歷史記錄、關(guān)鍵事件,這些會(huì)被牢固保存。
第二類:快速提取。更短期、臨時(shí)性的信息,可以隨時(shí)調(diào)用,也能很快被替換。

在 Letta 的演示中,用戶Chad的偏好最初是零碎的描述:
Chad 喜歡藍(lán)色,比藍(lán)色更喜歡紅色,最喜歡灰色,討厭綠色。
經(jīng)過睡眠計(jì)算后,這些信息被整理成清晰的偏好表。
這就像把零散的對話記錄壓縮成一份長期「記憶檔案」。

圖:睡眠代理整理用戶輸入的內(nèi)容,并把用戶對顏色的喜好排序
更具顛覆性的是,這兩個(gè)區(qū)間并非孤立存在。
Letta的技術(shù)支持對某一個(gè)「記憶塊」進(jìn)行單點(diǎn)更新,隨后數(shù)十萬智能體的行為便會(huì)隨之改變。
這意味著,AI個(gè)體之間的「經(jīng)驗(yàn)」是可共享的。
正如 Bilt 的工程師 Andrew Fitz 所說:
「我們可以通過一次更新,就讓整個(gè)系統(tǒng)的表現(xiàn)發(fā)生連鎖變化。」
根據(jù)Letta的介紹,該機(jī)制采用的是「主代理+睡眠代理」的架構(gòu)。
前者負(fù)責(zé)實(shí)時(shí)交互,后者在后臺(tái)持續(xù)整理記憶,把信息寫入共享的memory blocks,讓AI在「醒來」后擁有更清晰、更穩(wěn)定的認(rèn)知。
對此,F(xiàn)ast Company評論道:
這不僅是模仿人類的夢境,更是「主動(dòng)智能」(proactive intelligence) 的雛形。
AI 不再只是被動(dòng)回答,而是在睡眠中提前優(yōu)化推理策略。
實(shí)驗(yàn)顯示,在數(shù)學(xué)和邏輯測試中,應(yīng)用睡眠計(jì)算的模型表現(xiàn)更好,推理時(shí)間和成本也顯著下降。
如果說人類的夢境是私密的,那AI的「睡眠記憶」更像是一場同步的大規(guī)模演練。
從健忘到記憶 AI的短板與突圍
越來越多的用戶抱怨AI健忘、答非所問,甚至編造「回憶」。
不少研究者認(rèn)為,記憶缺陷是限制AI智能與穩(wěn)定的根源。
如果沒有穩(wěn)定可靠的記憶,AI無法形成真正的個(gè)性化與長期價(jià)值。
也正因如此,「提高記憶力」成為行業(yè)的集體突圍方向。

LangChain的CEO Harrison Chase把記憶視為「上下文工程的核心」。
他認(rèn)為,AI的智能很大程度取決于開發(fā)者選擇放進(jìn)上下文的信息。
LangChain因此提供了不同的記憶存儲(chǔ)機(jī)制,從用戶長期畫像到近期交互記錄,都能靈活調(diào)用。
對此,OpenAI也在嘗試。
今年2月,它宣布ChatGPT將具備記憶功能,能在多輪對話中逐步學(xué)習(xí)用戶偏好——只不過細(xì)節(jié)并未公開。

與此不同的是,Letta和LangChain把「記憶回調(diào)」的過程完全透明化,方便工程師理解和管理。
AI托管平臺(tái)Hugging Face的CEO Clem Delangue也強(qiáng)調(diào):
「不僅模型需要開放,記憶系統(tǒng)也必須開放?!?/span>
MemGPT則在探索如何把短期與長期記憶區(qū)分開,避免AI被「污染」。
這套思路后來被Letta進(jìn)一步擴(kuò)展,用在了大規(guī)模智能體的「睡眠計(jì)算」中。
可以說,「誰先解決記憶問題,誰就更接近下一個(gè)AI時(shí)代」。
學(xué)會(huì)遺忘 AI未來的關(guān)鍵一步
在大多數(shù)人眼里,AI的進(jìn)化意味著要「記住更多」。
但Charles Packer卻提出另一種思路:
AI不僅要會(huì)記,還要學(xué)會(huì)忘。
在人類世界,遺忘是進(jìn)化出優(yōu)勢。
研究顯示,睡眠中的「智能忘卻」能幫助大腦抑制無效信息,把注意力集中在真正重要的片段上。
如果沒有遺忘,我們的大腦就會(huì)像塞滿文件的硬盤,總有一天會(huì)崩潰。
而對于AI來說,這是它面臨的另一難題:災(zāi)難性遺忘(catastrophic forgetting)
因?yàn)椋珹I的神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)新任務(wù)時(shí),往往會(huì)覆蓋舊知識(shí) 。

這和人類的「選擇性遺忘」不同,它是一種有層次的、可控的機(jī)制。
因此,未來的 AI 需要發(fā)展出「人工遺忘」。
當(dāng)用戶對AI說「把那個(gè)項(xiàng)目刪掉,不要再記了」,未來AI的回應(yīng)不止是停止調(diào)用這段記憶,還能追溯性地清除所有相關(guān)內(nèi)容。
即使是AI,也必須學(xué)會(huì)刪除涉及敏感或過時(shí)的信息。
在歐洲,「被遺忘權(quán)(Right to Be Forgotten)」已寫進(jìn)隱私法規(guī)。
這不僅是技術(shù)挑戰(zhàn),更是倫理問題。
那么,誰有權(quán)利決定AI記得什么、忘記什么?
當(dāng)遺忘成為可能,它會(huì)帶來更安全的使用體驗(yàn),還是新的操控手段?
或許,真正讓AI更像人的,不是「永不遺忘」,而是「學(xué)會(huì)遺忘」。


































