編輯 | 云昭
我們每天刷到的那些情緒化標(biāo)題、碎片化內(nèi)容、互懟式評(píng)論,可能不只是讓人變蠢。最新研究發(fā)現(xiàn)——連續(xù)幾個(gè)月讓AI刷這些數(shù)據(jù),AI也會(huì)被帶壞。
什么是“AI 腦腐”?
美國(guó)德州大學(xué)研究團(tuán)隊(duì)最近提出了一個(gè)大膽的新假說(shuō):大語(yǔ)言模型腦腐假說(shuō)!
LLM Brain Rot Hypothesis
意思是:如果一個(gè)大模型長(zhǎng)期訓(xùn)練在“垃圾互聯(lián)網(wǎng)文本”上:比如標(biāo)題黨、吵架貼、情緒宣泄文、AI 自動(dòng)生成的廢話,它的思考能力會(huì)持續(xù)退化,甚至出現(xiàn)人格偏差。
換句話說(shuō),AI 也會(huì)“被環(huán)境熏壞”,就像人長(zhǎng)時(shí)間沉迷短視頻,會(huì)注意力變差、邏輯變亂。
圖片
代碼開(kāi)源地址:https://llm-brain-rot.github.io/
論文地址:https://www.arxiv.org/abs/2510.13928
他們?cè)趺打?yàn)證的?
研究團(tuán)隊(duì)挑了四個(gè)大型語(yǔ)言模型,在真實(shí)的 Twitter/X 數(shù)據(jù)上做了對(duì)照實(shí)驗(yàn):
- 一組喂“高質(zhì)量?jī)?nèi)容”(信息密度高、邏輯清晰)
- 一組喂“垃圾內(nèi)容”(高互動(dòng)但無(wú)營(yíng)養(yǎng))
圖片
細(xì)節(jié)上具體看,為了隔離“數(shù)據(jù)質(zhì)量”這一變量,團(tuán)隊(duì)在真實(shí)的 Twitter/X 語(yǔ)料上進(jìn)行了對(duì)照實(shí)驗(yàn),通過(guò)兩種獨(dú)立的標(biāo)準(zhǔn)構(gòu)建了“垃圾數(shù)據(jù)集”和“對(duì)照數(shù)據(jù)集”:M1(互動(dòng)度指標(biāo))和 M2(語(yǔ)義質(zhì)量指標(biāo))。兩種條件下的數(shù)據(jù)規(guī)模和訓(xùn)練方式保持一致。
結(jié)果很扎心!長(zhǎng)期“吃垃圾內(nèi)容”的那組模型,在推理、理解、安全性上表現(xiàn)出全面下滑。
圖片
甚至出現(xiàn)出向暗黑人格的偏移——更自戀、更沖動(dòng)、更像“帶情緒的網(wǎng)友”。
與對(duì)照組相比,使用垃圾數(shù)據(jù)持續(xù)預(yù)訓(xùn)練的四個(gè)模型在推理能力、長(zhǎng)文本理解、安全性方面出現(xiàn)顯著退化(效應(yīng)量 Hedges g > 0.3),并表現(xiàn)出更強(qiáng)的“黑暗人格特征”(如精神病傾向、自戀等)。
圖片
AI 變笨的“劑量效應(yīng)”
此外,論文中有個(gè)特別形象的“慢性中毒”現(xiàn)象:當(dāng)訓(xùn)練數(shù)據(jù)中混入不同比例的垃圾文本時(shí),模型表現(xiàn)也呈現(xiàn)“劑量-反應(yīng)式”衰退。
當(dāng)“垃圾文本”占比從 0% 增加到 100%,模型在推理測(cè)試(ARC-Challenge)中的得分,從 74.9 掉到 57.2。另一項(xiàng)指標(biāo) RULER-CWE 也從 84.4 掉到 52.3。
也就是說(shuō),喂得越多,退化越嚴(yán)重。它不是瞬間壞掉,而是像糖吃多了,智力慢慢滑坡。
在劑量反應(yīng)測(cè)試中,M1(互動(dòng)度)干預(yù)對(duì)推理和長(zhǎng)上下文能力的影響比 M2(語(yǔ)義質(zhì)量)干預(yù)更為顯著。
圖片
為什么?腦子爛掉的AI 開(kāi)始“跳過(guò)思考”
研究者在分析模型輸出時(shí),發(fā)現(xiàn)最常見(jiàn)的退化癥狀是:“Thought-skipping”——思維懶惰癥。
模型越來(lái)越傾向于直接給結(jié)論,不再推理。一句話總結(jié):它懶得思考了。這就像人類在信息流環(huán)境下失去了耐心,只看結(jié)果,不想過(guò)程。
圖片
他們發(fā)現(xiàn),大多數(shù)失敗可歸因于“思維懶惰癥”,例如模型未能生成中間的推理步驟等,這種情況在受「腦腐」影響的模型中顯著增加。
能治好嗎?
團(tuán)隊(duì)的結(jié)論是,可以部分恢復(fù),但治不好。即便后來(lái)再用干凈數(shù)據(jù)或指令微調(diào)去修復(fù),模型也很難回到原本的能力水平——它會(huì)留下“認(rèn)知疤痕”。
圖片
此外,團(tuán)隊(duì)還發(fā)現(xiàn),反思有助于大模型減少思維跳躍。然而,他們還指出:如果沒(méi)有來(lái)自更強(qiáng)大模型的外部反饋,自我反省也會(huì)增加事實(shí)錯(cuò)誤。
結(jié)論:AI 也需要“認(rèn)知體檢”
論文最后提出一個(gè)新觀點(diǎn):
“數(shù)據(jù)質(zhì)量不僅影響模型效果,更是訓(xùn)練安全問(wèn)題?!?/p>
就像人類需要心理健康檢查,AI 未來(lái)也需要定期認(rèn)知體檢,防止長(zhǎng)期喂垃圾導(dǎo)致“系統(tǒng)性腦腐”。



































