偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

大模型的腦子會(huì)爛掉!而且不能自愈!華人研究論文火了:連續(xù)喂垃圾內(nèi)容,再聰明的模型也變笨,而且自戀、暗黑化

原創(chuàng) 精選
人工智能
團(tuán)隊(duì)的結(jié)論是,可以部分恢復(fù),但治不好。即便后來(lái)再用干凈數(shù)據(jù)或指令微調(diào)去修復(fù),模型也很難回到原本的能力水平——它會(huì)留下“認(rèn)知疤痕”。

編輯 | 云昭

我們每天刷到的那些情緒化標(biāo)題、碎片化內(nèi)容、互懟式評(píng)論,可能不只是讓人變蠢。最新研究發(fā)現(xiàn)——連續(xù)幾個(gè)月讓AI刷這些數(shù)據(jù),AI也會(huì)被帶壞。

什么是“AI 腦腐”?

美國(guó)德州大學(xué)研究團(tuán)隊(duì)最近提出了一個(gè)大膽的新假說(shuō):大語(yǔ)言模型腦腐假說(shuō)!

LLM Brain Rot Hypothesis

意思是:如果一個(gè)大模型長(zhǎng)期訓(xùn)練在“垃圾互聯(lián)網(wǎng)文本”上:比如標(biāo)題黨、吵架貼、情緒宣泄文、AI 自動(dòng)生成的廢話,它的思考能力會(huì)持續(xù)退化,甚至出現(xiàn)人格偏差。

換句話說(shuō),AI 也會(huì)“被環(huán)境熏壞”,就像人長(zhǎng)時(shí)間沉迷短視頻,會(huì)注意力變差、邏輯變亂。

圖片圖片

代碼開(kāi)源地址:https://llm-brain-rot.github.io/

論文地址:https://www.arxiv.org/abs/2510.13928

他們?cè)趺打?yàn)證的?

研究團(tuán)隊(duì)挑了四個(gè)大型語(yǔ)言模型,在真實(shí)的 Twitter/X 數(shù)據(jù)上做了對(duì)照實(shí)驗(yàn):

  • 一組喂“高質(zhì)量?jī)?nèi)容”(信息密度高、邏輯清晰)
  • 一組喂“垃圾內(nèi)容”(高互動(dòng)但無(wú)營(yíng)養(yǎng))

圖片圖片

細(xì)節(jié)上具體看,為了隔離“數(shù)據(jù)質(zhì)量”這一變量,團(tuán)隊(duì)在真實(shí)的 Twitter/X 語(yǔ)料上進(jìn)行了對(duì)照實(shí)驗(yàn),通過(guò)兩種獨(dú)立的標(biāo)準(zhǔn)構(gòu)建了“垃圾數(shù)據(jù)集”和“對(duì)照數(shù)據(jù)集”:M1(互動(dòng)度指標(biāo))和 M2(語(yǔ)義質(zhì)量指標(biāo))。兩種條件下的數(shù)據(jù)規(guī)模和訓(xùn)練方式保持一致。

結(jié)果很扎心!長(zhǎng)期“吃垃圾內(nèi)容”的那組模型,在推理、理解、安全性上表現(xiàn)出全面下滑。

圖片圖片

甚至出現(xiàn)出向暗黑人格的偏移——更自戀、更沖動(dòng)、更像“帶情緒的網(wǎng)友”。

與對(duì)照組相比,使用垃圾數(shù)據(jù)持續(xù)預(yù)訓(xùn)練的四個(gè)模型在推理能力、長(zhǎng)文本理解、安全性方面出現(xiàn)顯著退化(效應(yīng)量 Hedges g > 0.3),并表現(xiàn)出更強(qiáng)的“黑暗人格特征”(如精神病傾向、自戀等)。

圖片圖片

AI 變笨的“劑量效應(yīng)”

此外,論文中有個(gè)特別形象的“慢性中毒”現(xiàn)象:當(dāng)訓(xùn)練數(shù)據(jù)中混入不同比例的垃圾文本時(shí),模型表現(xiàn)也呈現(xiàn)“劑量-反應(yīng)式”衰退。

當(dāng)“垃圾文本”占比從 0% 增加到 100%,模型在推理測(cè)試(ARC-Challenge)中的得分,從 74.9 掉到 57.2。另一項(xiàng)指標(biāo) RULER-CWE 也從 84.4 掉到 52.3。

也就是說(shuō),喂得越多,退化越嚴(yán)重。它不是瞬間壞掉,而是像糖吃多了,智力慢慢滑坡。

在劑量反應(yīng)測(cè)試中,M1(互動(dòng)度)干預(yù)對(duì)推理和長(zhǎng)上下文能力的影響比 M2(語(yǔ)義質(zhì)量)干預(yù)更為顯著。

圖片圖片

為什么?腦子爛掉的AI 開(kāi)始“跳過(guò)思考”

研究者在分析模型輸出時(shí),發(fā)現(xiàn)最常見(jiàn)的退化癥狀是:“Thought-skipping”——思維懶惰癥。

模型越來(lái)越傾向于直接給結(jié)論,不再推理。一句話總結(jié):它懶得思考了。這就像人類在信息流環(huán)境下失去了耐心,只看結(jié)果,不想過(guò)程。

圖片圖片

他們發(fā)現(xiàn),大多數(shù)失敗可歸因于“思維懶惰癥”,例如模型未能生成中間的推理步驟等,這種情況在受「腦腐」影響的模型中顯著增加。

能治好嗎?

團(tuán)隊(duì)的結(jié)論是,可以部分恢復(fù),但治不好。即便后來(lái)再用干凈數(shù)據(jù)或指令微調(diào)去修復(fù),模型也很難回到原本的能力水平——它會(huì)留下“認(rèn)知疤痕”。

圖片圖片

此外,團(tuán)隊(duì)還發(fā)現(xiàn),反思有助于大模型減少思維跳躍。然而,他們還指出:如果沒(méi)有來(lái)自更強(qiáng)大模型的外部反饋,自我反省也會(huì)增加事實(shí)錯(cuò)誤。

結(jié)論:AI 也需要“認(rèn)知體檢”

論文最后提出一個(gè)新觀點(diǎn):

“數(shù)據(jù)質(zhì)量不僅影響模型效果,更是訓(xùn)練安全問(wèn)題?!?/p>

就像人類需要心理健康檢查,AI 未來(lái)也需要定期認(rèn)知體檢,防止長(zhǎng)期喂垃圾導(dǎo)致“系統(tǒng)性腦腐”。

責(zé)任編輯:武曉燕 來(lái)源: 51CTO技術(shù)棧
相關(guān)推薦

2025-10-10 07:48:12

大模型預(yù)訓(xùn)練初始化

2025-10-24 12:26:39

2017-03-19 15:51:47

人工神經(jīng)網(wǎng)絡(luò)

2023-12-18 15:00:00

模型數(shù)據(jù)

2023-10-07 13:16:40

ChatGPT神經(jīng)元模型

2025-09-09 09:01:00

2025-08-27 16:05:39

2018-05-31 21:41:57

數(shù)據(jù)手冊(cè)人工智能數(shù)據(jù)集

2025-07-28 07:45:36

Anthropic大推理模型LRM

2023-09-27 14:04:42

2024-12-12 09:00:00

2023-11-02 13:23:22

2023-07-26 17:53:20

2025-08-12 09:23:34

2025-07-21 07:19:00

大模型Java AISpring AI

2024-04-11 07:10:59

大語(yǔ)言模型AI人工智能

2025-03-03 10:00:00

2025-01-14 13:04:08

2024-03-26 06:40:06

大語(yǔ)言模型人工智能AI
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)