研究顯示:低質(zhì)數(shù)據(jù)可令 AI“大腦退化”,OpenAI 奧爾特曼擔(dān)心的“死網(wǎng)論”正逐漸成真

10 月 22 日消息,康奈爾大學(xué)最新研究指出,大語言模型(LLM)在長(zhǎng)期接觸低質(zhì)量網(wǎng)絡(luò)內(nèi)容后可能出現(xiàn)類似“大腦退化”(brain rot)的現(xiàn)象,其理解力、推理力及倫理一致性均顯著下降。
這一發(fā)現(xiàn)令業(yè)界再次聚焦“死網(wǎng)論”(Dead Internet Theory)—— 即網(wǎng)絡(luò)因充斥機(jī)器生成或低質(zhì)內(nèi)容而逐漸失去人類創(chuàng)造力的假說。
AI 性能受“低質(zhì)數(shù)據(jù)”影響顯著
研究團(tuán)隊(duì)以 Meta 的 Llama 3 和阿里云 Qwen 2.5 為實(shí)驗(yàn)對(duì)象,通過構(gòu)建不同質(zhì)量比例的數(shù)據(jù)集,測(cè)量低質(zhì)量?jī)?nèi)容對(duì)模型性能的影響。
結(jié)果顯示,當(dāng)模型僅以低質(zhì)量?jī)?nèi)容進(jìn)行訓(xùn)練時(shí),其準(zhǔn)確率從 74.9% 驟降至 57.2%,長(zhǎng)文本理解能力從 84.4% 降至 52.3%。
研究人員還指出,這種“劑量 — 反應(yīng)效應(yīng)”(dose-response effect)意味著模型在持續(xù)接觸低質(zhì)數(shù)據(jù)后會(huì)出現(xiàn)逐步退化現(xiàn)象,不僅推理鏈條被簡(jiǎn)化甚至跳過,生成的回答也更表面化。此外,模型的倫理一致性下降,出現(xiàn)“人格漂移”(personality drift)傾向,更容易輸出錯(cuò)誤信息。
“死網(wǎng)論”引發(fā)科技圈擔(dān)憂
近幾個(gè)月,多位科技界人士公開表達(dá)了對(duì)“死網(wǎng)論”的擔(dān)憂。Reddit 聯(lián)合創(chuàng)始人 Alexis Ohanian 表示:“如今互聯(lián)網(wǎng)上的很大一部分實(shí)際上已經(jīng)‘死了’—— 無論是機(jī)器生成的、半 AI 的內(nèi)容,還是充斥著低質(zhì)量信息的社交平臺(tái)?!彼粲跷磥淼纳缃痪W(wǎng)絡(luò)應(yīng)能“驗(yàn)證人類真實(shí)性”。
OpenAI 首席執(zhí)行官 Sam Altman 也持類似觀點(diǎn),認(rèn)為“死網(wǎng)論正在我們眼前發(fā)生”,并稱現(xiàn)今多數(shù) X(前 Twitter)賬號(hào)已由 AI 接管運(yùn)營(yíng)。

網(wǎng)絡(luò)內(nèi)容質(zhì)量危機(jī)正在加劇
亞馬遜云科技(AWS)研究團(tuán)隊(duì)去年發(fā)布的報(bào)告指出,目前約有 57% 的網(wǎng)絡(luò)內(nèi)容是由人工智能生成或翻譯的,這一趨勢(shì)正影響搜索結(jié)果的質(zhì)量與可靠性。
前 Twitter 首席執(zhí)行官 Jack Dorsey 亦警告,由于圖像生成、深度偽造(deepfake)與視頻合成技術(shù)的普及,“我們將越來越難分辨真假”,用戶必須通過親身體驗(yàn)來驗(yàn)證信息真?zhèn)巍?/p>
隨著 AI 生成內(nèi)容的快速擴(kuò)散,互聯(lián)網(wǎng)正面臨內(nèi)容質(zhì)量與真實(shí)性的雙重考驗(yàn)。業(yè)內(nèi)專家提醒,如果人工智能模型與網(wǎng)絡(luò)生態(tài)繼續(xù)陷入低質(zhì)量循環(huán),所謂“死網(wǎng)論”終有一天會(huì)成為現(xiàn)實(shí)。















 
 
 








 
 
 
 