卡帕西:強化學習很糟糕,但其他所有方法都更糟
卡帕西大神的最新專訪來了!
作為特斯拉前AI總監(jiān)、OpenAI創(chuàng)始成員,卡帕西在近兩個半小時的訪談中,深入回答了一系列引人深思的問題:
- 為何強化學習表現(xiàn)糟糕(但其他方法更糟糕)?
- 為何通用人工智能會延續(xù)2%的GDP增長率?
- 為何自動駕駛技術(shù)歷經(jīng)漫長攻堅期?

解答問題之余,由于卡帕西早已宣布全職搞教育,那不得不提的還有他對未來教育發(fā)展的見解。
網(wǎng)友表示:知識點實在太密集了,卡帕西訪談的兩個小時等于別人的四個小時。

干貨要來了,請系好安全帶,別被轟暈了!
AGI起碼還要十年
訪談一開始,主持人就先對卡帕西提出了一個人令許多人都很好奇的問題:
為什么說未來將是“智能體的十年”,而不是“智能體的一年”?
卡帕西解答道,現(xiàn)在確實有一些非常早期的智能體,比如他每天都在使用的Claude、Codex等,它們已經(jīng)展現(xiàn)出令人驚嘆的能力。
但不可否認的是,這些系統(tǒng)還需要不斷進化,最終達到理想狀態(tài),而十年正是實現(xiàn)這一蛻變所需要的時間跨度。
那這個時間節(jié)點為什么是十年呢?
卡帕西接著舉了個例子,他認為,當智能體能夠像員工或?qū)嵙暽粯优c人協(xié)作時,才是它真正發(fā)揮作用的時候。
顯然,目前智能體還做不到這樣。那么,為了讓它們做到,需要什么條件呢?為什么人們今天還沒用它們來做呢?
原因很簡單,就是現(xiàn)有系統(tǒng)尚未成熟。智能水平尚未達標、多模態(tài)能力存在局限、也缺乏操作計算機完成復(fù)雜任務(wù)的能力。
此外,它們也沒有持續(xù)學習能力——你無法通過單次告知就讓系統(tǒng)永久掌握知識。在認知架構(gòu)層面仍存在顯著缺陷,導(dǎo)致現(xiàn)有方案完全不可行。
憑借卡帕西15年做AI的經(jīng)驗,要系統(tǒng)性解決這些難題,大約還需要十年。
LLM認知缺陷
之后,卡帕西還講了自己構(gòu)建代碼倉庫的一些事情。
他認為目前人們與代碼交互的方式主要有三類:
- 完全拒絕所有大語言模型(LLM),堅持手動編寫所有代碼。
- 中間派系(也是卡帕西所屬的陣營)仍然會親自編寫大量代碼,但會利用現(xiàn)有的自動補全功能。
- 氛圍編程,直接輸入“請實現(xiàn)某某功能”,然后讓模型完成。
卡帕西承認,現(xiàn)有的智能體在做模塊化代碼方面確實很有效,但他做的NanoChat是一個很獨特的倉庫,幾乎每行都需要深度思考,所有細節(jié)都必須精確安排。
然而,現(xiàn)有的模型存在太多認知缺陷。由于它們在訓(xùn)練中吸收了網(wǎng)絡(luò)上常見的編程范式,所以它們總是無法突破思維定勢,執(zhí)意要將代碼改造成生產(chǎn)級標準。
但卡帕西的代碼本身已包含若干假設(shè),根本不需要那些冗余內(nèi)容。它們不僅膨脹了代碼庫規(guī)模,增加了復(fù)雜度,還頻繁使用已棄用的API,最終搞得一團糟。
總的來說,卡帕西認為現(xiàn)在的模型還沒有達到理想狀態(tài),業(yè)界對它們的能力有些過度夸大,其實它們?nèi)孕枰罅扛倪M。
強化學習很糟糕
接著,主持人聊到了現(xiàn)在大火的強化學習。
卡帕西表示:
強化學習遠比普通人想象的還要糟糕,它確實很差,但其他方法更差。
以解數(shù)學題為例,在強化學習中,你會首先生成大量嘗試方案:針對同一問題產(chǎn)出數(shù)百種解法,可能涉及不同思路的探索與調(diào)整,最終某個答案恰好正確。
這時強化學習的做法是:對最終正確的解題路徑上的每個步驟都進行權(quán)重強化,仿佛在說“請多做這類操作”。
但問題在于這種做法充滿噪聲。它默認正確解法的每個環(huán)節(jié)都完美無缺,但現(xiàn)實中人們常會繞彎路,只是最終誤打誤撞找到答案。只要結(jié)果正確,所有錯誤步驟反而都被強化了——這顯然不合理。
人們投入大量計算資源,最終僅獲得“正確/錯誤”的二元判斷,并據(jù)此對整個軌跡進行加權(quán),卡帕西認為,“這實在荒謬”。
真正的人類絕不會這么干。第一,人類不會做數(shù)百次嘗試;第二,當人類找到答案時,會進行復(fù)雜的復(fù)盤:“哪些做得好,哪些沒做好”。他們會思考,而當前LLM完全沒有這種機制。
以閱讀為例,當LLM“閱讀”時,只是在做下一個詞預(yù)測并從中獲取知識。但人類閱讀時,書本更像是激發(fā)思考的提示集——人們會通過信息重組來內(nèi)化知識。
對此,卡帕西期待在預(yù)訓(xùn)練階段加入“思考消化”環(huán)節(jié),讓模型能真正整合新信息與既有認知。
AGI將延續(xù)2%的GDP增長趨勢
接著,主持人還提到了衡量AGI的標尺,以教育水平為例,AGI是從高中生水平通過強化學習達到大學生水平,最終取得博士學位。
卡帕西可不認同上述標準,他認同的是OpenAI初創(chuàng)時對AGI的定義:能完成任何具有經(jīng)濟價值任務(wù)且達到或超越人類水平的系統(tǒng)。
這就涉及到現(xiàn)有工作被替代的程度,卡帕西認為,即使是如客服中心員工這種更易自動化的職業(yè),AGI也不能瞬間完全替代,而是實現(xiàn)“自主性滑塊”——AI處理80%常規(guī)工作,剩下20%留給人類監(jiān)督。
那如果有AGI替代人類工作,它的并行復(fù)制會顯著加速AI進步嗎?會出現(xiàn)智力爆炸嗎?
卡帕西回答道:智力爆炸已經(jīng)在發(fā)生了,通過歷史GDP的指數(shù)增長就能體現(xiàn)出來。這是漸進的自動化趨勢:工業(yè)革命是物理自動化,早期軟件是數(shù)字自動化。
他認為:
這種增長模式大體保持不變。就像互聯(lián)網(wǎng)讓我們維持2%的增長一樣,AGI也只是延續(xù)這種模式,不會突然產(chǎn)生巨大的跳躍。
自動駕駛為何耗時如此之長
主持人還提到了卡帕西在特斯拉的經(jīng)歷,問道:“你曾在2017年到2022年領(lǐng)導(dǎo)特斯拉自動駕駛項目,為什么這個項目耗時如此之長?”
首先,卡帕西澄清了一點:自動駕駛還遠未完成。
對于某些任務(wù)或工作來說,演示到產(chǎn)品的差距非常大。演示可能很容易,但做成真正的產(chǎn)品非常難。自動駕駛尤其如此,因為失敗代價太高。
軟件工程也有類似特性。比如普通編程可能沒那么嚴格,但如果你寫的是生產(chǎn)級代碼,任何小錯誤都可能導(dǎo)致安全漏洞,泄露數(shù)百萬人的個人信息。
自動駕駛?cè)绻鲥e可能有人受傷,但軟件出錯可能帶來的后果幾乎是無限的。
其中的關(guān)鍵在于所謂的“9的進度”。每增加一位9(比如從90%到99%的可靠性),都需要大量工作??ㄅ廖髟谔厮估奈迥昀?,他們可能達到了三位或兩位9,但還有更多9等著去完成。
畢竟真正的產(chǎn)品要面對現(xiàn)實中的各種挑戰(zhàn),需要不斷修補各種邊緣情況。
教育的未來
最后,卡帕西作為一名全職教育家,不得不提的還有教育。
卡帕西表示:
我們在嘗試建立一所技術(shù)知識方面的頂尖學府,一所非?,F(xiàn)代化、領(lǐng)先的學校。我想做的是一種真正的“導(dǎo)師體驗”。
以他學韓語為例,一開始是自學,然后加入韓國的一個小班,和十來個學生一起上課。后來他換成了一對一導(dǎo)師。他發(fā)現(xiàn)這位導(dǎo)師的教學非常棒,可以迅速判斷他的知識水平,提出合適的問題來理解他的認知模型。
目前,即使是優(yōu)秀的LLM也做不到這一點,但好的導(dǎo)師可以做到。一旦導(dǎo)師了解自己,就能提供給學生最需要的知識——適度的挑戰(zhàn),既不太難也不太簡單。
此外,卡帕西還想做一門非常優(yōu)秀的課程,讓學生學習AI時能有頂尖的體驗。這個課程就是LLM101N,Nanochat是其中的經(jīng)典項目。之后他還需要構(gòu)建中間內(nèi)容,招募助教團隊,完善整門課程。
最后的最后,有的網(wǎng)友也是狠狠附議了卡帕西訪談中的一些觀點。
比如LLM的“健忘癥”。

但有的人也表示:
完全不同意,現(xiàn)在的編碼智能體已經(jīng)很可靠了。
































