前OpenAI靈魂人物Jason Wei最新演講!三大思路揭示2025年AI終極走向
用三句話總結(jié)下2025年AI的發(fā)展,你會想到什么?
- 所有能被驗證的任務(wù),最終都會被AI解決
- 智能最后會變成商品,知識價格歸零
- AI不會瞬間超過人類
最近,前OpenAI核心研究員、CoT(思維鏈)作者Jason Wei在斯坦福大學(xué)AI Club做了一場精彩的演講。
圖片
這是他跳槽到Meta后少有的公開分享。
我們的世界,在AI大行其道的這一年,到底發(fā)生了什么?
AI繼續(xù)發(fā)展下去是什么樣子的?
圖片
量化交易員說AI很酷,但并不能做我的工作;
頂級實驗室AI研究院:2-3年后,AI就要取代我的工作了。
那么,誰對誰錯?
智能的商品化
Jason Wei的原話是Intelligence as a Commodity。
AI的智能發(fā)展可以分為兩個階段:
第一階段:前沿突破,當(dāng)AI還無法很好地完成某任務(wù)時,研究的重點是「解鎖新能力」。
第二階段:能力商品化,一旦AI能完成該任務(wù),該能力就會被快速復(fù)制、成本趨近于零。
例如在MMLU(多任務(wù)語言理解基準(zhǔn))上,過去幾年模型性能穩(wěn)步提升,而達到特定分數(shù)的成本卻逐年下降。
圖片
「自適應(yīng)算力」的出現(xiàn)
AI的出現(xiàn),也是首次深度學(xué)習(xí)真正實現(xiàn)自適應(yīng)計算(Adaptive Compute)。
過去無論任務(wù)簡單還是困難,模型都消耗相同的算力。
圖片
現(xiàn)在可以根據(jù)任務(wù)難度動態(tài)調(diào)整推理算力。
例如在o1模型中,推理時投入更多計算,就能在數(shù)學(xué)題上獲得更高準(zhǔn)確率。
這意味著:智能的成本可以持續(xù)下降,而無需無限擴大模型規(guī)模。
圖片
Jason以「查找1983年釜山結(jié)婚人數(shù)」為例:
- 互聯(lián)網(wǎng)時代前:去圖書館查百科,數(shù)小時
- 互聯(lián)網(wǎng)時代:搜索網(wǎng)站、篩選資料,數(shù)分鐘
- 聊天機器人時代:直接問AI ,即時
- 智能體(Agent)時代:自動查找并整合數(shù)據(jù)庫,數(shù)秒到數(shù)分鐘
總結(jié)一下,Jason Wei認為智能作為一種「商品」,將越來越便宜
- 知識民主化:編程、生物黑客等曾需高門檻知識的領(lǐng)域被大眾化。
- 私有信息的相對升值:公開信息成本趨零,內(nèi)幕或獨家信息的價值反而更高。
- 個性化互聯(lián)網(wǎng):未來每個人可能擁有一套完全定制的知識入口。
驗證者法則
什么是驗證者法則?
所有能被驗證的任務(wù),最終都會被AI解決。
所以現(xiàn)在會出現(xiàn)各種各樣的評測基準(zhǔn)。
只要能建立「能夠被驗證的任務(wù)」,AI都會攻破這個領(lǐng)域。
很明顯的一點是,越容易生成的任務(wù),越難被驗證。
這就是驗證的非對稱性。
比如數(shù)獨和造一個網(wǎng)站,都屬于中等難度和高難度的任務(wù)。
但是要驗證一個數(shù)獨題目的正確性,和驗證一個網(wǎng)站是否開發(fā)的不錯,很簡單!
許多任務(wù)存在「生成難,驗證易」的不對稱:

- 解數(shù)獨:難求解,易驗證。
- 寫出網(wǎng)站的全部代碼:極難生成,但驗證只需點擊瀏覽。
- 寫事實性文章:容易生成「似是而非」的文本,但事實核查極其耗時。
- 提出飲食法:容易斷言「只吃野牛最好」,但驗證需長期實驗。
我們可將任務(wù)放在二維平面上:X軸,生成難度;Y軸,驗證難度。
圖片
某些任務(wù)可以通過提供額外信息使其更易驗證:
例如提供答案或測試集,使「生成→驗證」更高效。
AI能否學(xué)會一項任務(wù),與該任務(wù)的可驗證性成正比。
即:任何可驗證、可量化的任務(wù),AI終將掌握。
比如下面這種圖,在過去5年中,大部分AI基準(zhǔn)評測都非常容易被「驗證」。
圖片
Jason Wei給出了可驗證性的五個因素:
- 是否存在客觀真值;
- 驗證速度是否快;
- 能否批量驗證大量樣本;
- 結(jié)果是否低噪聲、穩(wěn)定;
- 是否有連續(xù)反饋(不僅是「對/錯」,還有質(zhì)量梯度)。
幾乎所有AI基準(zhǔn)(benchmarks)都具備這些特征,因此被迅速攻克。
Jason Wei重點描述一個案例:DeepMind的AlphaEvolve。
圖片
該系統(tǒng)通過大規(guī)模采樣與自我驗證,解決了大量「易驗證難求解」的任務(wù)。
圖片
核心流程是:
- 用語言模型生成候選答案;
- 自動打分(驗證);
- 取最優(yōu)樣本再輸入模型,形成迭代;
- 反復(fù)迭代后性能顯著提升。
圖片
這種策略繞過了「訓(xùn)練集-測試集」的泛化問題,只針對「單個任務(wù)」持續(xù)優(yōu)化。
總結(jié)一下:
- 可輕易驗證的任務(wù)將率先被AI自動化。
- 新的創(chuàng)業(yè)機會:為AI創(chuàng)造「可測量的目標(biāo)」。
- 即——只要你能定義一個明確的度量指標(biāo),AI就能為你優(yōu)化它。
智能的鋸齒邊緣
這個關(guān)鍵點英文叫做The Jagged Edge of Intelligence,智能的鋸齒邊緣。
直接翻譯有點抽象,但是如果看下圖就很好理解了。
簡單來說,就是AI的智能并不是「全知全能」,AI的智能水平就像鋸齒一樣,有高有低。
圖片
AI為什么不會「瞬間超越人類」
Jason認為不會出現(xiàn)「AI快速爆炸式超越人類」的「Fast Take off」。
AI的自我改進能力將是漸進的、分任務(wù)發(fā)展的。
不同任務(wù)的學(xué)習(xí)速度和上限各不相同,不會「一夜超神」。
每個任務(wù)的改進速率不同:
- 一些任務(wù)進步快(如可驗證的數(shù)學(xué)、編程)。
- 一些任務(wù)改進慢(如需要真實世界交互或罕見數(shù)據(jù)的語言)。
AI的發(fā)展呈「鋸齒形」曲線:某些領(lǐng)域突飛猛進,某些長期停滯。
那么AI在哪些任務(wù)上發(fā)展快,哪些發(fā)展的慢?
判斷任務(wù)進展速度的三條啟發(fā)式法則:
- 數(shù)字化任務(wù)發(fā)展快:迭代速度高、實驗成本低;例如軟件開發(fā)遠快于機器人制造。
- 對人類簡單的任務(wù),對AI也簡單:但AI也能在某些「人類極難但有明確目標(biāo)」的領(lǐng)域超越人類,如癌癥影像預(yù)測。
- 數(shù)據(jù)越多,AI越強:語言模型在高頻語言上性能顯著優(yōu)于低資源語言,若任務(wù)能提供單一客觀指標(biāo),還可用強化學(xué)習(xí)生成合成數(shù)據(jù)。
比如AI代碼,現(xiàn)在基本已經(jīng)被AI攻克,競賽數(shù)學(xué)也被攻克了。
但是如果數(shù)據(jù)量很小,無法數(shù)字化的領(lǐng)域,AI就很難攻克。
圖片
總結(jié)一下:
- 不存在統(tǒng)一的「AI超級智能爆發(fā)」;
- 各任務(wù)將以不同速率演進;
- 影響最大的領(lǐng)域是:數(shù)字化、人類已擅長、數(shù)據(jù)豐富的領(lǐng)域
Jason Wei在演講最后總結(jié)道:
智能與知識將變得快速且廉價,公共知識的獲取時間趨零。
而「驗證者法則」則預(yù)示著可度量性推動AI進步,任何可驗證的任務(wù)都會被AI征服。
智能的邊界是鋸齒狀的。各任務(wù)發(fā)展速率不同,不會出現(xiàn)瞬間的超智能崛起。
未來的信息將無摩擦地流動,而AI的邊界,將由我們能定義和驗證的事物所決定。
演講嘉賓介紹
圖片
Jason Wei,目前是Meta Superintelligence Labs的研究科學(xué)家。
他曾在OpenAI工作兩年,參與創(chuàng)建了o1模型和DeepResearch項目;
在那之前,他是Google Brain的研究員,推動了Chain-of-Thought推理、Instruction Tuning(指令微調(diào))等技術(shù)的發(fā)展。
他的論文被引用超過9萬次,是現(xiàn)代AI領(lǐng)域最具影響力的研究者之一。
參考資料:
https://www.youtube.com/watch?v=b6Doq2fz81U




































