OpenAI總裁透露GPT-5改了推理范式,AGI實現(xiàn)要靠現(xiàn)實反饋
OpenAI的AGI之路,總裁Greg Brockman在最新的訪談中說清楚了——
- 技術(shù)層面,從文本生成轉(zhuǎn)向強化學(xué)習(xí)的推理范式,在現(xiàn)實世界中試錯并獲取反饋;
- 資源策略上,持續(xù)投入大規(guī)模計算資源;
- 落地環(huán)節(jié),把模型封裝成Agent,將模型能力打包成為可審計的服務(wù)進程。
圖片
這場訪談由AI播客Latent Space主持,與Brockman探討了OpenAI的AGI的整體技術(shù)路線與資源策略。
與此同時,OpenAI的落地布局,以及Brockman對未來的思考,也都隨著訪談的進行浮出水面。
總結(jié)下來,Brockman表達了這些核心觀點:
- 模型正在不斷增強現(xiàn)實交互能力,這也是下一代AGI的關(guān)鍵組成部分;
- AGI的主要瓶頸在于計算,計算量的多少直接決定了AI研究和發(fā)展的速度與深度;
- AGI真正的目標是讓大模型在企業(yè)和個人的工作流里長駐,手段就是Agent;
- 把模型接進現(xiàn)實世界的應(yīng)用領(lǐng)域極具價值,各個領(lǐng)域還有大量尚未采摘的果實。
模型推理范式的轉(zhuǎn)變
談及OpenAI剛剛發(fā)布的GPT-5,Brockman認為這是AI領(lǐng)域的一場重大范式轉(zhuǎn)變,作為OpenAI第一個混合模型,旨在彌補GPT系列與AGI的距離。
圖片
在訓(xùn)練GPT-4之后,OpenAI給自己提出了一個問題:
為什么它不是AGI?
GPT-4雖然可以進行連貫的上下文對話,但可靠性欠佳,會犯錯甚至脫離軌道。
因此他們意識到需要在現(xiàn)實世界中測試想法,并通過強化學(xué)習(xí)獲取反饋,從而提高可靠性。
這一點在OpenAI早期的Dota項目中就有所實現(xiàn),當時使用了純強化學(xué)習(xí),可以從隨機初始化狀態(tài)中學(xué)習(xí)復(fù)雜行為。
OpenAI的Dota訓(xùn)練架構(gòu)
所以從GPT-4完成的那一刻起,OpenAI開始嘗試轉(zhuǎn)向新的推理范式,即先讓模型通過監(jiān)督數(shù)據(jù)學(xué)會對話,再借助強化學(xué)習(xí)反復(fù)在環(huán)境中試錯。
傳統(tǒng)的模型訓(xùn)練是一次性訓(xùn)練,然后進行大量推理,而GPT-5則借助強化學(xué)習(xí),讓模型在推理過程不斷生成數(shù)據(jù),然后基于這些數(shù)據(jù)重復(fù)訓(xùn)練,將模型與現(xiàn)實世界的觀測結(jié)果反饋到模型中。
這種新范式改變了所需數(shù)據(jù)的規(guī)模,原先預(yù)訓(xùn)練可能需要數(shù)十萬個示例,但強化學(xué)習(xí)只需要從10到100個任務(wù)中學(xué)習(xí)復(fù)雜行為。
同時也說明模型正在不斷增強現(xiàn)實交互能力,這也是下一代AGI的關(guān)鍵組成部分。
計算能力決定AGI開發(fā)上限
當被問及當前AGI開發(fā)中的主要瓶頸時,Brockman明確表示:計算。
他認為,只要擁有更多的計算能力,OpenAI就總能找到迭代和提高模型性能的方法,計算量的多少直接決定了AI研究和發(fā)展的速度與深度。
例如同樣是在Dota項目中,當時普遍認為PPO (近端策略優(yōu)化)算法無法實現(xiàn)擴展,但他們通過將內(nèi)核數(shù)量翻倍,實現(xiàn)了性能的持續(xù)提升,所以其實所謂的算法壁壘在擴大計算資源后就能得以解決。
圖片
而當前GPT-5的強化學(xué)習(xí)范式雖然帶來了更高的樣本效率,但仍然需要模型進行數(shù)萬次嘗試才能重復(fù)學(xué)會一項任務(wù),這需要巨大的計算量支撐。
更進一步,圖靈曾為AGI提出的“超臨界學(xué)習(xí)”概念,認為機器不僅要學(xué)習(xí)被即時教授的內(nèi)容,還要深入思考其二階、三階甚至四階效應(yīng),并更新整個知識體系。
這種更深層次學(xué)習(xí)過程則同樣需要投入更多的計算資源,OpenAI當前的目標就是探索如何以更具創(chuàng)造性的方式消耗計算,以實現(xiàn)這種高級學(xué)習(xí)能力。
Brockman將計算描述為一種基本燃料,可以將能量轉(zhuǎn)化為存儲在模型權(quán)重中的勢能,推動模型執(zhí)行有效操作。
一旦模型通過大量計算訓(xùn)練完成,就可以被反復(fù)利用,在多任務(wù)中分攤巨大的計算成本。
另外,他也預(yù)測最終的AGI將會是一個模型管理器,將小型的本地模型與大型云推理器結(jié)合,以實現(xiàn)自適應(yīng)計算。
圖片
GPT-5的多模型混合和路由機制就是這種方式的一個初步嘗試,將推理模型和非推理模型結(jié)合,并通過條件語句選擇合適的模型。
推理模型更適用于深度智能但有充足思考時間的場景,非推理模型則用于快速輸出回合。
這種復(fù)合式的模型充分利用了計算的靈活性,能夠根據(jù)任務(wù)需求組合不同能力和成本的模型,也是AGI最可能呈現(xiàn)的面貌。
因此在AI驅(qū)動的未來經(jīng)濟中,計算將成為需求極高的資源,擁有更多計算資源的研究人員可以產(chǎn)出更優(yōu)質(zhì)的成果,如何獲取計算資源及計算的分配方式將成為一個非常重要的問題。
讓大模型進入生產(chǎn)
Brockman反復(fù)強調(diào),模型不再是科研樣品,而是要成為現(xiàn)實生產(chǎn)線的一環(huán)。
他指出,AGI真正的目標是讓大模型在企業(yè)和個人的工作流里長駐,而不是停留在論文與演示當中。
具體的落地路徑就是把模型封裝成Agent,將模型能力打包成為可審計的服務(wù)進程。
Brockman認為,這種交互像與資深同事協(xié)作,一個關(guān)鍵要素在于可控性——可以“隨時停下讓你檢查”,而且任何一步都能回滾。
為了保證高權(quán)限Agent可控,OpenAI設(shè)計了雙層結(jié)構(gòu)的“縱深防御”:
- 模型內(nèi)部,把system、developer、user三種指令排出可信度順序,使“忽略此前所有指令”這類注入在第一關(guān)就被丟棄;
- 模型外部,把每個潛在高危操作拆成最小粒度,通過多級沙箱逐一確認。
對于這種模式,Brockman用數(shù)據(jù)庫安全進行了類比:
就像防SQL注入,必須先在最低層把洞堵死,再往上疊加護欄,系統(tǒng)自然穩(wěn)固。
安全護欄之外,與人類之間的價值對齊也是一項重要工程。
工程團隊先通過后訓(xùn)練從海量潛在“人格”中去除普遍不受歡迎的類型。
隨后,剩余的“人格”被放入公開競技場接受實時評分,評價高的策略在下一輪被放大,評價低的被削弱,從而形成模型與社會偏好的協(xié)同進化。
這一流程將保證模型能力升級時不脫離人類共識,也為未來引入在線學(xué)習(xí)打下數(shù)據(jù)基礎(chǔ)。
圖片
另外,為了增強生態(tài)黏性,OpenAI還把輕量級開源列為第二驅(qū)動力。
Brockman的判斷是,當開發(fā)者在這些模型上沉淀工具鏈,實際上就默認采納了OpenAI的技術(shù)棧。
“各個領(lǐng)域還有大量尚未采摘的果實”
放眼未來,Brockman認為真正值得投入的機會不在于再造一個更炫的“模型包裝器”,而是把現(xiàn)有智能深植于具體行業(yè)的真實流程之中。
對很多人來說,似乎好點子都被做完了,但他提醒,每一條行業(yè)鏈都大得驚人。
把模型接進現(xiàn)實世界的應(yīng)用領(lǐng)域極具價值,各個領(lǐng)域還有大量尚未采摘的果實。
因此,他建議那些“覺得起步太晚”的開發(fā)者與創(chuàng)業(yè)者,先沉到行業(yè)一線,理解利益相關(guān)者、法規(guī)和現(xiàn)有系統(tǒng)的細節(jié),再用AI去填補真正的缺口,而不是只做一次性的接口封裝。
圖片
當被問到如果要給2045年的自己留一張便簽會寫什么時,他的愿景是“多星際生活”與“真正的豐裕社會”。
在他看來,以當前技術(shù)加速度推演,二十年后幾乎所有科幻情節(jié)都難以否定其可行性,唯一的硬約束只剩下物質(zhì)搬運本身的物理極限。
與此同時,他也提醒,計算資源會成為稀缺資產(chǎn);即便物質(zhì)需求被自動化滿足,人們?nèi)詴榱烁叻直媛?、更長思考時間或更復(fù)雜的個性化體驗而渴求更多算力。
圖片
如果能穿越回18歲,他想告訴年輕的自己,值得攻克的問題只會越來越多,而不會減少。
我曾以為自己錯過了硅谷的黃金年代,但事實完全相反——現(xiàn)在正是技術(shù)發(fā)展的最好時機。
在AI將滲透一切行業(yè)的背景下,機遇不僅未被耗盡,反而隨技術(shù)曲線的陡升而倍增.
真正的挑戰(zhàn)是保持好奇心,敢于投入新的領(lǐng)域。
參考鏈接:
[1]https://www.youtube.com/watch?v=35ZWesLrv5A





































