OpenAI公開未來路線圖!具體到28年3月AI研究員將完全自主,奧特曼承認“關于GPT-4o我們搞砸了”
OpenAI完成史上最重要的一次組織架構調(diào)整后,緊接著開了一場直播。
首次公開了內(nèi)部研究目標的具體時間表,其中最引人注目的是“在2028年3月實現(xiàn)完全自主的AI研究員”,具體到月份。
圖片
這次發(fā)布會信息密度非常大,連奧特曼自己都說:“鑒于這些內(nèi)容的重要性,我們將以不同尋常的透明度分享我們的具體研究目標、基礎設施計劃和產(chǎn)品戰(zhàn)略。”
難道重組后的OpenAI,真的重新Open了?
不過也有一些事故,本來OpenAI發(fā)帖征集大家的問題,結果抱怨GPT-4o對敏感對話強制路由機制的人太多,兩人支支吾吾面面相覷了一陣。
圖片
奧特曼最終還是承認“這次我們搞砸了”。
我們的目標是在保護脆弱用戶的同時給成人用戶更多自由。我們有義務保護未成年用戶,保護那些不在合理心態(tài)下的成人用戶。
隨著年齡驗證的建立,我們將能夠更好地做出平衡。這不是我們最好的工作,但我們會改進。
2028年讓AI自己做研究,OpenAI給出明確時間表
直播一開始,奧特曼就承認自己的錯誤。
過去,我們把AGI想象成”天上的神諭”,超級智能會自動為人類創(chuàng)造美好的事物。
但現(xiàn)在我們意識到,真正重要的是創(chuàng)造工具,讓人們用這些工具創(chuàng)造自己的未來。
這種思維轉變并非偶然,人類歷史上每一次技術革命都源于更好的工具,從石器到蒸汽機,從計算機到互聯(lián)網(wǎng)。
OpenAI相信,AI將是下一個改變文明進程的工具,而他們的使命是讓這個工具盡可能強大、易用且普惠。
接下來,首席科學家Jakub Pachocki公開了一份OpenAI內(nèi)部的目標和路線圖。
- 2026年9月,AI研究實習生級別。能夠通過大量計算顯著加速研究人員工作
- 2028年3月,完全自動化的AI研究員,能夠自主完成大型研究項目
圖片
在介紹研究進展時他特別強調(diào),OpenAI相信深度學習系統(tǒng)距離超級智能“可能不到十年”,這里超級智能指的是在大量關鍵領域都比人類更聰明的系統(tǒng)。
他們對AI能力進展的量化方式是看模型能完成的任務所需的時間跨度,從最初的幾秒鐘任務,到現(xiàn)在的五小時任務(比如在國際數(shù)學和信息學競賽中擊敗頂尖選手),這個時間跨度正在快速延長。
圖片
想想模型目前在問題上花費的思考時間,再想想你愿意在真正重要的科學突破上花費多少時間,讓模型使用整個數(shù)據(jù)中心的計算資源來思考都是可以接受的,這里有巨大的提升空間。
Pachocki還詳細介紹了一項名為“思維鏈忠實度”(Chain of Thought Faithfulness)的新技術。
簡單來說,就是在訓練時故意不去監(jiān)督模型的內(nèi)部推理過程,讓它保持對實際想法的忠實表達。
我們不引導模型思考“好的想法”,而是讓它保持對實際想法的忠實。
在五層AI安全架構中,思維鏈忠實度瞄準最頂層的價值對齊。
AI真正關心什么?它能否遵守高層次的原則?面對不明確或沖突的目標時會怎么做?它是否缺乏人性?

這個問題之所以重要,是因為:
- 當系統(tǒng)進行長時間思考時,我們無法為每一步都提供詳細指令
- 當AI變得非常聰明時,可能面對人類無法完全理解的問題
- 當AI處理超出人類能力的問題時,完整的規(guī)范變得困難甚至不可能
在這些情況下必須依賴更深層的對齊,人們無法為每個細節(jié)編寫規(guī)則,必須依賴AI內(nèi)在的價值觀。
傳統(tǒng)方法在訓練期間查看并指導模型的思維過程,實際上是在教它說我們想聽的話,而不是保持對它真實思考過程的忠實。
目前,這種方法已經(jīng)在OpenAI內(nèi)部廣泛使用,用于理解模型如何訓練、傾向如何演變。以及與外部合作研究,通過查看未受監(jiān)督的思維鏈,能夠檢測到潛在的欺騙行為。
不過讓AI的價值觀不與監(jiān)控對抗還只是成功的一半。理想情況下還希望AI的價值觀實際上能夠幫助監(jiān)控模型,這是OpenAI下一步正在大力研究的內(nèi)容。
新架構亮相:非營利基金會掌控一切
備受關注的OpenAI重組方案終于揭曉,與原方案相比出人意料地簡潔。
舊的架構包括多個相互關聯(lián)的復雜實體:
圖片
新架構只剩兩層:
圖片
核心是OpenAI基金會(OpenAI Foundation),這個非營利組織將完全控制下屬的公益公司OpenAI Group。
基金會初始將持有公益公司約26%的股權,但如果業(yè)績優(yōu)異,這個比例可以通過認股權證增加。
Sam Altman希望OpenAI基金會成為史上最大的非營利組織,首個重大承諾是投入250億美元用于AI輔助疾病治療研究。
除了醫(yī)療研究,基金會還將重點投入一個全新的領域——AI Resilience。
OpenAI聯(lián)合創(chuàng)始人Wojciech Zaremba特別介紹了這個概念,它比傳統(tǒng)的AI安全范圍更廣。
舉例來說,即使OpenAI能阻止模型用于危險用途,但如果有人使用其他模型搞事,整個社會仍需要在問題發(fā)生時有快速響應機制。
Zaremba認為這就像互聯(lián)網(wǎng)早期的網(wǎng)絡安全,當時人們都不敢在網(wǎng)上輸入信用卡號,遇到病毒還要互相打電話提醒斷網(wǎng)。但現(xiàn)在有了完整的網(wǎng)絡安全產(chǎn)業(yè)鏈,人們才敢把最私密的數(shù)據(jù)和畢生積蓄放在網(wǎng)上。
圖片
在基礎設施方面,OpenAI首次公開了他們的投資規(guī)模:目前已承諾的基礎設施建設總計超過30GW(吉瓦),總財務義務約1.4萬億美元。
奧特曼還透露了一個長期目標:建立一個基礎設施工廠,每周能夠創(chuàng)造1GW的算力,并希望將每吉瓦的成本在五年生命周期內(nèi)降至200億美元左右。
為了實現(xiàn)這個目標,OpenAI考慮投入機器人技術,用來幫助建設數(shù)據(jù)中心。
為了讓大家理解這個規(guī)模,OpenAI重點介紹了他們在德克薩斯州阿比林建設的首個星際之門數(shù)據(jù)中心,在多個地點建設中,這是進展最快的。
這個工地每天有數(shù)千人在施工,整個供應鏈涉及數(shù)十萬甚至上百萬人,從芯片設計、制造到組裝,再到能源供應。
問答環(huán)節(jié)同樣精彩
Q1:技術變得令人上癮,然而Sora模仿TikTok,ChatGPT可能會添加廣告,為什么重復同樣的模式?
奧特曼:請根據(jù)我們的行動來判斷我們。如果Sora變成讓人刷的上癮而不是被用來創(chuàng)作,我們會取消這個產(chǎn)品。我們希望不會犯前人的錯誤,但可能會犯新錯誤,需要快速演進和緊密的反饋循環(huán)。
Q2:AI導致的大規(guī)模失業(yè)何時會發(fā)生?
Pachocki:很多工作將在未來幾年自動化,什么工作將取代這些工作?什么樣的新追求值得所有人參與?”
我認為會有幾個方面:能夠理解更多關于世界的東西,令人難以置信的各種新知識、新娛樂、新智能,將為人們提供相當多的意義和成就感。
Q3:內(nèi)部模型比公開部署的模型領先多少?
Pachocki對下一代模型有很強的期望,預計未來幾個月和一年會有快速進展,但沒有隱瞞什么極其瘋狂的東西。
奧特曼補充說他們開發(fā)了很多組件,當把它們組合在一起時,才會有令人印象深刻的成果。
今天我們只是有很多這樣的組件,不是坐擁未向世界展示的巨大成果,但預計一年后有機會實現(xiàn)AI能力的巨大飛躍。
Q4:OpenAI如何能為免費版本用戶提供這么多功能?
Jakub首先從技術角度解釋了這個現(xiàn)象:
當OpenAI開發(fā)出新一代模型(比如GPT-5)時,它代表了智能的新前沿,也就是目前AI能達到的最高水平。
達到這個前沿后,很快就能找到更便宜的方法來復制這種能力。
奧特曼從商業(yè)角度補充了這個討論:過去幾年,特定單位智能的價格每年下降約40倍。
這里出現(xiàn)了一個看似矛盾的情況,為什么仍需要大量基礎設施?他們AI越便宜,人們越想使用,最終總的成本預計只會增加。
OpenAI在此做出承諾,只要商業(yè)模式依然有效,就致力于繼續(xù)將我們能做到的最好技術放入免費層。
Q5:ChatGPT是OpenAI的終極產(chǎn)品嗎?還是通往更偉大事物的前身?
Pachocki解釋作為研究實驗室,最初并沒有打算構建聊天機器人。
但他們現(xiàn)在已經(jīng)認識到這個產(chǎn)品與整體使命的一致性,ChatGPT讓每個人都能使用強大的AI,不需要編程知識,不需要技術背景。
奧特曼認為聊天界面是一個很好的界面,但不會是唯一的界面,人們使用這些系統(tǒng)的方式將隨時間發(fā)生巨大變化。
對于五分鐘以下的任務,聊天界面表現(xiàn)很好,可以來回提問,逐步完善直到滿意。
但對于五小時的任務就需要更豐富的界面,那五年或五個世紀的任務呢?這幾乎超出了我們的想象。
奧特曼隨后描繪了他心目中最重要的演進方向:一個環(huán)境感知的、總是存在的伙伴,觀察你生活并在你需要時主動幫助你的服務。




































