53頁P(yáng)DF爆料OpenAI“AGI時(shí)間表”,爆料者:馬斯克訴訟攪了局
OpenAI神秘的Q*計(jì)劃,又有新鮮爆料。
今天凌晨,一篇54頁google文檔開始在網(wǎng)絡(luò)上熱傳,透露OpenAI“計(jì)劃在2027年前實(shí)現(xiàn)完全AGI”。
爆料者稱,自己選擇發(fā)布這篇文檔是不想讓馬斯克繼續(xù)“造成傷害”,他認(rèn)為后者發(fā)起的訴訟造成了AGI的推遲。
圖片
△文檔封面由爆料者制作,并非來自O(shè)penAI官方
消息一經(jīng)發(fā)布,就在網(wǎng)絡(luò)上引起了軒然大波,甚至有人認(rèn)為實(shí)現(xiàn)AGI可能不需要等那么久……
圖片
當(dāng)然也有人對其真實(shí)性表示質(zhì)疑,認(rèn)為文檔來源不明且無法證實(shí)真?zhèn)巍?/p>
圖片
那么,這份被熱議的爆料文檔,都說了些什么呢?
系列發(fā)布計(jì)劃重新調(diào)整
文檔顯示,OpenAI訓(xùn)練了一個(gè)125T(萬億)參數(shù)的多模態(tài)大模型,而Q*就是該模型的第一個(gè)階段。
據(jù)稱,該模型就是原計(jì)劃在2025年發(fā)布的GPT-5,訓(xùn)練于2023年12月完成,智商達(dá)到了48。
而之后的Q* 2024和Q* 2025(計(jì)劃發(fā)布時(shí)間分別為2026和2027年),智商被認(rèn)為將達(dá)到96和145。
96分的IQ已經(jīng)是普通的人類的水準(zhǔn),而145分則是達(dá)到了天才水平。
但壞消息是,由于推理成本過高,加上馬斯克訴訟的影響,這一系列計(jì)劃被推遲,相應(yīng)模型的名字也換了一圈。
圖片
而按照爆料者的說法,AGI在GPT-4完成訓(xùn)練時(shí),也就是2022年8月就已初現(xiàn)端倪。
GPT4時(shí)已有AGI?
爆料者說,神經(jīng)網(wǎng)絡(luò)的參數(shù)就如同生物體的突觸,參數(shù)量越大(突觸數(shù)量越多),表現(xiàn)也會(huì)更智能。
GPT-2有15億個(gè)連接,這比老鼠的大腦(大約100億個(gè)突觸)還要少;而GPT-3有1750億個(gè)連接,已經(jīng)與貓接近。
2020年,GPT-3發(fā)布后,許多人開始推測一個(gè)大約大600倍、擁有百萬億參數(shù)的模型可能會(huì)有怎樣性能,因?yàn)檫@個(gè)參數(shù)量接近了人類大腦的突觸數(shù)量。
文檔作者引用了英國Open Philanthropy學(xué)者Lukas Finnveden(Lanrain)的觀點(diǎn),表示根據(jù)模型的參數(shù)量,人們將能夠預(yù)測AI的性能。
圖片
人類大腦大約有2×10^14(200萬億)個(gè)突觸,大致相當(dāng)于神經(jīng)網(wǎng)絡(luò)中的參數(shù)數(shù)量(綠線)。
而Lanrian展示的外推預(yù)測顯示,AI性能似乎隨著參數(shù)量一同達(dá)到了人類水平。
圖片
在假定AI性能確實(shí)可以根據(jù)參數(shù)量來預(yù)測,而且大約100萬億參數(shù)就足以與人類相當(dāng)?shù)那疤嵯?,何時(shí)出現(xiàn)AGI的問題就變成了什么時(shí)候會(huì)出現(xiàn)百萬億參數(shù)的AI模型。
而OpenAI開發(fā)百萬億參數(shù)模型的傳聞,最早出現(xiàn)在在2021年夏天,這是奧特曼參投的Cerebras公司CEO Andrew Feldman在Wired雜志的一次訪談中透露的。
圖片
同年9月,奧特曼在AC10在線聚會(huì)和問答環(huán)節(jié)中,承認(rèn)了該計(jì)劃的存在。
不久之后,網(wǎng)絡(luò)上又產(chǎn)生了GPT-4即是該模型的傳聞,導(dǎo)致包括奧特曼在內(nèi)的OpenAI員工不得不緊急辟謠。
OpenAI的官方立場,是認(rèn)為GPT-4具有百萬億參數(shù)的說法純屬無稽之談,但文檔作者認(rèn)為其說法亦非完全屬實(shí)——在他看來,GPT-4是這個(gè)百萬億參數(shù)模型的一個(gè)子集。
圖片
爆料者還稱,OpenAI聲稱GPT-4在2022年8月份“完成了訓(xùn)練”,但有一個(gè)“龐大”的多模態(tài)模型據(jù)信在8-10月正在接受訓(xùn)練。
他推測,要么是OpenAI撒了謊,要么是GPT-4完成第一輪訓(xùn)練后在8月至10月之間進(jìn)行了額外訓(xùn)練,關(guān)鍵是這段時(shí)間與訓(xùn)練百萬億模型所需要的時(shí)間十分接近。
但是,2022年DeepMind發(fā)布的Chinchilla,用相對較小的參數(shù)量擊敗了較大參數(shù)量的模型,說明單靠參數(shù)量預(yù)測模型表現(xiàn)的方式不夠準(zhǔn)確。
對此,OpenAI總裁Greg Brockman表示已經(jīng)意識(shí)到此前認(rèn)為的Scaling Law存在缺陷,并已采取措施進(jìn)行適應(yīng)。
進(jìn)一步地,爆料者認(rèn)為,有了新的補(bǔ)充,這個(gè)百萬億模型將能夠達(dá)到與人類同等的水平……
而至于這份爆料的真實(shí)度,一方面看,其中引用的一些人,的確曾對OpenAI的行動(dòng)做出過準(zhǔn)確預(yù)測。
但另一方面,爆料這個(gè)消息的推特博主,總共就只有兩條推文,而且還是在同一天發(fā)出的。
圖片
所以,這份文檔中的內(nèi)容可信度究竟有幾分,讀者朋友們還是理性吃瓜為好。
文檔地址:https://drive.google.com/file/d/1xlRDbMUDE41XPzwStAGyAVEP8qA9Tna7