AI做題家卷瘋了!高數(shù)考試正確率81%,競賽題成績超過計(jì)算機(jī)博士
高數(shù)考不好,不知道是多少人的噩夢。

如果說你高數(shù)考得還不如AI好,是不是就更難以接受了?
沒錯(cuò),來自O(shè)penAI的Codex已經(jīng)在MIT的7門高數(shù)課程題目中正確率達(dá)到81.1%,妥妥的MIT本科生水平。
課程范圍從初級微積分到微分方程、概率論、線性代數(shù)都有,題目形式除了計(jì)算、甚至還有畫圖。

這件事最近還登上了微博熱搜。

△“僅”得81分,對AI的期待也太高了吧
現(xiàn)在,谷歌那邊又傳來了最新大消息:
不止數(shù)學(xué),我們的AI甚至在整個(gè)理工科上,都已經(jīng)拿到最高分啦!
看來在培養(yǎng)“AI做題家”這件事上,科技巨頭們已經(jīng)卷出了新高度。

谷歌這個(gè)最新AI做題家,參加了四門考試。
數(shù)學(xué)競賽考試MATH,以往只有三屆IMO金牌得主才拿過90分,普通的計(jì)算機(jī)博士甚至只能拿到40分左右。
至于別的AI做題家們,以前最好成績只有6.9分……
但這一次,谷歌新AI卻刷到了50分,比計(jì)算機(jī)博士還高。
綜合考試MMLU-STEM,內(nèi)含數(shù)理化生、電子工程和計(jì)算機(jī)科學(xué),題目難度達(dá)到高中甚至大學(xué)水平。
這一次,谷歌AI“滿血版”,也都拿到了做題家中的最高分,直接將分?jǐn)?shù)拉高了20分左右。

小學(xué)數(shù)學(xué)題GSM8k,直接將成績拉升到78分,相比之下GPT-3還沒及格(僅55分)。
就連MIT本科和研究生學(xué)的固體化學(xué)、天文學(xué)、微分方程和狹義相對論等課程,谷歌新AI也能在200多道題中,答出將近三分之一。

最重要的是,與OpenAI憑借“編程技巧”取得數(shù)學(xué)高分的方法不同,谷歌AI這一次,走的可是“像人一樣思考”的路子——
它像一個(gè)文科生一樣只背書不做題,卻掌握了更好的理工科解題技巧。
值得一提的是,論文一作Lewkowycz還分享了一個(gè)論文中沒寫到的亮點(diǎn):
我們的模型參加了今年的波蘭數(shù)學(xué)高考,成績比全國平均分還要高。

看到這里,有的家長已經(jīng)坐不住了。
如果告訴我女兒這件事,我怕她用AI做作業(yè)。但如果不告訴她,就沒有讓她對未來做好準(zhǔn)備!

在業(yè)內(nèi)人士看來,只靠語言模型,不對算數(shù)、邏輯和代數(shù)做硬編碼達(dá)到這種水平,是這項(xiàng)研究最驚艷的地方。

那么,這是怎么做到的?
AI狂讀arXiv上200萬篇論文
新模型Minerva,基于Pathway架構(gòu)下的通用語言模型PaLM改造而來。
分別在80億、600億和5400億參數(shù)PaLM模型的基礎(chǔ)上做進(jìn)一步訓(xùn)練。
Minerva做題與Codex的思路完全不同。
Codex的方法是把每道數(shù)學(xué)題改寫成編程題,再靠寫代碼來解決。
而Minerva則是狂讀論文,硬生生按理解自然語言的方式去理解數(shù)學(xué)符號。
在PaLM的基礎(chǔ)上繼續(xù)訓(xùn)練,新增的數(shù)據(jù)集有三部分:
主要有arXiv上收集的200萬篇學(xué)術(shù)論文,60GB帶LaTeX公式的網(wǎng)頁,以及一小部分在PaLM訓(xùn)練階段就用到過的文本。

通常的NLP數(shù)據(jù)清洗過程會把符號都刪掉只保留純文字,導(dǎo)致公式不完整,比如愛因斯坦著名的質(zhì)能方程只剩下了Emc2。

但谷歌這次把公式都保留,和純文本一樣走一遍Transformer的訓(xùn)練程序,讓AI像理解語言一樣去理解符號。
與之前的語言模型相比,這是Minerva在數(shù)理問題上表現(xiàn)更好的原因之一。
但與專門做數(shù)學(xué)題的AI相比,Minerva的訓(xùn)練中沒有顯式的底層數(shù)學(xué)結(jié)構(gòu),這帶來一個(gè)缺點(diǎn)和一個(gè)優(yōu)點(diǎn)。
缺點(diǎn),是可能出現(xiàn)AI用錯(cuò)誤的步驟得到正確答案的情況。
優(yōu)點(diǎn),是可以適應(yīng)不同學(xué)科,即使有些問題無法用正規(guī)的數(shù)學(xué)語言表達(dá)出來,也可以結(jié)合自然語言理解能力解出來。
到了AI的推理階段,Minerva還結(jié)合了多個(gè)最近谷歌開發(fā)的新技術(shù)。
先是Chain of Thought思維鏈路提示,今年一月由谷歌大腦團(tuán)隊(duì)提出。
具體來說就是在提問的同時(shí)給一個(gè)分步驟回答的示例來引導(dǎo)。AI在做題時(shí)就可以采用類似的思考過程,正確回答本來會答錯(cuò)的題目。

再有是谷歌和MIT合作開發(fā)的Scrathpad草稿紙方法,讓AI把分步計(jì)算的中間結(jié)果臨時(shí)存儲起來。

最后還有Majority Voting多數(shù)表決方法,也是今年3月才發(fā)表的。
讓AI多次回答同一個(gè)題目,選擇答案中出現(xiàn)頻率最高的。

所有這些技巧全用上以后,5400億參數(shù)的Minerva在各種測試集中達(dá)到SOTA。
甚至80億參數(shù)版的Minerva,在競賽級數(shù)學(xué)題和MIT公開課問題中,也能達(dá)到GPT-3最新更新的davinci-002版本水平。

說了這么多,Minerva具體都能做出哪些題目?
對此谷歌也開放出了樣例集,一起來看一下。
數(shù)理化生全能,連機(jī)器學(xué)習(xí)都會
數(shù)學(xué)上,Minerva可以像人類一樣按步驟計(jì)算數(shù)值,而不是直接暴力求解。

對于應(yīng)用題,可以自己列出方程式并做簡化。

甚至還可以推導(dǎo)證明。

物理上,Minerva可以求中性氮基態(tài)(Z = 7)電子的總自旋量子數(shù)這樣的大學(xué)水平題目。

生物和化學(xué)上,Minerva憑借語言理解能力也可以做各種選擇題。
以下哪種點(diǎn)突變形式對DNA序列形成的蛋白質(zhì)沒有負(fù)面影響?

以下哪種是放射性元素?

以及天文學(xué):為什么地球擁有很強(qiáng)的磁場?

在機(jī)器學(xué)習(xí)方面,它通過解釋“分布外樣本檢測”的具體含義,從而正確了給出這個(gè)名詞的另一種說法。

……
不過,Minerva有時(shí)也會犯一些低級錯(cuò)誤,比如把等式兩邊的√給消了。

除此之外,Minerva會出現(xiàn)的推理過程錯(cuò)誤但結(jié)果對的“假陽性”情況,比如下面這種,有8%的可能性。

經(jīng)過分析之后,團(tuán)隊(duì)發(fā)現(xiàn)主要的錯(cuò)誤形式來自計(jì)算錯(cuò)誤和推理錯(cuò)誤,只有小部分來自題意理解錯(cuò)誤和在步驟中使用了錯(cuò)誤的事實(shí)等其他情況。
其中計(jì)算錯(cuò)誤可以輕易通過訪問外部計(jì)算器或Python解釋器解決,但其他種類的錯(cuò)誤因?yàn)樯窠?jīng)網(wǎng)絡(luò)規(guī)模太大就不太好調(diào)整了。

總的來看,Minerva的表現(xiàn)讓很多人感到驚艷,紛紛在評論區(qū)求API(可惜谷歌目前并沒有公開計(jì)劃)。

有的網(wǎng)友想到,加上前幾日讓GPT-3解題正確率暴漲61%的“哄一哄”大法,它的準(zhǔn)確率或許還可以再提高?

不過作者的回應(yīng)是,哄一哄方法屬于零樣本學(xué)習(xí),再強(qiáng)恐怕也比不上帶4個(gè)例子的少樣本學(xué)習(xí)。

還有網(wǎng)友提出,既然它可以做題,那么能不能反過來出題?

事實(shí)上用AI給大學(xué)生出題這件事,MIT已經(jīng)聯(lián)合OpenAI在做了。
他們把人類出的題和AI出的題混在一起,找學(xué)生來做問卷調(diào)查,大家也很難分清一道題是不是AI出的。

總之現(xiàn)在的情況,除了搞AI的在忙著讀這篇論文以外。
學(xué)生們盼著有一天能用AI做作業(yè)。

老師們也盼著有一天能用AI出卷子。

論文地址:https://storage.googleapis.com/minerva-paper/minerva_paper.pdf
Demo地址:https://minerva-demo.github.io/
相關(guān)論文:Chain of Thought https://arxiv.org/abs/2201.11903Scrathpads https://arxiv.org/abs/2112.00114Majority Voting https://arxiv.org/abs/2203.11171
參考鏈接:
https://ai.googleblog.com/2022/06/minerva-solving-quantitative-reasoning.html
https://twitter.com/bneyshabur/status/1542563148334596098
https://twitter.com/alewkowycz/status/1542559176483823622?




























