剛剛,GPT-5 Pro自證全新數(shù)學(xué)定理!OpenAI總裁直呼顛覆,大佬們集體轉(zhuǎn)發(fā)
AI真的能解決人類的前沿問題嗎?
比如類似龐加萊猜想、求解麥克斯韋方程、費(fèi)馬大定理、黎曼猜想等問題。
今天這個(gè)問題有了答案。
AI還真的可以!完全獨(dú)立,不參考人類已有的任何方法。
昨晚,GPT-5 Pro可以從零開始完全求解一個(gè)復(fù)雜的數(shù)學(xué)問題。

并且再次強(qiáng)調(diào),它沒有使用任何人類此前的證明方法。
而它的答案比論文中的求解方法都要好。

不過值得人類慶幸的是,論文作者后面又提供了全新的方法超過了AI。
Sebastien Bubeck是OpenAI的研究工程師,此前曾擔(dān)任微軟人工智能副總裁兼杰出科學(xué)家。
他把一篇論文直接扔給了GPT-5 Pro。
這篇論文研究了一個(gè)非常自然的問題:在光滑凸優(yōu)化中,梯度下降法的步長η滿足什么條件時(shí),迭代點(diǎn)所對應(yīng)的函數(shù)值形成的曲線是凸的?

論文地址:https://arxiv.org/pdf/2503.10138v1
在論文的v1版本中,他們證明了如果η小于1/L(L為光滑度),則可以得到此屬性。
如果η大于1.75/L,作者他們就構(gòu)造了一個(gè)反例。
因此,未解決的問題是:在區(qū)間[1/L,1.75/L]內(nèi)會發(fā)生什么情況。
首先,簡單解釋下這個(gè)問題。
梯度下降就像下山,每一步要選一個(gè)步長η。L可以理解成地形的「彎曲程度」(越大越陡/越敏感)。

論文不只關(guān)心「會不會往下走」(單調(diào)下降),還關(guān)心下降的軌跡是不是「凸」的:也就是每一步的進(jìn)步幅度不會忽大忽小,不會「前面像平臺、后面突然跳崖」。
這對何時(shí)停下來很有用——凸就表示越來越平穩(wěn),不會突然又大降。

Sebastien用GPT-5 Pro去攻這個(gè)未解決區(qū)間,模型把已知下限從1/L推進(jìn)到1.5/L。
以下是GPT-5 Pro給出的證明。
雖然初看不明覺厲,但整體證明過程看起來非常優(yōu)雅。

本來這個(gè)發(fā)現(xiàn)讓Sebastien興奮了好一陣,甚至想要直接發(fā)一篇arXiv論文。
但是,人類還是比AI快了一步。
論文原作者很快發(fā)了v2版本,徹底收尾,他們將閾值改寫1.75/L。
Sebastien認(rèn)為這個(gè)發(fā)現(xiàn)依然非常令人鼓舞,為什么?AI不是并沒有打敗人類嗎?
因?yàn)镚PT-5 Pro在證明中,它試圖證明的是1.5/L而不是1.75/L,這也表明GPT-5 Pro并沒有直接去搜索v2版本。
另外,上述證明與v2的證明也非常不同,它更像是v1證明的一種演進(jìn)。
這么看,現(xiàn)在的AI能力,不僅僅是博士級,很多時(shí)候都超過博士了。
這個(gè)發(fā)現(xiàn)也讓很多大佬們表示,AI下一個(gè)可能改變和影響的就是數(shù)學(xué)領(lǐng)域。
在AI的幫助下,人類知識的邊界將會再次被拓寬。

OpenAI的總裁Greg Brockman甚至表示這可能是AI在數(shù)學(xué)領(lǐng)域展現(xiàn)生命力的一種跡象。

此外,這次發(fā)現(xiàn)也和之前OpenAI官宣自己拿下IMO和IOI金牌不同。
這次攻破數(shù)學(xué)題的模型,就是面向用戶的GPT-5 Pro版本,而不是內(nèi)部推理模型。

Sebastien表示這個(gè)結(jié)論是經(jīng)過自己25分鐘驗(yàn)證。
作為前微軟人工智能副總裁兼杰出科學(xué)家,他的證明應(yīng)該沒問題,看來AI確實(shí)實(shí)際證明了該數(shù)學(xué)問題。

GPT-5發(fā)布后雖然毀譽(yù)參半。
但是,GPT-5 Pro是真的達(dá)到,甚至超過了奧特曼所說的「博士級」AI。
雖然這次解決的問題還沒有超過人類,但這種完全自主、自發(fā)現(xiàn)的能力苗頭還是彰示了AI的能力。
這讓我想起了流浪地球里的MOSS,也是自發(fā)現(xiàn)、自組織、自編程的AI。
Sebastien是一個(gè)很厲害的人。
他目前在OpenAI從事人工智能相關(guān)的工作。

在此之前,Sebastien曾擔(dān)任微軟的副總裁兼首席科學(xué)家,在微軟研究院工作了10年(最初加入理論研究組)。
Sebastien還在普林斯頓大學(xué)擔(dān)任了3年的助理教授。
在Sebastien的職業(yè)生涯的前15年里,他主要研究凸優(yōu)化、在線算法以及機(jī)器學(xué)習(xí)中的對抗魯棒性。
因這些研究工作多次獲得最佳論文獎(jiǎng)(包括STOC2023、NeurIPS2018和2021最佳論文獎(jiǎng)、與微軟研究院實(shí)習(xí)生合作獲得的ALT2018和2023最佳學(xué)生論文獎(jiǎng)、COLT2016最佳論文獎(jiǎng)以及COLT2009最佳學(xué)生論文獎(jiǎng))。
他現(xiàn)在更加關(guān)注于理解智能是如何在大語言模型中涌現(xiàn)的,以及如何利用這種理解來提升大語言模型的智能水平,可能最終實(shí)現(xiàn)通用人工智能(AGI)。
Sebastien們將這種方法稱為「AGI物理學(xué)」,因?yàn)樗噲D從不同的尺度(參數(shù)、神經(jīng)元、神經(jīng)元組、層、數(shù)據(jù)課程等)揭示AI系統(tǒng)各部分如何協(xié)同工作,從而產(chǎn)生這些模型驚人且出人意料的行為。
看起來,像Sebastien這樣的數(shù)學(xué)家、科學(xué)家們正在致力于嘗試破解大模型的黑箱之謎。
希望AI在拓展人類認(rèn)知邊界的同時(shí),人類也能破解大模型的秘密。





































