偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

剛剛,GPT-5 Pro自證全新數(shù)學(xué)定理!OpenAI總裁直呼顛覆,大佬們集體轉(zhuǎn)發(fā)

人工智能 新聞
微軟前AI副總裁兼杰出科學(xué)家Sebastien Bubeck發(fā)文表示GPT-5 Pro從零攻克了數(shù)學(xué)論文中的未解區(qū)間,這個(gè)發(fā)現(xiàn)讓他大受震撼。該發(fā)現(xiàn)引得眾多大佬轉(zhuǎn)發(fā),OpenAI總裁認(rèn)為AI或?qū)⒓铀贁?shù)學(xué)研究。

AI真的能解決人類的前沿問題嗎?

比如類似龐加萊猜想、求解麥克斯韋方程、費(fèi)馬大定理、黎曼猜想等問題。

今天這個(gè)問題有了答案。

AI還真的可以!完全獨(dú)立,不參考人類已有的任何方法。

昨晚,GPT-5 Pro可以從零開始完全求解一個(gè)復(fù)雜的數(shù)學(xué)問題。

并且再次強(qiáng)調(diào),它沒有使用任何人類此前的證明方法。

而它的答案比論文中的求解方法都要好。

不過值得人類慶幸的是,論文作者后面又提供了全新的方法超過了AI。

Sebastien Bubeck是OpenAI的研究工程師,此前曾擔(dān)任微軟人工智能副總裁兼杰出科學(xué)家。

他把一篇論文直接扔給了GPT-5 Pro。

這篇論文研究了一個(gè)非常自然的問題:在光滑凸優(yōu)化中,梯度下降法的步長η滿足什么條件時(shí),迭代點(diǎn)所對應(yīng)的函數(shù)值形成的曲線是凸的?

論文地址:https://arxiv.org/pdf/2503.10138v1

在論文的v1版本中,他們證明了如果η小于1/L(L為光滑度),則可以得到此屬性。

如果η大于1.75/L,作者他們就構(gòu)造了一個(gè)反例。

因此,未解決的問題是:在區(qū)間[1/L,1.75/L]內(nèi)會發(fā)生什么情況。

首先,簡單解釋下這個(gè)問題。

梯度下降就像下山,每一步要選一個(gè)步長η。L可以理解成地形的「彎曲程度」(越大越陡/越敏感)。

論文不只關(guān)心「會不會往下走」(單調(diào)下降),還關(guān)心下降的軌跡是不是「凸」的:也就是每一步的進(jìn)步幅度不會忽大忽小,不會「前面像平臺、后面突然跳崖」。

這對何時(shí)停下來很有用——凸就表示越來越平穩(wěn),不會突然又大降。

Sebastien用GPT-5 Pro去攻這個(gè)未解決區(qū)間,模型把已知下限從1/L推進(jìn)到1.5/L。

以下是GPT-5 Pro給出的證明。

雖然初看不明覺厲,但整體證明過程看起來非常優(yōu)雅。

本來這個(gè)發(fā)現(xiàn)讓Sebastien興奮了好一陣,甚至想要直接發(fā)一篇arXiv論文。

但是,人類還是比AI快了一步。

論文原作者很快發(fā)了v2版本,徹底收尾,他們將閾值改寫1.75/L。

Sebastien認(rèn)為這個(gè)發(fā)現(xiàn)依然非常令人鼓舞,為什么?AI不是并沒有打敗人類嗎?

因?yàn)镚PT-5 Pro在證明中,它試圖證明的是1.5/L而不是1.75/L,這也表明GPT-5 Pro并沒有直接去搜索v2版本。

另外,上述證明與v2的證明也非常不同,它更像是v1證明的一種演進(jìn)。

這么看,現(xiàn)在的AI能力,不僅僅是博士級,很多時(shí)候都超過博士了。

這個(gè)發(fā)現(xiàn)也讓很多大佬們表示,AI下一個(gè)可能改變和影響的就是數(shù)學(xué)領(lǐng)域。

在AI的幫助下,人類知識的邊界將會再次被拓寬。

OpenAI的總裁Greg Brockman甚至表示這可能是AI在數(shù)學(xué)領(lǐng)域展現(xiàn)生命力的一種跡象。

此外,這次發(fā)現(xiàn)也和之前OpenAI官宣自己拿下IMO和IOI金牌不同。

這次攻破數(shù)學(xué)題的模型,就是面向用戶的GPT-5 Pro版本,而不是內(nèi)部推理模型。

Sebastien表示這個(gè)結(jié)論是經(jīng)過自己25分鐘驗(yàn)證。

作為前微軟人工智能副總裁兼杰出科學(xué)家,他的證明應(yīng)該沒問題,看來AI確實(shí)實(shí)際證明了該數(shù)學(xué)問題。

GPT-5發(fā)布后雖然毀譽(yù)參半。

但是,GPT-5 Pro是真的達(dá)到,甚至超過了奧特曼所說的「博士級」AI。

雖然這次解決的問題還沒有超過人類,但這種完全自主、自發(fā)現(xiàn)的能力苗頭還是彰示了AI的能力。

這讓我想起了流浪地球里的MOSS,也是自發(fā)現(xiàn)、自組織、自編程的AI。

Sebastien是一個(gè)很厲害的人。

他目前在OpenAI從事人工智能相關(guān)的工作。

在此之前,Sebastien曾擔(dān)任微軟的副總裁兼首席科學(xué)家,在微軟研究院工作了10年(最初加入理論研究組)。

Sebastien還在普林斯頓大學(xué)擔(dān)任了3年的助理教授。

在Sebastien的職業(yè)生涯的前15年里,他主要研究凸優(yōu)化、在線算法以及機(jī)器學(xué)習(xí)中的對抗魯棒性。

因這些研究工作多次獲得最佳論文獎(jiǎng)(包括STOC2023、NeurIPS2018和2021最佳論文獎(jiǎng)、與微軟研究院實(shí)習(xí)生合作獲得的ALT2018和2023最佳學(xué)生論文獎(jiǎng)、COLT2016最佳論文獎(jiǎng)以及COLT2009最佳學(xué)生論文獎(jiǎng))。

他現(xiàn)在更加關(guān)注于理解智能是如何在大語言模型中涌現(xiàn)的,以及如何利用這種理解來提升大語言模型的智能水平,可能最終實(shí)現(xiàn)通用人工智能(AGI)。

Sebastien們將這種方法稱為「AGI物理學(xué)」,因?yàn)樗噲D從不同的尺度(參數(shù)、神經(jīng)元、神經(jīng)元組、層、數(shù)據(jù)課程等)揭示AI系統(tǒng)各部分如何協(xié)同工作,從而產(chǎn)生這些模型驚人且出人意料的行為。

看起來,像Sebastien這樣的數(shù)學(xué)家、科學(xué)家們正在致力于嘗試破解大模型的黑箱之謎。

希望AI在拓展人類認(rèn)知邊界的同時(shí),人類也能破解大模型的秘密。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2025-08-21 15:46:49

GPT-5AI模型

2025-08-18 17:14:41

GPT-5OpenAIAGI

2025-08-11 09:07:00

2025-08-11 09:11:22

2023-06-08 07:58:29

2024-01-18 12:30:03

2025-09-25 10:01:33

2024-09-13 12:34:54

2025-06-19 09:06:00

2023-04-13 13:38:59

2023-08-02 13:52:59

GPT-5模型

2025-10-20 09:22:56

2025-09-18 12:41:22

2025-08-13 18:31:52

GPT-5模型AI

2023-08-11 10:44:20

GPT-5

2024-08-28 13:00:42

2023-11-14 14:26:29

OpenAIGPT-5

2023-08-10 15:22:48

人工智能OpenAI

2025-10-31 15:53:06

AI模型GPT-5

2023-08-02 00:19:46

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號