Claude與人類共著論文,蘋果再遭打臉!實驗黑幕曝光
幾天前,蘋果怒斥大模型根本不會推理論文,引發(fā)全網(wǎng)無數(shù)討論與爭議。
在許多人看來,沒有站在AI前沿的人, 卻質(zhì)疑當今最領(lǐng)先推理模型o3-mini、DeepSeek-R1推理能力,實在沒有說服力。
論文一出,備受質(zhì)疑。
一位研究員發(fā)文稱,其研究方法并不可靠,比如通過在數(shù)學題中添加無關(guān)內(nèi)容測試模型的表現(xiàn)。
最近,Open Philanthropy研究人員聯(lián)手Anthropic發(fā)表的一篇論文——The Illusion of the Illusion of Thinking,再次將矛頭指向蘋果。
論文地址:https://arxiv.org/pdf/2506.09250
這篇僅4頁論文一針見血,揭露了蘋果論文在漢諾塔實驗、自動評估框架,以及「過河」基準測試中的三大缺陷。
甚至,文中還指出部分測試用例在數(shù)學上無解,模型卻因此被誤判為「推理失敗」。
更引人注目的是,論文作者之一,還有一個是AI——Claude Opus。
論文中,具體指出了哪些問題,讓我們一探究竟。
推理大模型失敗,是非戰(zhàn)之罪
在The illusion of thinking中,作者給出了四個例子,說明當問題的尺度變大時,大模型的表現(xiàn)變得越來越差。
他們據(jù)此得出結(jié)論:大模型實際上只是在進行著模式匹配,從訓練數(shù)據(jù)集中找出對該問題的已有解答。
漢諾塔問題示例
然而Lawsen和Claude指出上述研究中,推理大模型失敗源頭在于token數(shù)超過了模型的上限。
例如,在漢諾塔的任務中,模型必須打印指數(shù)級數(shù)量的步驟——僅15個盤子就需要超過32,000次移動,這導致它們達到輸出上限。
Sonnet 3.7的輸出限制是128k,DeepSeek R1是64K,以及o3-mini是100k token。
這包括他們在輸出最終答案之前使用的推理token,所有模型在超過13個盤子的情況下都會出現(xiàn)0準確率,僅僅因為它們無法輸出那么多!
不同大模型能夠應對的漢諾塔盤子數(shù),不考慮任何推理token,大模型最大可解決規(guī)模為DeepSeek: 12個盤子,Sonnet 3.7和o3-mini為13個盤子
在使用Claude測試時,作者觀察到當問題規(guī)模過大時,它們甚至不會進行推理,而是會說,「由于移動次數(shù)眾多,我將解釋解決方案方法」,而不是逐一列出所有32,767次移動。
針對非常小的問題(大約5-6個盤子)的,大模型會進行推理。
之后,它只是:重復問題,重復算法,打印步驟,然后到了9-10個盤子時,這時模型遇到了其輸出的上限,這時,模型也許應該給出回復,「我寫不下2^n_圓盤-1步,這超過了我的輸出上限」。
不同尺度的問題,大模型輸出的token數(shù)在9-10個盤子時達到峰值
此外,大模型給出的解答之所以是錯誤的,可能的原因是在每一步推理過程中,大模型由于其是概念模型,會忘記之前選定的盤子。
即使大模型每一步選對正確盤子的概率是99.99%,當盤子數(shù)超過11%個時,大模型給出正確回答的概率,也會呈現(xiàn)指數(shù)衰減。
這意味著即使大模型能夠進行推理,但由于其在推理過程中,某漢諾塔盤頂?shù)谋P子編號從A記錯成了B,也會導致其給出的指令無法執(zhí)行。
而當前的評價要求大模型給出的回答完全沒有錯誤,這樣的評價標準,未免有些過于嚴苛了。
大模型不同觀察準確性下,隨著問題復雜度增長其回答準確性的變化
至于The illusion of thinking文中列出的另一案例過河問題(River Crossing),當問題變?yōu)閚=6時,問題在數(shù)學上就是無解的,這樣的不可解的問題數(shù)目并不少。將大模型面對這些不可解問題的失敗,當做大模型缺少推理能力的證據(jù),這樣做無疑是不妥的。
除了指出The illusion of thinking中的評價缺陷,最新論文也指出對大模型推理能力對正確評價方法。
即不是讓大模型逐行編寫每個步驟時,而是其給出一個Lua程序去解答問題,然后運行大模型給出的程序,再判斷程序的輸出否是正確的解答。
結(jié)果顯示,Claude-3.7-Sonnet,Claude Opus 4,OpenAI o3,Google Gemini 2.5都能夠在5000個token的限制下,輸出能得到正確解答的程序,準確率極高。
這完全消除了所謂的推理能力崩潰現(xiàn)象,表明模型并非未能進行推理。它們只是未能遵循一個人為的、過于嚴格的評分標準。
LLM推理能力引熱議
蘋果發(fā)布「思考的幻覺」論文的時間,恰逢WWDC之前,這進一步加劇了其影響力,使得其被廣泛討論。
這其中就包含不少批評的聲音,比如有人暗示蘋果在大模型方面落后于OpenAI和谷歌等競爭對手,可能試圖降低人們的期望。
他們戲稱,提出了一些關(guān)于「這一切都是假的,毫無意義」的研究,可以挽救蘋果在Siri等表現(xiàn)不佳的AI產(chǎn)品上的聲譽。
還有人批評道,即使是人類,也大多無法準確無誤的寫出針對13個盤子的漢諾塔問題的一步步解法,如果沒有進行這樣的比較,蘋果又如何知道這樣隨著問題規(guī)模變大而遇到的準確性下降,不會出現(xiàn)在人類身上。
而法國高效能AI初創(chuàng)公司Pleias的工程師Alexander Doria指出思考的幻覺一文略了細微差別,認為模型可能在學習部分啟發(fā)式方法,而不是簡單地匹配模式。
而賓夕法尼亞大學沃頓商學院專注于人工智能的教授Ethan Mollick認為,認為大語言模型正在「遇到瓶頸」的觀點為時過早,并將此比作那些未能應驗的關(guān)于「模型崩潰」的類似主張。
上述爭議凸顯了一個日益增長的共識:設計合理的大模型評估方案,如今與模型設計同等重要。
要求大模型枚舉每一步可能更多地考驗它們的輸出上限而非規(guī)劃能力,而輸出程序化答案或給予大模型外部臨時工作區(qū)則能更清晰地展現(xiàn)其實際推理能力。
該案例還突出了開發(fā)者在部署自主系統(tǒng)時面臨的實際限制——上下文窗口、輸出預算和任務表述可能決定或破壞用戶可見的性能。對于在企業(yè)技術(shù)決策者構(gòu)建基于推理大模型的應用而言,這場辯論不僅僅是學術(shù)性的。它提出了關(guān)于在生產(chǎn)工作流程中何時、何地以及如何信任這些模型的關(guān)鍵問題——尤其是在任務涉及長規(guī)劃鏈或需要精確的逐步輸出時。
如果一個模型在處理復雜提示時看似「失敗」,問題可能不在于其推理能力,而在于任務如何被構(gòu)建、需要多少輸出,或模型能訪問多少內(nèi)存。這對于構(gòu)建如協(xié)作者、自主代理或決策支持系統(tǒng)等工具的產(chǎn)業(yè)尤其相關(guān),在這些產(chǎn)業(yè)中,可解釋性和任務復雜性都可能很高。
理解上下文窗口、token預算以及評估中使用的評分標準對于可靠的系統(tǒng)設計至關(guān)重要。開發(fā)者可能需要考慮外部化內(nèi)存、分塊推理步驟或使用函數(shù)或代碼等壓縮輸出,而不是完整的語言解釋。
更重要的是,這篇論文的爭議提醒我們,基準測試與現(xiàn)實應用并不相同。
企業(yè)團隊應謹慎避免過度依賴那些不能反映實際應用場景的合成基準測試——或者那些無意中限制模型展示其能力的基準測試。對機器學習研究人員來說,一個重要的啟示是:在宣稱一個人工智能里程碑或訃告之前,務必確保測試本身沒有將系統(tǒng)置于一個太小而無法思考的框框之中。