偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

大模型數(shù)學能力翻車實錘!Apple新研究暴露真相!

發(fā)布于 2024-10-25 14:01
瀏覽
0收藏

這篇文章的結(jié)論是:LLM 無法進行真正的推理。并做出了一系列的實驗論證,大模型僅僅是記住了目標序列。

10月份有很多文章在論證這個事情。比如之前寫過一篇推文介紹大模型在規(guī)劃的能力上表現(xiàn)仍然非常糟糕(現(xiàn)實再次給 大模型 帶來沉重打擊)。后來在《 PROCBENCH: BENCHMARK FOR MULTI-STEP REASONING AND FOLLOWING PROCEDURE》中驗證了一個結(jié)論:在沒有相關(guān)領(lǐng)域經(jīng)驗或知識的情況下,LLM/LRM 似乎無法遵循基本指令,尤其是在指令長度增加時。再后來,《APeek into Token Bias: Large Language Models Are Not Yet Genuine Reasoners》中發(fā)現(xiàn)LLM對序列中不起眼得變化非常敏感。例子中對“Linda”和“Bob”之間進行切換之后,LLM就失敗了。

大模型數(shù)學能力翻車實錘!Apple新研究暴露真相!-AI.x社區(qū)

論文中,為了論證LLM是靠記憶還是能推理。他們創(chuàng)建了一個替代數(shù)據(jù)集-GSM-Symbolic,這個數(shù)據(jù)集使用了原始問題中的模板,允許他們修改序列中的特定的信息,從而在推理上生成具有微小變化的相同問題。看下圖,就是對一些關(guān)鍵信息使用占位符。

大模型數(shù)學能力翻車實錘!Apple新研究暴露真相!-AI.x社區(qū)

結(jié)果出來之后,性能均有所降低,即使是前沿的大模型也不例外。但是模型越大,越不容易出現(xiàn)此類問題。

大模型數(shù)學能力翻車實錘!Apple新研究暴露真相!-AI.x社區(qū)

接下來,不滿足于只替換一些關(guān)鍵信息,他們又嘗試了增加問題難度。這種,所有模型都是持續(xù)下降的,跟預(yù)期一致,而且方差也變高了。也就是說,這些模型的智能不僅被夸大了,而且隨著復雜性的增加,魯棒性也在降低。

大模型數(shù)學能力翻車實錘!Apple新研究暴露真相!-AI.x社區(qū)

最后一個實驗是,在原始問題中加入一些看似相關(guān)實際確無關(guān)信息。如下kiwi的例子,大小其實是不重要的。但是o1-mini 和 Llama3-8B 的輸出還是莫名的減去了那些小的獼猴桃。

大模型數(shù)學能力翻車實錘!Apple新研究暴露真相!-AI.x社區(qū)

這個無關(guān)信息的添加,導致了模型性能整體的顯著下降,最多的達到了70%,但是o1-preview性能下降最少。

大模型數(shù)學能力翻車實錘!Apple新研究暴露真相!-AI.x社區(qū)

一般較小的模型更容易對基準數(shù)據(jù)過擬合,也就是模型會記住問題的解決方案,因此如果我們增加模型的大小,那么它對數(shù)據(jù)集的過擬合就會更難。

但是隨著模型規(guī)模的擴大,LLM 可能也能記憶住更多的東西,因為他們會訓練更多的數(shù)據(jù),記住了更多的信息,從而顯得比實際聰明。

本文轉(zhuǎn)載自 ??NLP前沿??,作者:熱愛AI的

收藏
回復
舉報
回復
相關(guān)推薦