偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

GPT-4o 的數(shù)學又雙叕進步了?來 MathBench 看看新版 GPT-4o 到底強在哪!

發(fā)布于 2024-5-23 15:02
瀏覽
0收藏

隨著現(xiàn)代大語言模型(LLMs)如 OpenAI 的 ChatGPT 和 GPT-4 的出現(xiàn),LLMs 展示了生成類人對話和解決復雜數(shù)學難題的非凡能力。從 Meta 在 4 月 18 日發(fā)布 Llama3-8B & 70B 開始,Qwen 開源的首個百 B 大模型 Qwen-1.5-110B,到深度求索的 MoE 模型 DeepSeek-V2,還有近幾日 OpenAI 放出的大招 GPT-4o,號稱更低的價格,更強的性能,大家都號稱自己的新模型數(shù)學能力頂呱呱,但事實真是這樣嗎?

如何透明化評測大模型的各項數(shù)學能力如今成了大家的難題,因為開源數(shù)據(jù)集往往評測角度較為局限,如常用的 GSM8k 專注日常計算,MATH 只專注于高中數(shù)學競賽。

再加上,負責大模型數(shù)學部分的產(chǎn)品經(jīng)理往往對新訓練的模型有下面的小小期待:

  • ??想要全面知道從小學,初中到大學每個階段模型數(shù)學表現(xiàn)各怎么樣
  • ??中英文能力都要體現(xiàn)
  • ??要是每道題都有知識點標簽就好了
  • ??emmm,能不能再考下理論題,天天做應用題也不知道是不是模型基礎沒打好
  • ??測試出的結果要魯棒,真實反映模型能力
  • ??不想收集一大堆數(shù)據(jù)集,最好上面的內(nèi)容能一次測試完(-v-)
  • .....

這要求都能滿足嗎?還真能!

在最新的 ACL2024 中,由上海人工智能實驗室聯(lián)合香港中文大學,北京航空航天大學和南京大學提出的 MathBench 打破了大模型數(shù)學評測不透明的現(xiàn)狀,且已經(jīng)被 ACL2024 Findings 接收

GPT-4o 的數(shù)學又雙叕進步了?來 MathBench 看看新版 GPT-4o 到底強在哪!-AI.x社區(qū)

MathBench 結構及特點

正如本文開頭所描述的,傳統(tǒng)評估 LLMs 數(shù)學能力的基準存在一些局限性,如單一視角的解決問題能力評估和缺乏全面的學段分級。MathBench 彌補了這些不足,提供了嚴格的數(shù)學能力評估新基準。

GPT-4o 的數(shù)學又雙叕進步了?來 MathBench 看看新版 GPT-4o 到底強在哪!-AI.x社區(qū)

MathBench 整體結構示意

相比傳統(tǒng)的數(shù)學評測集,MathBench 有以下特點:

  1. 多維度的知識框架:MathBench 配有一個多層次知識體系,具有從基礎計算,小學到大學的 5 階段的豐富題目,每階段都配有相應的3層細粒度知識點,一次評測即能從廣度和深度兩個維度上掌握模型能力,不留遺憾。
  2. 理論與應用兼顧:“基礎不牢,地動山搖”。MathBench 分為MathBench-A(應用能力)MathBench-T(理論能力)兩個子集,不僅包含實際應用問題,還包含相關領域專家精心收集的基礎數(shù)學概念和推論題。
  3. 雙語支持:對于上述的所有知識層次,以及理論應用題,MathBench 都提供中英文題目,且中英題目根據(jù)語境學習現(xiàn)狀獨立收集,拒絕機翻,以保證評測結果的合理性。
  4. 魯棒評測:針對數(shù)學評測難以抽取答案的現(xiàn)狀,MathBench 中的大部分題目為經(jīng)過專家標注的選擇題,保證了選項合理且有一定的干擾度,并且采用循環(huán)評測(CircularEval)作為基礎評測方式,模型需要多次答對打亂選項順序的同一題目才認為該題目被模型所掌握。
  5. 來源可靠:MathBench 中約 80% 題目為新收集的題目,來源大部分為專業(yè)考試,如高考、中考等,且經(jīng)過專門校驗。

GPT-4o 的數(shù)學又雙叕進步了?來 MathBench 看看新版 GPT-4o 到底強在哪!-AI.x社區(qū)

MathBench的5階段3層知識點結構

(小學與基礎運算因有相同知識點體系而合并)

各大模型在 MathBench 上的表現(xiàn)

下面就讓我們看一下在 MathBench 作為數(shù)學能力照妖鏡下各模型的表現(xiàn)吧:

總體結果,GPT-4o 優(yōu)勢明顯,國產(chǎn)模型緊隨其后

GPT-4o 的數(shù)學又雙叕進步了?來 MathBench 看看新版 GPT-4o 到底強在哪!-AI.x社區(qū)

MathBench理論與應用分級測評結果

(A代表應用題結果,T代表理論題目)

在應用題上:

  • GPT-4o領先較大,在高學段尤為明顯
    部分國產(chǎn)模型,如 Qwen-Max-0428 和 DeepSeek-V2-API 都已經(jīng)有著超越 GPT4-0125-Preview 的表現(xiàn),但離最新版的 GPT-4o 仍有不小差距。通過 MathBench 的多階段細分結果可以發(fā)現(xiàn),差距在較高學段,如高中和大學的題目上尤為明顯。如 GPT-4o 在大學階段的應用題目上雖然只有 54.0的CircularEval 分數(shù),但相對 Qwen-Max-0428 已經(jīng)有著接近翻倍的表現(xiàn)。
  • 部分開源模型實力強勁
    如 Llama3-70B-Instruct 和 Qwen1.5-110B-Chat 有著超過 GPT3.5-Turbo-0125,接近 GPT4-0125-Preview 的表現(xiàn)。DeepSeek-Math-7B-RL 作為 7B 量級的開源數(shù)學模型表現(xiàn)亮眼,在應用題目上甚至超過了 Qwen-72B-Chat。

在理論題上:

  • GPT-4o 各學段全面領先,展現(xiàn)扎實的基本數(shù)學功
    作為基本數(shù)學理論能力的展現(xiàn),MathBench-T 中不僅考察模型基本數(shù)學知識,還加入常用的推論,以及精心設計的干擾項來迷惑模型,所以模型難以通過簡單背誦來得到高分。GPT-4o 在此階段全面領先各 API 模型,拿下應用理論雙第一名??,證明了其不僅基礎扎實,且會熟練運用。
  • 理解理論并不代表能夠熟練應用
    如 Qwen-1.5-110B-Chat 雖與 GPT-4o 在理論階段有著相似的分數(shù),但在應用階段兩者差距較大,可能因為在較高階段的數(shù)學知識上,運用要比理論需要更多的技巧,比如在高中和大學階段,兩者的應用分數(shù)差距越來越大,而理論上卻沒有相似的明顯差距。

模型整體分數(shù)趨勢

下面是應用階段的多個模型平均分數(shù)的整體趨勢。

可以發(fā)現(xiàn),在基礎運算(Arithmetic)階段和小學數(shù)學(Primary)階段有著類似的難度,而從初中起,隨著學段的增加,模型的平均表現(xiàn)下降明顯:

GPT-4o 的數(shù)學又雙叕進步了?來 MathBench 看看新版 GPT-4o 到底強在哪!-AI.x社區(qū)

MathBench 應用題在各學段上的平均模型結果,呈現(xiàn)自然梯度趨勢

中英文雙語言結果對比

下面是眾多大語言模型在 MathBench 上的中英雙語言結果對比,按語言平均分從從小到大排序。

其中某些模型有著較為明顯的語言 Gap,如 MammoTH-13B,MetaMath-Llemma-7B 以及 Llama-3-70B-Instruct 等模型明顯偏向于英文,而 GPT-4o 和 GPT-4-0125-Preview 在中英數(shù)學上有著相近的表現(xiàn)。

GPT-4o 的數(shù)學又雙叕進步了?來 MathBench 看看新版 GPT-4o 到底強在哪!-AI.x社區(qū)

值得注意的是,為了 MathBench 的中英成績能代表該語言環(huán)境下的真實成績,在收集過程中并沒有將題目相互翻譯,所以在對比中僅供參考,因為題目不是中英文一一對應的關系。

已于2024-5-23 15:17:19修改
收藏
回復
舉報
回復
相關推薦