偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Mamba寫代碼真的超越Transformer!原始論文入選頂流新會議

人工智能
Mistral AI剛剛推出了其第一個基于Mamba2架構(gòu)的開源模型——Codestral Mamba(7B),專搞代碼生成。

“歐洲OpenAI”和“Transformer挑戰(zhàn)者”強強聯(lián)合了!

Mistral AI剛剛推出了其第一個基于Mamba2架構(gòu)的開源模型——Codestral Mamba(7B),專搞代碼生成。

圖片

與Transformer架構(gòu)不同,Mamba架構(gòu)可進行“線性時間推理”,理論上能夠支持無限長度輸入。

Mistral AI:這也就是為啥我們用Mamba架構(gòu)推出的代碼推理模型抗打。

圖片

Mistral AI表示已經(jīng)在最多256k token上下文中測試了Codestral Mamba。

基準測試中,Codestral Mamba總體性能超越CodeGemma-1.1 7B、CodeLlama 7B、DeepSeek v1.5 7B、CodeLlama 34B。

有網(wǎng)友表示,這一波是Mistral AI要帶飛Mamba架構(gòu)的節(jié)奏。

Mamba架構(gòu)作者之一、CMU助理教授Albert Gu表示:

具有較弱“tokenizations”的不同模態(tài)或數(shù)據(jù)格式(例如代碼、byte級建模)會越來越多地從壓縮模型(如SSM)中受益。

圖片

除了Codestral Mamba,Mistral AI這次還同時發(fā)布了一個新的數(shù)學模型——Mathstral(7B)。

有意思的是,網(wǎng)友讓它做這幾天大模型頻頻翻車的“9.11和9.9哪個大”的問題,Mathstral先比較整數(shù),然后再比較小數(shù)部分,最后成功做對。

圖片

圖片

7B性能接近22BTransformer

Codestral Mamba完整基準測試結(jié)果如下:

圖片

在HumanEval C++/Java/JavaScript/Bash等所有基準上,Codestral Mamba全面超越CodeGemma-1.1 7B、CodeLlama 7B,且超越比它更大的CodeLlama 34B。

Mistral AI此前自家的最強開源編程模型Codestral 22B也沒有和Codestral Mamba拉開太大差距。

除此外,DeepSeek v1.5 7B在基準中也比較突出,和Codestral Mamba打得有來有回。

DeepSeek v1.5 7B在Spider(復雜跨域語義分析和文本到SQL任務)、HumanEval Java、HumanEval Bash、MBPP等方面優(yōu)于Codestral Mamba。

除了基準測試結(jié)果,Codestral Mamba最令人關(guān)注的當屬它是首批Mamba2架構(gòu)模型。

Mamba架構(gòu)由FlashAttention作者Tri Dao和CMU助理教授、Cartesia AI聯(lián)合創(chuàng)始人及首席科學家Albert Gu在去年年底提出。

圖片

此前,ChatGPT等Transformer架構(gòu)大模型有一大痛點:處理長文本算力消耗巨大。其背后也是因為Transformer架構(gòu)中注意力機制的二次復雜度。

而Mamba是第一個真正實現(xiàn)匹配Transformer性能的線性時間序列模型,也是一種狀態(tài)空間模型(SSM,State Space Model)。

Mamba建立在更現(xiàn)代的適用于深度學習的結(jié)構(gòu)化SSM(S4, Structured SSM)基礎(chǔ)上,與經(jīng)典架構(gòu)RNN有相似之處。

主要有三點創(chuàng)新:對輸入信息有選擇性處理、硬件感知的算法、更簡單的架構(gòu)。

Mamba架構(gòu)一問世就引起了圈內(nèi)廣泛關(guān)注。Stability AI創(chuàng)始人、英偉達科學家Jim Fan等都對它的出現(xiàn)感到興奮。

圖片
圖片

Mamba初代論文年初被ICLR拒稿,當時在圈內(nèi)引起熱議。

不過,最近已經(jīng)被新生代頂流會議CoLM2024接收了。

圖片

Mamba2是其二代,狀態(tài)空間擴大8倍,訓練速度提高50%。

Mamba2論文中更是發(fā)現(xiàn),Transformer中的注意力機制與SSM存在著非常緊密的數(shù)學聯(lián)系,論文成功入選ICML 2024。

圖片

還發(fā)布了一個數(shù)學模型

除了Codestral Mamba,Mistral AI還同時推出了一個開源數(shù)學模型——Mathstral(7B),作為對阿基米德誕生2311周年的紀念。

Mathstral在Mistral 7B基礎(chǔ)之上,專注于STEM(科學、技術(shù)、工程、數(shù)學),上下文窗口32k。

在基準測試中,Mathstral MATH得分56.6%,MMLU達到了63.47%。

重點是,Mathstral還可以通過更多的推理時間計算獲得更好的結(jié)果:

使用多數(shù)投票機制時,Mathstral 7B在MATH測試中的得分為68.37%,而在64個候選模型中應用一個強效獎勵模型時,得分能夠提升到74.59%。

圖片

以下是Mathstral 7B和Mistral 7B在MMLU各科目中的表現(xiàn)差異:

圖片

參考鏈接:
[1]https://mistral.ai/news/codestral-mamba/。

[2]https://mistral.ai/news/mathstral/。
[3]https://x.com/MistralAI/status/1813222156265791531。
[4]https://x.com/GuillaumeLample/status/1813231491154899012。
[5]https://x.com/theo_gervet/status/1813226968600469824。
[6]https://x.com/tuturetom/status/1813238885453033540。
[7]https://x.com/WenhuChen/status/1812562112524226569。

責任編輯:姜華 來源: 量子位
相關(guān)推薦

2024-09-03 09:46:51

2021-09-02 10:15:50

計算平臺MaxCompute 阿里云

2024-09-13 09:14:32

2025-03-10 08:47:00

模型AI訓練

2022-07-12 10:37:08

阿里巴巴達摩院機器學習

2020-06-19 10:33:16

阿里AIICML

2024-05-13 10:38:08

2021-08-17 14:47:31

架構(gòu)模型數(shù)據(jù)

2024-07-18 21:21:29

2021-10-13 17:53:14

AI 數(shù)據(jù)人工智能

2023-12-25 15:11:16

AI模型

2021-11-23 09:30:34

架構(gòu)AI技術(shù)

2024-10-08 14:48:24

2024-08-13 12:49:29

2025-07-01 13:52:19

點贊
收藏

51CTO技術(shù)棧公眾號