開(kāi)源版OpenAI再出「神作」,小模型吊打Llama 3!Ministral系列問(wèn)世,邊緣AI革命開(kāi)啟
Mistral 7B僅僅發(fā)布一周年,法國(guó)AI初創(chuàng)小模型「les Ministraux」就打敗它了。
它堪稱是,世界上最好的邊緣模型。

Ministral 3B和Ministral 8B這兩款輕量級(jí)模型,專為邊緣設(shè)備打造。
截至目前,它們正式加入Mixtral、Pixtral、Codestral、Mathstral行列,成為Mistral一員。

別看僅有30億參數(shù),在指令跟隨基準(zhǔn)上,完全超越了Llama 3 8B,以及前輩模型Mistral 7B。
而且Ministral 3B和Ministral 8B在大模型競(jìng)技場(chǎng)中的測(cè)試,均拿下了媲美Gemma 2、Llama 3.1開(kāi)源模型的成績(jī)。

世界上最好的邊緣模型
Ministral 3B和Ministral 8B都支持高達(dá)128k上下文(目前在vLLM上為32k)。
在知識(shí)、常識(shí)、推理、函數(shù)調(diào)用、效率等方面,為低于10B參數(shù)模型設(shè)立了新標(biāo)桿。
而且,Ministral 8B還有配備了滑動(dòng)窗口注意機(jī)制(sliding-window attention),以實(shí)現(xiàn)更快和內(nèi)存高效的推理。
不論是管理復(fù)雜的AI智能體工作流,還是創(chuàng)建專門的任務(wù)助手,它們均可以被微調(diào)到各種用例中。

趕超開(kāi)源模型,擊敗Mistral 7B
研究人員在多項(xiàng)基準(zhǔn)測(cè)試中,評(píng)估了Les Minimrau的性能。
其中包括知識(shí)與常識(shí)、代碼、數(shù)學(xué)、多語(yǔ)言四大方面。
預(yù)訓(xùn)練模型
如下圖所示,與Gema 2 2B、Llama 3.2 3B相比較,Minstral 3B在以上基準(zhǔn)上,取得了最優(yōu)成績(jī)。
在與Llama 3.1 8B、Mistral 7B相比較過(guò)程中,僅有代碼能力,Minstral 8B還有些差距,其余放方面均是性能最高的模型。

如下是,更加直觀可視化柱狀圖,Minstral 8B在各項(xiàng)評(píng)測(cè)中,占據(jù)首位。

指令模型
再來(lái)看微調(diào)后的指令模型,性能比較的結(jié)果。
在大模型競(jìng)技場(chǎng)中,Minstral 3B在不同基準(zhǔn)上,實(shí)現(xiàn)了最優(yōu)。Minstral 8B僅在Wild bench上,略遜于Gema 2 9B。
另外,在代碼、數(shù)學(xué)、函數(shù)調(diào)用方面,兩款新模型性能大幅超越其余模型。

下圖,可以直觀看出指令微調(diào)后的Minstral 3B比更大的Mistral 7B的改進(jìn)。

如下是指令微調(diào)后的Minstral 8B模型,與其他模型的性能對(duì)比直觀圖。

邊緣計(jì)算皆可用,0.1美金百萬(wàn)token
如今,大模型在實(shí)際落地中,不如小模型來(lái)的更切實(shí)際。
越來(lái)越多的用戶,希望對(duì)關(guān)鍵應(yīng)用程序能夠進(jìn)行本地優(yōu)先推理,比如設(shè)備上翻譯、不用聯(lián)網(wǎng)智能助理,自動(dòng)機(jī)器人等等。
正如官博所述,Les Minimraux正為這些場(chǎng)景,提供了高計(jì)算效率、低延遲的解決方案。
當(dāng)與Mistral Large等更大的模型結(jié)合使用時(shí),les Ministraux還可以作為多步智能體工作流中,進(jìn)行函數(shù)調(diào)用的高效中介。
通過(guò)微調(diào),它們能以極低的延遲和成本基于用戶意圖,跨多個(gè)上下文處理輸入解析、任務(wù)路由和調(diào)用API。
價(jià)格
根據(jù)官方公布的價(jià)格所示,Minstral 8B輸入輸出價(jià)格為百萬(wàn)token,0.1美元。Minstral 3B則為百萬(wàn)token0.04美元。

開(kāi)源版OpenAI,不再Open
自去年成立以來(lái),Mistral曾以磁力鏈方式開(kāi)源了多款媲美OpenAI的模型,一路走紅得到AI社區(qū)的認(rèn)可。
這家總部位于巴黎的Mistral,由Meta、谷歌DeepMind前員工創(chuàng)立。

幾個(gè)月前,它以60億美金估值,完成6.4億美元新一輪融資,并隨之推出了一款GPT-4級(jí)別的模型——Mistral Large 2。
此外,他們?cè)诮衲?,還推出了一個(gè)專家混合模型Mixtral 8x22B。
它包含了一個(gè)編碼模型Codestral,以及一個(gè)數(shù)學(xué)推理和科學(xué)發(fā)現(xiàn)的模型。

不過(guò),今年這家明星公司陷入了巨大爭(zhēng)議,因?yàn)樗兊貌辉倌敲磑pen。

年初,有消息爆料稱,微軟宣布將收購(gòu)Mistral一些股份,并對(duì)其投資,意味著它的模型將在Azure AI進(jìn)行托管。
甚至,還有Reddit網(wǎng)友發(fā)現(xiàn),Mistral已從官網(wǎng)中,移除了致力于開(kāi)源的承諾。

在一些模型的調(diào)用上,Mistral也開(kāi)啟了收費(fèi)模式,包括這次同樣如此。
有網(wǎng)友就此吐槽,不是開(kāi)源的。

要知道,對(duì)于一家初創(chuàng)公司來(lái)說(shuō),一直堅(jiān)持開(kāi)源代碼是一個(gè)巨大的挑戰(zhàn)。
就比如反面教材Stability AI,完全放棄了開(kāi)源的商業(yè)模式,也轉(zhuǎn)向了收費(fèi)策略。
對(duì)于Mistral也是如此,若要持續(xù)打造優(yōu)秀的模型,只有這一種選擇。















 
 
 















 
 
 
 