偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

谷歌版“DeepSeek”發(fā)布!27B模型單個(gè)GPU即可運(yùn)行,擊敗滿血DeepSeek V3/o3-mini

人工智能
在ChatBot Arena Imarena大模型競(jìng)技場(chǎng)中,Gemma 3也躋身Top 10,不僅在同等參數(shù)量模型中達(dá)到SOTA,開源模型里也僅次于R1。

單GPU就能跑的最強(qiáng)模型來了!

谷歌最新模型Gemma 3,主打開源與高效。

27B輕松擊敗671B滿血的DeepSeek V3、o3-mini、Llama-405B,僅次于R1。

圖片圖片

而從所需算力來看,其他模型要實(shí)現(xiàn)差不多的性能,所需算力資源至少增加10倍,有的情況下甚至高達(dá)32倍。

在ChatBot Arena Imarena大模型競(jìng)技場(chǎng)中,Gemma 3也躋身Top 10,不僅在同等參數(shù)量模型中達(dá)到SOTA,開源模型里也僅次于R1。

圖片圖片

網(wǎng)友們紛紛表示驚呆,尤其對(duì)單GPU就能跑、128K上下文印象深刻。

圖片圖片

圖片圖片

不過除了這劇情是不是有點(diǎn)似曾相識(shí),有人注意到為啥沒有跟QwQ 32B比較。

圖片圖片

圖片圖片

目前,Gemma 3可以直接在Google AI Studio上體驗(yàn),在包括抱抱臉、Ollama或者Kaggle等平臺(tái)下載。

圖片圖片

可在單個(gè)GPU運(yùn)行的最強(qiáng)模型

此次Gemma 3有四個(gè)版本,27B是最大,還有1B、4B、12B。既有預(yù)訓(xùn)練模型,也有通用指令微調(diào)版本。

圖片圖片

展開來看,主要有這些特點(diǎn):

  • 單GPU/TPU運(yùn)行:Gemma 3在單GPU/TPU運(yùn)行情況下,在LMArena排行榜的初步人類偏好評(píng)估中勝過Llama-405B、DeepSeek-V3和o3-mini。

如此高效的模型性能不在端側(cè)應(yīng)用部署可惜了。谷歌也專門給了教程和案例,手把手教的那種。

比如1B模型量化版在手機(jī)端運(yùn)行。

 在三星Galaxy S24 Ultra上運(yùn)行的性能如下:

圖片圖片

還有在電腦Web端本地創(chuàng)建社媒內(nèi)容。

MacBook Pro 2023(Apple M3 Pro 芯片)性能如下:

圖片圖片

  • 多模態(tài)和多語言,可以分析圖片、文本、短視頻等模態(tài)。

圖片圖片

語言語種方面,提供對(duì)超過35種語言的開箱即用支持;以及對(duì)超過140種語言的預(yù)訓(xùn)練支持。

  • 多工具支持靈活開發(fā),支持Hugging Face Transformers、Ollama、JAX、Keras、PyTorch、Google AI Edge、UnSloth、vLLM 和Gemma.cpp的等平臺(tái)。
  • 128k Token上下文窗口。

另外還支持函數(shù)調(diào)用、結(jié)構(gòu)化輸出,以幫助您自動(dòng)執(zhí)行任務(wù)并構(gòu)建Agent,官方還引入了量化版本。

他們還推出了ShieldGemma 2:一款基于Gemma 3構(gòu)建的4B圖像安全檢查器。開發(fā)人員可以定制 ShieldGemma 2來滿足他們的安全需求。

更多技術(shù)細(xì)節(jié)

與模型一同發(fā)布的,還有一份25頁的技術(shù)報(bào)告,里面有不少細(xì)節(jié)。

圖片圖片

如何訓(xùn)練的?

此次結(jié)合蒸餾、強(qiáng)化學(xué)習(xí)和模型合并等方法,對(duì)Gemma的前訓(xùn)練和后期訓(xùn)練過程進(jìn)行了優(yōu)化。

Gemma 3使用了與Gemma 2一樣的Tokenizer,支持140多種語言,并使用JAX框架在Google TPU上對(duì)1B的2T tokens、4B的4T tokens、12B的12T tokens和27B的14T tokens進(jìn)行了訓(xùn)練。

在后訓(xùn)練方面,Gemma 3使用了4個(gè)組件:

  • 從較大的指令模型中提煉出Gemma 3預(yù)訓(xùn)練檢查點(diǎn)。
  • RLHF,使模型預(yù)測(cè)與人類偏好保持一致。
  • 從機(jī)器反饋中強(qiáng)化學(xué)習(xí)RLMF,以增強(qiáng)數(shù)學(xué)推理能力。
  • 執(zhí)行反饋強(qiáng)化學(xué)習(xí)(RLEF),以提高編碼能力。

圖片圖片

這種方法提高了數(shù)學(xué)、編碼和指令跟蹤方面的性能,使其在LMArena分?jǐn)?shù)達(dá)到了1338分。

圖片圖片

圖片圖片

與之前的版本相比情況:

圖片圖片

正文最后一頁還放了主要作者們,共同一作共有16位。

圖片圖片

OMT:英偉達(dá)直接參與優(yōu)化

除此之外,在技術(shù)報(bào)告里還看到了這些亮點(diǎn)。

首先,英偉達(dá)直接參與了Gemma 3模型的優(yōu)化,以確保其在任何規(guī)格的GPU上都能獲得最佳性能,包括Jetson Nano 到最新的Blackwell芯片。

而在英偉達(dá)API目錄中也出現(xiàn)了Gemma 3,只需調(diào)用API即可快速進(jìn)行原型設(shè)計(jì)。

針對(duì)谷歌自家的TPU,Gemma 3也進(jìn)行了優(yōu)化,并通過開源ROCm堆棧與AMD GPU集成。還有CPU的解決方案。

Gemma 3還附帶了改進(jìn)的代碼庫,其中包括高效微調(diào)和推理的配方。開發(fā)者可以根據(jù)特定需求來定制和調(diào)整模型。

在其他模型火熱的當(dāng)下,Gemma系列已經(jīng)來到了一周年,下載量已經(jīng)默默超過1億次,在社區(qū)中又超過60000個(gè)變體誕生。

如今在開源模型這塊的競(jìng)爭(zhēng),又激烈了不少。

最后,感興趣的朋友可直接戳下方鏈接哦~
https://aistudio.google.com/prompts/new_chat

參考鏈接:
[1]https://blog.google/technology/developers/gemma-3/
[2]https://x.com/sundarpichai/status/1899779090472644881?s=46
[3]https://developers.googleblog.com/en/introducing-gemma3/

責(zé)任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2025-03-13 09:12:35

2024-12-24 16:15:04

2025-03-03 07:30:00

谷歌模型AI

2024-12-30 20:32:36

2025-02-10 00:00:01

2025-02-03 14:06:32

2025-01-20 19:52:50

2024-12-30 09:25:00

數(shù)據(jù)訓(xùn)練摩擦

2025-03-26 09:12:59

DeepSeek VChat2BISQL

2025-02-18 09:00:00

2025-02-17 08:12:00

AI模型生成

2025-03-31 08:00:00

AI模型測(cè)評(píng)

2025-02-08 17:00:11

2025-02-14 10:47:40

2025-02-03 12:38:28

2025-02-27 09:17:41

DeepSeekPythonAI

2025-02-08 11:44:03

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)