偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

最低僅需2G顯存,谷歌開源端側模型刷新競技場紀錄,原生支持圖像視頻

人工智能
今天凌晨,谷歌正式官宣了Gemma 3n,原生支持文本、圖像和音視頻等多種模態(tài)。在大模型競技場中,Gemma 3n取得了1303分,成為了第一個超過1300分的10B以下模型。

谷歌開源模型,又上新了。

今天凌晨,谷歌正式官宣了Gemma 3n,原生支持文本、圖像和音視頻等多種模態(tài)。

在大模型競技場中,Gemma 3n取得了1303分,成為了第一個超過1300分的10B以下模型

圖片圖片

Gemma 3n一共有5B(E2B)和8B(E4B)兩種型號,但通過架構創(chuàng)新,其VRAM占用與2B和4B相當,最低只要2GB。

圖片圖片

有網(wǎng)友表示,Gemma 3n能夠用低內(nèi)存占用實現(xiàn)這樣的表現(xiàn),對端側設備意義重大。

圖片圖片

目前,Gemma 3n已在谷歌AI Studio或Ollama、llama.cpp等第三方工具中可用,模型權重也可在Hugging Face上下載。

同時谷歌也公開了Gemma 3n的一些技術細節(jié),接下來就一起來了解。

套娃式Transformer架構

在Gemma 3n的兩種型號——E2B和E4B中,谷歌提出了“有效參數(shù)”的概念,這里的“E”指的就是effective(有效的)。

Gemma 3n的核心是MatFormer (Matryoshka Transformer) 架構 ,這是一種專為彈性推理而構建的嵌套式Transformer結構。

它的結構就如同它的名字一樣,像俄羅斯套娃(Matryoshka)——一個較大的模型當中,包含了自身更小、功能齊全的版本。

MatFormer將“俄羅斯套娃表征學習”的概念從單純的嵌入擴展到所有Transformer組件。

圖片圖片

在這種結構下,MatFormer在訓練E4B模型時,可以同時優(yōu)化E2B子模型。

為了根據(jù)特定硬件限制進行更精細的控制,谷歌還提出了Mix-n-Match方法,通過調(diào)整每層的前饋網(wǎng)絡隱藏層維度(從 8192 到 16384)并選擇性地跳過某些層,可以實現(xiàn)對E4B模型參數(shù)的切片,從而在E2B和E4B之間創(chuàng)建一系列自定義尺寸的模型。

針對這一功能,谷歌還會發(fā)布工具MatFormer Lab,用于檢索最佳的模型配置。

專為端側設備設計

Gemma 3n的E2B和E4B兩個型號的原始參數(shù)量,分別是5B和8B,但消耗與2B和4B相當。這種低內(nèi)存消耗設計,目的就是能夠更好地適配端側設備。

為此,Gemma 3n模型采用了逐層嵌入(PLE)技術,可顯著提高模型質(zhì)量,而不會增加內(nèi)存占用。

PLE允許很大一部分參數(shù)(與每層相關的嵌入)在CPU上加載并高效計算,這樣就只有核心Transformer權重需要存儲在加速器內(nèi)存(VRAM)中。

圖片圖片

此外,為了縮短首個Token生成時間,以便更好處理長序列輸入,Gemma 3n引入了KV緩存共享。

具體來說,Gemma 3n優(yōu)化了模型預填充的處理方式,將來自局部和全局注意力機制的中間層的Key和Value直接與所有頂層共享,與Gemma 3-4B相比,預填充性能提升了2倍。

原生支持多模態(tài)

Gemma 3n原生支持圖像、音視頻等多種輸入模態(tài)。

語音部分,Gemma 3n采用基于USM的高級音頻編碼器,USM會將每160毫秒的音頻轉化成一個Token,然后將其作為語言模型的輸入進行集成。

它支持自動語音識別(ASR)和自動語音翻譯(AST),可以直接在設備上實現(xiàn)高質(zhì)量的語音-文本轉錄,還可將口語翻譯成另一種語言的文本。

Gemma 3n的音頻編碼器在發(fā)布時已支持處理30秒的音頻片段,但底層音頻編碼器是一個流式編碼器,能夠通過額外的長音頻訓練處理任意長度的音頻。

視覺方面,Gemma 3n則采用了全新的高效視覺編碼器MobileNet-V5-300M。

它支持在端側處理256x256、512x512和768x768像素的分辨率,在Google Pixel上的處理速度達到了每秒60幀,并且在各種圖像和視頻理解任務中表現(xiàn)出色。

MobileNet-V5以MobileNet-V4為基礎,但架構顯著擴大,并采用混合深度金字塔模型,比最大的MobileNet-V4變體大10倍,同時還引入了一種新穎的多尺度融合VLM適配器。

針對MobileNet-V5背后的技術細節(jié),谷歌后續(xù)還會發(fā)布技術報告,介紹模型架構、數(shù)據(jù)擴展策略以及背后的數(shù)據(jù)蒸餾技術。

參考鏈接:
https://developers.googleblog.com/en/introducing-gemma-3n-developer-guide/
HuggingFace:
https://huggingface.co/collections/google/gemma-3n-685065323f5984ef315c93f4

責任編輯:武曉燕 來源: 量子位
相關推薦

2024-05-31 14:23:15

2012-05-31 14:20:14

2024-04-22 08:40:00

LLM模型開源

2025-03-26 08:39:03

2024-06-24 18:15:22

2013-09-12 11:17:02

2023-07-05 15:26:30

2025-04-18 10:43:23

2024-03-08 13:02:56

Claude 3GPT-4Opus

2025-02-06 12:10:00

2023-02-03 16:24:09

ChatGPT開源

2025-02-18 15:09:07

2024-06-20 14:04:17

2022-04-12 18:35:03

元宇宙

2014-10-31 15:43:02

華為智慧

2025-06-06 14:23:48

谷歌模型AI

2024-12-31 12:35:46

2025-06-27 10:08:19

2024-07-24 12:40:44

2025-02-11 10:48:08

點贊
收藏

51CTO技術棧公眾號