偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

連烤面包機都能跑的“大模型”!DeepMind 推出超輕量 Gemma 3 270M(≈0.27B)

人工智能
Gemma 生態(tài)下載量已突破 2 億,覆蓋云端、桌面、手機三大形態(tài)。谷歌希望借 Gemma 3 270M 把“高效、隱私、可商用”的端側 AI 路線推得更遠。?

谷歌 DeepMind 發(fā)布了全新的 Gemma 3 270M。

它只有 2.7 億參數(shù),比七百億參數(shù)級別的大模型輕了約 250 倍,卻依舊保持強悍。

DeepMind 并不想拿它硬剛 GPT-4o 或 Gemini Ultra,它生來就為極致高效、本地部署而生。

圖片圖片

在內部測試中,Gemma 3 270M 已能在 Pixel 9 Pro 的 SoC 上本地運行,整個推理過程無需依賴外部云端。

它甚至能跑進 Chrome 瀏覽器、樹莓派,工程師 Omar Sanseviero 笑稱:“連你的烤面包機都能跑。”

谷歌強調:這款小模型的出發(fā)點,就是應對功耗限制、延遲上漲和推理成本飆升的現(xiàn)實挑戰(zhàn)。

Gemma 3 270M 由 1.7 億嵌入?yún)?shù) + 1 億 Transformer 塊參數(shù)組成。

它的詞表高達 25.6 萬,是同級別模型里罕見的“巨詞庫”,能吞下冷僻詞、專業(yè)術語和小語種符號。

在 IFEval 指令遵循基準里,指令調優(yōu)版 Gemma 3 270M 拿到 51.2%:勝過 SmolLM2 135M Instruct(44.8%),壓過 Qwen 2.5 0.5B Instruct(49.1%),逼近部分十億級中型模型。

Liquid AI 則在社交平臺提醒:自家 LFM2-350M 得分 65.12%,參數(shù)只多約 30%。

在 Pixel 9 Pro 上跑 INT4 量化版本,連續(xù) 25 輪多輪對話耗電僅 0.75%。

谷歌還放出了量化感知訓練(QAT)檢查點,把權重量化到 INT4 的同時保持性能,顯著降低顯存與內存占用,適合資源受限的邊緣設備。

谷歌提出“用對工具”的理念:特定任務用小模型往往更快、更省。

在情感分析、實體提取、合規(guī)檢查、結構化文本生成、查詢路由等場景中,官方示例顯示 Gemma 3 270M 的端側推理延遲可低至 50 毫秒量級,而云端大模型動輒數(shù)百毫秒乃至數(shù)秒。

Gemma 3 270M 可以在同一設備上同時部署多個專用微模型,各司其職、互不搶算力。

圖片圖片

網(wǎng)址:https://huggingface.co/spaces/webml-community/bedtime-story-generator

此外,谷歌演示了一個完全離線的“睡前故事生成器”用戶在瀏覽器里點選主角、場景和轉折,模型兩秒內生成完整短篇;全過程無云調用,速度與隱私兼得。

同時,Gemma 3 270M 沿用 Gemma 自定義許可。

只要傳遞谷歌的禁止使用政策、向下游提供同樣條款并標明修改,就能自由使用、改動、分發(fā)模型和衍生版。

企業(yè)可把它嵌進產品或云服務,也可繼續(xù)訓練,生成內容版權歸使用者,谷歌不主張額外權利。

唯一紅線:不得違法、不得作惡。這不是嚴格的開源許可證,卻足以支撐廣泛商業(yè)化,而且無須另付授權費。

目前,Gemma 生態(tài)下載量已突破 2 億,覆蓋云端、桌面、手機三大形態(tài)。谷歌希望借 Gemma 3 270M 把“高效、隱私、可商用”的端側 AI 路線推得更遠。

責任編輯:武曉燕 來源: 大數(shù)據(jù)文摘
相關推薦

2025-08-15 12:53:15

2025-07-01 01:00:00

GenAIAI人工智能

2019-09-02 09:30:40

2020-02-03 09:00:51

物聯(lián)網(wǎng)安全物聯(lián)網(wǎng)IOT

2016-08-01 11:21:51

2025-08-18 08:57:00

2020-09-30 16:33:12

物聯(lián)網(wǎng)數(shù)據(jù)技術

2023-04-19 11:01:03

物聯(lián)網(wǎng)IOT

2020-11-24 17:25:19

模型人工智能深度學習

2023-08-03 19:10:15

機器人AI

2025-03-13 09:12:35

2025-03-13 07:30:00

谷歌Gemma 3AI 模型

2020-03-17 10:45:11

GitHub代碼開發(fā)者

2024-08-01 13:30:00

2024-06-13 09:12:48

2023-11-28 12:49:37

數(shù)據(jù)訓練

2023-08-04 17:01:30

代碼模型

2020-07-16 13:00:18

人工智能機器學習技術

2024-02-22 07:44:02

2020-07-20 09:49:56

開源技術 趨勢
點贊
收藏

51CTO技術棧公眾號