偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

谷歌開源Gemma 3 270M,性能超越Qwen 2.5同級(jí)模型

人工智能 新聞
Gemma 3 270M 是一款緊湊型、擁有 2.7 億個(gè)參數(shù)的小體量語(yǔ)言模型,專為特定任務(wù)的微調(diào)而設(shè)計(jì),具備強(qiáng)大的指令跟蹤和文本結(jié)構(gòu)化能力。

本周四,谷歌正式發(fā)布了 Gemma 3 的最新一款模型。

Gemma 3 270M 是一款緊湊型、擁有 2.7 億個(gè)參數(shù)的小體量語(yǔ)言模型,專為特定任務(wù)的微調(diào)而設(shè)計(jì),具備強(qiáng)大的指令跟蹤和文本結(jié)構(gòu)化能力。

它繼承了 Gemma 3 系列的先進(jìn)架構(gòu)和強(qiáng)大的預(yù)訓(xùn)練功能,同時(shí)為小尺寸模型帶來(lái)了強(qiáng)大的指令執(zhí)行能力。谷歌展示的 IFEval 基準(zhǔn)測(cè)試成績(jī)所示,在同級(jí)模型上,Gemma 3 270M 樹立了新的性能水平,使復(fù)雜的 AI 功能更容易應(yīng)用于設(shè)備端和研究應(yīng)用。

IFEval 旨在測(cè)試模型執(zhí)行可驗(yàn)證指令的能力。

Gemma 3 270M 的核心功能主要包括如下幾個(gè)方面:

  • 緊湊而強(qiáng)大的架構(gòu):新模型共有 2.7 億參數(shù):由于詞匯量龐大,嵌入?yún)?shù)有 1.7 億個(gè),Transformer 模塊則有 1 億個(gè)。得益于 256k 個(gè) token 的龐大詞匯量,該模型可以處理特定和罕見(jiàn)的 token,使其成為強(qiáng)大的基礎(chǔ)模型,可以在特定領(lǐng)域和語(yǔ)言中進(jìn)一步進(jìn)行微調(diào)。
  • 極致節(jié)能:Gemma 3 270M 的一個(gè)關(guān)鍵優(yōu)勢(shì)是其低功耗。在 Pixel 9 Pro 手機(jī) SoC 上進(jìn)行的內(nèi)部測(cè)試表明,INT4 量化模型在 25 次對(duì)話中僅消耗 0.75% 的電量,使其成為最節(jié)能的 Gemma 模型。
  • 指令遵循:谷歌發(fā)布了一個(gè)指令調(diào)整模型,并附帶預(yù)訓(xùn)練的檢查點(diǎn)。雖然該模型并非為復(fù)雜的對(duì)話用例而設(shè)計(jì),但它是一個(gè)強(qiáng)大的模型,可以開箱即用地遵循通用指令。
  • 可用于生產(chǎn)的量化:量化感知訓(xùn)練 (QAT) 檢查點(diǎn)可用,使人們能夠以 INT4 精度運(yùn)行模型,同時(shí)最大程度地減少性能下降,這對(duì)于在資源受限的設(shè)備上部署至關(guān)重要。

對(duì)于 1.7 億個(gè)嵌入?yún)?shù),如何在訓(xùn)練過(guò)程中保證不出現(xiàn)嵌入崩潰,谷歌并沒(méi)有對(duì)技術(shù)細(xì)節(jié)進(jìn)行太多解釋。不過(guò)在谷歌發(fā)布后,AI 社區(qū)很快開始了研究。

Sebastian Raschka 第一時(shí)間進(jìn)行了簡(jiǎn)單的解讀,他注意到了新模型的一些架構(gòu)特點(diǎn)。

谷歌表示,Gemma 3 270M 是一款高質(zhì)量的基礎(chǔ)模型,開箱即用,適用于專業(yè)化的任務(wù)。在實(shí)踐中,人們應(yīng)從緊湊而強(qiáng)大的模型入手,進(jìn)而構(gòu)建出精簡(jiǎn)、快速且運(yùn)營(yíng)成本較低的生產(chǎn)系統(tǒng)。

這種思路已在現(xiàn)實(shí)世界中取得了很好的成果。谷歌舉了 Adaptive ML 與 SK Telecom 合作的成果的例子。面對(duì)細(xì)致入微的多語(yǔ)言內(nèi)容審核挑戰(zhàn),他們選擇了專業(yè)化。Adaptive ML 沒(méi)有使用大規(guī)模通用模型,而是對(duì) Gemma 3 4B 模型進(jìn)行了微調(diào)。從結(jié)果上看,專業(yè)化的 Gemma 模型達(dá)到甚至超越了更大型專有模型在其特定任務(wù)上的表現(xiàn)。

Gemma 3 270M 旨在讓開發(fā)者更進(jìn)一步利用這種方法,為定義明確的任務(wù)釋放更高的效率。它是創(chuàng)建一系列小型專業(yè)模型的理想起點(diǎn),每個(gè)模型都是各自任務(wù)的專家。

這種專業(yè)化的力量不僅適用于企業(yè)任務(wù),還能幫助個(gè)人開發(fā)者構(gòu)建創(chuàng)意應(yīng)用程序。例如,Hugging Face 團(tuán)隊(duì)的成員使用 Gemma 3 270M 為一款使用 Transformers.js 的睡前故事生成器網(wǎng)頁(yè)應(yīng)用提供支持??芍?,該模型的體量和性能使其非常適合離線、基于網(wǎng)頁(yè)的創(chuàng)意任務(wù)。

谷歌表示,Gemma 3 270M 適用于以下場(chǎng)景:

  • 有一個(gè)高容量且定義明確的任務(wù)。該模型非常適合情緒分析、實(shí)體提取、查詢路由、非結(jié)構(gòu)化到結(jié)構(gòu)化文本處理、創(chuàng)意寫作和合規(guī)性檢查等功能。
  • 需要精打細(xì)算,時(shí)延要求高的任務(wù)。它可以大幅降低甚至消除生產(chǎn)中的推理成本,并更快地為用戶提供響應(yīng)。經(jīng)過(guò)微調(diào)的 270M 模型可以在輕量級(jí)的基礎(chǔ)架構(gòu)上運(yùn)行,也可以直接在設(shè)備上運(yùn)行。
  • 需要快速迭代和部署的工作。Gemma 3 270M 的小巧體積使其能夠快速進(jìn)行微調(diào)實(shí)驗(yàn),幫助你在數(shù)小時(shí)內(nèi)(而不是數(shù)天)找到適合您用例的完美配置。
  • 需要確保用戶隱私的任務(wù)。由于該模型可以完全在設(shè)備上運(yùn)行,你可以構(gòu)建處理敏感信息的應(yīng)用程序,而無(wú)需將數(shù)據(jù)發(fā)送到云端。
  • 你需要一批專門的任務(wù)模型。構(gòu)建并部署多個(gè)自定義模型,每個(gè)模型都經(jīng)過(guò)專業(yè)訓(xùn)練,能夠完成不同的任務(wù),而且不會(huì)超出預(yù)算。
  • 在新模型上,谷歌提供了快速入門的方案和工具。你可以在 Gemma 文檔中找到使用 Gemma 3 270M 進(jìn)行完整微調(diào)的指南:https://ai.google.dev/gemma/docs/core/huggingface_text_full_finetune
  • 谷歌同時(shí)發(fā)布了 Gemma 3 270M 的預(yù)訓(xùn)練模型和指令調(diào)優(yōu)模型:https://huggingface.co/collections/google/gemma-3-release-67c6c6f89c4f76621268bb6d
  • 你可以在 Vertex AI 上試用模型,或使用 llama.cpp、Gemma.cpp、LiteRT、Keras 和 MLX 等熱門推理工具進(jìn)行試用:https://console.cloud.google.com/vertex-ai/publishers/google/model-garden/gemma3

現(xiàn)在,你也可以在 Colab 上嘗試自行嘗試微調(diào),只需不到 5 分鐘即可完成。

過(guò)去幾個(gè)月,谷歌的 Gemma 開放模型系列經(jīng)歷了一系列發(fā)布。在 4 月到 5 月,谷歌推出了 Gemma 3 和 Gemma 3 QAT,為單云和桌面級(jí) GPU 提供了不錯(cuò)的 AI 性能。隨后在 6 月 25 日,面向移動(dòng)端的 Gemma 3n 正式發(fā)布,為手機(jī)等設(shè)備引入了強(qiáng)大的實(shí)時(shí)多模態(tài) AI 能力。

谷歌表示,截止上周,Gemma 系列的累積下載量已經(jīng)突破了兩億次。

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2025-08-25 00:00:01

2024-02-22 09:30:15

Gemma開源模型谷歌

2024-11-12 14:00:00

AI編程

2025-06-06 09:12:53

2025-09-23 16:38:05

2025-09-12 10:02:21

AI模型開源

2024-02-22 10:09:00

開源模型

2024-02-06 12:50:08

AI訓(xùn)練

2024-02-22 07:44:02

2025-07-28 02:55:00

2025-04-29 08:14:14

2025-02-24 08:10:00

2025-01-13 10:55:53

2025-03-25 09:24:05

2025-06-27 10:08:19

2024-02-28 12:34:11

AI訓(xùn)練

2024-02-22 16:19:20

2025-03-13 07:30:00

谷歌Gemma 3AI 模型

2024-07-22 07:10:00

小模型機(jī)器學(xué)習(xí)蘋果

2021-09-14 10:11:46

谷歌3D舞蹈生成模型FACT
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)