偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

谷歌開源Gemma,為端側(cè)AI澆了桶油

人工智能
這次谷歌發(fā)布的Gemma包含兩個(gè)“小”模型,Gemma 2B和Gemma 7B,由于參數(shù)規(guī)模分別為20億和70億,參數(shù)規(guī)模并不大,谷歌將這兩個(gè)模型歸為輕量級(jí)開放模型系列。

2月21日,谷歌正式對(duì)外發(fā)布開源大模型Gemma。

這距離谷歌上一次大模型Gemini 1.5的發(fā)布,還不到一周的時(shí)間,事關(guān)大模型的競(jìng)爭(zhēng)愈演愈烈。

2月15日,OpenAI發(fā)布Sora,Sora文生視頻的能力,再度震驚整個(gè)行業(yè)。

彼時(shí),就連此前在文生視頻領(lǐng)域攪弄風(fēng)云的Runway、Pika等公司的創(chuàng)始人,也都不得不甘拜下風(fēng)。

Sora在全球形成的“病毒式”傳播,再次證明了OpenAI奧特曼的天才營(yíng)銷能力,也讓僅僅早于Sora兩小時(shí)發(fā)布的Gemini 1.5沒能在最佳傳播時(shí)間里獲得本應(yīng)屬于它的全球關(guān)注度。

無論二者同期發(fā)布是奧特曼有意為之,還是一場(chǎng)意外,在巨頭之間的大模型競(jìng)爭(zhēng)已經(jīng)到了白熱化的現(xiàn)在,谷歌都需要再亮出一張底牌,重新贏得市場(chǎng)的關(guān)注。

顯然,昨天發(fā)布的Gemma就是谷歌的又一張底牌,不過,這次谷歌瞄準(zhǔn)的是開源大模型。

這次谷歌發(fā)布的Gemma包含兩個(gè)“小”模型,Gemma 2B和Gemma 7B,由于參數(shù)規(guī)模分別為20億和70億,參數(shù)規(guī)模并不大,谷歌將這兩個(gè)模型歸為輕量級(jí)開放模型系列。

值得注意的是,Gemma采用了和谷歌此前發(fā)布的主力大模型Gemini相同的技術(shù)架構(gòu),同時(shí)這也是一個(gè)可以直接下放到筆記本和臺(tái)式機(jī)上運(yùn)行的端側(cè)大模型。

在此之前,谷歌在2023年12月首次對(duì)外發(fā)布Gemini大模型時(shí),谷歌CEO Sundar Pichai就一口氣對(duì)外公布了Ultra、Pro、Nano三個(gè)版本,并稱,“這些是進(jìn)入Gemini時(shí)代第一個(gè)模型,也是Google DeepMind成立時(shí)的愿景?!?/p>

這其中,Gemini Nano參數(shù)規(guī)模為1.8B和3.25B,正是被谷歌用作端側(cè)大模型。

實(shí)際上,在2023年更早些時(shí)候谷歌發(fā)布的Pixel 8 Pro,已經(jīng)因顯著的AI特性被視為劃時(shí)代的智能手機(jī),站穩(wěn)AI手機(jī)潮頭后的谷歌,又在今年將Gemini Nano放到了三星Galaxy S24中,幫助三星進(jìn)入到了“Galaxy AI時(shí)代”。

至頂網(wǎng)認(rèn)為,在手機(jī)廠商、PC廠商聯(lián)合芯片廠商一同全力推進(jìn)端側(cè)AI的這一年,谷歌此次發(fā)布的2B、7B開源大模型Gemma,更重要的功效預(yù)計(jì)將會(huì)在端側(cè)AI領(lǐng)域體現(xiàn)出來。

從開源方面來看,谷歌Gemma并不是第一個(gè)開源大模型。

早在2023年7月,Meta就對(duì)外發(fā)布了免費(fèi)可商用的大模型Llama 2,而這一動(dòng)作其實(shí)是Meta和微軟合作的杰作,擁有7B、13B、70B三個(gè)參數(shù)級(jí)版本的Llama 2,當(dāng)時(shí)被視為是OpenAI的ChatGPT的平替產(chǎn)品。

就在Meta開源Llama 2時(shí),Yann LeCun不無感慨地公開表示,Llama 2的開源可商用將極大地改變大模型的市場(chǎng)格局。

而從國(guó)內(nèi)來看,阿里是另一個(gè)開源大模型的推動(dòng)者。

2023年8月,阿里云對(duì)外開源了通義千問7B大模型,成為國(guó)內(nèi)最早推動(dòng)大模型開源的企業(yè),隨后,阿里云又先后對(duì)外開源了14B、72B、1.8B參數(shù)規(guī)模的大模型,參數(shù)規(guī)模最大的72B版本,甚至超過了Llama 2。

之所以科技巨頭愿意開源大模型,是為了借助開源力量,加速技術(shù)發(fā)展。

這自然也是谷歌此次開源Gemma的主要目的。

因此,就在谷歌Gemma對(duì)外開源時(shí),谷歌還公布了Gemma對(duì)一系列開發(fā)工具和系統(tǒng)的支持,以及跨設(shè)備的兼容,具體Gemma的兼容和支持情況如下:

多框架工具:Gemma提供Keras 3.0、原生PyTorch、JAX和Hugging Face Transformers多個(gè)框架的參考實(shí)現(xiàn);

跨設(shè)備兼容:Gemma模型可以在筆記本電腦、臺(tái)式機(jī)、物聯(lián)網(wǎng)、移動(dòng)設(shè)備和云端等多個(gè)主流設(shè)備類型上運(yùn)行;

硬件平臺(tái)支持:谷歌與NVIDIA合作,可以使用NVIDIA GPU來優(yōu)化Gemma模型;

基于Google Cloud的優(yōu)化:Vertex AI提供廣泛的MLOps工具集,其中包含一系列微調(diào)選項(xiàng)和內(nèi)置推理優(yōu)化的一鍵部署功能。

基于此,谷歌搶先在Meta發(fā)布Llama新版本之前,終于推出了開源大模型,谷歌官方甚至將這一模型在關(guān)鍵基準(zhǔn)測(cè)試集上的測(cè)試表現(xiàn)與Llama 2進(jìn)行了對(duì)比,并得出了Gemma 7B完勝Llama 2 7B和13B版本的結(jié)論。

不過,出門問問創(chuàng)始人李志飛就谷歌開源的Gemma指出,“時(shí)間有點(diǎn)晚”、“開源力度不夠”、“感覺這次開源還是被動(dòng)防御”。

他還提到,谷歌在AI領(lǐng)域經(jīng)常起大早趕晚集,這次的Sora借鑒的ViT、ViViT、NaVit、MAGVit等核心組件技術(shù)都是谷歌團(tuán)隊(duì)此前的論文。

當(dāng)然,無論是“攻”還是“守”,Gemma最重要的還是表明了谷歌在AI領(lǐng)域的開源態(tài)度。

接下來的2024,關(guān)乎大模型的競(jìng)爭(zhēng),也將會(huì)愈演愈烈。

責(zé)任編輯:姜華 來源: 至頂網(wǎng)
相關(guān)推薦

2013-05-09 09:27:19

谷歌計(jì)算引擎谷歌IaaS基礎(chǔ)架構(gòu)即服務(wù)

2025-08-25 00:00:01

2025-04-07 08:39:00

谷歌AI模型

2025-06-27 10:08:19

2024-02-22 09:30:15

Gemma開源模型谷歌

2023-12-01 12:31:22

AI模型

2020-03-02 11:04:19

人工智能機(jī)器學(xué)習(xí)技術(shù)

2025-08-15 12:53:15

2024-03-04 00:00:00

GemmaAI模型

2025-04-02 12:23:06

GeminiOpenAIGoogle

2024-02-22 07:44:02

2024-08-14 14:26:43

2025-09-05 00:00:00

前端開發(fā)AI

2023-10-18 13:26:00

訓(xùn)練模型

2016-12-20 13:35:52

谷歌開源項(xiàng)目

2024-02-28 18:17:05

AI模型

2020-11-11 15:04:40

谷歌開源Scorecards

2025-03-13 07:30:00

谷歌Gemma 3AI 模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)