偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

編碼器-解碼器架構(gòu)的復(fù)興?谷歌一口氣發(fā)布32個T5Gemma模型

人工智能 新聞
谷歌發(fā)布了一系列用于健康 AI 開發(fā)的多模態(tài)模型 MedGemma。

今天是 xAI 的大日子,伊隆?馬斯克早早就宣布了會在今天發(fā)布 Grok 4 大模型,AI 社區(qū)的眼球也已經(jīng)向其聚攏,就等著看他的直播(等了挺久)。當(dāng)然,考慮到 Grok 這些天的「失控」表現(xiàn),自然也有不少人是在等著看笑話。

盡管如此,谷歌似乎也并不在意被奪走的目光,接連對 Gemma 系列模型進行了更新。

首先,谷歌發(fā)布了一系列用于健康 AI 開發(fā)的多模態(tài)模型 MedGemma,其中包含 4B 和 27B 兩個大小的幾個不同模型:MedGemma 4B Multimodal、MedGemma 27B Text 和 MedGemma 27B Multimodal。

該系列模型能夠根據(jù)醫(yī)療圖像和文本描述輔助診斷并提供醫(yī)療建議,整體表現(xiàn)也是相當(dāng)不錯。

圖片

Hugging Face:https://huggingface.co/collections/google/medgemma-release-680aade845f90bec6a3f60c4

而本文的重點并不是它,而是谷歌今天發(fā)布的編碼器-解碼器架構(gòu)的 Gemma 系列模型:T5Gemma。

圖片

從名字也能看出來,這個 Gemma 系列模型與 T5(The Text-to-Text Transfer Transformer)模型關(guān)系密切。而 T5 模型實際上就是編碼器-解碼器(encoder-decoder)架構(gòu)的模型,并不同于目前主流的僅解碼器(decoder-only)架構(gòu)。

當(dāng)然,雖然僅解碼器架構(gòu)是目前 LLM 的主流,但實際上,編碼器-解碼器憑借高推理效率、設(shè)計靈活性以及更豐富的編碼器表征,在某些實際任務(wù)中其實非常好用,比如摘要、翻譯、問答等。

似乎正因為此,谷歌一直沒有放棄編碼器-解碼器架構(gòu),T5Gemma 便是其最新成果。

具體來說,T5Gemma 使用了一種名為「適應(yīng)(adaptation)」的技術(shù)來將已經(jīng)完成預(yù)訓(xùn)練的僅解碼器模型轉(zhuǎn)換為編碼器 - 解碼器架構(gòu)。

T5Gemma 基于 Gemma 2 框架,包含經(jīng)過適應(yīng)的 Gemma 2 2B 和 9B 模型,以及一組全新訓(xùn)練的 T5 尺寸模型(Small、Base、Large 和 XL)。另外還包含預(yù)訓(xùn)練和指令微調(diào)模型的多種變體版本。此外,T5Gemma 還提供了多種大小的編碼器與解碼器配置。不僅如此,谷歌還發(fā)布了使用 PrefixLM 或 UL2 這兩個不同目標(biāo)訓(xùn)練的模型。

總的算下來,谷歌這一次就發(fā)布了 32 個不同的 T5Gemma 模型。

圖片

  • Hugging Face:https://huggingface.co/collections/google/t5gemma-686ba262fe290b881d21ec86
  • Kaggle:https://www.kaggle.com/models/google/t5gemma

雖然熱度遠不及 Grok 4,但 T5Gemma 依然備受好評:

圖片

有人更是認為它是「LLM 時代編碼器-解碼器模型的強勢回歸」。

圖片

不過也有人吐嘈模型太多,讓人不知道怎么選。

圖片

從僅解碼器到編碼器-解碼器

對于 T5Gemma,谷歌研究的問題是:能否基于經(jīng)過預(yù)訓(xùn)練的僅解碼器模型構(gòu)建頂級編碼器-解碼器模型?

谷歌為此探索了上述的適應(yīng)技術(shù),其核心思想是使用已預(yù)訓(xùn)練的僅解碼器模型的權(quán)重來初始化編碼器-解碼器模型的參數(shù),然后通過基于 UL2 或 PrefixLM 的預(yù)訓(xùn)練進一步調(diào)整這些參數(shù)。

圖片

方法概況,展示了如何使用經(jīng)過預(yù)訓(xùn)練的僅解碼器模型的參數(shù)初始化新的編碼器-解碼器模型。

這種適應(yīng)方法高度靈活,并且支持組合不同大小的模型。例如,可以將大型編碼器與小型解碼器(例如,9B 編碼器與 2B 解碼器)配對,創(chuàng)建一個「不平衡」模型。

如此一來,便可以針對具體任務(wù)權(quán)衡地選擇質(zhì)量與效率,比如在摘要任務(wù)中,對輸入的深度理解比生成輸出的復(fù)雜性更為重要。

實際上,谷歌已經(jīng)在今年 4 月份發(fā)布了關(guān)于適應(yīng)技術(shù)的論文

圖片


  • 論文標(biāo)題:Encoder-Decoder Gemma: Improving the Quality-Efficiency Trade-Off via Adaptation 
  • 論文地址:https://arxiv.org/pdf/2504.06225

T5Gemma 的表現(xiàn)如何?

在谷歌的實驗中,T5Gemma 模型的性能與僅解碼器的 Gemma 模型相當(dāng),甚至更勝一籌,在多個基準(zhǔn)測試(例如用于衡量所學(xué)習(xí)到的表征質(zhì)量的 SuperGLUE)中,T5Gemma 幾乎主導(dǎo)了質(zhì)量-推理效率的帕累托邊界。

圖片

在給定的推理計算水平下,編碼器-解碼器模型始終能提供更佳性能,并且在一系列基準(zhǔn)測試中引領(lǐng)質(zhì)量-效率邊界。

這種性能優(yōu)勢并非僅限于理論層面,它也能轉(zhuǎn)化為實際的質(zhì)量和速度。在測量在 GSM8K(數(shù)學(xué)推理任務(wù))上的實際延遲時,T5Gemma 取得了顯著優(yōu)勢。

例如,T5Gemma 9B-9B 的準(zhǔn)確度高于 Gemma 2 9B,但延遲時間相似。更驚人是,T5Gemma 9B-2B 的準(zhǔn)確度顯著高于 2B-2B 模型,但其延遲時間幾乎與規(guī)模小得多的 Gemma 2 2B 模型相同。

總體而言,這些實驗表明,編碼器-解碼器適應(yīng)確實是一種靈活而強大的方法,可以更好地平衡質(zhì)量和推理速度。

編碼器-解碼器模型能否獲得與僅解碼器模型類似的能力?

谷歌的答案是:可以!

T5Gemma 在指令微調(diào)前后都表現(xiàn)優(yōu)良。

經(jīng)過預(yù)訓(xùn)練后,T5Gemma 在需要推理的復(fù)雜任務(wù)上取得了亮眼的進步。

例如,T5Gemma 9B-9B 在 GSM8K 上的得分比 Gemma 2 9B 模型高出 9 分以上,在 DROP(閱讀理解任務(wù))上的得分比 Gemma 2 9B 模型高出 4 分。這表明,通過適應(yīng)初始化的編碼器 - 解碼器架構(gòu)有潛力創(chuàng)建更強大、性能更佳的基礎(chǔ)模型。

圖片

經(jīng)過微調(diào)的 T5Gemma 模型在多個推理密集型基準(zhǔn)測試上相比僅解碼器的 Gemma 2 取得了顯著提升。

這些預(yù)訓(xùn)練帶來的基礎(chǔ)性改進奠定了基礎(chǔ),支撐起指令微調(diào)后更顯著的提升。

例如,如果對比 Gemma 2 IT 與 T5Gemma IT,可以看到性能差距全面顯著擴大。T5Gemma 2B-2B IT 的 MMLU 得分比 Gemma 2 2B 提高了近 12 分,其 GSM8K 得分也從 58.0% 提升至 70.7%??雌饋恚?jīng)過適應(yīng)后的架構(gòu)不僅可能提供更好的起點,而且還能更有效地響應(yīng)指令微調(diào)。最終構(gòu)建出一個功能更強大、更實用的最終模型。

圖片

經(jīng)過微調(diào) + RLHF 后的模型的詳細結(jié)果,表明后訓(xùn)練可以顯著提升編碼器-解碼器架構(gòu)的性能。

你認為 T5Gemma 能帶來編碼器-解碼器模型的復(fù)興嗎?

責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2021-03-29 12:22:25

微信iOS蘋果

2021-06-08 22:43:07

IPC方式Qt

2023-12-18 23:09:25

開源優(yōu)化引擎

2020-03-31 08:12:25

Kafka架構(gòu)數(shù)據(jù)庫

2020-10-21 06:39:21

CPU寄存器架構(gòu)

2021-12-06 08:30:49

SpringSpring Bean面試題

2025-05-14 01:55:00

FCMCPAI

2020-04-14 13:32:56

@Transacti失效場景

2020-09-24 09:08:04

分布式系統(tǒng)架構(gòu)

2020-10-22 12:30:33

MySQL

2021-03-01 18:52:39

工具在線瀏覽器

2024-04-26 09:40:10

項目精度丟失javascrip

2022-05-24 11:50:46

延時消息分布式

2024-03-28 12:52:00

AI模型

2025-03-13 12:44:56

2021-05-18 09:03:16

Gomapslice

2020-07-08 07:45:44

OAuth2.0授權(quán)

2020-06-04 07:45:07

過濾器和攔截器

2020-11-26 10:14:49

機器人人工智能小冰

2023-12-21 10:53:15

百度AI云計算
點贊
收藏

51CTO技術(shù)棧公眾號