偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

DiffMoE:動(dòng)態(tài)Token選擇助力擴(kuò)散模型性能飛躍,快手&清華團(tuán)隊(duì)打造視覺(jué)生成新標(biāo)桿!

人工智能 新聞
近期,可靈團(tuán)隊(duì)推出 DiffMoE(Dynamic Token Selection for Scalable Diffusion Transformers),通過(guò)創(chuàng)新的動(dòng)態(tài)token選擇機(jī)制和全局token池設(shè)計(jì),拓展了擴(kuò)散模型的效率與性能邊界。

本文由清華大學(xué)和快手可靈團(tuán)隊(duì)共同完成。第一作者是清華大學(xué)智能視覺(jué)實(shí)驗(yàn)室在讀本科生史明磊。

在生成式 AI 領(lǐng)域,擴(kuò)散模型(Diffusion Models)已成為圖像生成任務(wù)的主流架構(gòu)。然而,傳統(tǒng)擴(kuò)散模型在處理不同噪聲水平和條件輸入時(shí)采用統(tǒng)一處理方式,未能充分利用擴(kuò)散過(guò)程的異構(gòu)特性,導(dǎo)致計(jì)算效率低下,近期,可靈團(tuán)隊(duì)推出 DiffMoE(Dynamic Token Selection for Scalable Diffusion Transformers),通過(guò)創(chuàng)新的動(dòng)態(tài)token選擇機(jī)制和全局token池設(shè)計(jì),拓展了擴(kuò)散模型的效率與性能邊界。

null

核心突破:動(dòng)態(tài)token選擇與全局上下文感知 

DiffMoE 首次在擴(kuò)散模型中引入批級(jí)全局token池(Batch-level Global Token Pool),打破傳統(tǒng)模型對(duì)單一樣本內(nèi)token的限制,使專家網(wǎng)絡(luò)能夠跨樣本訪問(wèn)全局token分布。這種設(shè)計(jì)模擬了完整數(shù)據(jù)集的token分布,顯著提升了模型對(duì)復(fù)雜噪聲模式的學(xué)習(xí)能力。實(shí)驗(yàn)表明,DiffMoE 在訓(xùn)練損失收斂速度上超越了同等參數(shù)量的密集模型(Dense Models),為多任務(wù)處理提供了更強(qiáng)大的上下文感知能力。 

針對(duì)推理階段的計(jì)算資源分配問(wèn)題,DiffMoE 提出動(dòng)態(tài)容量預(yù)測(cè)器(Capacity Predictor),通過(guò)輕量級(jí) MLP 網(wǎng)絡(luò)實(shí)時(shí)調(diào)整專家網(wǎng)絡(luò)的計(jì)算負(fù)載。該機(jī)制基于訓(xùn)練時(shí)的token路由模式學(xué)習(xí),在不同噪聲水平和樣本復(fù)雜度間智能分配資源,實(shí)現(xiàn)了性能與計(jì)算成本的靈活權(quán)衡。例如,在生成困難圖片時(shí)自動(dòng)分配更多計(jì)算資源,而在處理簡(jiǎn)單圖像時(shí)降低負(fù)載,真正做到 「按需計(jì)算」。 

null

性能提升:以少勝多的參數(shù)高效模型

在 ImageNet 256×256 分類條件圖像生成基準(zhǔn)測(cè)試中,其他結(jié)構(gòu)細(xì)節(jié)保持一致的公平對(duì)比情況下,DiffMoE-L-E8 模型僅用 4.58 億參數(shù) (FID50K 2.13), 超越了擁有 6.75 億參數(shù)的 Dense-DiT-XL 模型(FID 2.19)。通過(guò)進(jìn)一步擴(kuò)展實(shí)驗(yàn),DiffMoE 實(shí)現(xiàn)了僅用 1 倍激活參數(shù)就實(shí)現(xiàn)了 3 倍于密集模型的性能。此外,DiffMoE 在文本到圖像生成任務(wù)中同樣展現(xiàn)出卓越的泛化能力,相較于 Dense 模型有明顯效率提升。

null

null

多維度驗(yàn)證:從理論到實(shí)踐

研究團(tuán)隊(duì)通過(guò)大規(guī)模實(shí)驗(yàn)驗(yàn)證了 DiffMoE 的優(yōu)越性: 

動(dòng)態(tài)計(jì)算優(yōu)勢(shì):DiffMoE 的平均激活參數(shù)量較低的情況下實(shí)現(xiàn)了性能指標(biāo)的顯著提升,證明了動(dòng)態(tài)資源分配的高效性;同時(shí),DiffMoE 能夠根據(jù)樣本的難度自動(dòng)分配計(jì)算量。本研究可視化了模型認(rèn)為最困難和最簡(jiǎn)單的十類生成。

null

模型認(rèn)為的最困難的十類

null

模型認(rèn)為的最簡(jiǎn)單的十類

擴(kuò)展性測(cè)試:從小型(32M)到大型(458M)配置,DiffMoE 均保持性能正向增長(zhǎng),專家數(shù)量從 2 擴(kuò)展到 16 時(shí) FID 持續(xù)下降;

null

跨任務(wù)適配:在文本到圖像生成任務(wù)中,DiffMoE 模型在對(duì)象生成、空間定位等關(guān)鍵指標(biāo)上全面超越 Dense 基線模型。 

null

總結(jié)

在這項(xiàng)工作中,研究團(tuán)隊(duì)通過(guò)動(dòng)態(tài)token選擇和全局token可訪問(wèn)性來(lái)高效擴(kuò)展擴(kuò)散模型。我們的方法利用專門的專家行為和動(dòng)態(tài)資源分配,有效解決了擴(kuò)散 Transformer 中固定計(jì)算量處理的局限性問(wèn)題。大量的實(shí)驗(yàn)結(jié)果表明,DiffMoE 在性能上超越了現(xiàn)有的 TC-MoE 和 EC-MoE 方法,以及激活參數(shù)量是其 3 倍的密集型模型。研究團(tuán)隊(duì)不僅驗(yàn)證了它在類別條件生成任務(wù)中的實(shí)用性,也驗(yàn)證了 DiffMoE 在大規(guī)模文本到圖像生成任務(wù)的有效性。雖然為了進(jìn)行公平比較,我們未納入現(xiàn)代混合專家(MoE)模型的改進(jìn)方法,但在未來(lái)的工作中,集成諸如細(xì)粒度專家和共享專家等先進(jìn)技術(shù),將可能帶來(lái)新的增益。

更多細(xì)節(jié)請(qǐng)參閱原論文。

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2025-10-29 09:05:04

2025-10-23 16:56:40

AI模型訓(xùn)練

2024-02-26 08:25:00

模型訓(xùn)練

2024-03-28 13:19:05

AI數(shù)據(jù)

2025-10-23 09:02:12

2025-02-10 08:40:00

訓(xùn)練數(shù)據(jù)模型

2015-09-11 09:48:56

存儲(chǔ)華為

2025-08-14 09:10:00

2025-05-27 15:35:02

大模型技術(shù)AI

2025-08-18 13:54:28

2025-10-29 16:11:39

AI模型工具

2023-12-23 23:08:21

語(yǔ)音數(shù)據(jù)

2017-12-20 17:11:27

華為

2025-08-18 13:53:03

2025-06-13 14:13:26

3D場(chǎng)景生成模型

2025-04-08 09:16:00

推理模型AI

2025-07-02 09:21:30

2025-08-27 09:08:00

AI視覺(jué)模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)