偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法

發(fā)布于 2025-6-27 00:55
瀏覽
0收藏

大家好,今天給大家分享一個圖像生成的新工作—-Marrying Autoregressive Transformer and Diffusion with Multi-Reference Autoregression,后面我們簡稱TransDiff。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區(qū)

首先,TransDiff是目前最簡潔的、將AR Transformer與Diffusion結合用于圖像生成方法。TransDiff將離散輸入(如類別、文本等)、連續(xù)輸入(圖像等)經過AR Transformer 編碼 為圖像語義表征,而后將表征通過一個較小的Diffusion Deocder 解碼 為圖片。

其次,我們提出了一種新的自回歸范式-- MRAR(Multi-Reference Autoregression)。此范式類似NLP領域的In-context Learning(ICL):通過學習上文同類別圖片生成質量更好、更多樣的圖片,唯一的區(qū)別是上文的圖片是模型自己生成的。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區(qū)

Paper: https://arxiv.org/pdf/2506.09482
Code:https://github.com/TransDiff/TransDiff
Model:  https://huggingface.co/zhendch/Transdiff

具體介紹

為了節(jié)省讀者的時間,拋棄論文的結構,用Q&A這種更簡介的方式介紹TransDiff。

問:為什么使用Transformer?我們工作中AR Transformer編碼出了什么信息?

答:早期的CLIP工作以及后來大模型時代層出不窮的VL模型已經證明Transformer在圖像理解領域的優(yōu)勢。尤其是在CLIP工作中,ViT模型可以將圖片的表征對齊到語義空間(文字bert表征與圖片的ViT表征cosine相似度)。

相似的,實驗證明:TransDiff中AR Transformer也是將類別和圖片編碼至圖片的高級(對比像素)語義空間。以下將不同類別的256維特征隨機進行拼接后生成得到圖片,不同于其他模型(VAR、LlamaGen等)的像素編輯,定性實驗展現出了模型的語義編輯能力。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區(qū)

問:TransDiff使用較小Diffusion Deocder是否有制約? 是否優(yōu)于單純Diffusion和AR Transformer方法?

答:TransDiff的deocder使用DiT結構,使用Flow Matching范式。diffusion占總體參數的1/3,參數量顯著低于主流diffusion模型。但是對比能夠搜集到的所有單純Diffusion和AR Transformer方法,TransDiff在Benchmark上還是有一定優(yōu)勢,至少是“打的有來有回”。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區(qū)

問:TransDiff很像MAR,是否只是MAR的簡單模仿?

答:TransDiff與MAR雖然結構上很像,但是模型展現的特點截然不同。首先,MAR是在像素(或patch)上生成,沒有顯性的語義表征,其次由于MAR使用的Diffusion Deocder過于簡單(n層MLP Layer)導致decoder表現力有制約。 因此,從下圖可以看出:MAR無法 “一步生圖”,且圖像patch是在自回歸過程中逐步迭代“完善”。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區(qū)

問:MRAR好在哪里? 對比AR Transformer中常用的Token-Level AR 和 Scale-Level AR優(yōu)勢嗎?

答:首先對比Token-Level AR和Scale-Level AR,TransDiff with MRAR在在Benchmark上有著較大的優(yōu)勢。其次,我們發(fā)現 語義表征多樣性越高,圖像質量越高。而MRAR相較于Scale-Level AR可以顯著提升語義表征多樣性。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區(qū)

最后放一些demo

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區(qū)

One More Thing

TransDiff with MRAR在未經視頻數據訓練的情況下,展現出了連續(xù)幀生成的潛力。 所以后續(xù)也會將TransDiff應用在視頻生成領域,大家敬請期待。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區(qū)

本文轉載自????NLP工作站????,作者:NLP工作站

收藏
回復
舉報
回復
相關推薦