偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

純自回歸圖像生成模型開源來了,復旦聯(lián)手字節(jié)seed共同捍衛(wèi)自回歸

人工智能 新聞
來自復旦視覺與學習實驗室和字節(jié)Seed的研究者們希望“驗一驗”自回歸視覺生成模型的能力,他們保持“Next-token prediction”這樣簡潔優(yōu)美的形式,而通過優(yōu)化訓練和推理過程來探究自回歸視覺生成是否可以像擴散模型一樣取得不錯的文生圖效果。

基于Transformer的自回歸架構在語言建模上取得了顯著成功,但在圖像生成領域,擴散模型憑借強大的生成質量和可控性占據了主導地位。

圖片

雖然一些早期工作如Parti、LlamaGen,嘗試用更強的視覺tokenizer和Transformer架構來提升自回歸生成的效果,但他們論文中的結果表明,只有更多的參數量才能讓自回歸模型勉強和擴散模型“掰掰手腕”。

這也讓越來越多的研究者質疑自回歸視覺生成是否是一條可行、值得探索的路徑。通常來說,大家認為自回歸視覺生成模型的不足集中:

1. 離散的token必然帶來更多的信息損失:當下改進視覺tokenizer也是一個備受關注的方向,最新的方法無論是離散或連續(xù)都可以取得非常好的重建效果(至少不會制約生成模型),因此相信這一點不會是制約兩條路線的核心原因;

2。 視覺token序列往往較長、因此很難建模token間的關系:對于一個512分辨率的圖像來說,16倍壓縮比的tokenizer意味著視覺token序列的長度是1024。對于采用因果掩碼(causal mask)的自回歸模型來說,建模這么長的序列無疑是很有挑戰(zhàn)性的;

3. 下一個token預測的效率太低:相比于擴散模型或MaskGIT那樣一步出整圖或多個token,自回歸模型串行預測token的方式在生成速度方面存在明顯劣勢。

近些時間,也有一些工作如VAR和MAR嘗試重新定義視覺里自回歸的形式,比如下一個尺度預測、或用連續(xù)token做自回歸。這些方法在ImageNet這樣的學術數據集上取得了不錯的效果,但是也潛在地破壞了視覺模態(tài)和語言模型的對齊性。

帶著好奇的心態(tài),來自復旦視覺與學習實驗室和字節(jié)Seed的研究者們希望“驗一驗”自回歸視覺生成模型的能力,他們保持“Next-token prediction”這樣簡潔優(yōu)美的形式,而通過優(yōu)化訓練和推理過程來探究自回歸視覺生成是否可以像擴散模型一樣取得不錯的文生圖效果。

不依賴外掛文本編碼器的自回歸模型

先說結論!這篇工作有三點驚艷的發(fā)現(xiàn):

0.5B的參數規(guī)模下,純自回歸模型可以生成1024分辨率的高質量圖像,且在常用文生圖基準上取得了非常有競爭力的結果,例如在GenEval上取得了0.59, 是1B以內模型的SOTA;

通過“預訓練-有監(jiān)督微調-強化學習”這樣的三階段訓練,模型可以生成出具有很高美學性的圖像,且有監(jiān)督微調(SFT)和基于GRPO的強化學習可以持續(xù)提升模型的指令跟隨能力以及生成效果;

當用vLLM進行部署時,0.5B的模型可以在14秒以內生成1024分辨率的圖像。

性能比較

本文提出的SimpleAR在GenEval和DPG上都取得了不錯的結果,其中0.5B模型顯著超越了SDv2.1和LlamaGen。

值得一提的是,擴散模型和Infinity這類方法都依賴于外掛的文本編碼器,如Infinity使用了3B的FlanT5-XL,而本文提出的自回歸模型則將文本(prompt)編碼和視覺生成集成在了一個decoder-only的Transformer里,不僅可以更好地學習跨模態(tài)對齊,也能更加高效地利用參數。

圖片

1.5B模型的性能距離Infinity還有差距,但本文相信這主要是由數據規(guī)模導致的,當用更多的高質量數據訓練時,模型的性能還可以被進一步提升。此外,本文選擇了Cosmos作為視覺tokenizer,其在重建低分辨率圖像和人臉等細節(jié)上十分有限,因此生成能力還有充分被改進的空間。

本文還首次在文生圖上成功應用了GRPO進行后訓練,結果表明:利用CLIP這樣非常簡單的reward函數,也依然可以觀察到非常有潛力的reward曲線、并在GenEval上了取得了顯著的性能提升:

圖片

最后是關于效率問題。本文首先嘗試了用vLLM將模型部署到A100上,結果表明其可以顯著地提升模型的推理速度:僅需13.55秒就能生成1024分辨率的高質量圖像,這顯著縮小了和擴散模型的差距,并由于可以使用KV Cache技術而相比于MaskGIT更有優(yōu)勢。本文也實現(xiàn)了推斷采樣,其可以有效降低2倍的自回歸推理步數。盡管由于不能使用KV Cache,單純的步數減少不能直接帶來推理時間的降低,但這為高效自回歸視覺生成提供了一些嶄新的思路。

圖片

可視化結果

圖片

幾點思考

顧名思義,SimpleAR只是團隊關于自回歸視覺生成的一次簡單嘗試,但從中可以看到自回歸模型相較于擴散模型的幾點優(yōu)勢:

1. 將文本和視覺token擺上平等的地位,更好地支持不同模態(tài)之間的聯(lián)合建模學習,從而有利于構建原生的多模態(tài)理解和生成模型;

2. 與現(xiàn)有支持語言模型后訓練和推理加速的技術兼容性高:通過強化學習可以顯著提升模型的文本跟隨能力和生成效果、通過vLLM可以有效降低模型的推理時間;

本文訓練及測試代碼以及模型權重均已開源,希望鼓勵更多的人參與到自回歸視覺生成的探索中。

論文鏈接:
https://arxiv.org/abs/2504.11455
代碼地址:
https://github.com/wdrink/SimpleAR

責任編輯:張燕妮 來源: 量子位
相關推薦

2025-07-04 09:07:00

2024-11-12 13:10:49

2025-08-04 08:23:00

2024-04-17 13:22:55

人工智能

2024-01-29 00:24:07

圖像模型預訓練

2022-03-14 10:53:12

谷歌模型研究

2024-04-26 12:51:48

2024-05-23 16:56:58

2024-01-18 10:57:35

AIM模型NLP

2025-04-22 15:34:08

視頻生成AI

2025-07-30 01:00:00

2022-11-24 17:00:01

模型ARDL開發(fā)

2025-07-14 08:42:00

開發(fā)模型圖像生成

2025-10-20 08:51:00

2022-08-03 11:50:29

DeepMindAI瘦身

2025-08-12 09:08:00

2024-07-03 12:05:06

Llama模型架構

2025-02-27 13:45:00

2025-07-10 14:54:13

AI模型圖像生成

2025-04-03 10:17:23

點贊
收藏

51CTO技術棧公眾號