偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

何愷明新作再戰(zhàn)AI生成:入職MIT后首次帶隊,奧賽雙料金牌得主鄧明揚參與

人工智能 新聞
傳統(tǒng)觀點認為,圖像生成的自回歸模型通常伴隨著矢量量化(Vector Quantization),比如DALL·E一代就使用了經(jīng)典的VQ-VAE方法。

何愷明入職MIT副教授后,首次帶隊的新作來了!

圖片

讓自回歸模型拋棄矢量量化,使用連續(xù)值生成圖像。并借鑒擴散模型的思想,提出Diffusion Loss。

圖片

他加入MIT后,此前也參與過另外幾篇CV方向的論文,不過都是和MIT教授Wojciech Matusik團隊等合作的。

這次何愷明自己帶隊,參與者中還出現(xiàn)一個熟悉的名字:

鄧明揚,IMO、IOI雙料奧賽金牌得主,在競賽圈人稱“乖神”。

圖片

目前鄧明揚MIT本科在讀,按入學(xué)時間推算現(xiàn)在剛好大四,所以也有不少網(wǎng)友猜測他如果繼續(xù)在MIT讀博可能會加入何愷明團隊。

接下來具體介紹一下,這篇論文研究了什么。

借鑒擴散模型,大改自回歸生成

傳統(tǒng)觀點認為,圖像生成的自回歸模型通常伴隨著矢量量化(Vector Quantization),比如DALL·E一代就使用了經(jīng)典的VQ-VAE方法。

但團隊觀察到,自回歸生成的本質(zhì)是根據(jù)先前的值預(yù)測下一個token,這其實與值是離散還是連續(xù)沒啥必然聯(lián)系啊。

關(guān)鍵是要對token的概率分布進行建模,只要該概率分布可以通過損失函數(shù)來測量并用于從中抽取樣本就行。

圖片

并且從另一個方面來看,矢量量化方法還會帶來一系列麻煩:

  • 需要一個離散的token詞表,需要精心設(shè)計量化的目標函數(shù),訓(xùn)練困難,對梯度近似策略很敏感
  • 量化誤差會帶來信息損失,導(dǎo)致還原圖像質(zhì)量打折
  • 離散token適合建模分類分布,有表達能力上的局限

那么有什么更好的替代方法?

何愷明團隊選擇在損失函數(shù)上動刀,借鑒近年大火的擴散模型的思想,提出Diffusion Loss,消除了離散tokenizer的必要性。

如此一來,在連續(xù)值空間中應(yīng)用自回歸模型生成圖像就可行了。

圖片

具體來說,它讓自回歸模型輸出一個潛變量z作為條件,去訓(xùn)練一個小型的去噪MLP網(wǎng)絡(luò)。

通過反向擴散過程,這個小網(wǎng)絡(luò)就學(xué)會了如何根據(jù)z去采樣生成連續(xù)值的token x。擴散的過程天然能建模任意復(fù)雜的分布,所以沒有類別分布的局限。

這個去噪網(wǎng)絡(luò)和自回歸模型是端到端聯(lián)合訓(xùn)練的,鏈式法則直接把損失傳給自回歸模型,使其學(xué)會輸出最佳的條件z。

圖片

這篇工作的另一個亮點,是各種自回歸模型的變體都適用。它統(tǒng)一了標準的自回歸AR、隨機順序的AR、以及何愷明擅長的掩碼方法。

其中掩碼自回歸(MAR)模型,可以在任意隨機位置同時預(yù)測多個token,同時還能和擴散損失完美配合。

在這個統(tǒng)一的框架下,所有變體要么逐個token預(yù)測,要么并行預(yù)測一批token,但本質(zhì)上都是在已知token的基礎(chǔ)上去預(yù)測未知token,都是廣義的自回歸模型,所以擴散損失都能適用。

圖片

通過消除矢量量化,團隊訓(xùn)練的圖像生成模型獲得了強大的結(jié)果,同時享受序列建模的速度優(yōu)勢。

論文在AR、MAR的各種變體上做了大量實驗,結(jié)果表明擴散損失比交叉熵損失穩(wěn)定帶來2-3倍的提升。

與其他領(lǐng)先模型一比也毫不遜色,小模型都能做到1.98的FID分數(shù),大模型更是創(chuàng)下了1.55的SOTA。

圖片

而且它生成256x256圖像速度也很快,不到0.3秒一張。這得益于自回歸生成本來就很快,比擴散模型少采樣很多步,再加上去噪網(wǎng)絡(luò)又很小。

圖片

最后總結(jié)一下,這項工作通過自回歸建模token間的相關(guān)性,再搭配擴散過程對每個token的分布進行建模。

這也有別于普通的潛空間擴散模型中用單個大擴散模型對所有token的聯(lián)合分布建模,而是做局部擴散,在效果、速度和靈活性上都展現(xiàn)出了巨大的潛力。

當然,這個方法還有進一步探索的空間,團隊提出,目前在在某些復(fù)雜的幾何圖形理解任務(wù)上還有待提高。

何愷明團隊都有誰

最后再來介紹一下即將或可能加入何愷明課題組的團隊成員。。

Tianhong LI(黎天鴻),清華姚班校友,MIT博士生在讀,將于2024年9月加入何愷明的課題組,擔任博士后。

圖片

Mingyang Deng(鄧明揚),MIT本科數(shù)學(xué)和計算機科學(xué)專業(yè)在讀。

他在高一獲得IMO金牌,高三獲得IOI金牌,是競賽圈為數(shù)不多的雙料金牌得主,也是IOI歷史上第三位滿分選手。

目前鄧明揚的研究重點是機器學(xué)習(xí),特別是理解和推進生成式基礎(chǔ)模型,包括擴散模型和大型語言模型。

不過他的個人主頁上還沒有透露下一步計劃。

圖片

One More Thing

何愷明當初在MIT的求職演講備受關(guān)注,其中提到未來工作方向會是AI for Science,還引起圈內(nèi)一陣熱議。

圖片

現(xiàn)在,何愷明在AI4S方向的參與的首篇論文也來了:強化學(xué)習(xí)+量子物理學(xué)方向。

把Transformer模型用在了動態(tài)異構(gòu)量子資源調(diào)度問題上,利用自注意力機制處理量子比特對的序列信息。并在概率性環(huán)境中訓(xùn)練強化學(xué)習(xí)代理,提供動態(tài)實時調(diào)度指導(dǎo),最終顯著提升了量子系統(tǒng)性能,比基于規(guī)則的方法提高了3倍以上。

圖片

這樣一來,何愷明在自己的成名領(lǐng)域CV和探索新領(lǐng)域AI4S上都沒耽誤,兩開花,兩開花。

論文:https://arxiv.org/abs/2406.11838

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-12-03 13:40:31

2025-06-26 09:00:37

2023-07-31 11:20:18

AI研究

2023-12-08 14:14:00

模型訓(xùn)練

2024-04-11 12:30:40

2025-05-21 13:53:49

模型生成AI

2025-02-26 11:14:10

2023-08-16 15:50:00

科學(xué)計算

2024-03-25 10:15:58

AI數(shù)據(jù)

2025-03-13 09:39:05

AImox生成

2025-06-20 09:14:00

2023-03-10 13:05:17

AI就職

2024-10-06 12:32:42

2025-06-13 08:53:00

2025-03-24 09:08:00

2025-06-26 08:56:59

2023-11-20 21:56:57

入職微軟

2024-10-21 11:15:00

2025-06-26 15:10:22

DeepMindAI工程團隊

2023-11-02 12:37:25

訓(xùn)練數(shù)據(jù)
點贊
收藏

51CTO技術(shù)棧公眾號