偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

人臉合成效果媲美StyleGAN,而它是個自編碼器

新聞 機(jī)器學(xué)習(xí)
自編碼器(AE)與生成對抗網(wǎng)絡(luò)(GAN)是復(fù)雜分布上無監(jiān)督學(xué)習(xí)最具前景的兩類方法,它們也經(jīng)常被拿來比較。

 自編碼器(AE)與生成對抗網(wǎng)絡(luò)(GAN)是復(fù)雜分布上無監(jiān)督學(xué)習(xí)最具前景的兩類方法,它們也經(jīng)常被拿來比較。人們通常認(rèn)為自編碼器在圖像生成上的應(yīng)用范圍比 GAN 窄,那么自編碼器到底能不能具備與 GAN 同等的生成能力呢?這篇研究提出的新型自編碼器 ALAE 可以給你答案。目前,該論文已被 CVPR 2020 會議接收。

  • 論文地址:https://arxiv.org/pdf/2004.04467.pdf
  • GitHub 地址:https://github.com/podgorskiy/ALAE

自編碼器是一種無監(jiān)督方法,它通過同時學(xué)習(xí)編碼器-生成器圖將「生成性」和「表征性」結(jié)合起來。關(guān)于自編碼器有兩個疑問尚未得到解決:

  • 自編碼器是否具備和 GAN 同等的生成能力?
  • 自編碼器能否學(xué)習(xí)解耦表征(disentangled representation)?

最近,來自美國西弗吉尼亞大學(xué)的研究者提出一種新型自編碼器 Adversarial Latent Autoencoder (ALAE),試圖解決以上問題。ALAE 是一個通用架構(gòu),它能夠利用近期 GAN 在訓(xùn)練方面的改進(jìn)。研究者表示 ALAE 具備與 GAN 相當(dāng)?shù)纳赡芰?,且能夠?qū)W習(xí)解耦表征。

利用 ALAE 通用架構(gòu),該研究設(shè)計了兩個自編碼器:一種基于 MLP 編碼器,另一種基于 StyleGAN 生成器,即 StyleALAE。

研究者對這兩個架構(gòu)的解耦能力進(jìn)行了驗證,發(fā)現(xiàn) StyleALAE 不僅能夠生成與 StyleGAN 生成質(zhì)量相當(dāng)?shù)?1024x1024 人臉圖像,在同樣分辨率條件下,它還可以基于真實圖像生成人臉重建和操縱結(jié)果。

研究者認(rèn)為,ALAE 是首個性能匹配甚至超過生成器架構(gòu)的自編碼器。

ALAE 到底效果如何呢?我們來看展示圖: 

 StyleALAE 的風(fēng)格混合效果。

感興趣的讀者可以自己運行 demo,不過你需要 CUDA capable GPU、v1.3.1 及以上版本的 PyTorch 和 cuda/cuDNN 驅(qū)動,詳情參見 GitHub 地址。

新型通用自編碼器 ALAE

研究者觀察到每個 AE 方法都使用同樣的假設(shè):潛在空間的概率分布應(yīng)與先驗相關(guān),自編碼器應(yīng)該與之匹配。而 StyleGAN 相關(guān)論文證明,中間潛在空間應(yīng)當(dāng)具備更好的解耦能力。

于是研究者通過修改原始 GAN 范式設(shè)計了一種新型 AE 架構(gòu):

允許基于數(shù)據(jù)學(xué)得的潛在分布解決耦合問題 (A),并使用對抗策略學(xué)習(xí)輸出數(shù)據(jù)分布 (B),以保留 GAN 的生成能力;為了實現(xiàn) (A) 和 (B),該研究提出將 AE reciprocity 置于潛在空間中 (C),以避免使用在數(shù)據(jù)空間中運行的基于簡單 l_2 范數(shù)的重建損失(對于圖像空間來說它們通常是次優(yōu)選擇)。

如下圖 1 所示,研究者將生成器 G 和判別器 D 分別分解成兩個網(wǎng)絡(luò):F、G 和 E、D。

 äººè„¸åˆæˆæ•ˆæžœåª²ç¾ŽStyleGAN,而它是个自编码器

圖 1:ALAE 架構(gòu)。

此外,研究者還展示了 ALAE 與其他自編碼器的關(guān)聯(lián),詳見下表:

StyleALAE

研究者使用 ALAE 構(gòu)建了一個自編碼器,該自編碼器使用的是基于 StyleGAN 的生成器。具體架構(gòu)如下圖 2 所示:

圖 2:StyleALAE 架構(gòu)。StyleALAE 編碼器中的實例歸一化(IN)層用來提取多尺度風(fēng)格信息,并通過可學(xué)習(xí)的多重線性映射(multilinear map)將它們組合成為一個潛在代碼 w。

實現(xiàn)

ALAE 的算法訓(xùn)練過程參見下圖:

ALAE 效果如何?

該研究在多個數(shù)據(jù)集上評估了 ALAE 的性能,實驗代碼和數(shù)據(jù)參見 GitHub 地址。

在 MNIST 上的性能

研究者使用 MNIST 數(shù)據(jù)集訓(xùn)練 ALAE,并使用特征表示來執(zhí)行分類、重建和分析解耦能力的任務(wù)。

表 2:不同方法在 MNIST 分類任務(wù)上的性能。

圖 3:MNIST 重建效果。

StyleALAE 學(xué)習(xí)風(fēng)格表征的能力

研究者在 FFHQ、LSUN 和 CelebA-HQ 數(shù)據(jù)集上評估 StyleALAE 的性能。

表 3:不同方法在 FFHQ 和 LSUN 數(shù)據(jù)集上的 FID 分?jǐn)?shù)。

表 4:不同方法的感知路徑長度(PPL),表示表征解耦程度。

 

圖 5:FFHQ 重建結(jié)果。StyleALAE 對未見過的圖像的 1024×1024 重建結(jié)果。

圖 6:StyleALAE 的 FFHQ 生成結(jié)果(1024 × 1024 分辨率)。

圖 9:StyleALAE 的風(fēng)格混合效果?!竎oarse styles」從 Source 圖像中復(fù)制了高級特征,如姿勢、大致發(fā)型和臉型,從 Destination 圖像中復(fù)制了所有顏色(眸色、發(fā)色和光照);「middle styles」從 Source 圖像中復(fù)制了較小型的面部特征例如發(fā)式、眼睛睜/閉,從 Destination 圖像中復(fù)制了臉型;「fine styles」從 Source 圖像中復(fù)制了顏色和微結(jié)構(gòu)。

圖 8:不同方法在 CelebA-HQ 數(shù)據(jù)集上的重建結(jié)果。第一行是真實圖像;第二行:StyleALAE;第三行:Balanced PIONEER;第四行:PIONEER。

從圖中可以看出,StyleALAE 的生成結(jié)果更加清晰,失真度也最低。

 

 

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2021-03-29 11:37:50

人工智能深度學(xué)習(xí)

2021-03-22 10:52:13

人工智能深度學(xué)習(xí)自編碼器

2021-02-20 20:57:16

深度學(xué)習(xí)編程人工智能

2025-04-10 11:52:55

2025-04-10 06:30:00

2017-07-19 13:40:42

卷積自編碼器降噪

2024-06-18 08:52:50

LLM算法深度學(xué)習(xí)

2024-10-21 16:47:56

2017-11-10 12:45:16

TensorFlowPython神經(jīng)網(wǎng)絡(luò)

2017-07-03 07:14:49

深度學(xué)習(xí)無監(jiān)督學(xué)習(xí)稀疏編碼

2022-04-02 21:46:27

深度學(xué)習(xí)編碼器圖像修復(fù)

2018-05-21 08:22:14

自編碼器協(xié)同過濾深度學(xué)習(xí)

2017-12-26 10:48:37

深度學(xué)習(xí)原始數(shù)據(jù)

2023-08-14 08:30:32

2022-09-13 15:26:40

機(jī)器學(xué)習(xí)算法數(shù)據(jù)

2021-11-02 20:44:47

數(shù)字化

2024-11-13 16:24:33

ViT架構(gòu)PyTorch

2012-04-10 16:55:22

PowerSmart編碼器

2012-04-01 16:40:45

編碼器

2017-08-16 21:58:05

自動編碼器DeepCoder深度學(xué)習(xí)
點贊
收藏

51CTO技術(shù)棧公眾號