偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

單張圖像就可以訓練GAN!Adobe改良圖像生成方法 | 已開源

新聞 人工智能
數(shù)據(jù)集太小了,無法訓練GAN?試試從單個圖像入手吧。去年谷歌就提出了SinGAN,是第一個拿GAN在單幅自然圖像學習的非條件生成模型(ICCV 2019最佳論文)。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

數(shù)據(jù)集太小了,無法訓練GAN?試試從單個圖像入手吧。

去年谷歌就提出了SinGAN,是第一個拿GAN在單幅自然圖像學習的非條件生成模型(ICCV 2019最佳論文)。

而最近,來自Adobe和漢堡大學的研究人員,對這個方法做了改進,探討了幾種讓GAN在單幅圖像提高訓練和生成能力的機制。

研究人員將改進的模型稱作ConSinGAN。

單張圖像就可以訓練GAN!Adobe改良圖像生成方法 | 已開源

那么,先來看下ConSinGAN的效果吧。

單張圖像就可以訓練GAN!Adobe改良圖像生成方法 | 已開源

上圖左側(cè)是用來訓練的單個圖像,右側(cè)是利用ConSinGAN訓練后生成的復(fù)雜全局結(jié)構(gòu)。

可以看出效果還是比較逼真。

當然,ConSinGAN還可以用來處理許多其他任務(wù),例如圖像超分辨率( image super-resolution)、圖像動畫(image animation),以及圖像去霧(image dehazing)。

下面兩張就是它在圖像協(xié)調(diào)(image harmonization)和圖像編輯(image editing)上的效果。

單張圖像就可以訓練GAN!Adobe改良圖像生成方法 | 已開源
單張圖像就可以訓練GAN!Adobe改良圖像生成方法 | 已開源

ConSinGAN是怎么做到的呢?

訓練架構(gòu)優(yōu)化:并行的SinGAN

首先,我們先來看下SinGAN的訓練過程。

SinGAN在圖像中訓練幾個單獨的生成網(wǎng)絡(luò),下圖便是第一個生成器,也是唯一從隨機噪聲生成圖像的無條件生成器。

單張圖像就可以訓練GAN!Adobe改良圖像生成方法 | 已開源
在SinGAN中訓練的第一個生成器

這里的判別器從來不將圖像看做一個整體,通過這種方法,它就可以知道“真實的”圖像補丁(patch)是什么樣子。

這樣,生成器就可以通過生成,在全局來看不同,但僅從補丁來看卻相似的圖像,來達到“欺詐”的目的。

在更高分辨率上工作的生成器,將前一個生成器生成的圖像作為輸入,在此基礎(chǔ)上生成比當前還要高分辨率的圖像。

所有的生成器都是單獨訓練的,這意味著在訓練當前生成器時,所有以前的生成器的權(quán)重都保持不變。

這一過程如下圖所示。

單張圖像就可以訓練GAN!Adobe改良圖像生成方法 | 已開源

而在Adobe與漢堡大學的研究人員發(fā)現(xiàn),在給定的時間內(nèi)僅能訓練一個生成器,并將圖像(而不是特征圖)從一個生成器傳輸?shù)较乱粋€生成器,這就限制了生成器之間的交互。

因此,他們對生成器進行了端到端的訓練,也就是說,在給定時間內(nèi)訓練多個生成器,每個生成器將前一個生成器生成的特征(而不是圖像)作為輸入。

這也就是ConSinGAN名字的由來——并行的SinGAN,過程如下圖所示。

單張圖像就可以訓練GAN!Adobe改良圖像生成方法 | 已開源

然而,采取這樣的措施又會面臨一個問題,也就是過擬合。這意味著最終的模型不會生成任何“新”圖像,而是只生成訓練圖像。

為了防止這種現(xiàn)象發(fā)生,研究人員采取了2個措施:

  • 在任意給定時間內(nèi),只訓練一部分生成器;
  • 對不同的生成器采用不同的學習率(learning rate)。

下圖就展示了使用這兩種方法實現(xiàn)的模型。默認情況下,最多同時訓練3個生成器,并對較低的生成器,分別將學習率調(diào)至1/10和1/100。

單張圖像就可以訓練GAN!Adobe改良圖像生成方法 | 已開源

在這個過程中,有一個有趣的現(xiàn)象。

如果對較低的生成器采用較高的學習率,那么生成的圖像質(zhì)量會高些,但是差異性較弱。

相反,如果對較低的生成器采用較小的學習率,那么生成圖像的差異性會豐富一些。如下圖所示。

單張圖像就可以訓練GAN!Adobe改良圖像生成方法 | 已開源

代碼已開源

ConSinGAN的代碼已經(jīng)在GitHub上開源。

老規(guī)矩,先介紹一下運行所需要的環(huán)境:Python 3.5;Pytorch 1.1.0。

安裝也非常簡單:

  1. pip install -r requirements.txt 

若要使用論文中的默認參數(shù)訓練模型:

  1. python main_train.py --gpu 0 --train_mode generation --input_name Images/Generation/angkorwat.jpg 

在英偉達GeForce GTX 1080Ti上訓練一個模型大約需要20-25分鐘。

不同的學習率和訓練階段數(shù)量,會影響實驗的結(jié)果,研究人員推薦二者的默認值分別是0.1和6。

當然也可以修改學習率:

  1. python main_train.py --gpu 0 --train_mode generation --input_name Images/Generation/colusseum.jpg --lr_scale 0.5 

修改訓練階段的數(shù)量:

  1. python main_train.py --gpu 0 --train_mode generation --input_name Images/Generation/colusseum.jpg --train_stages 7 

當然,模型也可以用來處理“圖像協(xié)調(diào)”和“圖像編輯”等任務(wù),詳情可參閱GitHub。

傳送門

論文地址:
https://arxiv.org/pdf/2003.11512.pdf

GitHub項目地址:
https://github.com/tohinz/ConSinGAN

 

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-05-06 11:12:22

圖像處理數(shù)學計算NumPy

2022-02-25 10:28:30

人工智能圖像模型

2022-03-23 10:07:00

Adobe人像訓練

2020-10-04 13:12:53

開源技術(shù) 數(shù)據(jù)

2021-03-24 15:29:48

Python 開發(fā)編程語言

2023-12-18 08:57:22

GAN網(wǎng)絡(luò)

2022-10-17 07:16:08

SQL機器學習AI

2021-11-02 09:25:00

AI 數(shù)據(jù)人工智能

2020-06-15 14:18:05

數(shù)據(jù)平臺架構(gòu)

2023-03-22 11:06:32

2018-07-19 06:07:22

物聯(lián)網(wǎng)安全物聯(lián)網(wǎng)IOT

2017-02-13 09:33:32

2022-02-28 22:58:04

云遷移IT開發(fā)

2018-11-27 09:21:41

負載均衡機器Session

2022-02-28 17:57:44

云遷移云計算

2020-11-19 08:00:03

打工人離職工作

2018-03-01 15:00:15

Oracle數(shù)據(jù)中心云計算

2018-12-03 08:04:25

負載均衡機器流量

2015-07-10 11:18:19

2025-02-24 13:40:00

模型生成訓練
點贊
收藏

51CTO技術(shù)棧公眾號