用于圖像著色的五個(gè)開(kāi)源Python工具
?成千上萬(wàn)的老式照片和電影是在彩色圖像還沒(méi)有出現(xiàn)的年代拍攝的。如今,在深度學(xué)習(xí)的幫助下,我們可以為這些圖片著色,使它們更接近原來(lái)的樣子。
作為測(cè)試,我將使用兩張圖像。
本文將使用開(kāi)源工具,這些工具可以從GitHub下載。
DeOldify
DeOldify是基于SA-GAN (Self-Attention - generate對(duì)抗網(wǎng)絡(luò))。一般來(lái)說(shuō),GAN由兩個(gè)獨(dú)立的神經(jīng)網(wǎng)絡(luò)組成——生成器和判別器。這兩個(gè)網(wǎng)絡(luò)都是由大量的圖像訓(xùn)練而成,在訓(xùn)練過(guò)程中,生成器學(xué)會(huì)了制作似是而非的圖像,而判別器學(xué)會(huì)將生成的圖像與真實(shí)的圖像區(qū)分開(kāi)來(lái)。
為了在本地運(yùn)行DeOldify,我們需要從GitHub中獲取項(xiàng)目,并將預(yù)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)權(quán)重下載到“models”文件夾中(鏈接來(lái)自項(xiàng)目頁(yè)面,未來(lái)作者可能會(huì)更改):
git clone https://github.com/jantic/DeOldify
cd DeOldify
mkdir models
cd models
wget https://data.deepai.org/deoldify/ColorizeArtistic_gen.pth
wget https://www.dropbox.com/s/usf7uifrctqw9rl/ColorizeStable_gen.pth?dl=1 -O ColorizeStable_gen.pth
cd ..
在這里,我將“device”設(shè)置為CPU - 如果您沒(méi)有好的顯卡,則很可能會(huì)收到“內(nèi)存不足”錯(cuò)誤(CPU上的處理時(shí)間約為3-5s,GPU上的處理時(shí)間約為0.5s,因此CPU計(jì)算也運(yùn)行良好)。如果您希望運(yùn)行獨(dú)立的Python代碼,則可以使用以下Python代碼:
from deoldify import device
from deoldify.device_id import DeviceId
from deoldify.visualize import *
torch.backends.cudnn.benchmark=True
device.set(device=DeviceId.CPU)
colorizer = get_image_colorizer(artistic=True)
img_out = colorizer.get_transformed_image(path="anna_bw.jpg",
render_factor=15,
watermarked=True)
img_out.save("anna_color.jpg")
至于結(jié)果,相當(dāng)不錯(cuò):
大家還可以嘗試更改模型(有兩種模型,具有更鮮艷顏色的“artistic”模型和“stable”模型可用)和影響輸出顏色的“render_factor”變量。要去除水印可以將參數(shù)watermarked設(shè)置為False。
彩色圖像著色(Colorful Image Colorization)
這個(gè)項(xiàng)目使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)來(lái)生成彩色圖像。在體系結(jié)構(gòu)上,它比DeOldify簡(jiǎn)單得多,但正因?yàn)槿绱?,它可能更方便大家理解它的工作原理?/p>
最后一次項(xiàng)目更新是在2020年,但代碼仍然可以工作,并且可以很容易地在本地運(yùn)行。
有兩種模型可用,Python代碼如下:
import colorizers as c
import torch
import matplotlib.image as plt
img = c.load_img("image_bw.jpg")
tens_l_orig, tens_l_rs = c.preprocess_img(img, HW=(256, 256))
img_bw = c.postprocess_tens(tens_l_orig,
torch.cat((0*tens_l_orig, 0*tens_l_orig), dim=1))
colorizer_eccv16 = c.eccv16(pretrained=True).eval()
out_img_eccv16 = c.postprocess_tens(tens_l_orig,
colorizer_eccv16(tens_l_rs).cpu())
plt.imsave('image_eccv16.jpg', out_img_eccv16)
colorizer_siggraph17 = c.siggraph17(pretrained=True).eval()
out_img_siggraph17 = c.postprocess_tens(tens_l_orig,
colorizer_siggraph17(tens_l_rs).cpu())
plt.imsave('image_siggraph17.jpg', out_img_siggraph17)
結(jié)果如下:
ChromaGAN
顧名思義,ChromaGAN的作者也在使用生成對(duì)抗網(wǎng)絡(luò)給圖像上色。
這個(gè)項(xiàng)目可能只是作為研究的一個(gè)演示,操作并不是太友好。在使用項(xiàng)目之前,應(yīng)下載“my_model_colorization.h5”文件(鏈接在GitHub頁(yè)面上提供)并放入“MODEL”文件夾中。源圖像和輸出圖像應(yīng)該分別放在“chromagan_images”和“chromagan_results”文件夾中,然后可以參考作者jupyter notebook進(jìn)行處理。要在本地PC上運(yùn)行代碼,“from google.colab.patches import cv2_imshow”和“cv2_imshow(…)”行應(yīng)該刪除。該項(xiàng)目正在使用Keras,如果出現(xiàn)“內(nèi)存不足”的錯(cuò)誤,建議在文件開(kāi)頭添加os.environ["CUDA_VISIBLE_DEVICES"] = "-1"。
Google Colorization Transformer (ColTran)
這個(gè)項(xiàng)目可以從google-research GitHub頁(yè)面下載,更詳細(xì)的研究論文也可以下載。作者使用的是具有自注意力架構(gòu)的軸向transformer,而不是GAN。在使用ColTran之前,我們需要下載預(yù)訓(xùn)練模型,這些模型位于ColTran.zip歸檔文件中。該歸檔文件包含3個(gè)模型檢查點(diǎn):colorizer、color_upsampler和spatial_upsampler。然后我們可以運(yùn)行3個(gè)Python命令:
python3 custom_colorize.py --config=configs/colorizer.py --mode=colorize --accelerator_type=CPU --logdir=colorizer --img_dir=img_dir --store_dir=target_dir
python3 custom_colorize.py --config=configs/color_upsampler.py --mode=colorize --accelerator_type=CPU --logdir=color_upsampler --img_dir=img_dir --store_dir=target_dir --gen_data_dir=target_dir/stage1 --mode=colorize
python3 custom_colorize.py --config=configs/spatial_upsampler.py --mode=colorize --accelerator_type=CPU --logdir=spatial_upsampler --img_dir=img_dir --store_dir=target_dir --gen_data_dir=target_dir/stage2
這里的img_dir是一個(gè)文件夾,包含源圖像,store_dir是輸出文件夾,colorize是一種處理模式,而logdir是到預(yù)訓(xùn)練模型的路徑。我們有3個(gè)處理步驟:我們有3個(gè)處理步驟:“colorizer”只使用512種輸出顏色和64x64的輸出圖像進(jìn)行粗著色,“color upsampler”改善顏色,“spatial upsampler”將圖像提升到256x256的分辨率。
結(jié)果是顏色也很準(zhǔn)確:
這個(gè)工具可能只是作為研究論文的演示而制作的,與以前的項(xiàng)目相比,沒(méi)有現(xiàn)成的方法來(lái)處理任意分辨率的圖像。輸出僅限于 256x256 大小。
BigColor
BigColor項(xiàng)目是由作者在2022年提出的。作者還在他們的論文中寫(xiě)道:“我們將BigColor與最近的自動(dòng)著色方法進(jìn)行了比較,包括CIC、ChromaGAN、DeOldify、InstColor、ColTran和ToVivid。在六張具有挑戰(zhàn)性的圖像上,BigColor的優(yōu)于所有方法?!?/p>
該項(xiàng)目本身可以從GitHub頁(yè)面下載(https://github.com/KIMGEONUNG/BigColor)。使用代碼很簡(jiǎn)單。在進(jìn)行轉(zhuǎn)換之前,應(yīng)該執(zhí)行兩個(gè)腳本download- pretraining.sh和download-bigcolor.sh。之后,可以使用一個(gè)命令完成轉(zhuǎn)換:
python3 colorize_real.py --path_ckpt=ckpts/bigcolor --path_input=images_gray --epoch=11 --type_resize=powerof --seed=-1 --device=cpu
此處的path_ckpt是指向預(yù)訓(xùn)練模型的路徑,images_gray是包含源圖像的文件夾。結(jié)果如下:
最后
圖像著色是一個(gè)有趣的話題,正如我們所看到的,不同的方法和架構(gòu)是可能的。從準(zhǔn)確性的角度來(lái)看,事情也很復(fù)雜。通常,黑白照片不再有顏色信息,因此神經(jīng)網(wǎng)絡(luò)只能根據(jù)之前訓(xùn)練的圖像來(lái)猜測(cè)輸出結(jié)果。例如,這是我用來(lái)測(cè)試的原始圖像:
這是相同的圖像,轉(zhuǎn)換為黑白:
這是使用DeOldify制作的圖像:
樹(shù)是綠色的,天空是藍(lán)色的,這已經(jīng)挺不錯(cuò)了。但是,不僅DeOldify,而且其他經(jīng)過(guò)測(cè)試的項(xiàng)目都無(wú)法正確確定百葉窗的顏色。在大多數(shù)情況下,這些結(jié)果已經(jīng)足夠好了。