偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

谷歌大腦開源「數(shù)據(jù)增強(qiáng)」新招數(shù):ImageNet準(zhǔn)確率達(dá)85%

新聞 開源
谷歌大腦去年提出了自動(dòng)數(shù)據(jù)增強(qiáng)方法(AutoAugment),確實(shí)對(duì)圖像分類和目標(biāo)檢測等任務(wù)帶來了益處,現(xiàn)在又提出了一種數(shù)據(jù)增強(qiáng)的方法——RandAugment。

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

你的數(shù)據(jù)還不夠強(qiáng)。

玩深度學(xué)習(xí)的人都知道,AI算法大部分是數(shù)據(jù)驅(qū)動(dòng)。數(shù)據(jù)的質(zhì)量一定程度上決定了模型的好壞。

這就有了深度學(xué)習(xí)天生的一個(gè)短板:數(shù)據(jù)不夠多、不夠好。

而數(shù)據(jù)增強(qiáng)就是解決這一問題的有效辦法。

谷歌大腦去年提出了自動(dòng)數(shù)據(jù)增強(qiáng)方法(AutoAugment),確實(shí)對(duì)圖像分類和目標(biāo)檢測等任務(wù)帶來了益處。

但缺點(diǎn)也是明顯的:

1、大規(guī)模采用這樣的方法會(huì)增加訓(xùn)練復(fù)雜性、加大計(jì)算成本;

2、無法根據(jù)模型或數(shù)據(jù)集大小調(diào)整正則化強(qiáng)度。

于是乎,谷歌大腦團(tuán)隊(duì)又提出了一種數(shù)據(jù)增強(qiáng)的方法——RandAugment。 

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

這個(gè)方法有多好?

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

谷歌大腦高級(jí)研究科學(xué)家Barret Zoph表示:

RandAugment是一種新的數(shù)據(jù)增強(qiáng)方法,比AutoAugment簡單又好用。

主要思想是隨機(jī)選擇變換,調(diào)整它們的大小。

最后的實(shí)驗(yàn)結(jié)果表明:

1、在ImageNet數(shù)據(jù)集上,實(shí)現(xiàn)了85.0%的準(zhǔn)確率,比以前的水平提高了0.6%,比基線增強(qiáng)了1.0%。

2、在目標(biāo)檢測方面,RandAugment能比基線增強(qiáng)方法提高1.0-1.3%。

值得一提的是,這項(xiàng)研究的通訊作者是谷歌AutoML幕后英雄的Quoc Viet Le大神。

[[283007]]

這么好的技術(shù)當(dāng)然開源了代碼:

https://github.com/tensorflow/tpu/blob/master/models/official/efficientnet/autoaugment.py

RandAugment是怎么做到的?

正如剛才說到的,單獨(dú)搜索是問題的關(guān)鍵點(diǎn)。

所以研究人員的目標(biāo)就是消除數(shù)據(jù)增強(qiáng)過程中對(duì)單獨(dú)搜索的需求。

再考慮到以往數(shù)據(jù)增強(qiáng)方法都包含30多個(gè)參數(shù),團(tuán)隊(duì)也將關(guān)注點(diǎn)轉(zhuǎn)移到了如何大幅減少數(shù)據(jù)增強(qiáng)的參數(shù)空間。

為了減少參數(shù)空間的同時(shí)保持?jǐn)?shù)據(jù)(圖像)的多樣性,研究人員用無參數(shù)過程替代了學(xué)習(xí)的策略和概率。

這些策略和概率適用于每次變換(transformation),該過程始終選擇均勻概率為1/k的變換。

也就是說,給定訓(xùn)練圖像的N個(gè)變換,RandAugment就能表示KN個(gè)潛在策略。

最后,需要考慮到的一組參數(shù)是每個(gè)增強(qiáng)失真(augmentation distortion)的大小。

研究人員采用線性標(biāo)度來表示每個(gè)轉(zhuǎn)換的強(qiáng)度。簡單來說,就是每次變換都在0到10的整數(shù)范圍內(nèi),其中,10表示給定變換的最大范圍。

為了進(jìn)一步縮小參數(shù)空間,團(tuán)隊(duì)觀察到每個(gè)轉(zhuǎn)換的學(xué)習(xí)幅度(learned magnitude)在訓(xùn)練期間遵循類似的表:

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

并假設(shè)一個(gè)單一的全局失真M(global distortion M)可能就足以對(duì)所有轉(zhuǎn)換進(jìn)行參數(shù)化。

這樣,生成的算法便包含兩個(gè)參數(shù)N和M,還可以用兩行Python代碼簡單表示:

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

因?yàn)檫@兩個(gè)參數(shù)都是可人為解釋的,所以N和M的值越大,正則化強(qiáng)度就越大。

可以使用標(biāo)準(zhǔn)方法高效地進(jìn)行超參數(shù)優(yōu)化,但是考慮到極小的搜索空間,研究人員發(fā)現(xiàn)樸素網(wǎng)格搜索(naive grid search)是非常有效的。

實(shí)驗(yàn)結(jié)果

在實(shí)驗(yàn)部分,主要圍繞圖像分類和目標(biāo)檢測展開。

研究人員較為關(guān)注的數(shù)據(jù)集包括:CIFAR-10、CIFAR-100、SVHN、ImageNet以及COCO。

這樣就可以與之前的工作做比較,證明RandAugment在數(shù)據(jù)增強(qiáng)方面的優(yōu)勢。

數(shù)據(jù)增強(qiáng)的一個(gè)前提是構(gòu)建一個(gè)小的代理任務(wù)(proxy task),這個(gè)任務(wù)可以反映一個(gè)較大的任務(wù)。

研究人員挑戰(zhàn)了這樣一個(gè)假設(shè):

用小型proxy task來描述問題適合于學(xué)習(xí)數(shù)據(jù)的增強(qiáng)。

特別地,從兩個(gè)獨(dú)立的維度來探討這個(gè)問題,這兩個(gè)維度通常被限制為實(shí)現(xiàn)小型proxy task:模型大小和數(shù)據(jù)集大小。

為了探究這一假設(shè),研究人員系統(tǒng)地測量了數(shù)據(jù)增強(qiáng)策略對(duì)CIFAR-10的影響。結(jié)果如下圖所示:

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

其中:

圖(a)表示W(wǎng)ide-ResNet-28-2,Wide-ResNet-28-7和Wide-ResNet-28-10在各種失真幅度(distortion magnitude)下的精度。

圖(b)表示在7種Wide-ResNet-28架構(gòu)中,隨著變寬參數(shù)(k)的變化,所產(chǎn)生的最佳失真幅度。

圖(c)表示W(wǎng)ide-ResNet-28-10的三種訓(xùn)練集大?。?K,4K和10K)在各種失真幅度上的準(zhǔn)確性。

圖(d)在8個(gè)訓(xùn)練集大小上的最佳失真幅度。

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

其中,baseline是默認(rèn)的數(shù)據(jù)增強(qiáng)方法。

PBA:Population Based Augmentation;
Fast AA:Fast AutoAugment;
AA:AutoAugment;
RA:RandAugment。

但值得注意點(diǎn)的是,改進(jìn)CIFAR-10和SVHN模型的數(shù)據(jù)增強(qiáng)方法并不總是適用于ImageNet等大規(guī)模任務(wù)。

同樣地,AutoAugment在ImageNet上的性能提升也不如其他任務(wù)。

下表比較了在ImageNet上RandAugment和其他增強(qiáng)方法的性能。

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

在最小的模型(ResNet-50)上,RandAugment的性能與AutoAugment和Fast AutoAugment相似,但在較大的模型上,RandAugment的性能顯著優(yōu)于其他方法,比基線提高了1.3%。

為了進(jìn)一步測試這種方法的通用性,研究人接下來在COCO數(shù)據(jù)集上進(jìn)行了大規(guī)模目標(biāo)檢測的相關(guān)任務(wù)。

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

COCO目標(biāo)檢測任務(wù)的平均精度均值(Mean average precision,mAP)。數(shù)值越高,結(jié)果越好。

下一步工作

我們知道數(shù)據(jù)增強(qiáng)可以提高預(yù)測性能,例如圖像分割,3-D感知,語音識(shí)別或音頻識(shí)別。

研究人員表示,未來的工作將研究這種方法將如何應(yīng)用于其他機(jī)器學(xué)習(xí)領(lǐng)域。

特別是希望更好地了解數(shù)據(jù)集或任務(wù)是否/何時(shí)可能需要單獨(dú)的搜索階段才能獲得最佳性能。

最后,研究人員還拋出了一個(gè)懸而未決的問題:

如何針對(duì)給定的任務(wù)定制一組轉(zhuǎn)換,進(jìn)一步提高給定模型的預(yù)測性能。

對(duì)此,你又什么想法?

傳送門
論文地址:
https://arxiv.org/pdf/1909.13719.pdf

GitHub地址:
https://github.com/tensorflow/tpu/blob/master/models/official/efficientnet/autoaugment.py

 

 

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2018-11-14 10:01:30

谷歌開源機(jī)器學(xué)習(xí)

2011-07-04 13:18:45

服務(wù)器R680 G7數(shù)據(jù)倉庫

2011-04-13 10:05:16

2016-02-01 17:25:23

2019-01-03 09:04:04

谷歌系統(tǒng)機(jī)器

2022-09-14 09:55:32

人工智能AI解碼技術(shù)

2022-11-07 07:28:39

大腦創(chuàng)傷功能

2009-09-30 10:39:34

2023-02-03 16:31:02

模型

2023-05-04 09:39:16

AI模型

2020-11-20 17:03:11

AI 數(shù)據(jù)人工智能

2021-12-20 16:17:35

數(shù)據(jù)模型技術(shù)

2022-08-02 14:45:16

AI微軟工具

2018-06-12 07:15:18

阿里巴巴技術(shù)語音識(shí)別

2020-04-26 15:35:49

神經(jīng)網(wǎng)絡(luò)決策樹ImageNet

2023-10-14 13:09:53

谷歌模型

2022-04-09 10:16:52

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)AI

2024-08-21 13:16:30

2021-01-16 23:25:34

人臉識(shí)別技術(shù)安全

2023-12-12 13:51:00

AI訓(xùn)練
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)