偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

谷歌大腦開源「數(shù)據(jù)增強」新招數(shù):ImageNet準確率達85%

新聞 開源
谷歌大腦去年提出了自動數(shù)據(jù)增強方法(AutoAugment),確實對圖像分類和目標檢測等任務帶來了益處,現(xiàn)在又提出了一種數(shù)據(jù)增強的方法——RandAugment。

本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯(lián)系出處。

你的數(shù)據(jù)還不夠強。

玩深度學習的人都知道,AI算法大部分是數(shù)據(jù)驅動。數(shù)據(jù)的質量一定程度上決定了模型的好壞。

這就有了深度學習天生的一個短板:數(shù)據(jù)不夠多、不夠好。

而數(shù)據(jù)增強就是解決這一問題的有效辦法。

谷歌大腦去年提出了自動數(shù)據(jù)增強方法(AutoAugment),確實對圖像分類和目標檢測等任務帶來了益處。

但缺點也是明顯的:

1、大規(guī)模采用這樣的方法會增加訓練復雜性、加大計算成本;

2、無法根據(jù)模型或數(shù)據(jù)集大小調整正則化強度。

于是乎,谷歌大腦團隊又提出了一種數(shù)據(jù)增強的方法——RandAugment。 

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

這個方法有多好?

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

谷歌大腦高級研究科學家Barret Zoph表示:

RandAugment是一種新的數(shù)據(jù)增強方法,比AutoAugment簡單又好用。

主要思想是隨機選擇變換,調整它們的大小。

最后的實驗結果表明:

1、在ImageNet數(shù)據(jù)集上,實現(xiàn)了85.0%的準確率,比以前的水平提高了0.6%,比基線增強了1.0%。

2、在目標檢測方面,RandAugment能比基線增強方法提高1.0-1.3%。

值得一提的是,這項研究的通訊作者是谷歌AutoML幕后英雄的Quoc Viet Le大神。

[[283007]]

這么好的技術當然開源了代碼:

https://github.com/tensorflow/tpu/blob/master/models/official/efficientnet/autoaugment.py

RandAugment是怎么做到的?

正如剛才說到的,單獨搜索是問題的關鍵點。

所以研究人員的目標就是消除數(shù)據(jù)增強過程中對單獨搜索的需求。

再考慮到以往數(shù)據(jù)增強方法都包含30多個參數(shù),團隊也將關注點轉移到了如何大幅減少數(shù)據(jù)增強的參數(shù)空間。

為了減少參數(shù)空間的同時保持數(shù)據(jù)(圖像)的多樣性,研究人員用無參數(shù)過程替代了學習的策略和概率。

這些策略和概率適用于每次變換(transformation),該過程始終選擇均勻概率為1/k的變換。

也就是說,給定訓練圖像的N個變換,RandAugment就能表示KN個潛在策略。

最后,需要考慮到的一組參數(shù)是每個增強失真(augmentation distortion)的大小。

研究人員采用線性標度來表示每個轉換的強度。簡單來說,就是每次變換都在0到10的整數(shù)范圍內,其中,10表示給定變換的最大范圍。

為了進一步縮小參數(shù)空間,團隊觀察到每個轉換的學習幅度(learned magnitude)在訓練期間遵循類似的表:

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

并假設一個單一的全局失真M(global distortion M)可能就足以對所有轉換進行參數(shù)化。

這樣,生成的算法便包含兩個參數(shù)N和M,還可以用兩行Python代碼簡單表示:

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

因為這兩個參數(shù)都是可人為解釋的,所以N和M的值越大,正則化強度就越大。

可以使用標準方法高效地進行超參數(shù)優(yōu)化,但是考慮到極小的搜索空間,研究人員發(fā)現(xiàn)樸素網格搜索(naive grid search)是非常有效的。

實驗結果

在實驗部分,主要圍繞圖像分類和目標檢測展開。

研究人員較為關注的數(shù)據(jù)集包括:CIFAR-10、CIFAR-100、SVHN、ImageNet以及COCO。

這樣就可以與之前的工作做比較,證明RandAugment在數(shù)據(jù)增強方面的優(yōu)勢。

數(shù)據(jù)增強的一個前提是構建一個小的代理任務(proxy task),這個任務可以反映一個較大的任務。

研究人員挑戰(zhàn)了這樣一個假設:

用小型proxy task來描述問題適合于學習數(shù)據(jù)的增強。

特別地,從兩個獨立的維度來探討這個問題,這兩個維度通常被限制為實現(xiàn)小型proxy task:模型大小和數(shù)據(jù)集大小。

為了探究這一假設,研究人員系統(tǒng)地測量了數(shù)據(jù)增強策略對CIFAR-10的影響。結果如下圖所示:

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

其中:

圖(a)表示Wide-ResNet-28-2,Wide-ResNet-28-7和Wide-ResNet-28-10在各種失真幅度(distortion magnitude)下的精度。

圖(b)表示在7種Wide-ResNet-28架構中,隨著變寬參數(shù)(k)的變化,所產生的最佳失真幅度。

圖(c)表示Wide-ResNet-28-10的三種訓練集大?。?K,4K和10K)在各種失真幅度上的準確性。

圖(d)在8個訓練集大小上的最佳失真幅度。

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

其中,baseline是默認的數(shù)據(jù)增強方法。

PBA:Population Based Augmentation;
Fast AA:Fast AutoAugment;
AA:AutoAugment;
RA:RandAugment。

但值得注意點的是,改進CIFAR-10和SVHN模型的數(shù)據(jù)增強方法并不總是適用于ImageNet等大規(guī)模任務。

同樣地,AutoAugment在ImageNet上的性能提升也不如其他任務。

下表比較了在ImageNet上RandAugment和其他增強方法的性能。

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

在最小的模型(ResNet-50)上,RandAugment的性能與AutoAugment和Fast AutoAugment相似,但在較大的模型上,RandAugment的性能顯著優(yōu)于其他方法,比基線提高了1.3%。

為了進一步測試這種方法的通用性,研究人接下來在COCO數(shù)據(jù)集上進行了大規(guī)模目標檢測的相關任務。

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

COCO目標檢測任務的平均精度均值(Mean average precision,mAP)。數(shù)值越高,結果越好。

下一步工作

我們知道數(shù)據(jù)增強可以提高預測性能,例如圖像分割,3-D感知,語音識別或音頻識別。

研究人員表示,未來的工作將研究這種方法將如何應用于其他機器學習領域。

特別是希望更好地了解數(shù)據(jù)集或任務是否/何時可能需要單獨的搜索階段才能獲得最佳性能。

最后,研究人員還拋出了一個懸而未決的問題:

如何針對給定的任務定制一組轉換,進一步提高給定模型的預測性能。

對此,你又什么想法?

傳送門
論文地址:
https://arxiv.org/pdf/1909.13719.pdf

GitHub地址:
https://github.com/tensorflow/tpu/blob/master/models/official/efficientnet/autoaugment.py

 

 

 

責任編輯:張燕妮 來源: 量子位
相關推薦

2018-11-14 10:01:30

谷歌開源機器學習

2011-07-04 13:18:45

服務器R680 G7數(shù)據(jù)倉庫

2011-04-13 10:05:16

2019-01-03 09:04:04

谷歌系統(tǒng)機器

2022-09-14 09:55:32

人工智能AI解碼技術

2016-02-01 17:25:23

2022-11-07 07:28:39

大腦創(chuàng)傷功能

2023-02-03 16:31:02

模型

2023-05-04 09:39:16

AI模型

2009-09-30 10:39:34

2025-10-23 12:46:39

2020-11-20 17:03:11

AI 數(shù)據(jù)人工智能

2021-12-20 16:17:35

數(shù)據(jù)模型技術

2025-07-21 09:05:00

模型AI芯片

2022-08-02 14:45:16

AI微軟工具

2018-06-12 07:15:18

阿里巴巴技術語音識別

2020-04-26 15:35:49

神經網絡決策樹ImageNet

2023-10-14 13:09:53

谷歌模型

2024-08-21 13:16:30

2022-04-09 10:16:52

神經網絡深度學習AI
點贊
收藏

51CTO技術棧公眾號