偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

兩個小模型就能吊打大模型!北大校友、谷歌華人一作「模型集合」,CNN、Transformer都適用!

新聞 人工智能
華人研究員Wang Xiaofang在Google Research實習期間的研究證明,即使是少量簡單模型的集合也可以匹配或超過最先進模型的精度,同時效率顯著提高,并給出集成(ensemble)和級聯(lián)(cascade)兩種方法,利用多個模型的優(yōu)勢來實現(xiàn)更好的解決方案。

 [[435896]]

模型非要大,性能才會好嗎?

那可不一定!

當為新的機器學習應用程序構建深度模型時,研究人員通常會從現(xiàn)有的網(wǎng)絡架構,比如ResNets或EfficientNets中篩選出一個初始架構。

如果初始模型的精度不夠高,那么換用一個更大的模型可能是一個比較常見的選擇,但這實際上可能不是最佳解決方案。

相反,通過設計一個針對特定任務優(yōu)化的新模型,可能會獲得更好的性能。然而,這種努力可能具有挑戰(zhàn)性,通常需要耗費大量資源。

華人研究員Wang Xiaofang在Google Research實習期間,發(fā)表的論文「Wisdom of Committees:An Overlooked Approach to Faster and More Accurate Models」中,給出了模型集成和模型級聯(lián)兩種方法。

https://arxiv.org/pdf/2012.01988.pdf

這兩種方法都是通過收集現(xiàn)有模型并組合它們的輸出來構建新模型的簡單方法。

研究證明,即使是少量易于構建的模型的集合也可以匹配或超過最先進模型的精度,同時效率顯著提高。

[[435897]]

Wang Xiaofang是卡內基梅隆大學機器人研究所的一名博士研究生,本科就讀于北京大學計算機科學專業(yè),是IJCV、TIP、ACM Computing Surveys等期刊的審稿人,也是CVPR、ICCV、ECCV、NeurIPS、ICML、ICLR等會議的審稿人。

什么是模型集成和級聯(lián)?

集成(ensemble)和級聯(lián)(cascade)是相關的方法,它們利用多個模型的優(yōu)勢來實現(xiàn)更好的解決方案。

集成并行執(zhí)行多個模型,然后組合它們的輸出來進行最終預測。

級聯(lián)是集合的子集,但是順序執(zhí)行收集的模型,并且一旦預測具有足夠高的置信度,就合并解。

對于簡單的輸入,級聯(lián)使用較少的計算,但是對于更復雜的輸入,可能會調用更多的模型,從而導致更高的計算成本。

集成和級聯(lián)概述,此示例顯示了集成和級聯(lián)的二模型組合。

與單一模型相比,如果收集到的模型預測存在差異,集成可以提供更高的準確性。

例如,ImageNet中的大多數(shù)圖像對于現(xiàn)在的圖像識別模型來說很容易分類,但是有許多圖像的預測在模型之間有所不同,這種情況下,模型集成受益最大。

雖然集成(ensemble)是眾所周知的,但它們通常不被認為是深度模型架構的核心構建塊,并且在研究人員開發(fā)更高效的模型時很少被探索。

因此,該工作對集成效率進行了全面的分析,并表明簡單的集成或現(xiàn)成預訓練模型的級聯(lián)可以提高最先進模型的效率和準確性。

模型集成有以下有益特性:

  1. 易于構建:集成不需要復雜的技術(例如,早期退出學習)。
  2. 易于維護:模型經(jīng)過獨立訓練,易于維護和部署。
  3. 可負擔的訓練成本:一個集合中模型的總訓練成本通常低于同樣精確的單個模型。
  4. 設備加速:計算成本的降低成功地轉化為真實硬件上的加速。

效率和訓練速度

集成可以提高準確性并不奇怪,但是在集成中使用多個模型可能會在運行時引入額外的計算成本。

問題來了,一個模型集合是否能比具有相同計算成本的單個模型更精確呢?

通過分析一系列模型,從EfficientNet-B0到EfficientNet-B7,當應用于ImageNet輸入時,它們具有不同的精度和浮點運算水平(FLOPS)。

集成模型比ImageNet上的單一模型精度更高,同時使用的FLOPs更少。

集成預測是通過平均每個單獨模型的預測來計算的。

他們發(fā)現(xiàn),在大計算量范圍內(大于 5B FLOPS),集成明顯更具成本效益。

例如,兩個EfficientNet-B5模型的集成可以匹配單個EfficientNet-B7模型的精度,但是使用大約50%的FLOPS。

在大計算量范圍內(超過5B FLOPS),模型集成優(yōu)于單個模型。

這表明,在這種情況下,應該使用多個小得多的模型的集合,而不是使用大的模型,這將降低計算要求,同時保持準確性。

此外,集成的訓練成本可以低得多(例如,訓練兩個B5模型需要總共96個TPU天;訓練一個B7模型需要160TPU天)。

在實踐中,模型集成訓練可以使用多個加速器并行化,從而進一步減少訓練時長。這種模式也適用于ResNet和MobileNet系列。

級聯(lián)的強大和簡潔

雖然我們已經(jīng)演示了模型集成的效用,但是應用集成對于簡單的輸入來說往往是浪費的,因為集成的子集會給出正確的答案。

在這些情況下,級聯(lián)通過允許提前退出來節(jié)省計算量,可能會在使用所有模型之前停止并輸出答案,而挑戰(zhàn)在于確定何時退出級聯(lián)。

級聯(lián)(cascade)算法偽代碼

為了突出級聯(lián)的實際好處,選擇一種簡單的啟發(fā)式方法來測量預測的置信度:將模型的置信度視為分配給每個類的概率的最大值。

例如,如果圖像是貓、狗或馬的預測概率分別為20%、80%和20%,則模型預測(狗)的置信度為0.8,使用置信度得分的閾值來確定何時退出級聯(lián)。

為了測試這種方法,他們?yōu)镋fficientNet、ResNet和MobileNetV2系列構建模型級聯(lián),以匹配計算成本或精度(將級聯(lián)限制為最多四個模型)。

集成在大計算量區(qū)域工作良好,級聯(lián)在所有計算量區(qū)域都顯示出優(yōu)勢。

通過級聯(lián)設計,一些困難的圖像輸入比簡單的圖像需要更多的FLOPS,因為更具挑戰(zhàn)性的輸入比更容易的輸入在級聯(lián)中經(jīng)歷更多的模型。

而所有測試圖像的平均FLOPS計算結果表明,級聯(lián)在所有計算領域都優(yōu)于單個模型(當FLOPS的范圍從0.15B到37B時),并且可以提高所有測試模型的精度或減少FLOPS(有時兩者都有)。

當使用類似的FLOPS時,級聯(lián)比單個模型獲得更高的精度(由指向上方的紅色箭頭顯示)。級聯(lián)也可以匹配具有明顯更少FLOPS的單一模型的精度,例如B7為5.4倍(綠色箭頭指向左側)。

在某些情況下,限制因素不是平均計算成本,而是最壞情況下的成本。通過在級聯(lián)構建過程中添加簡單的約束,可以保證級聯(lián)計算成本的上限。

除了卷積神經(jīng)網(wǎng)絡,研究人員還考慮了基于Transformer架構的ViT。

他們構建了ViT-Base和ViT-Large模型的級聯(lián),以匹配單個最先進的ViT-Large模型的平均計算或精度,并表明級聯(lián)的優(yōu)勢也適用于基于Transformer的架構。

ViT模型的級聯(lián)在ImageNet上的表現(xiàn)。級聯(lián)可以以相似的吞吐量實現(xiàn)比ViT-L-384高1.0%的精度,或者在與其精度匹配的情況下實現(xiàn)比該模型高2.3倍的速度。

推理結果

上面的分析中使用了FLOPS進行平均來衡量計算成本,而驗證級聯(lián)的FLOPS降低實際上轉化為了硬件加速也很重要。

TPUv3上用于在線處理的級聯(lián)的平均延遲。每對相同顏色的條形都有相當?shù)木_度,而級聯(lián)可以大幅降低延遲。

通過比較性能相似的單一模型與級聯(lián)模型在設備上的延遲和加速,他們發(fā)現(xiàn)與精度相當?shù)膯蝹€模型相比,高效網(wǎng)絡的級聯(lián)模型在TPUv3上的平均在線延遲降低了高達5.5倍。隨著模型越來越大,類似級聯(lián)帶來的速度提升也越來越多。

 

 

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-10-16 12:31:17

人工智能數(shù)據(jù)

2024-10-28 07:20:00

AI模型

2024-03-04 08:15:00

2023-07-17 09:21:12

Meta模型

2023-11-16 15:58:00

訓練數(shù)據(jù)

2023-12-13 12:55:39

模型數(shù)據(jù)

2023-06-16 09:45:36

AI視頻

2023-07-26 14:35:12

論文方法

2023-10-28 13:29:27

2024-08-16 14:20:00

模型微調

2023-09-18 11:25:00

2023-12-06 12:42:25

2025-08-15 12:27:27

2021-12-31 09:34:22

PyTorchtransformer模型

2020-10-05 22:00:59

深度學習編程人工智能

2024-10-22 17:24:32

2023-06-29 17:46:31

模型谷歌

2021-09-30 11:27:58

模型人工智能神經(jīng)網(wǎng)絡

2024-07-09 13:29:37

新架構RNNFPS

2023-06-30 13:01:26

點贊
收藏

51CTO技術棧公眾號