偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

建神經(jīng)網(wǎng)絡模型,哪種優(yōu)化算法更好?35000次測試告訴你

新聞 人工智能 算法
想要優(yōu)化自己的神經(jīng)網(wǎng)絡,卻不知道哪種優(yōu)化器更適合自己?現(xiàn)在,最全面的優(yōu)化算法分析來了。

 本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

想要優(yōu)化自己的神經(jīng)網(wǎng)絡,卻不知道哪種優(yōu)化器更適合自己?

又或者,想知道深度學習中梯度下降的算法到底都有哪些?

建神經(jīng)網(wǎng)絡模型,哪種優(yōu)化算法更好?35000次測試告訴你

現(xiàn)在,最全面的優(yōu)化算法分析來了。

它整理了自1964年以來,幾乎所有的優(yōu)化方法 (約130種),將它們進行了分類。

此外,它還給出了幾種基準測試方法,并用它分析了1344種可能的配置方案。

在運行了35000次測試后,它給出了非常全面的優(yōu)化器算法分析介紹,并告訴你如何用這些基準測試,為自己的深度學習模型選擇最好的優(yōu)化方案。

優(yōu)化方法具體都有哪幾種?

從下圖這份密密麻麻的圖表來看,迄今為止,提出的優(yōu)化算法已經(jīng)有130種左右。

建神經(jīng)網(wǎng)絡模型,哪種優(yōu)化算法更好?35000次測試告訴你

目前他們還看不出來區(qū)別,但在測試結(jié)果中可以發(fā)現(xiàn),這些優(yōu)化器明顯能被分成兩類,一種適用于VAE(變分自編碼器),另一種則不適用于VAE。

而從這些優(yōu)化器中的常用參數(shù)來看,α0表示初始學習率,αlo和αup代表上下界,∆t表示切換衰減樣式的周期,k表示衰減因子。

可以看出,這些學習率的參數(shù)主要可以被分為常數(shù)、梯度下降、平滑下降、周期性、預熱、超收斂等幾種。

建神經(jīng)網(wǎng)絡模型,哪種優(yōu)化算法更好?35000次測試告訴你

那么,130多種優(yōu)化器,哪種才是最適用的?而對這些參數(shù)進行調(diào)整,到底能對優(yōu)化器起到多大的作用?

用基準測試方法來測測,就知道了。

8種基準測試方法

如下圖,作者提出了8種優(yōu)化任務,在這些任務上面進行測試,以得到對比結(jié)果。

建神經(jīng)網(wǎng)絡模型,哪種優(yōu)化算法更好?35000次測試告訴你

從圖中看來,無論是數(shù)據(jù)集(MNIST、CIFAR-10等)、模型(VAE、CNN、RNN等),還是任務(分類、NLP等)和標準(損失率、精度)都不一樣。

此外,batchsize也考慮在內(nèi)(看來實驗機器性能不錯)。制作這些測試的目的在于,多角度考量出這些優(yōu)化方法的合理性。

測試按照下圖流程走,整體算下來,共有1344種配置,共運行接近35000次。

建神經(jīng)網(wǎng)絡模型,哪種優(yōu)化算法更好?35000次測試告訴你

為了得知哪種優(yōu)化方法更合適,這樣做也是很拼了。

如何選擇適合自己的優(yōu)化方法?

那么,具體如何選擇適合的優(yōu)化方法呢?

下圖是作者隨機選取的14個優(yōu)化器。

建神經(jīng)網(wǎng)絡模型,哪種優(yōu)化算法更好?35000次測試告訴你

下圖是這些優(yōu)化器在上面8種基準測試下的表現(xiàn)結(jié)果。

建神經(jīng)網(wǎng)絡模型,哪種優(yōu)化算法更好?35000次測試告訴你

其中,紅色的I表示誤差范圍??梢钥闯?,在一定誤差范圍內(nèi),某一類優(yōu)化方法的性能幾乎非常相似:它們在各種基準測試上的表現(xiàn)都不錯。

為了驗證這些測試方法的穩(wěn)定性,作者特意對其中一些算法進行了參數(shù)調(diào)整,下圖是經(jīng)典算法RMSProp和RMSProp(2)的調(diào)優(yōu)結(jié)果。

建神經(jīng)網(wǎng)絡模型,哪種優(yōu)化算法更好?35000次測試告訴你

可見,不同的參數(shù)能給優(yōu)化算法的性能帶來不小的波動變化。

更直接地,如果增加(性能)預算,從下圖可以看出,性能的改進也會有所增加。(圖中橙色為所有灰線的中值)

建神經(jīng)網(wǎng)絡模型,哪種優(yōu)化算法更好?35000次測試告訴你

也就是說,即使優(yōu)化算法的性能不錯,合理調(diào)參仍然不可或缺。

那么,到底有多少優(yōu)化器存在“改進參數(shù),竟然能大幅增加優(yōu)化能力”的問題呢?

還不少。

從下圖來看,綠色表示優(yōu)化過后,優(yōu)化算法能更好地運行。

建神經(jīng)網(wǎng)絡模型,哪種優(yōu)化算法更好?35000次測試告訴你

換而言之,只要某種優(yōu)化算法的結(jié)果是一片綠,那么它原來的默認參數(shù)就真的很糟糕……

例如,AMSGrad、Mom、NAG的默認參數(shù)都存在很大的改進空間。相比而言,AMSBound由于自適應,默認參數(shù)都還非常不錯,不需要再有大改進。

對這些優(yōu)化器進行評估后,研究者們得出以下幾個結(jié)論:

1、優(yōu)化器的性能,在不同的任務中有很大差異;

2、事實上,大部分優(yōu)化器的性能驚人地相似,目前尚沒有“最通用”的優(yōu)化方法;

3、對優(yōu)化器進行(參數(shù))微調(diào),其實和選擇優(yōu)化器一樣重要、甚至更重要。

不過,雖然這份表格已經(jīng)非常詳細,還是有細心的網(wǎng)友發(fā)現(xiàn)了盲點:像SWA這樣非常簡單高效的方法,還是在分析時被遺漏了。

建神經(jīng)網(wǎng)絡模型,哪種優(yōu)化算法更好?35000次測試告訴你

當然,就提出的幾種基準測試來說,已經(jīng)適合用于分析大部分優(yōu)化器的選擇方案。

目前,作者已經(jīng)在ArXiv論文頁面,開源了基準測試方法的Code,感興趣的小伙伴可戳論文地址查看~

作者介紹

這幾位作者都來自于德國圖賓根大學。

[[346233]]

Robin M. Schmidt,計算機專業(yè)研究生,主要研究方向是人工智能,感興趣的方向在深度學習、強化學習及優(yōu)化上。

[[346234]]

Philipp Hennig,機器學習教授,兼任馬普所科學家,曾于海德堡大學和帝國理工學院修讀物理,并在劍橋大學獲得機器學習博士學位。

[[346235]]

Frank Schneider,機器學習博士生,研究領(lǐng)域是機器學習的優(yōu)化方法。目前在鉆研深度學習的超參數(shù),使深度神經(jīng)網(wǎng)絡的訓練自動化。

論文地址:

https://arxiv.org/abs/2007.01547

 

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2022-04-07 09:01:52

神經(jīng)網(wǎng)絡人工智能

2023-04-06 16:21:52

2017-03-10 12:16:46

機器學習

2019-01-05 08:40:17

VGG神經(jīng)網(wǎng)絡

2017-07-12 16:56:42

卷積神經(jīng)網(wǎng)絡結(jié)構(gòu)數(shù)據(jù)CNN

2017-07-05 15:42:58

卷積神經(jīng)網(wǎng)絡Non-Euclide計算機視覺

2020-09-09 10:20:48

GraphSAGE神經(jīng)網(wǎng)絡人工智能

2017-03-22 12:13:36

AI神經(jīng)網(wǎng)絡模型算法

2025-09-01 07:18:14

2019-04-19 08:18:37

神經(jīng)網(wǎng)絡數(shù)據(jù)圖形

2019-01-25 18:00:12

編程語言PythonJava

2017-11-30 18:05:18

2024-09-12 08:28:32

2020-08-20 07:00:00

深度學習人工智能技術(shù)

2024-10-17 13:05:35

神經(jīng)網(wǎng)絡算法機器學習深度學習

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡生物神經(jīng)網(wǎng)絡人工神經(jīng)網(wǎng)絡

2018-09-09 23:58:25

可視化神經(jīng)網(wǎng)絡模型

2018-05-16 09:41:13

神經(jīng)網(wǎng)絡NN函數(shù)

2017-08-28 21:31:37

TensorFlow深度學習神經(jīng)網(wǎng)絡

2025-03-31 08:50:00

模型量化神經(jīng)網(wǎng)絡AI
點贊
收藏

51CTO技術(shù)棧公眾號