偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

模型難復現(xiàn)不一定是作者的錯,研究發(fā)現(xiàn)模型架構(gòu)要背鍋

人工智能 深度學習
深度學習中的決策邊界,可以用來最小化誤差。簡單來說,分類器會通過決策邊界,把線內(nèi)線外的點歸為不同類。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

不同初始化條件下,同一神經(jīng)網(wǎng)絡經(jīng)過兩次訓練可以得到相同的結(jié)果嗎?

CVPR 2022的一篇研究通過將決策邊界 (Decision Boundary)可視化的方法,給出了答案——

有的容易,有的很難。

例如,從下面這張圖來看,研究人員就發(fā)現(xiàn),ViT比ResNet要更難復現(xiàn)(兩次訓練過后,顯然ViT決策邊界的差異更大):

研究人員還發(fā)現(xiàn),模型的可復現(xiàn)性和模型本身的寬度也有很大關聯(lián)。

同樣,他們利用這種方法,對2019年機器學習最重要的理論之一——雙下降 (Double Descent)現(xiàn)象進行了可視化,最終也發(fā)現(xiàn)了一些很有意思的現(xiàn)象。

來看看他們具體是怎么做的。

更寬的CNN模型,可復現(xiàn)性更高

深度學習中的決策邊界,可以用來最小化誤差。

簡單來說,分類器會通過決策邊界,把線內(nèi)線外的點歸為不同類。

在這項研究中,作者從CIFAR-10訓練集中選擇了三幅隨機圖像,然后使用三次不同的隨機初始化配置在7種不同架構(gòu)上訓練,繪制出各自的決策區(qū)域。

從中我們可以發(fā)現(xiàn):

左邊三個和右邊四個差異很大,也就是說不同架構(gòu)之間的相似性很低。

再進一步觀察,左邊的全連接網(wǎng)絡、ViT和MLP Mixer之間的決策邊界圖又不太一樣,而右邊CNN模型的則很相似。

在CNN模型中,我們還可以觀察到不同隨機數(shù)種子之間明顯的的重復性趨勢,這說明不同初始化配置的模型可以產(chǎn)生一樣的結(jié)果。

作者設計了一種更直觀的度量方法來衡量各架構(gòu)的可復現(xiàn)性得分,結(jié)果確實驗證了我們的直觀感受:

并發(fā)現(xiàn)更寬的CNN模型似乎在其決策區(qū)域具有更高的可復現(xiàn)性,比如WideRN30。

以及采用殘差連接結(jié)構(gòu)的CNN模型(ResNet和DenseNet )的可復現(xiàn)性得分比無此連接的模型要略高(VGG)。

此外,優(yōu)化器的選擇也會帶來影響。

在下表中,我們可以看到SAM比標準優(yōu)化器(如SGD和Adam)產(chǎn)生了更多可重復的決策邊界。

不過對于MLP Mixer和ViT,SAM的使用不能總是保證模型達到最高的測試精度。

有網(wǎng)友表示好奇,如果通過改善模型本身的設計,能改變這種現(xiàn)象嗎?

對此作者回應稱,他們已經(jīng)試著調(diào)整過ViT的學習率,但得到的結(jié)果仍然比ResNet差。

可視化ResNet-18的雙下降現(xiàn)象

雙下降(Double Descent)是一個有趣的概念,描述是測試/訓練誤差與模型大小的關系。

在此之前,大家普遍認為參數(shù)太少的模型泛化能力差——因為欠擬合;參數(shù)太多的模型泛化能力也差——因為過擬合。

而它證明,兩者的關系沒有那么簡單。具體來說:

誤差會隨著模型的增大而減小,然后經(jīng)過模型過擬合,誤差又增大,但隨著模型大小或訓練時間的進一步增加,誤差又會再次減小。

作者則繼續(xù)使用決策邊界方法,可視化了ResNet-18的雙下降現(xiàn)象。

他們通過寬度參數(shù)(k:1-64)的改變來增加模型容量。

訓練出的兩組模型,其中一組使用無噪聲標簽(label noise)的訓練集,另一組則帶有20%的噪聲標簽。

最終,在第二組模型中觀察到了明顯的雙下降現(xiàn)象。

對此作者表示:

線性模型預測的模型不穩(wěn)定性也適用于神經(jīng)網(wǎng)絡,不過這種不穩(wěn)定性表現(xiàn)為決策區(qū)域的大量碎片。

也就說,雙下降現(xiàn)象是由噪聲標簽情況下決策區(qū)域的過度碎片引起的。

具體來說,當k接近/達到10 (也就是插值閾值)時,由于模型此時擬合了大部分訓練數(shù)據(jù),決策區(qū)域被分割成很多小塊,變得“混亂和破碎”,并不具備可重復性;此時模型的分類功能存在明顯的不穩(wěn)定性。

而在模型寬度很窄(k=4)和很寬(k=64)時,決策區(qū)域碎片較少,有高水平的可重復性。

為了進一步證明該結(jié)果,作者又設計了一個碎片分數(shù)計算方法,最終再次驗證上圖的觀察結(jié)果。

模型的可復現(xiàn)性得分如下:

同樣可以看到,在參數(shù)化不足和過參數(shù)化的情況下,整個訓練過程的可復現(xiàn)性很高,但在插值閾值處會出現(xiàn)“故障”。

有趣的是,即使沒有噪聲標簽,研究人員發(fā)現(xiàn)他們設計的量化方法也足夠敏感,可以檢測到可復現(xiàn)性的細微下降(上圖藍線部分)。

目前代碼已經(jīng)開源,要不要來試試你的模型是否容易復現(xiàn)?

論文地址:

https://arxiv.org/abs/2203.08124

GitHub鏈接:

https://github.com/somepago/dbVi

責任編輯:張燕妮 來源: 量子位
相關推薦

2009-11-25 09:20:31

Windows 7網(wǎng)絡掉線

2024-07-22 08:15:30

2021-06-18 10:29:17

物聯(lián)網(wǎng)安全互聯(lián)網(wǎng)IoT

2021-07-19 10:15:53

Java絕對值代碼

2019-08-19 07:54:20

2021-01-19 21:45:09

PHP語言開發(fā)

2020-08-30 14:31:40

Python編程語言開發(fā)

2025-03-12 06:55:00

2016-10-17 18:00:46

WIFIWIFI信號

2021-02-26 09:04:22

數(shù)組ArrayListHashMap

2019-09-05 10:13:28

2022-08-15 13:59:10

XaaS云計算

2013-05-14 10:41:16

Palo AltoNGFWUTM

2010-11-17 11:11:44

跳槽

2021-01-29 09:17:00

深度學習AI人工智能

2018-01-18 05:20:59

2021-10-11 14:30:50

人工智能數(shù)據(jù)技術

2022-12-26 09:16:45

Guava架構(gòu)模型

2016-11-28 11:19:48

術語神秘

2025-02-21 09:40:00

模型訓練數(shù)據(jù)
點贊
收藏

51CTO技術棧公眾號