偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Yann LeCun團隊新研究成果:對自監(jiān)督學習逆向工程,原來聚類是這樣實現(xiàn)的

人工智能 新聞
自監(jiān)督學習的聚類到底是怎么回事?Yann LeCun 等研究者進行一番「逆向工程」。

自監(jiān)督學習(SSL)在最近幾年取得了很大的進展,在許多下游任務上幾乎已經(jīng)達到監(jiān)督學習方法的水平。但是,由于模型的復雜性以及缺乏有標注訓練數(shù)據(jù)集,我們還一直難以理解學習到的表征及其底層的工作機制。此外,自監(jiān)督學習中使用的 pretext 任務通常與特定下游任務的直接關系不大,這就進一步增大了解釋所學習到的表征的復雜性。而在監(jiān)督式分類中,所學到的表征的結構往往很簡單。

相比于傳統(tǒng)的分類任務(目標是準確將樣本歸入特定類別),現(xiàn)代 SSL 算法的目標通常是最小化包含兩大成分的損失函數(shù):一是對增強過的樣本進行聚類(不變性約束),二是防止表征坍縮(正則化約束)。舉個例子,對于同一樣本經(jīng)過不同增強之后的數(shù)據(jù),對比式學習方法的目標是讓這些樣本的分類結果一樣,同時又要能區(qū)分經(jīng)過增強之后的不同樣本。另一方面,非對比式方法要使用正則化器(regularizer)來避免表征坍縮。

自監(jiān)督學習可以利用輔助任務(pretext)無監(jiān)督數(shù)據(jù)中挖掘自身的監(jiān)督信息,通過這種構造的監(jiān)督信息對網(wǎng)絡進行訓練,從而可以學習到對下游任務有價值的表征。近日,圖靈獎得主 Yann LeCun 在內(nèi)的多位研究者發(fā)布了一項研究,宣稱對自監(jiān)督學習進行了逆向工程,讓我們得以了解其訓練過程的內(nèi)部行為。

圖片

論文地址:https://arxiv.org/abs/2305.15614v2

這篇論文通過一系列精心設計的實驗對使用 SLL 的表征學習進行了深度分析,幫助人們理解訓練期間的聚類過程。具體來說,研究揭示出增強過的樣本會表現(xiàn)出高度聚類的行為,這會圍繞共享同一圖像的增強樣本的含義嵌入形成質心。更出人意料的是,研究者觀察到:即便缺乏有關目標任務的明確信息,樣本也會根據(jù)語義標簽發(fā)生聚類。這表明 SSL 有能力根據(jù)語義相似性對樣本進行分組。

問題設置

由于自監(jiān)督學習(SSL)通常用于預訓練,讓模型做好準備適應下游任務,這帶來了一個關鍵問題:SSL 訓練會對所學到的表征產(chǎn)生什么影響?具體來說,訓練期間 SSL 的底層工作機制是怎樣的,這些表征函數(shù)能學到什么類別?

為了調(diào)查這些問題,研究者在多種設置上訓練了 SSL 網(wǎng)絡并使用不同的技術分析了它們的行為。

數(shù)據(jù)和增強:本文提到的所有實驗都使用了 CIFAR100 圖像分類數(shù)據(jù)集。為了訓練模型,研究者使用了 SimCLR 中提出的圖像增強協(xié)議。每一個 SSL 訓練 session 都執(zhí)行 1000 epoch,使用了帶動量的 SGD 優(yōu)化器。

骨干架構:所有的實驗都使用了 RES-L-H 架構作為骨干,再加上了兩層多層感知器(MLP)投射頭。

線性探測(linear probing):為了評估從表征函數(shù)中提取給定離散函數(shù)(例如類別)的有效性,這里使用的方法是線性探測。這需要基于該表征訓練一個線性分類器(也稱為線性探針),這需要用到一些訓練樣本。

樣本層面的分類:為了評估樣本層面的可分離性,研究者創(chuàng)建了一個專門的新數(shù)據(jù)集。

其中訓練數(shù)據(jù)集包含來自 CIFAR-100 訓練集的 500 張隨機圖像。每張圖像都代表一個特定類別并會進行 100 種不同的增強。因此,訓練數(shù)據(jù)集包含 500 個類別的共計 50000 個樣本。測試集依然是用這 500 張圖像,但要使用 20 種不同的增強,這些增強都來自同一分布。因此,測試集中的結果由 10000 個樣本構成。為了在樣本層面衡量給定表征函數(shù)的線性或 NCC(nearest class-center / 最近類別中心)準確度,這里采用的方法是先使用訓練數(shù)據(jù)計算出一個相關的分類器,然后再在相應測試集上評估其準確率。

揭示自監(jiān)督學習的聚類過程

在幫助分析深度學習模型方面,聚類過程一直以來都發(fā)揮著重要作用。為了直觀地理解 SSL 訓練,圖 1 通過 UMAP 可視化展示了網(wǎng)絡的訓練樣本的嵌入空間,其中包含訓練前后的情況并分了不同層級。

圖片

圖 1:SSL 訓練引起的語義聚類

正如預期的那樣,訓練過程成功地在樣本層面上對樣本進行了聚類,映射了同一圖像的不同增強(如第一行圖示)??紤]到目標函數(shù)本身就會鼓勵這種行為(通過不變性損失項),因此這樣的結果倒是不意外。然而,更值得注意的是,該訓練過程還會根據(jù)標準 CIFAR-100 數(shù)據(jù)集的原始「語義類別」進行聚類,即便該訓練過程期間缺乏標簽。有趣的是,更高的層級(超類別)也能被有效聚類。這個例子表明,盡管訓練流程直接鼓勵的是樣本層面的聚類,但 SSL 訓練的數(shù)據(jù)表征還會在不同層面上根據(jù)語義類別來進行聚類。

為了進一步量化這個聚類過程,研究者使用 VICReg 訓練了一個 RES-10-250。研究者衡量的是 NCC 訓練準確度,既有樣本層面的,也有基于原始類別的。值得注意的是,SSL 訓練的表征在樣本層面上展現(xiàn)出了神經(jīng)坍縮(neural collapse,即 NCC 訓練準確度接近于 1.0),然而在語義類別方面的聚類也很顯著(在原始目標上約為 0.41)。

如圖 2 左圖所示,涉及增強(網(wǎng)絡直接基于其訓練的)的聚類過程大部分都發(fā)生在訓練過程初期,然后陷入停滯;而在語義類別方面的聚類(訓練目標中并未指定)則會在訓練過程中持續(xù)提升。

圖片

圖 2:SSL 算法根據(jù)語義目標對對數(shù)據(jù)的聚類

之前有研究者觀察到,監(jiān)督式訓練樣本的頂層嵌入會逐漸向一個類質心的結構收斂。為了更好地理解 SSL 訓練的表征函數(shù)的聚類性質,研究者調(diào)查了 SSL 過程中的類似情況。其 NCC 分類器是一種線性分類器,其表現(xiàn)不會超過最佳的線性分類器。通過評估 NCC 分類器與同樣數(shù)據(jù)上訓練的線性分類器的準確度之比,能夠在不同粒度層級上研究數(shù)據(jù)聚類。圖 2 的中圖給出了樣本層面類別和原始目標類別上的這一比值的變化情況,其值根據(jù)初始化的值進行了歸一化。隨著 SSL 訓練的進行,NCC 準確度和線性準確度之間的差距會變小,這說明增強后的樣本會根據(jù)其樣本身份和語義屬性逐漸提升聚類水平。

此外,該圖還說明,樣本層面的比值起初會高一些,這說明增強后的樣本會根據(jù)它們的身份進行聚類,直到收斂至質心(NCC 準確度和線性準確度的比值在 100 epoch 時 ≥ 0.9)。但是,隨著訓練繼續(xù),樣本層面的比值會飽和,而類別層面的比值會繼續(xù)增長并收斂至 0.75 左右。這說明增強后的樣本首先會根據(jù)樣本身份進行聚類,實現(xiàn)之后,再根據(jù)高層面的語義類別進行聚類。

SSL 訓練中隱含的信息壓縮

如果能有效進行壓縮,那么就能得到有益又有用的表征。但 SSL 訓練過程中是否會出現(xiàn)那樣的壓縮卻仍是少有人研究的課題。

為了了解這一點,研究者使用了互信息神經(jīng)估計(Mutual Information Neural Estimation/MINE),這種方法可以估計訓練過程中輸入與其對應嵌入表征之間的互信息。這個度量可用于有效衡量表征的復雜度水平,其做法是展現(xiàn)其編碼的信息量(比特數(shù)量)。

圖 3 的中圖報告了在 5 個不同的 MINE 初始化種子上計算得到的平均互信息。如圖所示,訓練過程會有顯著的壓縮,最終形成高度緊湊的訓練表征。

圖片

圖 3:(左)一個 SSL 訓練的模型在訓練期間的正則化和不變性損失以及原始目標線性測試準確度。(中)訓練期間輸入和表征之間的互信息的壓縮。(右)SSL 訓練學習聚類的表征。

正則化損失的作用

目標函數(shù)包含兩項:不變性和正則化。不變性項的主要功能是強化同一樣本的不同增強的表征之間的相似性。而正則化項的目標是幫助防止表征坍縮。

為了探究這些分量對聚類過程的作用,研究者將目標函數(shù)分解為了不變性項和正則化項,并觀察它們在訓練過程中的行為。比較結果見圖 3 左圖,其中給出了原始語義目標上的損失項的演變以及線性測試準確度。不同于普遍流行的想法,不變性損失項在訓練過程中并不會顯著改善。相反,損失(以及下游的語義準確度)的改善是通過降低正則化損失實現(xiàn)的。

由此可以得出結論:SSL 的大部分訓練過程都是為了提升語義準確度和所學表征的聚類,而非樣本層面的分類準確度和聚類。

從本質上講,這里的發(fā)現(xiàn)表明:盡管自監(jiān)督學習的直接目標是樣本層面的分類,但其實大部分訓練時間都用于不同層級上基于語義類別的數(shù)據(jù)聚類。這一觀察結果表明 SSL 方法有能力通過聚類生成有語義含義的表征,這也讓我們得以了解其底層機制。

監(jiān)督學習和 SSL 聚類的比較

深度網(wǎng)絡分類器往往是基于訓練樣本的類別將它們聚類到各個質心。但學習得到的函數(shù)要能真正聚類,必須要求這一性質對測試樣本依然有效;這是我們期望得到的效果,但效果會差一點。

這里有一個有趣的問題:相比于監(jiān)督學習的聚類,SSL 能在多大程度上根據(jù)樣本的語義類別來執(zhí)行聚類?圖 3 右圖報告了在不同場景(使用和不使用增強的監(jiān)督學習以及 SSL)的訓練結束時的 NCC 訓練和測試準確度比率。

盡管監(jiān)督式分類器的 NCC 訓練準確度為 1.0,顯著高于 SSL 訓練的模型的 NCC 訓練準確度,但 SSL 模型的 NCC 測試準確度卻略高于監(jiān)督式模型的 NCC 測試準確度。這說明兩種模型根據(jù)語義類別的聚類行為具有相似的程度。有意思的是,使用增強樣本訓練監(jiān)督式模型會稍微降低 NCC 訓練準確度,卻會大幅提升 NCC 測試準確度。

探索語義類別學習和隨機性的影響

語義類別是根據(jù)輸入的內(nèi)在模式來定義輸入和目標的關系。另一方面,如果將輸入映射到隨機目標,則會看到缺乏可辨別的模式,這會導致輸入和目標之間的連接看起來很任意。

研究者還探究了隨機性對模型學習所需目標的熟練程度的影響。為此,他們構建了一系列具有不同隨機度的目標系統(tǒng),然后檢查了隨機度對所學表征的影響。他們在用于分類的同一數(shù)據(jù)集上訓練了一個神經(jīng)網(wǎng)絡分類器,然后使用其不同 epoch 的目標預測作為具有不同隨機度的目標。在 epoch 0 時,網(wǎng)絡是完全隨機的,會得到確定的但看似任意的標簽。隨著訓練進行,其函數(shù)的隨機性下降,最終得到與基本真值目標對齊的目標(可認為是完全不隨機)。這里將隨機度歸一化到 0(完全不隨機,訓練結束時)到 1(完全隨機,初始化時)之間。

圖 4 左圖展示了不同隨機度目標的線性測試準確度。每條線都對應于不同隨機度的 SSL 不同訓練階段的準確度??梢钥吹剑谟柧氝^程中,模型會更高效地捕獲與「語義」目標(更低隨機度)更接近的類別,同時在高隨機度的目標上沒有表現(xiàn)出顯著的性能改進。

圖片

圖 4:SSL 持續(xù)學習語義目標,而非隨機目標

深度學習的一個關鍵問題是理解中間層對分類不同類型類別的作用和影響。比如,不同的層會學到不同類型的類別嗎?研究者也探索了這個問題,其做法是在訓練結束時不同目標隨機度下評估不同層表征的線性測試準確度。如圖 4 中圖所示,隨著隨機度下降,線性測試準確度持續(xù)提升,更深度的層在所有類別類型上都表現(xiàn)更優(yōu),而對于接近語義類別的分類,性能差距會更大。

研究者還使用了其它一些度量來評估聚類的質量:NCC 準確度、CDNV、平均每類方差、類別均值之間的平均平方距離。為了衡量表征隨訓練進行的改進情況,研究者為語義目標和隨機目標計算了這些指標的比率。圖 4 右圖展示了這些比率,結果表明相比于隨機目標,表征會更加偏向根據(jù)語義目標來聚類數(shù)據(jù)。有趣的是,可以看到 CDNV(方差除以平方距離)會降低,其原因僅僅是平方距離的下降。方差比率在訓練期間相當穩(wěn)定。這會鼓勵聚類之間的間距拉大,這一現(xiàn)象已被證明能帶來性能提升。

了解類別層級結構和中間層

之前的研究已經(jīng)證明,在監(jiān)督學習中,中間層會逐漸捕獲不同抽象層級的特征。初始的層傾向于低層級的特征,而更深的層會捕獲更抽象的特征。接下來,研究者探究了 SSL 網(wǎng)絡能否學習更高層面的層次屬性以及哪些層面與這些屬性的關聯(lián)性更好。

在實驗中,他們計算了三個層級的線性測試準確度:樣本層級、原始的 100 個類別、20 個超類別。圖 2 右圖給出了為這三個不同類別集計算的數(shù)量??梢杂^察到,在訓練過程中,相較于樣本層級的類別,在原始類別和超類別層級上的表現(xiàn)的提升更顯著。

接下來是 SSL 訓練的模型的中間層的行為以及它們捕獲不同層級的目標的能力。圖 5 左和中圖給出了不同訓練階段在所有中間層上的線性測試準確度,這里度量了原始目標和超目標。圖 5 右圖給出超類別和原始類別之間的比率。


圖片

圖 5:SSL 能在整體中間層中有效學習語義類別

研究者基于這些結果得到了幾個結論。首先,可以觀察到隨著層的深入,聚類效果會持續(xù)提升。此外,與監(jiān)督學習情況類似,研究者發(fā)現(xiàn)在 SSL 訓練期間,網(wǎng)絡每一層的線性準確度都有提升。值得注意的是,他們發(fā)現(xiàn)對于原始類別,最終層并不是最佳層。近期的一些 SSL 研究表明:下游任務能高度影響不同算法的性能。本文的研究拓展了這一觀察結果,并且表明網(wǎng)絡的不同部分可能適合不同的下游任務與任務層級。根據(jù)圖 5 右圖,可以看出,在網(wǎng)絡的更深層,超類別的準確度的提升幅度超過原始類別。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2021-03-05 12:58:31

AISEER模型

2024-10-16 16:00:00

訓練AI

2023-12-01 16:27:05

機器學習無監(jiān)督學習

2017-09-11 09:20:14

機器學習無監(jiān)督學習聚類

2022-05-17 16:38:40

數(shù)據(jù)訓練

2017-11-09 14:04:22

無監(jiān)督學習數(shù)據(jù)缺失數(shù)據(jù)集

2023-11-23 15:54:01

人工智能監(jiān)督學習無監(jiān)督學習

2023-11-13 15:01:28

機器學習

2023-04-26 13:51:57

監(jiān)督學習論文

2025-07-09 07:52:59

2024-11-18 08:40:00

2022-07-15 10:37:22

AI研究數(shù)據(jù)

2020-01-20 14:25:19

數(shù)據(jù)平臺架構

2023-03-27 17:45:16

研究AI

2014-12-15 09:57:43

綠色網(wǎng)格綠色數(shù)據(jù)中心

2020-04-28 17:26:04

監(jiān)督學習無監(jiān)督學習機器學習

2021-09-01 16:05:19

數(shù)據(jù)挖掘模型人工智能

2022-01-21 15:33:56

架構模型AI

2013-06-20 18:22:32

PTC制造業(yè)

2017-06-12 14:04:45

深度學習人工智能
點贊
收藏

51CTO技術棧公眾號