偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

深度神經(jīng)網(wǎng)絡中深度究竟帶來了什么?

人工智能 深度學習
人工智能近幾年實現(xiàn)了爆炸式發(fā)展,深度學習可以說是其主要的推動力。筆者對于能來微軟實習并從事深度學習方面的研究感到十分榮幸,因為微軟研究院在該領域一直處于領先的地位,其優(yōu)秀的人才配備和強大的計算資源都非常適合做這方面的研究。

[[186161]]

 緣起

人工智能近幾年實現(xiàn)了爆炸式發(fā)展,深度學習可以說是其主要的推動力。筆者對于能來微軟實習并從事深度學習方面的研究感到十分榮幸,因為微軟研究院在該領域一直處于領先的地位,其優(yōu)秀的人才配備和強大的計算資源都非常適合做這方面的研究。

在計算機視覺領域,大部分的問題都已經(jīng)開始使用深度神經(jīng)網(wǎng)絡進行解決,也確實取得了廣泛的成功。在很多視覺任務中,如圖像識別、語義分割、目標檢測與跟蹤、圖像檢索等,作為提取特征的CNN網(wǎng)絡模型往往起到了關鍵的作用。我們經(jīng)常見到***的方法將基礎網(wǎng)絡換一下,性能就會得到很大的提升。因此,研究并設計一個更好的網(wǎng)絡模型變得至關重要。

基礎網(wǎng)絡模型的結構樣例

***研究進展

經(jīng)典的神經(jīng)網(wǎng)絡模型主要在“寬度”與“深度”方面進行不同程度的擴增。借助于大規(guī)模數(shù)據(jù)的訓練,AlexNet、VGG-16、VGG-19等經(jīng)典網(wǎng)絡通過寬度或深度增加的參數(shù)可以有效地提升其模型的表達能力。但當網(wǎng)絡變得越來越深,其訓練難度也隨之相應增加,反而會導致性能的下降。最近的ResNet和Highway Networks等方法通過引入Skip跳躍結構來試圖解決極深網(wǎng)絡在優(yōu)化上帶來的問題。

ResNet和Highway Networks結構的簡單示意圖

***的一些研究嘗試從其他角度來解釋Highway、ResNet和GoogLeNet等網(wǎng)絡結構表現(xiàn)優(yōu)異的原因。其中我在微軟實習的導師王井東研究員、實習生魏禎和張婷以及曾文君研究員提出Deep Fusion (Jingdong Wang, Zhen Wei, Ting Zhang, Wenjun Zeng: Deeply-Fused Nets. CoRR abs/1605.07716 (2016))深度融合的概念,認為不同分支的網(wǎng)絡在中間層進行融合(加和或拼接等方式)能夠(1)產(chǎn)生很多潛在的共享參數(shù)的基礎網(wǎng)絡,(2)同時優(yōu)化信息的流動,(3)從而幫助深層網(wǎng)絡的訓練過程。

Deep Fusion深度融合最簡單形式的概念示意圖

我們可以發(fā)現(xiàn)很多有代表性的網(wǎng)絡結構基本都可以按照深度融合的概念進行理解。除去LeNet、AlexNet、VGGNet等單分支網(wǎng)絡,近兩年提出的ResNet、Highway Networks、GoogLeNet系列等網(wǎng)絡均可以看作是不同程度上的深度融合網(wǎng)絡。在這個概念下,我們發(fā)現(xiàn)今年新的Inception-v4、FractalNet、DenseNet、ResNeXt以及我們新提出的Merge-and-Run等網(wǎng)絡結構在融合方式上進行了更多的設計和探索,使得中間的融合次數(shù)和分支數(shù)目更多,從而得到更多的基礎網(wǎng)絡和更優(yōu)的信息流動,最終取得更好的性能表現(xiàn)。

近期一些深度神經(jīng)網(wǎng)絡模型的基本結構示意圖

康奈爾大學的Serge Belongie團隊也有類似的觀察與發(fā)現(xiàn),他們解釋ResNet其實是眾多相對較淺的潛在網(wǎng)絡的一個集成。在模型的測試階段發(fā)現(xiàn)將網(wǎng)絡中的一些模塊去掉,剩下的網(wǎng)絡模型依然具有不錯的表現(xiàn)。

將ResNet中的某些模塊移除的實驗示意

最近提出的一些新的深度神經(jīng)網(wǎng)絡方法也從側面印證了這方面的研究,如ResNet with Stochastic Depth、FractalNet和Swapout等使用Drop-path的方法與上述移除Residual模塊的研究有著異曲同工之妙。ResNet of ResNet、ResNeXt、Multi-Residual Networks和DenseNet等增加分支或路徑數(shù)目的方法均得到了性能上的提升,從某種程度上驗證了增加基礎網(wǎng)絡數(shù)目對整體網(wǎng)絡模型的影響。

我們的工作

我們沿著deep fusion的思路更進一步地研究了類似ResNet、Highway、Inception等結構的深度融合網(wǎng)絡,探索了“深度”在神經(jīng)網(wǎng)絡當中究竟帶來了什么?;谘芯坑^察與分析,我們又提出了一個新的網(wǎng)絡模型,在不同數(shù)據(jù)集上均取得了不錯的表現(xiàn)。

Liming Zhao, Jingdong Wang, Xi Li, Zhuowen Tu, and Wenjun Zeng. "On the Connection of Deep Fusion to Ensembling." arXiv preprint arXiv:1611.07718 (2016).

一、深度融合網(wǎng)絡剖析

首先我們從網(wǎng)絡結構和實驗分析上展示這種多分支融合的網(wǎng)絡跟多個潛在網(wǎng)絡集成的關系。

多分支融合的網(wǎng)絡與集成網(wǎng)絡的結構類似

通過上圖可以發(fā)現(xiàn)多分支融合的網(wǎng)絡形式可以近似很多潛在網(wǎng)絡的集成過程,區(qū)別是沒有中間的信息交互,只是他們共享對應層的網(wǎng)絡參數(shù)。通過10組不同深度的網(wǎng)絡結構實驗發(fā)現(xiàn),這樣一個共享參數(shù)的集成網(wǎng)絡與帶信息交互的深度融合網(wǎng)絡性能表現(xiàn)很相似。

深度融合網(wǎng)絡與集成網(wǎng)絡的表現(xiàn)類似

二、深度帶來更多組成網(wǎng)絡

下一步就可以利用集成學習中的一些思路來指導我們對該類型的深度融合網(wǎng)絡進行剖析。首先是研究其潛在的基礎網(wǎng)絡數(shù)目,很明顯上面圖中融合3次的網(wǎng)絡能夠組合8個基礎網(wǎng)絡,即2^3個。那么我們可以發(fā)現(xiàn)增加融合次數(shù)可以提升基礎網(wǎng)絡的組合數(shù)目。那么像ResNet、Highway、Inception等形式的網(wǎng)絡,增加“深度”帶來的一個影響就是增加了其潛在基礎網(wǎng)絡的組合數(shù)目(Ensemble Size)。

不同融合次數(shù)會得到不同數(shù)目的組合網(wǎng)絡(路徑)

我們也通過實驗在不同深度的網(wǎng)絡結構上驗證了:增加組合數(shù)目能像傳統(tǒng)Ensemble理論中增加Ensemble Size一樣提升整體性能。

較多的組合網(wǎng)絡數(shù)目能夠取得更好的結果

我們也通過實驗在不同深度的網(wǎng)絡結構上驗證了增加組合網(wǎng)絡數(shù)目能夠提升整體性能,這也與傳統(tǒng)Ensemble理論中增加Ensemble Size能提升性能的結論相吻合。我們可以看到ResNet在增加深度的同時,極大地增加了組合數(shù)目,這也是其性能優(yōu)異的原因之一。

三、深度影響整體性能

我們繼續(xù)研究每一個基礎組合網(wǎng)絡,并且探索在深度融合的過程中其相互之間會產(chǎn)生怎樣的影響。對比每個網(wǎng)絡單獨分開訓練得到的模型,我們發(fā)現(xiàn),深度融合網(wǎng)絡里較深的組合網(wǎng)絡性能得到了提升,但較淺的組合網(wǎng)絡性能反而下降了。我們猜想在訓練過程中,由于淺層的網(wǎng)絡容易收斂,它們能夠幫助深層的網(wǎng)絡進行優(yōu)化。但深度融合網(wǎng)絡的各個潛在的組成網(wǎng)絡是共享參數(shù)的,極深的網(wǎng)絡可能會影響較淺網(wǎng)絡的求解空間與難度,從而產(chǎn)生相互影響性能往中間靠攏的現(xiàn)象。

每一個單獨的組成網(wǎng)絡行為分析

既然我們認為最終的表現(xiàn)是一種集成的近似,那么我們是否可以著手尋找更優(yōu)的組合網(wǎng)絡以達到整體性能的提升?通過上述組合網(wǎng)絡之間相互影響的啟發(fā),我們認為極深的網(wǎng)絡會產(chǎn)生“拖后腿”的效果,反而較深但又不是特別深的“中間”網(wǎng)絡會對結果影響比較大。上圖的實驗結果也驗證了我們的這個想法:(a)顯示了每個組成網(wǎng)絡由于共享參數(shù)導致的性能變化;(b)顯示了每個組成網(wǎng)絡對整體網(wǎng)絡(ensemble)的相對貢獻程度。

我們依然需要淺層網(wǎng)絡來幫助訓練較深網(wǎng)絡,而且實際設計神經(jīng)網(wǎng)絡的時候很難做到只保留中間深度的網(wǎng)絡結構。那么一個折中的方案是把這里面最深的組成網(wǎng)絡去掉,這樣看看對結果會產(chǎn)生什么影響。

去除最深的組成網(wǎng)絡(重新訓練或只是測試時候去除)

上圖三個方法的實驗結果表明,去除極深的組成網(wǎng)絡不會對整體性能產(chǎn)生太大影響,有時候反而會提高最終結果。

去除極深的組成網(wǎng)絡不會影響太大,大部分情況下反而會提升性能

四,提出新的方法

基于上述觀察,我們認為一個好的網(wǎng)絡結構應該包含如下兩個特性:足夠多的潛在網(wǎng)絡數(shù)目,以及足夠好的組成網(wǎng)絡。最簡單的策略是去掉“拖后腿”的極深網(wǎng)絡,將其變成“中間”深的組成網(wǎng)絡。下面是我們提出的方法:

 

 

基于ResNet的形式,我們提出新的網(wǎng)絡結構(b)和(c)

基于ResNet的形式,我們提出的Inception-Like結構與Merge-and-Run結構都去除了極深的那一條線路,但是Inception-Like的組合數(shù)目比相同參數(shù)下的ResNet要少,因此我們認為Merge-and-Run形式比較符合我們的分析與觀察。最終的實驗結果也確實驗證了這一想法,而且跟上面的實驗觀察相吻合:Inception-Like沒有極深網(wǎng)絡的影響,更加容易訓練或收斂,比ResNet會稍好一點,與上述的Ensemble-7與Ensemble-8的實驗結果相似。Merge-and-Run結構比Inception-Like的潛在網(wǎng)絡數(shù)目多,最終結果也是比Inception-Like的表現(xiàn)要好。

ResNet, Inception-Like和Merge-and-Run在不同數(shù)據(jù)集上的對比

在ImageNet結果上也驗證了我們前面的論述 (我們的方法用DFN-MR表示):

我們提出的DFN-MR與ResNet在ImageNet數(shù)據(jù)集上的對比

五、總結

目前一個研究熱點是在深度神經(jīng)網(wǎng)絡中引入一個新的維度:潛在的組成網(wǎng)絡數(shù)目(Ensemble Size)??梢园l(fā)現(xiàn)像ResNet、Highway、Inception等網(wǎng)絡增加“深度”的同時,實際增加了這個網(wǎng)絡數(shù)目。此外,我們的工作發(fā)現(xiàn)極深網(wǎng)絡除了能增加潛在網(wǎng)絡數(shù)目外,對整體性能的貢獻并不是***的。反而會影響其它的組成網(wǎng)絡,導致最終的結果受到影響。我們按照“不減少組成網(wǎng)絡數(shù)目”和“避免極深組成網(wǎng)絡”這兩個原則,設計出新的網(wǎng)絡結構,發(fā)現(xiàn)在不同數(shù)據(jù)集上總是表現(xiàn)優(yōu)異。后續(xù)工作可以圍繞當前分析的內(nèi)容,***化提出的設計指標與原則,得到更容易訓練性能更好的網(wǎng)絡模型。

責任編輯:武曉燕 來源: Ailab.
相關推薦

2017-12-22 08:47:41

神經(jīng)網(wǎng)絡AND運算

2016-12-27 14:24:57

課程筆記神經(jīng)網(wǎng)絡

2025-02-25 10:50:11

2017-04-25 15:12:45

神經(jīng)網(wǎng)絡SSD檢測

2020-03-09 18:34:50

ServerlessDevOps前端

2021-03-29 09:02:24

深度學習預測間隔

2019-07-25 08:20:37

代碼開發(fā)神經(jīng)網(wǎng)絡

2023-02-28 08:00:00

深度學習神經(jīng)網(wǎng)絡人工智能

2023-04-19 10:17:35

機器學習深度學習

2019-07-20 11:00:00

神經(jīng)網(wǎng)絡數(shù)據(jù)圖形

2017-01-10 17:25:59

深度學習框架神經(jīng)網(wǎng)絡

2018-02-05 08:58:36

Python神經(jīng)網(wǎng)絡識別圖像

2018-04-08 11:20:43

深度學習

2023-11-15 16:12:41

人工智能機器學習深度學習

2020-07-14 10:40:49

Keras權重約束神經(jīng)網(wǎng)絡

2017-04-26 14:32:24

神經(jīng)網(wǎng)絡人工智能對杭樣本

2017-10-31 11:05:00

深度學習神經(jīng)網(wǎng)絡壓縮和加速方法

2020-09-18 17:52:10

神經(jīng)網(wǎng)絡數(shù)據(jù)圖形

2017-03-07 13:55:30

自動駕駛神經(jīng)網(wǎng)絡深度學習

2022-10-17 15:43:14

深度學習回歸模型函數(shù)
點贊
收藏

51CTO技術棧公眾號