偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

數(shù)據(jù)科學(xué)家必須知道的10個(gè)深度學(xué)習(xí)架構(gòu)

人工智能 深度學(xué)習(xí)
近年來(lái),深度學(xué)習(xí)的發(fā)展勢(shì)頭迅猛,要跟上深度學(xué)習(xí)的進(jìn)步速度變得越來(lái)越困難了。幾乎每一天都有關(guān)于深度學(xué)習(xí)的創(chuàng)新,而大部分的深度學(xué)習(xí)創(chuàng)新都隱藏在那些發(fā)表于ArXiv和Spinger等研究論文中。

近年來(lái),深度學(xué)習(xí)的發(fā)展勢(shì)頭迅猛,要跟上深度學(xué)習(xí)的進(jìn)步速度變得越來(lái)越困難了。幾乎每一天都有關(guān)于深度學(xué)習(xí)的創(chuàng)新,而大部分的深度學(xué)習(xí)創(chuàng)新都隱藏在那些發(fā)表于ArXiv和Spinger等研究論文中。

[[200717]] 

本文介紹了部分近期深度學(xué)習(xí)的進(jìn)展和創(chuàng)新,以及Keras庫(kù)中的執(zhí)行代碼,本文還提供了原論文的鏈接。

簡(jiǎn)潔起見(jiàn),本文中只介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的深度學(xué)習(xí)架構(gòu)。

另外,文章基于已經(jīng)掌握了神經(jīng)網(wǎng)絡(luò)的知識(shí),并且對(duì)Keras已經(jīng)相當(dāng)熟悉了的基礎(chǔ)。如果你對(duì)這些話題還不太了解,強(qiáng)烈建議先閱讀以下文章:

《Fundamentals of Deep Learning – Starting with Artificial Neural Network》

《Tutorial: Optimizing Neural Networks using Keras (with Image recognition case study)》

何為深度學(xué)習(xí)“高級(jí)架構(gòu)”?

與一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)算法相比,深度學(xué)習(xí)算法包含了更加多樣的模型。其中的原因是在建立一個(gè)完整的模型時(shí),神經(jīng)網(wǎng)絡(luò)具有很大的靈活性。

有時(shí),我們還可以把神經(jīng)網(wǎng)絡(luò)比作樂(lè)高積木,可以用它搭建任何簡(jiǎn)單或者復(fù)雜的小建筑。

 

我們其實(shí)可以將“高級(jí)架構(gòu)”簡(jiǎn)單地定義為一個(gè)有著成功模型記錄的深度學(xué)習(xí)架構(gòu),這樣的“高級(jí)架構(gòu)”主要出現(xiàn)在類似ImageNet的挑戰(zhàn)中,在這些挑戰(zhàn)中,你的任務(wù)是解決問(wèn)題,比如用給定的數(shù)據(jù)完成圖像識(shí)別。簡(jiǎn)單來(lái)說(shuō),ImageNet就是一項(xiàng)關(guān)于數(shù)據(jù)集的挑戰(zhàn),而其中的數(shù)據(jù)集是從ILSVR(ImageNet大規(guī)模視覺(jué)識(shí)別)中獲得的。

就像下文即將提到的架構(gòu),其中的每個(gè)架構(gòu)之間都有細(xì)微的差別,而正是這些差別使它們區(qū)別于普通的模型,讓它們?cè)诮鉀Q問(wèn)題的時(shí)候發(fā)揮出普通模型不具備的優(yōu)勢(shì)。這些架構(gòu)同樣屬于“深度模型”的范疇,因此它們的性能也很可能優(yōu)于其相對(duì)應(yīng)的“淺層模型”。

不同類型的“計(jì)算機(jī)視覺(jué)任務(wù)”

本文主要關(guān)注于“計(jì)算機(jī)視覺(jué)”,所以很自然地會(huì)涉及到“計(jì)算機(jī)視覺(jué)”的任務(wù)。顧名思義,“計(jì)算機(jī)視覺(jué)任務(wù)”就是建立一個(gè)能夠復(fù)制完成人類視覺(jué)任務(wù)的計(jì)算機(jī)模型。這實(shí)質(zhì)上意味著,我們視力所見(jiàn)和感知的內(nèi)容是一個(gè)能夠在人造系統(tǒng)中被理解和完成的程序。

計(jì)算機(jī)視覺(jué)任務(wù)的主要類型有:

物體識(shí)別/分類:在物體識(shí)別中,你會(huì)得到一張?jiān)紙D像,而你的任務(wù)就是判斷出這張圖像屬于哪一類別。

分類及定位:如果圖像中只有一個(gè)對(duì)象,那么你的任務(wù)就是找到該對(duì)象的位置。這個(gè)問(wèn)題應(yīng)該更加具體地表述為“定位問(wèn)題”。

物體檢測(cè):在物體檢測(cè)中,你的任務(wù)是識(shí)別出物體處于圖像中的什么位置。這些對(duì)象可能屬于同一類別,也可能屬于不同類別。

圖像分割:圖像分割是一項(xiàng)稍微復(fù)雜的任務(wù),其目的是將圖像的各個(gè)像素映射到其對(duì)應(yīng)的各個(gè)類別。

 

各種深度學(xué)習(xí)架構(gòu)

目前,我們已經(jīng)了解了深度學(xué)習(xí)“高級(jí)架構(gòu)”,并探究了各種類型的計(jì)算機(jī)視覺(jué)任務(wù)。那么接下來(lái),我們將列舉出最重要的深度學(xué)習(xí)架構(gòu),并且對(duì)這些架構(gòu)進(jìn)行簡(jiǎn)單的介紹:

1.AlexNet

AlexNet是第一個(gè)深度學(xué)習(xí)架構(gòu),它是由深度學(xué)習(xí)先鋒之一——Geoffrey Hinton和他的同事們共同研究并引入的。AlexNet是一個(gè)看似簡(jiǎn)單但功能非常強(qiáng)大的網(wǎng)絡(luò)架構(gòu),它為現(xiàn)在深度學(xué)習(xí)的突破性研究鋪平了道路。下圖是AlexNet架構(gòu):

 

從分解圖中我們可以看出,AlexNet其實(shí)就是一個(gè)簡(jiǎn)單的架構(gòu),其中的卷積層和聚積層相互疊加,最頂部的是全連接層。早在二十世紀(jì)八十年代,AlexNet模型就已經(jīng)被概念化描述了。AlexNet區(qū)別于其他模型的關(guān)鍵在于它的任務(wù)規(guī)模,以及它用于訓(xùn)練的GPU規(guī)模。在八十年代,用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的是CPU。而AlexNet率先使用GPU,將訓(xùn)練的速度提高了十倍左右。

雖然AlexNet現(xiàn)在有些過(guò)時(shí)了,但它仍然是運(yùn)用神經(jīng)網(wǎng)絡(luò)完成各種任務(wù)的起點(diǎn)。不管是完成計(jì)算機(jī)視覺(jué)任務(wù),還是語(yǔ)音識(shí)別任務(wù),都仍然需要AlexNet。

Original Paper linkLink for code implementation

2.VGG Net

“VGG Net”是由牛津大學(xué)“視覺(jué)圖像研究組”的研究人員引入的。VGG網(wǎng)絡(luò)的最大特點(diǎn)是它的金字塔狀,靠近圖像的底部比較寬闊,而頂部的層相對(duì)窄且深。

 

如圖所示,VGG Net包含了連續(xù)的卷積層,卷積層后緊接著聚積層。聚積層負(fù)責(zé)讓各個(gè)層變得更窄。在這篇由組內(nèi)研究人員共同完成的論文中,他們提出了各種類型的網(wǎng)絡(luò),這些網(wǎng)絡(luò)架構(gòu)的主要差異是深度不同。

 

VGG網(wǎng)絡(luò)的優(yōu)勢(shì)在于:

  1. 這是對(duì)一個(gè)特定任務(wù)進(jìn)行基準(zhǔn)測(cè)試非常有效的網(wǎng)絡(luò)架構(gòu)。
  2. 同時(shí),網(wǎng)上有大量免費(fèi)的VGG預(yù)訓(xùn)練網(wǎng)絡(luò),因此,VGG通常會(huì)被用于各種各樣的應(yīng)用程序。

而另一方面,VGG主要的缺陷在于如果從頭開(kāi)始訓(xùn)練的話,其訓(xùn)練速度會(huì)非常慢。即使是用一個(gè)相當(dāng)不錯(cuò)的GPU,它還是需要超過(guò)一周的時(shí)間才能正常運(yùn)行。

Original Paper linkLink for code implementation

3.GoogleNet

GoogleNet(又稱“InceptionNet”)是由谷歌的研究人員們?cè)O(shè)計(jì)的一個(gè)網(wǎng)絡(luò)架構(gòu)。GoogleNet在2014年的

ImageNet大賽中獲得了冠軍,證明了它是一個(gè)功能強(qiáng)大的模型。

在這個(gè)網(wǎng)絡(luò)架構(gòu)中,研究人員們不僅加深了網(wǎng)絡(luò)深度(GoogleNet包含22個(gè)層,而VGG網(wǎng)絡(luò)只有19個(gè)層),還研究出了一個(gè)叫做“Inception模塊”的新方法。

 

如上圖所示,這個(gè)架構(gòu)與我們之前看到的有序性架構(gòu)相比,發(fā)生了巨大的改變。在單個(gè)層中出現(xiàn)了各種各樣的“特征提取器”。這間接地提高了網(wǎng)絡(luò)的性能,因?yàn)楫?dāng)處理任務(wù)時(shí),網(wǎng)絡(luò)在自我訓(xùn)練過(guò)程中的選擇非常廣泛。它既可以選擇卷積輸入,也可以選擇直接將輸入聚積起來(lái)。

 

最終的架構(gòu)包含了許多一個(gè)個(gè)相互疊加的Inception模塊。大部分最上面的層都有它們自己的輸出層,所以GoogleNet的訓(xùn)練與其他模型有細(xì)微的差別。但這些差別能夠幫助模型更快地完成卷積,因?yàn)檫@些層不僅有共同的訓(xùn)練,還有各自獨(dú)立的訓(xùn)練。

GoogleNet的優(yōu)勢(shì)有:

  1. GoogleNet的訓(xùn)練速度比VGGNet要快。
  2. 與預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)相比,預(yù)訓(xùn)練的GoogleNet所占規(guī)模更小。一個(gè)VGG模型所占空間可以超過(guò)500MB,而GoogleNet只占96MB。

目前為止,GoogleNet還沒(méi)有直接的缺陷,但是文章中提出了一些有助于GoogleNet進(jìn)一步完善的改變方案。其中有一個(gè)改變方案被稱作“XceptionNet”,在這個(gè)網(wǎng)絡(luò)中,“初始模塊”的散度限制被提高了。理論上來(lái)說(shuō),其散度現(xiàn)在可以是無(wú)限的了。

Original Paper linkLink for code implementation

4.ResNet

ResNet是一個(gè)真正地定義了深度學(xué)習(xí)架構(gòu)深度的網(wǎng)絡(luò)架構(gòu)。“殘差網(wǎng)絡(luò)”,也就是我們所說(shuō)的ResNet,包含了許多連續(xù)的“殘差模塊”,這些“殘差模塊”構(gòu)成了ResNet架構(gòu)的基礎(chǔ)。“殘差模塊”如下圖所示: 

 

簡(jiǎn)單來(lái)說(shuō),一個(gè)“殘差模塊”有兩個(gè)選擇——它可以選擇在輸入上執(zhí)行一組函數(shù),也可以選擇跳過(guò)這些步驟。

與GoogleNet類似,這些“殘差模塊”相互疊加,從而形成一個(gè)完整的網(wǎng)絡(luò)的。

 

由ResNet引入的一些新技術(shù)有:

  1. 使用標(biāo)準(zhǔn)的SGD,而不是花哨的“自適應(yīng)學(xué)習(xí)”技術(shù)。這是通過(guò)一個(gè)能夠保持正常訓(xùn)練的初始化函數(shù)來(lái)完成的。
  2. 改變輸入預(yù)處理的方式,先將輸入分批,然后再輸入至網(wǎng)絡(luò)。

ResNet的主要優(yōu)勢(shì)在于,成千上萬(wàn)的殘差層都能用于建立一個(gè)網(wǎng)絡(luò),而且都能被用于訓(xùn)練。這與平常的“時(shí)序網(wǎng)絡(luò)”稍有不同,“時(shí)序網(wǎng)絡(luò)”的性能會(huì)因?yàn)閷訑?shù)的增加而降低。

Original Paper linkLink for code implementation

5.ResNeXt

據(jù)稱,ResNeXt是目前為止最先進(jìn)的物體識(shí)別技術(shù)。ResNeXt建立于inception和ResNet的基礎(chǔ)之上,是一個(gè)全新的、改良的網(wǎng)絡(luò)架構(gòu)。下圖總結(jié)了ResNeXt的一個(gè)殘差模塊:

 

Original Paper linkLink for code implementation

6.RCNN(Region Based CNN)

RCNN據(jù)說(shuō)是用于解決物體識(shí)別問(wèn)題的深度學(xué)習(xí)架構(gòu)中最具影響力的網(wǎng)絡(luò)架構(gòu)。為了解決識(shí)別檢測(cè)問(wèn)題,RCNN試圖框出圖像中的所有物體,然后再識(shí)別圖像中的物體具體是什么。其操作流程如下:

 

 

RCNN的結(jié)構(gòu)如下圖:

 

Original Paper linkLink for code implementation

7.YOLO (You Only Look Once)

YOLO是目前為止最先進(jìn)的實(shí)時(shí)圖像識(shí)別系統(tǒng),它是以深度學(xué)習(xí)為基礎(chǔ)的。正如我們?cè)谙聢D中所看到的,它首先將圖像分成一個(gè)個(gè)小方格;然后將識(shí)別算法一一運(yùn)行于這些格子,判斷每個(gè)格子分別屬于什么物體類別,之后把同一類別的方格合并起來(lái),形成一個(gè)個(gè)最準(zhǔn)確的物體框。

 

這些操作都是各自獨(dú)立完成的,因此能夠?qū)崿F(xiàn)實(shí)時(shí)運(yùn)行。一秒內(nèi)最多能夠處理40張圖像。

雖然與其對(duì)應(yīng)的RCNN相比,YOLO的性能降低了,但是它的實(shí)時(shí)處理功能在處理日常問(wèn)題中仍有巨大的優(yōu)勢(shì)。以下是YOLO網(wǎng)絡(luò)架構(gòu):

 

Original Paper linkLink for code implementation

8.SqueezeNet

SqueezeNet架構(gòu)是一個(gè)功能更加強(qiáng)大的網(wǎng)絡(luò)架構(gòu),它在類似移動(dòng)平臺(tái)這樣的低寬帶場(chǎng)景中非常有用。這個(gè)網(wǎng)絡(luò)架構(gòu)僅占4.9MB的空間,而Inception則占超過(guò)100MB空間。這樣顯著的變化來(lái)源于一個(gè)叫做“fire模塊”的結(jié)構(gòu)。“fire模塊”如下圖所示:

 

下圖為squeezeNet的最終架構(gòu):

 

Original Paper linkLink for code implementation

9.SegNet

SegNet是一個(gè)用于解決圖像分割的深度學(xué)習(xí)架構(gòu)。它包含了一系列處理層(編碼器)以及一組用于像素分類的對(duì)應(yīng)的解碼器。下圖總結(jié)了SegNet的操作過(guò)程:

 

 

SegNet的一個(gè)關(guān)鍵特征是:在分割圖像中保留了高頻率的細(xì)節(jié),因?yàn)榫幋a網(wǎng)絡(luò)的聚積索引與解碼網(wǎng)絡(luò)的聚積索引是相互連接的。簡(jiǎn)言之,信息的傳遞是直接的,而不是通過(guò)間接的卷積實(shí)現(xiàn)的。SegNet是處理圖像分割問(wèn)題時(shí)的最佳模型。

Original Paper linkLink for code implementation

10.GAN (Generative Adversarial Network)

GAN是一個(gè)完全不同的神經(jīng)網(wǎng)絡(luò)架構(gòu),其中的神經(jīng)網(wǎng)絡(luò)被用于生成一個(gè)全新的不存在的圖像,這個(gè)圖像看似在訓(xùn)練數(shù)據(jù)集中出現(xiàn)過(guò),但實(shí)際上并沒(méi)有。下圖是GAN的分解示意圖。 

責(zé)任編輯:龐桂玉 來(lái)源: 九次方大數(shù)據(jù)
相關(guān)推薦

2020-08-03 10:37:01

Python編程語(yǔ)言工具

2018-10-18 09:00:00

機(jī)器學(xué)習(xí)機(jī)器學(xué)習(xí)算法數(shù)據(jù)科學(xué)家

2017-08-04 15:53:10

大數(shù)據(jù)真?zhèn)螖?shù)據(jù)科學(xué)家

2018-03-27 11:02:55

2016-05-11 10:36:16

數(shù)據(jù)科學(xué)家數(shù)據(jù)科學(xué)大數(shù)據(jù)

2020-03-20 14:40:48

數(shù)據(jù)科學(xué)Python學(xué)習(xí)

2017-01-23 16:00:25

數(shù)據(jù)科學(xué)家大數(shù)據(jù)數(shù)學(xué)家

2017-11-21 14:42:30

數(shù)據(jù)科學(xué)統(tǒng)計(jì)學(xué)習(xí)機(jī)器學(xué)習(xí)

2019-07-03 15:21:47

數(shù)據(jù)科學(xué)統(tǒng)計(jì)數(shù)據(jù)數(shù)據(jù)結(jié)構(gòu)

2009-04-17 09:50:49

軟件架構(gòu)云計(jì)算SOA

2019-11-29 18:03:27

數(shù)學(xué)R語(yǔ)言算法

2016-09-22 14:28:33

數(shù)據(jù)科學(xué)家算法

2021-01-29 10:07:31

大數(shù)據(jù)大數(shù)據(jù)技術(shù)

2012-12-26 10:51:20

數(shù)據(jù)科學(xué)家

2021-02-05 11:21:54

大數(shù)據(jù)大數(shù)據(jù)技術(shù)

2019-07-11 12:59:27

數(shù)據(jù)科學(xué)家概率分布統(tǒng)計(jì)

2018-02-28 15:03:03

數(shù)據(jù)科學(xué)家數(shù)據(jù)分析職業(yè)

2021-01-29 14:38:36

數(shù)據(jù)科學(xué)數(shù)據(jù)科學(xué)家統(tǒng)計(jì)學(xué)

2019-02-25 22:57:22

數(shù)據(jù)工程師數(shù)據(jù)科學(xué)機(jī)器學(xué)習(xí)

2018-12-24 08:37:44

數(shù)據(jù)科學(xué)家數(shù)據(jù)模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)