偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

神經(jīng)網(wǎng)絡(luò)的每一層都是干嘛的?這才是神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的核心

人工智能
而不同神經(jīng)網(wǎng)絡(luò)模型之間最主要的區(qū)別就是神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的異同,當(dāng)然最相似的地方也是神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

組成一個(gè)神經(jīng)網(wǎng)絡(luò)從技術(shù)上來說主要有以下幾個(gè)部分:

  • 數(shù)據(jù)集
  • 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
  • 損失函數(shù)
  • 優(yōu)化函數(shù)
  • 反向傳播

而不同神經(jīng)網(wǎng)絡(luò)模型之間最主要的區(qū)別就是神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的異同,當(dāng)然最相似的地方也是神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

原因就在于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是由多個(gè)神經(jīng)網(wǎng)絡(luò)層所組成的;而使用不同的層就實(shí)現(xiàn)了不同功能的神經(jīng)網(wǎng)絡(luò)模型。

神經(jīng)網(wǎng)絡(luò)的層

一個(gè)神經(jīng)網(wǎng)絡(luò)是由多種神經(jīng)網(wǎng)絡(luò)層所組成的,而每個(gè)神經(jīng)網(wǎng)絡(luò)層實(shí)現(xiàn)不同的功能;然后由此組成神經(jīng)網(wǎng)絡(luò)模型。

拋開具體的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來說,我們大概聽說過一些神經(jīng)網(wǎng)絡(luò)層;比如,輸入層,輸出層,全連接層,卷積層,激活層,池化層等等。

當(dāng)然,有些網(wǎng)絡(luò)層只針對特定的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu);比如卷積層就只針對卷積神經(jīng)網(wǎng)絡(luò);而全連接層基本上在所有神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中都扮演著重要角色,全連接層的作用就是將上一層的所有神經(jīng)元與當(dāng)前層所有神經(jīng)元進(jìn)行連接,進(jìn)行線性變換和非線性激活。

比如,在分類任務(wù)中,最后一層全連接層通常輸出類別的概率分布。

在眾多的網(wǎng)絡(luò)層中,輸入層與輸出層屬于比較特殊的層;因?yàn)槠湫枰c外界環(huán)境進(jìn)行交互;輸入層需要接受外界數(shù)據(jù)的輸入,而輸出層需要輸出數(shù)據(jù)到外界環(huán)境,因此會對數(shù)據(jù)格式有特定的要求。

還有一點(diǎn)比較特殊的就是,輸入層不會對數(shù)據(jù)做任何處理;它的主要任務(wù)就是接受數(shù)據(jù)輸入,并傳遞到下一層;而輸出層一般是網(wǎng)絡(luò)結(jié)構(gòu)中的最后一層作為輸出層。

從本質(zhì)上來說,神經(jīng)網(wǎng)絡(luò)模型就是一個(gè)復(fù)雜的數(shù)學(xué)函數(shù);因此,每個(gè)神經(jīng)網(wǎng)絡(luò)層的作用就是進(jìn)行數(shù)學(xué)計(jì)算。

而以具體的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來說,如Transformer神經(jīng)網(wǎng)絡(luò)架構(gòu);主要由編碼器和解碼器組成,而每個(gè)編碼器和解碼器都是由多個(gè)神經(jīng)網(wǎng)絡(luò)層所組成。

比如從Transformer的經(jīng)典架構(gòu)圖中可以看到,一個(gè)編碼器器是由一個(gè)多頭注意力層,兩個(gè)殘差連接歸一化層和一個(gè)前饋神經(jīng)網(wǎng)絡(luò)組成;而解碼器比編碼器多了一個(gè)多頭注意力層。

其它神經(jīng)網(wǎng)絡(luò)層還有歸一化層(normalization layer),如Transformer中的編碼器和解碼器都有歸一化層的存在;其它還有Dropout層等,為了防止過擬合現(xiàn)象,會隨機(jī)丟棄一部分神經(jīng)元。

因此,我們在學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)技術(shù)的過程中,不要一上來就去研究那些復(fù)雜的神經(jīng)網(wǎng)絡(luò)架構(gòu);而應(yīng)該從最簡單的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)開始,去弄明白每個(gè)神經(jīng)網(wǎng)絡(luò)層都具有哪些功能,以及其每個(gè)層的作用是什么;等把這些問題給弄明白了,那么自然就知道怎么去實(shí)現(xiàn)一個(gè)能解決特定問題的神經(jīng)網(wǎng)絡(luò)模型了。

責(zé)任編輯:趙寧寧 來源: AI探索時(shí)代
相關(guān)推薦

2020-07-03 08:45:26

神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

2025-02-25 14:13:31

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2020-08-06 10:11:13

神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)算法

2023-06-18 23:00:39

神經(jīng)網(wǎng)絡(luò)損失函數(shù)隨機(jī)變量

2025-02-28 10:02:34

2019-11-19 08:00:00

神經(jīng)網(wǎng)絡(luò)AI人工智能

2018-03-22 13:34:59

TensorFlow神經(jīng)網(wǎng)絡(luò)

2022-09-26 00:00:00

神經(jīng)網(wǎng)絡(luò)激活函數(shù)sigmoid

2017-03-21 08:52:20

神經(jīng)網(wǎng)絡(luò)聲譽(yù)

2017-11-30 18:05:18

2023-11-14 16:29:14

深度學(xué)習(xí)

2021-01-18 14:38:53

神經(jīng)網(wǎng)絡(luò)人工智能神經(jīng)元

2017-09-10 07:07:32

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)集可視化

2025-02-19 15:12:17

神經(jīng)網(wǎng)絡(luò)PyTorch大模型

2025-03-03 08:10:00

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)人工智能

2019-05-07 19:12:28

機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)Python

2017-05-04 18:30:34

大數(shù)據(jù)卷積神經(jīng)網(wǎng)絡(luò)

2022-04-07 09:01:52

神經(jīng)網(wǎng)絡(luò)人工智能

2018-11-26 07:04:59

神經(jīng)網(wǎng)絡(luò)優(yōu)化函數(shù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號