偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

深度學(xué)習(xí)入門課程學(xué)習(xí)筆記06 反向傳播

企業(yè)動(dòng)態(tài)
梯度傳播可以是一步一步的傳播也可以一步傳播一整塊,這一整塊我們把它當(dāng)做是一個(gè)整體,相應(yīng)的就要計(jì)算這一整個(gè)塊的梯度了,也就是直接對SIGMOID函數(shù)求導(dǎo)。

反向傳播:

咱們在之前的課程講了一系列的前向傳播的知識(shí)點(diǎn),前向傳播也就是從輸入到最終計(jì)算出LOSS值這一系列過程,那么這節(jié)課咱們要講一個(gè)更重要的知識(shí)點(diǎn)也就是反向傳播。反向傳播最直觀的意思就是說咱們要從LOSS值入手一步步的往回看,看什么呢?就是要看咱們的每一個(gè)權(quán)重參數(shù)對最終的LOSS值做了多大的貢獻(xiàn)。

最簡單的小例子

首先咱們用一個(gè)最簡單的小例子來看一下反向傳播是怎么一回事,如上圖最終的LOSS值等于-12下面咱們就要算對于X,Y,Z三個(gè)輸入來說分別對于LOSS值做了多大的貢獻(xiàn),首先咱們用q=x+y,f=qz分別表示中間的計(jì)算過程。那么咱們要算什么呢?反向傳播最終要算的就是最終的LOSS值對X,Y,Z三個(gè)輸入的偏導(dǎo)數(shù),這個(gè)偏導(dǎo)數(shù)該怎么算呢?在這里我們遵循一個(gè)鏈?zhǔn)椒▌t也就是對于輸入來說他對于最終LOSS的貢獻(xiàn)等于他前面?zhèn)鞑ハ聛淼奶荻仍俪艘宰陨淼奶荻取?/p>

鏈?zhǔn)椒▌t

這里就是梯度傳播的計(jì)算方式,我們要算X和Y對于最終LOSS的貢獻(xiàn)(換句話說就是反向傳播到X和Y的梯度的大小)要先算前面一層傳播到X和Y的梯度再去計(jì)算X和Y自身的梯度。

稍難的例子

咱們再來看一個(gè)稍微難一些的例子,上圖表示的是咱們之前說過的這個(gè)SIGMOID函數(shù),咱們接下來要算的就是這個(gè)函數(shù)梯度傳播的過程,導(dǎo)數(shù)計(jì)算的公式我已經(jīng)寫在圖上了,咱們只需要根據(jù)導(dǎo)數(shù)的計(jì)算方式一步步的從最終的LOSS值往回算就可以了,下面淺紅色的值就是梯度傳播的值。

這里我們可以看到梯度傳播可以是一步一步的傳播也可以一步傳播一整塊,這一整塊我們把它當(dāng)做是一個(gè)整體,相應(yīng)的就要計(jì)算這一整個(gè)塊的梯度了,也就是直接對SIGMOID函數(shù)求導(dǎo)。

梯度傳播的門

這里咱們所說的門就是一個(gè)單位區(qū)域,我們可以從圖中看出來咱們在計(jì)算梯度傳播的過程中無外乎就是這幾種門的操作,每種門也都有它各自的特性,他們的特性是怎么得出的呢?這里就不帶大家一步步算了,咱們可以動(dòng)動(dòng)筆算一下梯度的傳播然后就知道為什么這些門有不同的特性了。

反向傳播就先說到這里了,這里只是很簡單的談了一下反向傳播具體的計(jì)算過程如果同學(xué)們還是不太理解建議看一下原始課程會(huì)有很詳細(xì)的推導(dǎo)。

【本文是51CTO專欄作者唐宇迪的原創(chuàng)稿件,轉(zhuǎn)載請注明出處】

 

戳這里,看該作者更多好文

責(zé)任編輯:武曉燕 來源: csdn博客
相關(guān)推薦

2016-11-01 15:32:43

深度學(xué)習(xí)

2016-12-27 16:04:39

最優(yōu)化課程筆記

2016-12-27 14:59:50

得分函數(shù)參數(shù)

2016-12-27 15:16:49

損失函數(shù)課程

2016-12-27 15:33:25

softmax分類器課程

2016-12-27 14:24:57

課程筆記神經(jīng)網(wǎng)絡(luò)

2017-04-24 08:35:09

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)合成梯度

2017-11-20 13:46:10

AI深度學(xué)習(xí)方法

2024-08-29 14:20:00

AI訓(xùn)練

2022-09-30 15:26:57

人工智能技術(shù)

2014-09-15 10:44:28

思科UCSUCS服務(wù)器

2014-09-15 10:15:32

UCS思科

2017-08-24 10:54:29

Andrew NG深度學(xué)習(xí)操作

2017-11-24 14:32:29

反向傳播遷移學(xué)習(xí)人工智能

2021-04-13 10:25:33

人工智能深度學(xué)習(xí)

2016-12-27 14:06:36

Python代碼基礎(chǔ)

2017-05-10 09:26:41

機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2017-08-16 10:34:56

Andrew NGLogistic回歸

2023-03-19 17:24:43

2025-04-08 09:20:00

神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)