偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

RNN和LSTM弱爆了!注意力模型才是王道!

人工智能 深度學(xué)習(xí)
循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),長短期記憶(LSTM),這些紅得發(fā)紫的神經(jīng)網(wǎng)絡(luò)——是時候拋棄它們了!LSTM和RNN被發(fā)明于上世紀(jì)80、90年代,于2014年死而復(fù)生。接下來的幾年里,它們成為了解決序列學(xué)習(xí)、序列轉(zhuǎn)換(seq2seq)的方式,這也使得語音到文本識別和Siri、Cortana、Google語音助理、Alexa的能力得到驚人的提升。

循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),長短期記憶(LSTM),這些紅得發(fā)紫的神經(jīng)網(wǎng)絡(luò)——是時候拋棄它們了!LSTM和RNN被發(fā)明于上世紀(jì)80、90年代,于2014年死而復(fù)生。接下來的幾年里,它們成為了解決序列學(xué)習(xí)、序列轉(zhuǎn)換(seq2seq)的方式,這也使得語音到文本識別和Siri、Cortana、Google語音助理、Alexa的能力得到驚人的提升。

[[228013]]

另外,不要忘了機器翻譯,包括將文檔翻譯成不同的語言,或者是神經(jīng)網(wǎng)絡(luò)機器翻譯還可以將圖像翻譯為文本,文字到圖像和字幕視頻等等。

在接下來的幾年里,ResNet出現(xiàn)了。ResNet是殘差網(wǎng)絡(luò),意為訓(xùn)練更深的模型。2016年,微軟亞洲研究院的一組研究員在ImageNet圖像識別挑戰(zhàn)賽中憑借驚人的152層深層殘差網(wǎng)絡(luò)(deep residual networks),以絕對優(yōu)勢獲得圖像分類、圖像定位以及圖像檢測全部三個主要項目的冠軍。之后,Attention(注意力)模型出現(xiàn)了。

雖然僅僅過去兩年,但今天我們可以肯定地說:

  • “不要再用RNN和LSTM了,它們已經(jīng)不行了!”

讓我們用事實說話。Google、Facebook、Salesforce等企業(yè)越來越多地使用了基于注意力模型(Attention)的網(wǎng)絡(luò)。

所有這些企業(yè)已經(jīng)將RNN及其變種替換為基于注意力的模型,而這僅僅是個開始。比起基于注意力的模型,RNN需要更多的資源來訓(xùn)練和運行。RNN命不久矣。

為什么

記住RNN和LSTM及其衍生主要是隨著時間推移進行順序處理。請參閱下圖中的水平箭頭:

 

RNN和LSTM弱!爆!了!注意力模型才是王道
▲RNN中的順序處理

水平箭頭的意思是長期信息需在進入當(dāng)前處理單元前順序遍歷所有單元。這意味著其能輕易被乘以很多次<0的小數(shù)而損壞。這是導(dǎo)致vanishing gradients(梯度消失)問題的原因。

為此,今天被視為救星的LSTM模型出現(xiàn)了,有點像ResNet模型,可以繞過單元從而記住更長的時間步驟。因此,LSTM可以消除一些梯度消失的問題。

 

RNN和LSTM弱!爆!了!注意力模型才是王道
▲LSTM中的順序處理

從上圖可以看出,這并沒有解決全部問題。我們?nèi)匀挥幸粭l從過去單元到當(dāng)前單元的順序路徑。事實上,這條路現(xiàn)在更復(fù)雜了,因為它有附加物,并且忽略了隸屬于它上面的分支。

毫無疑問LSTM和GRU(Gated Recurrent Uni,是LSTM的衍生)及其衍生能夠記住大量更長期的信息!但是它們只能記住100個量級的序列,而不是1000個量級,或者更長的序列。

還有一個RNN的問題是,訓(xùn)練它們對硬件的要求非常高。另外,在我們不需要訓(xùn)練這些網(wǎng)絡(luò)快速的情況下,它仍需要大量資源。同樣在云中運行這些模型也需要很多資源。

考慮到語音到文本的需求正在迅速增長,云是不可擴展的。我們需要在邊緣處進行處理,比如Amazon Echo上處理數(shù)據(jù)。

該做什么?

如果要避免順序處理,那么我們可以找到“前進”或更好“回溯”單元,因為大部分時間我們處理實時因果數(shù)據(jù),我們“回顧過去”并想知道其對未來決定的影響(“影響未來”)。在翻譯句子或分析錄制的視頻時并非如此,例如,我們擁有完整的數(shù)據(jù),并有足夠的處理時間。這樣的回溯/前進單元是神經(jīng)網(wǎng)絡(luò)注意力(Neural Attention)模型組。

為此,通過結(jié)合多個神經(jīng)網(wǎng)絡(luò)注意力模型,“分層神經(jīng)網(wǎng)絡(luò)注意力編碼器”出現(xiàn)了,如下圖所示:

 

RNN和LSTM弱!爆!了!注意力模型才是王道
▲分層神經(jīng)網(wǎng)絡(luò)注意力編碼器

“回顧過去”的更好方式是使用注意力模型將過去編碼向量匯總到語境矢量 CT中。

請注意上面有一個注意力模型層次結(jié)構(gòu),它和神經(jīng)網(wǎng)絡(luò)層次結(jié)構(gòu)非常相似。這也類似于下面的備注3中的時間卷積網(wǎng)絡(luò)(TCN)。

在分層神經(jīng)網(wǎng)絡(luò)注意力編碼器中,多個注意力分層可以查看最近過去的一小部分,比如說100個向量,而上面的層可以查看這100個注意力模塊,有效地整合100 x 100個向量的信息。這將分層神經(jīng)網(wǎng)絡(luò)注意力編碼器的能力擴展到10,000個過去的向量。

這才是“回顧過去”并能夠“影響未來”的正確方式!

但更重要的是查看表示向量傳播到網(wǎng)絡(luò)輸出所需的路徑長度:在分層網(wǎng)絡(luò)中,它與log(N)成正比,其中N是層次結(jié)構(gòu)層數(shù)。這與RNN需要做的T步驟形成對比,其中T是要記住的序列的***長度,并且T >> N。

跳過3-4步追溯信息比跳過100步要簡單多了!

這種體系結(jié)構(gòu)跟神經(jīng)網(wǎng)絡(luò)圖靈機很相似,但可以讓神經(jīng)網(wǎng)絡(luò)通過注意力決定從內(nèi)存中讀出什么。這意味著一個實際的神經(jīng)網(wǎng)絡(luò)將決定哪些過去的向量對未來決策有重要性。

但是存儲到內(nèi)存怎么樣呢?上述體系結(jié)構(gòu)將所有先前的表示存儲在內(nèi)存中,這與神經(jīng)網(wǎng)絡(luò)圖靈機(NTM)不同。這可能是相當(dāng)?shù)托У模嚎紤]將每幀的表示存儲在視頻中——大多數(shù)情況下,表示向量不會改變幀到幀,所以我們確實存儲了太多相同的內(nèi)容!

我們可以做的是添加另一個單元來防止相關(guān)數(shù)據(jù)被存儲。例如,不存儲與以前存儲的向量太相似的向量。但這確實只是一種破解的方法,***的方法是讓應(yīng)用程序指導(dǎo)哪些向量應(yīng)該保存或不保存。這是當(dāng)前研究的重點

看到如此多的公司仍然使用RNN/LSTM進行語音到文本的轉(zhuǎn)換,我真的十分驚訝。許多人不知道這些網(wǎng)絡(luò)是如此低效和不可擴展。

訓(xùn)練RNN和LSTM的噩夢

RNN和LSTM的訓(xùn)練是困難的,因為它們需要存儲帶寬綁定計算,這是硬件設(shè)計者最糟糕的噩夢,最終限制了神經(jīng)網(wǎng)絡(luò)解決方案的適用性。簡而言之,LSTM需要每個單元4個線性層(MLP層)在每個序列時間步驟中運行。

線性層需要大量的存儲帶寬來計算,事實上,它們不能使用許多計算單元,通常是因為系統(tǒng)沒有足夠的存儲帶寬來滿足計算單元。而且很容易添加更多的計算單元,但是很難增加更多的存儲帶寬(注意芯片上有足夠的線,從處理器到存儲的長電線等)。

因此,RNN/LSTM及其變種不是硬件加速的良好匹配,我們在這里之前和這里都討論過這個問題。一個解決方案將在存儲設(shè)備中計算出來,就像我們在FWDNXT上工作的一樣。

總而言之,拋棄RNN吧。注意力模型真的就是你需要的一切!

責(zé)任編輯:未麗燕 來源: 云棲社區(qū)
相關(guān)推薦

2025-06-25 09:31:41

2017-12-15 16:03:27

2023-11-22 09:00:00

NLP語言模型LSTM

2018-07-18 12:43:13

多云云計算云技術(shù)

2023-01-02 11:58:44

Excel

2024-09-19 10:07:41

2024-06-28 08:04:43

語言模型應(yīng)用

2022-03-25 11:29:04

視覺算法美團

2020-11-12 07:49:18

MySQL

2025-06-09 08:52:00

2017-08-03 11:06:52

2018-08-26 22:25:36

自注意力機制神經(jīng)網(wǎng)絡(luò)算法

2023-07-30 15:42:45

圖神經(jīng)網(wǎng)絡(luò)PyTorch

2025-02-20 00:28:59

2010-03-31 16:59:02

企業(yè)采購

2024-12-05 16:19:14

2024-12-09 00:00:10

2021-11-25 07:42:11

命令Linux系統(tǒng)

2025-02-25 09:40:00

模型數(shù)據(jù)AI

2016-10-20 13:56:04

點贊
收藏

51CTO技術(shù)棧公眾號