即插即用 | 時間編碼+LSTM+全局注意力
1 模型創(chuàng)新點介紹
1.1 時間編碼
輸入信息編碼參考 Informer 論文,我們把源碼和數(shù)據(jù)集制作進(jìn)行了優(yōu)化,方便任何帶有時間特征列的數(shù)據(jù)集進(jìn)行輸入信息的編碼。
Informer在原始向量上不止增加了Transformer架構(gòu)必備的PositionEmbedding(位置編碼)還增加了與時間相關(guān)的各種編碼:
- 日周期編碼:表示一天中的時間點。
- 周周期編碼:表示一周中的時間點。
- 月周期編碼:表示一個月中的時間點。
在時間序列預(yù)測任務(wù)中,不同時間節(jié)點可能蘊(yùn)藏著重要信息,例如分層時間戳(周、月和年)和不可知時間戳(假期、事件)。
具體在這里增加什么樣的GlobalTimeStamp還需要根據(jù)實際問題來確認(rèn),如果計算高鐵動車車站的人流量,顯然“假期”的時間差就是十分重要的。如果計算公交地鐵等通勤交通工具的人流量,顯然“星期”可以更多的揭示是否為工作日。
大家根據(jù)自己數(shù)據(jù)集的時間分辨率可靈活調(diào)整!
1.2 基于GlobalAttention優(yōu)化的LSTM網(wǎng)絡(luò)
把基于注意力機(jī)制的循環(huán)網(wǎng)絡(luò)改進(jìn)優(yōu)化為基于全局注意力機(jī)制LSTM神經(jīng)網(wǎng)絡(luò):
2 模型整體結(jié)構(gòu)
模型整體結(jié)構(gòu)如下所示,多特征變量時間序列數(shù)據(jù)先經(jīng)過輸入信息編碼:
TokenEmbedding -時序數(shù)據(jù)編碼
PositionalEmbedding-位置編碼
TemporalEmbedding-時間編碼
通過這三種數(shù)據(jù)編碼方式的結(jié)合使用,可以更好地捕獲輸入數(shù)據(jù)的語義、位置和時間特征,增強(qiáng)模型對時間序列數(shù)據(jù)的理解和預(yù)測能力。
編碼后的數(shù)據(jù)通過基于GlobalAttention優(yōu)化的LSTM網(wǎng)絡(luò)提取全局時序特征,GlobalAttention是一種用于加強(qiáng)模型對輸入序列不同部分的關(guān)注程度的機(jī)制。在 LSTM 模型中,全局注意力機(jī)制可以幫助模型更好地聚焦于輸入序列中最相關(guān)的部分,從而提高模型的性能和泛化能力。在每個時間步,全局注意力機(jī)制計算一個權(quán)重向量,表示模型對輸入序列各個部分的關(guān)注程度,然后將這些權(quán)重應(yīng)用于 LSTM 輸出的特征表示,通過對所有位置的特征進(jìn)行加權(quán),使模型能夠更有針對性地關(guān)注重要的時域特征, 提高了模型對多特征序列時域特征的感知能力。
我們對模型起名為:
Global Attention Temporal LSTM -(GATLSTM)
3 電力變壓器數(shù)據(jù)集預(yù)處理
電力變壓器數(shù)據(jù)集的詳細(xì)介紹可以參考下文:
??電力變壓器數(shù)據(jù)集介紹和預(yù)處理??
3.1 導(dǎo)入數(shù)據(jù)
3.2 數(shù)據(jù)集制作與預(yù)處理
詳細(xì)介紹見提供的文檔!
4 基于 GATLSTM 的預(yù)測模型
4.1 定義 GATLSTM 預(yù)測網(wǎng)絡(luò)模型
4.2 設(shè)置參數(shù),訓(xùn)練模型
50個epoch,MSE 為0.0198,GATLSTM預(yù)測效果顯著,模型能夠充分提取時間序列的全局上下文信息,收斂速度快,性能優(yōu)越,預(yù)測精度高,適當(dāng)調(diào)整模型參數(shù),還可以進(jìn)一步提高模型預(yù)測表現(xiàn)。
5 結(jié)果可視化和模型評估
5.1 預(yù)測結(jié)果可視化
5.2 模型評估
