我們一起聊聊基于1DCNN-Informer+MATT融合的故障診斷模型
1.模型簡介與創(chuàng)新點介紹
1.1 模型簡介
● 數(shù)據(jù)集:CWRU西儲大學軸承數(shù)據(jù)集
● 環(huán)境框架:python 3.9 pytorch 1.8 及其以上版本均可運行
● 準確率:測試集100%
● 使用對象:論文需求、畢業(yè)設計需求者
● 代碼保證:代碼注釋詳細、即拿即可跑通。
1.2 創(chuàng)新點介紹
創(chuàng)新一:獨家原創(chuàng)預處理
結(jié)合快速傅里葉變換FFT和變分模態(tài)分解VMD來進行信號的時頻、域特征提取,能夠挖掘故障信號中的多尺度特征:
(1)預處理——FFT:FFT是一種廣泛應用的頻域分析方法,可以將信號從時域轉(zhuǎn)換到頻域,得到信號的頻譜信息。通過FFT,我們可以獲取信號在不同頻率上的能量分布,進而了解信號的頻率成分。然而,F(xiàn)FT只提供了信號在某個時刻的頻譜信息,無法反映信號隨時間的變化。
(2)預處理——VMD:為了解決這個問題,可以引入變分模態(tài)分解(VMD)。VMD是一種基于信號自適應調(diào)整的模態(tài)分解方法,可以將信號分解為一系列模態(tài)函數(shù),每個模態(tài)函數(shù)代表信號在不同尺度上的特征。通過VMD,我們可以獲得信號在不同尺度上的時域特征信息。
創(chuàng)新二:雙支路特征提取并行網(wǎng)絡
(1)雙支路結(jié)構(gòu)設計:在創(chuàng)新模型中,信號經(jīng)過預處理后,通過兩個并行的特征提取支路進行處理,以捕獲信號的不同特征:
- 1DCNN支路:利用一維卷積神經(jīng)網(wǎng)絡(1DCNN)處理經(jīng)過FFT+VMD預處理后的時序信號,著重捕捉局部時域特征,通過卷積核的滑動實現(xiàn)平移不變性,增強對局部模式的識別能力。
- Informer支路:采用Informer編碼器架構(gòu)處理信號的全局特征,特別適合長序列數(shù)據(jù)的建模,能夠更好地捕捉信號的時序依賴和全局模式。
(2)并行處理優(yōu)勢:兩個支路在特征提取時可以同時進行,相互獨立但最終互補。1DCNN專注于短期局部特征,Informer則覆蓋長期依賴和全局特征,通過這種并行處理方式,實現(xiàn)對信號多尺度、多方面特征的全面捕捉。
創(chuàng)新三:多頭注意力機制(Multi-Head Attention)特征融合
(1)多頭注意力機制融合:使用多頭注意力機制來融合來自不同支路的特征。每個注意力頭可以看作是一個特征提取器,專注于特征的不同部分或不同方面。多頭注意力機制通過計算特征之間的相關性權(quán)重,動態(tài)調(diào)整特征的重要性,從而實現(xiàn)特征的加權(quán)融合。這種機制不僅能提升特征的表達能力,還能夠通過關注重要特征的方式增強模型的魯棒性,對抗噪聲和干擾。
(2)優(yōu)勢:多頭注意力機制的使用,使得融合后的特征更加具有層次性和多樣性,有助于提升分類模型的準確性和泛化能力。在處理復雜信號時,能夠更好地捕獲故障信號的細微特征和模式變化,提高故障診斷的準確率和可靠性。
2 軸承故障數(shù)據(jù)的預處理
2.1 導入數(shù)據(jù)
參考之前的文章,進行故障10分類的預處理,凱斯西儲大學軸承數(shù)據(jù)10分類數(shù)據(jù)集:
train_set、val_set、test_set 均為按照7:2:1劃分訓練集、驗證集、測試集,最后保存數(shù)據(jù)
上圖是數(shù)據(jù)的讀取形式以及預處理思路
2.2 故障FFT變換可視化
2.3 故障VMD分解可視化
2.4 故障數(shù)據(jù)的特征預處理數(shù)據(jù)集制作
3 基于1DCNN-Informer+MATT的軸承故障診斷模型
3.1 設置參數(shù),訓練模型
模型分類效果顯著,50個epoch,準確率100%,快速傅里葉變換(FFT)和變分模態(tài)分解(VMD)可以有效地挖掘信號中的多尺度特征,1DCNN-Informer+MATT并行的創(chuàng)新模型能夠充分提取軸承故障信號的空間和時序特征,收斂速度快,性能優(yōu)越,精度高,能夠從故障信號頻域、時域特征中屬于提取出對模型識別重要的特征,效果明顯,創(chuàng)新度高!
3.2 模型評估
準確率、精確率、召回率、F1 Score
故障十分類混淆矩陣:
3.3 其他可視化圖
(1)分類標簽可視化
(2)原始數(shù)據(jù) t-SNE特征可視化
(3)模型訓練后的 t-SNE特征可視化:
本文轉(zhuǎn)載自??建模先鋒??,作者:小蝸愛建模
