任 爽,林光輝,田振川,商繼財,楊 凱
(東北石油大學 電氣信息工程學院,黑龍江 大慶 163318)
滾動軸承是旋轉(zhuǎn)機械的關(guān)鍵零部件,其廣泛應用于數(shù)控機床、工程機械和水利工程等眾多領(lǐng)域中,其正常運行對整個機械裝置起著舉足輕重的作用,一旦滾動軸承發(fā)生故障,輕則造成經(jīng)濟損失,重則危及人員生命安全[1-3]。因此,對滾動軸承進行故障診斷具有重要意義[4-5]。
近年來隨著深度學習的發(fā)展,越來越多的學者將其運用于故障診斷領(lǐng)域。王玉靜等[6]應用EEMD-Hilbert(Ensemble Empirical Mode Decomposition-Hilbert)方法對數(shù)據(jù)進行處理并結(jié)合DBN(Deep Belief Network)方法實現(xiàn)了變工況下滾動軸承的狀態(tài)識別。曲建嶺等[7]提出了一種一維卷積神經(jīng)網(wǎng)絡故障診斷方法,首先采用重疊分段對原始數(shù)據(jù)進行數(shù)據(jù)擴充,然后將訓練樣本以“時間步”進行劃分作為輸入,最后由輸出層分類器輸出診斷結(jié)果。陳仁祥等[8]應用離散小波變換對數(shù)據(jù)進行處理并結(jié)合CNN(Convolutional Neural Network)完成故障診斷工作,首先應用離散小波變換將原始數(shù)據(jù)轉(zhuǎn)換為時頻圖,之后使用CNN逐層提取時頻特征,最后由分類器分出故障類型實現(xiàn)診斷。
上述深度學習方法雖減少了診斷工作難度,但沒有完全實現(xiàn)CNN算法的強大特征提取能力。因此筆者利用Inception模塊和殘差模塊搭建一個新模型,并將原始一維信號進行短時傅里葉變換構(gòu)建時頻圖,充分發(fā)揮CNN模型對圖像處理的強大能力,通過實驗對比調(diào)整最優(yōu)的網(wǎng)絡參數(shù),實現(xiàn)快速準確的智能化軸承故障診斷。
短時傅里葉變換是一種用于時頻分析的算法。其原理是由一個長度固定的窗函數(shù)截取輸入信號的一部分,對截取部分進行傅里葉變換,然后通過窗函數(shù)的滑動得到整個時域的頻譜[9]。短時傅里葉變換公式為
(1)
其中z(u)為時序信號,g(u-t)為窗函數(shù)。變量t和f為時間和頻率分辨率,其公式為
(2)
(3)
其中N0為窗函數(shù)重疊寬度,N1為樣本長度,N2為窗函數(shù)寬度,N3為被截取信號長度。
當神經(jīng)網(wǎng)絡層數(shù)相對較高時,就很難被訓練,容易出現(xiàn)梯度爆炸、消失等問題。針對此問題,He等[10]提出了殘差神經(jīng)網(wǎng)絡(ResNet:Residual Neural Network)。ResNet是一種帶跳躍連接的網(wǎng)絡,它由基本的殘差塊首尾相接構(gòu)成。殘差塊的結(jié)構(gòu)如圖1所示。
Inception模塊[11]是一種卷積結(jié)構(gòu),其由不同大小的卷積核對輸入信號進行并行卷積運算,從而得到不同感受野,大幅提高了模型的特征提取能力[12]。Inception模塊的結(jié)構(gòu)如圖2所示。
圖1 殘差塊結(jié)構(gòu) 圖2 Inception模塊 Fig.1 Residual block structure Fig.2 Inception module
圖2中將3×3的卷積核轉(zhuǎn)變?yōu)?×3、3×1的卷積核;5×5的卷積核轉(zhuǎn)變?yōu)?×3、3×3的卷積核。這不僅不會改變模型特征提取能力,而且減小了模型的網(wǎng)絡參數(shù)量,降低了網(wǎng)絡訓練的時間。
全局均值池化(GAP:Global Average Pooling)是用于解決全連接網(wǎng)絡參數(shù)過多可能引起模型過擬合,用其對最后一層輸出的特征圖取全局平均值,這可兼顧到每張?zhí)卣鲌D中每個位置的特征。若GAP的參數(shù)為0,則在迭代過程中不需要進行參數(shù)優(yōu)化。全局均值池化的表達式為
(4)
圖3 Inception-殘差模塊Fig.3 Inception residual module
為提高殘差塊的特征提取能力,采用Inception結(jié)構(gòu)的思想,使用多個卷積核并行對數(shù)據(jù)進行特征提取,提高對數(shù)據(jù)的感受野,最后對不同感受野的特征進行融合,從而提高診斷的準確率。另外,為提高網(wǎng)絡收斂速度,還引入了批量歸一化(BN:Batch Normalization)技術(shù)[13]。Inception-殘差模塊如圖3所示,采用雙并聯(lián)卷積通道提取特征并且進行特征融合,然后與上層原始輸入信號進行相加,合成信號經(jīng)過非線性函數(shù)激活進行下一層的特征提取。
Inception-殘差網(wǎng)絡結(jié)構(gòu)如圖4所示。將二維時頻圖作為輸入信號,首先經(jīng)過一個卷積層和最大池化層,對數(shù)據(jù)進行初次特征提取與降低輸出向量大小,以便加快后續(xù)訓練速度,然后再經(jīng)過一個Inception-殘差塊和Inception層進行不同感受野的特征提取,通過最大池化層降低輸出向量大小,之后由全局均值池化層對輸出數(shù)據(jù)平鋪,最后由Softmax全連接層進行分類。
圖4 STFT-Inception-殘差網(wǎng)絡結(jié)構(gòu)Fig.4 STFT-Inception-residual network structure
實驗使用美國凱斯西儲大學(CWRU:Case Western Reserve University)公開的軸承試驗數(shù)據(jù)[14]。故障由電火花加工而成,分別是滾動體、內(nèi)圈和外圈故障,故障直徑大小分別為0.177 8 mm,0.355 6 mm和0.533 4 mm,共計9種故障狀態(tài)。同時加上正常狀態(tài),所以共有10種分類狀態(tài)。實驗數(shù)據(jù)集為采樣頻率12 kHz、負載0下驅(qū)動端軸承數(shù)據(jù),通過數(shù)據(jù)重疊方式進行數(shù)據(jù)擴充,每種狀態(tài)的樣本數(shù)量為1 000,樣本長度為1 024,按照7 ∶2 ∶1的比例分為訓練集、驗證集和測試集。數(shù)據(jù)集描述如表1所示。
表1 數(shù)據(jù)集描述Tab.1 Data set description
對每個樣本進行短時傅里葉變換將其轉(zhuǎn)換為64×64的時頻圖,短時傅里葉變換的參數(shù):窗口長度N2為128,窗口重疊寬度N0為114,被截取信號長度N3為128,變換后的時頻圖如圖5所示。
圖5 STFT生成的時頻圖Fig.5 Time frequency diagram generated by STFT
在進行參數(shù)設(shè)置時,比較復雜的模型可提高模型特征的提取能力,從而提高診斷準確率,但同時會增加模型的參數(shù)量,進而增加訓練時間還可能出現(xiàn)過擬合現(xiàn)象。所以在設(shè)置模型參數(shù)時應保持一種平衡,經(jīng)過重復試驗比較,得到了如表2所示的參數(shù)設(shè)置。
在優(yōu)化器方面,選擇學習率可以自適應的Adam優(yōu)化器,在訓練過程中學習率隨著訓練過程自動修改,在訓練初期選擇較大的學習率,以加快訓練速度。隨著迭代次數(shù)增加,逐漸減小學習率,使模型可以更好的進行擬合,提高模型性能。在學習率方面,其初始值設(shè)為0.001,最小值設(shè)為0.000 01。
表2 Inception-殘差網(wǎng)絡模型參數(shù)Tab.2 Parameters of inception residual network model
不同的批量尺寸(batch size)和迭代次數(shù)(epoch)會影響訓練速度和診斷的正確率和穩(wěn)定性。下面通過實驗選擇合適的batch size和epoch。
1) batch size選擇。由于參與深度學習模型訓練的樣本數(shù)比較大,若以單個樣本進行每次迭代可能會使模型陷入局部最優(yōu),并且造成模型的過擬合,影響測試集的診斷準確率。通常模型進行訓練時將訓練樣本分批次(batch)進行參數(shù)更新,一般將batch size設(shè)置為2n個,這樣即使訓練樣本較大也可以到達收斂。如果batch size設(shè)置值較小會增加每次訓練時間,且模型容易過擬合;若batch size設(shè)置值較大雖然會加快訓練時間但會使模型不易擬合。所以batch size大小設(shè)置對模型的診斷準確率有著很大影響。分別設(shè)置不同大小的batch size,每組進行10次訓練,實驗結(jié)果如表3所示。由表3可看出,batch size為64時測試集的準確率最高且訓練時間適中,因此將batch size的大小設(shè)置為64。
表3 Batch size大小對模型的影響Tab.3 Effect of batch size on model
2) epoch選擇。對迭代次數(shù)(epoch)選擇,如果epoch設(shè)置值較小可能使模型訓練不夠充分,影響診斷準確率;如果epoch設(shè)置值較大可能會使模型陷入局部最優(yōu),造成模型過擬合,并且增加的模型訓練時間。同樣分別設(shè)置不同大小的epoch,每組進行10次訓練,實驗結(jié)果如表4所示。由表4可看出,epoch為10時測試集的結(jié)果為最優(yōu),因此將epoch的大小設(shè)置為10。
表4 Epoch大小對模型的影響Tab.4 Influence of epoch size on the model
通過上述對模型參數(shù)選擇,對樣本進行訓練,訓練集(Train)和驗證集(Valid)的診斷準確率曲線和損失函數(shù)曲線如圖6所示。圖6中顯示模型經(jīng)過兩次迭代基本趨于穩(wěn)定,并且達到了很高的診斷準確率和相當?shù)偷膿p失值,10次迭代結(jié)束后訓練集和驗證集準確率都到達了100%,并且在后7次的迭代過程中均保持為100%,表示模型沒有發(fā)生過擬合現(xiàn)象,并且最終驗證集的損失值達到了7.2×10-3。
為對比STFT-Inception-殘差模型與其他方法模型對軸承故障診斷的識別能力,分別與多層感知器(MLP:Multilayer Perceptron)、經(jīng)驗模態(tài)分解(EMD:Empirical Mode Decomposition)結(jié)合Hilbert-CNN的方法[15]和經(jīng)過STFT變換形成時頻圖的二維卷積神經(jīng)網(wǎng)絡(STFT-2D-CNN)進行比較。為避免偶然性,每種方法進行10次試驗,取10次的平均診斷準確率。對比實驗結(jié)果如表5所示。
圖6 迭代過程準確率和損失函數(shù)曲線Fig.6 Accuracy and loss function curve of iterative process
表5 各方法平均準確率Tab.5 Average accuracy of each method
可以發(fā)現(xiàn),簡單的MLP方法沒有卷積核,對數(shù)據(jù)特征提取能力較差,最終的準確率也比較低,并且穩(wěn)定性也比較差;EMD-Hilbert結(jié)合CNN的方法對數(shù)據(jù)進行希爾伯特黃變換處理,結(jié)合CNN提取特征,準確率和穩(wěn)定性都有了明顯提高;STFT-2D-CNN方法對一維原始數(shù)據(jù)進行STFT,對數(shù)據(jù)的頻率特征進行提取,相較于傳統(tǒng)的希爾伯特黃變換處理數(shù)據(jù)準確率和穩(wěn)定性有了進一步的提升。相對比,STFT-Inception-殘差模型的準確率達到了最高,并且準確率的偏差僅有0.02%,比其他方法都穩(wěn)定。
筆者采用Inception模塊和殘差網(wǎng)絡的思想,搭建了一種新的卷積網(wǎng)絡,并結(jié)合短時傅里葉變化將原始一維振動信號轉(zhuǎn)換為二維的時頻圖診斷滾動軸承的狀態(tài)信息。使用CWRU公開軸承數(shù)據(jù)驗證了該方法的可行性和優(yōu)越性。主要結(jié)論如下。
1) 將原始一維振動信號進行STFT轉(zhuǎn)換為時頻圖,更能發(fā)揮出卷積網(wǎng)絡的特征提取能力,能在驗證集和測試集取得很好效果,通過實驗進行參數(shù)選擇最終達到了99.98%的診斷準確率。
2) 與其他方法的對比實驗表明,Inception-殘差網(wǎng)絡模型的并行卷積思想相比于普通的卷積核具有更好的特征提取能力,診斷準確率和穩(wěn)定性上都優(yōu)于其他方法。