董紹江 楊舒婷 吳文亮
(1.重慶交通大學(xué) 機(jī)電與車輛工程學(xué)院,重慶 400074;2.西南交通大學(xué) 磁浮技術(shù)與磁浮列車教育部重點(diǎn)實(shí)驗(yàn)室,成都 610031)
軸承作為現(xiàn)代制造業(yè)的重要組成部分,在大多數(shù)旋轉(zhuǎn)機(jī)械的運(yùn)行中發(fā)揮著至關(guān)重要的作用,其健康狀況直接影響機(jī)構(gòu)性能的穩(wěn)定性與壽命,因此軸承故障診斷對(duì)機(jī)械系統(tǒng)運(yùn)行的可靠性和安全性具有重大意義。在實(shí)際應(yīng)用中,機(jī)械系統(tǒng)的工作環(huán)境變化很大。由于振動(dòng)信號(hào)容易被噪聲污染,因此在工業(yè)生產(chǎn)中不可避免地會(huì)產(chǎn)生噪聲。在嘈雜的環(huán)境下診斷故障類型的能力至關(guān)重要且具有挑戰(zhàn)性。
防止軸承可能損壞的最常見(jiàn)方法是在旋轉(zhuǎn)機(jī)構(gòu)運(yùn)行時(shí)對(duì)振動(dòng)進(jìn)行實(shí)時(shí)監(jiān)控,目前常應(yīng)用智能的故障診斷方法來(lái)識(shí)別故障類型[1-3]。Amar等[4]提出了一種故障診斷方法,該方法使用預(yù)處理的快速傅里葉變換(fast Fourier transform,F(xiàn)FT)頻譜圖像作為人工神經(jīng)網(wǎng)絡(luò)的輸入。從原始振動(dòng)信號(hào)生成的FFT頻譜圖像首先使用2D平均濾波器進(jìn)行平均,然后通過(guò)適當(dāng)?shù)拈撝颠x擇轉(zhuǎn)換為二進(jìn)制圖像。Shao等[5]針對(duì)滾動(dòng)軸承故障診斷提出一種帶有壓縮感知的改進(jìn)卷積深度置信網(wǎng)絡(luò),即先用高斯可見(jiàn)單位構(gòu)造一個(gè)新的卷積深度置信模型,以增強(qiáng)壓縮數(shù)據(jù)的特征學(xué)習(xí)能力;其次采用指數(shù)移動(dòng)平均技術(shù)來(lái)提高構(gòu)造的深度模型的泛化性能。
近年來(lái),隨著深度學(xué)習(xí)[6]在各種研究領(lǐng)域中作為計(jì)算框架的迅速普及,研究人員嘗試使用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)來(lái)診斷機(jī)械零件的故障。Wang等[7]提出了一種新的自適應(yīng)深度卷積神經(jīng)網(wǎng)絡(luò)用于滾動(dòng)軸承的故障診斷:首先,將深度CNN模型進(jìn)行自動(dòng)特征學(xué)習(xí);其次,采用粒子群算法確定深度CNN模型的主要參數(shù)。Janssens等[8]提出一種用于旋轉(zhuǎn)機(jī)械狀態(tài)識(shí)別的CNN模型,其輸入是從彼此垂直放置的兩個(gè)傳感器收集的兩行信號(hào)的離散傅里葉變換(discrete Fourier transform,DFT)。Abdeljaber等[9]提出一種自適應(yīng)1D CNN模型,用來(lái)對(duì)旋轉(zhuǎn)機(jī)械進(jìn)行檢測(cè)和定位結(jié)構(gòu)損傷。Guo等[10]提出了一種分層自適應(yīng)CNN模型,該CNN模型通過(guò)將故障位置確定層和故障大小評(píng)估層按層次排列來(lái)實(shí)現(xiàn)故障診斷。以上這些模型在軸承故障診斷方面取得了不錯(cuò)的效果,但是并沒(méi)有考慮在嘈雜的環(huán)境下診斷故障類型的能力,難以保證精度。
綜上所述,本文提出了一種基于抗噪多核卷積神經(jīng)網(wǎng)絡(luò)(anti-noise multi-core convolutional neural network,AMCNN)的軸承故障識(shí)別新方法,在訓(xùn)練中,為增加樣本數(shù),抑制過(guò)擬合,對(duì)原始訓(xùn)練樣本進(jìn)行加噪、重疊采樣處理,獲得軸承信號(hào)樣本并實(shí)現(xiàn)標(biāo)簽化。然后,根據(jù)標(biāo)簽化軸承樣本訓(xùn)練改進(jìn)的AMCNN軸承故障診斷模型,為提高模型抗噪能力,將AMCNN的一層設(shè)為dropout層。
CNN的基本結(jié)構(gòu)由正向傳播和反向傳播組成[11]。正向傳播的參數(shù)通過(guò)反向傳播算法進(jìn)行優(yōu)化。正向傳播由多個(gè)卷積層、池化層和幾個(gè)完全連接的層組成,卷積層的目的是在輸入數(shù)據(jù)通過(guò)各層傳播時(shí)提取它們的不同特征。CNN訓(xùn)練過(guò)程如下。
步驟1卷積
(1)
步驟2批量標(biāo)準(zhǔn)化
在將輸入數(shù)據(jù)映射到非線性函數(shù)之前,批量標(biāo)準(zhǔn)化(batch normalization,BN)可減少內(nèi)部協(xié)方差的移位,加快深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程,迫使輸入數(shù)據(jù)分布呈標(biāo)準(zhǔn)正態(tài)分布。輸入到該層的數(shù)據(jù)落入激活函數(shù)的敏感區(qū)域,以避免梯度消失。通過(guò)始終保持較大梯度的狀態(tài),可以調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù)以更快地收斂。BN層的轉(zhuǎn)換如下。
(2)
(3)
(4)
(5)
步驟3激活函數(shù)
最常見(jiàn)的激活函數(shù)為修正線性單元(rectified linear unit,ReLU)[13]。ReLU解決了S型局部梯度爆炸和梯度消失的問(wèn)題,加速CNN的收斂。ReLU的算法如下。
(6)
步驟4池化
池化層可以有效地減小矩陣的尺寸,不僅可以加快計(jì)算速度,而且可以防止過(guò)擬合[14]。通過(guò)簡(jiǎn)單的最大值計(jì)算該層的前向傳播,轉(zhuǎn)換如下。
(7)
式中,Ui表示cl的第i個(gè)特征矩陣。
步驟5SoftMax回歸
在神經(jīng)網(wǎng)絡(luò)的輸出進(jìn)入SoftMax分類之前,執(zhí)行全連接層。SoftMax回歸模型可以是用于優(yōu)化分類結(jié)果的學(xué)習(xí)算法[15],它將神經(jīng)網(wǎng)絡(luò)的輸出轉(zhuǎn)換為概率分布,該概率分布繪制了不同事件發(fā)生的概率。其轉(zhuǎn)換如下。
(8)
式中,y′i表示神經(jīng)網(wǎng)絡(luò)的第i個(gè)預(yù)測(cè)值,S(·)表示SoftMax函數(shù),di表示匯聚層的第i個(gè)輸出,n是神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)值的數(shù)量。
步驟6交叉熵
交叉熵是評(píng)估神經(jīng)網(wǎng)絡(luò)輸出的指標(biāo),它描述了模型的預(yù)測(cè)分布與真實(shí)標(biāo)簽分布之間的距離。輸入?yún)?shù)相應(yīng)標(biāo)簽值y′的交叉熵由神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)分布y-表示,轉(zhuǎn)換如下。
(9)
式中,H(y-,y′)描繪了用y-表達(dá)y′的難度。交叉熵是神經(jīng)網(wǎng)絡(luò)的損失函數(shù),當(dāng)交叉熵的值較小時(shí),神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)值接近真實(shí)值。
步驟7損失函數(shù)
損失函數(shù)是神經(jīng)網(wǎng)絡(luò)優(yōu)化的目標(biāo)函數(shù)。神經(jīng)網(wǎng)絡(luò)的優(yōu)化是使損傷函數(shù)最小化的過(guò)程,損失函數(shù)值越小,則預(yù)測(cè)值越接近實(shí)際結(jié)果,其轉(zhuǎn)換如下。
(10)
步驟8梯度下降
通過(guò)梯度下降法對(duì)模型的參數(shù)進(jìn)行優(yōu)化[16],其公式如下。
(11)
(12)
多核卷積是高靈活性的非線性學(xué)習(xí)模型,本文針對(duì)噪聲下的軸承信號(hào),采用AMCNN模型來(lái)增強(qiáng)模型的提取特征能力,提高識(shí)別精度。所提出的AMCNN識(shí)別模型建立了12層模型,包括1個(gè)輸入層、5個(gè)卷積層、4個(gè)池化層、1個(gè)全連接層和1個(gè)輸出層,第三卷積層采用多核卷積。同時(shí),通過(guò)BN方法對(duì)數(shù)據(jù)進(jìn)行處理。BN層使得輸入到該層的數(shù)據(jù)落入敏感的非線性變換函數(shù)區(qū)域中,以避免梯度消失。
數(shù)據(jù)集增強(qiáng)技術(shù)通過(guò)添加訓(xùn)練樣本的方式實(shí)現(xiàn)最大化神經(jīng)連接的通用性目標(biāo)。AMCNN模型需要大量的訓(xùn)練數(shù)據(jù),對(duì)于軸承信號(hào)的特征,在采樣時(shí)采用重疊采樣的方式以增加訓(xùn)練樣本的數(shù)量。這種采樣方式不僅可以在相鄰元素之間保持盡可能多的相關(guān)性,同時(shí)增加了參與模型的樣本數(shù)量,從而可以使模型學(xué)習(xí)到更強(qiáng)的分類特性。
此外,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程容易造成過(guò)擬合,在測(cè)試集上的識(shí)別率不佳,通用性較差。因此,在測(cè)試樣本中加入了-10~50 dB信噪比的隨機(jī)高斯白噪聲,以增加有限的樣本數(shù)量,減弱神經(jīng)網(wǎng)絡(luò)的神經(jīng)元之間的連接關(guān)系。加入隨機(jī)高斯白噪聲相當(dāng)于增加樣本,減少神經(jīng)網(wǎng)絡(luò)過(guò)擬合,高斯白噪聲可由下列方法得到。
(13)
(14)
(15)
式中,Pn是噪聲序列的功率,Pave是信號(hào)序列的平均功率,x(·)是信號(hào)序列,N是信號(hào)序列中的總點(diǎn)數(shù),k是信噪比,z表示噪聲能量的大小。同時(shí),在神經(jīng)網(wǎng)絡(luò)的第一層采用了dropout層,模擬真實(shí)環(huán)境對(duì)信號(hào)的干擾,以增強(qiáng)神經(jīng)網(wǎng)絡(luò)對(duì)噪聲的抗干擾能力。
最后構(gòu)建軸承故障識(shí)別模型,其結(jié)構(gòu)如圖1所示。首先,將原始信號(hào)進(jìn)行預(yù)處理,獲得軸承信號(hào)樣本并實(shí)現(xiàn)標(biāo)簽化。然后,根據(jù)標(biāo)簽化軸承樣本訓(xùn)練改進(jìn)的AMCNN軸承壽命狀態(tài)識(shí)別模型。在訓(xùn)練過(guò)程中,為抑制過(guò)擬合對(duì)原始訓(xùn)練樣本進(jìn)行加噪、重疊采樣處理,為提高模型抗干擾能力,將dropout層作為第一層。
在實(shí)際應(yīng)用中,機(jī)械系統(tǒng)的工作環(huán)境變化很大,其中主要涉及兩種變化:首先,工作負(fù)荷可能會(huì)隨著生產(chǎn)的需要而不斷變化,所以需要對(duì)訓(xùn)練樣本進(jìn)行分類和標(biāo)記;其次,工業(yè)生產(chǎn)中噪聲是不可避免的,振動(dòng)信號(hào)容易受到噪聲的污染。
實(shí)驗(yàn)數(shù)據(jù)來(lái)自美國(guó)凱斯西儲(chǔ)大學(xué)(Case Western Reserve University,CWRU)軸承故障信號(hào),選取了包含無(wú)故障樣本數(shù)據(jù)在內(nèi)的10類數(shù)據(jù)。分別選取內(nèi)圈、外圈、滾動(dòng)體在輕度損傷、中度損傷和重度損傷下的信號(hào)各200個(gè)樣本,采用重疊采樣的方式以增加訓(xùn)練樣本的數(shù)量,每個(gè)樣本長(zhǎng)度為2 048(3種損傷分別采用電火花加工出0.177 8、0.355 6、0.533 4 mm單點(diǎn)故障),另外還包含正常數(shù)據(jù)共10類數(shù)據(jù),采樣頻率為12 kHz,訓(xùn)練和測(cè)試集中的樣本個(gè)數(shù)比為4∶1。實(shí)驗(yàn)數(shù)據(jù)詳細(xì)介紹見(jiàn)文獻(xiàn)[18]。
AMCNN模型各層的參數(shù)見(jiàn)表1。
在實(shí)驗(yàn)中使用的所提CNN結(jié)構(gòu)由5層卷積和4層池化層組成,緊接著是全連接層和SoftMax層,其中第3層卷積層是由多核卷積核組成,實(shí)驗(yàn)使用Google的TensorFlow工具箱實(shí)現(xiàn)。第一個(gè)卷積內(nèi)核的大小為1×64,合適的第一個(gè)卷積內(nèi)核可以起到抗干擾作用[19,10],第3層多核卷積核的尺寸分別為1×1、1×4、1×8、1×16,多核卷積核對(duì)復(fù)雜特征提取能力更強(qiáng),更具魯棒性,能夠更好適用于噪聲環(huán)境。卷積層其余內(nèi)核大小為1×4,激活函數(shù)為ReLU。池化類型為最大池化,在每個(gè)卷積層和全連接層之后,批量歸一化用于改善CNN的性能。
本節(jié)通過(guò)對(duì)CNN訓(xùn)練過(guò)程的可視化展示模型特征提取過(guò)程。選用t分布隨機(jī)領(lǐng)域嵌入(t-distributed stochastic neighbor embedding,t-SNE)算法,通過(guò)基于具有多個(gè)特征數(shù)據(jù)點(diǎn)的相似性識(shí)別觀察到的模式來(lái)找出數(shù)據(jù)中的規(guī)律,將高維數(shù)據(jù)降低到2維以進(jìn)行可視化,使相似的數(shù)據(jù)離得更近,不相似的數(shù)據(jù)離得更遠(yuǎn)。圖2給出了從每個(gè)卷積層通過(guò)t-SNE方法提取的1 000個(gè)測(cè)試樣本的特征分布的可視化結(jié)果。由圖2可以看出,在最初的特征分布圖中,各類的特征分布是不可分的,但最后的全連接層中各個(gè)類別的特征點(diǎn)是完全可分的。
由此可見(jiàn),隨著層的深入,特征變得越來(lái)越可分割,特別是在通過(guò)第三層的多核卷積之后,各類特征點(diǎn)的分布有了顯著的變化,使得各個(gè)類別特征點(diǎn)的分布有了明顯的區(qū)分,可見(jiàn)多核卷積核在故障分類識(shí)別中起到了關(guān)鍵的作用。同時(shí),也驗(yàn)證了所提模型在故障分類上的有效性。
將本文所提模型與其他模型進(jìn)行對(duì)比,驗(yàn)證不同模型性能的優(yōu)劣。為了檢驗(yàn)本文網(wǎng)絡(luò)模型每個(gè)改進(jìn)部分的效果,設(shè)置了3種情形:情形1將傳統(tǒng)CNN和AMCNN進(jìn)行對(duì)比,傳統(tǒng)CNN結(jié)構(gòu)中無(wú)多核卷積核,其他參數(shù)與AMCNN參數(shù)一致;情形2設(shè)置為是否在訓(xùn)練樣本中添加噪聲;情形3設(shè)置為是否添加dropout層作為AMCNN網(wǎng)絡(luò)模型的第一層,其中dropout的值設(shè)為50%[20]。
表2中比較了不同信噪比環(huán)境下4種分類模型的識(shí)別正確率。
表2 不同信噪比環(huán)境下不同模型識(shí)別正確率Table 2 Accuracy of different models in different environments
AMCNN為文中所提出的方法,對(duì)訓(xùn)練樣本進(jìn)行加噪處理,第一層為dropout層;CNN模型為傳統(tǒng)CNN結(jié)構(gòu),訓(xùn)練樣本加噪,第一層為dropout層;AMCNN(無(wú)dropout)模型為采用AMCNN結(jié)構(gòu),訓(xùn)練樣本加噪,第一層無(wú)dropout層;AMCNN(未加噪)模型為采用AMCNN結(jié)構(gòu),訓(xùn)練樣本未加噪,第一層為dropout層。
由表2可以看出,當(dāng)SNR為10 dB時(shí),所有模型均顯示出更高的精度(接近100%的正確率)。隨著SNR的增加,CNN的準(zhǔn)確性大大提升。CNN模型、AMCNN(無(wú)dropout)模型、AMCNN(未加噪)模型在SNR從-10 dB上升到10 dB時(shí),正確率從10%~20%顯著上升到接近100%。相比之下,AMCNN模型最為穩(wěn)定,從-10 dB下的36%到10 dB下的99.66%。AMCNN模型在高噪聲環(huán)境下的正確率都大大高于其他模型,如在-10 dB下,AMCNN模型的正確率比其他模型高出15%~25%,體現(xiàn)出本文所提方法的優(yōu)越性,即在噪聲環(huán)境下良好的抗噪能力和極高的故障診斷能力。
隨著信噪比的上升,4個(gè)模型的識(shí)別正確率均呈現(xiàn)上升趨勢(shì),在信噪比高于6 dB的環(huán)境中,4個(gè)模型的識(shí)別正確率都能到達(dá)到99%以上,AMCNN模型與其余模型相比識(shí)別正確率差值小于0.32%。顯然,隨著信噪比進(jìn)一步上升,4個(gè)模型識(shí)別正確率的差別將會(huì)越來(lái)越小,均接近100%。但在高噪聲環(huán)境下,AMCNN模型與CNN模型相比,在-10 dB環(huán)境下識(shí)別正確率高出20.75%,在-8 dB環(huán)境下高出11.24%,表明在高噪聲環(huán)境下AMCNN模型比傳統(tǒng)CNN模型在抗噪能力上更優(yōu)。同理,比較AMCNN模型與AMCNN(無(wú)dropout)模型,AMCNN模型的識(shí)別正確率在-10 dB環(huán)境下高出14.70%,在-8 dB環(huán)境下高出17.79%,在AMCNN模型的第一層中加入dropout層會(huì)使得識(shí)別模型在高噪聲下的表現(xiàn)更加良好,比未改進(jìn)前的AMCNN模型具有更好的抗噪能力。比較AMCNN模型與AMCNN(未加噪)模型,AMCNN模型的識(shí)別正確率在-10 dB環(huán)境下高出23.99%,在-8 dB環(huán)境下高出26.53%,表明加入噪聲訓(xùn)練方法的樣本可以抑制模型的過(guò)擬合,使得識(shí)別模型在高噪聲環(huán)境下的表現(xiàn)更優(yōu)。綜上,這些實(shí)驗(yàn)驗(yàn)證了在低噪聲環(huán)境下,本文所提模型能夠?qū)崿F(xiàn)高識(shí)別正確率(達(dá)99%以上),同時(shí)在高噪聲環(huán)境下本文的改進(jìn)部分具有有效性,比其他模型具有更高的識(shí)別率。
表3為支持向量機(jī)(support vector machine,SVM)、深度神經(jīng)網(wǎng)絡(luò)(DNN)、convolutional neural networks with wide first-layer kernels (WDCNN)[21]、多層感知器(MLP)等模型在信噪比從-5 dB到0 dB環(huán)境下對(duì)軸承故障的平均識(shí)別正確率。
表3 -5 dB到0 dB環(huán)境下不同分類模型平均識(shí)別正確率Table 3 Average accuracy of different models in the range -5 dB to 0 dB
由表3的比較結(jié)果可以看出,本文所提方法在信噪比從-5 dB到0 dB強(qiáng)噪聲環(huán)境下的平均識(shí)別準(zhǔn)確度要高于其他方法。主要原因是深度學(xué)習(xí)方法可以有效地從輸入數(shù)據(jù)中學(xué)習(xí)基本特征,SVM等傳統(tǒng)方法的效率在很大程度上取決于人工牽引;同時(shí),本文針對(duì)噪聲環(huán)境對(duì)模型進(jìn)行了改進(jìn),其表現(xiàn)出的效果比部分神經(jīng)網(wǎng)絡(luò)算法更好。本文針對(duì)噪聲環(huán)境改進(jìn)了原始結(jié)構(gòu)和參數(shù),在從原始特征集中選擇最敏感的特征或具有優(yōu)異特性的一些新特征后,診斷結(jié)果將得到進(jìn)一步改善。與人工提取特征的傳統(tǒng)方法和其他深度學(xué)習(xí)方法相比,本文提出方法自動(dòng)特征學(xué)習(xí)能力更強(qiáng)大。
(1) 本文提出了一種新的解決故障診斷問(wèn)題模型AMCNN,包括兩個(gè)主要的抗干擾結(jié)構(gòu),即多核卷積核和外加dropout層,其中多卷核結(jié)構(gòu)通過(guò)使用不同大小的卷積核對(duì)輸入信號(hào)進(jìn)行并行處理以增加模型的寬度,使得模型對(duì)復(fù)雜特征提取能力更強(qiáng)。AMCNN直接處理原始振動(dòng)信號(hào),無(wú)需任何費(fèi)時(shí)的人工特征提取過(guò)程,為抑制過(guò)擬合,對(duì)原始訓(xùn)練樣本進(jìn)行加噪處理;為提高模型抗干擾能力,將dropout層作為AMCNN的第一層。
(2)針對(duì)在噪聲環(huán)境下的軸承信號(hào),所提出的帶有dropout結(jié)構(gòu)的模型相比其他模型對(duì)噪聲的容忍度更高;所提出的樣本數(shù)據(jù)加噪的訓(xùn)練方法有效地抑制了神經(jīng)網(wǎng)絡(luò)的過(guò)擬合問(wèn)題。
(3)實(shí)驗(yàn)驗(yàn)證結(jié)果表明相較于其他模型,本文所提出的AMCNN的網(wǎng)絡(luò)結(jié)構(gòu)在噪聲環(huán)境下對(duì)故障類型具有更好的識(shí)別率,在信噪比從-5 dB到0 dB強(qiáng)噪聲環(huán)境下的平均識(shí)別正確率為94.21%。