黎紅志,唐向紅,陸見光,楊 青,何 強(qiáng)
(貴州大學(xué)a.現(xiàn)代制造技術(shù)教育部重點(diǎn)實(shí)驗(yàn)室;b.公共大數(shù)據(jù)國家重點(diǎn)實(shí)驗(yàn)室,貴陽 550025)
滾動(dòng)軸承作為許多機(jī)械設(shè)備的核心部件,其穩(wěn)定性是保障設(shè)備能夠正常工作的關(guān)鍵[1],滾動(dòng)軸承故障常常是造成設(shè)備故障的主要原因之一[2-3],因此準(zhǔn)確快速進(jìn)行滾動(dòng)軸承故障診斷對降低經(jīng)濟(jì)損失有著重要意義[4]。
近年來,基于傳感器監(jiān)控、狀態(tài)監(jiān)控和預(yù)測方面取得了進(jìn)展[5],智能故障檢測也隨著傳感器技術(shù)的發(fā)展備受關(guān)注。將機(jī)器學(xué)習(xí)(machine learning,ML)和(deep learning,DL)技術(shù)應(yīng)用于滾動(dòng)軸承故障診斷的關(guān)鍵問題是開發(fā)一種能夠在相對較短的時(shí)間內(nèi)獲得滿意診斷性能的網(wǎng)絡(luò)結(jié)構(gòu)[6]。為了實(shí)現(xiàn)滾動(dòng)軸承故障檢測的ML和DL技術(shù),則需要提取信號的特征用于診斷,以達(dá)到更高的精度。其特征可以分為時(shí)域和頻域[7]。
FERNANDEZ等[8]提出了一種結(jié)合了支持向量機(jī)(support-vector-machine,SVM)、包絡(luò)分析和專家系統(tǒng),該方法實(shí)現(xiàn)了軸承故障的早期檢測和診斷。然而隨著測量技術(shù)的快速發(fā)展,數(shù)據(jù)集越來越大,經(jīng)典的ML算法在基于這些數(shù)據(jù)集上存在缺陷[9]。因此,深度神經(jīng)網(wǎng)絡(luò)(deep neural network,DNN)、卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)等被應(yīng)用在軸承故障診斷中[10]。HAN等[11]都提出了基于改進(jìn)CNN的故障診斷方法,并成功應(yīng)用于振動(dòng)信號的無監(jiān)督學(xué)習(xí)及故障特征提取,顯著提高了軸承與齒輪箱的故障診斷率。然而,以上研究中都忽略了所采集振動(dòng)信號的長短時(shí)序特征。對此,BIE等[12]提出了基于長短期記憶神經(jīng)網(wǎng)絡(luò)(long short term memory network,LSTM)的故障診斷方法,有效利用了振動(dòng)信號的長時(shí)序特征,但該方法訓(xùn)練時(shí)間太長且忽略了與短時(shí)序特征融合。PAN、沈濤等[13-14]提出了不同的CNN+LSTM軸承故障診斷方法,把短時(shí)序特征和長時(shí)序特征都合理利用并融合了長短時(shí)序特征,提高了模型的精度和穩(wěn)定性。但LSTM的時(shí)間復(fù)雜度問題導(dǎo)致其訓(xùn)練時(shí)間長,且以上研究中都對原始振動(dòng)信號進(jìn)行了預(yù)處理,未實(shí)現(xiàn)故障的端對端診斷。端對端的故障診斷方法,為實(shí)現(xiàn)時(shí)時(shí)故障診斷提供了可靠性,并且降低了計(jì)算成本。雖然KHORRAM等[15]提出了一種端對端的CNN+LSTM故障診斷方法,但仍然沒有解決LSTM運(yùn)行時(shí)間較長的問題。
針對以上問題,本文提出一種將CNN與門控循環(huán)單元(gated recurrent unit,GRU)結(jié)合的模型。該方法能在減少診斷時(shí)長的前提下充分利用原始振動(dòng)信號長短時(shí)序特征的融合,并最終實(shí)現(xiàn)端對端的滾動(dòng)軸承故障診斷。
卷積神經(jīng)網(wǎng)絡(luò)CNN是一種前饋神經(jīng)網(wǎng)絡(luò),區(qū)別于其他神經(jīng)網(wǎng)絡(luò)模型,卷積運(yùn)算操作賦予了CNN處理復(fù)雜圖像的特殊能力。CNN神經(jīng)元之間采用局部連接和權(quán)值共享的連接方式,典型的CNN由3個(gè)主要部分構(gòu)成:卷積層、池化層、全連接層。卷積層負(fù)責(zé)提取圖像中的局部特征,其卷積過程表達(dá)式如下:
(1)
池化層對輸入的特征圖進(jìn)行壓縮,一方面使特征圖變小,簡化網(wǎng)絡(luò)計(jì)算復(fù)雜度,另一方面進(jìn)行特征壓縮,提取主要特征,分為最大池化和平均池化。
全連接層在整個(gè)CNN中起到“分類器”的作用,負(fù)責(zé)把所有局部特征結(jié)合變成全局特征,用來計(jì)算最后每一類的得分并輸出分類結(jié)果[16],在輸出層用Softmax函數(shù)輸出各分類的概率,表達(dá)式為:
(2)
式中,p(yi)為分類的概率值;yi為前向傳播的輸出。
門控循環(huán)單元GRU神經(jīng)網(wǎng)絡(luò)來源于長短期記憶LSTM神經(jīng)網(wǎng)絡(luò),長短期記憶LSTM是一種特殊的RNN,主要解決了長序列訓(xùn)練過程中梯度消失和梯度爆炸的問題。簡單來說,就是相比普通的RNN,LSTM能夠在更長的序列中有更好的表現(xiàn)。
但由于LSTM引入了很多內(nèi)容,導(dǎo)致參數(shù)變多,也使得訓(xùn)練難度增大了很多,因此,KYUNGHYUN等[17]提出了GRU神經(jīng)網(wǎng)絡(luò)。GRU是LSTM神經(jīng)網(wǎng)絡(luò)的一種變體,為了克服RNN無法很好處理遠(yuǎn)距離依賴而提出了LSTM。GRU保持了LSTM效果的同時(shí)又使結(jié)構(gòu)更加簡單,兩者的內(nèi)部結(jié)構(gòu)分別如圖1和圖2所示。
圖1 LSTM內(nèi)部結(jié)構(gòu) 圖2 GRU內(nèi)部結(jié)構(gòu)
記憶體表達(dá)式:
(3)
候選隱藏層表達(dá)式:
(4)
更新門表達(dá)式:
zt=σ(Wz*[ht-1,xt])
(5)
重置門表達(dá)式:
rt=σ(Wr*[ht-1,xt])
(6)
式中,W、Wz和Wr為待訓(xùn)練參數(shù)矩陣;tanh為激活函數(shù),表達(dá)式為:
(7)
σ是Sigmoid激活函數(shù),其表達(dá)式為:
(8)
它可以使門限的范圍在0~1之間。
本文提出的LSS(long and short time series features)模型網(wǎng)絡(luò),模型成分主要分為一維卷積層CNN、池化層、GRU層以及分類輸出部分,損失函數(shù)采用分類交叉熵函數(shù),梯度下降采用Adam優(yōu)化器,卷積層采用全零填充,池化層采用最大池化函數(shù),模型圖如圖3所示。
圖3 LSS模型結(jié)構(gòu)
具體算法流程步驟如下:
步驟1:將原始振動(dòng)信號直接輸入模型,采用一維卷積進(jìn)行特征提取,為了降低特征復(fù)雜度以及維度,采用池化層采用最大池化進(jìn)行處理;重復(fù)過程3次,這一操作降低了輸入GRU部分?jǐn)?shù)據(jù)的復(fù)雜度,既可以加快GRU網(wǎng)絡(luò)處理信號的速度,同時(shí)也避免了Flatten操作,盡可能保留了輸入數(shù)據(jù)的長時(shí)序特征,確保了模型精度。
步驟2:GRU層網(wǎng)絡(luò)結(jié)構(gòu),通過更新門、輸出門的選擇過濾更新操作進(jìn)一步對特征進(jìn)行提取,主要提取長時(shí)序特征。
步驟3:最后利用全連接層把各層提取的長短時(shí)序特征融合,并用Sigmoid函數(shù)和Softmax函數(shù)分類輸出故障的分類結(jié)果。
步驟4:算法流程步驟如圖4所示。
圖4 算法流程
為了驗(yàn)證本文所提到方法的有效性,實(shí)驗(yàn)數(shù)據(jù)采用CUT-2軸承實(shí)驗(yàn)平臺(tái)采集振動(dòng)信號,實(shí)驗(yàn)平臺(tái)如圖5所示。本實(shí)驗(yàn)采用的軸承型號為6900ZZ,其故障采用人工干預(yù)的方法,即通過電火花加工技術(shù)分別在滾動(dòng)軸承的內(nèi)圈、外圈、球體上進(jìn)行點(diǎn)蝕,形成直徑為0.2 mm和0.3 mm的故障,如圖6所示。使用加速度傳感器采集軸承振動(dòng)信號,采樣頻率2 kHz,軸承轉(zhuǎn)速1500 r/min。
圖5 CUT-2軸承實(shí)驗(yàn)平臺(tái)
圖6 軸承故障位置
此次實(shí)驗(yàn)的數(shù)據(jù)集分為10種軸承狀態(tài),其中9種故障狀態(tài),1種正常軸承狀態(tài),分別給樣本標(biāo)簽賦值0-9,詳細(xì)信息如表1所示。每類故障采集500個(gè)樣本,樣本長度為1024,按照4:1:1的比例把數(shù)據(jù)集分割為訓(xùn)練集、驗(yàn)證集、測試集。
表1 CUT-2平臺(tái)數(shù)據(jù)集組成
經(jīng)過多次實(shí)驗(yàn)測試,最終確定LSS模型的參數(shù)設(shè)置如表2所示。
表2 LSS模型參數(shù)設(shè)置
本次實(shí)驗(yàn)硬件環(huán)境:Windows10 64位操作系統(tǒng),NVDIA GeForce RTX2060 GPU,內(nèi)存16 G。軟件環(huán)境:anaconda,pycharm2021.1版本,Tensorflow2.1框架。
(1)不同的激活函數(shù)對模型的識(shí)別存在一定的影響,常用的3個(gè)激活函數(shù)都有各自特點(diǎn),為了選擇最佳的激活函數(shù),本文對Sigmoid、tanh、Relu這3個(gè)常用的激活函數(shù)分別進(jìn)行了5組實(shí)驗(yàn),結(jié)果如表3所示。
表3 不同激活函數(shù)對識(shí)別率的影響
可以看出,Sigmoid激活函數(shù)的平均準(zhǔn)確率最高,平均測試時(shí)間與最少的Relu激活函數(shù)的平均測試時(shí)間相差甚小,平均損失函數(shù)都與最低的tanh激活函數(shù)的平均損失函數(shù)相差也甚小,在準(zhǔn)確率優(yōu)先的前提下,所以選取Sigmoid激活函數(shù)作為模型的激活函數(shù)。
(2)考慮到不同的批處理樣本數(shù)對識(shí)別率的影響,以及GPU對2的冪次的batch可以發(fā)揮更佳的性能,為了選擇最佳的批處理樣本數(shù),所以本文對16、32、64、128-50、128-100、256-50、256-100分別進(jìn)行了5組實(shí)驗(yàn),由于隨著批處理樣本數(shù)的增加,會(huì)出現(xiàn)欠擬合現(xiàn)象,所以,16、32、64的epochs(迭代次數(shù))設(shè)置為25,128、256分別對epochs為50、100進(jìn)行了實(shí)驗(yàn),計(jì)算實(shí)驗(yàn)的平均值。為了更直觀看到對比結(jié)果,繪制如圖7的統(tǒng)計(jì)圖。
圖7 不同批處理樣本數(shù)對識(shí)別率的影響
可以看出,批處理樣本數(shù)為32時(shí),平均準(zhǔn)確率為0.999 6,為實(shí)驗(yàn)最高,且損失值為實(shí)驗(yàn)最低,所以本文選取32為批處理樣本數(shù)。
(3)為了直觀展示本文所提出方法對故障的診斷分類效果,驗(yàn)證其收斂性、穩(wěn)定性和準(zhǔn)確性,本文對準(zhǔn)確率和損失值隨迭代次數(shù)以及精確率、召回率、F1-Score三個(gè)方面的數(shù)值進(jìn)行分析,結(jié)果如表4、圖8、圖9所示。
表4 LSS模型三指標(biāo)
由表4可知,本文所提方法對正常狀態(tài)和7種故障狀態(tài)的診斷精確率、召回率、F1-score均為1,即除個(gè)別故障類別外,其余故障識(shí)別精度均可達(dá)到100%。
圖8 LSS訓(xùn)練測試準(zhǔn)確率 圖9 LSS訓(xùn)練測試損失值
由圖8、圖9可知,本文所提方法前期收斂快,整個(gè)過程波動(dòng)小,在迭代30次左右模型診斷效果基本趨于穩(wěn)定,且對各故障的診斷都能達(dá)到較高的效果。
(4)為了分析本文方法在提取并利用長短時(shí)序特征融合上的效果,將忽略長時(shí)序特征的模型與LSS進(jìn)行實(shí)驗(yàn)對比,引入混淆矩陣進(jìn)行一個(gè)直觀的可視化展示,如圖10、圖11所示。
圖10 忽略長時(shí)序特征的混淆矩陣 圖11 LSS混淆矩陣
可以看出,利用GRU層提取長時(shí)序特征并與短時(shí)序特征融合,模型的準(zhǔn)確率有所提升;除個(gè)別故障外,其余識(shí)別準(zhǔn)確率都為100%。所以,本文所提方法模型能有效利用不同層的長短時(shí)序特征交互加強(qiáng)實(shí)現(xiàn)端對端的滾動(dòng)軸承故障診斷識(shí)別。
(5)為更好驗(yàn)證本文所提到方法在不同迭代次數(shù)下的有效性以及優(yōu)越性,將其與不同模型進(jìn)行了對比,每種網(wǎng)絡(luò)都重復(fù)實(shí)驗(yàn)10次,其中設(shè)置迭代次數(shù)(epochs)為25次時(shí)實(shí)驗(yàn)5次,設(shè)置迭代次數(shù)為100次時(shí)實(shí)驗(yàn)5次,其余參數(shù)均與本文方法相同。各模型的對比結(jié)果如表5、表6所示。
表6 不同模型對比結(jié)果(epochs=100)
可以看出,epochs=100時(shí)的準(zhǔn)確率有所上升,又因?yàn)閱为?dú)的GRU模型效果很差,訓(xùn)練時(shí)間過于長,所以為了更直觀對比,選取epochs=100的平均實(shí)驗(yàn)結(jié)果,并剔除GRU模型,如圖12所示統(tǒng)計(jì)圖。
圖12 不同模型對比結(jié)果(epochs=100)
從圖12結(jié)果可以看出本文所提出的方法對故障的識(shí)別平均準(zhǔn)確率達(dá)到了0.999 2,且平均損失值最小,平均訓(xùn)練時(shí)間與準(zhǔn)確率較高的CNN+LSTM、ResNet模型相比最快,這是因?yàn)镚RU是LSTM的改進(jìn),在訓(xùn)練過程中需要調(diào)整的參數(shù)量少,從而降低了時(shí)間復(fù)雜度;ResNet有18層網(wǎng)絡(luò)結(jié)構(gòu),所以平均訓(xùn)練時(shí)間較長。
(6)為了驗(yàn)證該模型的泛化性和魯棒性,在所有參數(shù)不變的情況下,對凱斯西儲(chǔ)大學(xué)(case western reserve university,CWRU)的公開滾動(dòng)軸承數(shù)據(jù)進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)軸承為6205-2RS JEM SKF的深溝球軸承,安裝在電機(jī)殼體的驅(qū)動(dòng)端支撐電機(jī)軸,電機(jī)負(fù)載約為1 hp,軸承轉(zhuǎn)速為 1772 r/min。使用電火花加工技術(shù)在實(shí)驗(yàn)軸承的內(nèi)圈、滾動(dòng)體、外圈上布置單點(diǎn)故障,故障直徑分別為 0.007 in、0.014 in和 0.021 in,其中軸承外圈故障位置為6點(diǎn)鐘方向,采樣頻率為12 kHz。
以同樣的參數(shù)制作數(shù)據(jù)集,具體的實(shí)驗(yàn)樣本信息如表7所示。實(shí)驗(yàn)結(jié)果如圖13、圖14所示。
表7 CWRU數(shù)據(jù)集組成
(a) CWRU數(shù)據(jù)測試準(zhǔn)確率 (b) CWRU數(shù)據(jù)測試損失值
圖14 CWRU數(shù)據(jù)混淆矩陣
從圖13、圖14可看出,除個(gè)別故障外,其余故障識(shí)別精度均可達(dá)到100%。所以本文所提方法同樣能對凱斯西儲(chǔ)大學(xué)的數(shù)據(jù)進(jìn)行準(zhǔn)確的故障診斷,證明該方法具有良好的泛化性。
針對現(xiàn)有滾動(dòng)軸承故障診斷中的突出問題,本文提出了一種端對端長短時(shí)許特征的軸承故障診斷方法,其有效性在兩個(gè)實(shí)驗(yàn)平臺(tái)上得到了充分驗(yàn)證,主要優(yōu)勢有以下幾點(diǎn):
(1)有效利用了CNN高效快速的特征提取能力和數(shù)據(jù)降維能力,彌補(bǔ)了GRU運(yùn)行時(shí)間長的劣勢;
(2)利用最大池化層來替代Flatten層,避免了長時(shí)序特征的割裂,為GRU層提取長時(shí)序特征提供了可行性;
(3)考慮到GRU的在時(shí)間復(fù)雜度和空間復(fù)雜度上的優(yōu)勢,所以用GRU來提取長時(shí)序特征,能更快做到滾動(dòng)軸承故障診斷;
(4)實(shí)驗(yàn)是直接將原始振動(dòng)信號輸入模型進(jìn)行故障診斷,所以該方法具有端對端的滾動(dòng)軸承故障診斷能力。
然而,該模型作為CNN-RNN的改進(jìn),有著RNN結(jié)構(gòu)本身的一大弊端,即不可并行計(jì)算,這在數(shù)據(jù)量和模型體量逐步增大的未來,需要考慮到模型的泛用性,未來工作也將從小樣本提高模型準(zhǔn)確率以及大樣本提高診斷速度的角度去研究。