楊瑞恒,唐向紅,b,c,陸見光,b,c,陳功勝
(貴州大學(xué)a.現(xiàn)代制造技術(shù)教育部重點(diǎn)實(shí)驗(yàn)室;b.機(jī)械工程學(xué)院;c.公共大數(shù)據(jù)國家重點(diǎn)實(shí)驗(yàn)室,貴陽 550025)
軸承是廣泛運(yùn)用在各種機(jī)械裝備中的一種重要的零件,它能否正常運(yùn)行對于機(jī)械裝備來說及其重要[1];軸承出現(xiàn)故障,不僅會造成經(jīng)濟(jì)損失,甚至?xí)?dǎo)致人員受傷。目前,軸承故障診斷日益成熟。若軸承出現(xiàn)了故障,其解決流程一般是收集軸承故障信號,然后提取故障特征,再進(jìn)行故障分類[2-3]。對于故障的特征提取,其方法有希伯爾特變換[4]、傅里葉變換、經(jīng)驗(yàn)?zāi)B(tài)分解[5]、小波變換[6]等。隨著機(jī)器學(xué)習(xí)不斷發(fā)展,其在故障診斷領(lǐng)域得到了很高的重視。把故障特征應(yīng)用在決策樹[7]、貝葉斯分類器[8]、支持向量機(jī)[9]和神經(jīng)網(wǎng)絡(luò)等機(jī)器學(xué)習(xí)算法[10]中,可以有效地對故障進(jìn)行分類。
在故障診斷過程中,很多情況下提取的都是非平穩(wěn)的信號。小波變換能夠?qū)υ擃愋盘栠M(jìn)行時域和頻域的局部分析,相較于單一的時域或者頻域,小波變換能夠更好聚焦在信號的細(xì)節(jié)上[11]。離散小波變換(Discrete Wavelet Transform,DWT)是小波變換的一種,經(jīng)過DWT分解的信號擁有無冗余的特點(diǎn)[12],并且能夠較好的展現(xiàn)故障信號的時頻特性。
深度可分離神經(jīng)網(wǎng)絡(luò)是近年來提出的一種新穎的網(wǎng)絡(luò)結(jié)構(gòu),它可以達(dá)到和普通CNN同樣的效果,并且學(xué)習(xí)效率更高,可實(shí)現(xiàn)在保證準(zhǔn)確率的基礎(chǔ)上輕量化的網(wǎng)絡(luò)結(jié)構(gòu)[13]。一些領(lǐng)域內(nèi)的研究者對深度可分離網(wǎng)絡(luò)也進(jìn)行了相關(guān)的研究。Shang R H 等[14]使用基于CNN的深度可分離卷積進(jìn)行SAR圖像分類得到了很好的分類效果。曹渝昆等[15]提出了一種基于深度可分離的輕量級卷積神經(jīng)網(wǎng)絡(luò)方法,該方法證實(shí)了深度可分離神經(jīng)網(wǎng)絡(luò)可以明顯減少網(wǎng)絡(luò)結(jié)構(gòu)的參數(shù)量,節(jié)省結(jié)構(gòu)空間。Wang G H等[16]提出一種將可分離神經(jīng)網(wǎng)絡(luò)應(yīng)用到多尺度學(xué)習(xí)網(wǎng)絡(luò)中,并且得到了良好的分類效果。
本文提出一種基于離散小波變換和深度可分離神經(jīng)網(wǎng)絡(luò)以及SVM分類器的故障診斷方法。該模型首先利用離散小波變換對原始振動信號進(jìn)行處理形成樣本,然后把樣本輸入深度可分離神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,最后在全連接層后接SVM分類器進(jìn)行故障分類。本文基于CTU-2實(shí)驗(yàn)平臺進(jìn)行故障信號的采集并選取十種故障進(jìn)行訓(xùn)練與識別,結(jié)果表明,該方法擁有良好的準(zhǔn)確率和泛化能力。
通過實(shí)驗(yàn)采集的信號能夠被小波在不同尺度進(jìn)行分解,小波分解能夠通過這樣提取特征的方式,提取到非平穩(wěn)信號的特征。離散小波是在連續(xù)小波的尺度和位移的基礎(chǔ)上離散化得到的。連續(xù)小波變換(Continues WaveletTransform,CWT)可表達(dá)為:
(1)
在連續(xù)小波變換的公式中,φ(t)代表的是母小波,a為伸縮因子,b為平移因子。在此基礎(chǔ)上對連續(xù)小波進(jìn)行二階離散化,就可以得到離散小波變換:
(2)
在離散小波變換中,a變?yōu)?j,b變?yōu)?jk,經(jīng)過離散小波變換的信號具有無冗余的特點(diǎn),能夠有效地反應(yīng)信號特征。離散小波能夠?qū)⑿盘柗纸獬筛哳l通道和低頻通道,分解后的高頻和低頻還可以被繼續(xù)分解,形成高高頻、高低頻、低高頻、低低頻。
深度可分離卷積是近幾年機(jī)器學(xué)習(xí)領(lǐng)域比較熱門的一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),在各類分類任務(wù)中有著十分良好的效果。它可以避免提取一些冗余的有限元,大大減少所需的參數(shù)。與標(biāo)準(zhǔn)卷積相比,深度可分離卷積將整個特征提取分成深度卷積和逐點(diǎn)卷積,如圖1所示。
圖1 深度可分離卷積
由圖1可知,深度可分離卷積的第一步是深度卷積。深度卷積對每個輸入通道都使用單獨(dú)的過濾器,經(jīng)過深度卷積后的輸入通道,輸出的特征的映射個數(shù)和輸入通道數(shù)相同。經(jīng)過深度卷積后,總通道數(shù)保持不變,深度卷積的過程可以表示為:
(3)
其中,x為卷積層的輸入特征映射,W是卷積核的權(quán)值矩陣,(i,j)為輸出特征圖的坐標(biāo)點(diǎn),m,n和k是卷積核的三個維度。
深度可分離卷積的第二步就是逐點(diǎn)卷積,即對第一步深度卷的輸出進(jìn)行1×1卷積,逐點(diǎn)卷積可以提取空間特征,它在改變通道數(shù)的同時并且不會改變特征圖的大小,逐點(diǎn)卷積可以表示為:
(4)
對一個5×5×3的輸入映射進(jìn)行,使用兩個3×3×3的標(biāo)準(zhǔn)卷積核進(jìn)行卷積,得到一個3×3×2的特征映射。使用深度可分離卷積,對于每個單一通道,3個3×3×1的卷積核會單獨(dú)進(jìn)行卷積,生成3個3×3的特征圖,然后,使用兩個1×1×3的卷積核進(jìn)行卷積。
由上述兩個公式,深度可分離卷積可以表示為:
SConv(Wp,Wd,x)(i,j)=
PConv(W,x)(i,j)(Wp,DConv(Wd,x)(i,j))
(5)
普通的卷積過程為:
(6)
與普通的卷積相比,如果輸出通道的數(shù)量是O,對于普通卷積層,由式(6)可知,需要的總參數(shù)為M×N×K×O。根據(jù)式(5),深度可分離需要的總參數(shù)為M×N×K+K×O,其比值為:
(7)
由此可見,深度可分離卷積的參數(shù)量大大減少,參數(shù)優(yōu)化很明顯,訓(xùn)練速度提升效果十分明顯。
可分離卷積層后接有激活層和池化層,激活層的激活函數(shù)有Tanh、ReLU、PReLU等,它主要表示的是上層輸入與下層輸出之間的函數(shù)關(guān)系。PReLU函數(shù)又稱參數(shù)化糾正線性單元,是由Leaky ReLU變化而來,它為負(fù)值的輸入添加了一個線性項(xiàng)。PReLU函數(shù)的表達(dá)式如下:
(8)
其中,x為輸入,a為一個固定參數(shù),通常取0.01。激活層過后是池化層,池化層的池化函數(shù)通常有平均池化(Meaning Pooling),最大池(Max pooling),重疊池化(Overlapping Pooling),空金字塔池化(Spatial Pyramid Pooling)等。池化層的主要作用就是簡化數(shù)據(jù)、去除冗雜的信息,減小網(wǎng)絡(luò)的復(fù)雜度,較好的保留信息的完整度。它的數(shù)學(xué)表達(dá)式為:
(9)
支持向量機(jī)分類器主要由分離超平面的存在定義。也就對是給定標(biāo)記的訓(xùn)練數(shù)據(jù)集,該算法輸出一個最優(yōu)分類的超平面,超平面基本上將數(shù)據(jù)分為兩類。其主要目的是找出具有最大邊際的平面,邊際距離最大化為數(shù)據(jù)的分類提供了一定的支持。SVM通常是作為首選的幾個分類器之一,因?yàn)槠渲恍枰峙浜苄〉挠?jì)算力,就能得到很顯著的準(zhǔn)確率。SVM主要用于二分類和也可用于多類分類。現(xiàn)階段,SVM已經(jīng)廣泛運(yùn)用在機(jī)器學(xué)習(xí)的各個領(lǐng)域內(nèi),比如圖像識別,SAR目標(biāo)識別等等。
對于非線性分類,SVM不同的核函數(shù)是用來映射給定的輸入數(shù)據(jù)到高維空間。SVM所使用的核函數(shù)通常有多項(xiàng)式核函數(shù)(Polynomial Kernal)、線性核函數(shù)(Liner Kernal)、徑向基高斯核函數(shù)(Radial Basic Function)等。其中,RBF核函數(shù)在實(shí)際運(yùn)用中比較多,其數(shù)學(xué)表達(dá)式如下:
(10)
模型首先對故障信號數(shù)據(jù)進(jìn)行DWT分解成高高(HH)、高低(HL)、低高(LH)、低低(LL)4種不同的信號,并形成四通道樣本作為輸入信號輸入到可分離神經(jīng)網(wǎng)路進(jìn)行訓(xùn)練。在離散變換的過程中,小波基的選取也是十分重要。常用的小波基有Haar小波和Db小波等,但是Haar小波的緊支撐范圍窄,光滑性不是很好,對信號的時頻局部化的性能較差。對比Haar小波,Db小的光滑性能較好,在分析信號局部化方面比較優(yōu)秀。因此,本文選取Db1小波作為離散小波變換的小波基。
利用DWT形成樣本后,將樣本輸入進(jìn)深度可分離神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。神經(jīng)網(wǎng)絡(luò)的分離卷積層共有4層,在卷積層后,為了減少參數(shù)量和解決梯度下降的問題,使用PReLU作為激活函數(shù)。深度可分離神經(jīng)網(wǎng)絡(luò)和傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)一樣,也有池化層,主要是用來減小參數(shù),加快模型訓(xùn)練速度。模型選擇最大池化作為池化函數(shù)。對于最大池化,它的原理是在選取的范圍內(nèi),將范圍內(nèi)的最大特征當(dāng)作輸出,從而可以達(dá)到很好的泛化能力,并且可以防止過擬合。
在可分離神經(jīng)網(wǎng)絡(luò)的全連接層后接的是SVM分類器。其中RBF核函數(shù)在SVM的實(shí)際運(yùn)用中比較多,該函數(shù)需要調(diào)試的參數(shù)比較少,樣本大小對于其功能來說影響并不是很大。最為重要的是它能夠把低維的樣本點(diǎn)映射到更高維度。SVM經(jīng)過交叉驗(yàn)證選擇的懲罰參數(shù)為9。
本文實(shí)驗(yàn)環(huán)境為Intel i7-6700,Windows10,Python 3.6+Keras。使用的數(shù)據(jù)來自 CTU-2 軸承實(shí)驗(yàn)平臺,該實(shí)驗(yàn)平臺如圖2所示。
圖2 CTU-2 軸承平臺
在該平臺上,采集數(shù)據(jù)所使用的軸承型號為6900ZZ,采用電火花加工技術(shù)分別在軸承內(nèi)圈,滾動體和外圈上加工直徑為0.2 mm 和0.3 mm的故障,軸承的故障如圖3所示。
圖3 軸承故障
電機(jī)的采樣頻率為2 K,軸承的轉(zhuǎn)速為2000 r/min,采集故障信號數(shù)據(jù)的樣本長度為2048,訓(xùn)練集和測試集的劃分以及標(biāo)簽的分類如表1所示。
表1 實(shí)驗(yàn)樣本結(jié)構(gòu)
本文的故障信號的長度為2048,為形象展示選取的不同故障信號,且使用離散小波變換對故障信號進(jìn)行分解后的結(jié)果,選取了6類不同的標(biāo)簽樣本分別繪制了未被離散小波分解的波形以及被離散小波分解成HH、HL、LH、LL四種不同信號后的波形圖,圖4~圖9是原始振動信號以及對其進(jìn)行離散小波分解成4種不同信號的結(jié)果。
圖4 各種故障信號的波形圖
圖5 正常信號分解圖
圖6 內(nèi)圈(0.2 mm)故障信號分解圖
圖7 外圈(0.2 mm)故障信號分解圖
圖8 滾珠(0.2 mm)故障信號分解圖
圖9 內(nèi)圈(0.2 mm)+外圈(0.2 mm)故障信號分解圖
從故障信號波形圖中可以看出,不同的故障信號其波形圖是不一樣的。在提取的各個信號中,正常信號波形圖的波形是非常平穩(wěn)的,沒有出現(xiàn)較大幅度的變化。單一故障中的三類故障信號在波形圖上有相似的波形變化,但是外圈故障信號(0.2 mm)的波形變化明顯,波動幅度較大;內(nèi)圈故障信號(0.2 mm)波動幅度相對較小。選取的兩類復(fù)合故障信號波形沒有像單一故障那樣出現(xiàn)很明顯的變化,但是相較于正常信號的波形圖,兩類復(fù)合故障信號在波形圖的一些相鄰點(diǎn)出現(xiàn)了幅值差過大的情況。在選取信號的離散小波分解圖中,正常信號的4類信號波形相似且比較平穩(wěn),內(nèi)圈(0.2 mm)故障信號中的HH信號波形變化最明顯,HL和LL信號相對平穩(wěn)。外圈(0.2 mm)故障信號中HH信號波形變化較大,HL信號最為平穩(wěn)。滾珠(0.2 mm)故障信號中HH信號波形變化最為明顯,其次是LH信號,其余兩類信號的波形也出現(xiàn)了不同程度的變化。在內(nèi)圈(0.2 mm)+外圈(0.2 mm)的復(fù)合故障信號中,LH信號波形變化最為明顯,集中在后半段。從圖中可知,經(jīng)過離散小波分解后,不同故障信號的特征是不同的,且能夠被四類信號更好的表達(dá)。
本文最先開始對原始信號進(jìn)行了DWT分解,組成16×32×4的4通道輸入樣本,對輸入樣本進(jìn)行訓(xùn)練的SDCNN的結(jié)構(gòu)參數(shù)設(shè)置如表2所示。DSCNN分為9層,第一層的分離卷積卷積核個數(shù)為35個,大小為3×3,第一層的池化層的卷積核個數(shù)為35個,大小為2×2,池化層在降維的同時,不會過多的丟失信息。第二層的分離卷積和池化層的參數(shù)設(shè)置和第一層的相同。第三層的分離卷積卷積核個數(shù)為66個,大小為3×3,第三層的池化層卷積核個數(shù)為66個,大小為2×2,第四層的分離卷積和池化層的參數(shù)設(shè)置和第三層的相同。
表2 模型訓(xùn)練參數(shù)選擇
在DSCNN訓(xùn)練的過程中,使用了adam函數(shù)進(jìn)行優(yōu)化,改善模型的收斂速度,學(xué)習(xí)率為0.001,并且為了防止過擬合,在全連接層前添加了dropout函數(shù)。訓(xùn)練網(wǎng)絡(luò)中BatchSize設(shè)置為66,訓(xùn)練輪數(shù)為50,并且增加了Early-Stopping機(jī)制,在5個訓(xùn)練輪數(shù)內(nèi)如果損失值不再明顯降低,則停止訓(xùn)練。
本文對實(shí)驗(yàn)的數(shù)據(jù)集使用4種不同的方法來進(jìn)行比較,每種方式重復(fù)做10次實(shí)驗(yàn),然后取其平均值。在CNN模型中輸入的是512維向量,從表中可以看出CNN的平均準(zhǔn)確率為0.973 9,這是因?yàn)閭鹘y(tǒng)CNN在特征提取方面有所不足。SVM輸入為手工提取3類特征的512維向量,平均準(zhǔn)確率達(dá)到了0.968 5,這是因?yàn)镾VM沒有很好的挖掘數(shù)據(jù)的深層的信息,分類能力有限。相對比傳統(tǒng)的CNN,DWT-DSCNN能夠充分挖掘數(shù)據(jù)的特征,其次通過DSCNN模型的訓(xùn)連,能夠減小模型運(yùn)算的參數(shù),輕量化模型,平均準(zhǔn)確率達(dá)到了0.991 3。本文提出的DWT-DSCNN-SVM的平均準(zhǔn)確率達(dá)到了0.998 5,這是因?yàn)槌死昧薉WT和DSCNN的優(yōu)點(diǎn)外,還結(jié)合了SVM的優(yōu)秀分類能力,從而達(dá)到優(yōu)秀的分類功能,達(dá)到了令人滿意的結(jié)果。
表3 模型對比準(zhǔn)確率
為了更好地描述本文模型的優(yōu)越性,本文引入了分類報告來進(jìn)一步說明該模型。如表4所示,10種故障標(biāo)簽的準(zhǔn)確率都達(dá)到了1,充分說明了該模型的優(yōu)越;在召回率指標(biāo)上,除了標(biāo)簽4和9外,另外8種標(biāo)簽的值都達(dá)到了1,效果顯著;F1指標(biāo)除標(biāo)簽9外,其余都達(dá)到了1。
表4 不同指標(biāo)下的值
本文提出一種基于DWT-DSCNN-SVM的故障診斷方法,通過實(shí)驗(yàn)驗(yàn)證,該模型的診斷效果顯著,同時,對比很多傳統(tǒng)的故障診斷方法,該模型具有以下優(yōu)點(diǎn):
(1)通過離散小波分解,相較于傳統(tǒng)的CNN直接將數(shù)據(jù)輸入模型訓(xùn)練的方式,充分的挖掘了數(shù)據(jù)的特征。
(2)通過深度可分離神經(jīng)網(wǎng)絡(luò),達(dá)到了預(yù)期的訓(xùn)練效果,并且達(dá)到輕量化整體訓(xùn)練結(jié)構(gòu)的目的。
(3)為了達(dá)到更好的分類效果,在神經(jīng)網(wǎng)絡(luò)全連接層后添加了SVM分類器,該分類器經(jīng)過驗(yàn)證,可以達(dá)到很好的分類效果,并且準(zhǔn)確率相較于傳統(tǒng)的分類模型提高了很多。