曾卉露,李志農(nóng),*,章熙琴,陳玉成,陶俊勇
(1.無損檢測技術(shù)教育部重點實驗室(南昌航空大學(xué)),南昌 330063;2.國防科技大學(xué)裝備綜合保障技術(shù)重點實驗室,長沙 410073)
深度學(xué)習(xí)由于在數(shù)據(jù)處理方面具有良好的遷移學(xué)習(xí)能力,被廣泛應(yīng)用于數(shù)據(jù)的處理分類及預(yù)測。其中,深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)方法能夠訓(xùn)練神經(jīng)元間的權(quán)重,讓神經(jīng)網(wǎng)絡(luò)生成訓(xùn)練數(shù)據(jù),有利于識別和分類。在滾動軸承的故障診斷中DBN也進(jìn)行了廣泛的應(yīng)用研究。沈濤等[1]綜述了幾種典型的深度學(xué)習(xí)模型,總結(jié)了DBN模型在故障診斷應(yīng)用中的優(yōu)缺點;Samanta等[2]將這一方法運用在對機(jī)器故障的檢測中,但存在耗時長、迭代次數(shù)多等問題;Sanz等[3]結(jié)合深度學(xué)習(xí)與小波變換2種方法,先提取特征,再進(jìn)行分類識別;熊景鳴等[4]結(jié)合DBN與粒子群優(yōu)化支持向量機(jī)(PSO-SVM),提出了新型的滾動軸承故障診斷方法,提高了診斷準(zhǔn)確率;Shao等[5]采用了深度信念網(wǎng)絡(luò)進(jìn)行了軸承故障檢測的實驗,結(jié)果表明,DBN能提高魯棒性。
然而,現(xiàn)階段對于DBN的研究僅停留在一維檢測信號上,并沒有將其優(yōu)勢擴(kuò)大至更高維的情況。而實際工程應(yīng)用中,故障信號產(chǎn)生往往被多個因素共同影響,并不是單一的信號??紤]到多個因素的影響會使得故障分類精度變高,而傳統(tǒng)方法在復(fù)雜高維數(shù)據(jù)的特征提取過程中會產(chǎn)生誤差,進(jìn)而影響后續(xù)的故障診斷,張量TUCKER分解方法很好地解決了上述問題。許多學(xué)者對TUCKER分解進(jìn)行了深入的研究。許小偉等[6]基于TUCKER分解設(shè)計了一種聯(lián)立分解算法,對發(fā)動機(jī)故障進(jìn)行了高效診斷;趙洪山等[7-8]提出了一種基于TUCKER分解的配電網(wǎng)數(shù)據(jù)的壓縮方法,并與奇異值分解法進(jìn)行比較;王東方等[9]利用TUCKER分解實現(xiàn)了更有效的彩色圖像壓縮,有效減少了圖像信息損失。
為了能更好地解決傳統(tǒng)故障識別過程中數(shù)據(jù)處理復(fù)雜、耗時長、識別準(zhǔn)確率低的問題,本研究提出了TUCKER-DBN故障診斷方法,該方法通過對采集信號重構(gòu)之后的模型進(jìn)行TUCKER分解,將所得分解結(jié)果即核心張量作為DBN的輸入,進(jìn)行故障類型的分類。
假 設(shè) 有 三 線 性 數(shù) 據(jù) 陣X,X∈RI×J×K,由TUCKER分解之后得到的三階數(shù)據(jù)陣為G 。求解式‖X-G×U1×U2×U3‖,得到 最匹配 的優(yōu)解 是TUCKER分解的主要目的。而得到最適配的解可以轉(zhuǎn)化為式(1)中的最大值。
其中:U1∈RI×L,U2∈RJ×M,U3∈RK×N,L≤I,M≤J,N≤K 。
矩陣形式為:
因 子 矩 陣U1、U2、U3代 表 的 是X(1)、X(2)、X(3)的前L、M、N個左奇異向量構(gòu)成的矩陣。算法的具體步驟如下:
1)若三線性數(shù)據(jù)陣X 的階數(shù)R(n)滿 足n≤3,則需要對數(shù)據(jù)陣X進(jìn)行處理,即模-n矩陣化。處理之后可以得到X(n)。對矩陣X(n)按照式(3)進(jìn)行奇異值分解。
把U(n)的前R(n)個 列向量賦值給新的矩陣u(n),然后使n=n+1,不斷重復(fù)這一過程,直到當(dāng)n>3時為止。
2)當(dāng)n>3時,計算核心張量:
輸出投影矩陣u(n)。
《政策》從區(qū)域、客戶和項目三個維度明確了重點支持對象,為農(nóng)行支持農(nóng)業(yè)供給側(cè)結(jié)構(gòu)性改革、優(yōu)化“三農(nóng)”信貸結(jié)構(gòu)指明了方向。在區(qū)域方面,重點支持茶葉特色農(nóng)產(chǎn)品優(yōu)勢區(qū)、全國茶葉重點區(qū)域基地縣、全國重點產(chǎn)茶縣等茶葉特色明顯的地區(qū)。在客戶方面,特別強(qiáng)調(diào)加大對茶葉種植大戶、專業(yè)合作社、農(nóng)業(yè)產(chǎn)業(yè)化龍頭企業(yè)等新型農(nóng)業(yè)經(jīng)營主體的支持力度。在項目方面,明確重點支持優(yōu)質(zhì)茶企開展低產(chǎn)茶園改造、生態(tài)茶園以及茶旅融合等項目建設(shè)。此外,《政策》還結(jié)合種植、加工、流通等各環(huán)節(jié)主體生產(chǎn)經(jīng)營和資金需求特點,針對種植農(nóng)戶、經(jīng)紀(jì)人、農(nóng)民專業(yè)合作社、種植加工企業(yè)等茶產(chǎn)業(yè)鏈上的各類基礎(chǔ)客戶群體,分別制定了差異化的客戶準(zhǔn)入標(biāo)準(zhǔn)和支持政策。
3)判斷其是否收斂。若收斂,則可根據(jù)式(4)計算核心張量,計算重構(gòu)后的張量:
如果不收斂,則進(jìn)行步驟4。
4)若n>3,則上述步驟中求得的張量G為輸出項。若n仍≤3,則進(jìn)一步按照式(6)計算。解得不包含矩陣u(n)的所有矩陣:
將Y(n)的前 R(n)個 左奇異值賦給u(n)。
5)重復(fù)步驟4,當(dāng)n>3時退出循環(huán)。
經(jīng)過TUCKER分解后,能夠得到一個核心張量。這一核心張量用G來表示。之后的步驟就是將核心張量G作為輸入,輸入到DBN分類器中去,進(jìn)行DBN訓(xùn)練和分類。
DBN的優(yōu)勢在于能夠訓(xùn)練其神經(jīng)元,使其按照最大概率生成數(shù)據(jù)。DBN包含多層神經(jīng)元,分為顯性與隱性兩部分。顯性作用是接收輸入數(shù)據(jù),隱性作用就是進(jìn)行數(shù)據(jù)的特征提取。DBN是由很多受限玻爾茲曼機(jī)(Restricted Boltzmann Machine,RBM)共同構(gòu)成。RBM結(jié)構(gòu)如圖1所示。
圖1 RBM結(jié)構(gòu)圖Fig.1 RBM structure diagram
RBM結(jié)構(gòu)中包含有多層神經(jīng)元,被分為顯元(即可視層神經(jīng)元)與隱元(即隱藏層神經(jīng)元)。令v=(v1,v2,···,vn)表示可視層神經(jīng)元當(dāng)前所處狀態(tài)的向量;h=(h1,h2,···,hn)表示隱藏層神經(jīng)元當(dāng)前所處狀態(tài)的向量;i表示可視節(jié)點單元,i∈[1,n];j表示隱藏節(jié)點單元,j∈[1,m]。則對于任意的i、j,定義RBM的能量函數(shù)[10-12]為:
其中:a、b分別表示RBM中可視單元、隱藏單元的偏置;wij為連接的2個節(jié)點之間的權(quán)重值;θ={w,a,b}為參數(shù)。神經(jīng)元有2個狀態(tài),分別是已激活和未激活。通常情況下,1表示已經(jīng)激活,0表示還未激活。無論是可視層的神經(jīng)元還是隱藏層的神經(jīng)元,都只能屬于0~1的集合中。
此時,該模型2個層的節(jié)點聯(lián)合概率[13]可以按式(8)計算得出。
可視層條件概率:
隱藏層條件概率:
同一節(jié)點之間相互獨立,可見層節(jié)點被激活時的概率為:
隱藏層節(jié)點被激活時的概率為:
因為各個樣本之間互不影響,所以可以利用最大化似然函數(shù)的求解尋找合適的參數(shù)。似然函數(shù)可以表示為:
式中:P(v)表示可視層概率,θ表示RBM中的參數(shù), E(v,h)表示能量函數(shù)。
所有的參數(shù)更新標(biāo)準(zhǔn)為:
TUCKER分解的目的是為了得到張量G。G為核心張量,與原本張量不同,它是利用原本張量分解后壓縮而成的新張量。這一方法得到的數(shù)據(jù)量遠(yuǎn)小于原始數(shù)據(jù)量,能夠做到大幅度的數(shù)據(jù)壓縮,因此非常利于數(shù)據(jù)處理。結(jié)合TUCKER分解和DBN,建立的TUCKER-DBN模型的算法如圖2所示。
本研究選用發(fā)動機(jī)信號。選取部分狀態(tài)與信號對發(fā)動機(jī)狀態(tài)構(gòu)建所需的三階張量X ,X屬于RI×J×K。張量分解后3個方向I、J、K分別代表發(fā)動機(jī)狀態(tài)參數(shù)、曲軸轉(zhuǎn)角以及轉(zhuǎn)速。Xijk(i∈I,j∈J,k∈K)描述了轉(zhuǎn)速為k、轉(zhuǎn)角度為j時的第i種信號。
建立起對應(yīng)的TUCKER-DBN模型之后,具體的執(zhí)行過程如圖2所示。在對原始數(shù)據(jù)進(jìn)行歸一化之后,先進(jìn)行TUCKER分解,之后利用DBN進(jìn)行訓(xùn)練和分類識別。
圖2 TUCKER-DBN算法流程圖Fig.2 TUCKER-DBN algorithm flow chart
選用康明斯4B3.9-G2型發(fā)動機(jī)的參數(shù)作為依照,在GT-Crank軟件中搭建虛擬樣機(jī)進(jìn)行驗證。發(fā)動機(jī)轉(zhuǎn)速為1500 r/min時開始采集,分別采集發(fā)動機(jī)正常狀態(tài)下、發(fā)動機(jī)單缸失火狀態(tài)下、發(fā)動機(jī)軸系不對中狀態(tài)下的數(shù)據(jù)作為實驗樣本。
實驗中構(gòu)建三階張量的第1階表示的是發(fā)動機(jī)的狀態(tài)參數(shù)。本實驗中共有狀態(tài)參數(shù)分別為:曲柄銷處的連桿力、曲軸端轉(zhuǎn)矩、連桿軸向力、飛輪慣性力矩4項隨曲軸轉(zhuǎn)角的變化關(guān)系,所以第1階維數(shù)為4。第2階表示的是收集數(shù)據(jù)的次數(shù)。由于曲軸轉(zhuǎn)角考慮范圍是0°~180°,每轉(zhuǎn)1°采集一次,共收集180次數(shù)據(jù),因此第二階維數(shù)為180。發(fā)動機(jī)開始時轉(zhuǎn)速為1500 r/min,最終轉(zhuǎn)速為3000 r/min,每增加50 r/min采集一次數(shù)據(jù),共能夠采集到31組數(shù)據(jù),則第3階維數(shù)為31。由此,實驗數(shù)據(jù)構(gòu)成4×180×31的三階數(shù)據(jù)陣。
實驗進(jìn)行了120次,其中,30次樣本用作測試樣本,另90次樣本作為訓(xùn)練樣本。實驗一共采集到4×31×120個長度為180的數(shù)據(jù)。由于實驗考慮了多個故障因素,所以選用Sofmax分類器進(jìn)行故障分類。本研究中分別使用0、1、2表示發(fā)動機(jī)正常、單缸失火、軸系不對中的3種狀態(tài),并記錄如表1所示。
表 1實驗數(shù)據(jù)說明Table 1 Detail of experiments
圖3為未進(jìn)行和進(jìn)行TUCKER分解后進(jìn)行DBN分類的故障分類識別率統(tǒng)計。比較圖3a、圖3b可以看出:未使用TUCKER分解時,其識別率為85%~95%,而使用了TUCKER分解之后,識別率為90%~100%。由此可知,使用TUCKER分解可以提高故障分類識別的準(zhǔn)確率。
圖3 故障分類正確識別率Fig.3 Correct recognition rate of fault classification
圖4識別率與迭代次數(shù)Fig.4 Recognition rateand iteration times
圖4 為使用和未使用TUCKER分解的識別率與迭代次數(shù)的關(guān)系曲線。由圖4可知,使用TUCKER分解較未使用TUCKER分解的正確識別率更高;使用TUCKER分解所需的迭代次數(shù)更少,所需的訓(xùn)練時間相對較短,即效率更高。實驗結(jié)果如表2所示。由此可知,利用TUCKER分解可以用較少的迭代次數(shù)實現(xiàn)較高的識別率。因此,TUCKERDBN識別方法具有一定優(yōu)勢。
表2 實驗結(jié)果對比Table 2 Comparison of experimental results
實驗采集了3種不同狀態(tài)下的發(fā)動機(jī)數(shù)據(jù)樣本,對于每種類型的故障,分別選用10組數(shù)據(jù)進(jìn)行測試,測試結(jié)果如圖5所示??梢娪?個測試樣本出現(xiàn)錯誤分類的情況,分別是4、19號樣本沒有被歸類于類別2。類別2即軸系沒有對中而產(chǎn)生的故障。通過基于TUCKER分解的深度信念網(wǎng)絡(luò)識別算法,大部分的測試結(jié)果都被正確識別。本次測試樣本容量為30,28個樣本被正確識別分類,識別率為93%。說明了該方法的正確識別率較高。
圖5 測試樣本標(biāo)簽分類Fig.5 Label classification of test
1)提出了一種利用TUCKER分解大幅度壓縮數(shù)據(jù),再提取其核心張量作為故障特征,將核心張量輸入到DBN分類器中進(jìn)行訓(xùn)練和識別的深度信念網(wǎng)絡(luò)算法。
3)在采集的120個樣本中,選擇30個樣本進(jìn)行故障識別測試實驗,使用TUCKER-DBN識別方法的識別率為93%,驗證了所提方法應(yīng)用于發(fā)動機(jī)故障識別具有一定的可靠性。
2)與未使用TUCKER分解相對比,使用TUCKER分解的有效識別率更高,迭代次數(shù)更少,訓(xùn)練時間更短。