• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于壓縮感知和深度小波網(wǎng)絡(luò)的列車故障識別

      2019-09-04 10:14:27杜小磊陳志剛張楠許旭
      計算機應用 2019年7期
      關(guān)鍵詞:壓縮感知深度學習列車

      杜小磊 陳志剛 張楠 許旭

      摘 要:針對列車走行部故障振動數(shù)據(jù)無監(jiān)督特征學習的難點,提出了一種基于壓縮感知和深度小波神經(jīng)網(wǎng)絡(luò)(CS-DWNN)的列車故障識別方法。首先,對采集得到的列車走行部振動信號利用高斯隨機矩陣進行壓縮采樣;其次,構(gòu)建以改進小波自編碼器(WAE)為基礎(chǔ)的深層小波網(wǎng)絡(luò),將壓縮后的信號直接輸入網(wǎng)絡(luò)進行自動逐層特征提取;最后,用DWNN學習到的多層特征分別訓練多個深度支持向量機(DSVM)和深度森林(DF)分類器,并將識別結(jié)果進行集成。該方法利用深層小波網(wǎng)絡(luò)從壓縮信號中自動挖掘隱藏的故障信息,受先驗知識和主觀影響較小,并且避免了復雜的人工特征提取過程。實驗結(jié)果表明,CS-DWNN方法取得了99.16%的平均診斷正確率,能夠有效識別列車走行部的3種常見故障,識別能力優(yōu)于傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)(ANN)、支持向量機(SVM)等方法和深度信念網(wǎng)絡(luò)(DBN)、堆棧降噪自編碼器(SDAE)等深度學習模型。

      關(guān)鍵詞:列車;壓縮感知;小波自編碼器;深度學習;故障識別

      Abstract:Aiming at the difficulty of unsupervised feature learning on defect vibration data of train running part, a method based on Compressed Sensing and Deep Wavelet Neural Network (CS-DWNN) was proposed. Firstly, the collected vibration data of train running part were compressed and sampled by Gauss random matrix. Secondly, a DWNN based on improved Wavelet Auto-Encoder (WAE) was constructed, and the compressed data were directly input into the network for automatic feature extraction layer by layer. Finally, the multi-layer features learned by DWNN were used to train multiple Deep Support Vector Machines (DSVMs) and Deep Forest (DF) classifiers respectively, and the recognition results were integrated. In this method DWNN was employed to automatically mine hidden fault information from compressed data, which was less affected by prior knowledge and subjective influence, and complicated artificial feature extraction process was avoided. The experimental results show that the CS-DWNN method achieves an average diagnostic accuracy of 99.16%, and can effectively identify three common faults in train running part. The fault recognition ability of the proposed method is superior to traditional methods such as Artificial Neural Network (ANN), Support Vector Machine (SVM) and deep learning models such as Deep Belief Network (DBN), Stack De-noised Auto-Encoder (SDAE).

      Key words: train; Compressed Sensing (CS); Wavelet Auto-Encoder (WAE); deep learning; fault identification

      0 引言

      列車走行部用于保障列車安全平穩(wěn)地通過鋼軌,并可減小列車和鋼軌之間因相互沖擊產(chǎn)生的振動。當列車走行部發(fā)生故障時,通過分析其振動信號,可以及時地判斷列車故障狀況,對確保列車的安全運行起到重要作用[1]。

      當列車走行部發(fā)生故障時,其振動信號通常表現(xiàn)出非平穩(wěn)性,一般采用時頻分析方法。李佳睿等[2]采用改進的希爾伯特黃變換(Hilbert-Huang Transform, HHT)對列車走行部軸箱進行故障診斷;Lei等[3]使用集合經(jīng)驗模態(tài)分解(Ensemble Empirical Mode Decomposition, EEMD)分析列車軸承振動信號,然后選擇敏感特征,并結(jié)合人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)進行故障識別;然而使用HHT和EEMD等時頻分析方法進行特征提取很大程度上依賴于工程經(jīng)驗,并不能保證所提取特征的穩(wěn)定性,且傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)和支持向量機(Support Vector Machine, SVM)等淺層分類器面臨維數(shù)災難問題,難以表征被測信號與列車走行部故障之間復雜的映射關(guān)系[4]。

      深度學習[5]能自動從原始數(shù)據(jù)中學習具有代表性的特征,很大程度上擺脫了依賴于診斷專家的信號處理與特征提取經(jīng)驗,已逐漸應用于列車故障識別領(lǐng)域。郭超等[6]構(gòu)建多通道深度信念網(wǎng)絡(luò)(Deep Belief Network, DBN)模型進行列車故障識別;龐榮等[7]提出了一種基于深度降噪自編碼器(Deep Denoising Auto-Encoder, DDAE)的列車走行部故障識別方法;但DBN訓練困難,初始權(quán)值有指向性,易陷入局部最優(yōu);DDAE所使用的Sigmoid激活函數(shù)難以建立列車走行部故障與振動信號之間的精確映射關(guān)系[8]。小波函數(shù)包含尺度因子和位移因子,位移因子使小波沿著信號的時間軸進行遍歷性分析,尺度因子用于分析信號不同的頻率,因此,將小波和深度學習模型相結(jié)合,將使深度模型具有更優(yōu)的自動特征提取能力;而壓縮感知(Compressed Sensing, CS)[9]將列車原始高維振動信號進行壓縮采樣,在保留大部分信息的同時極大地減小了數(shù)據(jù)冗余量,與深度學習結(jié)合將更具優(yōu)勢。

      監(jiān)督學習方法需要大量的帶標簽訓練數(shù)據(jù),而列車經(jīng)長期運行后會積累大量無標簽振動數(shù)據(jù),因此,迫切需要無監(jiān)督學習與數(shù)據(jù)壓縮方法,在增強算法適應性的同時減小數(shù)據(jù)維數(shù),同時保留最有用的信息。本文在CS、小波和深度學習優(yōu)勢的基礎(chǔ)上,提出了一種新的列車走行部故障識別方法。先利用CS對列車走行部振動信號進行壓縮采樣,然后將壓縮信號直接輸入深度小波神經(jīng)網(wǎng)絡(luò)(Deep Wavelet Neural Network, DWNN)進行無監(jiān)督逐層特征提取,最后用DWNN學習到的多層特征分別訓練多個深度支持向量機(Deep Support Vector Machine, DSVM)和深度森林(Deep Forest, DF)分類器,并將結(jié)果進行集成。

      1 壓縮感知理論

      本文采用CS方法對采集到的列車走行部振動信號進行壓縮采樣,提高了后續(xù)的分析效率。CS基于信號理論和稀疏理論,設(shè)振動信號x∈RN,壓縮過程如下:

      其中:θ=[θ1,θ2,…,θN]T∈RN是x的稀疏系數(shù)向量,只包含很少的非0值;Ψ=[ψ1,ψ2,…,ψN]T∈RN×N是稀疏字典,本文使用離散余弦變換(Discrete Cosine Transform, DCT)字典,ψi∈RN是稀疏基;Φ∈RM×N為測量矩陣,一般取高斯隨機矩陣;y∈RM(MN)為壓縮采樣后的信號,包含了信號x的絕大多數(shù)信息。為盡可能減小數(shù)據(jù)維數(shù)同時保留足夠多的故障信息,必須確定合理的壓縮率,壓縮率定義如下:

      本文并非在信號采集系統(tǒng)上應用CS,而是在傳統(tǒng)的A/D采樣之后實施信號的壓縮采樣,采集的仍然是傳統(tǒng)的離散信號。

      2 深度小波神經(jīng)網(wǎng)絡(luò)

      2.1 改進小波自編碼器

      自編碼器(Auto-Encoder, AE)[10]包括輸入層、隱層和輸出層,輸入層維數(shù)等于輸出層維數(shù),其核心思想是逼近一個恒等函數(shù)以自動完成特征提取。小波自編碼器(Wavelet Auto-Encoder, WAE)將AE的Sigmoid激活函數(shù)替換為小波函數(shù)φ,將小波的時頻局部特性和AE的自動特征提取優(yōu)勢相結(jié)合,具有更好的特征表示性能。DWNN由多個WAE構(gòu)成,標準WAE和2隱層DWNN的結(jié)構(gòu)如圖1。

      設(shè)WAE輸入層有m個節(jié)點,隱層L個節(jié)點,輸出層m個節(jié)點,Wjk是連接隱層小波節(jié)點j和輸入層節(jié)點k的權(quán)值,aj和cj分別為隱層小波節(jié)點j的縮放因子和平移因子。給定輸入樣本向量x=[x1,x2,…,xm]T∈Rm,則隱層小波節(jié)點j的輸出為:

      其中,φ為小波激活函數(shù),本文以Morlet小波函數(shù)的實部作為隱層激活函數(shù),表達式如下:

      則小波層節(jié)點j的輸出改寫為:

      輸出節(jié)點i的輸出為:

      其中,Wij是隱層小波節(jié)點j與輸出節(jié)點i之間的連接權(quán)值。訓練WAE就是不斷地調(diào)整參數(shù),最后找到一組最優(yōu)參數(shù)θWAE={Wij,Wjk,aj,cj},使輸入與輸出間的損失函數(shù)最小化。損失函數(shù)一般定義為均方誤差函數(shù),如下:

      其中:N為輸入樣本數(shù),xsi是輸入的第s個樣本的第i個維度,ysi是第s個重構(gòu)樣本的第i個維度,但標準WAE的抗噪能力弱,泛化能力弱,容易陷入過擬合,因此,作如下改進:改進誤差函數(shù)、加入收縮自編碼機制并改進權(quán)重更新策略,詳細如下。

      1)標準WAE損失函數(shù)是用均方誤差函數(shù)設(shè)計的,如式(9),這對復雜信號的特征學習魯棒性低。文獻[11]中提出一種最大相關(guān)熵損失函數(shù),較好地克服了均方誤差函數(shù)的缺陷。最大相關(guān)熵對復雜非平穩(wěn)背景噪聲不敏感,具有與復雜信號特征相匹配的潛力。在本文中,采用最大相關(guān)熵函數(shù)作為WAE的損失函數(shù)。設(shè)兩個隨機變量A=[a1,a2,…,aP]T∈RP,B=[b1,b2,…,bP]T∈RP,相關(guān)熵的近似計算如下:

      其中,σ為高斯核函數(shù)尺寸,則WAE損失函數(shù)可以通過最大化以下函數(shù)實現(xiàn):

      其中:xi為輸入樣本向量,yi為重構(gòu)樣本向量。

      2)收縮自編碼機制。收縮自編碼(Contractive Auto-Encoder, CAE)[12]通過增加收縮懲罰項學習信號的魯棒性特征。CAE的懲罰項如下:

      通過最小化式(13),使CAE學到的隱層表示對輸入的狹小變動具有較強的魯棒性,則改進后的WAE的損失函數(shù)如下:

      其中:λ1為收縮懲罰項系數(shù),用于調(diào)節(jié)收縮懲罰項在目標函數(shù)中所占比重;DN為N個輸入樣本集合;λ2為權(quán)重衰減項系數(shù),用于防止網(wǎng)絡(luò)過擬合;sl是第l層的節(jié)點個數(shù)(s1=s3=m,s2=L);W(l)IJ為第l層權(quán)重,其中W(1)IJ=Wij,W(2)IJ=Wjk。

      其中:η為學習率,b為動量項系數(shù),LWAE(k)是WAE的第k次迭代的誤差。式(15)中,η是一個全局性的常數(shù),當η過大不利于收斂,η過小需要太多的訓練時間。為了解決上述問題,本文引入自適應學習率,以cj的更新為例,計算公式如下:

      DWNN堆疊多個WAE并采取逐層訓練方法,將上一級WAE隱層輸出作為下一級WAE的輸入,并保證損失函數(shù)最小化,從而構(gòu)成多層次的網(wǎng)絡(luò)結(jié)構(gòu),直到整個DWNN完成訓練。DWNN屬于無監(jiān)督網(wǎng)絡(luò),為了將其強大的數(shù)據(jù)處理能力用于列車故障識別,在圖1(b)所示的網(wǎng)絡(luò)最后一層加上有監(jiān)督Softmax分類器,用少量帶標簽樣本結(jié)合BP算法對整個網(wǎng)絡(luò)進行微調(diào),以增強特征提取效果。

      2.2 DWNN層次集成模型

      DWNN具有較強的特征表達能力,但易受到網(wǎng)絡(luò)層數(shù)和隱層節(jié)點數(shù)目的影響。集成學習可提高分類系統(tǒng)的泛化能力和可靠性。本文結(jié)合深度學習與集成學習的優(yōu)點,不僅利用DWNN的最后一層特征,還利用DWNN的中間層特征,用DWNN學習到的多層特征分別訓練DSVM[13]和DF[14]分類器。DSVM將深度學習模型應用于SVM中,將多個標準SVM堆疊,獲取更高階的判別特征,從而增強魯棒性。DF通過將多個隨機森林(Random Forest, RF)進行級聯(lián)從而達到更好地表征學習和分類的效果。最后對每個分類器采用多數(shù)投票法進行集成。圖2為本文4隱層DWNN層次集成模型,圖3為診斷流程。綜上,本文方法診斷步驟如下。

      步驟1 獲取不同故障狀態(tài)的列車走行部振動數(shù)據(jù)樣本集,從樣本集中隨機選取70%作為訓練樣本,其余作為測試樣本;訓練樣本中95%作為無標簽樣本進行無監(jiān)督訓練,5%作為有標簽樣本進行微調(diào)。

      步驟2 利用高斯隨機矩陣對列車走行部振動信號進行壓縮采樣。

      步驟3 確定網(wǎng)絡(luò)層數(shù)、各層節(jié)點的數(shù)量和學習率等參數(shù)。

      步驟4 進行網(wǎng)絡(luò)訓練,首先逐層無監(jiān)督訓練WAE,將前一級WAE的隱層輸出作為下一級WAE的輸入,逐層提取特征信息,將最后一級WAE的隱層輸出作為Softmax分類器的輸入,通過有監(jiān)督BP算法微調(diào)整個DWNN。

      3 實驗結(jié)果與分析

      3.1 實驗數(shù)據(jù)介紹

      空氣彈黃、橫向減振器和抗蛇形減振器是走行部的3個關(guān)鍵部件,這3個關(guān)鍵部件若出現(xiàn)故障將嚴重威脅列車安全運營。本文所用的實驗數(shù)據(jù)來自某大學重點實驗室,實驗室數(shù)據(jù)集記錄了列車走行部7種工況下的振動信號,如表1。

      在不同工況下采集40km/h和80km/h速度下的振動信號,每種速度下的振動信號包含4×105個采樣點,采樣頻率1000Hz。將每種速度下的數(shù)據(jù)分為1000段,每段包含400個采樣點。圖4為a、b、d和f工況下列車走行部振動信號時域圖,為減少噪聲干擾,將原始信號歸一化到[0,1]。從圖4可以看出幾種工況下的時域特征較為相似,難以進行區(qū)分。

      3.2 壓縮采樣

      將原始振動數(shù)據(jù)集與壓縮數(shù)據(jù)集分別標記為Y及Y′。數(shù)據(jù)集Y中包含2種速度下列車走行部7種工況,每類工況包含1000個樣本,每個樣本包含400個采樣點。通過不同維度的高斯隨機測量矩陣與數(shù)據(jù)集Y的相乘得到數(shù)據(jù)集Y′。經(jīng)反復實驗,取壓縮率r=50%,高斯隨機測量矩陣維度為200×400,根據(jù)式(1)和式(2)對數(shù)據(jù)集Y進行壓縮采樣,獲得壓縮采樣數(shù)據(jù)集Y′。數(shù)據(jù)集Y和Y′在后續(xù)實驗中將作為DWNN的輸入數(shù)據(jù)。

      3.3 與其他方法的對比

      DWNN雖然省去了大量的人工特征提取的時間,但其隱含層層數(shù)、隱含層節(jié)點數(shù)以及其他超參數(shù)的確定依然依賴人力。AutoKeras開源軟件利用貝葉斯優(yōu)化通過每次選擇最佳運算來引導結(jié)構(gòu)搜索空間,能根據(jù)所給定的數(shù)據(jù)集,自動搜索在上面執(zhí)行某個任務(wù)時可以達到最佳表現(xiàn)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。本文基于AutoKeras軟件搜索得到最優(yōu)DWNN的隱含層數(shù)目、隱含層節(jié)點數(shù)目以及其他超參數(shù)。根據(jù)本文方法,實驗中首先根據(jù)r=50%的壓縮率獲取壓縮數(shù)據(jù),然后將壓縮采樣數(shù)據(jù)隨機選取70%作為訓練數(shù)據(jù),余下作為測試數(shù)據(jù)。將訓練集輸入AutoKeras軟件,AutoKeras將自動搜索在執(zhí)行列車走行部故障識別任務(wù)時可以達到最佳表現(xiàn)的DWNN。輸出參數(shù)如下:輸出6層DWNN模型,包括輸入、輸出層及4個隱層。輸入層節(jié)點數(shù)為200,輸出層節(jié)點數(shù)為7,第1隱層節(jié)點數(shù)為155,第2隱層神經(jīng)元數(shù)為86,第3隱層節(jié)點數(shù)為38,第4隱層節(jié)點數(shù)為16,無跨層連接,無殘差連接,即DWNN模型結(jié)構(gòu)為200-155-86-38-16-7。其他主要參數(shù)分別如下:α為1.54,懲罰參數(shù)λ1為0.04,權(quán)重衰減項系數(shù)λ2為0.003,高斯核函數(shù)尺寸σ為3.26,Batch Size為20,WAE迭代次數(shù)為120,微調(diào)次數(shù)為500。每個DSVM分類器層數(shù)為兩層,核函數(shù)采用徑向基函數(shù)(Radial Basis Function, RBF),參數(shù)由10折交叉驗證方法確定。每個DF分類器隨機森林個數(shù)為2,隨機樹森林個數(shù)為2,參數(shù)由10折交叉驗證方法確定。為了保證提出方法的有效性,進行5次實驗,取平均結(jié)果。為驗證提出方法的優(yōu)越性,使用ANN、SVM、深度ANN、深度信念網(wǎng)絡(luò)(Deep Belief Network, DBN)和堆棧降噪自編碼器(Stacked Denoising Auto-Encoder, SDAE)進行分析比較。本文模型和其他深度模型輸入的是壓縮采樣數(shù)據(jù),ANN和SVM輸入的是24個特征(11個時域特征和13個頻域特征),這24個特征的詳細計算見文獻[15]。其他方法的主要參數(shù)如下。

      方法2(ANN) ANN結(jié)構(gòu)為24-50-7,學習率設(shè)為0.1,動量項為0.9,迭代次數(shù)設(shè)為500,結(jié)構(gòu)參數(shù)由反復實驗確定。

      方法3(SVM) SVM采用RBF核函數(shù),核函數(shù)的懲罰因子和半徑分別為20和0.11,由10折交叉驗證法[16]確定。

      方法4(深層ANN) 深層ANN結(jié)構(gòu)為200-144-80-40-20-7,學習率、動量參數(shù)和迭代次數(shù)分別為0.05、0.1和1900,激活函數(shù)為Sigmoid函數(shù),結(jié)構(gòu)參數(shù)由AutoKeras軟件確定。

      方法5(DBN) DBN的結(jié)構(gòu)為200-120-90-60-30-7,學習率、動量參數(shù)和迭代次數(shù)分別為0.08、0.2和1900,結(jié)構(gòu)參數(shù)由AutoKeras軟件確定。

      方法6(SDAE) DSAE的結(jié)構(gòu)為200-131-90-60-28-7,學習率、動量參數(shù)和迭代次數(shù)分別為0.08、0.2和1900,激活函數(shù)為Sigmoid函數(shù),結(jié)構(gòu)參數(shù)由AutoKeras軟件確定。

      圖6是為本文方法第一次測試的多分類混淆矩陣,全面記錄了列車走行部不同故障狀況的識別結(jié)果,包括正確分類信息和錯誤分類信息,縱坐標表示列車狀態(tài)的實際標簽,橫坐標表示預測標簽,主對角線上的元素代表了各故障狀態(tài)的識別精度。

      由表2可知,與其他方法相比,本文方法具有更高的分類準確率和更小的標準差,平均診斷正確率達到99.16%,高于其他方法,標準差僅0.18。由圖5,提出方法5次實驗的準確率分別為98.99%、99.49%、99.01%、98.87%和99.64%,均高于其他方法,主要原因是ANN和SVM等傳統(tǒng)淺層模型的性能很大程度上依賴于主觀的人工特征提取,導致診斷精度和泛化能力低。與其他深度模型相比,本文方法改進了編碼器損失函數(shù)并充分利用了小波函數(shù)的優(yōu)良特性,進一步提高了對復雜非平穩(wěn)振動信號的特征學習能力,因此具有更高的穩(wěn)定性。

      3.4 不同激活函數(shù)對DWNN的影響

      本節(jié)討論一系列具有不同激活函數(shù)的深度模型對列車走行部故障識別性能的影響,包括整流線性單元(Rectified Linear Unit, ReLU)、漏隙線性單元(Leaky Rectified Linear Unit, LReLU)、指數(shù)線性單元(Exponential Linear Unit, ELU)、Sigmoid函數(shù)、Swish函數(shù)和Gaussian函數(shù),各激活函數(shù)表達式如式(19)~(24):

      在本文DWNN結(jié)構(gòu)基礎(chǔ)上驗證不同的激活函數(shù)的性能,只需把DWNN中的小波激活函數(shù)替換為表3所列的激活函數(shù),實驗共進行5次,結(jié)果如圖7,可以看出,Morlet小波函數(shù)作為深度模型的激活函數(shù)對列車走行部故障識別率最高,DWNN結(jié)合了小波的時頻局部特性和深度模型的較強的特征提取能力,具有更好的特征表示性能;Sigmoid函數(shù)飽和區(qū)范圍廣,存在梯度消失問題,影響模型的性能;Swish函數(shù)存在運算成本大的問題;ReLU函數(shù)收斂速度快,但在進行反向傳播時,容易形成了“死神經(jīng)元”,對網(wǎng)絡(luò)不利;LReLU改進了ReLU,不會形成了“死神經(jīng)元”,但存在著抗噪能量弱的問題;ELU包含指數(shù)運算,存在運算量較大的問題。

      3.5 壓縮率對DWNN的影響

      壓縮率衡量壓縮信號與原始信號相比的壓縮程度,通過調(diào)整高斯隨機矩陣的規(guī)??梢詫崿F(xiàn)不同程度的壓縮。壓縮率受CS理論限制,過高的壓縮率將導致獲得的壓縮信號存在嚴重的信息損失。本節(jié)研究了不對信號進行壓縮采樣和壓縮率r在40%~90%變化時,列車故障識別準確率所受的影響,進行5次實驗,統(tǒng)計平均識別準確率和平均用時,結(jié)果如表3。

      由表3,壓縮率r在40%~90%變化時,識別準確率隨著壓縮率的降低整體趨勢在提高,當壓縮率小于50%后,平均診斷精度不再提高,反而有所下降,所需時間增加明顯;而不對信號進行壓縮采樣時,平均診斷正確率要低于壓縮率在50%的情況下2.86%,但是診斷時間卻大幅度增加。

      3.6 不同優(yōu)化算法對DWNN的影響

      深度學習模型所具有的良好的學習能力是建立在大量的訓練數(shù)據(jù)和較深層次的網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)之上的,因此深度模型的迭代和訓練時間會比較長,提高深度模型的收斂速度是必須要考慮的問題。本節(jié)將本文所提優(yōu)化方法與一些常見的深度網(wǎng)絡(luò)的優(yōu)化方法進行比較,包括自適應梯度(Adaptive Gradient, AdaGrad)、自適應學習率(Adaptive learning rate method, Adadelta)、均方根傳播(Root Mean Square Propagation, RMSProp)、自適應動量估計(Adaptive moment estimation, Adam)和自適應動量最大估計(Adaptive moment estimation maximum, Adamax)。共進行5次實驗,統(tǒng)計平均識別準確率和平均用時,如表4所示。

      由表4,本文所提出的自適應優(yōu)化算法診斷正確率最高,平均訓練用時相對最短;AdaGrad優(yōu)化方法仍依賴于人工設(shè)置一個全局學習率,在中后期有可能使得網(wǎng)絡(luò)訓練提前結(jié)束;Adadelta方法在訓練后期,容易反復在局部極小值附近抖動;RMSprop方法效果在AdaGrad和Adadelta方法之間;Adam和Adamax方法參數(shù)更新較平穩(wěn),但仍不如本文方法。

      4 結(jié)語

      本文提出一種基于CS和DWNN的層次集成模型,實現(xiàn)了高精度的列車走行部故障識別,主要結(jié)論如下:

      1)利用CS對列車走行部振動信號進行壓縮采樣,在保留有效信息的前提下實現(xiàn)了數(shù)據(jù)壓縮,很大程度上減少了信息冗余量,縮短了網(wǎng)絡(luò)的訓練時間。

      2)將深度模型和小波相結(jié)合,增添對信號時頻局部特性的表示,增強了網(wǎng)絡(luò)的自動提取特征的能力,且改進了小波自編碼器的誤差函數(shù),又引入收縮自編碼機制和自適應權(quán)值調(diào)整策略,有效防止DWNN的過擬合且增強了泛化性能。

      3)將集成學習引入故障診斷,不僅利用DWNN的最后一層特征,還利用DWNN的中間層特征,將DWNN學習到的多層特征分別訓練DSVM和DF分類器,提高了模型的泛化能力和可靠性。

      4)利用AutoKeras開源構(gòu)架自動搜索得到最優(yōu)DWNN的隱含層數(shù)目、隱含層節(jié)點數(shù)目以及其他超參數(shù),節(jié)省了大量人工調(diào)整參數(shù)的時間。后續(xù)將實驗其他的小波函數(shù)族及超小波函數(shù)族對網(wǎng)絡(luò)性能的影響,并繼續(xù)改進優(yōu)化算法。

      參考文獻 (References)

      [1] 陳志,李天瑞,李明,等.基于計算統(tǒng)一設(shè)備架構(gòu)的高鐵故障診斷方法[J].計算機應用,2015,35(10):2819-2823.(CHEN Z, LI T R, LI M, et al. Fault diagnosis method of high-speed rail based on compute unified device architecture [J]. Journal of Computer Applications, 2015, 35(10): 2819-2823.)

      [2] 李佳睿,岳建海.基于HHT及共振解調(diào)方法的動車組走行部軸箱軸承故障診斷算法[J].北京交通大學學報,2017,41(4):85-90.(LI J R, YUE J H. Fault diagnosis algorithm for the axle box bearing of walking unit in EMU based on HHT and resonance demodulation method [J]. Journal of Beijing Jiaotong University, 2017, 41(4): 85-90.)

      [3] LEI Y, HE Z, ZI Y. EEMD method and WNN for fault diagnosis of locomotive roller bearings [J]. Expert Systems with Applications, 2011, 38(6): 7334-7341.

      [4] SHAO H D, JIANG H K, HUI F W, et al. An enhancement deep feature fusion method for rotating machinery fault diagnosis [J]. Knowledge-Based Systems, 2017, 119: 200-220.

      [5] JURGEN S. Deep learning in neural networks: an overview [J]. Neural Networks, 2015, 61(1):85-117.

      [6] 郭超,楊燕,金煒東.基于EDBN-SVM的高速列車故障分析[J].計算機科學,2016,43(12):281-286.(GUO C, YANG Y, JIN W D. Fault analysis of high speed train based on EDBN-SVM [J]. Computer Science, 2016, 43(12):281-286.)

      [7] 龐榮,余志斌,熊維毅,等.基于深度學習的高速列車轉(zhuǎn)向架故障識別[J].鐵道科學與工程學報, 2015,12(6):1283-1288. (PANG R, YU Z B, XIONG W Y, et al. Faults recognition of high-speed train bogie based on deep learning [J]. Journal of Railway Science and Engineering, 2015, 12(6): 1283-1288.)

      [8] SHAO H D, JIANG H K, ZHAO K. A novel tracking deep wavelet auto-encoder method for intelligent fault diagnosis of electric locomotive bearings [J]. Mechanical Systems and Signal Processing, 2018, 110: 193-209.

      [9] DONOHO D. Compressed sensing [J]. IEEE Transactions on Information Theory, 2006, 52(4): 1289-1306.

      [10] 王雅思,姚鴻勛,孫曉帥,等.深度學習中的自編碼器的表達能力研究[J].計算機科學,2015,42(9):56-60.(WANG Y S, YAO H X, SUN X S, et al. Representation ability research of auto-encoders in deep learning[J]. Computer Science, 2015,42(9):56-60.)

      [11] SHAO H D, JIANG H K, ZHAO H, et al. A novel deep autoencoder feature learning method for rotating machinery fault diagnosis[J]. Mechanical Systems and Signal Processing, 2017, 95(10): 187-204.

      [12] 韓霜,吳奇,孫禮兵,等.基于深度收縮自編碼網(wǎng)絡(luò)的飛行員疲勞狀態(tài)識別[J].生物醫(yī)學工程學雜志,2018,35(3):443-451.(HAN S, WU Q, SUN L B. Recognition of fatigue status of pilots based on deep contractive auto-encoding network[J]. Journal of Biomedical Engineering, 2018,35(3):443-451.)

      [13] 姜紅茹.基于深度SVM和深度小波神經(jīng)網(wǎng)絡(luò)的極化SAR影像地物分類[D].西安:西安電子科技大學,2014:15-29.(JIANG H R. Terrain classfication of PolSAR image with deep SVM and deep wavelet networks[D]. Xian: Xidian University, 2014:15-29.)

      [14] 薛參觀,燕雪峰.基于改進深度森林算法的軟件缺陷預測[J].計算機科學,2018,45(8):160-165.(XUE C G, YAN X F. Software defect prediction based on improved deep forest algorithm[J]. Computer Science, 2018,45(8):160-165.)

      [15] QU J X, ZHANG Z S, GONG T. A novel intelligent method for mechanical fault diagnosis based on dual-tree complex wavelet packet transform and multiple classifier fusion [J]. Neurocomputing, 2016, 171(1): 837-853.

      [16] MINOWA Y. Verification for generalizability and accuracy of a thinning-trees selection model with the ensemble learning algorithm and the cross-validation method[J]. Journal of Forest Research, 2008,13(5): 275-285.

      猜你喜歡
      壓縮感知深度學習列車
      登上末日列車
      關(guān)愛向列車下延伸
      云南畫報(2021年4期)2021-07-22 06:17:10
      穿越時空的列車
      基于匹配追蹤算法的乳腺X影像的壓縮感知重構(gòu)
      MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應用展望
      淺析壓縮感知理論在圖像處理中的應用及展望
      深度學習算法應用于巖石圖像處理的可行性研究
      軟件導刊(2016年9期)2016-11-07 22:20:49
      基于ADM的加權(quán)正則化的塊稀疏優(yōu)化算法
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      武乡县| 抚远县| 安达市| 延庆县| 青川县| 麻城市| 威海市| 汶川县| 东乌珠穆沁旗| 浪卡子县| 枞阳县| 阿拉善右旗| 宕昌县| 土默特右旗| 施秉县| 台安县| 饶平县| 时尚| 三门峡市| 三原县| 松原市| 堆龙德庆县| 伊春市| 蓝山县| 黄大仙区| 运城市| 孟州市| 凤庆县| 林芝县| 奇台县| 武安市| 宝山区| 界首市| 辰溪县| 沙洋县| 凌云县| 中江县| 桂平市| 当雄县| 绿春县| 濮阳县|