王 凱,萬小金,徐增丙,李清蕾
(1.武漢理工大學(xué) 現(xiàn)代汽車零部件技術(shù)湖北省重點(diǎn)實(shí)驗(yàn)室,湖北 武漢 430070;2.武漢理工大學(xué) 汽車工程學(xué)院,湖北 武漢 430070;3.武漢科技大學(xué) 機(jī)械自動(dòng)化學(xué)院,湖北 武漢 430081)
?
軟競(jìng)爭(zhēng)ART-RBF神經(jīng)網(wǎng)絡(luò)算法及應(yīng)用
王凱1,2,萬小金1,2,徐增丙3,李清蕾1,2
(1.武漢理工大學(xué) 現(xiàn)代汽車零部件技術(shù)湖北省重點(diǎn)實(shí)驗(yàn)室,湖北 武漢 430070;2.武漢理工大學(xué) 汽車工程學(xué)院,湖北 武漢 430070;3.武漢科技大學(xué) 機(jī)械自動(dòng)化學(xué)院,湖北 武漢 430081)
為了提高RBF網(wǎng)絡(luò)對(duì)時(shí)間序列的預(yù)測(cè)精度,引入軟競(jìng)爭(zhēng)ART,提出了基于軟競(jìng)爭(zhēng)機(jī)制的ART-RBF模型。在傳統(tǒng)RBF網(wǎng)絡(luò)的基礎(chǔ)上,自適應(yīng)控制生成隱含層節(jié)點(diǎn)的數(shù)目,并在第一階段的學(xué)習(xí)中引入基于相似度的軟競(jìng)爭(zhēng)機(jī)制。與硬競(jìng)爭(zhēng)ART-RBF網(wǎng)絡(luò)相比,軟競(jìng)爭(zhēng)機(jī)制的采用,使得隱含層的每個(gè)節(jié)點(diǎn)都能參與對(duì)樣本的學(xué)習(xí),提高了節(jié)點(diǎn)的利用率,并且減少對(duì)預(yù)測(cè)精度有著重要影響的類間混疊處樣本的誤分。使用Matlab對(duì)Mackey-Glass時(shí)間序列進(jìn)行仿真,并預(yù)測(cè)某軸承性能退化情況,結(jié)果表明該軟競(jìng)爭(zhēng)算法可以在一定程度上提高預(yù)測(cè)精度。
ART;軟競(jìng)爭(zhēng);RBF;軸承;預(yù)測(cè)
目前,人工神經(jīng)網(wǎng)絡(luò)已廣泛應(yīng)用于模式識(shí)別、決策優(yōu)化、市場(chǎng)分析、智能控制及趨勢(shì)預(yù)測(cè)等領(lǐng)域。神經(jīng)網(wǎng)絡(luò)包含很多種,最常見的如BP神經(jīng)網(wǎng)絡(luò),在分類識(shí)別、逼近、回歸、壓縮等領(lǐng)域有較多應(yīng)用,但其存在訓(xùn)練速度慢、易陷入局部極小等問題[1-2]。CPN網(wǎng)絡(luò)較之BP網(wǎng)絡(luò),其訓(xùn)練速度有了較大提高,但由于網(wǎng)絡(luò)性能的限制其應(yīng)用面較窄[3]。徑向基函數(shù)網(wǎng)絡(luò)(radial basis function,RBF),是在解決實(shí)多變量差值問題時(shí)提出的。1988年,BROOMHEAD等將RBF應(yīng)用于人工神經(jīng)網(wǎng)絡(luò)設(shè)計(jì),構(gòu)造了RBF網(wǎng)絡(luò)。POGGIO等[4]證明了RBF網(wǎng)絡(luò)具有最佳逼近特性,即存在一個(gè)權(quán)重集合,其逼近效果在所有可能的權(quán)重中是最佳的。傳統(tǒng)的RBF神經(jīng)網(wǎng)絡(luò),采用一種離線的訓(xùn)練算法獲取參數(shù),即從訓(xùn)練樣本空間中獲取隱含層聚類中心,從而確定網(wǎng)絡(luò)結(jié)構(gòu)。而當(dāng)訓(xùn)練樣本發(fā)生變化時(shí),網(wǎng)絡(luò)無法作相應(yīng)改變,只能重新進(jìn)行網(wǎng)絡(luò)參數(shù)的選取。自適應(yīng)共振理論(adaptive resonance theory,ART)是美國(guó)Boston大學(xué)的GROSSBERG提出的,該網(wǎng)絡(luò)可以實(shí)現(xiàn)自組織聚類功能。由于RBF網(wǎng)絡(luò)隱含層節(jié)點(diǎn)生成及分布也可以被看作聚類問題,有學(xué)者將ART的特點(diǎn)與RBF結(jié)合進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)。LEE等[5]基于ART的特點(diǎn)對(duì)樣本進(jìn)行聚類得到的RBF網(wǎng)絡(luò),結(jié)構(gòu)得到簡(jiǎn)化,學(xué)習(xí)速度提升,與TRBF和SRBF相比也有較小的逼近誤差,但涉及的參數(shù)較多。徐增丙等[6-7]提出的ART-RBF網(wǎng)絡(luò),在部分參數(shù)的選取上有所區(qū)別,但隱含層均采用硬競(jìng)爭(zhēng)的模式,只利用了獲勝節(jié)點(diǎn)對(duì)參數(shù)進(jìn)行調(diào)整,在一定程度上造成了樣本信息的浪費(fèi),且類間混疊處的樣本容易產(chǎn)生誤分,這些混疊處的樣本對(duì)預(yù)測(cè)精度有著重要的影響。筆者將基于相似度的軟競(jìng)爭(zhēng)算法引入ART-RBF第一階段的學(xué)習(xí)中,非獲勝節(jié)點(diǎn)也可參與到節(jié)點(diǎn)中心的調(diào)整中,提高了節(jié)點(diǎn)的利用率,減少了混疊處樣本的誤分,在一定程度上提高了神經(jīng)網(wǎng)絡(luò)對(duì)時(shí)間序列擬合和預(yù)測(cè)的精度。
RBF神經(jīng)網(wǎng)絡(luò)包括3層:輸入層、隱含層和輸出層。隱含層神經(jīng)元通過選取的基函數(shù)將輸入空間映射到一個(gè)新的空間,是一種非線性的變換,隱含層的輸出再通過該層與輸出層之間的權(quán)重實(shí)現(xiàn)線性加權(quán)組合。其拓?fù)浣Y(jié)構(gòu)如圖1所示。
圖1 RBF網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)
RBF的激活函數(shù)最常用的是高斯函數(shù):
式中:φj為隱含層第j個(gè)單元的輸出;h為隱含層節(jié)點(diǎn)的數(shù)目;X=(x1,x2,…,xn)T為輸入向量;Cj為第j個(gè)隱含層節(jié)點(diǎn)的中心;σj為寬度;‖X-Cj‖為輸入樣本與第j個(gè)隱層節(jié)點(diǎn)中心的歐氏距離,計(jì)算公式為:
(2)
網(wǎng)絡(luò)的輸出層是一組線性組合器,實(shí)現(xiàn)從隱含層激活函數(shù)到網(wǎng)絡(luò)輸出的線性映射,輸出層輸出即為隱含層節(jié)點(diǎn)輸出的線性組合,即:
(3)
式中:w為隱含層到輸出層的權(quán)重;m為輸出層節(jié)點(diǎn)數(shù)。
2.1硬競(jìng)爭(zhēng)ART-RBF
傳統(tǒng)的基于硬競(jìng)爭(zhēng)的ART-RBF網(wǎng)絡(luò),學(xué)習(xí)過程分為兩個(gè)階段:無監(jiān)督學(xué)習(xí)和有監(jiān)督學(xué)習(xí)。第一階段的訓(xùn)練方法有隨機(jī)選取固定中心法與K-means法[8]等;第二階段的訓(xùn)練方法主要有梯度下降法[9]與最小二乘法[10]等。
在無監(jiān)督階段學(xué)習(xí)過程中,通過計(jì)算樣本與隱含層節(jié)點(diǎn)中心相似度大小,并與警戒參數(shù)ρ對(duì)比調(diào)整隱含層節(jié)點(diǎn)數(shù)目。相似度采用余弦法計(jì)算,如式(4)所示:
(4)
對(duì)某一樣本,對(duì)比所有隱含層節(jié)點(diǎn)中心的相似度,選取相似度最大的節(jié)點(diǎn)為獲勝節(jié)點(diǎn)。在硬競(jìng)爭(zhēng)機(jī)制下,節(jié)點(diǎn)中心的調(diào)整按式(5)進(jìn)行:
(5)
其中,α為第一階段學(xué)習(xí)率。在所有節(jié)點(diǎn)中,僅獲勝節(jié)點(diǎn)中心進(jìn)行學(xué)習(xí)調(diào)整。無監(jiān)督學(xué)習(xí)完成后,網(wǎng)絡(luò)已初步建立,但隱含層與輸出層的權(quán)值矩陣還未確定,這時(shí)通常使用梯度下降法調(diào)整權(quán)值矩陣。
2.2軟競(jìng)爭(zhēng)ART-RBF
由于硬競(jìng)爭(zhēng)機(jī)制對(duì)樣本信息的利用不足,節(jié)點(diǎn)利用率低,容易造成類間混疊處的樣本誤分,因此,筆者提出基于軟競(jìng)爭(zhēng)機(jī)制的ART-RBF模型,其學(xué)習(xí)過程與硬競(jìng)爭(zhēng)ART-RBF基本一致,軟競(jìng)爭(zhēng)機(jī)制應(yīng)用于無監(jiān)督學(xué)習(xí)階段。
2.2.1無監(jiān)督學(xué)習(xí)
第一階段進(jìn)行樣本學(xué)習(xí),調(diào)整節(jié)點(diǎn)中心時(shí),硬競(jìng)爭(zhēng)ART-RBF采用式(5)進(jìn)行,當(dāng)兩個(gè)節(jié)點(diǎn)對(duì)該樣本都有較大的相似度時(shí),次獲勝節(jié)點(diǎn)或其他相似度也較大的非獲勝節(jié)點(diǎn)不能參與對(duì)樣本的學(xué)習(xí),導(dǎo)致了樣本信息的浪費(fèi)和節(jié)點(diǎn)的利用率低。在此過程中,節(jié)點(diǎn)對(duì)樣本的學(xué)習(xí)按其與樣本的相似程度進(jìn)行:與樣本更相似的節(jié)點(diǎn),學(xué)習(xí)的比重較大;反之,學(xué)習(xí)比重較小。這就要求構(gòu)造一個(gè)基于相似度的且輸出介于0~1之間的函數(shù)來計(jì)算隱含層節(jié)點(diǎn)參與樣本學(xué)習(xí)的比重:
(6)
式中:μ為軟競(jìng)爭(zhēng)率;Sg為相似度中的最大值。
Bj在硬競(jìng)爭(zhēng)的學(xué)習(xí)機(jī)制中,取值只能為0(所有的非獲勝神經(jīng)元)或1(獲勝神經(jīng)元);對(duì)于一個(gè)樣本而言,兩個(gè)或多個(gè)神經(jīng)元獲勝,則這幾個(gè)隱含層節(jié)點(diǎn)的Bj均為1;若多個(gè)節(jié)點(diǎn)的相似度均較大,則Bj按式(6)進(jìn)行計(jì)算,越接近相似度最大節(jié)點(diǎn),輸出越接近1。當(dāng)軟競(jìng)爭(zhēng)率μ→0時(shí),獲勝節(jié)點(diǎn)Bj為1,其他節(jié)點(diǎn)近似為0,這種情況相當(dāng)于硬競(jìng)爭(zhēng)機(jī)制。中心的調(diào)整遵循以下的規(guī)則:
(7)
另外,在學(xué)習(xí)過程中,聚類中心應(yīng)向著新學(xué)習(xí)樣本的方向進(jìn)行調(diào)整。對(duì)比學(xué)習(xí)新樣本后,樣本與調(diào)整前后的類中心的距離:
(8)
可見樣本距離調(diào)整后的聚類中心更近。確定了隱含層節(jié)點(diǎn)的中心后,可以采用式(9)計(jì)算寬度[11]:
(9)
式中:λ為重疊系數(shù);Ci為與Cj最近的聚類中心。
2.2.2有監(jiān)督學(xué)習(xí)
進(jìn)行了無監(jiān)督學(xué)習(xí)后,網(wǎng)絡(luò)已初步建立,但隱含層與輸出層的權(quán)值矩陣還沒有確定,調(diào)整權(quán)值矩陣常使用梯度下降法。
對(duì)于每個(gè)樣本,目標(biāo)函數(shù)均方誤差為:
(10)
(12)
(13)
式中:β為第二階段學(xué)習(xí)率;Rj為第j個(gè)隱含層節(jié)點(diǎn)的輸出。
軟競(jìng)爭(zhēng)ART-RBF神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法具體如下:
(3)由式(4)計(jì)算進(jìn)入網(wǎng)絡(luò)的樣本與當(dāng)前隱含層節(jié)點(diǎn)激活函數(shù)中心的相似度。
(4)選取Sj中的最大值Sg。
(5)對(duì)比Sg與警戒參數(shù)ρ,若Sg≥ρ,則將此樣本歸為Sg代表的類別,轉(zhuǎn)步驟(6);否則此樣本單獨(dú)為一類,轉(zhuǎn)步驟(7)。
(6)按照式(7)對(duì)本類進(jìn)行中心的調(diào)整,其中各類別中心調(diào)整的幅度Bj由式(6)計(jì)算。
(7)增加新類別,h=h+1,新類別的中心即為該剛進(jìn)入網(wǎng)絡(luò)的樣本。
(8)返回步驟(2)進(jìn)行學(xué)習(xí),直到所有的樣本訓(xùn)練結(jié)束,則第一階段的無監(jiān)督學(xué)習(xí)結(jié)束,第二階段的有監(jiān)督學(xué)習(xí)開始。
(9)初始樣本對(duì)Xk、Yk重新進(jìn)入網(wǎng)絡(luò),按照式(13)對(duì)網(wǎng)絡(luò)權(quán)值進(jìn)行調(diào)整,直到達(dá)到最大迭代次數(shù)或誤差小于設(shè)定數(shù)。
3.1仿真驗(yàn)證
用Mackey-Glass混沌時(shí)間序列進(jìn)行預(yù)測(cè),以驗(yàn)證算法的有效性。
(14)
當(dāng)τ≥17時(shí)產(chǎn)生混沌現(xiàn)象,取參數(shù)α=0.2,β=0.1,γ=10,用Runge-Kutta解該時(shí)滯微分方程,得到一組離散點(diǎn)。按照[x(t),x(t+6),…,x(t+66)](t=1,2,…,933)構(gòu)造933組樣本,每個(gè)樣本的前11項(xiàng)作為輸入,第12項(xiàng)作為輸出。前600組作為訓(xùn)練樣本,后333組作為預(yù)測(cè)樣本。誤差計(jì)算使用均方誤差:
(15)
設(shè)置警戒參數(shù)ρ=0.995;第一階段的學(xué)習(xí)率設(shè)置為0.100,第二階段的學(xué)習(xí)率為0.001,軟競(jìng)爭(zhēng)率為0.000 0,進(jìn)行1 000次迭代計(jì)算,與相同參數(shù)設(shè)置的ASCPN網(wǎng)絡(luò)[12]對(duì)比,測(cè)試結(jié)果如表1所示。Mackey-Glass時(shí)間序列的學(xué)習(xí)及預(yù)測(cè)的結(jié)果如圖2所示。
表1 網(wǎng)絡(luò)測(cè)試結(jié)果
圖2 Mackey-Glass時(shí)間序列的學(xué)習(xí)和預(yù)測(cè)結(jié)果
為了進(jìn)一步驗(yàn)證軟競(jìng)爭(zhēng)率的變化對(duì)算法的影響,使用上述時(shí)間序列的933個(gè)樣本,取ρ=0.999 5,調(diào)整其他參數(shù)后保持不變,只改變軟競(jìng)爭(zhēng)率的大小,得到誤差值以及其變化的比重,如表2所示。
由表2可知,軟競(jìng)爭(zhēng)率σ=0.000 5時(shí)的綜合誤差比σ=0.000 0時(shí)降低23.6%。誤差隨軟競(jìng)爭(zhēng)率整體呈現(xiàn)先下降后上升的趨勢(shì)。對(duì)于不同的樣本,樣本間的相似度和警戒參數(shù)的設(shè)置會(huì)影響軟競(jìng)爭(zhēng)率的影響幅度。當(dāng)樣本之間的相似程度較低時(shí),或警戒參數(shù)設(shè)置過大導(dǎo)致隱含層節(jié)點(diǎn)數(shù)目與樣本數(shù)一致即每個(gè)樣本分為一類時(shí),即使調(diào)整軟競(jìng)爭(zhēng)率大小,分類或預(yù)測(cè)效果也不會(huì)提高。
表2 軟競(jìng)爭(zhēng)率的影響結(jié)果
3.2實(shí)驗(yàn)驗(yàn)證
使用辛辛那提大學(xué)智能維護(hù)系統(tǒng)中心提供的滾動(dòng)軸承全壽命周期性能退化實(shí)驗(yàn)數(shù)據(jù)作為輸入樣本的數(shù)據(jù)源驗(yàn)證軟競(jìng)爭(zhēng)ART-RBF算法。
實(shí)驗(yàn)裝置由直流電機(jī)驅(qū)動(dòng),在輸出軸上的不同位置安裝8個(gè)滾動(dòng)軸承并施加徑向載荷,轉(zhuǎn)速保持在約2 000 r/min。每個(gè)軸承的水平與垂直方向安裝加速度傳感器,使用采集卡進(jìn)行加速度信號(hào)采集,采集一次的時(shí)間間隔為10 min。采樣頻率為20 kHz,數(shù)據(jù)長(zhǎng)度為20 480點(diǎn),共采集2 000組數(shù)據(jù)。根據(jù)潤(rùn)滑油道內(nèi)磁性螺塞的碎屑收集情況,判斷3號(hào)軸承在16 000 min以后性能退化比較明顯,20 000 min時(shí)性能急劇退化產(chǎn)生故障。
此處筆者引入表征軸承性能退化的綜合指標(biāo)置信度(CV)[13]:
(16)
式中:MQE為最小量化指標(biāo),定義為樣本與自組織映射網(wǎng)絡(luò)(SOM)競(jìng)爭(zhēng)層最佳匹配單元的歐式距離,SOM網(wǎng)絡(luò)使用正常運(yùn)行狀態(tài)下的樣本進(jìn)行訓(xùn)練;c為調(diào)整常數(shù),與置信度和狀態(tài)區(qū)間的劃分有關(guān),筆者取c=5。
相對(duì)均方根值、相對(duì)方差、相對(duì)絕對(duì)平均值及相對(duì)方根幅值等特征參數(shù)作為表征軸承退化的敏感參數(shù),影響著置信度指標(biāo)的變化趨勢(shì),因此筆者將4個(gè)特征參數(shù)選為輸入樣本,置信度指標(biāo)為輸出樣本。選取60組上述4種敏感特征參數(shù)及對(duì)應(yīng)時(shí)刻的置信度作為訓(xùn)練樣本,其后時(shí)刻的40組特征參數(shù)組成預(yù)測(cè)樣本,分別使用兩種競(jìng)爭(zhēng)模式的網(wǎng)絡(luò)進(jìn)行預(yù)測(cè),預(yù)測(cè)結(jié)果如圖3所示。
圖3 置信度預(yù)測(cè)結(jié)果
由圖3可知,兩種預(yù)測(cè)模型都能得到較好的軸承運(yùn)轉(zhuǎn)置信度預(yù)測(cè)值,但基于軟競(jìng)爭(zhēng)機(jī)制的預(yù)測(cè)模型預(yù)測(cè)精度顯然更高,其偏離置信度計(jì)算值的點(diǎn)數(shù)較硬競(jìng)爭(zhēng)機(jī)制也較少,偏離比較明顯的點(diǎn)數(shù)由10個(gè)減少至4個(gè)(見圖3中圓形和方形標(biāo)記),可以認(rèn)為基于軟競(jìng)爭(zhēng)機(jī)制的ART-RBF模型對(duì)混疊處樣本進(jìn)行了優(yōu)化分類處理,提高了預(yù)測(cè)精度。對(duì)預(yù)測(cè)結(jié)果進(jìn)行誤差計(jì)算,如表3所示。
表3 網(wǎng)絡(luò)測(cè)試誤差結(jié)果
對(duì)兩種競(jìng)爭(zhēng)機(jī)制的節(jié)點(diǎn)分類數(shù)進(jìn)行分析,除軟競(jìng)爭(zhēng)率外,其他參數(shù)設(shè)置均相同,得到60個(gè)樣本的相似度矩陣,又由于樣本分類數(shù)與樣本的輸入順序有關(guān),因此,每次將軟競(jìng)爭(zhēng)和硬競(jìng)爭(zhēng)分類中首個(gè)出現(xiàn)差別的樣本刪除,再次進(jìn)行分類,直到分類一致。按照這種方式,最后分類出現(xiàn)差別的樣本,可以認(rèn)為是類間混疊處樣本,其節(jié)點(diǎn)劃分情況,影響到隱含層節(jié)點(diǎn)的數(shù)目以及其與節(jié)點(diǎn)中心的距離,進(jìn)而導(dǎo)致隱含層節(jié)點(diǎn)響應(yīng)不同,最終通過線性加權(quán)得到不同的網(wǎng)絡(luò)輸出。采用軟競(jìng)爭(zhēng)機(jī)制,混疊處的樣本分類更加合理,因此最終的預(yù)測(cè)精度也得到較大的提升。
筆者的研究主要集中在網(wǎng)絡(luò)學(xué)習(xí)的第一階段,在網(wǎng)絡(luò)節(jié)點(diǎn)的生成與中心的調(diào)整中分別采用與ART結(jié)合和軟競(jìng)爭(zhēng)的方式。當(dāng)樣本數(shù)量很大時(shí),適當(dāng)?shù)販p少隱含層節(jié)點(diǎn)數(shù),對(duì)增加網(wǎng)絡(luò)的穩(wěn)定性和減少運(yùn)算時(shí)間是必要的。另外,選擇合適的軟競(jìng)爭(zhēng)率也可以減少類間混疊處樣本分類時(shí)的誤分現(xiàn)象,從而提高預(yù)測(cè)的精度。軟競(jìng)爭(zhēng)率的選擇、樣本相似度及警戒參數(shù)之間的關(guān)系有待進(jìn)一步驗(yàn)證,以提高算法的適用性。
[1]張利,吳華玉,盧秀穎.基于粗糙集的改進(jìn)BP神經(jīng)網(wǎng)絡(luò)算法研究[J].大連理工大學(xué)學(xué)報(bào),2009,49(6):971-976.
[2]王越,曹長(zhǎng)修.BP網(wǎng)絡(luò)局部極小產(chǎn)生的原因分析及避免[J].計(jì)算機(jī)工程,2002,28(6):35-37.
[3]蔣宗禮.人工神經(jīng)網(wǎng)絡(luò)導(dǎo)論[M].北京:高等教育出版社,2005:55-69.
[4]POGGIO T,GIROSI F.Networks for approximation and learning[J].Proceedings of the IEEE,1990,78(9):1481-1497.
[5]LEE S J,HOU C L.An ART-based construction of RBF networks[J].IEEE Trans on Neural Networks,2002,13(6):1308-1321.
[6]徐增丙.基于自適應(yīng)共振理論的混合智能診斷方法及其應(yīng)用[D].武漢:華中科技大學(xué),2009.
[7]蒙西,喬俊飛,韓紅桂.基于ART的RBF網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)[J].控制與決策,2014,29(10):1876-1880.
[8]BEZDEK J C.Pattern recognition with fuzzy objective function algorithm [M].New York: Plenum,1981:1-13.
[9]姜鵬飛,蔡之華.基于遺傳算法和梯度下降的RBF神經(jīng)網(wǎng)絡(luò)組合訓(xùn)練方法[J].計(jì)算機(jī)應(yīng)用,2007,27(2):366-369.
[10]CHEN S,COWAN C F N,GRANT P M.Orthogonal least squares learning algorithm for radial basis function networks[J].IEEE Transactions on Neural Networks,1991,2(2):302-309.
[11]吳秋明.基于RBF神經(jīng)網(wǎng)絡(luò)的故障診斷[D].鎮(zhèn)江: 江蘇大學(xué),2006.
[12]DONG Y H,SHAO M,TAI X Y.An adaptive counter propagation network based on soft competition [J].Pattern Recognition Letters,2008(29):938-949.
[13]HONG S,ZHOU Z,ENRICO Z,et al.Condition assessment for the performance degradation of bearing based on a combinatorial feature extraction method[J].Digital Signal Processing,2014(27):159-166.
The Algorithm of ART-RBF Based on Soft Competition Mechanism and Its Application
WANG Kai, WAN Xiaojin, XU Zengbing, LI Qinglei
A prediction model which combines soft ART and RBF is proposed to improve the prediction accuracy of RBF.Based on traditional RBF network, the neurons in hidden layer is generated automatically by setting a vigilance parameter.A soft competition based on similarity is also introduced to this model.Compared with traditional ART-RBF network based on hard competition, the adoption of soft competition in learning process, every neuron will be used to adjust the center vectors; and it can also reduce the misclassification of similar samples that are very important to the prediction accuracy.This algorithm is proved to be efficient by the simulation of Mackey-Glass time series and prediction of bearing degradation.
ART; soft competition; RBF; bearing; prediction
WANG Kai:Postgraduate; School of Automotive Engineering, WUT, Wuhan 430070, China.
2095-3852(2016)04-0503-05
A
2016-03-04.
王凱(1989-),男,山東泰安人,武漢理工大學(xué)汽車工程學(xué)院碩士研究生.
國(guó)家自然科學(xué)基金項(xiàng)目(51405353).
TP183
10.3963/j.issn.2095-3852.2016.04.023