林悅,夏厚培
(1.南京信息工程大學(xué) 電子與信息工程學(xué)院,江蘇 南京 210044;2.中國船舶重工集團(tuán)公司 第七二四研究所,江蘇 南京 211106)
在雷達(dá)自動(dòng)目標(biāo)識別(automatic target recognition, ATR)技術(shù)中,對雷達(dá)目標(biāo)高分辨距離像(high-eesolution range profile, HRRP)的研究最為廣泛[1]。HRRP主要依托于寬帶高分辨雷達(dá)獲取目標(biāo)多個(gè)散射中心點(diǎn)子回波在雷達(dá)徑向方向上投影分布的矢量和[2]。目標(biāo)的回波為與目標(biāo)散射點(diǎn)分布相關(guān)的一維距離像,反映了在特定的雷達(dá)視角方向目標(biāo)散射體雷達(dá)散射截面積(radar cross section, RCS)沿雷達(dá)視線方向散射點(diǎn)相對幾何關(guān)系的分布情況[3]。
人工神經(jīng)網(wǎng)絡(luò)(artificial neural network, ANN)由于具有自適應(yīng)能力,在識別領(lǐng)域中作為一種性能優(yōu)良的分類器已被廣泛應(yīng)用[4]。廣義回歸神經(jīng)網(wǎng)絡(luò)(generalized regression neural network, GRNN)作為徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)(radial basis function, RBF)的一個(gè)重要分支,是一種基于非線性回歸理論的典型前饋式局部逼近神經(jīng)網(wǎng)絡(luò),通過激活神經(jīng)元來逼近目標(biāo)函數(shù)。GRNN具有良好的局部逼近性、全局最優(yōu)性和較快的計(jì)算速度等優(yōu)點(diǎn)。此外,網(wǎng)絡(luò)中需要根據(jù)樣本調(diào)整的參數(shù)只有一個(gè)光滑因子spread,因此能夠避免人為因素對網(wǎng)絡(luò)預(yù)測性能的影響[5]。
本文充分利用了GRNN局部逼近性能以及運(yùn)算迅速的特點(diǎn),將其作為分類器應(yīng)用于雷達(dá)目標(biāo)識別。此外,針對網(wǎng)絡(luò)中需要人為調(diào)節(jié)的參數(shù)spread因子,本文利用交叉驗(yàn)證方法(cross-validation)改進(jìn)了GRNN神經(jīng)網(wǎng)絡(luò)[6],在選取最優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)的同時(shí),利用循環(huán)判別法篩選出適用于樣本參數(shù)的光滑因子spread最優(yōu)值,以達(dá)到對目標(biāo)的最優(yōu)識別效果。
在雷達(dá)自動(dòng)目標(biāo)識別中,對輸入分類器的距離像樣本數(shù)據(jù)的預(yù)處理至關(guān)重要。本文的預(yù)處理流程首先對原始距離像數(shù)據(jù)進(jìn)行分角域建立模型,然后對數(shù)據(jù)進(jìn)行加窗處理剔除周圍冗余的噪聲信號粗篩選,對距離像進(jìn)行最大值粗對齊,再利用全局最小熵距離對齊算法對一維距離像完成精確對齊,最后使用歸一化算法處理對齊后的數(shù)據(jù)。
全局最小熵距離對齊算法有良好的魯棒性,且運(yùn)算速度較快,能夠?qū)崿F(xiàn)對雷達(dá)目標(biāo)回波距離像的精確對齊。該算法主要通過對距離像包絡(luò)的幅度值運(yùn)算,將平均距離像(average range profile, ARP)熵值作為對齊的標(biāo)準(zhǔn),通過迭代求解法使熵值趨于最小,搜索其對應(yīng)的位置來完成距離像的精確對齊[7]。
將距離像經(jīng)壓縮后的脈沖包絡(luò)定義為p(r,n),r表示距離,n代表回波信號的脈沖數(shù)序號,N為回波信號總數(shù),Δ(n)表示當(dāng)前第n個(gè)回波信號脈沖的偏移值,則可將ARP定義如下
當(dāng)各回波信號未對齊時(shí),其相應(yīng)距離的信號幅度值相加所得的合成波形會(huì)因?yàn)楦餍盘柕牟ǚ宀ü认嗷ュe(cuò)開相加發(fā)生鈍化,此時(shí)檢驗(yàn)回波信號是否對齊的問題就轉(zhuǎn)化為求解ARP波形的銳化度大小,由此可得各個(gè)波形與原始位置的偏移量Δ(n)。波形銳化度可以使用信息熵來量化衡量,當(dāng)合成波形的熵最小時(shí),可以認(rèn)為各個(gè)回波信號已經(jīng)完成對齊處理。根據(jù)信息熵的定義,ARP的熵可以定義為[8]
對式(2)求導(dǎo)可得ARP熵的最小值
將式(1)代入,則有
(4)
根據(jù)傅里葉變換的微分性質(zhì),式(6)可以表示為
(6)
重復(fù)迭代對所有的脈沖進(jìn)行移位并不斷更新ARP,使其熵逐漸逼近全局最小值不再減小時(shí),所得到的Δr(n)每次回波信號所需移位的偏移最終估值。由于式(6)中卷積運(yùn)算可以利用FFT求解,因此全局最小熵距離對齊算法比傳統(tǒng)的相關(guān)對齊法運(yùn)算速度較快。算法流程圖如圖1所示。
高分辨距離像x(n)在距離像空間中是一個(gè)矢量點(diǎn),其任意正倍數(shù)kx(n)(k>0)同樣表示這個(gè)距離像。針對HRRP幅度敏感性的問題,一般用歸一化的方法處理,使所有類別目標(biāo)的距離像具有統(tǒng)一的尺度,方便待測HRRP樣本與模版之間在尺度上比較。本文采用能量歸一化方式,即每幅距離像x(n)對其總能量進(jìn)行歸一化處理,表達(dá)式如下
廣義回歸神經(jīng)網(wǎng)絡(luò)(GRNN)由 Donald F. Specht 在1991年提出,它建立在數(shù)理統(tǒng)計(jì)非線性回歸法的基礎(chǔ)上,根據(jù)樣本數(shù)據(jù)逼近其間隱藏的映射關(guān)系[9]。GRNN通過激活神經(jīng)元來逼近目標(biāo)函數(shù),在局部逼近、全局最優(yōu)及分類性能上比RBF具有更強(qiáng)的優(yōu)勢。網(wǎng)絡(luò)收斂于數(shù)據(jù)樣本量聚積較多的優(yōu)化回歸面,當(dāng)樣本數(shù)較少或樣本數(shù)據(jù)不穩(wěn)定時(shí),回歸預(yù)測效果十分明顯[10]。此外,對于具體的網(wǎng)絡(luò)樣本訓(xùn)練而言,GRNN更顯著的優(yōu)勢在于整個(gè)網(wǎng)絡(luò)中需要根據(jù)樣本數(shù)據(jù)調(diào)整的參數(shù)只有一個(gè)光滑因子spread,因此可以更快地預(yù)測網(wǎng)絡(luò)且能在最大程度上避免人為因素影響,網(wǎng)絡(luò)的學(xué)習(xí)全部依賴于輸入的樣本數(shù)據(jù)[11]。
GRNN網(wǎng)絡(luò)結(jié)構(gòu)如下圖2所示,由4層模塊組成,輸入層將輸入樣本數(shù)據(jù)傳遞給模式層,其神經(jīng)元數(shù)目與需要學(xué)習(xí)的輸入樣本中向量維數(shù)相同;數(shù)據(jù)通過模式層中各自對應(yīng)的n個(gè)神經(jīng)元傳遞函數(shù)處理后進(jìn)入求和層;求和層中使用2種不同的神經(jīng)元對輸入數(shù)據(jù)加權(quán)求和;輸出層中各神經(jīng)元將求和層中處理后的數(shù)據(jù)相除,最終得到輸出結(jié)果。
式中:n表示學(xué)習(xí)樣本數(shù)據(jù)容量;p為隨機(jī)變量x的維數(shù);Xi,Yi為隨機(jī)變量xi和yi的樣本觀測值;σ表示寬度系數(shù),一般在神經(jīng)網(wǎng)絡(luò)中稱作光滑因子spread,也就是網(wǎng)絡(luò)的擴(kuò)展速度。
此時(shí),根據(jù)神經(jīng)網(wǎng)絡(luò)的特性令
式中:Pi即為上圖2中神經(jīng)網(wǎng)絡(luò)模式層第i個(gè)神經(jīng)元的傳遞函數(shù),其中X是神經(jīng)網(wǎng)絡(luò)的輸入樣本參數(shù),Xi是第i個(gè)神經(jīng)元所對應(yīng)的學(xué)習(xí)樣本參數(shù)。SD和SN則是神經(jīng)網(wǎng)絡(luò)求和層中2種神經(jīng)元,SD負(fù)責(zé)對模式層所有神經(jīng)元的輸出值進(jìn)行算術(shù)求和,連接權(quán)重值為1;而SN則是加權(quán)求和,權(quán)重值為輸出樣本Yi中各元素值。將上式帶入,就可得到所對應(yīng)的輸出向量Y,即
GRNN模型只需要一個(gè)光滑因子σ參數(shù)所以結(jié)構(gòu)簡單,很大程度上減少了人為因素對模型參數(shù)選擇的影響,因此網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)更加合理。從數(shù)學(xué)的角度來說,GRNN模型網(wǎng)絡(luò)的優(yōu)化實(shí)際上是參數(shù)σ確定的優(yōu)化,找到了適用于網(wǎng)絡(luò)的最優(yōu)σ,也就能使經(jīng)過網(wǎng)絡(luò)訓(xùn)練后的樣本輸出值與實(shí)際值之間的均方差最小。參數(shù)σ取方法大多采用人工調(diào)整方法,存在著效率低、精度差的問題。
針對GRNN神經(jīng)網(wǎng)絡(luò)光滑因子spread參數(shù)σ選擇,本文采用了K重交叉驗(yàn)證法,根據(jù)最小均方誤差(mean square error,MSE)尋找出的σ最優(yōu)值,同時(shí)獲得目標(biāo)識別訓(xùn)練樣本的最優(yōu)輸入輸出值。
交叉驗(yàn)證(cross validation,CV)是數(shù)據(jù)分析時(shí)用來驗(yàn)證分類器模型性能的一種統(tǒng)計(jì)分析方法,基本思路是將數(shù)據(jù)重復(fù)使用以提高模型的精度,原理是將原始數(shù)據(jù)樣本分組切割成較小子集,先在一個(gè)子集即訓(xùn)練集上作分析,再用其他子集即驗(yàn)證集或測試集分別用作選擇模型和對學(xué)習(xí)方法的評估。交叉驗(yàn)證法主要的優(yōu)點(diǎn)是將新數(shù)據(jù)代入訓(xùn)練好的模型時(shí)可以在一定程度上減小過擬合,并且可以從有限的數(shù)據(jù)中獲取盡可能多的有效信息。
交叉驗(yàn)證法主要有以下3種方法:
(1) 簡單交叉驗(yàn)證法:隨機(jī)選取一部分樣本為訓(xùn)練集,剩下做測試集,選擇測試誤差最小的模型。方法簡單速度快,但浪費(fèi)了部分?jǐn)?shù)據(jù),數(shù)據(jù)量較小時(shí)影響較大。
(2)K-重交叉驗(yàn)證法(k-folder cross validation,K-CV):將樣本數(shù)據(jù)集隨機(jī)劃分為k份,k-1份作為訓(xùn)練集,1份為測試集,依次輪換訓(xùn)練集和測試集k次[12],驗(yàn)證誤差最小的模型為所求模型,并將k次的平均交叉驗(yàn)證識別正確率作為分類器的性能指標(biāo)。優(yōu)點(diǎn)是所有的樣本都被作為了訓(xùn)練集測試集,每個(gè)樣本都被驗(yàn)證一次,結(jié)果更加客觀,通常k取10也就是10重交叉驗(yàn)證。
(3) 留一法(leave one out cross validation,LOO-CV):設(shè)原始樣本數(shù)據(jù)集有N個(gè)樣本,LOO-CV也就相當(dāng)于K=N時(shí)的K-CV,即每一個(gè)樣本都單獨(dú)作為一次測試集,其余的N-1本作為訓(xùn)練集,所以LOO-CV會(huì)得到N個(gè)模型。優(yōu)點(diǎn)是每個(gè)樣本都用于訓(xùn)練模型,因此最接近原始樣本的分布,且實(shí)驗(yàn)過程中沒有隨機(jī)因素的影響,評估所得的結(jié)果更加可靠。
上面3種方法中,LOO-CV評估結(jié)果是最客觀可靠的,不過其計(jì)算成本高,運(yùn)算時(shí)間長,在實(shí)際操作上很困難。綜上,本文采用的是K-CV,其中k取10,即10重交叉驗(yàn)證法,算法的示意圖如下圖3。
本文將樣本集隨機(jī)劃分為10份,其中9份作為訓(xùn)練數(shù)據(jù),另1份作為測試數(shù)據(jù),訓(xùn)練和驗(yàn)證10次。10次結(jié)果的正確率均值作為對算法精度的估計(jì),具體方法如下:
(1) 將樣本數(shù)據(jù)集S隨機(jī)劃分為10個(gè)不同的子集,分別記作S1,…,S10,每個(gè)子集中樣本的數(shù)量為e/10個(gè)。
(2) 對于每個(gè)模型Ei,進(jìn)行如下操作:使j從1至10循環(huán);訓(xùn)練集為S1∪…∪Sj-1∪Sj+1∪…∪S10,訓(xùn)練模型為Ei,對應(yīng)的假設(shè)函數(shù)為hij;驗(yàn)證集為Sj,得出泛化誤差。
(3) 計(jì)算各模型的平均泛化誤差,泛化誤差最小的模型Ei即為系統(tǒng)的最佳模型。
本文選取均方誤差(MSE)作為實(shí)驗(yàn)中的泛化誤差,也就是神經(jīng)網(wǎng)絡(luò)的性能函數(shù)。若有n組樣本數(shù)據(jù),每組輸入輸出樣本數(shù)據(jù)為[Pi,Ti],i=1,2,…,n,Yi為經(jīng)網(wǎng)絡(luò)訓(xùn)練后的輸出數(shù)據(jù),則MSE定義為每一組數(shù)據(jù)的誤差平方和除以樣本的總組數(shù)n式如下
為驗(yàn)證本文方法的有效性,將算法與運(yùn)用徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)(RBF)雷達(dá)目標(biāo)識別方法[13]進(jìn)行了比較。仿真實(shí)驗(yàn)采用的數(shù)據(jù)為測量飛機(jī)數(shù)據(jù),其脈沖重復(fù)頻率為400 Hz,信號帶寬為400 MHz,采用Dechirp接收,轉(zhuǎn)換后信號的采樣頻率為10 MHz驗(yàn)數(shù)據(jù)飛機(jī)分別為, 大型噴氣飛機(jī)“雅克Yark-42”、小型噴氣飛機(jī)“獎(jiǎng)狀Jiang”和中小型螺旋槳飛機(jī)“安An-26”,為了更客觀準(zhǔn)確地驗(yàn)證識別方法準(zhǔn)確性,訓(xùn)練和測試數(shù)據(jù)選取不同的數(shù)據(jù)段,其中每個(gè)HRRP樣本含有256個(gè)距離單元,數(shù)據(jù)俯仰角有微小差別[14]。
實(shí)驗(yàn)基于目標(biāo)中心散射模型[15],主要用全局最小熵距離對齊算法對數(shù)據(jù)進(jìn)行預(yù)處理,使用GRNN神經(jīng)網(wǎng)絡(luò)作為分類器,利用K重交叉驗(yàn)證法訓(xùn)練網(wǎng)絡(luò)。將經(jīng)過預(yù)處理后的數(shù)據(jù)隨機(jī)抽取 12/13數(shù)據(jù)作為訓(xùn)練樣本,剩下的則作為測試樣本放入訓(xùn)練好的網(wǎng)絡(luò)中進(jìn)行訓(xùn)練計(jì)算目標(biāo)識別準(zhǔn)確率。
本實(shí)驗(yàn)使用Matlab將本文改進(jìn)GRNN神經(jīng)網(wǎng)絡(luò)算法與傳統(tǒng)RBF神經(jīng)網(wǎng)絡(luò)算法、GRNN神經(jīng)網(wǎng)絡(luò)算法進(jìn)行對比,表1為3類飛機(jī)目標(biāo)分別在3種算法下識別率。其中識別準(zhǔn)確率的定義為正確識別樣本個(gè)數(shù)/測試樣本總數(shù),識別率為仿真100次的平均識別率,每次的訓(xùn)練集和驗(yàn)證集均為隨機(jī)選取。
表1 針對不同飛機(jī)目標(biāo)識別準(zhǔn)確率Table 1 Target recognition accuracy for different aircrafts
仿真實(shí)驗(yàn)中網(wǎng)絡(luò)光滑因子spread的最優(yōu)值由最小均方誤差(MSE)得出,圖4所示為10-CV時(shí)不同Spread取值對神經(jīng)網(wǎng)絡(luò)MSE的影響。
由圖4可以看出,在10次不同訓(xùn)練集和驗(yàn)證集情況下,雖然每次光滑因子spread最優(yōu)位置即MSE的最低點(diǎn)位置都不同,但是大致位置基本在一定范圍內(nèi),因此對圖4的10重交叉驗(yàn)證后產(chǎn)生的10組數(shù)據(jù)進(jìn)行累加,得出網(wǎng)絡(luò)綜合最優(yōu)光滑因子spread的取值大小,如圖5所示。
仿真主要從目標(biāo)識別準(zhǔn)確率和時(shí)間2個(gè)方面對應(yīng)用了不同神經(jīng)網(wǎng)絡(luò)方法進(jìn)行了比較,表2分別給出了采用不同神經(jīng)網(wǎng)絡(luò)時(shí)的識別準(zhǔn)確率比較。從數(shù)據(jù)中可以看出,本文改進(jìn)的GRNN神經(jīng)網(wǎng)絡(luò)算法與RBF網(wǎng)絡(luò)以及原有GRNN網(wǎng)絡(luò)算法相比具有相對較高的識別率。
表3對比了采用不同神經(jīng)網(wǎng)絡(luò)時(shí)的系統(tǒng)所用的運(yùn)算時(shí)間,其中運(yùn)算時(shí)間包括訓(xùn)練時(shí)間和測試時(shí)間。從表中可以看出,改進(jìn)的GRNN神經(jīng)網(wǎng)絡(luò)算法運(yùn)算時(shí)間明顯少于RBF網(wǎng)絡(luò)。
表2 幾種算法對比的平均識別率Table 2 Average recognition rate of several algorithms
表3 幾種算法對比的平均運(yùn)算時(shí)間Table 3 Average computing time of several algorithms
本文對基于GRNN神經(jīng)網(wǎng)絡(luò)的雷達(dá)目標(biāo)識別方法進(jìn)行了研究,利用了全局最小熵距離對齊算法以及歸一化等方法對數(shù)據(jù)進(jìn)行了預(yù)處理,針對廣義回歸神經(jīng)網(wǎng)絡(luò)光滑因子spread參數(shù)采用K重交叉驗(yàn)證法對進(jìn)行優(yōu)化,并取得最優(yōu)樣本輸入輸出值。仿真實(shí)驗(yàn)結(jié)果表明,本文改進(jìn)的GRNN神經(jīng)網(wǎng)絡(luò)解決了設(shè)計(jì)參數(shù)σ選取時(shí)的隨意性,減少了人為因素對預(yù)測結(jié)果的影響,該方法模型的目標(biāo)識別預(yù)測精度和穩(wěn)定性上優(yōu)于RBF神經(jīng)網(wǎng)絡(luò)模型,具有較高的識別率以及良好的識別效率。