鄭昌艷,梅 衛(wèi),王 剛
(軍械工程學院,石家莊 050003)
?
基于深度卷積神經網絡的蛇形機動航跡圖像識別*
鄭昌艷,梅衛(wèi),王剛
(軍械工程學院,石家莊050003)
摘要:為提高防空武器系統(tǒng)對空襲目標的攔截防御能力,針對現有蛇形機動識別算法魯棒性較差的問題,提出了將航跡坐標數據轉化為圖像,利用深度神經卷積神經網絡進行航跡模式分類的方法。針對航跡數據直接轉化為圖像時存在機動幅度不明顯或過大的問題,提出了有效解決方案。基于CAFFE平臺進行了大量仿真實驗,確定了適宜于航跡模式分類的深度卷積網絡結構和網絡參數。實驗結果表明,該方法能有效提高蛇形機動航跡識別的魯棒性。
關鍵詞:蛇形機動,圖像識別,深度卷積神經網絡,CAFFE
對于新型高速無人機、再入飛行器、戰(zhàn)斗機及反艦導彈、巡航導彈等,蛇形機動是一種成熟應用的規(guī)避技術,典型的巡航導彈彈道如圖1所示。該機動很大程度上增加了雷達的跟蹤誤差、高炮前置計算誤差和導彈追蹤的飛行過載,對防御系統(tǒng)構成了巨大威脅。因此,攔截蛇形機動目標是現代防御攔截系統(tǒng)研究的熱點,也是未來攔截技術發(fā)展必須解決的關鍵問題之一[1]。
圖1 典型的巡航導彈彈道
基于現有的目標跟蹤技術,高炮集火射擊很難完成對高速機動目標精確打擊,空域窗射擊體制[2]通過合理預設彈丸散布中心,擴大有效毀傷目標區(qū)域,能有效提高高炮打擊效能。對于蛇形機動目標,空域窗射擊參數需在識別蛇形機動模式基礎上,根據目標蛇形機動中心線、機動幅度等進行彈丸散布設置;導彈武器系統(tǒng)采用微波、激光、紅外或者光電復合制導技術,在目標做蛇形機動時會追隨其做高速機動,嚴重影響其自身系統(tǒng)的穩(wěn)定性與可靠性。在對目標跟蹤基礎上,若能判別其是蛇形機動模式,沿著蛇形機動中心線進行追蹤,對提高導彈性能的穩(wěn)定性具有重要意義。
目前識別目標蛇形機動的方法主要是通過提取目標運動軌跡幾何參數特征。文獻[3]通過提取目標位置變化率特征實現對蛇形機動的識別,但文獻[3]論述的蛇形機動特征只在蛇形機動中沿著特定方向成立,且對噪聲敏感,魯棒性較差。文獻[4]將圖像處理中邊緣拐點檢測方法應用到運動模式分段處理上,之后運用運動學分析法識別目標運動模式,但文獻[4]將重點放在彈道分段方法上,對蛇形機動模式識別論述較模糊。文獻[5]將空中目標常用戰(zhàn)術機動動作分割成直線、左轉、右轉3種基本飛行動作,在編碼基礎上進行目標機動類型識別,此方法對探測目標坐標精度要求較高,且未包含3種基本飛行動作的具體識別方法。
航跡數據局部幾何特征例如拐點、位置變化率等,由于噪聲存在,難以得到統(tǒng)一的特征參數,對識別造成了很大困難。本文通過將航跡數據轉化成圖像,再利用圖像識別技術進行航跡模式分類,著重在航跡的整體動態(tài)趨勢識別,避免了提取航跡局部幾何特征,提高了識別魯棒性。由于深度卷積神經網絡能對輸入樣本的平移、縮放、扭曲保持高度不變性,并且在訓練時其共享權值的特點大大降低了訓練時間,目前已在圖像識別領域廣泛應用[6],由此本文提出了基于在深度卷積神經網絡的蛇形機動航跡圖像識別方法。
本文研究飛機飛行機動模式的分類,將飛機常用機動類型劃分為3類:直線、蛇形機動、左右轉彎3類。主要考慮飛機在相對參考坐標系水平面上的機動。
1.1航跡坐標數據生成
設觀測點為坐標原點O,以正東方向為X軸,以正北方向為Y軸,鉛垂方向向上為H軸,目標航向θ(北偏東度數)是以正北為0°沿順時針方向度量的角度。飛機在東北方向由遠及近以200 m/s~300 m/s的速度朝向觀測點飛行。飛機機動考慮飛行員承受負載等問題,蛇形機動周期在5 s~10 s,考慮飛機連續(xù)做多個蛇形機動;左右轉彎時間一般在3s~5 s;設定航跡識別是在檢測到目標開始機動時觸發(fā),為方便識別流程,固定仿真時間為10 s。轉彎機動航跡設置是以轉彎運動開始以直線運動結束。
設置量測角噪聲標準差為1mil,量測距離噪聲標準差為5 m,采樣頻率50 Hz,采用卡爾曼濾波跟蹤。
對不同飛行速度、不同飛行方向、不同機動周期、不同機動幅度的航跡進行仿真,得到大量二維航跡數據。
1.2航跡圖像生成存在問題
利用MATLAB將航跡坐標(X,Y)轉化為圖像。值得注意的是,MATLAB顯示圖像會綜合考慮X軸、Y軸取值范圍的大小,自動選取坐標分度值以達顯示細節(jié)最優(yōu),然而這樣生成的圖像存在以下問題:
(a)當航跡沿著X軸、Y軸時,垂直于飛行方向有小幅度波動,MATLAB會自動調小分度值已顯示波動,導致圖形劇烈波動。
(b)目標蛇形機動,所沿中心線航向角在30°~60°范圍時,機動幅度相對X軸、Y軸的運動距離顯得微不足道,導致機動部分不明顯,與直線飛行很難區(qū)分。
由于是對航跡曲線整體變化趨勢進行識別,主要考慮航跡曲線圖形規(guī)律而非數值本身大小,故可人為進行圖像顯示處理以達到良好的曲線區(qū)分效果。
1.3圖像生成處理方案
對航跡進行最小二乘直線擬合,得到飛行大致所沿方向,得到擬合直線的斜率與截距,斜率對應著航向角θ,判斷航向角:
①當θ<5°或θ>85°時,存在1.2節(jié)中的問題(a),此時將垂直于飛行方向的坐標軸最小值最大值范圍進行擴大,可有效解決該問題,如圖2所示。
圖2 擴大最值范圍,沿X軸直線飛行航跡對比圖
②當30°≤θ≤60°時,存在問題(b),將Y坐標值減去擬合直線上的對應值,X坐標值保持不變。該操作類似于將曲線向X軸進行了旋轉,這樣相當于將θ變成了0°,又出現了問題1.2節(jié)中的問題(a),則需要再運用①的解決方案。蛇形機動進行該操作如圖3所示。
為增強圖像顯示效果,去掉無關信息,在操作①、②基礎上對圖像曲線進行加粗,去坐標軸,RGB圖像轉為灰度圖像等操作。由于神經網絡輸入端口固定,故還需對圖像大小進行歸一化,均歸一化到256×256像素,效果如圖4所示。
對所有航跡數據進行上述處理。生成3種機動類型樣本各1 000個作為訓練樣本集;各900個作為驗證樣本集;生成1 000個航跡圖像作為最終測試樣本集。
圖3 旋轉處理后蛇形機動航跡對比圖
圖4 去掉無關細節(jié)的轉彎飛行航跡對比圖
深度學習的概念源于人工神經網絡的研究。深層模型是包含多個隱藏層的人工神經網絡,多層非線性結構使其具備強大的特征表達能力和對復雜任務建模能力。而之前的深層模型在訓練上難以克服陷入局部最優(yōu)、過擬合等問題,直到2006年Hinton等人提出了深度學習的概念,通過逐層初始化等理論有效克服了這些問題,使人工神經網絡煥發(fā)了生機。
研究表明深層神經網絡比淺層神經網絡更能提取輸入數據本質的特征,而由于深層卷積神經網絡將局部連接、權值共享和空間下采樣結合起來,大大減少了網絡的訓練參數,不但解決了淺層學習結構需要人工提取圖像特征的局限性問題,而且提高了分類的準確性和模型的泛化能力。
2.1深度卷積網絡結構
卷積神經網絡是一個多層神經網絡,每層由多個二維平面組成,每個平面由多個神經元組成。典型深度卷積網絡模型[7]如圖5所示。
第一層是輸入層,緊接下來是若干卷積層和下采層,最后一個是分類器,如Softmax分類器。
圖5 典型深度卷積網絡結構
2.2深度卷積網絡的學習算法
卷積神經網絡的學習過程主要包括卷積層的學習和下采樣層的學習。
“基于此,后勤運營風險的有效控制必須依靠科學的風險管理方法。”沈崇德表示,科學的風險管理體系可以幫助每位后勤員工識別、判斷工作中發(fā)生風險的可能性,增強風險防范意識,提高應對突發(fā)風險的能力。
2.2.1卷積層的學習
卷積層是利用局部連接和權值共享,減少網絡自由參數個數,降低網絡參數選取復雜度。在一個卷積層中,用一個可學習的卷積核與上一層若干個特征圖進行卷積,再通過一個激活函數f,如Sigmoid函數等,利用式(1)就可以得到相應的輸出特征。
這里l表示層數,k是卷積核,*表示二維卷積,b是偏置,Mj是輸入特征圖集合。
2.2.2下采樣層的學習
下采樣層利用圖像局部相關性原理,對圖像進行子抽樣,在減少數據處理量的同時保留有用信息。這里通常是對前一層對應的特征圖中向量特征進行池化操作。池化分為平均池化和最大池化等,池化后其特征圖的個數與相鄰前一層卷積層特征圖個數相同,但特征圖變小,輸出的特征可用式(2)計算。
其中β是相應權值,b是相應偏置,down(·)表示下采樣函數。如果對輸入特征圖的p×p塊特征值求平均或最大值,則輸出特征圖在兩個維度上都縮小了p倍,減小了特征的分辨率,實現了對平移、縮放、扭曲的不變性。
深度卷積神經網絡,輸入端直接輸入圖像像素,采用由前向后逐層學習的方式,計算損失函數,再通過誤差反向傳播算法(Error Back Propagation)對整個訓練參數進行調整。
3.1網絡整體構架
基于Alex Krizhevsky在CIFAR-10數據集上應用的三層深度卷積置信網絡[8],根據自建數據集類型較少、圖形易于分辨、樣本量小的特點,去掉了優(yōu)化措施,只保留卷積層、全連接層和分類器,如圖6所示。非線性修正定義將在下一節(jié)給出。
圖6 識別航跡圖像神經網絡整體構架
3.2參數選取
奇數尺寸的濾波器能獲取到更好的中心特征,故卷積核設為奇數,且卷積核大小根據圖像明顯特征所占像素大小確定,11×11像素足夠取得蛇形機動局部特征信息。
非線性修正通過簡單算法y=max(x,0)強制某些數據為0,從而得到特征的稀疏表達[9],達到和預訓練同樣的目的。故卷積后并未采用常用的激活函數進行處理,而是進行了非線性修正層處理。
重疊池化能夠降低識別錯誤率,且能在一定程度上防止過擬合[9],故采用重疊池化,池化核大于池化步長。本文選取池化核為2,池化步長為1。
網絡學習速率過大容易造成選取不到神經網絡目標函數最優(yōu)參數,速率過小則導致學習過程太長。
卷積核、池化核、步長大小的選取,整體的網絡訓練參數包括學習速率、學習策略均是通過實驗得到最佳。本文實驗部分給出了最佳參數的結果,并進行分析。
3.3實驗實施
3.3.1實驗平臺介紹
本文仿真實驗基于GPU NVIDA Kesla 40,16G內存,Linux操作系統(tǒng)臺式電腦,CAFFE軟件平臺。
CAFFE[8]全稱Convolutional Architecture for Fast Feature Embedding,是由伯克利視覺學習實驗中心開發(fā)的基于C++庫、擁有matlab、python接口的開源軟件。它提供可修改的深度學習算法框架,集成了目前世界前沿的常見的卷積神經網絡模型及其他深度學習模型。其模塊化的代碼和簡單的神經網絡分層定義,可讓用戶根據需求快速搭建自己的神經網絡模型。CAFFE提供了CPU、GPU無縫切換,極大地提高了網絡的訓練速度。利用CAFFE軟件搭建深度卷積模型,設置好各個模塊參數,進行仿真實驗。
3.3.2數據預處理
將所有航跡圖像減去圖像均值,CAFFE使用了leveldb數據格式,故需再將所有樣本圖像轉化為leveldb數據格式,該數據格式具有高效的數據讀寫速度。
共有3類飛行航跡各1 000共3 000個圖像訓練樣本,2 700個驗證樣本。驗證樣本是神經網絡里用來檢驗樣本是否出現過擬合現象設置的。驗證樣本與訓練樣本同時送入神經網絡,計算損失函數大小,但驗證樣本損失函數大小僅用來判斷網絡是否過擬合,而不參與網絡參數調整。當訓練樣本集和驗證樣本集損失函數均較小時,網絡分類能力和泛化能力強,否則訓練樣本損失函數小而驗證樣本集損失函數大則是出現過擬合現象,即該網絡對未訓練過的數據泛化能力差。
CAFFE中設置了batch參數——每次同時送入網絡計算的樣本數量,用以提高訓練速度。設置batch為30,并定義每向網絡送入3次訓練樣本后進行一次驗證,每次驗證樣本量同樣是30。訓練樣本共送入90次,即進行了90×30=2 700次迭代,驗證共進行了90÷3=30次。
3.3.3仿真實驗
本文選取參數:卷積核為11,池化核為2,池化步長為1,網絡學習速率為0.000 1。得到訓練集損失函數隨迭代次數的數據,驗證集損失函數、正確率隨著訓練集迭代次數的數據,得圖7~圖9。
圖7 訓練集損失函數和訓練迭代次數關系圖
圖8 驗證集損失函數和訓練迭代次數關系圖
3.3.4結果分析
圖7、圖8總體顯示隨著迭代次數增多,損失函數越來越小,函數擬合越來越好。訓練損失函數接近于0而測試損失函數卻有所增高,說明存在一定程度的過擬合現象,這與航跡樣本圖像存在大量空白部分存在一定關系。下頁圖9所示,驗證識別率達97%時達到了飽和。
圖9 驗證集測試精度和訓練迭代次數關系圖
最后再送入1 000個隨機樣本對訓練好的網絡進行測試,最終識別率達到98%。將測試錯誤的圖像提出,分析發(fā)現誤判主要出現在蛇形機動和直線飛行生成了較為接近的航跡圖像情況下。這是由于航跡圖像是將航跡限定在較小的范圍內進行顯示,在機動幅度較小的情況下,幅度大小相比飛行直線距離較小,蛇形機動飛行圖像與直線飛行圖像很難區(qū)分。
由此說明,深度卷積神經網絡能夠高效識別不同類型航跡圖像,但是航跡圖像樣本的生成伴隨著大量冗余信息的產生,在處理方面還需改進。
本文是研究利用深度學習理論識別蛇形機動的階段性成果,創(chuàng)新性地將航跡識別問題轉化成圖像識別問題,利用深度卷積神經網絡對直線、蛇形機動與轉彎機動航跡圖像進行分類識別,測試識別率達98%,有效提高了蛇形機動識別的魯棒性。下一步將在航跡圖像生成方面,如何將航跡數據有效轉化為航跡圖像,并且減小過擬合方面進行深層次研究。并且考慮深度學習在對時序數據識別方面的應用,直接利用航跡數據(不轉化為圖像)進行學習與探究。
參考文獻:
[1]刁兆師,李海田,單家元.攔截蛇形機動目標考慮自動駕駛儀動態(tài)特性的最優(yōu)制導律[J].北京理工大學學報,2013,33(3):229-234.
[2]胡金春.未來空域窗體制下的火力控制理論[D].南京:解放軍理工大學,1998.
[3]劉恒,梅衛(wèi),單甘霖.基于位置變化率的蛇形機動彈道識別[J].探測與控制學報,2013,35(3):37-40.
[4]韓萍,于俊偉.基于運動學分析的反艦導彈彈道識別[J].電光與控制,2011,18(9):31-34.
[5]冷畫屏,吳曉鋒,王慕鴻.空中目標戰(zhàn)術機動類型的實時識別[J].火力與指揮控制,2011,36(1):64-66.
[6]余凱,賈磊,陳雨強,等.深度學習的昨天、今天和明天[J].計算機研究與發(fā)展,2013,50(9):1799-1804.
[7]EKLUND P,VILLERD J. A survey of hybrid representations of concept lattices in conce-ptual knowledge processing[C]// Lecture Notes in Computer Science,2010,5986:296-311.
[8]ALEX K.Convolutional deep belief networks on CIFAR-10 [EB/OL]. http://www.cs.utoronto.ca/~kriz/,2013-05-18.
[9]ALEX K,GEOFFTRY E H. Imagenet classification with deep convolutional neural networks[C]// Advances in Neural Information Processing Systems,2012,25:1097-1105.
Deep Convolutional Neural Networks for the Image Recognition of “S- Maneuver”Target
ZHENG Chang-yan,MEI Wei,WANG Gang
(Ordnance Engineering College,Shijiazhuang 050003,China)
Abstract:To improve the interception ability of anti -aircraft weapons and solve the existing robustness problem in the“S-maneuver”target recognition algorithm,the tracks coordinate data into images are transformed and then took advantage of deep convolutional neural networks to recognize it. The feasible method to solve the maneuver range inconformity problem is proposed which existed as the coordinate data transformed into images. The suitable deep convolutional architecture and network parameters have been identified after plenty of experiments based on CAFFE software platform. It is proved to be an efficient method to improve the robustness of target“S-maneuver”recognition.
Key words:S-maneuver,image recognition,deep convolutional neural networks,CAFFE
中圖分類號:TP271
文獻標識碼:A
文章編號:1002-0640(2016)05-0066-05
收稿日期:2015-04-16修回日期:2015-05-28
*基金項目:國防“十一五”預研基金(40405020204);國防“十二五”預研基金資助項目(40405070102)
作者簡介:鄭昌艷(1990-),女,江蘇南京人,在讀碩士研究生。研究方向:目標跟蹤、機器學習。