摘 要:隨著科學(xué)技術(shù)的發(fā)展和作戰(zhàn)方式的改變,對(duì)于敵方作戰(zhàn)意圖的推理開始進(jìn)入戰(zhàn)場(chǎng),防空作戰(zhàn)決策對(duì)于意圖識(shí)別的準(zhǔn)確率有更高的要求,現(xiàn)有的知識(shí)圖譜、 專家網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)等方法在識(shí)別的精度上還存在差距,難以滿足防空作戰(zhàn)的需求。因此,本文結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)設(shè)計(jì)了一種用于空中目標(biāo)意圖識(shí)別的深度學(xué)習(xí)模型FCN-BiGRU,全卷積網(wǎng)絡(luò)(FCN)可以提取空戰(zhàn)數(shù)據(jù)中的復(fù)雜局部特征,雙向門控循環(huán)單元(BiGRU)用來捕捉空戰(zhàn)意圖數(shù)據(jù)的時(shí)序特征,通過消融實(shí)驗(yàn)和對(duì)比實(shí)驗(yàn)證明,F(xiàn)CN-BiGRU模型的意圖識(shí)別準(zhǔn)確率達(dá)到98.71%,超過現(xiàn)有空中目標(biāo)意圖識(shí)別模型1.14%,為防空作戰(zhàn)決策提供了更有力的依據(jù)。
關(guān)鍵詞:深度學(xué)習(xí); 空中目標(biāo); 意圖識(shí)別; 全卷積網(wǎng)絡(luò); 雙向門控循環(huán)單元
中圖分類號(hào):TJ760; TP183
文獻(xiàn)標(biāo)識(shí)碼: A
文章編號(hào):1673-5048(2023)05-0057-09
DOI: 10.12132/ISSN.1673-5048.2023.0002
0 引" 言
世界經(jīng)濟(jì)水平的發(fā)展和科學(xué)技術(shù)的進(jìn)步推動(dòng)了現(xiàn)代戰(zhàn)爭(zhēng)體系的變革,作戰(zhàn)方式趨向智能化,對(duì)敵方意圖的推理在現(xiàn)代戰(zhàn)爭(zhēng)特別是現(xiàn)代空戰(zhàn)中的作用日益凸顯,越來越多的專家學(xué)者開展了大量意圖識(shí)別相關(guān)研究。在防空作戰(zhàn)中,對(duì)敵來襲空中作戰(zhàn)力量意圖的快速、 準(zhǔn)確識(shí)別可以指導(dǎo)我方把握戰(zhàn)場(chǎng)先機(jī),有效捍衛(wèi)領(lǐng)空安全[1-3]。
現(xiàn)有的意圖識(shí)別方法主要包括專家系統(tǒng)[4]、 模板匹配[5-6]、 證據(jù)理論[7]、 貝葉斯網(wǎng)絡(luò)[8-9]和神經(jīng)網(wǎng)絡(luò)[10-16]等。文獻(xiàn)[4]通過專家經(jīng)驗(yàn)構(gòu)建知識(shí)庫(kù),使用推理機(jī)得到推理結(jié)果,通過對(duì)專家系統(tǒng)進(jìn)行分析,其主要依靠知識(shí)庫(kù)與完善的推理規(guī)則進(jìn)行抽象處理,而戰(zhàn)場(chǎng)環(huán)境復(fù)雜多變,僅憑借推理規(guī)則的力量很難實(shí)現(xiàn)全面覆蓋; 文獻(xiàn)[5-6]根據(jù)戰(zhàn)場(chǎng)態(tài)勢(shì)數(shù)據(jù)和專家經(jīng)驗(yàn)構(gòu)建態(tài)勢(shì)模板,通過模板匹配的方式進(jìn)行意圖識(shí)別,這種方式?jīng)]有考慮戰(zhàn)場(chǎng)的復(fù)雜情況和戰(zhàn)場(chǎng)數(shù)據(jù)的時(shí)序性,在識(shí)別的準(zhǔn)確率方面存在較大的誤差; 文獻(xiàn)[7]針對(duì)海上艦艇對(duì)空中目標(biāo)的意圖識(shí)別特點(diǎn),建立置信規(guī)則庫(kù),結(jié)合戰(zhàn)場(chǎng)的態(tài)勢(shì)特征, 通過推理進(jìn)行意圖識(shí)別; 文獻(xiàn)[8-9]通過專家知識(shí)構(gòu)建貝葉斯網(wǎng)絡(luò),通過概率論與圖論結(jié)合的方式實(shí)現(xiàn)意圖識(shí)別; 文獻(xiàn)[10-16]通過構(gòu)建神經(jīng)網(wǎng)絡(luò),挖掘空戰(zhàn)意圖數(shù)據(jù)中的內(nèi)部聯(lián)系,模擬人腦進(jìn)行意圖識(shí)別,有效解決了傳統(tǒng)意圖識(shí)別方法的缺點(diǎn),引入時(shí)序概念,將意圖識(shí)別看作一個(gè)連續(xù)的過程,通過前后時(shí)刻的相互聯(lián)系影響作戰(zhàn)意圖識(shí)別; 其中,文獻(xiàn)[10-13]基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)[14-15]和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,RNN)[16-17]構(gòu)建時(shí)序意圖識(shí)別模型,取得了更高的準(zhǔn)確率。
然而,現(xiàn)有的意圖識(shí)別方法在識(shí)別的精度上還存在差距,難以滿足防空作戰(zhàn)的需求。在防空作戰(zhàn)中,對(duì)于敵方意圖的誤判有可能造成我方的重大損失甚至整場(chǎng)戰(zhàn)斗的失敗,迫切需要新的意圖識(shí)別方法提高識(shí)別準(zhǔn)確率??諔?zhàn)意圖特征數(shù)據(jù)中不僅存在時(shí)序特征,同樣存在空間特征和局部特征,時(shí)序特征表達(dá)了作戰(zhàn)過程中前后時(shí)刻采取行動(dòng)之間的聯(lián)系,空間特征主要表達(dá)位置、 速度等空間因素對(duì)于意圖識(shí)別的影響,局部特征則體現(xiàn)了影響意圖識(shí)別結(jié)果的關(guān)鍵局部因素。
針對(duì)上述問題,本文設(shè)計(jì)了一種基于FCN-BiGRU的空中目標(biāo)意圖識(shí)別方法,結(jié)合全卷積網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN)[18-19]和雙向門控循環(huán)單元(Bidirectional Gated Recurrent Unit,BiGRU)[20-21]提高識(shí)別準(zhǔn)確率。CNN廣泛應(yīng)用于圖像和時(shí)間序列中,CNN內(nèi)的層可以從很少甚至沒有預(yù)處理的情況下從數(shù)據(jù)中提取復(fù)雜的特征表示。FCN將CNN模型后面的全連接層替換為卷積層,可以較好地提取意圖樣本的空間特征,同時(shí)避免了CNN重復(fù)存儲(chǔ)和計(jì)算卷積的問題,使模型更加高效。BiGRU有著比長(zhǎng)短期記憶(Long Short-Term Memory,LSTM)[22-23]網(wǎng)絡(luò)更小的塊結(jié)構(gòu),并顯示出與LSTM相當(dāng)?shù)男阅?,而且不需要額外的算法支持該模型,具有更少的訓(xùn)練參數(shù)、 更少的內(nèi)存需求、 更少的訓(xùn)練時(shí)間、 更簡(jiǎn)單的硬件實(shí)現(xiàn),具備較強(qiáng)的提取長(zhǎng)距離依賴信息的能力。通過將FCN和BiGRU模型相結(jié)合,可以充分考慮空中目標(biāo)意圖樣本的時(shí)間特征、 空間特征和局部特征,進(jìn)一步提升意圖識(shí)別的效果。通過消融實(shí)驗(yàn)和對(duì)比實(shí)驗(yàn)證明,F(xiàn)CN-BiGRU模型的意圖識(shí)別準(zhǔn)確率遠(yuǎn)遠(yuǎn)超過了現(xiàn)有的空中目標(biāo)意圖識(shí)別模型,取得更好的意圖識(shí)別效果。
1 空中目標(biāo)意圖識(shí)別問題描述
空中目標(biāo)意圖識(shí)別主要包括以下過程:
(1) 根據(jù)作戰(zhàn)類型、 戰(zhàn)場(chǎng)環(huán)境等因素,確定空中目標(biāo)作戰(zhàn)意圖空間;
(2) 采集戰(zhàn)場(chǎng)時(shí)序數(shù)據(jù),選取用于模型意圖識(shí)別的空中目標(biāo)意圖特征空間;
(3) 進(jìn)行數(shù)據(jù)預(yù)處理,形成空中目標(biāo)意圖數(shù)據(jù)集,劃分訓(xùn)練集和測(cè)試集;
(4) 輸入數(shù)據(jù),進(jìn)行模型訓(xùn)練和測(cè)試。
1.1 作戰(zhàn)意圖類型選取
對(duì)于作戰(zhàn)意圖類型的選取,需要根據(jù)作戰(zhàn)類型、 戰(zhàn)場(chǎng)環(huán)境、 任務(wù)背景等因素綜合考慮。如空中目標(biāo)的意圖類型就與海上目標(biāo)的意圖類型存在很大差異。文獻(xiàn)[24]對(duì)于水下威脅目標(biāo)建立的戰(zhàn)術(shù)意圖空間為{攻擊、 規(guī)避、 巡邏}; 文獻(xiàn)[10]根據(jù)敵方空中目標(biāo)近岸空襲軍事建筑為研究背景,建立的敵方空中目標(biāo)的意圖空間為{攻擊、 突防、 偵察、 佯攻、 電子干擾、 監(jiān)視、 撤退},本文重點(diǎn)研究防空作戰(zhàn)中空中目標(biāo)的意圖識(shí)別問題,因此,針對(duì)防空作戰(zhàn)的特點(diǎn)建立包含7種意圖類型的作戰(zhàn)空間,包括{攻擊、 偵察、 干擾、 佯攻、 突防、 監(jiān)視、 撤退}。
由于7種意圖類型屬于非數(shù)值型數(shù)據(jù),為了將其轉(zhuǎn)換為模型可以識(shí)別的數(shù)值型數(shù)據(jù),分別對(duì)以上7種類型作編碼處理,{1,2,3,4,5,6,7}分別對(duì)應(yīng)意圖空間{攻擊、 偵察、 干擾、 佯攻、 突防、 監(jiān)視、 撤退},如圖1所示。如干擾意圖對(duì)應(yīng)的編碼值為3,如果模型的輸出結(jié)果為3,即模型判斷空中目標(biāo)作戰(zhàn)意圖為干擾。
1.2 作戰(zhàn)意圖特征選取
空中目標(biāo)作戰(zhàn)意圖與其作戰(zhàn)任務(wù)和戰(zhàn)場(chǎng)環(huán)境情況密切相關(guān)。在考慮多方面因素的情況下,根據(jù)雷達(dá)、 傳感器等測(cè)得的敵空中作戰(zhàn)力量的時(shí)序數(shù)據(jù)判斷敵機(jī)的作戰(zhàn)意圖。在執(zhí)行空中任務(wù)時(shí),敵機(jī)同一種意圖類型往往表現(xiàn)出相同或相似的特征。如敵殲擊機(jī)在空戰(zhàn)攻擊時(shí)通常采用較高的飛行速度,甚至可達(dá)1 400 km/h,敵機(jī)在執(zhí)行高空突防任務(wù)時(shí)飛行高度往往會(huì)超過10 km[8]。同樣,執(zhí)行偵察任務(wù)時(shí),通常會(huì)保持所有機(jī)載雷達(dá)處在開啟狀態(tài),敵機(jī)在撤退時(shí)敵我距離逐漸增大且航向角朝向我方相反的方向。
綜上所述,本文選取12種由數(shù)值型數(shù)據(jù)和非數(shù)值型數(shù)據(jù)構(gòu)成的空中目標(biāo)意圖特征空間,表達(dá)敵機(jī)的作戰(zhàn)意圖,數(shù)據(jù)預(yù)處理后輸入FCN-BiGRU模型進(jìn)行意圖識(shí)別。其中,數(shù)值型數(shù)據(jù)包括{敵我距離、 高度、 速度、 加速度、 航向角、 方位角、 雷達(dá)反射面積},非數(shù)值型數(shù)據(jù)包括{敵機(jī)類型、 對(duì)空雷達(dá)狀態(tài)、 對(duì)地雷達(dá)狀態(tài)、 機(jī)動(dòng)類型、 干擾狀態(tài)},如表1所示。
對(duì)于數(shù)值型數(shù)據(jù),高度指敵空中目標(biāo)的海拔高度; 敵我距離指敵空中目標(biāo)與我軍事中心的距離; 速度指敵空中目標(biāo)的飛行速度; 加速度指敵空中目標(biāo)的飛行加速度; 航向角為敵空中目標(biāo)飛行方向(正北方向?yàn)?°,順時(shí)針方向一周分為360°); 方位角為我方軍事建筑到敵空中目標(biāo)方向的方位角(正北方向?yàn)?×106" m,順時(shí)針方向一周分為6.4×106 m); 雷達(dá)反射面積指敵戰(zhàn)斗機(jī)的種類型號(hào)。數(shù)值型數(shù)據(jù)使用1個(gè)浮點(diǎn)型數(shù)據(jù)反映其大小,并對(duì)其進(jìn)行Min-Max標(biāo)準(zhǔn)化。對(duì)于任意數(shù)值型數(shù)據(jù)x,標(biāo)準(zhǔn)化后的數(shù)據(jù)x′為
x′=x-min{X}max{X}-min{X}(1)
式中: X為數(shù)據(jù)x所屬的特征種類的數(shù)據(jù)集合; max{X}為數(shù)據(jù)集合X中的最大值; min{X}為數(shù)據(jù)集合X中的最小值。
對(duì)于非數(shù)值型數(shù)據(jù),敵機(jī)類型指敵戰(zhàn)斗機(jī)的種類型號(hào),對(duì)其進(jìn)行編碼; 對(duì)空雷達(dá)狀態(tài)指敵機(jī)的對(duì)空雷達(dá)是否開啟; 對(duì)地雷達(dá)狀態(tài)指對(duì)地雷達(dá)是否開啟; 干擾狀態(tài)指敵機(jī)的干擾裝置是否開啟,以上數(shù)據(jù)編碼為1或0,1表示開啟,0表示關(guān)閉。機(jī)動(dòng)類型指敵機(jī)主要采取的機(jī)動(dòng)方式,以NASA學(xué)者根據(jù)空戰(zhàn)中最常用的機(jī)動(dòng)方式提出的“基本操縱動(dòng)作庫(kù)”[25]進(jìn)行編碼,包括{最大加速、 最大減速、 最大過載爬升、 最大過載俯沖、 最大過載右轉(zhuǎn)、 最大過載左轉(zhuǎn)、 穩(wěn)定分型}7種機(jī)動(dòng)動(dòng)作。
2 意圖識(shí)別模型描述
BiGRU可以在GRU捕捉樣本一系列時(shí)序依賴的同時(shí),利用未來信息進(jìn)行判斷和更新。FCN模型擅于提取時(shí)間序列數(shù)據(jù)的空間特征和細(xì)節(jié)變化規(guī)律,有效提高意圖識(shí)別的準(zhǔn)確率。為了充分利用其優(yōu)點(diǎn),將其組合成一個(gè)新的混合模型,以進(jìn)一步提高意圖識(shí)別精度,實(shí)驗(yàn)證明該模型在當(dāng)前空中目標(biāo)意圖識(shí)別領(lǐng)域準(zhǔn)確率、 召回率和損失值等評(píng)價(jià)指標(biāo)上遠(yuǎn)遠(yuǎn)超越了其他現(xiàn)有模型。
2.1 全卷積網(wǎng)絡(luò)
全卷積網(wǎng)絡(luò)(FCN)是卷積神經(jīng)網(wǎng)絡(luò)(CNN)的一種變體,通過將CNN中的全連接層替換為不同參數(shù)的卷積層實(shí)現(xiàn)全卷積。CNN是一種具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò),主要由卷積層、 池化層和全連接層組成,內(nèi)部包含的卷積計(jì)算使其具有表征學(xué)習(xí)的能力,能夠按照階層結(jié)構(gòu)對(duì)輸入的信息進(jìn)行分類,卷積核之間的參數(shù)共享和各層間的稀疏性連接,使其可以通過較小的計(jì)算量、 較穩(wěn)定的效果提取數(shù)據(jù)的復(fù)雜局部特征,具備較高的學(xué)習(xí)效率,被學(xué)者廣泛應(yīng)用于圖像處理問題和時(shí)間序列問題??罩心繕?biāo)的意圖特征本質(zhì)上是一種多維度時(shí)間序列,因此空中目標(biāo)的意圖識(shí)別問題本質(zhì)上是一種時(shí)間序列問題。CNN的多層卷積結(jié)構(gòu)能夠自動(dòng)學(xué)習(xí)到多個(gè)層次的空中目標(biāo)意圖特征,當(dāng)卷積層較淺感知域較小時(shí)可以學(xué)習(xí)到目標(biāo)意圖的局部特征,當(dāng)卷積層較深感知域較大時(shí)可以學(xué)習(xí)到對(duì)目標(biāo)位置、 速度等敏感性更低的抽象特征,可以極大提高空中目標(biāo)意圖識(shí)別的性能。FCN通過替換掉原有的全連接層,避免了CNN存在的重復(fù)存儲(chǔ)和計(jì)算卷積的問題,使模型更加高效地提取到空中目標(biāo)意圖時(shí)序數(shù)據(jù)中的復(fù)雜局部特征,為防空作戰(zhàn)決策爭(zhēng)取了更多的寶貴時(shí)間。
FCN模塊由3個(gè)時(shí)序卷積(temporal convolutional)模塊組成,每個(gè)時(shí)序卷積模塊均包括1個(gè)一維卷積層、 1個(gè)batch normalization層(后接1個(gè)ReLU激活函數(shù))和1個(gè)dropout層(丟棄率為0.3)組成。根據(jù)空中目標(biāo)意圖特征數(shù)量,設(shè)置第1個(gè)卷積層的輸入通道數(shù)為12,輸出通道數(shù)為128; 第2個(gè)卷積層的輸入通道數(shù)為128,輸出通道數(shù)為256; 第3個(gè)卷積層的輸入通道數(shù)為256,輸出通道數(shù)為128; 3個(gè)卷積層的卷積核大小分別設(shè)置為8,5,3。由此,切片后的航跡數(shù)據(jù)特征從12維映射到128維,并通過連接層將FCN層的輸出與BiGRU層的輸出拼接,實(shí)現(xiàn)同時(shí)兼顧空間和時(shí)間特征的FCN-BiGRU網(wǎng)絡(luò)結(jié)構(gòu)。
2.2 雙向門控循環(huán)單元
循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)由于其內(nèi)部循環(huán)單元的鏈?zhǔn)竭B接,使其在處理時(shí)間序列分類和預(yù)測(cè)等問題上應(yīng)用廣泛,在處理時(shí)間序列數(shù)據(jù)方面其有兩個(gè)主要的變體,長(zhǎng)短時(shí)記憶(LSTM)網(wǎng)絡(luò)和門控循環(huán)單元(GRU),LSTM在內(nèi)部由3個(gè)門(輸入門、 遺忘門和輸出門)組成,GRU則由2個(gè)門(重置門和更新門)組成,在性能上GRU相較于LSTM相差無幾或者略有提升,但是GRU能夠有效緩解深度RNN訓(xùn)練過程中可能出現(xiàn)的梯度消失和梯度爆炸的問題,同時(shí)采用了較LSTM更為簡(jiǎn)單的結(jié)構(gòu),很大程度上減少了工作量,提高了訓(xùn)練效率,更能滿足防空作戰(zhàn)對(duì)于時(shí)間緊迫性的要求。GRU的內(nèi)部結(jié)構(gòu)如圖2所示。
GRU分別使用上一時(shí)刻的輸出狀態(tài)ht-1和當(dāng)前時(shí)刻的輸入序列值xt作為輸入,輸出為當(dāng)前時(shí)刻的狀態(tài)ht。重置門rt主要決定了歷史狀態(tài)信息被遺忘的程度,使網(wǎng)絡(luò)能夠丟掉前面時(shí)刻中不重要的意圖特征,重置門的值越大說明遺忘的信息越少,反之越多。更新門zt控制前一時(shí)刻的狀態(tài)信息被帶入當(dāng)前狀態(tài)之后在當(dāng)前狀態(tài)中的比重,在空中目標(biāo)的意圖識(shí)別中可以使網(wǎng)絡(luò)能夠記憶較長(zhǎng)時(shí)間的意圖特征,更新門zt的值越小說明傳遞的信息越少; 反之則越多。在經(jīng)過重置門rt和更新門zt后模型狀態(tài)得到不斷更新,GRU的內(nèi)部計(jì)算公式如下:
rt=σ(Wrxt+Urht-1)
zt=σ(Wzxt+Uzht-1)
h~t=tanh(Wh~xt+Uh~(rt⊙ht-1))
ht=(1-zt)⊙ht-1+zt⊙h~t (2)
式中:σ為sigmoid激活函數(shù),其作用是將中間狀態(tài)轉(zhuǎn)換到[0, 1]范圍內(nèi),如果其值接近于0,則表示沒有新的信息被記憶; ht-1," ht分別是t-1時(shí)刻和t時(shí)刻的輸出狀態(tài); xt為t時(shí)刻的輸入序列值; h~t為候選輸出狀態(tài); Wr," Wz," Wh~," Ur," Uz和Uh~為各部分相對(duì)應(yīng)的權(quán)值系數(shù)矩陣; tanh為雙曲正切函數(shù),在作為激活函數(shù)使用時(shí)可以有效地解決循環(huán)神經(jīng)網(wǎng)絡(luò)中使用sigmoid函數(shù)普遍面臨的梯度消失問題; ⊙為矩陣的哈達(dá)馬積。
為了更好地捕獲前后時(shí)刻空戰(zhàn)意圖特征之間的聯(lián)系,同時(shí)為了增強(qiáng)模型的意圖識(shí)別穩(wěn)定性,在原有的單向GRU的基礎(chǔ)上,將其擴(kuò)展為雙向的BiGRU,使模型在獲取歷史意圖特征的同時(shí)可以獲取到未來的意圖特征,BiGRU的結(jié)構(gòu)如圖3所示。
圖中, xt-1," xt," xt+1分別表示t-1," t," t+1時(shí)刻的輸入狀態(tài); ht-1," ht," ht+1分別表示t-1," t," t+1時(shí)刻的輸出狀態(tài); GRU1為前向傳播的GRU; GRU2為后向傳播的GRU; 當(dāng)前時(shí)刻的輸入xt在經(jīng)過GRU1和GRU2后分別獲得前向的輸出狀態(tài)ht和后向的輸出狀態(tài)h←t,共同決定模型在t時(shí)刻的輸出狀態(tài)ht。
2.3 模型整體框架
模型結(jié)構(gòu)的主體包括1個(gè)FCN模塊和1個(gè)BiGRU模塊。BiGRU模塊負(fù)責(zé)學(xué)習(xí)時(shí)間序列數(shù)據(jù)的長(zhǎng)期趨勢(shì),通過重置門和更新門對(duì)之前時(shí)刻的特征數(shù)據(jù)進(jìn)行記錄和傳遞,捕捉特征的變化情況,結(jié)合當(dāng)前時(shí)刻的特征數(shù)據(jù)進(jìn)行意圖識(shí)別。FCN模塊負(fù)責(zé)對(duì)切片后的時(shí)序數(shù)據(jù)進(jìn)行特征提取,由于采用了全卷積網(wǎng)絡(luò),模型能更好地捕捉到空戰(zhàn)意圖時(shí)序數(shù)據(jù)的局部信息。 FCN模塊與BiGRU模塊組合后,既能學(xué)習(xí)空戰(zhàn)意圖時(shí)序數(shù)據(jù)的長(zhǎng)期變化趨勢(shì),又能提取出數(shù)據(jù)內(nèi)部的細(xì)節(jié)變化規(guī)律。圖4展示了模型的整體框架。
將包含不同空戰(zhàn)意圖特征的時(shí)間序列數(shù)據(jù)由1個(gè)BiGRU層進(jìn)行處理,輸出為長(zhǎng)度128的一維向量。同時(shí),將相同的時(shí)間序列數(shù)據(jù)通過由濾波器大小為128," 256和128的一維卷積層實(shí)現(xiàn)的FCN網(wǎng)絡(luò)。這可以分3個(gè)步驟進(jìn)行,每個(gè)步驟的全卷積網(wǎng)絡(luò)都涉及到ReLU激活和批處理規(guī)范化。應(yīng)用全局平均池化,將轉(zhuǎn)換后的時(shí)間序列數(shù)據(jù)輸出包含目標(biāo)類可靠性的特征圖,減少了網(wǎng)絡(luò)的參數(shù)數(shù)量,消除了過擬合的風(fēng)險(xiǎn)。池化層和BiGRU層的輸出結(jié)果通過連接層進(jìn)行連接得到輸出值h。最后,應(yīng)用softmax進(jìn)行多類分類。此時(shí)的softmax層數(shù)等于輸出層數(shù)即空戰(zhàn)意圖標(biāo)簽類別總數(shù):
y′=softmax(wh+b)(3)
式中: y′為模型預(yù)測(cè)的意圖結(jié)果; w 為需要學(xué)習(xí)的權(quán)重矩陣; b 為偏置向量。
在訓(xùn)練階段,F(xiàn)CN-BiGRU模型采用交叉熵?fù)p失 (Cross Entropy, CE)[26]函數(shù)計(jì)算損失值,網(wǎng)絡(luò)在整個(gè)訓(xùn)練集上的損失函數(shù)為
H(p, q)=-1N∑Nn=1∑Mm=1p(xn, m)lnq(xn, m)(4)
式中: N 為訓(xùn)練集中訓(xùn)練樣本的總數(shù); M 為訓(xùn)練集中意圖標(biāo)簽種類總數(shù); p(xn, m)為訓(xùn)練集中第 n 個(gè)樣本對(duì)應(yīng)于第 m 個(gè)標(biāo)簽類別的真實(shí)概率; q(xn, m)為網(wǎng)絡(luò)模型輸出值的第 n 個(gè)樣本對(duì)應(yīng)于第 m 個(gè)類別的概率。
在測(cè)試階段,將測(cè)試集的數(shù)據(jù)輸入FCN-BiGRU模型,獲得敵空中目標(biāo)的意圖識(shí)別結(jié)果。
3 實(shí)驗(yàn)分析
3.1 實(shí)驗(yàn)數(shù)據(jù)與環(huán)境
實(shí)驗(yàn)數(shù)據(jù)來源于作戰(zhàn)仿真系統(tǒng)Air Combat Maneuvering Instrumentation (ACMI),由空戰(zhàn)領(lǐng)域?qū)<覍?duì)其標(biāo)簽進(jìn)行修訂。共10 500個(gè)樣本,包括8 400個(gè)訓(xùn)練樣本和2 100個(gè)測(cè)試樣本,每類意圖占比為14.3%。時(shí)間步長(zhǎng)為12,特征維度為12。數(shù)據(jù)集中部分樣本如圖5~6所示。
圖5展示了數(shù)據(jù)集中的其中1個(gè)樣本,縱坐標(biāo)表示12個(gè)特征維度,橫坐標(biāo)表示樣本的時(shí)間維度,顏色代表各特征維度在對(duì)應(yīng)時(shí)刻的數(shù)值大小。為直觀顯示樣本數(shù)據(jù),選取圖5樣本中箭頭所示的飛行高度特征與時(shí)間的變化關(guān)系制作折線圖,如圖6所示,縱坐標(biāo)表示飛行高度,橫坐標(biāo)表示對(duì)應(yīng)的時(shí)刻。實(shí)驗(yàn)設(shè)置的訓(xùn)練輪次為200,批量大小為32。
3.2 性能評(píng)估指標(biāo)
為驗(yàn)證本文提出的FCN-BiGRU空中目標(biāo)作戰(zhàn)意圖識(shí)別模型的性能,采用準(zhǔn)確率和損失值來評(píng)估網(wǎng)絡(luò)的分類情況。計(jì)算公式為
Accuracy=∑Mi=1Ti/(∑Mi=1Ti+∑Mi=1∑Mj=1Fi, j, (i≠j))(5)
Loss=-1N∑Nn=1∑Mm=1p(xn, m)lnq(xn, m)(6)
式中: N 為訓(xùn)練集中訓(xùn)練樣本的總數(shù); M 為訓(xùn)練集中意圖標(biāo)簽種類總數(shù); Ti為數(shù)據(jù)集中真實(shí)標(biāo)簽類別為 i 的樣本中被正確分類的總數(shù); Fi, j為數(shù)據(jù)集中真實(shí)標(biāo)簽類別為 i 的樣本中被錯(cuò)誤分類到類別 j 的總數(shù)。干擾意圖的可能識(shí)別結(jié)果如圖7所示 。
3.3 實(shí)驗(yàn)參數(shù)設(shè)置
模型中存在周期、 學(xué)習(xí)率等超參數(shù),為了使模型達(dá)到較好的效果,本文通過實(shí)驗(yàn)測(cè)試對(duì)比,選取能使模型達(dá)到滿意性能的超參數(shù),如表2所示。
3.4 實(shí)驗(yàn)結(jié)果與分析
3.4.1 FCN-BiGRU 結(jié)果分析
FCN-BiGRU空中目標(biāo)意圖識(shí)別模型的實(shí)驗(yàn)結(jié)果如圖8~9所示,圖8展示了模型訓(xùn)練過程中準(zhǔn)確率的變化曲線, 圖9展示了模型的損失值的變化曲線, 訓(xùn)練集的準(zhǔn)確率最高可達(dá)100%,測(cè)試集的準(zhǔn)確率最高可達(dá)到98.71%,損失值最低可以降到0.033左右,模型在60輪左右達(dá)到收斂狀態(tài)。
為直觀顯示GRU-FCN提取意圖特征信息的效果,使用T-Distributed Stochastic Neighbor Embedding(T-SNE)[27]算法將其提取到的特征降維,映射為二維特征,作為橫縱坐標(biāo)點(diǎn),繪制特征投影圖,如圖10所示。
由圖10可以看出,模型的類內(nèi)距離較近,類間距離較遠(yuǎn),說明FCN-BiGRU的特征提取效果較好,對(duì)于不同的意圖類型都進(jìn)行了較好地分類。
為進(jìn)一步觀測(cè)模型的意圖識(shí)別結(jié)果,制作了如圖11所示的混淆矩陣表示真實(shí)意圖與模型的各預(yù)測(cè)意圖之間的關(guān)系,主對(duì)角線表示識(shí)別正確的樣本個(gè)數(shù),主對(duì)角線以外的其他位置表示該元素所在列的意圖被模型誤識(shí)別為所在行意圖的總數(shù)。從圖中可以看出,模型對(duì)于7種意圖識(shí)別的準(zhǔn)確率都較高,其中撤退的意圖識(shí)別精度最高,可以達(dá)到100%,攻擊和佯攻的意圖識(shí)別精度低于平均水平,分別為96.0%和97.3%。根據(jù)文獻(xiàn)[28],作戰(zhàn)中敵空中目標(biāo)的攻擊和佯攻、 監(jiān)視和偵察意圖間因?yàn)檩^高的相似度和較強(qiáng)的欺騙性會(huì)出現(xiàn)部分識(shí)別混淆的情況。通過觀察本文所提模型的實(shí)驗(yàn)結(jié)果可以發(fā)現(xiàn),模型對(duì)于攻擊和佯攻意圖仍然存在相互識(shí)別錯(cuò)誤的情況,但
是對(duì)于監(jiān)視和偵察意圖的誤識(shí)別問題有了明顯的改善,對(duì)兩種意圖有了更好的區(qū)分,極大地提高了偵察和監(jiān)視意圖的識(shí)別準(zhǔn)確率。
綜合實(shí)驗(yàn)結(jié)果,通過模型的準(zhǔn)確率、 提取特征降維后的投影圖和意圖識(shí)別混淆矩陣可以發(fā)現(xiàn),F(xiàn)CN-BiGRU在空中目標(biāo)意圖識(shí)別上表現(xiàn)優(yōu)異,且準(zhǔn)確率遠(yuǎn)遠(yuǎn)超過了現(xiàn)有的識(shí)別方法,一定程度上達(dá)到了在戰(zhàn)時(shí)輔助指揮員作戰(zhàn)決策的要求。
3.4.2 模型消融實(shí)驗(yàn)分析
為進(jìn)一步論證本文所提的FCN-BiGRU模型中各組成部分的作用,通過消融實(shí)驗(yàn)進(jìn)行對(duì)比實(shí)驗(yàn)分析,如表3所示。由表可見,僅使用FCN模型進(jìn)行意圖識(shí)別時(shí)的準(zhǔn)確率為94.29%,損失值為0.055,在僅使用BiGRU進(jìn)行意圖識(shí)別時(shí)準(zhǔn)確率為93.28%,損失值為0.067,而FCN-BiGRU的準(zhǔn)確率為98.71%,損失值為0.033。對(duì)比發(fā)現(xiàn),F(xiàn)CN-BiGRU模型的效果明顯優(yōu)于其他2個(gè)模型,說明將FCN和BiGRU模型組合可以顯著提高意圖識(shí)別的準(zhǔn)確率,降低損失值。
3.4.3 模型對(duì)比實(shí)驗(yàn)分析
為驗(yàn)證FCN-BiGRU模型的優(yōu)越性,將其分別與使用LSTM替換本文BiGRU的FCN-LSTM模型、 文獻(xiàn)[12]所提的結(jié)合注意力機(jī)制的BiGRU-Attention模型、 文獻(xiàn)[29]所提的全景卷積長(zhǎng)短期記憶網(wǎng)絡(luò)(PCLSTM)的空中目標(biāo)意圖識(shí)別模型和基于常規(guī)GRU的模型等常用的表現(xiàn)優(yōu)異的空中目標(biāo)意圖識(shí)別模型進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表4、 圖 12~13所示。
通過圖12~13可以直觀地看出,加入Attention后模型的準(zhǔn)確率有大幅度提升,融合FCN后進(jìn)一步提高了模型的準(zhǔn)確率。通過表4得出,所有模型的意圖識(shí)別準(zhǔn)確率均超過了90%,且雙向的循環(huán)神經(jīng)網(wǎng)絡(luò)表現(xiàn)優(yōu)于單向的循環(huán)神經(jīng)網(wǎng)絡(luò),即FCN-BiGRU的準(zhǔn)確率略高于FCN-LSTM模型,并且可以看出,本文所提模型的準(zhǔn)確率最高,可以達(dá)到98.71%,同樣,本文所提模型的損失值也優(yōu)于現(xiàn)有的表現(xiàn)較好的意圖識(shí)別模型,證明了FCN-BiGRU在空中目標(biāo)意圖識(shí)別領(lǐng)域的出色表現(xiàn)。
為了更直觀地表現(xiàn)模型對(duì)于不同意圖的識(shí)別情況,表5統(tǒng)計(jì)了模型對(duì)各意圖類型的識(shí)別準(zhǔn)確率。
表中,①、 ②、 ③、 ④、 ⑤分別代表FCN-BiGRU," FCN-LSTM," BiGRU-Attention," PCLSTM," GRU模型。通過分析表5結(jié)果發(fā)現(xiàn),每個(gè)模型對(duì)于干擾、 突防和撤退意圖的識(shí)別準(zhǔn)確率均較高,均可以達(dá)到90%; 模型②~⑤對(duì)于攻擊、 佯攻、 監(jiān)視和偵察的識(shí)別存在準(zhǔn)確率偏低的情況,遠(yuǎn)遠(yuǎn)低于各自模型的平均準(zhǔn)確率,而本文所提的模型在監(jiān)視和偵察意圖的識(shí)別上同樣表現(xiàn)較好,準(zhǔn)確率分別為99.7%和99.0%,在攻擊和佯攻意圖的區(qū)分上也有了提升,達(dá)到了令人滿意的效果; 同時(shí),F(xiàn)CN-BiGRU模型的性能在單個(gè)意圖的識(shí)別準(zhǔn)確率上均高于其他模型,再次驗(yàn)證了本文所提模型的優(yōu)越性。
3.4.4 模型魯棒性分析
為驗(yàn)證本文所提模型的魯棒性,對(duì)原有數(shù)據(jù)集按下式分別添加信噪比為10 dB," 5 dB," 0 dB," -5 dB," -10 dB的高斯白噪聲:
SNR=10log10PsignalPnoise=10log10∑x2∑n2(7)
n=∑x2N·10SNR10 (8)
noise=random(N)·n(9)
式中: x為原始信號(hào); n為噪聲信號(hào); N為原始信號(hào)長(zhǎng)度; SNR為信噪比; noise為通過信噪比計(jì)算得到的噪聲信號(hào)。在不同信噪比下訓(xùn)練測(cè)試FCN-BiGRU模型,并對(duì)比不同模型的意圖識(shí)別效果,結(jié)果如表6所示。
表中,①、 ②、 ③、 ④、 ⑤分別代表FCN-BiGRU," FCN-LSTM," BiGRU-Attention," PCLSTM," GRU模型。通過表6發(fā)現(xiàn),隨著信噪比的降低,模型的準(zhǔn)確率呈現(xiàn)下降趨勢(shì),但是FCN-BiGRU模型的準(zhǔn)確率仍高于其他模型,即使信噪比低至-10 dB時(shí)," 其準(zhǔn)確率也接近90%,而GRU模型的準(zhǔn)確率在信噪比低至0 dB后迅速下降,降幅達(dá)15.33%,證明本文所提的模型在應(yīng)對(duì)環(huán)境噪聲時(shí)準(zhǔn)確率變化波動(dòng)較小,魯棒性較好。
4 結(jié)" 論
針對(duì)現(xiàn)有的空中目標(biāo)意圖識(shí)別方法準(zhǔn)確率難以滿足防空作戰(zhàn)需求的問題,本文設(shè)計(jì)了一種結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)的FCN-BiGRU空中目標(biāo)意圖識(shí)別方法,BiGRU主要負(fù)責(zé)提取空戰(zhàn)意圖數(shù)據(jù)的時(shí)序特征,F(xiàn)CN負(fù)責(zé)捕捉數(shù)據(jù)間的復(fù)雜局部特征和空間特征。模型首先通過空中意圖特征數(shù)據(jù)集選取包括數(shù)值型數(shù)據(jù)和非數(shù)值型數(shù)據(jù)在內(nèi)的12維空戰(zhàn)意圖特征,將專家經(jīng)驗(yàn)封裝為標(biāo)簽,將空戰(zhàn)意圖時(shí)序數(shù)據(jù)預(yù)處理后選取12幀的時(shí)間長(zhǎng)度訓(xùn)練FCN-BiGRU模型,提取數(shù)據(jù)內(nèi)部特征,為戰(zhàn)時(shí)提高對(duì)敵意圖識(shí)別的準(zhǔn)確率、 防止戰(zhàn)場(chǎng)不確定因素影響識(shí)別結(jié)果進(jìn)而影響作戰(zhàn)決策提供保證。實(shí)驗(yàn)證明,本文所提模型的訓(xùn)練速度較快,且準(zhǔn)確率遠(yuǎn)遠(yuǎn)超過了現(xiàn)有的空中目標(biāo)意圖識(shí)別模型,達(dá)到了輔助作戰(zhàn)決策的要求。但是,模型對(duì)于相似程度過高意圖的區(qū)分還存在不足,對(duì)于不同的意圖誤識(shí)別情況造成的代價(jià)不均等問題還沒有充分考慮,這將是下一步研究的重點(diǎn)。
參考文獻(xiàn):
[1] 姚慶鍇, 柳少軍, 賀筱媛, 等." 戰(zhàn)場(chǎng)目標(biāo)作戰(zhàn)意圖識(shí)別問題研究與展望[J]." 指揮與控制學(xué)報(bào), 2017, 3(2): 127-131.
Yao Qingkai, Liu Shaojun, He Xiaoyuan, et al." Research and Prospect of Battlefield Target Operational Intention Recognition[J]." Journal of Command and Control, 2017, 3(2):" 127-131. (in Chinese)
[2] Xia P C, Chen M, Zou J E, et al." Prediction of Air Target Intention Utilizing Incomplete Information[C]∥Chinese Intelligent Systems Conference, 2016:" 395-403.
[3] 劉鉆東, 陳謀, 吳慶憲, 等." 非完備信息下無人機(jī)空戰(zhàn)目標(biāo)意圖預(yù)測(cè)[J]." 中國(guó)科學(xué):" 信息科學(xué), 2020, 50(5):" 704-717.
Liu Zuandong, Chen Mou, Wu Qingxian, et al." Prediction of Unmanned Aerial Vehicle Target Intention under Incomplete Information[J]." Scientia Sinica: Informationis, 2020, 50(5):" 704-717. (in Chinese)
[4] 尹翔, 張萌, 陳夢(mèng)喬." 基于判別分析的空中目標(biāo)作戰(zhàn)意圖識(shí)別[J]. 彈箭與制導(dǎo)學(xué)報(bào), 2018, 38(3): 46-50.
Yin Xiang, Zhang Meng, Chen Mengqiao. Combat Intention Re-cognition of the Target in the Air Based onDiscriminant Analysis[J]." Journal of Projectiles, Rockets, Missiles and Guidance, 2018, 38(3):" 46-50. (in Chinese)
[5] Chen Y M, Li Y C." Simulation of Target Tactical Intention Recognition Based on Knowledge Map[J]." Computer Simulation, 2019, 36(8): 1-4.
[6] 李香亭." 態(tài)勢(shì)估計(jì)中目標(biāo)意圖識(shí)別的研究與實(shí)現(xiàn)[D]." 太原:" 中北大學(xué), 2012.
Li Xiangting." Research and Implementation of Target Intention Re-cognition in Situation Assessment[D]. Taiyuan:" North University of China, 2012." (in Chinese)
[7] 趙福均, 周志杰, 胡昌華, 等." 基于置信規(guī)則庫(kù)和證據(jù)推理的空中目標(biāo)意圖識(shí)別方法[J]." 電光與控制, 2017, 24(8):" 15-19.
Zhao Fujun, Zhou Zhijie, Hu Changhua, et al." AerialTarget Intention Recognition Approach Based on Belief-Rule-Base and Evidential Reasoning[J]." Electronics Optics amp; Control, 2017, 24(8):" 15-19. (in Chinese)
[8] Xu Y H, Cheng S Y, Zhang H B, et al." Air Target Combat Intention Identification Based on IE-DSBN[C]∥International Workshop on Electronic Communication and Artificial Intelligence (IWECAI), 2020:" 36-40.
[9] Xu X M, Yang R N, Fu Y." Situation Assessment for Air Combat Based on Novel Semi-Supervised NaiveBayes[J]." Journal of Systems Engineering and Electronics, 2018, 29(4):" 768-779.
[10] Teng F, Song Y F, Guo X P." Attention-TCN-BiGRU: An Air Target Combat Intention Recognition Model [J]." Mathematics, 2021, 9(19):" 2412.
[11] Wang S Y, Wang G, Fu Q, et al." STABC-IR: An AirTarget Intention Recognition Method Based on Bidirectional Gated Recurrent Unit and Conditional Random Field with Space-Time Attention Mechanism[J]." Chinese Journal of Aeronautics, 2023, 36(3): 316-334.
[12] Teng F, Guo X P, Song Y F, et al." An Air Target Tactical Intention Recognition Model Based on Bidirectional GRU with Attention Mechanism[J]." IEEE Access, 2021, 9:" 169122-169134.
[13] Qu C X, Guo Z C, Xia S J, et al." Intention Recognition of Aerial Target Based on Deep Learning[J]." Evolutionary Intelligence, 2022:" 1-9.
[14] Zhou T L, Chen M, Wang Y H, et al." Information Entropy-Based Intention Prediction of Aerial Targets under Uncertain and Incomplete Information[J]." Entropy, 2020, 22(3):" 279.
[15] 周旺旺, 姚佩陽, 張杰勇, 等." 基于深度神經(jīng)網(wǎng)絡(luò)的空中目標(biāo)作戰(zhàn)意圖識(shí)別[J]." 航空學(xué)報(bào), 2018, 39(11): 322476.
Zhou Wangwang, Yao Peiyang, Zhang Jieyong, et al." Combat Intention Recognition for Aerial Targets Based on Deep Neural Network[J]." Acta Aeronautica et Astronautica Sinica, 2018, 39(11):" 322476. (in Chinese)
[16] 翟翔宇,楊風(fēng)暴,吉琳娜,等. 標(biāo)準(zhǔn)化全連接殘差網(wǎng)絡(luò)空戰(zhàn)目標(biāo)威脅評(píng)估[J]. 火力與指揮控制, 2020, 45(6): 39-44.
Zhai xiangyu, Yang Fengbao, Ji Linna, et al." Air Combat Targets Threat Assessment Based on Standardized Fully Connected Network and Residual Network[J]." Fire Control amp; Command Control, 2020, 45(6): 39-44. (in Chinese)
[17] Lipton Z C, Berkowitz J, Elkan C. A Critical Reviewof Recurrent Neural Networks for Sequence Learning[EB/OL]." (2015-05-29)[2023-01-04]." https: ∥arxiv. org/abs/1506. 00019.
[18] La Rosa L E C, Sothe C, Feitosa R Q, et al." Multi-Task Fully Convolutional Network for Tree Species Mapping in Dense Forests Using Small Training Hyperspectral Data[J]." ISPRS Journal of Photogrammetry and Remote Sensing, 2021, 179:" 35-49.
[19] Elsayed N, Maida A S, Bayoumi M. Deep Gated Recurrent and Convolutional Network Hybrid Model for Univariate Time Series Classification[EB/OL]." (2019-02-20)[2023-01-04]." https: ∥arxiv. org/abs/1812. 07683.
[20] Li X C, Ma X F, Xiao F C, et al." Time-Series Production Forecasting Method Based on the Integrationof Bidirectional Gated Recurrent Unit (Bi-GRU) Network and Sparrow Search Algorithm (SSA)[J]." Journal of Petroleum Science and Engineering, 2022, 208: 109309.
[21] Dey R, Salem F M. Gate-Variants of Gated RecurrentUnit (GRU) Neural Networks[C]∥60th International Midwest Symposium on Circuits and Systems (MWSCAS), 2017:" 1597-1600.
[22] Lindemann B, Müller T, Vietz H, et al. A Survey onLong Short-Term Memory Networks for Time SeriesPrediction[J]." Procedia CIRP, 2021, 99:" 650-655.
[23] Cheng J P, Dong L, Lapata M." Long Short-Term Memory-Networks for Machine Reading[EB/OL]." (2016-01-25)[2023-01-04]." https: ∥arxiv. org/abs/1601. 06733.
[24] 陸光宇, 丁迎迎. 水下平臺(tái)對(duì)敵意圖識(shí)別技術(shù)研究[J]. 指揮控制與仿真, 2012, 34(6):" 100-102.
Lu Guangyu, Ding Yingying." Study on Intention Recognition to Foe of Underwater Platform[J]. CommandControl amp; Simulation, 2012, 34(6):" 100-102. (in Chinese)
[25] 朱可欽, 董彥非." 空戰(zhàn)機(jī)動(dòng)動(dòng)作庫(kù)設(shè)計(jì)方式研究[J]. 航空計(jì)算技術(shù), 2001, 31(4):" 50-52.
Zhu Keqin, Dong Yanfei." Study on the Design of Air Combat Maneuver Library[J]." Aeronautical Computer Technique, 2001, 31(4):" 50-52. (in Chinese)
[26] Pinneri C, Sawant S, Blaes S, et al.nbsp; Sample-Efficient Cross-Entropy Method for Real-Time Planning[EB/OL]. (2020-08-14)[2023-01-04]." https: ∥arxiv.org/abs/2008.06389.
[27] Zhu W B, Webb Z T, Mao K T, et al." A Deep Learning Approach for Process Data Visualization Using t-Distributed Stochastic Neighbor Embedding[J]." Industrial amp; Engineering Chemistry Research, 2019, 58(22):" 9564-9575.
[28] 滕飛, 劉曙, 宋亞飛." BiLSTM-Attention:" 一種空中目標(biāo)戰(zhàn)術(shù)意圖識(shí)別模型[J]." 航空兵器, 2021, 28(5): 24-32.
Teng Fei, Liu Shu, Song Yafei." BiLSTM-Attention: An Air Target Tactical Intention Recognition Model[J]. Aero Weaponry, 2021, 28(5):" 24-32. (in Chinese)
[29] Xue J J, Zhu J, Xiao J Y, et al." Panoramic Convolutional Long Short-Term Memory Networks for Combat Intension Recognition of Aerial Targets[J]." IEEE Access, 2020, 8:" 183312-183323.
An Approach to Air Target Intention Recognition
Based on FCN-BiGRU
Ding Peng,Song Yafei*
(Air and Missile Defense College,Air Force Engineering University,Xi’an 710051,China)
Abstract: With the development of science and technology and the change of operational methods, the reasoning of the enemy’s operational intent has begun to be introduced into the battlefield. Air defense operational decision-making has higher requirements for the accuracy of intent identification. The existing knowledge atlas, expert networks, and deep neural network methods still have gaps in the accuracy of identification, which is difficult to meet the requirements of air defense operations. Therefore, this paper combines the advantages of convolutional neural network and cyclic neural network to design a deep learning model FCN-BiGRU for air target intention recognition. The Full Convolutional Network (FCN) can extract the complex local features in air combat data, and the Bidirectional Gated Recurrent Unit (BiGRU) is used to capture the temporal characteristics of air combat intention data. It is proved by ablation experiments and comparative experiments that the accuracy rate of intention recognition of the FCN-BiGRU model far" reaching 98.71% and 1.14% higher than the existing air target intention recognition model, which provides a more powerful basis for air defense combat decision-making.
Key words: deep learning; air target; intention recognition; FCN; BiGRU