李玉慶,江飛龍,陳 卓,王日新,黃勝全,王瑞星,崔祜濤,徐敏強(qiáng)
(1.哈爾濱工業(yè)大學(xué) 航天學(xué)院,哈爾濱 150090;2.中國(guó)船舶工業(yè)系統(tǒng)工程研究院,北京 100094)
隨著無(wú)人裝備的發(fā)展以及人工智能技術(shù)的興起,無(wú)人集群系統(tǒng)成為當(dāng)今各國(guó)武器裝備的發(fā)展熱點(diǎn)[1],但無(wú)人集群對(duì)抗領(lǐng)域中無(wú)人集群的應(yīng)用也導(dǎo)致戰(zhàn)場(chǎng)態(tài)勢(shì)信息更加繁雜,極大增加了態(tài)勢(shì)感知的難度。在無(wú)人集群對(duì)抗中,對(duì)集群陣型和集群運(yùn)動(dòng)趨勢(shì)等集群態(tài)勢(shì)要素的識(shí)別是進(jìn)一步實(shí)現(xiàn)意圖判斷和決策制定的前提,準(zhǔn)確識(shí)別集群態(tài)勢(shì)要素,才能進(jìn)一步認(rèn)知集群態(tài)勢(shì),實(shí)現(xiàn)準(zhǔn)確有效的無(wú)人集群對(duì)抗智能決策[2],對(duì)于無(wú)人機(jī)集群、無(wú)人艇集群等現(xiàn)代戰(zhàn)爭(zhēng)場(chǎng)景具有至關(guān)重要的意義。
為準(zhǔn)確識(shí)別態(tài)勢(shì)信息,國(guó)內(nèi)、外學(xué)者進(jìn)行了大量的研究。傳統(tǒng)的態(tài)勢(shì)識(shí)別技術(shù)采用了貝葉斯網(wǎng)絡(luò)[3]、模板匹配[4-5]、專(zhuān)家系統(tǒng)[6]等方法,但面對(duì)復(fù)雜的無(wú)人集群對(duì)抗環(huán)境,傳統(tǒng)的態(tài)勢(shì)識(shí)別技術(shù)很難從繁雜的集群態(tài)勢(shì)信息中快速準(zhǔn)確地識(shí)別集群態(tài)勢(shì)要素,因此需要采取更加智能有效的方法來(lái)實(shí)現(xiàn)無(wú)人集群對(duì)抗態(tài)勢(shì)要素識(shí)別[7]。
人工智能技術(shù)的快速發(fā)展為復(fù)雜數(shù)據(jù)的處理提供了新方法,深度學(xué)習(xí)正逐漸被應(yīng)用于態(tài)勢(shì)識(shí)別問(wèn)題。文獻(xiàn)[8]提出了一種基于模糊推理方法的空中目標(biāo)態(tài)勢(shì)識(shí)別特征表示方法。文獻(xiàn)[9]提出一種基于徑向基神經(jīng)網(wǎng)絡(luò)的目標(biāo)意圖識(shí)別模型。文獻(xiàn)[10]設(shè)計(jì)了基于深度神經(jīng)網(wǎng)絡(luò)的作戰(zhàn)識(shí)別模型,使用深度神經(jīng)網(wǎng)絡(luò)自主學(xué)習(xí)得到特征狀態(tài)與意圖之間的聯(lián)系,提高了模型識(shí)別效果。文獻(xiàn)[8-10]提出的方法都是針對(duì)于單個(gè)目標(biāo)的態(tài)勢(shì)感知方法,主要工作集中在對(duì)于態(tài)勢(shì)特征和態(tài)勢(shì)分類(lèi)結(jié)果的設(shè)計(jì)與處理,并應(yīng)用了一種現(xiàn)有方法(模糊推理、徑向基神經(jīng)網(wǎng)絡(luò)、深度BP網(wǎng)絡(luò)等)實(shí)現(xiàn)態(tài)勢(shì)分類(lèi),缺少對(duì)所使用的現(xiàn)有方法的分析與改進(jìn)。文獻(xiàn)[11]使用深度Q網(wǎng)絡(luò)模型算法作為無(wú)人機(jī)決策模型,以產(chǎn)生空戰(zhàn)時(shí)序數(shù)據(jù),再基于隨機(jī)森林模型獲取影響空戰(zhàn)態(tài)勢(shì)較為本質(zhì)的特征表達(dá),但也沒(méi)有對(duì)深度Q網(wǎng)絡(luò)模型進(jìn)行深入分析和針對(duì)性改進(jìn)。文獻(xiàn)[12]使用棧式自編碼器提取深層次的戰(zhàn)場(chǎng)態(tài)勢(shì)特征,并分析了網(wǎng)絡(luò)深度對(duì)算法性能的影響,但在應(yīng)用棧式自編碼器算法時(shí)也未與特定領(lǐng)域相結(jié)合,只是將棧式自編碼器作為一個(gè)通用特征提取方法使用。文獻(xiàn)[13]面向多單元態(tài)勢(shì)感知問(wèn)題,先采用K-均值聚類(lèi)算法對(duì)單元態(tài)勢(shì)信息進(jìn)行聚類(lèi),然后使用由深度學(xué)習(xí)模型構(gòu)建的算法架構(gòu)實(shí)現(xiàn)態(tài)勢(shì)理解,但是簡(jiǎn)單地使用聚類(lèi)方法對(duì)多單元態(tài)勢(shì)信息進(jìn)行處理,無(wú)法有選擇性地考慮各單元間的態(tài)勢(shì)關(guān)聯(lián)關(guān)系,可能使得關(guān)鍵的態(tài)勢(shì)信息被掩蓋。
現(xiàn)有的態(tài)勢(shì)感知方法在應(yīng)用深度學(xué)習(xí)方法時(shí),大多只是將深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)作為一個(gè)黑盒模塊使用,缺少對(duì)于深度學(xué)習(xí)方法的深入理解與分析,也很少根據(jù)實(shí)際應(yīng)用領(lǐng)域?qū)ι疃葘W(xué)習(xí)神經(jīng)網(wǎng)絡(luò)進(jìn)行相應(yīng)改進(jìn)。在將深度學(xué)習(xí)方法應(yīng)用到無(wú)人集群對(duì)抗問(wèn)題上時(shí),應(yīng)當(dāng)結(jié)合問(wèn)題特點(diǎn)改進(jìn)深度學(xué)習(xí)方法,充分發(fā)揮深度學(xué)習(xí)方法的能力。在無(wú)人集群對(duì)抗問(wèn)題中,多單位多維度時(shí)序態(tài)勢(shì)信息相互混合,形成繁雜的無(wú)人集群態(tài)勢(shì)信息,使得態(tài)勢(shì)要素識(shí)別難度顯著提升,但現(xiàn)有的態(tài)勢(shì)感知方法很少針對(duì)此問(wèn)題進(jìn)行研究,大都只是對(duì)所有態(tài)勢(shì)信息進(jìn)行統(tǒng)一處理,這就將明顯提升集群態(tài)勢(shì)要素識(shí)別的難度。所以,本文考慮引入注意力機(jī)制,在處理集群態(tài)勢(shì)信息時(shí),選擇性地關(guān)注更重要的信息,降低集群態(tài)勢(shì)信息的復(fù)雜程度,提升集群態(tài)勢(shì)感知方法的性能。
基于上述分析, 為解決對(duì)于復(fù)雜無(wú)人集群對(duì)抗態(tài)勢(shì)的態(tài)勢(shì)要素識(shí)別問(wèn)題,實(shí)現(xiàn)對(duì)于集群態(tài)勢(shì)要素的正確識(shí)別分類(lèi),本文提出了一種利用Transformer的無(wú)人集群對(duì)抗態(tài)勢(shì)要素識(shí)別方法。首先,利用LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)將集群態(tài)勢(shì)序列信息編碼成態(tài)勢(shì)時(shí)序特征,壓縮集群態(tài)勢(shì)信息中的時(shí)間維度,有效精簡(jiǎn)集群態(tài)勢(shì)信息;其次,為能有效挖掘和處理集群中多單位態(tài)勢(shì)信息之間的內(nèi)在關(guān)聯(lián)關(guān)系,基于Transformer中的decoder模塊設(shè)計(jì)Transformer-Decoder注意力模塊,并設(shè)計(jì)層間注意力結(jié)構(gòu)以進(jìn)一步改進(jìn)其增強(qiáng)特征表達(dá)能力,使用改進(jìn)后的Transformer-Decoder注意力模塊對(duì)時(shí)序特征信息進(jìn)行處理,提取綜合高階態(tài)勢(shì)信息;然后將綜合高階態(tài)勢(shì)信息輸入到多分類(lèi)網(wǎng)絡(luò)中,結(jié)合softmax層實(shí)現(xiàn)對(duì)于多類(lèi)態(tài)勢(shì)要素的分類(lèi)。最后,與基線(xiàn)方法對(duì)比,通過(guò)實(shí)驗(yàn)仿真驗(yàn)證本文所提出模型的性能。
在無(wú)人集群識(shí)別、對(duì)抗、情報(bào)分析等領(lǐng)域,對(duì)集群陣型和集群運(yùn)動(dòng)趨勢(shì)等集群態(tài)勢(shì)要素的準(zhǔn)確識(shí)別是十分重要的,集群態(tài)勢(shì)要素識(shí)別是進(jìn)一步實(shí)現(xiàn)集群作戰(zhàn)意圖識(shí)別的必要前提,集群態(tài)勢(shì)要素識(shí)別是否準(zhǔn)確將會(huì)很大程度上影響集群意圖判斷和智能決策,進(jìn)而影響無(wú)人集群戰(zhàn)場(chǎng)的勝負(fù)走向,因此集群態(tài)勢(shì)要素的準(zhǔn)確識(shí)別對(duì)現(xiàn)代無(wú)人集群對(duì)抗作戰(zhàn)至關(guān)重要。
為更準(zhǔn)確地把握本文的研究?jī)?nèi)容及研究界限,在綜合考慮不同文獻(xiàn)中對(duì)有關(guān)概念解釋情況的基礎(chǔ)上,本文對(duì)相關(guān)概念進(jìn)行定義。
態(tài)勢(shì)認(rèn)知就是將當(dāng)前戰(zhàn)場(chǎng)的目標(biāo)信息進(jìn)行組織分析,將戰(zhàn)場(chǎng)目標(biāo)的運(yùn)動(dòng)特點(diǎn)以及相互關(guān)系等進(jìn)行相互關(guān)聯(lián),從整體出發(fā)預(yù)測(cè)未來(lái)的活動(dòng)動(dòng)向,并對(duì)敵方的兵力配置、作戰(zhàn)使命與核心意圖做出判斷,進(jìn)而對(duì)整體戰(zhàn)場(chǎng)局勢(shì)的變化進(jìn)行預(yù)測(cè)。無(wú)人集群在執(zhí)行各類(lèi)任務(wù)時(shí),集群中各單位的整體行動(dòng)一般不會(huì)是雜亂無(wú)章的,集群會(huì)保持一定形態(tài)協(xié)同行動(dòng),集群中各單位在進(jìn)行相對(duì)運(yùn)動(dòng)時(shí)也會(huì)遵循一定規(guī)律。
在此基礎(chǔ)上,本文把集群態(tài)勢(shì)認(rèn)知的對(duì)象定義為集群陣型和集群運(yùn)動(dòng)趨勢(shì)兩大類(lèi)集群態(tài)勢(shì)要素,集群陣型表征的是集群中各個(gè)實(shí)體相互間的位置關(guān)系的約束關(guān)系,而集群運(yùn)動(dòng)趨勢(shì)則表征的是在這種位置約束關(guān)系下各個(gè)實(shí)體位置的總體變化趨勢(shì)。其中,集群運(yùn)動(dòng)趨勢(shì)又可分為集群整體運(yùn)動(dòng)趨勢(shì)和內(nèi)部相對(duì)運(yùn)動(dòng)趨勢(shì),集群整體運(yùn)動(dòng)趨勢(shì)表征的是集群中各個(gè)實(shí)體位置變化趨勢(shì)中相同或相似的成分,而內(nèi)部相對(duì)運(yùn)動(dòng)趨勢(shì)表征的是集群中各個(gè)實(shí)體位置變化趨勢(shì)中不同的成分。本文以目標(biāo)集群相對(duì)于觀測(cè)主體的距離變化和角度變化共同定義集群整體運(yùn)動(dòng)趨勢(shì),以目標(biāo)集群的聚攏程度變化定義內(nèi)部相對(duì)運(yùn)動(dòng)趨勢(shì)。
本文將集群陣型、距離變化、角度變化和聚攏程度變化等4類(lèi)因素定義為集群態(tài)勢(shì)要素,共同表征集群的總體狀態(tài),如圖1所示。本文提出的方法以水面無(wú)人艇場(chǎng)景為假定場(chǎng)景,接下來(lái)以假定場(chǎng)景為基礎(chǔ),對(duì)集群陣型、距離變化、角度變化和聚攏程度變化4類(lèi)態(tài)勢(shì)要素分別進(jìn)行詳細(xì)的定義。
圖1 集群態(tài)勢(shì)要素分類(lèi)
在本文的研究中,集群陣型態(tài)勢(shì)要素共定義了5種狀態(tài),分別為一字型、大雁型、弧型、圓型、圓中點(diǎn)型,如圖2所示。一字型集群陣型表征為集群中所有實(shí)體排列為一條直線(xiàn);大雁型集群陣型表征為集群均分為兩部分,分別排列為兩條形成一定夾角的直線(xiàn);弧型集群陣型表征為集群中所有實(shí)體排列為一個(gè)半圓弧;圓型集群陣型表征為集群中所有實(shí)體排列為一整個(gè)圓形;圓中點(diǎn)型陣型表征為一個(gè)實(shí)體處于中心,其余實(shí)體圍繞該實(shí)體排列為一個(gè)圓形。
距離變化態(tài)勢(shì)要素分別定義了3種狀態(tài),即:距離靠近、距離遠(yuǎn)離、距離不變,如圖3所示。距離靠近表示目標(biāo)集群整體向觀測(cè)主體移動(dòng),表征為集群中所有實(shí)體與觀測(cè)主體的平均距離減?。痪嚯x遠(yuǎn)離表示目標(biāo)集群整體向觀測(cè)主體方向的反方向移動(dòng),表征為集群中所有實(shí)體與觀測(cè)主體的平均距離增加;距離不變表示目標(biāo)集群整體沒(méi)有明顯的靠近或遠(yuǎn)離觀測(cè)主體的趨勢(shì),表征為集群中所有實(shí)體與觀測(cè)主體的平均距離基本保持不變。
圖2 集群陣型態(tài)勢(shì)要素
圖3 距離變化態(tài)勢(shì)要素
角度變化態(tài)勢(shì)要素分別定義了3種狀態(tài),即:角度順時(shí)針變化、角度逆時(shí)針變化、角度不變,如圖4所示。角度順時(shí)針變化表示目標(biāo)集群整體相對(duì)于觀測(cè)主體的順時(shí)針?lè)较蛞苿?dòng),表征為集群中所有實(shí)體在以觀測(cè)主體為中心的極坐標(biāo)下的平均方位角增大;角度逆時(shí)針變化表示目標(biāo)集群整體相對(duì)于觀測(cè)主體的逆時(shí)針?lè)较蛞苿?dòng),表征為集群中所有實(shí)體在以觀測(cè)主體為中心的極坐標(biāo)下的平均方位角減??;角度不變表示目標(biāo)集群整體相對(duì)于觀測(cè)主體的方位沒(méi)有明顯變化,表征為集群中所有實(shí)體在以觀測(cè)主體為中心的極坐標(biāo)下的平均方位角基本保持不變。
圖4 角度變化態(tài)勢(shì)要素
聚攏程度變化態(tài)勢(shì)要素分別定義了3種狀態(tài),即:聚攏、分散、聚攏程度不變,如圖5所示。聚攏表示目標(biāo)集群向陣型中心收攏,表征為集群中所有實(shí)體與陣型中心的平均距離減小;分散表示目標(biāo)集群向陣型中心方向的反方向擴(kuò)張,表征為集群中所有實(shí)體與陣型中心的平均距離增大;聚攏程度不變表示目標(biāo)集群向陣型中心收攏,表征為集群中所有實(shí)體與陣型中心的平均距離減小。
圖5 聚攏程度變化態(tài)勢(shì)要素
本文提出一種利用Transformer和層間注意力的無(wú)人集群對(duì)抗態(tài)勢(shì)要素識(shí)別方法,核心為層間注意力Transformer模型(Intel-layer attention transformer,IAT),基于Transformer模型中decoder模塊的結(jié)構(gòu),設(shè)計(jì)了可應(yīng)用于無(wú)人集群對(duì)抗態(tài)勢(shì)要素識(shí)別的Transformer-Decoder注意力層模型,能夠有效處理復(fù)雜的無(wú)人集群態(tài)勢(shì)信息。還針對(duì)Transformer網(wǎng)絡(luò)結(jié)構(gòu)中對(duì)信息利用不充分的問(wèn)題設(shè)計(jì)了層間注意力結(jié)構(gòu),進(jìn)一步改進(jìn)Transformer-Decoder注意力層模型并提升模型的特征表達(dá)能力,進(jìn)一步提高無(wú)人集群態(tài)勢(shì)要素識(shí)別準(zhǔn)確率。
首先,利用LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)將集群態(tài)勢(shì)序列信息中各單位的時(shí)序態(tài)勢(shì)信息分別編碼為各單位的態(tài)勢(shì)時(shí)序特征,壓縮無(wú)人集群態(tài)勢(shì)信息中的時(shí)間維度信息,實(shí)現(xiàn)對(duì)復(fù)雜無(wú)人集群態(tài)勢(shì)信息的有效精簡(jiǎn);其次,為能有效挖掘和處理集群中多單位態(tài)勢(shì)信息之間的內(nèi)在關(guān)聯(lián)關(guān)系,基于Transformer中的decoder模塊設(shè)計(jì)Transformer-Decoder注意力模塊,并設(shè)計(jì)層間注意力結(jié)構(gòu)以改進(jìn)增強(qiáng)Transformer-Decoder注意力模塊的特征表達(dá)能力,使用改進(jìn)后的Transformer-Decoder注意力模塊對(duì)集群的時(shí)序特征信息進(jìn)行處理,有效提取綜合高階態(tài)勢(shì)信息;然后將綜合高階態(tài)勢(shì)信息輸入到多分類(lèi)網(wǎng)絡(luò)中,結(jié)合softmax層實(shí)現(xiàn)對(duì)于多類(lèi)態(tài)勢(shì)要素的同時(shí)分類(lèi),實(shí)現(xiàn)無(wú)人集群對(duì)抗態(tài)勢(shì)要素識(shí)別。
利用層間注意力和Transformer的集群態(tài)勢(shì)要素識(shí)別方法主要包括:時(shí)序特征提取層、Transformer-Decoder注意力層、層間注意力層、多分類(lèi)連接層、輸出層。如圖6所示為本文提出方法的模型框架圖。
圖6 集群態(tài)勢(shì)要素識(shí)別模型框架
原始態(tài)勢(shì)序列信息中包含多時(shí)刻多單位的多維態(tài)勢(shì)信息,態(tài)勢(shì)信息結(jié)構(gòu)復(fù)雜,神經(jīng)網(wǎng)絡(luò)模塊無(wú)法直接有效地處理多時(shí)刻多單位態(tài)勢(shì)信息,為能夠有效表征集群中多單位之間的態(tài)勢(shì)信息內(nèi)在關(guān)系,需要對(duì)原始態(tài)勢(shì)信息進(jìn)行時(shí)序維度上的預(yù)處理。
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent neural network,RNN)將循環(huán)結(jié)構(gòu)引入神經(jīng)網(wǎng)絡(luò)中,使得RNN可以處理時(shí)序相關(guān)的數(shù)據(jù),但對(duì)于距離較遠(yuǎn)的循環(huán)節(jié)點(diǎn),RNN會(huì)出現(xiàn)梯度消失和梯度爆炸的問(wèn)題。為解決此類(lèi)問(wèn)題,長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)LSTM被提出[14],其利用特殊的門(mén)機(jī)制在一定程度上緩解了梯度消失和梯度爆炸的問(wèn)題。
本文使用LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)模塊對(duì)原始態(tài)勢(shì)序列信息的時(shí)間維度進(jìn)行降維處理并提取時(shí)序態(tài)勢(shì)向量表達(dá),將集群中各單元的態(tài)勢(shì)信息并行輸入LSTM時(shí)序特征提取層進(jìn)行計(jì)算。其中,處理不同單元的信息所使用的模塊是網(wǎng)絡(luò)結(jié)構(gòu)完全相同的多個(gè)LSTM網(wǎng)絡(luò)模塊,這些模塊共享參數(shù)。這種并行結(jié)構(gòu)使得LSTM時(shí)序特征提取層可以學(xué)習(xí)同時(shí)適用于不同單位的時(shí)序特征映射空間,并隨著集群規(guī)模的增加,具備能夠加速學(xué)習(xí)的優(yōu)點(diǎn)。
LSTM結(jié)構(gòu)的核心在于細(xì)胞狀態(tài),其類(lèi)似于一個(gè)信息傳送帶,能夠在水平方向上傳遞信息,傳送帶上的信息分別經(jīng)過(guò)LSTM的輸入門(mén)、遺忘門(mén)和輸出門(mén),通過(guò)記憶或遺忘的方式選擇性地進(jìn)行處理,如圖7所示。
遺忘門(mén)決定對(duì)細(xì)胞狀態(tài)的遺忘選擇,遺忘門(mén)公式為
ft=σ(Wf[ht-1,xt]+bf)
(1)
式中:ft為遺忘門(mén),σ為sigmoid函數(shù),ht-1為前一個(gè)細(xì)胞的輸出值,xt為當(dāng)前細(xì)胞的輸入值。
圖7 LSTM神經(jīng)網(wǎng)絡(luò)模型
輸入門(mén)決定細(xì)胞狀態(tài)的輸入選擇以及對(duì)輸入信息進(jìn)行處理,輸入門(mén)公式為:
it=σ(Wi[ht-1,xt]+bi)
(2)
(3)
式中tanh為雙曲正切激活函數(shù)。
把遺忘門(mén)和輸入門(mén)得到的信息相結(jié)合,可以得到新的細(xì)胞狀態(tài)為
(4)
輸出門(mén)決定細(xì)胞狀態(tài)的輸出選擇以及對(duì)輸出信息進(jìn)行處理,輸出門(mén)公式為:
Ot=σ(WO[ht-1,xt]+bO)
(5)
ht=Ot·tanh(Ct)
(6)
式中ht即為當(dāng)前細(xì)胞的輸出值。
在集群態(tài)勢(shì)識(shí)別問(wèn)題中,目標(biāo)數(shù)量的增加導(dǎo)致了態(tài)勢(shì)信息規(guī)模的顯著增加,這使得集群態(tài)勢(shì)信息的處理難度急劇上升。在復(fù)雜多變的集群態(tài)勢(shì)信息中,每個(gè)單位的態(tài)勢(shì)信息應(yīng)與其他單位相關(guān),但依據(jù)各單位間的關(guān)聯(lián)程度的不同,態(tài)勢(shì)信息的相關(guān)程度也有所不同;所以觀測(cè)主體在評(píng)估集群態(tài)勢(shì)時(shí),應(yīng)當(dāng)適當(dāng)舍棄相對(duì)而言不重要的集群?jiǎn)挝坏膽B(tài)勢(shì)信息,更關(guān)注于有利于態(tài)勢(shì)評(píng)估的集群?jiǎn)挝?。因此,有效篩選和整合集群中各單元的態(tài)勢(shì)信息是一個(gè)至關(guān)重要的問(wèn)題。
注意力(Attention)機(jī)制[15]近幾年被廣泛使用在圖像處理、語(yǔ)音識(shí)別、自然語(yǔ)言處理等各個(gè)領(lǐng)域中,注意力機(jī)制模擬了人對(duì)于事物投入注意力的特點(diǎn),對(duì)不同的處理區(qū)域分配不同的權(quán)重,能夠?qū)τ谥匾獌?nèi)容投入更多的注意力,對(duì)次要或無(wú)關(guān)的內(nèi)容減少關(guān)注,這樣差異化的分配能夠有效提高了信息提取的效率。
基于注意力機(jī)制,Google于2017年提出了Transformer模型[16],使用注意力機(jī)制構(gòu)造出編碼器-解碼器(Encoder-Decoder)框架。由于具有強(qiáng)大的信息壓縮能力和相關(guān)特征捕獲能力,在機(jī)器翻譯、預(yù)訓(xùn)練語(yǔ)言模型、文本摘要等語(yǔ)言理解任務(wù)中表現(xiàn)出色。
Transformer模型的特性適用于對(duì)復(fù)雜信息進(jìn)行篩選和整合,其主要思想是通過(guò)注意力機(jī)制提取語(yǔ)句中各單詞之間的關(guān)聯(lián)關(guān)系,通過(guò)篩選和融合相關(guān)單詞的語(yǔ)義信息,實(shí)現(xiàn)更準(zhǔn)確可靠的語(yǔ)句層次語(yǔ)義理解。但Transformer模型的框架基于自然語(yǔ)言處理模型,需要編碼部分和解碼部分兩個(gè)部分的輸入,并且適用于有順序關(guān)系的單元信息處理,整體網(wǎng)絡(luò)框架與集群態(tài)勢(shì)感知問(wèn)題并不適配。因此,本文在深入理解與分析Transformer模型的基礎(chǔ)上,改進(jìn)并設(shè)計(jì)一種可應(yīng)用于集群態(tài)勢(shì)識(shí)別問(wèn)題的類(lèi)Transformer模型,使其可接受單部分輸入和無(wú)順序關(guān)系的單元信息輸入,可以通過(guò)注意力機(jī)制提取集群中各單元之間的關(guān)聯(lián)關(guān)系,篩選和融合相關(guān)單元的態(tài)勢(shì)信息,實(shí)現(xiàn)更準(zhǔn)確有效的集群態(tài)勢(shì)感知。
為解決集群?jiǎn)卧獞B(tài)勢(shì)信息的篩選和整合問(wèn)題,本文基于Transformer模型提出Transformer-Decoder注意力層模型。Transformer-Decoder注意力層模型能夠動(dòng)態(tài)地關(guān)注有助于集群態(tài)勢(shì)感知的部分集群?jiǎn)卧獞B(tài)勢(shì)信息,能夠從復(fù)雜的集群態(tài)勢(shì)信息中選擇出對(duì)于態(tài)勢(shì)感知更加關(guān)鍵的信息,Transformer-Decoder注意力層的結(jié)構(gòu)基于注意力模型,并在其基礎(chǔ)上進(jìn)一步實(shí)現(xiàn)了注意力模型的深度堆疊和并行計(jì)算,使得模型能夠表達(dá)更高階的注意力關(guān)系,并提升了計(jì)算速度。
Transformer由編碼器和解碼器組成,其中解碼器主要包含兩種子層,分別是基于注意力機(jī)制的多頭注意力層和前饋網(wǎng)絡(luò)層,其中每個(gè)子層都還加入了殘差網(wǎng)絡(luò)和歸一化層。基于這種思想,本文的Transformer-Decoder注意力層由多個(gè)注意力單元堆疊而成,如圖8所示,其中每個(gè)注意力單元都由一個(gè)多頭注意力層、一個(gè)歸一化層和殘差連接組成,結(jié)構(gòu)如圖9所示。多頭注意力層中的多頭注意力模型是由h個(gè)縮放點(diǎn)積注意力(Scaled dot-product attention)單元組成。
縮放點(diǎn)積注意力的計(jì)算公式為
(7)
多頭注意力結(jié)構(gòu)即對(duì)矩陣Q、K和V使用不同的線(xiàn)性變換,轉(zhuǎn)換為不同的矩陣,使用h個(gè)縮放點(diǎn)積單元進(jìn)行計(jì)算,然后將h個(gè)縮放點(diǎn)積單元的計(jì)算結(jié)果拼接起來(lái),最后通過(guò)一個(gè)線(xiàn)性映射輸出,如圖11所示。這樣的好處是使得模型具備了在不同的表示子空間里學(xué)習(xí)特征信息的能力。
圖8 Transformer-Decoder注意力層結(jié)構(gòu)
圖9 注意力單元結(jié)構(gòu)
圖10 縮放點(diǎn)積注意力結(jié)構(gòu)
圖11 多頭注意力結(jié)構(gòu)
多頭注意力的計(jì)算公式為:
(8)
MultiHead(Q,K,V)=Concat(H1,…,Hh)W0
(9)
輸入值X經(jīng)過(guò)多頭注意力計(jì)算后得到輸出值M,增加殘差連接和歸一化層,表達(dá)式為
L=layernorm(M+X)
(10)
在原Transformer結(jié)構(gòu)中,多頭注意力層和前饋層組成一個(gè)解碼單元,多個(gè)解碼單元堆疊形成解碼器,對(duì)于每個(gè)解碼單元中的多頭注意力層,其輸入值中的key和value都是不變的,只有query值在堆疊中會(huì)發(fā)生改變,相當(dāng)于在每一個(gè)多頭注意力層中,注意力客體是相同的,只是不同的注意力主體對(duì)其進(jìn)行注意力感知,因此每個(gè)多頭注意力層的輸出具有一定的并行特性。而原Transformer結(jié)構(gòu)只使用了最后一層輸出,雖然其通過(guò)殘差結(jié)構(gòu)把每一層的輸出累加到了下一層,但不斷的累加也會(huì)弱化每一層學(xué)習(xí)到的有效表達(dá),降低網(wǎng)絡(luò)的整體性能。因此,本文考慮提取各多頭注意力層的輸出,以多層綜合注意力輸出代替最后一層解碼單元的輸出,更合理地利用每一層學(xué)習(xí)到的有效表達(dá)。
本文提出層間注意力機(jī)制改進(jìn)Transformer-Decoder注意力層結(jié)構(gòu),有效利用各注意力子層的輸出,如圖12所示??紤]到如果只是單純拼接各層的輸出值,會(huì)隨層數(shù)增多而增加網(wǎng)絡(luò)計(jì)算負(fù)擔(dān),并且會(huì)降低網(wǎng)絡(luò)的通用性,因此本文把各層注意力單元的輸出值進(jìn)行堆疊并使用多頭注意力層進(jìn)行處理,依據(jù)當(dāng)前態(tài)勢(shì)有選擇性地關(guān)注于更重要的輸出值,以獲得集群的綜合高階態(tài)勢(shì)信息。
圖12 改進(jìn)的Transformer解碼層結(jié)構(gòu)
結(jié)合Transformer-Decoder注意力層的結(jié)構(gòu),式(10)可以重寫(xiě)為
Li=layernorm(MultiHead(Qi,K,V)+Qi)
(11)
式中:K=V為全部單位時(shí)序態(tài)勢(shì)信息,Li為第i層Transformer單元提取到的高階態(tài)勢(shì)信息,也是下一層注意力計(jì)算的Q輸入。
原Transformer-Decoder注意力層結(jié)構(gòu)只將最后一層信息Ln傳遞給了后續(xù)網(wǎng)絡(luò),沒(méi)有充分利用多層結(jié)構(gòu)中每層輸出的有效信息,層間注意力機(jī)制綜合考慮每一層高階態(tài)勢(shì)信息,以注意力機(jī)制分配權(quán)重,融合多層信息得到更有效的綜合高階態(tài)勢(shì)信息,層間注意力計(jì)算方法如下:
KL=VL=[L1,L2,…,Ln]
(12)
LL=Attention(QL,KL,VL)
(13)
式中:KL=VL為各層Transformer單元提取到的高階態(tài)勢(shì)信息的集合,QL為計(jì)算注意力權(quán)重時(shí)參考的向量,在本文中取值為我方主體信息,LL即為提取到的綜合高階態(tài)勢(shì)信息。
對(duì)于集群態(tài)勢(shì)識(shí)別中集群陣型和運(yùn)動(dòng)趨勢(shì)等態(tài)勢(shì)要素的識(shí)別,需要解決如何同時(shí)對(duì)多種態(tài)勢(shì)要素進(jìn)行識(shí)別分類(lèi)的問(wèn)題,現(xiàn)有的態(tài)勢(shì)識(shí)別方法通常都只針對(duì)一個(gè)分類(lèi)組進(jìn)行分類(lèi),對(duì)于多個(gè)分類(lèi)組分類(lèi)的方法較少。一個(gè)可能的解決方法是使用多個(gè)單獨(dú)的神經(jīng)網(wǎng)絡(luò)分別去學(xué)習(xí)多種態(tài)勢(shì)要素的分類(lèi),但這種方法會(huì)顯著增加計(jì)算資源消耗,并且在面對(duì)不同態(tài)勢(shì)要素的分類(lèi)問(wèn)題時(shí),相應(yīng)的神經(jīng)網(wǎng)絡(luò)模型在處理時(shí)序信息和多單位相關(guān)關(guān)系等部分所實(shí)現(xiàn)的功能是類(lèi)似的,使用多個(gè)單獨(dú)的神經(jīng)網(wǎng)絡(luò)將增加重復(fù)無(wú)用的計(jì)算量。
為解決多類(lèi)態(tài)勢(shì)要素的分類(lèi)問(wèn)題,本文使用多維度分類(lèi)網(wǎng)絡(luò)和softmax層實(shí)現(xiàn)多維度態(tài)勢(shì)分類(lèi)及輸出。如圖13所示,多維度分類(lèi)網(wǎng)絡(luò)由一個(gè)總?cè)B接網(wǎng)絡(luò)和多個(gè)子全連接網(wǎng)絡(luò)組成。總?cè)B接網(wǎng)絡(luò)偏重于對(duì)于綜合高階態(tài)勢(shì)信息的整體處理,子全連接網(wǎng)絡(luò)偏重于對(duì)于各類(lèi)態(tài)勢(shì)要素的分類(lèi)概率計(jì)算。并行的子全連接網(wǎng)絡(luò)均可以對(duì)總?cè)B接網(wǎng)絡(luò)的網(wǎng)絡(luò)參數(shù)進(jìn)行反向傳播??梢允沟酶黝?lèi)態(tài)勢(shì)要素的分類(lèi)概率計(jì)算在一定程度上解耦,但又保持相關(guān)性,并且在模型的學(xué)習(xí)能力和訓(xùn)練難度之間尋得平衡。
圖13 多維度分類(lèi)網(wǎng)絡(luò)及softmax層
為驗(yàn)證模型的有效性,構(gòu)建適用于多態(tài)勢(shì)要素分類(lèi)的水面無(wú)人艇場(chǎng)景,場(chǎng)景樣本以無(wú)人艇集群在一段時(shí)間內(nèi)的運(yùn)動(dòng)軌跡變化作為網(wǎng)絡(luò)輸入,以集群陣型、距離變化、角度變化、聚攏程度變化等共4類(lèi)態(tài)勢(shì)要素分類(lèi)作為樣本標(biāo)簽。依據(jù)不同的態(tài)勢(shì)要素分類(lèi)的任意組合,無(wú)人艇集群都有著不同的相對(duì)位置關(guān)系和運(yùn)動(dòng)軌跡。因此,模型需要實(shí)現(xiàn)從多序列態(tài)勢(shì)信息到多態(tài)勢(shì)要素分類(lèi)結(jié)果的映射。各類(lèi)態(tài)勢(shì)要素的分類(lèi)見(jiàn)表1。
表1 水面無(wú)人艇場(chǎng)景態(tài)勢(shì)要素
使用python對(duì)數(shù)據(jù)進(jìn)行仿真,共生成1 000萬(wàn)組樣本數(shù)據(jù),其中陣型的5種分類(lèi)在樣本數(shù)據(jù)中各占20%,距離變化、角度變化、聚攏程度變化的3種分類(lèi)在樣本數(shù)據(jù)中都各占33%左右。
如圖14所示為一個(gè)場(chǎng)景示例樣本的可視化,其中,五角星為我方觀測(cè)主體,多條軌跡線(xiàn)分別為無(wú)人艇集群中多個(gè)單位的運(yùn)動(dòng)軌跡,實(shí)心圓點(diǎn)為軌跡初始位置,空心正方形為后續(xù)時(shí)刻位置。在該實(shí)例樣本中,目標(biāo)集群的多個(gè)單位在多個(gè)時(shí)刻下的位置狀態(tài)即為樣本數(shù)據(jù),作為網(wǎng)絡(luò)的輸入;樣本的標(biāo)簽則分別為(陣型)大雁型、(距離變化)靠近、(角度變化)逆時(shí)針、(聚攏程度變化)分散。
圖14 示例場(chǎng)景樣本可視化
使用python對(duì)實(shí)驗(yàn)數(shù)據(jù)集進(jìn)行仿真,通過(guò)pytorch搭建網(wǎng)絡(luò)模型,使用交叉熵作為損失函數(shù),計(jì)算4類(lèi)態(tài)勢(shì)要素的分類(lèi)總誤差,對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,訓(xùn)練參數(shù)和網(wǎng)絡(luò)參數(shù)設(shè)置見(jiàn)表2。仿真實(shí)驗(yàn)環(huán)境為Windows 10操作系統(tǒng)、Intel i7-8700處理器和NVIDIA RTX 1060顯卡。
表2 參數(shù)設(shè)置
本文通過(guò)與基線(xiàn)方法的識(shí)別準(zhǔn)確率比較,評(píng)估IAT模型的有效性?;€(xiàn)方法包括:1) IAT w/o Transformer模型,用全連接網(wǎng)絡(luò)替換本文方法中的Transformer-Decoder注意力層模塊(包含層間注意力結(jié)構(gòu)),用于對(duì)比驗(yàn)證Transformer-Decoder注意力層結(jié)構(gòu)的性能;2) IAT w/o inter-layer attention模型,用于對(duì)比驗(yàn)證層間注意力結(jié)構(gòu)的性能。
基線(xiàn)方法1(IAT w/o Transformer模型)是常見(jiàn)的全連接深度網(wǎng)絡(luò),其與本文方法的區(qū)別在于本文提出的可應(yīng)用于集群態(tài)勢(shì)識(shí)別問(wèn)題的類(lèi)Transformer模型,其仿真性能對(duì)比可以體現(xiàn)Transformer-Decoder注意力層模塊的實(shí)際效果;基線(xiàn)方法2(IAT w/o inter-layer attention模型)與本文方法的區(qū)別在于是否應(yīng)用了本文提出的層間注意力機(jī)制,其仿真性能對(duì)比可以體現(xiàn)層間注意力機(jī)制的實(shí)際效果。
實(shí)驗(yàn)相關(guān)結(jié)果如圖15、16及表3所示。圖15展示了本文提出的IAT模型對(duì)于各態(tài)勢(shì)要素的分類(lèi)準(zhǔn)確率以及整體的平均準(zhǔn)確率。圖16展示了不同模型對(duì)于態(tài)勢(shì)要素整體的平均分類(lèi)準(zhǔn)確率的對(duì)比。表3列出了不同模型在各態(tài)勢(shì)要素下的分類(lèi)準(zhǔn)確率。
圖15 IAT模型分類(lèi)準(zhǔn)確率迭代曲線(xiàn)
圖16 不同模型的分類(lèi)平均準(zhǔn)確率曲線(xiàn)
表3 不同模型在各態(tài)勢(shì)要素下的分類(lèi)準(zhǔn)確率對(duì)比
結(jié)合上述實(shí)驗(yàn)結(jié)果進(jìn)行分析:
1)IAT模型能夠很好地實(shí)現(xiàn)多類(lèi)態(tài)勢(shì)要素分類(lèi),在迭代訓(xùn)練過(guò)程中各態(tài)勢(shì)要素分類(lèi)準(zhǔn)確率穩(wěn)定上升并收斂,在經(jīng)過(guò)10 000次迭代后,各態(tài)勢(shì)要素分類(lèi)準(zhǔn)確率都達(dá)到98.0%以上,平均分類(lèi)準(zhǔn)確率達(dá)到99.2%,驗(yàn)證了IAT模型的有效性。
2)相比于不包含層間注意力結(jié)構(gòu)的IAT模型,包含層間注意力結(jié)構(gòu)的IAT模型的平均分類(lèi)準(zhǔn)確率上升得更快并收斂于更高的準(zhǔn)確率99.2%,比不包含層間注意力結(jié)構(gòu)的模型的最終準(zhǔn)確率95.8%提升了3.4%,驗(yàn)證了層間注意力結(jié)構(gòu)的有效性。
3)相比于IAT模型的平均準(zhǔn)確率99.2%,不包含Transformer注意力結(jié)構(gòu)的IAT模型的平均準(zhǔn)確率只達(dá)到了81.5%,相差了17.7%,性能明顯較差。這證明了Transformer注意力結(jié)構(gòu)對(duì)于集群態(tài)勢(shì)感知問(wèn)題有著更好的適用性,能夠更加高效地表達(dá)和處理集群態(tài)勢(shì)信息,以實(shí)現(xiàn)集群態(tài)勢(shì)感知。
4)可以看出,在距離變化和角度變化兩類(lèi)態(tài)勢(shì)要素上,IAT模型相比于基線(xiàn)方法沒(méi)有明顯的優(yōu)勢(shì),但在陣型和聚攏變化兩類(lèi)態(tài)勢(shì)要素上,IAT模型的性能明顯較強(qiáng),分類(lèi)準(zhǔn)確率分別大幅提升27.0%和44.0%。距離變化和角度變化這兩類(lèi)態(tài)勢(shì)主要表征了集群整體的絕對(duì)運(yùn)動(dòng)態(tài)勢(shì),而陣型和聚攏變化這兩類(lèi)態(tài)勢(shì)主要表征了集群內(nèi)部的相對(duì)位置和相對(duì)運(yùn)動(dòng)態(tài)勢(shì),因此可以看出,IAT模型在對(duì)集群內(nèi)部相對(duì)態(tài)勢(shì)的感知問(wèn)題上有著明顯的優(yōu)越性,能夠有效應(yīng)用于需要對(duì)集群內(nèi)部相對(duì)態(tài)勢(shì)進(jìn)行感知的問(wèn)題,并能表現(xiàn)出優(yōu)異的性能。
1)設(shè)計(jì)了一種利用Transformer的無(wú)人集群對(duì)抗態(tài)勢(shì)要素識(shí)別方法,實(shí)現(xiàn)了良好的集群態(tài)勢(shì)要素識(shí)別能力。
2)設(shè)計(jì)了層間注意力結(jié)構(gòu)以改進(jìn)Transformer結(jié)構(gòu)在無(wú)人集群對(duì)抗態(tài)勢(shì)要素識(shí)別問(wèn)題上的性能,進(jìn)一步提高識(shí)別準(zhǔn)確率。
3)利用Transformer和層間注意力的模型在針對(duì)集群內(nèi)部相對(duì)趨勢(shì)的態(tài)勢(shì)要素的分類(lèi)問(wèn)題上,表現(xiàn)出了更為突出的性能。
4)考慮在集群態(tài)勢(shì)感知問(wèn)題的基礎(chǔ)上,加強(qiáng)對(duì)機(jī)器學(xué)習(xí)方法的深入分析,進(jìn)一步探究機(jī)器學(xué)習(xí)方法在無(wú)人集群對(duì)抗問(wèn)題中的魯棒性和可解釋性。