鄭書奎 吳琳 賀筱媛
現(xiàn)代戰(zhàn)爭(zhēng)的時(shí)空特性發(fā)生重大變化,多維戰(zhàn)場(chǎng)空間融為一體,戰(zhàn)略、戰(zhàn)役、戰(zhàn)術(shù)行動(dòng)界限趨于模糊,時(shí)間要素不斷升值,戰(zhàn)爭(zhēng)進(jìn)入發(fā)現(xiàn)即摧毀的“秒殺”時(shí)代.模擬現(xiàn)代戰(zhàn)爭(zhēng)的大型計(jì)算機(jī)兵棋演習(xí)呈現(xiàn)出復(fù)雜性、時(shí)變性、快速性等特點(diǎn),這給指揮員帶來極大的認(rèn)知困難,嚴(yán)重時(shí)會(huì)產(chǎn)生戰(zhàn)爭(zhēng)炫目[1],單純依靠人來分析理解戰(zhàn)場(chǎng)態(tài)勢(shì)已難以跟上戰(zhàn)爭(zhēng)節(jié)奏.戰(zhàn)場(chǎng)態(tài)勢(shì)是指揮員指揮作戰(zhàn)、定下決心的主要依據(jù),分析清楚、理解透徹戰(zhàn)場(chǎng)態(tài)勢(shì)是實(shí)施各類作戰(zhàn)行動(dòng)的主要前提。因此,亟需探索一種新的方法快速準(zhǔn)確地實(shí)現(xiàn)兵棋演習(xí)戰(zhàn)場(chǎng)態(tài)勢(shì)的分析理解.機(jī)器學(xué)習(xí)有望成為解決這一問題的新方向,運(yùn)用機(jī)器學(xué)習(xí)方法對(duì)兵棋演習(xí)數(shù)據(jù)進(jìn)行智能化分析處理,迅速、自主、高效地理清戰(zhàn)場(chǎng)形勢(shì),可提升對(duì)兵棋演習(xí)戰(zhàn)場(chǎng)態(tài)勢(shì)的感知、分析和理解能力.為此,美軍先后啟動(dòng)了DEFT、PPAML等多項(xiàng)研究計(jì)劃,投入大量的人力和物力研究機(jī)器學(xué)習(xí)分析方法.而數(shù)據(jù)特征是機(jī)器學(xué)習(xí)分析處理的原材料,機(jī)器學(xué)習(xí)算法的效能直接受輸入數(shù)據(jù)特征的質(zhì)量影響,有效提取兵棋演習(xí)數(shù)據(jù)的特征成為運(yùn)用機(jī)器學(xué)習(xí)方法分析戰(zhàn)場(chǎng)態(tài)勢(shì)面臨的首要問題.因兵棋演習(xí)數(shù)據(jù)具有體量巨大、種類繁多、格式各異、結(jié)構(gòu)復(fù)雜、維度極高、時(shí)刻變化等特點(diǎn),傳統(tǒng)特征提取方法難以發(fā)揮理想效果.近年來飛速發(fā)展的深度學(xué)習(xí)方法提供了新的思路,該方法在無監(jiān)督的情況下,通過多層神經(jīng)網(wǎng)絡(luò)的層層學(xué)習(xí),在保持信息不丟失的情況下,可以自主抽取隱含在戰(zhàn)場(chǎng)態(tài)勢(shì)信息中的顯著特征,并在新的特征空間實(shí)現(xiàn)對(duì)大數(shù)據(jù)的緊致表達(dá),從而可以達(dá)到數(shù)據(jù)特征提取的目的,在面對(duì)戰(zhàn)爭(zhēng)偶然性、不確定性、時(shí)變性等復(fù)雜問題方面具有巨大的優(yōu)勢(shì)和潛力.
深度學(xué)習(xí)研究起源于人工神經(jīng)網(wǎng)絡(luò),是人工智能研究的一個(gè)新方向,屬于機(jī)器學(xué)習(xí)中的特征學(xué)習(xí)領(lǐng)域.它通過組合多層簡(jiǎn)單非線性模塊實(shí)現(xiàn)輸入與輸出的復(fù)雜非線性關(guān)系表達(dá)、原始輸入到高層特征的逐層抽取,以及高維稀疏空間到低維特征空間的特征映射.
人工神經(jīng)網(wǎng)絡(luò)是由簡(jiǎn)單處理單元組合而成的大規(guī)模并行分布式處理器,基本處理單位是神經(jīng)元,包括突觸權(quán)值、偏置、加法器和激活函數(shù)4個(gè)基本元素,神經(jīng)元結(jié)構(gòu)參見圖1.
圖1 神經(jīng)元模型
當(dāng)信號(hào)輸入到神經(jīng)元的第k個(gè)突觸上時(shí),輸入數(shù)據(jù)xk被乘以突出權(quán)值ωk,然后被輸入到加法器中,對(duì)輸入數(shù)據(jù)的加權(quán)值進(jìn)行求和,再加上外部偏置b得到數(shù)據(jù)Pxkωk+b.為了限制輸出振幅和實(shí)現(xiàn)非線性功能,最后要將數(shù)據(jù)代入激活函數(shù)f(x),得到輸出值:
將單一神經(jīng)元組合成網(wǎng)絡(luò)就形成了人工神經(jīng)網(wǎng)絡(luò),典型的網(wǎng)絡(luò)結(jié)構(gòu)見圖2.
圖2 一種典型的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
設(shè)第l層的第k個(gè)神經(jīng)元的輸出為則
其中,J為訓(xùn)練目標(biāo),L為損失函數(shù).常用的損失函數(shù)均方誤差(Mean squared error,MSE)和交叉熵(Cross-Entropy,CE).
從而,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練轉(zhuǎn)化為一個(gè)求極值的問題.通過計(jì)算可得出參數(shù)更新矩陣,從而得出網(wǎng)絡(luò)參數(shù)ω和b.
深度學(xué)習(xí)結(jié)構(gòu)是深度神經(jīng)網(wǎng)絡(luò),它由多層非線性網(wǎng)絡(luò)堆棧而成的深度神經(jīng)網(wǎng)絡(luò),包括一個(gè)輸入層、一個(gè)輸出層和至少一個(gè)隱含層,高層輸入來自于低層輸出,構(gòu)建成輸入到輸出的函數(shù)形式,節(jié)點(diǎn)間的權(quán)重參數(shù)相當(dāng)于表征函數(shù)關(guān)系的系數(shù),圖3所示為典型的深度神經(jīng)網(wǎng)絡(luò).
圖3 典型的深度學(xué)習(xí)模型
由于梯度不穩(wěn)定、難以擺脫標(biāo)簽數(shù)據(jù)以及容易陷入局部極值的原因,導(dǎo)致深度神經(jīng)網(wǎng)絡(luò)難以訓(xùn)練[2].直到Hinton、Bengio等人的不斷探索研究,提出了先進(jìn)行逐層貪婪無監(jiān)督預(yù)訓(xùn)練,再進(jìn)行有監(jiān)督調(diào)優(yōu)訓(xùn)練的方法,才大幅提高了深度學(xué)習(xí)模型的訓(xùn)練效果,使深度學(xué)習(xí)的應(yīng)用取得成功[3?7].
深度學(xué)習(xí)通過多層提取和多次迭代后,能夠得到更好特佂值,對(duì)于復(fù)雜結(jié)構(gòu)、極高維度、強(qiáng)相關(guān)性的數(shù)據(jù)具有更強(qiáng)的表達(dá)能力,具有自主性、非線性、客觀性特性,對(duì)噪聲和冗余信息有很好的魯棒性,無監(jiān)督學(xué)習(xí)方式擺脫了數(shù)據(jù)標(biāo)簽化要求,自學(xué)習(xí)、自適應(yīng)、泛化能力更強(qiáng),具有良好的可擴(kuò)展性和規(guī)范性.
深度學(xué)習(xí)是理論上的“黑箱”,難以通過數(shù)學(xué)方法計(jì)算參數(shù)、描述原理,也沒有完全固定的程序和方法構(gòu)建深度神經(jīng)網(wǎng)絡(luò)、設(shè)計(jì)訓(xùn)練算法,尤其是兵棋演習(xí)數(shù)據(jù)和提取要求具有特殊性,模型設(shè)計(jì)需要在具體實(shí)驗(yàn)中不斷探索和完善.
深度神經(jīng)網(wǎng)絡(luò)有多種結(jié)構(gòu),每種結(jié)構(gòu)都有不同的特點(diǎn)和功能,適用于不同的需求和應(yīng)用.自編碼器能夠?qū)斎霐?shù)據(jù)進(jìn)行編碼和解碼,實(shí)現(xiàn)數(shù)據(jù)的壓縮和重構(gòu),通過最小化重構(gòu)誤差來最優(yōu)化壓縮性能,且不依賴于數(shù)據(jù)標(biāo)簽,在兵棋演習(xí)數(shù)據(jù)這類海量數(shù)據(jù)特征提取方面具有顯著優(yōu)勢(shì).在自編碼器的基礎(chǔ)上增加約束條件,可以實(shí)現(xiàn)擴(kuò)展功能.
2.1.1 自編碼器
自編碼器是一個(gè)具有三層神經(jīng)網(wǎng)絡(luò)的無監(jiān)督算法,能夠?qū)崿F(xiàn)編碼和解碼功能,網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示.
圖4 自編碼器網(wǎng)絡(luò)結(jié)構(gòu)
自編碼器的運(yùn)行過程是輸入數(shù)據(jù)先從輸入層到隱含層進(jìn)行編碼,再從隱含層到輸出層進(jìn)行解碼,如圖5所示.
圖5 自編碼器運(yùn)行過程
重構(gòu)數(shù)據(jù)可用特征數(shù)據(jù)線性表示:
其中,表示重構(gòu)數(shù)據(jù).
2.1.2 降噪自編碼器
2008年,Vincent提出了降噪自編碼器[8],通過加入按照一定概率分布的噪聲,對(duì)自編碼器的輸入數(shù)據(jù)造成一定程度的破壞,使輸入數(shù)據(jù)x按設(shè)定的破壞率映射變換為x0,用x0對(duì)自編碼器進(jìn)行不斷訓(xùn)練,使其能夠重構(gòu)還原出原始數(shù)據(jù)x,其網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示:
當(dāng)降噪自編碼將含噪數(shù)據(jù)x0重構(gòu)還原出原始數(shù)據(jù)x時(shí),就消除了部分或全部輸入噪聲,從而實(shí)現(xiàn)了降噪功能,改善了數(shù)據(jù)污染,減小了訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)的差別.在降噪過程中,自編碼器要學(xué)習(xí)到輸入數(shù)據(jù)更為魯棒的表達(dá),從而使學(xué)習(xí)到的特征魯棒性更強(qiáng),提高了自編碼器的泛化能力.
圖6 降噪自編碼器結(jié)構(gòu)
2.1.3 稀疏自編碼器
在神經(jīng)網(wǎng)絡(luò)中加入稀疏性限制,構(gòu)建的稀疏自編碼器同時(shí)擁有稀疏性限制產(chǎn)生的良好表達(dá)能力和神經(jīng)網(wǎng)絡(luò)具有的自主性、非線性、客觀性、良好魯棒性等特性,理論上具有更好的特征轉(zhuǎn)換能力,更適合于復(fù)雜數(shù)據(jù)的特征提取或特征提取,圖7所示為稀疏自編碼的一般結(jié)構(gòu).
圖7 稀疏自編碼器結(jié)構(gòu)圖
2.1.4 棧式自編碼網(wǎng)絡(luò)
為了使自編碼器擁有多層神經(jīng)網(wǎng)絡(luò)的優(yōu)良性能,要對(duì)若干個(gè)自編碼器進(jìn)行棧化堆疊,形成棧式自編碼網(wǎng)絡(luò),前一個(gè)自編碼器的輸出作為后一個(gè)自編碼器的輸入.棧式自編碼網(wǎng)絡(luò)結(jié)構(gòu)見圖8所示、運(yùn)行過程如圖9所示.
圖8 棧式自編碼深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
圖9 棧式自編碼網(wǎng)絡(luò)運(yùn)行過程
2.1.5 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)
本文選擇棧式稀疏降噪自編碼網(wǎng)絡(luò)作為兵棋演習(xí)數(shù)據(jù)特征提取的深度學(xué)習(xí)模型.一般而言,更多的網(wǎng)絡(luò)層數(shù)能夠得到更抽象的特征和更本質(zhì)的描述,如果網(wǎng)絡(luò)層數(shù)過多,會(huì)加大網(wǎng)絡(luò)訓(xùn)練和計(jì)算的難度,導(dǎo)致網(wǎng)絡(luò)的過擬合.導(dǎo)致網(wǎng)絡(luò)的過擬合.Vincent P、Larochelle H、Bengio Y、Lajoie I等多人的研究報(bào)告[8?9]指出,一般將隱含層設(shè)為三層可取得良好效果.網(wǎng)絡(luò)每層的節(jié)點(diǎn)數(shù)與數(shù)據(jù)的維度直接相關(guān),輸入層節(jié)點(diǎn)數(shù)應(yīng)與輸入數(shù)據(jù)維度相同,輸出層節(jié)點(diǎn)數(shù)代表了輸出數(shù)據(jù)的維度,隱含層每層的節(jié)點(diǎn)數(shù)要根據(jù)特征提取效果調(diào)整設(shè)定.第一層隱含層節(jié)點(diǎn)數(shù)大于輸入層節(jié)點(diǎn)數(shù)可獲得更好的特征提取效果,原因是當(dāng)隱含層神經(jīng)元個(gè)數(shù)大于輸入層神經(jīng)元個(gè)數(shù)時(shí),可實(shí)現(xiàn)特征檢測(cè)功能,能夠提取過完備特征.第二、三層隱含層節(jié)點(diǎn)數(shù)可按逐層遞減設(shè)置.輸出層節(jié)點(diǎn)數(shù)要通過計(jì)算原始數(shù)據(jù)集的本征維度確定,激活函數(shù)選擇常用的sigmoid函數(shù),具體層數(shù)和每層神經(jīng)元數(shù)將在實(shí)驗(yàn)中根據(jù)結(jié)果多次調(diào)試后最終確定.此時(shí),可基本確定網(wǎng)絡(luò)結(jié)果,如圖10所示.
在前人研究的基礎(chǔ)上,本文針對(duì)兵棋演習(xí)數(shù)據(jù)特征提取這一應(yīng)用背景對(duì)訓(xùn)練方法進(jìn)行了調(diào)整優(yōu)化,提高了模型的訓(xùn)練效率和性能.
2.2.1 預(yù)訓(xùn)練
預(yù)訓(xùn)練采取逐層貪婪無監(jiān)督方法,它每次只訓(xùn)練一層網(wǎng)絡(luò)而其他層參數(shù)保持不變;它不追求整體最優(yōu)結(jié)果,而選擇次優(yōu)結(jié)果;它使用無標(biāo)簽數(shù)據(jù)進(jìn)行無監(jiān)督訓(xùn)練;它只是預(yù)先訓(xùn)練,得出權(quán)重的初始值.
具體步驟:
1)輸入無標(biāo)簽原始數(shù)據(jù).
2)運(yùn)用逐層貪婪無監(jiān)督學(xué)習(xí)算法對(duì)網(wǎng)絡(luò)權(quán)值進(jìn)行初始化,流程參見圖11.
其中l(wèi)+1層編碼數(shù)據(jù)為:
解碼數(shù)據(jù)為:
優(yōu)化目標(biāo)函數(shù)為:
固定其他層參數(shù)不變,運(yùn)用隨機(jī)梯度下降算法對(duì)l+1層參數(shù)ωl+1、bl+1進(jìn)行調(diào)優(yōu).
權(quán)重系數(shù)為:
通過預(yù)訓(xùn)練,最后得出權(quán)重系數(shù)矩陣[W2,W3,···,WL?1]完成對(duì)網(wǎng)絡(luò)的預(yù)訓(xùn)練,再對(duì)WL進(jìn)行隨機(jī)初始化,實(shí)現(xiàn)整個(gè)網(wǎng)絡(luò)參數(shù)的初始化.
2.2.2 調(diào)優(yōu)訓(xùn)練
調(diào)優(yōu)訓(xùn)練是利用少量標(biāo)簽數(shù)據(jù)進(jìn)行有監(jiān)督訓(xùn)練,同時(shí)對(duì)整個(gè)網(wǎng)絡(luò)的訓(xùn)練誤差進(jìn)行優(yōu)化,目的是對(duì)整個(gè)網(wǎng)絡(luò)的權(quán)重進(jìn)行微調(diào),使網(wǎng)絡(luò)具有更精確的特征提取能力.
圖11 逐層貪婪無監(jiān)督預(yù)訓(xùn)練流程
具體步驟:
1)輸入標(biāo)簽化數(shù)據(jù)對(duì)(x(i),y(i)).
2)運(yùn)用隨機(jī)梯度下降算法對(duì)網(wǎng)絡(luò)權(quán)值進(jìn)行優(yōu)化,流程參見圖12.
圖12 隨機(jī)梯度下降運(yùn)算流程
其中迭代公式為:
其中每層輸出為:
輸出層誤差為:
誤差反向傳播時(shí)每層誤差為:
圖13 反向傳播運(yùn)算流程
結(jié)果檢驗(yàn)類似于選取準(zhǔn)則函數(shù),在選定準(zhǔn)則函數(shù)后,尋找最優(yōu)特征提取結(jié)果就變成了求泛函數(shù)極值問題,選取準(zhǔn)則函數(shù)是特征提取算法的關(guān)鍵.分類計(jì)算是最佳的準(zhǔn)則函數(shù),計(jì)算原始高維數(shù)據(jù)經(jīng)過特征提取后得到的低維數(shù)據(jù)的分類正確率,分類正確率的高低代表了特征提取方法的性能,本文選用Softmax分類器.網(wǎng)絡(luò)預(yù)訓(xùn)練結(jié)束后,將Softmax分類器與深度神經(jīng)網(wǎng)絡(luò)進(jìn)行級(jí)聯(lián),構(gòu)成全局網(wǎng)絡(luò)結(jié)構(gòu),使數(shù)據(jù)特征作為分類器的輸入,使用標(biāo)簽數(shù)據(jù)采用有監(jiān)督方式同時(shí)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)和分類器,使分類結(jié)果更為精確。訓(xùn)練完成后,輸入測(cè)試數(shù)據(jù),得到基于測(cè)試數(shù)據(jù)特征的分類正確率,正確率越高代表特征質(zhì)量越高,方法效果越好.
圖14 數(shù)據(jù)集處理和使用過程
表2 兩個(gè)輸入數(shù)據(jù)集描述
實(shí)驗(yàn)平臺(tái)計(jì)算機(jī)CPU為Inten Xeon E5-2687 W,內(nèi)存為64GB,硬盤2TB.算法采用python語言及開源程序包編寫程序的具體代碼.實(shí)驗(yàn)室搭建分布式機(jī)器學(xué)習(xí)平臺(tái),使用Mllib作為工程化的基礎(chǔ)庫,跑在Spark上,基于Spark有很多神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的庫,還支持Python client.
表3 模型參數(shù)
實(shí)驗(yàn)數(shù)據(jù)集來源于國防大學(xué)戰(zhàn)役兵棋演習(xí)系統(tǒng),是人在回路的作戰(zhàn)模擬數(shù)據(jù),是和平時(shí)期最貼近于現(xiàn)代戰(zhàn)爭(zhēng)的計(jì)算機(jī)推演數(shù)據(jù).首先對(duì)分類存儲(chǔ)于不同數(shù)據(jù)庫中的數(shù)據(jù)進(jìn)行集成,然后選取靜態(tài)和動(dòng)態(tài)兩類兵棋演習(xí)數(shù)據(jù),分別標(biāo)稱數(shù)據(jù)集一和數(shù)據(jù)集2,并針對(duì)性構(gòu)建兩個(gè)實(shí)驗(yàn)?zāi)P?應(yīng)用于數(shù)據(jù)集1的模型稱為模型1,應(yīng)用于數(shù)據(jù)集2的模型稱為模型2.輸入數(shù)據(jù)集具體情況見表2所示,數(shù)據(jù)集的處理和使用過程見圖14.
按照前文設(shè)計(jì)的方法,對(duì)預(yù)處理后的兵棋演習(xí)數(shù)據(jù)集行進(jìn)行特征提取,通過特征計(jì)算分類精度,檢驗(yàn)特征提取方法的性能.
3.2.1 參數(shù)設(shè)定
深度神經(jīng)網(wǎng)絡(luò)的參數(shù)設(shè)定有些靠計(jì)算得出,有些靠實(shí)驗(yàn)調(diào)試,有些靠經(jīng)驗(yàn)和操作上的藝術(shù).本文針對(duì)課題的特殊性,采取理論分析、數(shù)學(xué)計(jì)算、實(shí)驗(yàn)對(duì)比調(diào)試等方法設(shè)定參數(shù),科學(xué)地選取出最優(yōu)參數(shù)組合.權(quán)值、偏置、輸入維度等參數(shù)通過理論分析和數(shù)據(jù)計(jì)算得出,隱含層節(jié)點(diǎn)數(shù)、噪聲等級(jí)、稀疏限制參數(shù)在實(shí)驗(yàn)中根據(jù)結(jié)果優(yōu)化得出,具體參數(shù)見表3.
3.2.2 實(shí)驗(yàn)步驟
1)預(yù)訓(xùn)練
將無標(biāo)簽的兵棋演習(xí)訓(xùn)練數(shù)據(jù)集輸入到輸入層、隱含層1、重構(gòu)層1組成的第一個(gè)稀疏降噪自編碼器中,訓(xùn)練出隱含層1的權(quán)重參數(shù),并計(jì)算出隱含層1的輸出;將隱含層1的輸出作為隱含層1、隱含層2、重構(gòu)層2組成的第二個(gè)稀疏降噪自編碼器的輸入,訓(xùn)練出隱含層2的權(quán)重參數(shù),并計(jì)算出隱含層2的輸出;同樣方法計(jì)算出隱含層3、輸出層的權(quán)重參數(shù)和輸出數(shù)據(jù);將輸出層數(shù)據(jù)作為Softmax分類器的輸入,使用兵棋演習(xí)數(shù)據(jù)標(biāo)簽訓(xùn)練出分類器的參數(shù),如圖15所示.
2)網(wǎng)絡(luò)連接
預(yù)訓(xùn)練結(jié)束后,將輸入層、隱含層1、隱含層2、隱含層3、輸出層和分類器進(jìn)行連接,構(gòu)成一個(gè)棧式稀疏降噪自編碼網(wǎng)絡(luò)與Softmax分類器的級(jí)聯(lián)結(jié)構(gòu),如圖16所示.
3)微調(diào)訓(xùn)練
使用帶標(biāo)簽的兵棋演習(xí)訓(xùn)練數(shù)據(jù)集對(duì)級(jí)聯(lián)的Stacked Sparse Denoising AE-Softmax網(wǎng)絡(luò)進(jìn)行整體訓(xùn)練,計(jì)算整個(gè)網(wǎng)絡(luò)的損失函數(shù)和對(duì)每個(gè)參數(shù)的偏導(dǎo)函數(shù),用誤差反向傳播和隨機(jī)梯度下降法求出損失函數(shù)為最小值時(shí)的參數(shù),這些參數(shù)即為整個(gè)級(jí)聯(lián)網(wǎng)絡(luò)的最終參數(shù),如圖17所示.
圖15 預(yù)訓(xùn)練過程
圖16 網(wǎng)絡(luò)連接
4)網(wǎng)絡(luò)測(cè)試
將帶標(biāo)簽的兵棋演習(xí)數(shù)據(jù)集輸入到級(jí)聯(lián)網(wǎng)絡(luò)中,經(jīng)過層層特征提取,最后將輸出層的數(shù)據(jù)特征作為分類器的輸入進(jìn)行分類識(shí)別,并與數(shù)據(jù)標(biāo)簽進(jìn)行對(duì)比,計(jì)算得出分類誤差,即為網(wǎng)絡(luò)的測(cè)試結(jié)果,如圖18所示.
圖17 微調(diào)訓(xùn)練過程
圖18 網(wǎng)絡(luò)測(cè)試
為了比較驗(yàn)證深度學(xué)習(xí)方法處理兵棋演習(xí)數(shù)據(jù)特征提取問題的能力,將采取3類、8種不同方法進(jìn)行對(duì)比實(shí)驗(yàn),如圖19所示.
圖19 對(duì)比實(shí)驗(yàn)方法
表4 基于不同方法的特征分類誤差對(duì)比表
運(yùn)用3大類、9種方法分別對(duì)兩個(gè)兵棋演習(xí)數(shù)據(jù)集進(jìn)行特征提取實(shí)驗(yàn),為確保實(shí)驗(yàn)環(huán)境、條件、標(biāo)準(zhǔn)相同,所有實(shí)驗(yàn)均在同一平臺(tái)上進(jìn)行,選取相同的參數(shù),設(shè)置相同特征提取維度,都使用Softmax分類器進(jìn)行測(cè)試,分成相同的類別,重復(fù)相同的實(shí)驗(yàn)次數(shù),最終計(jì)算所有實(shí)驗(yàn)結(jié)果的平均值.對(duì)所有方法的測(cè)試精度和運(yùn)行時(shí)間兩個(gè)指標(biāo)進(jìn)行記錄,代表方法的特征提取精度和速度,作為衡量特征提取方法性能的主要參數(shù).實(shí)驗(yàn)使用2個(gè)數(shù)據(jù)集、運(yùn)用9種方法,共得到900組結(jié)果,取平均值后得出18組結(jié)果,結(jié)果見表4.
通過實(shí)驗(yàn)結(jié)果可得出,對(duì)于兵棋演習(xí)數(shù)據(jù)的特征提取,淺層神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)方法的性能相近,但淺層神經(jīng)網(wǎng)絡(luò)的速度更快;稀疏性限制條件和噪聲干擾對(duì)神經(jīng)網(wǎng)絡(luò)的魯棒性、分類精度提升有顯著作用,相比之下噪聲干擾的作用更大,同時(shí)加入稀疏性限制條件和噪聲干擾能夠取得更好效果;相比于淺層神經(jīng)網(wǎng)絡(luò),深層神經(jīng)網(wǎng)絡(luò)取得了更好的分類結(jié)果,加入稀疏性限制和噪聲干擾的深層神經(jīng)網(wǎng)絡(luò)分類精度得到大幅提升,接近于99%,也證明深度學(xué)習(xí)方法適用于兵棋演習(xí)數(shù)據(jù)特征提取.雖然深層網(wǎng)絡(luò)的運(yùn)算時(shí)間較淺層網(wǎng)絡(luò)和傳統(tǒng)方法明顯更長(zhǎng),但隨著計(jì)算機(jī)技術(shù)的發(fā)展,CPU、GPU性能的不斷提升,這一問題必將得到解決.
隨著現(xiàn)代戰(zhàn)爭(zhēng)的不斷發(fā)展,作戰(zhàn)樣式將呈現(xiàn)出快速化、多樣性、復(fù)雜化等特點(diǎn),依靠人工智能的方法來分析戰(zhàn)爭(zhēng)、理解戰(zhàn)爭(zhēng)、預(yù)測(cè)戰(zhàn)爭(zhēng)已成為大勢(shì)所趨,必將對(duì)未來戰(zhàn)爭(zhēng)的勝負(fù)發(fā)揮重要影響.由于機(jī)器學(xué)習(xí)需要好的數(shù)據(jù)特征才能真正發(fā)揮作用,因此,數(shù)據(jù)特征提取是運(yùn)用機(jī)器學(xué)習(xí)方法分析戰(zhàn)場(chǎng)態(tài)勢(shì)首先要解決的問題.基于棧式稀疏降噪自編碼網(wǎng)絡(luò)的特征提取是一種強(qiáng)大的非線性特征提取方法,它的表達(dá)能力、泛化能力、對(duì)噪聲和冗余信息的魯棒性更強(qiáng),具有更好的自主性、非線性、客觀性、可擴(kuò)展性、規(guī)范性特性,并擺脫了海量數(shù)據(jù)標(biāo)簽化的要求,是一種戰(zhàn)場(chǎng)態(tài)勢(shì)數(shù)據(jù)特征提取的理想方法,較傳統(tǒng)方法和淺層神經(jīng)網(wǎng)絡(luò)方法具有較大優(yōu)勢(shì).當(dāng)然,單獨(dú)運(yùn)用某一種方法可能無法取得最佳效果,需要綜合使用兩種或幾種特征提取方法.可以預(yù)見的是,基于深度學(xué)習(xí)的特征提取方法與其他特征提取方法相互配合使用必將產(chǎn)生更好的特征提取效果.