陳 杰,薛雅麗,葉金澤
(南京航空航天大學(xué) 自動化學(xué)院,南京211106)
近年來,隨著智能化的不斷發(fā)展,單架飛機(jī)在現(xiàn)代復(fù)雜戰(zhàn)場中所發(fā)揮的作戰(zhàn)效能逐步減弱,多機(jī)協(xié)同作戰(zhàn)理念逐漸成為主流思想。多機(jī)協(xié)同作戰(zhàn)是指多架戰(zhàn)機(jī)以配合協(xié)作的方式共同完成空中戰(zhàn)斗任務(wù),以達(dá)到更好的戰(zhàn)場收益。其中,多目標(biāo)火力分配問題是多機(jī)協(xié)同作戰(zhàn)中一個重要問題,其解空間會隨著目標(biāo)總數(shù)和戰(zhàn)機(jī)數(shù)目的增加而呈指數(shù)級遞增[1-2]。許多研究者針對目標(biāo)火力分配問題提出了許多模型求解算法。2002年,Lee等[3]采用基于免疫的蟻群算法對戰(zhàn)場防空武器目標(biāo)分配問題進(jìn)行了研究。2006年,羅德林等[4]設(shè)計了一種局部搜索算法,并將其與蟻群算法融合,提高了蟻群算法在應(yīng)用于空戰(zhàn)目標(biāo)分配時對全局最優(yōu)解的搜索效率。目前解決該領(lǐng)域問題的算法主要是以一種智能算法為主,結(jié)合另一種或多種智能算法的混合優(yōu)化算法,或是在原有的算法基礎(chǔ)上做出了較大的改進(jìn)。如2015年朱德法等[5]采用改進(jìn)粒子群算法設(shè)計了新的粒子群位置和速度更新過程,能更快速解決多機(jī)協(xié)同作戰(zhàn)的目標(biāo)分配問題。2016年,孔德鵬等[6]通過改進(jìn)人工蜂群算法對武器目標(biāo)分配模型進(jìn)行求解,采用了新型輪盤賭選擇策略、多維搜索等方式,最終改善了算法的收斂性和尋優(yōu)性能。2019年,張永利等[7]采用線性規(guī)劃方法解決了艦空火力分配問題。
狼群算法最早被Liu等[8]在2011年提出,根據(jù)狼群覓食特點(diǎn)分為3種智能行為:搜索、圍攻和更新。并且將狼群算法與粒子群算法、遺傳算法等相比較,發(fā)現(xiàn)狼群算法具有求解最優(yōu)值的精度更高、速度更快以及涉及參數(shù)更少等優(yōu)點(diǎn)。當(dāng)將狼群算法引入目標(biāo)分配決策問題求解時,其還具備有高魯棒性的優(yōu)點(diǎn)。但狼群算法也有不少缺點(diǎn),比如全局掌控性不高,個體之間交流較少且分散,易導(dǎo)致算法陷入局部最優(yōu)。筆者基于傳統(tǒng)狼群算法(WPA:Wolf Pack Algorithm)[9]提出改進(jìn)策略,針對WPA中存在的尋優(yōu)精度低、易陷入局部最優(yōu)問題,對狼群召喚、圍攻行為機(jī)制進(jìn)行改進(jìn),并引入了雙-頭狼機(jī)制,通過雙-頭狼隨機(jī)選擇人工狼部下的方法增強(qiáng)了算法跳出局部最優(yōu)問題的能力。同時加大了次頭狼的搜索范圍,以改善算法的全局搜索能力。將這種新的雙-頭狼狼群算法(DLWPA:Double-Leader Wolf Pack Algorithm)應(yīng)用于飛機(jī)目標(biāo)火力分配問題,構(gòu)建了空戰(zhàn)戰(zhàn)場火力分配數(shù)學(xué)模型,并給出了改進(jìn)算法的實現(xiàn)流程,最后通過仿真實驗驗證了該方法的可行性和有效性。
針對多目標(biāo)火力分配問題,筆者對空中戰(zhàn)場態(tài)勢進(jìn)行如下假設(shè)。
我方i架戰(zhàn)斗機(jī),敵方目標(biāo)戰(zhàn)斗機(jī)j架,當(dāng)j<i時,我方占據(jù)戰(zhàn)場優(yōu)勢,此時運(yùn)用尋優(yōu)算法為目標(biāo)火力分配進(jìn)行決策的收益較低,難以體現(xiàn)出算法價值。筆者主要研究對象為在戰(zhàn)場中我方戰(zhàn)機(jī)數(shù)目小于敵方戰(zhàn)機(jī)數(shù)目的情況下如何通過尋優(yōu)算法求解最優(yōu)火力分配決策,故而設(shè)定條件j>i。每架戰(zhàn)斗機(jī)為一個作戰(zhàn)單元,其僅攜帶一種火力載荷,該條件表示每架我方戰(zhàn)斗機(jī)對各敵方目標(biāo)的殺傷概率為確定值P=pij,其中pij表示第i架我方戰(zhàn)斗機(jī)對第j架敵方目標(biāo)戰(zhàn)斗機(jī)的殺傷概率;在單次打擊行為中,一架我方戰(zhàn)斗機(jī)只能毀傷一個敵方目標(biāo),每個敵方目標(biāo)最多只能分配k架我方戰(zhàn)斗機(jī)進(jìn)行攻擊,各敵方目標(biāo)的毀傷收益為確定值W=Wj,其中Wj表示第j個敵方目標(biāo)戰(zhàn)斗機(jī)的毀傷收益值。
1)目標(biāo)打擊約束。每架我方戰(zhàn)斗機(jī)必須分配1個打擊目標(biāo)。至多分配2架我方戰(zhàn)斗機(jī)打擊同一目標(biāo),即0≤k≤2。
2)有效殺傷約束。針對敵方目標(biāo)j,僅當(dāng)對其的綜合殺傷概率大于預(yù)設(shè)的殺傷概率閾值時可以認(rèn)定該次打擊為有效打擊,即Pg≥P閾。當(dāng)Pg<P閾時,認(rèn)定該次打擊為無效打擊,此時針對目標(biāo)j的打擊收益值為0,即此時Fj=0。
3)當(dāng)兩個不同的目標(biāo)火力分配策略所取得的目標(biāo)價值收益值F相同時,選取其中對高毀傷收益目標(biāo)打擊數(shù)量更多的分配策略為最優(yōu)策略[11]。
傳統(tǒng)狼群算法通過模擬自然界中狼群相互協(xié)作,捕食獵物的行為處理優(yōu)化問題。算法中主要包括兩個準(zhǔn)則和3種智能行為,分別為“勝者為王”的頭狼產(chǎn)生規(guī)則和“適者生存”的狼群更新原則以及探狼游走、頭狼召喚和猛狼圍攻3種行為[12-13]。在WPA算法中,通過目標(biāo)函數(shù)值大小構(gòu)建獵物解空間,狼群在解空間中分工合作,以各種搜尋方式尋找最優(yōu)目標(biāo)進(jìn)而完成捕殺任務(wù)。在狼群算法的分工中,頭狼位置代表當(dāng)前所發(fā)現(xiàn)的最優(yōu)目標(biāo)位置,頭狼本身不進(jìn)行移動,而是指揮猛狼向自身位置奔襲;探狼根據(jù)嗅到的獵物目標(biāo)氣息濃度判斷是否向獵物方向靠近,并將搜尋信息告知頭狼;猛狼在接收到頭狼召喚信號后向頭狼所在位置發(fā)起奔襲,到達(dá)頭狼附近后所有猛狼向獵物目標(biāo)區(qū)域發(fā)起圍攻行為[14]。狼群算法捕獵模型圖如圖1所示。
圖1 狼群算法捕獵模型圖Fig.1 Hunting model diagram of wolf pack algorithm
圍繞狼群算法在空中戰(zhàn)場態(tài)勢模型中的應(yīng)用,筆者借鑒了文獻(xiàn)[10]中求解火力分配問題的設(shè)計方案。首先給出目標(biāo)分配問題算法描述,在求解應(yīng)用于目標(biāo)分配問題的WPA算法中采用整數(shù)編碼的形式重新定義目標(biāo)解空間,進(jìn)而重新設(shè)計游走、召喚、圍攻算子以及狼群更新機(jī)制和頭狼產(chǎn)生規(guī)則,最終實現(xiàn)智能優(yōu)化算法求解空戰(zhàn)目標(biāo)分配問題。具體設(shè)計如下[10,15]。
假定目前戰(zhàn)場上有n架我方戰(zhàn)機(jī)和m架敵方戰(zhàn)機(jī)(其中n<m),則可設(shè)定人工狼(除頭狼外的所有狼群個體視為人工狼)的位置矢量維度為m,狼群的總數(shù)為N。故在N×m的歐氏空間中,第i匹人工狼的位置為Xi=(xi1,xi2,…,xij,…,xin),其中xij表示第i匹人工狼在第j維變量空間中所處的位置,其取值范圍為1~m之間的整數(shù)。xij=t表示第j架我方戰(zhàn)機(jī)攻擊第t架敵方戰(zhàn)機(jī),故而可以用每匹人工狼的位置代表一種目標(biāo)分配候選方案,人工狼位置的變換即代表目標(biāo)分配方案的更替,算法最終目的為解算出最優(yōu)的頭狼位置。
由式(2)可知,為判別人工狼感知到的獵物氣味濃度大小,引入目標(biāo)函數(shù)值F。在獵物解空間中,每個位置的F值大小代表著當(dāng)前目標(biāo)分配方案的優(yōu)劣。并且采用曼哈頓距離計算方式表示兩只人工狼之間的距離,例如人工狼p與人工狼q之間的距離
1)頭狼產(chǎn)生規(guī)則。狼群算法中具備最高目標(biāo)函數(shù)值的人工狼為頭狼。算法迭代過程中根據(jù)各人工狼的目標(biāo)函數(shù)值大小執(zhí)行貪婪決策,頭狼本身不執(zhí)行游走和圍攻行為。
2)游走行為。在算法選出頭狼后,剩余所有人工狼視為探狼。游走次數(shù)為T,這表示游走行為中探狼以游走步長a向自身周圍T個方向試探前進(jìn),也可認(rèn)為是對探狼當(dāng)前位置執(zhí)行T次游走算子Θ(Xi,Ra,a),以下為對游走算子的定義。
根據(jù)所得T個新位置的目標(biāo)函數(shù)值進(jìn)行貪婪決策。若游走后探狼所在位置目標(biāo)函數(shù)值大于頭狼目標(biāo)函數(shù)值,則更新頭狼位置,否則繼續(xù)游走行為直至達(dá)到最大游走次數(shù)。
3)召喚行為。當(dāng)所有探狼執(zhí)行完游走行為后,視除頭狼外所有探狼為猛狼。頭狼向所有猛狼發(fā)起召喚行為,猛狼以較大的奔襲步長b向頭狼位置前進(jìn)。即對猛狼當(dāng)前位置執(zhí)行1次召喚算子Φ(Xi,Rb,b),以下為對召喚算子的定義。
針對召喚算子Φ(Xi,Rb,b),人工狼i的位置為Xi=(xi1,xi2,…,xij,…,xin),Rb為人工狼i位置Xi與頭狼位置XL不相同編碼位的集合,b為召喚步長。召喚算子表示在集合Rb中隨機(jī)選擇b個編碼位,使人工狼Xi中被選中的編碼位的值與頭狼XL中相應(yīng)位置的值相等。例如,設(shè)召喚算子Φ(Xi,Rb,2),其中Xi=(3,5,2,7,1),頭狼位置為XL=(1,5,2,6,4),故可得Rb={1,4,5}。設(shè)隨機(jī)選中的編碼位集合
若猛狼在前進(jìn)途中其所在位置的目標(biāo)函數(shù)值大于頭狼目標(biāo)函數(shù)值,則更新頭狼位置,并在新位置重新發(fā)起召喚,否則猛狼繼續(xù)前進(jìn)直到猛狼與頭狼距離小于閾值距離dnear。
4)圍攻行為。召喚行為會將所有猛狼集中至頭狼附近。當(dāng)所有猛狼停下前進(jìn)動作后頭狼會發(fā)起圍攻行為指令,以頭狼所在位置為獵物位置,猛狼以較小的圍攻步長c向目標(biāo)位置發(fā)起圍攻,猛狼i的位置依照
由于傳統(tǒng)狼群算法迭代過程中狼群大都集中于頭狼位置附近,算法求解容易陷入局部最優(yōu)的情況[16]。為提高算法的尋優(yōu)能力,筆者在求解目標(biāo)分配的狼群算法基礎(chǔ)上提出了雙-頭狼狼群算法(DLWPA:Double-Leader Wolf Pack Algorithm)。DLWPA在保留頭狼機(jī)制的同時在狼群中增加了次頭狼產(chǎn)生機(jī)制。在狼群算法中,頭狼代表當(dāng)前狼群中目標(biāo)函數(shù)值最優(yōu)的人工狼,故而設(shè)計出的次頭狼代表當(dāng)前狼群中目標(biāo)函數(shù)值次優(yōu)的人工狼。在加入次頭狼產(chǎn)生機(jī)制后,算法從一次迭代得到一個最優(yōu)解轉(zhuǎn)變?yōu)橐淮蔚玫揭粋€最優(yōu)解和一個次優(yōu)解[17]。
在DLWPA中,次頭狼的存在意義是為了帶領(lǐng)陷入局部最優(yōu)的部分人工狼跳出局部最優(yōu)循環(huán),進(jìn)而在解空間中繼續(xù)搜索最優(yōu)值。由于算法中存在兩個解(即頭狼和次頭狼),狼群在搜索最優(yōu)解的過程中會被要求分為兩組分別在頭狼和次頭狼附近進(jìn)行搜尋,從而增大對解空間的搜素范圍。同時,由于兩組狼群的人工狼個體在每次迭代中都為隨機(jī)分配,原本跟隨頭狼的狼群會被次頭狼所吸引,原本跟隨次頭狼的狼群也可能在下次迭代中被頭狼所召喚,如此將會出現(xiàn)狼群在頭狼和次頭狼之間來回奔襲的情況,以此增大算法的搜索精度。圖2為DLWPA召喚行為示意圖。
由圖2可以看出,次頭狼的搜索范圍比頭狼搜索范圍更廣,同時次頭狼機(jī)制能令徘徊在頭狼附近的人工狼向更多的解空間位置搜尋,從而增大人工狼的尋優(yōu)能力。由于重復(fù)利用了人工狼在頭狼與次頭狼之間來回奔襲,算法無需增加狼群數(shù)目即可保證在解空間中的搜尋精度,減少了代碼運(yùn)行的負(fù)擔(dān),保證了算法的高效性[18]。
圖2 DLWPA召喚行為示意圖Fig.2 DLWPA calling behavior diagram
DLWPA同時還對傳統(tǒng)狼群算法的更新機(jī)制提出改進(jìn),加入了“野生狼”概念,即在淘汰部分人工狼之后,在補(bǔ)充的人工狼中有一部分狼不再繼承頭狼的部分編碼位,而是在解空間中隨機(jī)生成。隨機(jī)生成的野生狼重新分配群組而加入狼群智能行為,以此提高算法的精度。
在DLWPA中,次頭狼與頭狼保持一定距離并且次頭狼的目標(biāo)函數(shù)值小于頭狼的目標(biāo)函數(shù)值,即d次-頭>3 dnear且F次<F頭。以下為次頭狼產(chǎn)生規(guī)則和改進(jìn)后的狼群行為機(jī)制。
3.2.1 次頭狼產(chǎn)生規(guī)則
次頭狼限定條件:
1)次頭狼與頭狼的曼哈頓距離大于判定距離dfar=3 dnear;
2)次頭狼的目標(biāo)函數(shù)值F次小于頭狼的目標(biāo)函數(shù)值F頭。
在DLWPA中,所有滿足上述條件的人工狼里目標(biāo)函數(shù)值最大的人工狼為次頭狼,下面根據(jù)算法迭代中人工狼的變換情況對次頭狼和頭狼的更新機(jī)制進(jìn)行設(shè)計。假設(shè)人工狼i經(jīng)過智能行為后其目標(biāo)函數(shù)值為頭狼的目標(biāo)函數(shù)值為FL,次頭狼的目標(biāo)函數(shù)值為FS,人工狼與頭狼的曼哈頓距離為di-L。頭狼與次頭狼更新機(jī)制如下。
3.2.2 改進(jìn)后的召喚行為
將除頭狼與次頭狼外的所有人工狼視為猛狼。頭狼與次頭狼同時發(fā)出召喚指令,所有猛狼隨機(jī)分配至兩組:猛狼組A和猛狼組B。兩組猛狼再分別向頭狼與次頭狼位置奔襲,即對猛狼位置Xi執(zhí)行一次至多次召喚算子Φ(Xi,Rb,b)。
召喚行為限定條件如下。
1)猛狼組A與猛狼組B中的狼群數(shù)目相同,組A奔襲向頭狼,組B奔襲向次頭狼。每次算法迭代后兩組猛狼重新隨機(jī)分配。
2)猛狼組A的奔襲行為結(jié)束條件:
①猛狼與頭狼的曼哈頓距離小于閾值距離dnear;
②猛狼的目標(biāo)函數(shù)值大于頭狼的目標(biāo)函數(shù)值;
③猛狼與頭狼的剩余步長小于b。
3)猛狼組B的奔襲行為結(jié)束條件:
④猛狼與次頭狼的曼哈頓距離小于判定距離ds-near=dfar-dnear=2 dnear;
⑤猛狼的目標(biāo)函數(shù)值大于次頭狼的目標(biāo)函數(shù)值;
⑥猛狼與次頭狼的剩余步長小于b。
滿足條件①、③、④、⑥的猛狼停止奔襲行為并留在原地等待下一步指令。滿足條件②的A組猛狼根據(jù)頭狼與次頭狼更新機(jī)制對頭狼位置進(jìn)行更新,滿足條件⑤的B組猛狼根據(jù)頭狼與次頭狼更新機(jī)制對次頭狼位置進(jìn)行更新。
3.2.3 改進(jìn)后的狼群更新機(jī)制
步驟1 初始化。在解空間中隨機(jī)生成N匹人工狼,定義各參數(shù)值,包括游走次數(shù)T,各步長a、b、c,召喚閾值距離dnear,圍攻閾值數(shù)量S,殺傷概率閾值P閾,更新比例因子U,更新編碼因子V,淘汰比例因子Q。
步驟2 選取。計算各人工狼的目標(biāo)函數(shù)值,依據(jù)頭狼和次頭狼的產(chǎn)生規(guī)則選取頭狼與次頭狼。
步驟3 游走。除頭狼與次頭狼外所有人工狼發(fā)起次數(shù)為T的游走行為。依據(jù)頭狼與次頭狼更新機(jī)制對所有時刻的狼群執(zhí)行貪婪決策。直至所有狼群個體達(dá)到最大游走次數(shù),游走行為結(jié)束。
步驟4 召喚。頭狼與次頭狼同時發(fā)起召喚行為。除頭狼與次頭狼以外的所有人工狼隨機(jī)分配成等量的兩組:猛狼A組與猛狼B組。A組向頭狼位置以b步長發(fā)起奔襲,B組向次頭狼位置以b步長發(fā)起奔襲。若觸發(fā)了頭狼或次頭狼的更新機(jī)制,則針對頭狼或次頭狼的新位置重新發(fā)起召喚行為。當(dāng)所有猛狼依據(jù)奔襲行為結(jié)束條件停留在原地后,召喚行為結(jié)束。
步驟5 圍攻。A組以頭狼位置為獵物位置發(fā)起圍攻行為,B組以次頭狼位置為獵物位置發(fā)起圍攻行為。兩組猛狼依據(jù)頭狼與次頭狼更新機(jī)制對位置進(jìn)行更新。所有猛狼停留在原地后圍攻行為結(jié)束。
步驟6 更新。依據(jù)改進(jìn)后的狼群更新機(jī)制對狼群進(jìn)行更新。
步驟7 判斷。當(dāng)更新結(jié)束后,若頭狼的目標(biāo)函數(shù)值達(dá)到優(yōu)化精度要求或迭代次數(shù)用盡,則輸出此時頭狼位置,否則轉(zhuǎn)至步驟2。
綜上所述,圖3為DLWPA的目標(biāo)分配流程圖。
圖3 基于DLWPA的目標(biāo)分配流程圖Fig.3 Flow chart of target allocation based on DLWPA
筆者在Matlab軟件的基礎(chǔ)上[19],以空戰(zhàn)8V16、10V14的戰(zhàn)場態(tài)勢為實驗對照組,以所采用的智能尋優(yōu)算法和各行為步長數(shù)值為變量參數(shù),利用控制變量法通過仿真對照實驗驗證DLWPA的可行性與有效性。
針對8V16的空戰(zhàn)戰(zhàn)場,可假設(shè)整體戰(zhàn)場態(tài)勢如圖4所示,我方為下方8架戰(zhàn)機(jī),飛行方向朝上;敵方為上方16架戰(zhàn)機(jī),飛行方向朝下。雙方距離均處于導(dǎo)彈發(fā)射射程范圍之內(nèi),根據(jù)前期戰(zhàn)場態(tài)勢評估結(jié)果可求出針對敵方各單位目標(biāo)的價值收益函數(shù)矩陣為W1=[0.75 0.60 0.75 0.85 0.65 0.75 0.90 0.85 0.90 0.85 0.90 0.65 0.75 0.80 0.60 0.75]。同理,針對10V14的空戰(zhàn)戰(zhàn)場,假設(shè)整體戰(zhàn)場態(tài)勢如圖5所示,可求得針對敵方各單位目標(biāo)的價值收益函數(shù)矩陣為W2=[0.80 0.70 0.60 0.85 0.90 0.75 0.85 0.95 0.70 0.70 0.75 0.60 0.65 0.75]。我方各戰(zhàn)機(jī)對敵方各目標(biāo)的殺傷概率矩陣分別為實驗數(shù)據(jù)如表1所示,筆者分別采用WPA算法和DLWPA算法對目標(biāo)分配問題進(jìn)行優(yōu)化求解,設(shè)定初始參數(shù)人工狼總數(shù)N=20,最大迭代次數(shù)為200,殺傷概率閾值P閾=0.80,最大游走次數(shù)T=8,召喚行為閾值距離dnear=6,圍攻行為閾值數(shù)量S=2,更新比例因子U=2,更新編碼因子V=4,而且探究了各行為步長數(shù)值對算法精度和效率的影響,實驗結(jié)果如表2、表3所示。表1中平均耗時指算法代碼運(yùn)行100次后解算出的平均耗時,最優(yōu)結(jié)果次數(shù)指算法代碼運(yùn)行100次所得最優(yōu)結(jié)果的數(shù)量。
表1 仿真對照實驗數(shù)據(jù)對照表Tab.1 Experiment data of simulation comparison
表2 8V16戰(zhàn)場模型仿真實驗數(shù)據(jù)結(jié)果表Tab.2 Experiment data of 8V16 battlefield model simulation
表3 10V14戰(zhàn)場模型仿真實驗數(shù)據(jù)結(jié)果Tab.3 Experiment data of 10V14 battlefield model simulation
圖4 8V16戰(zhàn)場模型態(tài)勢示意圖Fig.4 Schematic diagram of the 8V16 battlefield model situation
圖5 10V12戰(zhàn)場模型態(tài)勢示意圖Fig.5 Schematic diagram of the 10V12 battlefield model situation
由實驗結(jié)果可分析出,采用DLWPA求解當(dāng)前戰(zhàn)場態(tài)勢環(huán)境下的目標(biāo)分配問題具有良好的尋優(yōu)效果。對比實驗組1和3、實驗組2和4可知,在相同的一定條件下,DLWPA算法對問題求解的精度有顯著的提升。這說明算法改進(jìn)后其全局搜索能力有所提高,且陷入局部最優(yōu)的情況更少說明此時算法具有一定的跳出局部最優(yōu)情況的能力。當(dāng)戰(zhàn)場模型轉(zhuǎn)換成10V14的模型時,DLWPA算法依然保持著高精度的優(yōu)勢,這證明該算法在一定程度上具有良好的適用性,能針對多種不同的空戰(zhàn)場景。對比實驗組1和2、實驗組3和4可知,算法各行為的步長較小時,算法精度較高,局部搜索能力更強(qiáng)。但較小的步長會令算法迭代次數(shù)增多,增加了算法的耗時,故而在選取各行為機(jī)制的步長時,應(yīng)該根據(jù)實際需求選取合適的步長。對比兩個戰(zhàn)場模型中步長變化的對照實驗組,可以發(fā)現(xiàn)步長導(dǎo)致的變化對DLWPA算法影響較小,對WPA算法影響較大。這是因為DLWPA本身已具備較為良好的求解精度,調(diào)節(jié)步長數(shù)值帶來的效益對于DLWPA更小。因此,筆者提出的DLWPA對傳統(tǒng)狼群算法做出了改進(jìn)并能有效提高其對全局最優(yōu)解的尋優(yōu)能力。
筆者針對空戰(zhàn)目標(biāo)火力分配問題進(jìn)行了研究,在傳統(tǒng)狼群算法的基礎(chǔ)上提出了一種改進(jìn)策略。從空戰(zhàn)態(tài)勢模型入手,描述目標(biāo)火力分配問題,通過引入“次頭狼”概念改進(jìn)狼群算法,從而使算法具備更好的尋優(yōu)能力。通過仿真實驗可以看出,改進(jìn)后的算法很好地改善了狼群易陷入局部最優(yōu)的情況,一定程度上彌補(bǔ)了狼群算法的不足,具有很大的實用價值,為研究多機(jī)對抗目標(biāo)分配問題提供了一種新的解決方案。今后研究的方向?qū)⒎旁谔岣咚惴ǖ膶?yōu)速度上,目前算法上猛狼分組的行為機(jī)制使DLWPA在尋優(yōu)速度上無法做出很好的改進(jìn)。探究如何在保證高精度的同時,提高算法的尋優(yōu)速度將成為今后研究的重點(diǎn)。