李 燦,侯興明,祁啟明,杜 泰,范紅旗
(1.航天工程大學航天保障系,北京 101416;2.解放軍32139 部隊,北京 101200;3.國防科技大學ATR 重點實驗室,長沙 410073;4.解放軍31677 部隊,河北 保定 071000)
無人機(unmanned aerial vehicle,UAV)是依賴自動飛行控制系統(tǒng)自主完成預定任務或通過地面控制站遙控執(zhí)行任務的無人平臺,集“察、打、擾”于一體,在無人化、智能化戰(zhàn)場上應用越來越廣泛。無人機作為智能作戰(zhàn)單元,具備觀察-判斷-決策-行動(oberve-orient-decide-act,OODA)殺傷鏈,可以獨立完成“探測、識別、決策、打擊”的作戰(zhàn)行動[1]。作戰(zhàn)行動中,可靠的光學偵察和高效的制導控制是無人機順利完成任務的關(guān)鍵要求。在無人機投入作戰(zhàn)應用前的前期設計驗證階段,必須對其光學偵察系統(tǒng)和飛行控制系統(tǒng)的軟件算法進行驗證評估,同時需要針對作戰(zhàn)預想進行全流程行動方案推演,對操作人員進行培訓。當測試無人機的光學偵察能力和制導控制性能時,外場飛行試驗是不可避免的。然而,外場飛行試驗面臨安全隱患大、組織流程繁雜、成本高等問題。為了以低廉成本并安全快捷地完成無人機光學偵察和制導控制的性能評估,實現(xiàn)全流程作戰(zhàn)行動方案在復雜場景環(huán)境下的推演,為操作人員提供模擬訓練環(huán)境,需要提出一種高度逼近真實戰(zhàn)場的平行仿真方法。
近年來,隨著信息技術(shù)發(fā)展,“元宇宙”這個新概念被越來越多的人關(guān)注。元宇宙本質(zhì)是與現(xiàn)實世界平行存在但又反作用于現(xiàn)實世界的高度發(fā)達的虛擬世界[2],提供了一種思路:憑借數(shù)字孿生、人工智能等先進技術(shù),可以塑造模擬真實戰(zhàn)場的“戰(zhàn)場元宇宙”,為武器裝備測試評估、作戰(zhàn)演練提供虛實結(jié)合、人機互動、訓戰(zhàn)一致的超級時空環(huán)境??紤]到真實戰(zhàn)場具有地形多樣、氣象多變、時間動態(tài)、電磁環(huán)境復雜等特點,再加上人類活動的不確定性,一般的建模仿真方法難以對作戰(zhàn)單元的復雜系統(tǒng)行為進行精確描述與預測。數(shù)字孿生作為元宇宙的核心技術(shù)之一[3-5],能實現(xiàn)物理實體與虛擬模型之間的交互融合,從而多維、多尺度完成物理過程的觀測、控制和轉(zhuǎn)換。數(shù)字孿生近年來在產(chǎn)品設計、制造、裝備運維等多領(lǐng)域進行不斷探索,并在軍事領(lǐng)域得到初步體現(xiàn)[6-9]。
針對無人機作戰(zhàn)行動的OODA 閉環(huán)在線實時仿真需求,本文構(gòu)建了基于數(shù)字孿生的無人機平行戰(zhàn)場,提出一種無人機平行作戰(zhàn)仿真方法。該平行戰(zhàn)場為測試驗證光學偵察系統(tǒng)的視覺感知算法、飛行控制系統(tǒng)的制導控制算法提供實時在線仿真工具,為全流程作戰(zhàn)行動推演助力,為操作人員提供用于模擬訓練的保障平臺。通過平行作戰(zhàn)仿真,無人機從智能算法研發(fā)到戰(zhàn)術(shù)研究再到投入實戰(zhàn)的周期能顯著縮短。
為滿足平行作戰(zhàn)仿真需求,無人機平行戰(zhàn)場需具備如下基本功能:1)自定義飛行場景;2)光學偵察仿真;3)制導控制仿真;4)目標仿真;5)視景顯示;6)實時狀態(tài)數(shù)據(jù)記錄;7)數(shù)據(jù)可視化與仿真評估。
參照上述功能需求和數(shù)字孿生五維結(jié)構(gòu)[10],無人機平行戰(zhàn)場分為5 個部分:真實空間、虛擬空間、孿生數(shù)據(jù)、數(shù)據(jù)交互、服務應用,如下頁圖1 所示。真實空間是無人機全流程作戰(zhàn)行動的基本要素集合。虛擬空間是真實空間的數(shù)字化鏡像。孿生數(shù)據(jù)包括平行仿真所需模型和產(chǎn)生的數(shù)據(jù),為服務應用提供支持。數(shù)據(jù)交互規(guī)范了不同要素之間的數(shù)據(jù)傳輸,定義了數(shù)據(jù)存儲和可視化的形式。服務應用是平行戰(zhàn)場的上層人機交互接口,為使用者提供視覺感知算法訓練與測試、制導控制算法測試、作戰(zhàn)行動推演等功能。
圖1 無人機平行戰(zhàn)場總體結(jié)構(gòu)Fig.1 General structure of uav parallel battlefield
在真實空間中,構(gòu)成無人機作戰(zhàn)行動的基本要素有無人機、地面站、飛行場景和各種戰(zhàn)場目標。無人機用于執(zhí)行偵察和打擊任務時,其光學偵察系統(tǒng)和飛行控制系統(tǒng)是決定作戰(zhàn)能力的關(guān)鍵模塊,其中,光學偵察系統(tǒng)通常由光學吊艙及其串聯(lián)的信息處理機組成。信息處理機作為視覺信號處理硬件平臺,是視覺感知算法的運行載體。為了提高平行作戰(zhàn)仿真中光學偵察系統(tǒng)性能評估的置信度,信息處理機在平行戰(zhàn)場中保留為硬件實體。地面站通過建立與無人機的通信連接,指揮控制作戰(zhàn)行動,接受無人機的狀態(tài)反饋信息,顯示戰(zhàn)場態(tài)勢,在平行戰(zhàn)場中同樣保留為硬件實體。
虛擬空間由機體孿生、光學吊艙孿生、飛控系統(tǒng)孿生、飛行場景孿生和戰(zhàn)場目標孿生等5 個孿生體組成。機體孿生是無人機機體的實虛映射,由三維顯示模型、動力學模型和運動學模型組成。光學吊艙孿生參考光學吊艙實體,主要對光學成像、光軸伺服驅(qū)動、控制接口分別建模并整合。飛控系統(tǒng)孿生面向制導單元和控制單元,在飛行控制軟件基礎(chǔ)上完善輸入、輸出接口。飛行場景孿生包含三維場景和物理動態(tài)環(huán)境模型,由地形網(wǎng)格、植被、道路、水系、天空、光照、降雨、云量、風速等內(nèi)容組成。針對無人機偵察和打擊的仿真需求,戰(zhàn)場目標孿生主要為地面目標,由三維顯示模型和運動模型組成。
孿生數(shù)據(jù)包括作戰(zhàn)行動模型、效能評估模型、實時狀態(tài)數(shù)據(jù)、仿真結(jié)果數(shù)據(jù)。作戰(zhàn)行動模型由作戰(zhàn)行動規(guī)則和各孿生體在不同作戰(zhàn)階段下的狀態(tài)參數(shù)設置組成。效能評估模型分為光學偵察評估模型和制導控制評估模型,將記錄的狀態(tài)數(shù)據(jù)代入效能評估模型,形成作戰(zhàn)能力結(jié)論。仿真中實時采集各孿生體的狀態(tài)信息和數(shù)據(jù)交互信息,存儲為實時狀態(tài)數(shù)據(jù)。通過對記錄的實時狀態(tài)數(shù)據(jù)進行分析處理和可視化,獲得仿真結(jié)果數(shù)據(jù)。
除去信息處理機和地面站,真實空間中的其余要素映射到虛擬空間,構(gòu)建孿生體。虛擬空間、孿生數(shù)據(jù)、服務應用集成于仿真主機,仿真主機、信息處理機、地面站通過建立物理通信連接構(gòu)成分布式仿真系統(tǒng)。
構(gòu)建無人機平行戰(zhàn)場需要解決一些關(guān)鍵問題:實虛映射、數(shù)據(jù)傳輸規(guī)范、數(shù)據(jù)存儲與可視化。
由于在室內(nèi)實驗室條件下,光學吊艙難以采集變化場景下的光學圖像,飛行控制系統(tǒng)測試依賴姿態(tài)轉(zhuǎn)臺,導航設備難以運轉(zhuǎn),故需要將這些模塊和飛行場景、戰(zhàn)場目標等作戰(zhàn)行動基本要素映射到虛擬空間建立孿生體,才能協(xié)同起來參與平行仿真。
2.1.1 機體孿生
為完成無人機機體的實虛映射,需要進行三維顯示模型設計、動力學與運動學建模。機體三維顯示模型是通過3ds MAX、Auto ACD、Maya 等三維建模軟件設計的,然后將多面幾何體連同材質(zhì)、貼圖一起保存為“.fbx”“.obj”“.3ds”等格式的模型文件,供仿真程序調(diào)度顯示。動力學與運動學模型可通過引入成熟的飛行力學仿真引擎,如MATLAB 的Simulink 航空宇航模塊、JSB 動力學引擎,進行構(gòu)建。對于以FlightGear 為代表的飛行仿真軟件,其飛行器結(jié)構(gòu)、氣動參數(shù)等內(nèi)容基于xml 文件形式進行設計,通過配置xml 文件和JSB 引擎進行飛行仿真;此外,V-REP、Gazebo、X-Plane 等基于物理引擎的仿真軟件均具有飛行器飛行仿真接口。因此,動力學與運動學模型也可通過引入飛行仿真軟件或基于物理引擎的仿真軟件進行構(gòu)建。平行戰(zhàn)場選用JSB 動力學引擎進行無人機動力學與運動學計算。
2.1.2 光學吊艙孿生
無人機開展光學偵察時,首先通過光學吊艙采集飛行場景區(qū)域的視頻圖像,然后基于視覺感知算法對視頻圖像進行智能處理獲得戰(zhàn)場態(tài)勢。光學吊艙作為視覺感知前端,其孿生體構(gòu)建的關(guān)鍵內(nèi)容是實時的視頻圖像仿真。
隨著計算機圖形渲染技術(shù)的發(fā)展,許多高性能三維仿真引擎應運而生,如Unreal Engine、Unity3D、CryEngine、Unigine 等。這些三維仿真引擎充分集成了計算機圖形學的最新技術(shù)成果,能較好滿足復雜場景的渲染顯示需求,其詳細介紹與比較可參考文獻[11-12]。鑒于Unigine 引擎具有64 位坐標精度和逼真的廣域場景渲染效果,構(gòu)建平行戰(zhàn)場時,選用Unigine 2.7.2 Sim 引擎,調(diào)用其視口渲染程序接口,對光學吊艙采集的實時視頻圖像進行仿真。
表1 光學吊艙圖像仿真的相關(guān)參數(shù)Table1 Relative parameters of the simulation of electro-optical pod
由于光學吊艙的光軸是可調(diào)整的,同時地面站能對光學吊艙進行操作控制,所以構(gòu)建光學吊艙孿生體時還要對光軸伺服驅(qū)動和地面站控制接口進行建模。機載光學吊艙多采用視覺跟蹤控制方法[13],自主保持光軸指向關(guān)注的目標區(qū)域。地面站控制接口建模主要有光學吊艙運行模式調(diào)整、姿態(tài)控制、焦距調(diào)整等內(nèi)容。光軸伺服驅(qū)動模型和地面站控制模型與視頻圖像渲染聯(lián)結(jié)耦合,構(gòu)成光學吊艙孿生體。
2.1.3 飛控系統(tǒng)孿生
飛控系統(tǒng)孿生一般由慣導模型、GPS 模型、模態(tài)指令生成模型、導引律模型、控制律模型、舵機模型等模塊組成。為實現(xiàn)無人機飛行控制系統(tǒng)的實虛映射,可通過引入模型完備的飛控仿真引擎,如MAT LAB 的Simulink 航空宇航模塊、商業(yè)飛控軟件MicroPilot 的仿真模塊進行設計。設計中,對慣導、GPS、模態(tài)指令生成、導引律、控制律、舵機分別建模,完善信息輸入和輸出的接口,從而與其他孿生體、硬件實體構(gòu)成閉環(huán)仿真回路。平行戰(zhàn)場選用MicroPilot 軟件的仿真模塊進行飛行控制過程的計算。
2.1.4 飛行場景孿生
飛行場景孿生依托Unigine 引擎進行構(gòu)建,分為三維場景設計和物理動態(tài)環(huán)境建模。
三維場景的組成及其設計方法如圖2 所示。三維場景一般包括地形、植被、道路、水系、天空、建筑物、人工設施、光照、降雨、云量、風速、海浪等內(nèi)容。其中,地形可通過Unigine 引擎的場景編輯器隨機生成,或者導入GIS 數(shù)據(jù)及其紋理貼圖,利用地形工具生成地形格網(wǎng);植被、天空、水系、道路等內(nèi)容可通過場景編輯器的相應工具繪制;建筑物、人工設施與無人機機體的三維顯示模型一樣,均先通過三維建模軟件設計,然后導入場景編輯器進行布設;光照、降雨、云量、風速和海浪等環(huán)境特效通過編寫場景腳本程序進行設置。
圖2 三維場景的組成及其設計方法Fig.2 Composition of 3-d scenery and design method
三維場景的設計步驟為:首先導入地形數(shù)據(jù)制作地形格網(wǎng),然后使用場景編輯器的植被工具、云層工具、道路工具、水體工具分別添加植被群、云層、道路、河湖海等內(nèi)容,接著將建筑物、人工設施的三維顯示模型導入場景編輯器進行布設,最后編寫光照、降雨、云量、風速和海浪等環(huán)境顯示效果的場景腳本程序。參照實地機場,構(gòu)建出虛擬機場,如圖3 所示。
圖3 三維場景設計Fig.3 Design of 3-D scenery
物理動態(tài)環(huán)境建模重點圍繞顯著影響飛行動力學特性的溫度、濕度、氣壓、風向風速等因素建模,使設計的三維場景具備對等的動態(tài)物理場,使三維視景顯示、光學吊艙的視頻圖像仿真、飛行動力學仿真保持同步一致。
2.1.5 戰(zhàn)場目標孿生
戰(zhàn)場目標孿生體由三維顯示模型和運動模型組成。戰(zhàn)場目標的三維顯示模型通過三維建模軟件設計,保存為離線模型文件后導入仿真程序進行調(diào)度顯示。面向無人機的偵察打擊任務需求,戰(zhàn)場目標設置有裝甲車、汽車、飛機、艦船等多種類型,如圖4 所示。
圖4 戰(zhàn)場目標的三維顯示模型Fig.4 3-D display model of battlefield targets
戰(zhàn)場目標的運動建模有兩種方式:一是預設運動模式,該模式下,每個戰(zhàn)場目標按照預設規(guī)劃路徑進行運動。二是智能運動模式,將自主路徑規(guī)劃、強化學習等智能算法應用于戰(zhàn)場目標孿生體,使戰(zhàn)場目標孿生體能夠自主決策行動、自主規(guī)避威脅。
數(shù)據(jù)傳輸規(guī)范主要分為分布式仿真系統(tǒng)通信與同步規(guī)范、平行戰(zhàn)場信息流規(guī)范兩方面內(nèi)容。
平行戰(zhàn)場依托分布式仿真系統(tǒng)運行,首先要解決硬件實體間以及仿真主機內(nèi)不同程序間的數(shù)據(jù)交互。仿真主機、信息處理機和地面站三者之間采用串行通信端口,如RS422、RS485 等串口模塊,進行雙向數(shù)據(jù)通信;仿真主機通過加裝的圖像注入接口,將光學吊艙孿生體的視頻圖像注入信息處理機,模擬視頻信號回傳鏈路;仿真主機內(nèi)部不同程序間通過Socket 接口進行數(shù)據(jù)交互。其次,硬件實體間通信以及仿真主機內(nèi)部不同程序間的數(shù)據(jù)交互,都需要通過編寫通信協(xié)議進行規(guī)范。通信協(xié)議中每個數(shù)據(jù)幀一般由固定幀頭、幀長、幀類型、信息正文和校驗字等內(nèi)容組成。此外,數(shù)據(jù)交互還需要解決同步問題。分布式仿真系統(tǒng)采用時鐘同步技術(shù)[14],通過網(wǎng)絡時間協(xié)議(network time protocol,NTP)[15]建立全局一致的邏輯時鐘,使平行仿真按照邏輯時鐘推進。
平行戰(zhàn)場的關(guān)鍵信息流如圖5 所示。其中,實線代表硬件實體間信息流,虛線代表仿真主機內(nèi)部信息流。光學吊艙孿生體將采集的視頻圖像注入信息處理機,同時發(fā)送狀態(tài)參數(shù)到信息處理機和飛控系統(tǒng)孿生體。經(jīng)過視覺感知算法計算,信息處理機將戰(zhàn)場態(tài)勢信息反饋給飛控系統(tǒng)孿生體和地面站,同時將視頻圖像回傳至地面站進行顯示。地面站將指揮控制指令發(fā)送到飛控系統(tǒng)孿生體,然后飛控系統(tǒng)孿生體根據(jù)地面站控制指令、機體的位姿速度測量值、光學吊艙狀態(tài)情況進行導引律、控制律計算,輸出控制指令至機體孿生體和光學吊艙孿生體。Unigine 引擎根據(jù)機體孿生體和戰(zhàn)場目標孿生體的位姿真值渲染得到視景圖像和光學吊艙視頻圖像。
圖5 平行戰(zhàn)場的關(guān)鍵信息流Fig.5 Key information flow of parallel battlefield
仿真過程中,仿真主機對各孿生體的狀態(tài)參數(shù)、輸入輸出數(shù)據(jù)進行同步記錄。數(shù)據(jù)存儲通過多線程編程設計,減少對仿真主程序運行的阻塞,提高仿真過程的實時性。仿真主機啟動仿真進程后驅(qū)動信息處理機和地面站同步開啟數(shù)據(jù)記錄功能。為便于數(shù)據(jù)分析和無人機作戰(zhàn)能力評估,需要將存儲的狀態(tài)數(shù)據(jù)和結(jié)果數(shù)據(jù)以繪圖形式可視化。利用MATLAB軟件設計數(shù)據(jù)可視化程序,將存儲的仿真數(shù)據(jù),如飛行航跡、機目視線等內(nèi)容,進行圖形化展現(xiàn)。
基于構(gòu)建的無人機平行戰(zhàn)場,對視覺感知算法訓練與測試、制導控制算法測試、作戰(zhàn)行動推演等服務應用內(nèi)容進行仿真測試。
視覺感知算法在實際應用前,需要收集大量不同場景環(huán)境下的標注圖像進行算法模型訓練。但是,收集和標注訓練數(shù)據(jù)集的過程繁瑣費時。近年來,一些研究團隊基于三維仿真引擎進行二次開發(fā)設計出虛擬圖像生成工具[16-18],并將制作的虛擬圖像數(shù)據(jù)集用于智能視覺算法的訓練和評估。同理,平行戰(zhàn)場基于Unigine 引擎設計了虛擬標注圖像生成工具。
如圖6 所示,虛擬標注圖像生成工具不僅能采集虛擬圖像,還能通過修改目標的材質(zhì)和紋理顏色分割出目標像素,對源圖像進行標注。相比采集真實圖像,該方法不僅能靈活調(diào)整曝光、焦距、色差、分辨率等相機參數(shù),還能快速變換環(huán)境背景和目標的外部紋理,滿足對圖像數(shù)據(jù)采集的多樣性和高效性要求。基于虛擬圖像訓練的視覺算法在實際應用中的效力與用真實圖像訓練的視覺算法基本一致[18],故平行戰(zhàn)場可用于光學偵察中視覺算法的訓練準備。
圖6 虛擬標注圖像生成Fig.6 Generation of virtual annotation images
將信息處理機加載的視覺感知算法設定為3部分:YOLO v3 目標檢測、SORT 數(shù)據(jù)關(guān)聯(lián)[20]和GOTURN 目標跟蹤[19-21]。首先,YOLO v3 和SORT聯(lián)合檢測多目標,其中,SORT 將每幀圖像中YOLO v3 的檢測結(jié)果關(guān)聯(lián);隨后,GOTURN 用于對SORT關(guān)聯(lián)度最高的目標進行跟蹤。假設光學吊艙輸出圖像的分辨率為1 920×1 080,幀率為25 f/s,下面對目標檢測、目標跟蹤分別測試。
對于目標檢測,目標能被正確檢測識別的關(guān)鍵因素是其在圖像中占有的像素數(shù)量,而像素數(shù)量直接由目標大小和距離決定。測試中,將無人機和目標設置為靜止狀態(tài),分別改變機目高差H、機目水平距離D、吊艙視場角ω 3 個變量進行測試,統(tǒng)計檢測識別精度。如圖7 所示,當H=10 m,D=15 m,ω=57.3°時,11 輛轎車中除了2 輛因被遮擋而遺漏,其余9 輛車被正確檢測識別。根據(jù)效能評估模型提供的轎車數(shù)量和圖像坐標真值,選擇合適評價指標,如mAP[22],對該條件下算法的目標檢測性能進行評估。這樣,分別改變H、D、ω 3 個變量的數(shù)值連續(xù)測試,可獲得該場景條件下目標檢測的有效范圍。
圖7 目標檢測測試Fig.7 Test of target detection
與目標檢測測試相比,目標跟蹤測試需要額外考慮機目相對徑向速度和切向速度。測試中,將無人機設置為靜止狀態(tài),改變機目高差H、機目水平距離D、吊艙視場角ω、機目相對徑向速度、切向速度5 個變量進行測試,計算該場景條件下目標跟蹤的有效范圍。如圖8 所示,當目標以切向速度運動時,測量跟蹤波門的平移跟進速度;當目標以徑向速度運動時,測量跟蹤波門的大小調(diào)整速度。根據(jù)效能評估模型提供的轎車在圖像中的移動速度和像素數(shù)量,選擇合適評價指標,如VOT[23],對該條件下算法的目標跟蹤性能進行評估。綜上所述,分別改變5 個變量的數(shù)值連續(xù)測試,可獲得該場景條件下視覺感知算法的有效作用域。
無人機在鎖定目標后,對目標進行自殺式打擊。為了精準命中毀傷目標,無人機需要有良好的制導控制能力。在制導打擊階段,將機目視線真值取代機目視線測量值,解除制導控制與機目視線測量的耦合,對制導控制算法進行單獨測試。無人機轉(zhuǎn)入制導打擊階段后,初始狀態(tài)參數(shù)有:機目高差H、機目水平距離D、機目視線水平投影角、無人機速度vM、目標速度vT。改變該5 個初始狀態(tài)參數(shù)的數(shù)值,進行連續(xù)測試,記錄每次測試的脫靶量(Miss Distance,MD)和飛行時間(Time-to-Go,TOG)。最終,將初始狀態(tài)參數(shù)和對應的脫靶量和飛行時間進行數(shù)值擬合,獲得制導控制算法的有效作用域。
假設目標為一輛靜止的紅色轎車,無人機轉(zhuǎn)入制導打擊階段的初始狀態(tài)為:H=198.978 m,D=694.671 m,=-9.35°,=30 m/s,導引律選擇比例導引。測試中的飛行視景與無人機飛行航跡如圖9 所示,在該初始狀態(tài)設定下,脫靶量為0.4 m,飛行時間為25.93 s,命中目標。
圖9 制導控制算法測試Fig.9 Test of guidance control algorithm
將光學偵察仿真、制導控制仿真以及其他仿真要素融合,進行無人機作戰(zhàn)行動推演。基于平行戰(zhàn)場的作戰(zhàn)行動推演能為無人機實地飛行測試提供航線規(guī)劃預案,為作戰(zhàn)運用提供流程方案參考。
設定推演初始條件,如表2 所示。無人機起飛后轉(zhuǎn)入巡航階段,其光學吊艙對地面進行搜索尋找目標。光學偵察系統(tǒng)對可能的目標完成檢測和識別后,在地面站上選擇并鎖定一架固定翼飛機作為打擊對象,然后無人機轉(zhuǎn)入制導打擊階段,光學偵察系統(tǒng)對目標持續(xù)跟蹤,飛行控制系統(tǒng)按照比例導引朝目標俯沖,進行自殺式打擊。測試中,飛行視景、目標檢測視頻圖像與目標跟蹤視頻圖像分別如圖10 所示。
表2 推演初始條件Table 2 Initial conditions of deduction
為評估該作戰(zhàn)行動效能,將仿真結(jié)果數(shù)據(jù)可視化,其中,機目高差與無人機飛行航跡如圖11 所示。推演進行至180.4 s 時,光學偵察系統(tǒng)進入目標跟蹤模式,在185.6 s 時,無人機轉(zhuǎn)入制導打擊階段。經(jīng)過時長為24.7 s 的制導控制,無人機命中目標,脫靶量為1.819 m,完成自殺式打擊。從推演結(jié)果可知,該作戰(zhàn)行動是可行的。
圖11 作戰(zhàn)行動評估Fig.11 Combat action assessment
本文基于數(shù)字孿生構(gòu)建了無人機平行戰(zhàn)場,用于平行作戰(zhàn)仿真。平行戰(zhàn)場依托分布式仿真系統(tǒng)運行,由真實空間、虛擬空間、孿生數(shù)據(jù)、數(shù)據(jù)交互、服務應用等5 部分組成。構(gòu)建平行戰(zhàn)場過程中解決了實虛映射、數(shù)據(jù)傳輸規(guī)范、數(shù)據(jù)存儲與可視化等關(guān)鍵技術(shù)問題。通過平行作戰(zhàn)仿真,能實時在線測試驗證光學偵察系統(tǒng)的視覺感知算法、飛行控制系統(tǒng)的制導控制算法,同時對無人機全流程作戰(zhàn)行動進行推演,為操作人員提供模擬訓練環(huán)境。下一步,研究對無人機平行戰(zhàn)場補充電磁環(huán)境孿生、雷達吊艙孿生、火力載荷孿生,增加通信鏈路模型、紅外成像模型,滿足無人機多波段偵察、電子干擾等作戰(zhàn)仿真需求。