田聚波,趙建,李寶蓮,岳云鶴,劉晶
摘要:為了解決聯(lián)合國維和行動長期存在的國內(nèi)訓練基礎(chǔ)環(huán)境難逼真、執(zhí)行任務標準運用不熟練、突發(fā)情況應急處置不到位的問題,開展了基于維和訓練的控制系統(tǒng)仿真技術(shù)研究。運用虛擬現(xiàn)實、建模仿真、沉浸體驗、人工智能等先進技術(shù),提出一種大空間定位和姿態(tài)捕獲方法,研發(fā)空間位置與動作姿態(tài)數(shù)據(jù)融合算法,靈活支撐對抗仿真;提出一種三維影像構(gòu)建方法,建立人員、裝備、設(shè)施、建筑、道路等三維模型,構(gòu)建國外任務區(qū)虛擬戰(zhàn)場環(huán)境,支持開展沉浸式模擬演練。研究結(jié)果表明,新方法能幫助維和官兵提前逼真體驗,規(guī)范執(zhí)行標準,模擬紅藍對抗,尤其是大空間定位技術(shù)的研究可有效延伸虛擬戰(zhàn)場環(huán)境,顯著提高聯(lián)合訓練效果,并可節(jié)省訓練經(jīng)費,避免訓練事故,提高訓練的針對性。虛擬仿真訓練技術(shù)研究能夠有效支撐多分隊協(xié)同處置訓練,甚至多兵種聯(lián)合訓練,在軍事訓練領(lǐng)域有較大的推廣價值。
關(guān)鍵詞:控制系統(tǒng)仿真技術(shù);虛擬現(xiàn)實;建模仿真;沉浸體驗;人工智能;大空間定位技術(shù)
中圖分類號:TP183文獻標識碼:ADOI: 10.7535/hbgykj.2021yx06004
Research on simulation technology of control system based on
peacekeeping training
TIAN Jubo,ZHAO Jian,LI Baolian,YUE Yunhe,LIU Jing
(The 54th Research Institute of CETC,Shijiazhuang,Hebei 050081,China)
Abstract:The research on simulation technology of control system based on peacekeeping training was developed in order to solve the long-standing problems in the United Nations peacekeeping operations,such as unlifelike basic domestic training environment,unskilled implementation of mission standards and inadequate emergency response.By using virtual reality,modeling and simulation,immersive experience,artificial intelligence and other advanced technologies,a large space positioning and attitude acquisition method was proposed,and the spatial position and action attitude data fusion algorithm was developed to flexibly support confrontation simulation.A three-dimensional image construction method was proposed to establish three-dimensional models of personnel,equipment facilities,buildings and roads,then the virtual battlefield environment in foreign mission areas was built to support immersive simulation exercises.The results show that it can help soldiers experience realistically in advance,standardize the implementation of standards,simulate red-blue confrontation.And the research of large space positioning technology can effectively extend the virtual battlefield environment,significantly improve the effect of joint training,save training funds,avoid training accidents and improve the training pertinence.The research on virtual simulation training technology can effectively support multi unit cooperative disposal training and even multi arms joint training,and has great popularization value in the field of military training.
Keywords:simulation technology of control system;virtual reality;modeling and simulation;immersive experience;artificial intelligence;large space positioning technology
虛擬現(xiàn)實(VR)技術(shù)是20世紀末以來逐漸興起的一項先進的綜合性信息技術(shù),該技術(shù)融合了計算機圖形學、仿真學以及傳感器應用等多學科專業(yè),為作戰(zhàn)訓練等高風險類型的仿真研究探索出了一條新的道路[1]。VR技術(shù)具有3個突出特征:沉浸性、交互性和想象性[2],與傳統(tǒng)的桌面虛擬現(xiàn)實系統(tǒng)相比,虛擬仿真訓練將用戶所處場景封閉,使用戶完全置身于虛擬環(huán)境中,強調(diào)將人在現(xiàn)實世界中的各種行為和虛擬環(huán)境融為一體,使人們能像控制現(xiàn)實物體一樣控制虛擬環(huán)境中的物體[3]。近年來,世界軍事強國將虛擬現(xiàn)實技術(shù)運用于新型軍事戰(zhàn)爭的情況層出不窮,而且特別注重利用虛擬現(xiàn)實技術(shù)進行信息戰(zhàn)的演練和研究[4]。美國陸軍2012年推出步兵訓練系統(tǒng)(DSTS),是世界上首次投入使用的沉浸式戰(zhàn)術(shù)級模擬訓練系統(tǒng)。英國耗資 260 萬美元研制了炮兵虛擬訓練系統(tǒng),并在炮兵部隊投入使用[5]。21世紀以來,中國陸續(xù)將 VR 應用于包括飛行員、艦艇、炮兵、坦克等多個兵種的軍事訓練中。
聯(lián)合國維和行動環(huán)境復雜危險,形勢嚴峻,沖突不斷,突發(fā)情況頻發(fā)。傳統(tǒng)的維和部隊行前訓練采用實兵實裝模式,訓練效果難以保證。有必要開展基于VR技術(shù)的維和仿真訓練研究,融合并運用先進仿真技術(shù)手段,逼真模擬維和任務區(qū)環(huán)境,構(gòu)建維和訓練場景,模擬訓練對手和突發(fā)事件,開展標準作業(yè)訓練和應急處置訓練,促進維和部隊高效遂行維和任務。
1虛擬仿真關(guān)鍵技術(shù)研究
1.1大空間定位和姿態(tài)捕捉技術(shù)
大范圍空間定位系統(tǒng)包括發(fā)射端和接收端兩部分,為了實現(xiàn)一發(fā)多收、便攜性等功能多采用收發(fā)分離式設(shè)計[6],發(fā)射端包括光塔、HUB和控制器組成,光塔包含激光掃描裝置及過零信號發(fā)射裝置,接收端包括追蹤器和定位計算單元。利用激光定位技術(shù)延遲低、受遮擋干擾小等特點,在室內(nèi)訓練環(huán)境四周覆蓋激光發(fā)射塔,保證追蹤器在任何位置都能夠捕獲。
1.1.1定位系統(tǒng)部署原理
1)發(fā)射端
在單個定位空間內(nèi),各個光塔與HUB呈星形連接,每個光塔都與單位區(qū)間內(nèi)唯一的面光源相連,各個定位空間之間依靠HUB連接,如圖1所示,矩形代表光塔,菱形代表HUB,形成星形結(jié)構(gòu)。
2)接收端
追蹤器內(nèi),所有的Sensor傳感器與九軸傳感器將所接收到的數(shù)據(jù)信息傳給CPU及內(nèi)存,進行自身的位姿計算,然后通過網(wǎng)絡傳輸給計算單元,如圖2所示。
1.1.2定位及姿態(tài)捕捉工作原理
定位及姿態(tài)捕捉工作原理如圖3所示。主HUB控制各分HUB的同步,分HUB控制本單元的4個光塔同步,光塔分時工作,發(fā)射過零信號和掃描信號,追蹤器接收到光塔信號后,自行計算位姿信息,傳遞給計算單元處理,最終傳給顯示單元進行顯示。由于激光雷達系統(tǒng)需要有很好的實時性,因此算法的計算復雜度與計算時間都需要低于一幀數(shù)據(jù)的采樣周期,即需要在下一組數(shù)據(jù)導入算法之前,完成上一次數(shù)據(jù)的計算[7]。本課題以卡爾曼濾波算法作為基礎(chǔ)跟蹤算法,研發(fā)能夠滿足姿態(tài)動作和位置數(shù)據(jù)進行融合的算法。
1.2三維影像構(gòu)建技術(shù)
虛擬環(huán)境的建立是虛擬現(xiàn)實技術(shù)的核心內(nèi)容,環(huán)境建模的目的是獲取實際環(huán)境的三維數(shù)據(jù),并根據(jù)應用需要,利用獲取的三維數(shù)據(jù)建立相應的虛擬環(huán)境模型[8]。
美軍采用綜合了航空照片、衛(wèi)星影像和數(shù)字高程地形數(shù)據(jù)來分析生成高分辨率的作戰(zhàn)區(qū)域三維地形環(huán)境,以幾乎一致的三維環(huán)境來訓練參戰(zhàn)人員[9]。
本文采集任務區(qū)多源數(shù)據(jù),包括建筑物信息、開源影像數(shù)據(jù)、人員裝備等近景數(shù)據(jù),無人機航拍影像、直升機航拍影像等航空遙感影像數(shù)據(jù),突破三維影像特征檢測與匹配、三維影像表面重建技術(shù),構(gòu)建逼真三維影像。
1.2.1三維影像特征檢測與匹配技術(shù)
三維影像特征檢測與匹配技術(shù)主要包括三維特征檢測、三維特征快速匹配和自動剔除粗差。三維特征檢測技術(shù)采用SURF特征檢測算子,研究多特征融合檢測技術(shù)、特征描述符提取技術(shù)和GPU并行優(yōu)化加速技術(shù);三維特征快速匹配技術(shù)采用基于FLANN的快速檢索算法、基于哈希表的快速檢索算法和基于GPU并行加速檢索算法等,研究多基線立體匹配基準、多基線立體匹配模型和多基線立體匹配約束技術(shù);自動剔除粗差技術(shù)采用RANSAC算法加歸一化的DLT算法魯棒估計基礎(chǔ)矩陣、重投影誤差最小化估計基礎(chǔ)矩陣,局部單應約束剔除粗差點,具體流程如圖4所示。
在特征點檢測與提取上,目前匹配能力較強的特征點檢測算法是SIFT算法,具有較高的重現(xiàn)性和滿覆蓋性,但其提取過程時間復雜度和空間復雜度較高,無法直接應用到三維影像的特征提取,本文主要采用SURF算法和KAZE算法進行特征點檢測。
1)SURF算法
步驟1:計算積分圖像
積分圖像可通過卷積的盒子濾波器進行快速計算,在I∑(x)的位置輸入卷積圖像,X=(x,y)T代表了包括原點和x的輸入圖像I的所有像素之和。
I∑(x)=∑i≤xi=0∑j≤xj=0I(i,j)。(1)
步驟2:計算基于興趣點的Hessian矩陣
給定點為x=(x,y),計算其Hessian矩陣H(x,σ)行列式的決定值,來判斷特征點。
H(x,σ)=Lxx(x,σ)Lxy(x,σ)
Lxy(x,σ)Lyy(x,σ)。(2)
步驟3:構(gòu)建尺度空間
使原始圖像保持不變,通過變化模板大小對原圖像進行濾波,從而構(gòu)建出尺度金字塔,把相應圖像分成多組,每組由多層組成,各組采用逐漸增大的濾波器尺寸進行處理[10],不需對圖像進行二次抽樣,從而提高算法性能。
步驟4:精確定位特征點
檢測過程中使用與該尺度層圖像解析度相對應大小的濾波器進行檢測,丟棄所有小于預設(shè)極值的取值,最終保留幾個特征最強點。
2)KAZE算法
步驟1:對圖像進行高斯濾波,計算圖像的梯度直方圖,利用AOS算法來構(gòu)造非線性尺度空間。
Li+1=I-(ti+1-ti)∑ml=1Al(Li)Li+1。(3)
步驟2:檢測感興趣特征點,通過判斷經(jīng)過尺度歸一化后的Hessian局部極大值來實現(xiàn)。判斷過程中,每一個像素點和周圍的相鄰點比較,當其大于圖像域和尺度域的所有相鄰點時,即為感興趣特征點。
L(hessian)=σ2(LxxLxy-L2yy)。(4)
步驟3:計算特征點的主方向,并且基于一階微分圖像提取具有尺度和旋轉(zhuǎn)不變性的描述向量。對圖像搜索圈內(nèi)所有鄰點的一階微分值進行高斯加權(quán),將這些微分值視作向量空間中的點集,在一個角度為60°的扇形滑動窗口內(nèi)對點集進行向量疊加,遍歷整個區(qū)域,獲得最長向量的角度就是主方向。
1.2.2三維影像表面重建技術(shù)
三維表面重建技術(shù)主要是實現(xiàn)散亂點云數(shù)據(jù)的曲面重建,重建三維模型。先對模型表面采樣的有向點云數(shù)據(jù)集進行粗差探測與分塊,同時進行稠密點云抽稀,以提高系統(tǒng)運行效率;在曲面生成之后,進行曲面優(yōu)化重建結(jié)果;最后進行網(wǎng)格簡化,減少重建模型中的冗余數(shù)據(jù),為模型的存儲與瀏覽提供方便。
1)點云數(shù)據(jù)的粗差探測與分塊技術(shù)
點云數(shù)據(jù)的粗差探測技術(shù)如下:首先,計算待測點p的k個最鄰近點。然后計算k+1個點的高程平均值Mp ,對于點p ,可以得到一個高程差值Vp ,計算公式如式(5)所示:
Vp=Mp-Hp。(5)
所有點的高程差值都將用來計算統(tǒng)計值,作為決定最終閾值的基礎(chǔ)。算術(shù)平均值U與標準偏差 SD分別按照式(6)計算:
U=∑ni=1Vin,SD=∑ni=1(Vi-U)2/(n-1),(6)
式中:n為點的總個數(shù)。若|Vp-U|>T,則點p被判斷為粗差點,否則就認為點p不是粗差點,其中閾值T一般設(shè)置為SD的3倍。
點云數(shù)據(jù)的分塊首先根據(jù)影像及其空三參數(shù),獲取整個測區(qū)的地理坐標范圍,規(guī)劃設(shè)置分塊參數(shù)D,較平緩的數(shù)據(jù)可以將D適當放大,這樣可以提高重建效率,比較復雜時,可以適當縮小D的取值[11],保證整個測區(qū)分塊格網(wǎng)的精度。然后按分塊參數(shù)對測區(qū)進行劃分,得到整個測區(qū)的分塊格網(wǎng)。
2)三維影像數(shù)據(jù)的密集點云抽稀技術(shù)
為解決數(shù)據(jù)密度和應用精度不符的情況,采用基于TIN的抽稀方法和基于網(wǎng)格流的抽稀方法使其達到平衡。
基于TIN的抽稀方法,輸入數(shù)據(jù),構(gòu)建不規(guī)則三角網(wǎng)DEM模型。在TIN模型上,抽稀是對模型影響最小的點。首先加載點云數(shù)據(jù),構(gòu)建TIN;選取數(shù)據(jù)點,查找以這個點為頂點的所有三角形;求該點的相鄰三角形的兩兩法向量的夾角,并求最大夾角max θ;將max θ與設(shè)定的閾值T作比較,如果小于T,則刪除這個點,否則保留;繼續(xù)處理不規(guī)則網(wǎng)中的下一個點,直到所有數(shù)據(jù)處理完。
基于網(wǎng)格流的抽稀方法,每次網(wǎng)格流處理構(gòu)建TIN的時候,當讀取到格網(wǎng)穩(wěn)定標識時,就要判斷穩(wěn)定三角形,將當前條件成熟的活躍三角形變化為穩(wěn)定三角形;查找在內(nèi)存中的數(shù)據(jù)點,并找到這些點的相鄰三角形,當點的所有相鄰三角形都穩(wěn)定了,對該點進行抽稀處理,采用基于TIN的壓縮方法,判斷該點的兩兩三角面的最大夾角是否大于閾值,來決定是否保留該點,并標記該點已經(jīng)作了抽稀處理;如果三角形參與了3次抽稀計算,即它的3個頂點都已經(jīng)進行了抽稀處理,那么將該三角形的內(nèi)存釋放。如果點的所有相鄰三角形都參與了3次抽稀計算,就可以釋放該點的內(nèi)存;直到將格網(wǎng)流中的點數(shù)據(jù)處理完成。
3)基于區(qū)域生長策略的構(gòu)網(wǎng)重建技術(shù)
針對三維影像匹配點云數(shù)據(jù)量大的特點,采用基于局部區(qū)域生長的構(gòu)網(wǎng)算法來進行三維表面重建,然后利用網(wǎng)格的簡化策略生成多層次的網(wǎng)格模型。算法流程如圖 5所示。
其中,良好的種子三角形的選取是快速進行區(qū)域生長的關(guān)鍵:根據(jù)空間索引理清點云的空間分布狀況,設(shè)置多個起始點,搜索各起始點的最鄰近點,連接起始點與其最鄰近點,將其作為待選種子三角形的一條邊。以該邊的中點為球心,邊長的k倍為半徑,建立搜索球,遍歷搜索球內(nèi)的每一個點,將其與已知邊組成三角形,驗證該三角形的最小外接球內(nèi)是否存在其他點。如果不存在,則該三角形為待選種子三角形,驗證該三角形是否在點云數(shù)據(jù)表面,如果滿足要求則種子三角形構(gòu)建完成。
區(qū)域生長策略是整個點云數(shù)據(jù)進行構(gòu)網(wǎng)的關(guān)鍵步驟:首先搜索活動邊指定范圍內(nèi)的候選點,在活動三角形所在的平面上作活動邊的中垂線,在其中垂線上距活動邊一定距離處確定搜索球的球心。根據(jù)球心和球上的兩點即活動邊的端點確定搜索球的半徑,根據(jù)球心和半徑計算球內(nèi)所包含的點,即活動邊指定范圍內(nèi)的待選點。根據(jù)待選點和活動邊確定多個搜索球,比較后確定最佳候選三角形,對新增的兩條活動邊進行驗證,判斷其是否屬于其他三角形,根據(jù)判斷情況,修改活動邊列表,遞歸完成構(gòu)網(wǎng)。
2綜合仿真研發(fā)
研發(fā)綜合仿真引擎技術(shù),融合仿真引擎和游戲渲染引擎,采用基于步長的連續(xù)型時間步進仿真機制,把仿真時間等分為時間序列,按時間步長依次推進,通過一步一步地重復計算仿真新狀態(tài)來填充時空圖。同時實現(xiàn)實時仿真和超實時仿真的時空一致性,為戰(zhàn)術(shù)級對抗仿真提供靈活的引擎支撐。
2.1雙引擎工作機制
雙引擎工作機制下的基本工作流程如圖 6所示。
仿真開始后進行仿真初始化,主要完成配置信息的讀取、環(huán)境數(shù)據(jù)加載、仿真任務的加載等,然后進入系統(tǒng)主循環(huán),處理對應的仿真任務。其中仿真引擎和融合引擎相互融合,分別負責不同的工作,完成虛擬想定和虛擬場景的結(jié)合。
仿真引擎根據(jù)仿真時間的驅(qū)動機制不同,采用線程同步和線程非同步2種仿真推進策略,同步線程負責與主線程交互的任務,非同步線程負責數(shù)據(jù)加載等非實時處理類輔助工作。
渲染引擎具有更高維度布局空間以及性能上的優(yōu)勢[12],根據(jù)初始參數(shù)完成虛擬戰(zhàn)場的渲染,按照時間軸的方式進行計算渲染,按照無限循環(huán)的模式處理Windows消息,完成三幀預測、閾值檢測、仿真倍率以及虛擬戰(zhàn)場空間中的各類活動檢測,及時調(diào)用引擎各子系統(tǒng)更新狀態(tài)。
2.2仿真任務中的時間管理
時間管理上重點處理2個時間:仿真時間(Glob.Time)和真實時間(Glob.uiTime)。其中(Glob.uiTime)從引擎啟動完成初始化操作后開始累計,是仿真運行所流逝的真實時間;(Glob.Time)是仿真系統(tǒng)中表現(xiàn)出來的時間,是仿真開始后累加的時間,受時間加速因子影響,可以加速、減速和暫停。
在仿真引擎中,幀間隔以ms為單位,采用32位的浮點數(shù)來存儲,推進流程如圖 7所示。
第1步:deltaTMs=(當前系統(tǒng)Tick-上次系統(tǒng)Tick)×0.001;//Tick是啟動后所經(jīng)歷的毫秒數(shù);
第2步:判斷是否處于仿真狀態(tài),是跳轉(zhuǎn)到第4步,否則,執(zhí)行第3步;
第3步:如果deltaTMs<0.05時,等待(0.05-deltaTMs),deltaTMs=0.05;
第4步:通過deltaTMs得到幀間隔deltaT;
第5步:判斷游戲引擎是否處于仿真狀態(tài),如果是進行三幀預測,重置deltaT;
第6步:將deltaT值存儲到真實步長noAccDeltaT;
第7步:deltaT*=加速減速時間因子,此時deltaT變?yōu)榉抡娌介L;
第8步: 如果deltaT大于0.1,則deltaT=0.1;
第9步:判斷是否處于推演狀態(tài),如果是,真實時間累加仿真步長,否則deltaT=0,真實時間不變。
仿真任務啟動后在不同場景下仿真推進時,仿真時間與真實時間的對應情況如圖 8所示。
3仿真驗證與結(jié)果分析
3.1搭建仿真訓練平臺
搭建一個仿真訓練平臺,利用單兵虛擬現(xiàn)實設(shè)備、空間定位設(shè)備、VR眼鏡等硬件設(shè)備配合開展大空間定位和姿態(tài)捕捉技術(shù)研究;利用實體模型、裝備模型和影像數(shù)據(jù)配合開展三維影像構(gòu)建技術(shù)研究;研發(fā)軟件統(tǒng)一架構(gòu)、接口規(guī)范、場景構(gòu)建工具等開展綜合仿真引擎技術(shù)研究;研發(fā)業(yè)務軟件驗證虛擬仿真技術(shù)研究成果。
測試場地長×寬為24 m×18 m,安裝布設(shè)大范圍空間定位設(shè)備一套,4個HUB,31個光塔,仿真控制計算機3臺,仿真訓練平臺業(yè)務軟件一套,可安排24人的分隊進行聯(lián)合訓練,每人穿戴一套頭戴式單兵虛擬訓練套裝,VR眼鏡中顯示預定的戰(zhàn)場環(huán)境,空間定位設(shè)備捕捉人員位置和姿態(tài)信息,傳遞到電腦,進行三維場景更新。搭建環(huán)境如圖 9所示。
本文選擇Unity 3D作為仿真訓練平臺業(yè)務軟件的開發(fā)工具。Unity 3D是應用于實時視景仿真、虛擬現(xiàn)實及其他可視化領(lǐng)域的主流軟件之一[13],可以輕松地創(chuàng)建諸如三維視頻游戲,建筑可視化以及三維動畫等效果,是一個全面整合的專業(yè)游戲引擎。Unity 3D里面提供了聲音、圖形、渲染和物理等多種功能,內(nèi)置了強大的編輯器,支持 3D Max,Maya等多種文件格式[14]。
3.2仿真結(jié)果分析
3.2.1實現(xiàn)大空間定姿捕獲
目前市場上大量的沉浸式體驗都是基于小范圍、固定空間的設(shè)備,大范圍定位技術(shù)還沒有應用到沉浸式體驗,尤其沒有應用到維和訓練中。小范圍空間定位技術(shù)的有效定位面積一般為4.5 m× 4.5 m,而本文實現(xiàn)了400 m2以上面積的有效空間定位和姿態(tài)捕捉;另外通過模擬武器上配備萬向輪裝置,在軟件中進行虛擬場景和室內(nèi)訓練環(huán)境的映射轉(zhuǎn)換,使得室內(nèi)訓練環(huán)境在虛擬場景中實現(xiàn)上萬倍延伸。該技術(shù)研究能夠有效支撐多分隊協(xié)同處置訓練,甚至多兵種聯(lián)合訓練。
在大空間定姿捕獲試驗中,隨機選擇訓練位置進行測試,測試記錄如表1所示。
測試過程中,在測試人員身上多個部位分別部署接收端追蹤器,采集測試人員的姿態(tài)及位置信息,同時接收光塔信號,然后進行自身的位姿計算,測試者手持模擬武器,在測試場地隨機選取位置,按照站立姿態(tài)、舉手姿態(tài)、跪地姿態(tài)、俯臥姿態(tài)的次序進行動作,在顯示端虛擬場景中,同步顯示測試人員的位姿信息,記錄各個姿態(tài)的定位誤差和動作時延,取平均值作為該位置的最終結(jié)果。在定位誤差的測試結(jié)果中,最大為0.36 cm,定位精度為毫米級,對于虛擬場景中的戰(zhàn)術(shù)動作計算沒有影響,在動作時延的測試中,最大時延為25 ms,從視覺感受方面也察覺不到,保證指揮員口令、參訓人員動作、虛擬場景展現(xiàn)的一致性。通過對定位設(shè)備進行隨機抽檢測試,驗證大空間定位設(shè)備工作正常,在規(guī)定的訓練范圍內(nèi),定位姿態(tài)捕獲動作姿態(tài)無誤、定位精度均小于1 cm,動作時延小于30 ms,能夠滿足訓練系統(tǒng)的需要。
3.2.2構(gòu)建虛擬訓練場景
構(gòu)建大范圍野外地形環(huán)境、城市街區(qū)環(huán)境、重點目標設(shè)施模型、建筑物室內(nèi)環(huán)境、人物角色、交通工具等實體模型和裝備模型,構(gòu)建相應的行為組件模型和服務組件模型,隨后全部導入到Unity資源中,進行規(guī)劃和擺放,最終形成虛擬場景的整體模型[15]。仿真試驗創(chuàng)建了數(shù)千個模型,構(gòu)建了50多個典型國外任務場景,幫助官兵提前體驗任務區(qū)環(huán)境。
系統(tǒng)構(gòu)建的訓練場虛擬場景如圖 10所示。
3.2.3雙引擎機制支撐靈活對抗仿真
傳統(tǒng)的仿真引擎機制和渲染引擎機制各有優(yōu)點,仿真引擎偏數(shù)據(jù)計算服務,渲染引擎偏展現(xiàn)畫面呈現(xiàn)服務,但分別使用、交叉切換時,操作繁瑣,界面不一致,操作不友好,隨遇接入困難。
綜合仿真引擎機制解決了上述不便,支持實時仿真和超實時仿真的時空一致性,并可同步提供三維態(tài)勢展現(xiàn),為戰(zhàn)術(shù)級對抗仿真提供靈活支撐。
4結(jié)語
虛擬現(xiàn)實技術(shù)是未來軍事模擬訓練的關(guān)鍵技術(shù)之一[16]。開展虛擬仿真技術(shù)在維和訓練中的應用研究,是利用虛擬仿真和人工智能技術(shù)解決維和任務訓練中的實際問題。尤其是開展大空間定位和姿態(tài)捕捉技術(shù)、三維影像構(gòu)建技術(shù)和綜合仿真引擎技術(shù)等關(guān)鍵技術(shù)研究,并設(shè)計了一種“體驗逼真、要素齊全、集約高效、擴展靈活”的虛擬仿真訓練平臺。
通過平臺可以構(gòu)建維和任務區(qū)虛擬場景,利用三維影像構(gòu)建技術(shù)將真實場景高度還原到虛擬平臺中,維和官兵可以頭戴VR眼鏡在虛擬場景中沉浸式漫游,足不出戶即可熟悉萬里之外的維和任務區(qū)環(huán)境;通過平臺可以進行想定編輯,將聯(lián)合國標準作業(yè)程序、任務區(qū)突發(fā)情況處置規(guī)范融入想定事件中,利用空間定位和姿態(tài)捕捉技術(shù)和綜合仿真引擎技術(shù),維和官兵可以穿戴單兵背包,在虛擬場景中沉浸式模擬演練,扮演想定中的各種角色,體驗維和任務區(qū)中突發(fā)事件的處置流程。依托該平臺開展虛擬仿真訓練,能有效解決目前維和實戰(zhàn)訓練中存在的任務區(qū)作業(yè)環(huán)境不熟悉、執(zhí)行任務作業(yè)程序不標準、突發(fā)情況應急處置不到位等問題。讓維和官兵在國內(nèi)行前訓練就對任務區(qū)環(huán)境、標準作業(yè)程序、突發(fā)事件處置流程有著深度體驗,到達任務區(qū)后馬上能夠投入維和任務中,大大縮減維和官兵對任務區(qū)新環(huán)境的適應時間,面對突發(fā)情況時減少不必要的傷亡。為培養(yǎng)維和官兵過硬軍事技能、有效遂行維和任務提供了有益探索。
受目前VR技術(shù)局限性和硬件條件限制,虛擬仿真訓練平臺尚不能逼真模擬人體觸感和對環(huán)境的感受,在VR頭顯分辨率、處理技術(shù)等方面也無法達到最優(yōu)效果。未來隨著觸覺沉浸、嗅覺沉浸、身體感受沉浸等系列VR技術(shù)的成熟,虛擬仿真訓練必將引領(lǐng)中國軍事訓練領(lǐng)域的發(fā)展趨勢。
參考文獻/References:
[1]陳志,凌麗,王程,等.基于虛擬現(xiàn)實技術(shù)的便攜式防空導彈訓練裝備研究[J].飛航導彈,2016(6):39-42.
[2]高博,黃昉,侯春牧.虛擬現(xiàn)實技術(shù)在美軍實戰(zhàn)化訓練中的應用及啟示[J].國防科技,2014,35(2):94-97.
GAO Bo,HUANG Fang,HOU Chunmu.Virtual reality technology in the U.S.army combat training and its implications[J].National Defense Science & Technology,2014,35(2):94-97.
[3]郎躍東.面向裝配的球面虛擬環(huán)境系統(tǒng)的建立以其關(guān)鍵技術(shù)研究[D].哈爾濱:哈爾濱工業(yè)大學,2010.
LANG Yuedong.Research on the Key Technologies of Assembly-Oriented Virtual Environment with Spherical Screen[D].Harbin:Harbin Institute of Technology,2010.
[4]許路鐵,張猛,俞衛(wèi)博.虛擬作戰(zhàn)訓練的研究現(xiàn)狀[J].飛航導彈,2017(6):58-62.
[5]周寶林,劉軍,董曉峰.VR技術(shù)在軍事訓練中的研究與應用[J].科技傳播,2017,9(11):38-39.
[6]向振佼.高精度激光定位系統(tǒng)的性能提高研究[D].哈爾濱:哈爾濱工業(yè)大學,2019.
XIANG Zhenjiao.Research on Performance Improvement of High-Precision Laser Positioning System[D].Harbin:Harbin Institute of Technology,2019.
[7]趙弋峰.激光運動目標空間定位與KF算法跟蹤研究[D].西安:西安電子科技大學,2016.
ZHAO Yifeng.Spatial Orientation and KF Algorithm Tracking of Moving Target in Laser[D].Xi′an:Xidian University,2016.
[8]張育軍.虛擬現(xiàn)實技術(shù)在軍事領(lǐng)域的應用與發(fā)展[J].科技創(chuàng)新與應用,2014(15):290-291.
[9]徐軍,安寶航.軍事訓練中的虛擬現(xiàn)實技術(shù)現(xiàn)狀及啟示[J].產(chǎn)業(yè)與科技論壇,2015,14(1):51-52.
[10]王曉紅,鄧仕雄,何志偉,等.結(jié)合SURF算法和單應性矩陣的無人機影像匹配[J].測繪通報,2018(7):38-42.
WANG Xiaohong,DENG Shixiong,HE Zhiwei,et al.Study of UAV image matching based on SURF algorithm and homography matrix[J].Bulletin of Surveying and Mapping,2018(7):38-42.
[11]蒼鵬.基于激光雷達點云數(shù)據(jù)的建筑物三維重建技術(shù)[D].長春:長春理工大學,2019.
CANG Peng.3D Reconstruction of Buildings Based on Lidar Point Cloud Data[D].Changchun:Changchun University of Science and Technology,2019.
[12]唐前昭.基于三維圖像引擎實時渲染復雜網(wǎng)絡數(shù)據(jù)的研究與應用[D].成都:電子科技大學,2018.
TANG Qianzhao.Research and Application of Real-Time Rendering of Complex Network Data Based on 3D Render Engine[D].Chengdu:University of Electronic Science and Technology of China,2018.
[13]李志,李艦,付玉峻.基于Unity 3D的某型地空導彈戰(zhàn)斗場景可視化研究[J].電腦編程技巧與維護,2016(3):71-72.
[14]喬毛毛.基于Unity3D的虛擬仿真訓練系統(tǒng)的設(shè)計與實現(xiàn)[D].西安:西安電子科技大學,2014:14.
QIAO Maomao.Design and Implementation of Virtual Simulation Training System Based on Unity3D[D].Xi′an:Xidian University,2014.
[15]張策.基于Unity3D的三維游戲場景設(shè)計與實踐[D].合肥:合肥工業(yè)大學,2016.
ZHANG Ce.Practice of 3D Game Scene Design Based on Unity3D[D].Hefei:Hefei University of Technology,2016.
[16]張玉軍,邢輝,洪增.沉浸式虛擬戰(zhàn)場3維音效仿真研究[J].兵工自動化,2017,36(1):59-63.
ZHANG Yujun,XING Hui,HONG Zeng.Research on immersive virtual battlefield 3D sound effect simulation[J].Ordnance Industry Automation,2017,36(1):59-63.