曹麗靜 劉玉文
(陸軍軍官學院 合肥 230031)
?
基于視頻的彈丸終點參數(shù)獲取研究*
曹麗靜 劉玉文
(陸軍軍官學院 合肥 230031)
針對目前彈丸動爆實驗組織難,系統(tǒng)復雜等問題,論文提出了一種基于視頻圖像計算彈丸終點參數(shù)的新方法,簡化了動爆實驗所需的復雜測量系統(tǒng)平臺,通過視頻圖像中彈丸位置姿態(tài)的提取計算彈丸終點參數(shù)。論文采用了改進的減背景法進行目標定位與跟蹤,根據(jù)彈丸邊界確定彈丸姿態(tài),再由投影變換和立體視覺原理求得目標實際位置和姿態(tài),并運用VC2010和OpenCV2.2軟件平臺設計了仿真系統(tǒng)。系統(tǒng)仿真結果表明論文方法實用可行,運算速度快,精度較高。
彈丸終點參數(shù); 減背景法; 投影變換; 系統(tǒng)仿真
Class Number TP391.9
彈丸的落角和落速等終點參數(shù)直接影響彈丸作用效果、終點效應等[1],是分析彈藥毀傷效果的必要參數(shù)。彈丸在空中的飛行運動是一個非常復雜的運動過程[2],很難準確測量彈丸飛行過程中的速度和飛行姿態(tài)。為了研究彈丸終點效應,就必須獲得彈丸的落速和落角,為了獲得這兩個重要參數(shù),很多科學工作者都進行了大量研究工作,比如有數(shù)值模擬計算、近似公式、天幕靶測量和雷達法[3~6]等多種方法都可以測量或模擬出彈丸的終點速度。這些方法雖然有的發(fā)展較為成熟,但要么系統(tǒng)龐大、價格昂貴、技術復雜、維護難度大、且測量的絕對精度較低,適合于超視距大型環(huán)境中的目標跟蹤和測量,要么進行了條件假設,計算復雜且不能得到實際速度。而基于視頻的彈目交匯分析是采用圖像和光學投影變換[7]的方法,可以充分利用光學投影變換的基本原理和方法,具有系統(tǒng)簡單、易于操作、目標定位精度高、系統(tǒng)響應速度快等優(yōu)點。
本文提出從高速攝像儀攝錄的彈目交匯視頻中,采用特征提取技術識別彈丸和目標,根據(jù)立體視覺測量原理計算落速、落角和炸目距離等彈丸終點效應參數(shù),具有系統(tǒng)構成簡單,操作方便,費效比高等特點。
本文獲取高速彈目交匯視頻的方法是,將高速攝像機固定在距離目標100m~150m的位置上,用以拍攝彈目交匯瞬間的視頻,因此彈丸運動的背景基本上是固定不變的,本文采用改進的減背景法識別跟蹤彈丸。
減背景法[8]通過當前圖像與背景圖像之間的差分,也就是當前圖像與背景圖像相減來檢測運動區(qū)域,是目前運動檢測中最常用的一種方法。其優(yōu)點是提取目標位置準確,速度快,只需獲取一幅當前圖像,運算量低,可以做到實時檢測與分割,不足之處是受其他環(huán)境因素影響較大,比如光線變化,風的吹動等,因此在非受控環(huán)境下,需要進行背景更新,減背景法也只能應用在攝像機靜止情況下的運動目標檢測[9]。
本文所采取的方法是高速攝像機固定好后,先拍攝一張沒有彈丸的背景圖像,然后利用減背景法檢測運動目標,即前景圖像與背景圖像相減,像素相差較大的區(qū)域為目標區(qū)域,為了精確定位目標輪廓,還要進行邊緣檢測,提取目標輪廓。然后進行背景更新,具體方法是將背景圖像中目標區(qū)域以外的像素更新為前景圖像,目標區(qū)域的像素用原背景對應區(qū)域的像素填充,得到完整的新背景。將該新背景用于下一幀的目標檢測,同時,每一幀的目標檢測都可以確定目標在圖像中的位置,因而也就實現(xiàn)了視頻中運動目標的跟蹤過程。
這種更新背景的方法彌補了減背景法對環(huán)境變化敏感的不足,增強了原來減背景法對環(huán)境的適應性。
3.1 彈丸落角的求取
圖1 彈丸終點形態(tài)示意
根據(jù)立體視覺[10]原理,可以求得彈丸在空間中的姿態(tài),彈丸姿態(tài)平面圖如圖1所示。A、B分別為過彈丸中軸線且與水平面垂直的平面與彈丸邊界相角的兩個頂點,這兩點空間坐標由立體視覺方法確定。設其坐標為A(xA,yA,zA)、B(xB,yB,zB),C點為A、B兩點的中點,其坐標由A、B點坐標中值計算得到C(xC,yC,zC),O為彈丸近似形心,設其坐標由立體視覺方法確定,并將其設為彈體坐標系的原點。因此OC連線與彈體坐標系平面XOZ的夾角滿足:
(1)
因此有
(2)
式(2)中θ為彈丸中線與水平面的夾角,即落角。
3.2 彈丸落速的求取
彈丸落速是指彈丸與靶接觸瞬間的速度或者彈丸爆炸前的瞬時速度。彈丸落速的求取可通過相鄰兩幀圖像中彈丸形心移動距離除以幀間時間獲得。
(3)
其中,ΔD為相鄰兩幀圖像間彈丸形心的移動距離,ΔT為相鄰兩幀圖像的間隔時間。
為了獲取彈丸的實際落速,需要將圖上距離轉換為實際距離,由于視頻中所獲取的每一幀圖像都對應著實際物理空間的一個四邊形區(qū)域,可以通過光學投影變換和圖像配準,形成視頻圖像與物理空間之間的投影變換矩陣M,進而可以得出彈丸投影模型[7]:
(4)
其中,(x,y,z)為物理空間上的坐標,(u,v,1)為視頻圖像上彈丸像素點的位置坐標。
圖2 光學投影變換模型
彈丸投影變換模型如圖2所示。
要計算視頻圖像中彈丸在物理空間上的對應位置,需知道視頻圖像坐標系到物理空間地理坐標系之間的投影變換矩陣,即式(4)中的M。矩陣M的具體表示為
(5)
投影變換矩陣中m1~m9的確定方法是,通過在視頻圖像和物理空間上分別選定一對參考點,可確定投影變換矩陣中的參數(shù),通過選取多個參考點,可以將全部參數(shù)確定。之后即可用式(4)計算出視頻圖像中任意像素點在物理空間上的匹配點坐標。
3.3 炸目距離求取
炸目距離是指彈丸爆炸時距目標的距離。當彈丸爆炸時會產生強光和大量煙霧,因此彈丸爆炸時視頻圖像在爆炸位置相對于背景圖像有較高的亮度,從而確定了彈丸爆炸時所在的視頻幀,根據(jù)前一幀彈丸的形心位置和彈丸速度推算爆炸時刻彈丸在圖像中的位置,再利用投影變換原理,計算出彈丸實際位置,從而得到炸目距離為
(6)
其中,(xD,yD,zD)為彈丸坐標,(xM,yM,zM)為目標坐標,目標坐標為已知。
本文采用VC2010和OpenCV2.2為軟件開發(fā)平臺,設計了求取彈丸終點參數(shù)的系統(tǒng)仿真。系統(tǒng)設計流程如圖3所示。
圖3 彈丸終點參數(shù)獲取流程圖
運用該仿真系統(tǒng)對視頻中彈丸飛行參數(shù)進行了計算,計算結果如圖4所示。
圖4 仿真界面
由于保密要求,無法獲得火炮彈丸動爆實驗視頻,因此本文采用網上下載的高速攝影視頻來驗證方法的正確性。所用視頻為子彈擊中目標的過程,本系統(tǒng)實時計算子彈的姿態(tài)、速度、彈目距離等參數(shù),當判斷出子彈與目標相接觸或爆炸時,記錄此時彈丸各項參數(shù),即為彈丸終點參數(shù)。
圖4為子彈接觸目標前一時刻的圖像,由于子彈接觸目標時彈頭微向上,根據(jù)定義落角為負值,即θ=-14.62°,子彈飛行速度為vc=895.63m/s,彈目距離為DDM=0.01m。而該視頻子彈實際飛行速度為900m/s,由此可見,本文算法切實可行,且精度較高。
本文方法利用了減背景法提取目標位置準確、速度快、運算量低的優(yōu)點提取目標區(qū)域,改進了背景更新模式,提高了其對環(huán)境的適應性,并利用彈丸外形特點和光學投影變換模型給出了彈丸終點參數(shù)的計算方法。本文直接通過彈目交匯視頻提取彈丸終點參數(shù),比彈道解算獲取的終點參數(shù)準確度高,系統(tǒng)簡便,運算速度快,為靶場測量彈丸終點參數(shù)提供了一種新途徑。
另外,本文的研究成果為基于高速攝影的彈藥動態(tài)毀傷試驗技術提供關鍵技術支撐,還可以應用于各種彈藥飛行姿態(tài)的測量及炮口初速、姿態(tài)等初始狀態(tài)的測量問題。
[1] 武頻,趙潤祥,譚俊杰,等.滑翔增程彈氣動特性分析[J].彈道學報,2001(4):38-41.
[2] 韓子鵬,等.彈箭外彈道學[M].北京:北京理工大學出版社,2008:1-256.
[3] 慈明森,柯言.理想爆炸成形彈丸終點彈道的數(shù)值模擬和實驗模擬[J].彈箭技術,1994(2):43-48.
[4] 安長星,郝博.彈丸速度與彈道傾角之間的近似公式[J].沈陽工業(yè)學院學報,2003,22(2):73-75.
[5] 馮志遠.天幕靶測量速度矢量[C]//長春,2008:107-108.
[6] 王沛.落速測量雷達技術研究[D].南京:南京理工大學,2008:8-16.
[7] 羅麗莉,秦晅.基于視頻圖像序列的動目標跟蹤定位技術研究[J].指揮信息系統(tǒng)與技術,2010,1(3):70-73.
[8] 方帥,薛方正,徐心和.基于背景建模的動態(tài)目標檢測算法的研究與仿真[J].系統(tǒng)仿真學報,2005,17(1):159-165.
[9] 蘇禮坤,黃繼紅.基于幀間差分的彩色視頻背景提取[J].成都信息工程學院學報,2010,25(2):167-171.
[10] 龐羽佳,王向軍.利用立體視覺交匯測量方法進行靶場彈落點探測的誤差分析[J].計量技術,2004(5):13-15.
Projectile Terminal Parameter Estimation Based on Video
CAO Lijing LIU Yuwen
(Army Officer Academy, Hefei 230031)
Aiming at the problems of projectile explosion experiment difficult organization and system complexity, a new method for computing projectile terminal parameters based on video is advanced in this paper. The method simplifies the complicated measuring system platform for projectile explosion experiment, instead that, the projectile terminal parameters are extracted from its position and attitude in the video image. An improved background subtraction is used to locate and track target in the paper, and the projectile attitude can be ascertained by its verge, then the real position and attitude of the target are figured out according to projection transformation theory. Lastly, a simulation system is designed by using VC2010 and OpenCV2.2. Result shows that the method practices well, runs fast, computes accuracy, etc.
projectile terminal parameter, background subtraction, projection transformation, system simulation
2014年10月1日,
2014年11月20日
曹麗靜,女,碩士,講師,研究方向:圖像拼接、運動目標識別。劉玉文,男,博士,教授,碩士生導師,研究方向:彈道、氣象等。
TP391.9
10.3969/j.issn1672-9730.2015.04.035