張春曉 林招榮 姚毅剛
(北京空間機(jī)電研究所,北京 100190)
視覺信息輔助無人機(jī)偵察目標(biāo)定位技術(shù)研究進(jìn)展
張春曉 林招榮 姚毅剛
(北京空間機(jī)電研究所,北京 100190)
傳統(tǒng)無人機(jī)偵察目標(biāo)定位受限于平臺、位姿量測設(shè)備性能的影響,定位精度提升有限。隨著光學(xué)傳感器性能的完善、先進(jìn)視覺信息處理技術(shù)的發(fā)展,在無人機(jī)偵察目標(biāo)定位領(lǐng)域引入視覺信息分析對提升地面目標(biāo)定位精度,降低系統(tǒng)復(fù)雜度和成本有積極意義。文章分別介紹了基于先驗(yàn)知識的視覺輔助目標(biāo)定位方法和無先驗(yàn)知識的視覺輔助目標(biāo)定位方法的研究進(jìn)展,闡述了視覺處理的關(guān)鍵環(huán)節(jié),并從定位精度、影響因素、系統(tǒng)復(fù)雜度、使用要求等方面對比分析了兩類方法的優(yōu)缺點(diǎn)。最后,結(jié)合當(dāng)前國際上無人機(jī)產(chǎn)業(yè)發(fā)展趨勢,針對中國無人機(jī)偵察目標(biāo)定位的現(xiàn)狀,給出了視覺信息在助力目標(biāo)定位領(lǐng)域的技術(shù)發(fā)展策略和應(yīng)用前景,為國內(nèi)無人機(jī)光電偵察目標(biāo)定位系統(tǒng)研制提供了新思路、新方法。
無人機(jī) 目標(biāo)定位 視覺導(dǎo)航 地理配準(zhǔn)
隨著無人機(jī)在軍用領(lǐng)域的廣泛應(yīng)用,無人機(jī)光電偵察與衛(wèi)星偵察相比,具有低成本、高效費(fèi)比、高分辨率、偵察區(qū)域靈活的特點(diǎn);與有人機(jī)相比,有危險(xiǎn)小、適應(yīng)性強(qiáng)等特點(diǎn),已成為衛(wèi)星偵察、有人機(jī)偵察的重要補(bǔ)充與增強(qiáng)手段。無人機(jī)偵察任務(wù)系統(tǒng)包括機(jī)載任務(wù)系統(tǒng)和地面控制站兩部分。無人機(jī)傳輸過來的偵察信息、導(dǎo)航遙測數(shù)據(jù)以及部分控制指令均在地面控制站接收和發(fā)送。機(jī)載任務(wù)系統(tǒng)通常由機(jī)載信息處理器、偵察傳感器、導(dǎo)航系統(tǒng)、無線數(shù)傳系統(tǒng)等部分組成,以實(shí)現(xiàn)超視距環(huán)境目標(biāo)信息的獲取、處理及收發(fā)。由于無人機(jī)的尺寸和功耗限制了其有效載荷能力,光電載荷相較激光、聲納等主動(dòng)探測傳感器更為輕便,而且提供了完成環(huán)境精確感知所需的豐富視覺信息。隨著先進(jìn)視覺處理技術(shù)的發(fā)展,光電載荷已在無人機(jī)自主定位、偵察目標(biāo)精確定位方面發(fā)揮日益重要的作用,從多個(gè)層面突破傳統(tǒng)目標(biāo)定位系統(tǒng)對定位性能的諸多限制。
作為無人機(jī)偵察的一項(xiàng)重要任務(wù),傳統(tǒng)地面目標(biāo)定位方法通常是在大地坐標(biāo)系下,經(jīng)歷無人機(jī)平臺、穩(wěn)定平臺、載荷平臺等一系列坐標(biāo)轉(zhuǎn)換,得到像點(diǎn)對應(yīng)目標(biāo)的空間地理位置[1]。定位精度依賴平臺和任務(wù)載荷的量測精度,受光學(xué)系統(tǒng)、機(jī)械框架、控制系統(tǒng)、安裝對準(zhǔn)、減震器、無人機(jī)導(dǎo)航系統(tǒng)等裝置性能的影響,定位誤差較大。引入視覺信息分析對提升地面目標(biāo)定位精度,降低系統(tǒng)復(fù)雜度和成本有積極意義。綜合利用先進(jìn)的傳感器技術(shù)、圖像處理技術(shù)、模式識別技術(shù)、機(jī)器學(xué)習(xí)技術(shù),不僅可執(zhí)行地面目標(biāo)判定、位置測算、運(yùn)動(dòng)監(jiān)測等目標(biāo)識別與跟蹤任務(wù),還可輔助導(dǎo)航系統(tǒng)定位飛行狀態(tài)、指導(dǎo)飛行路徑規(guī)劃、感知環(huán)境、測定目標(biāo)方位。與傳統(tǒng)定位方法比較,除了具有功耗低、體積小等優(yōu)勢外,它更有可能在低成本低精度的測姿定位裝置下,抗衡由于采用低成本微機(jī)械器件而存在的較大漂移誤差,實(shí)現(xiàn)可靠地(近)實(shí)時(shí)定位解算,代表了目前光電偵察定位領(lǐng)域的研究趨勢。
根據(jù)視覺信息分析過程中是否以先驗(yàn)信息為參考,可以分成基于先驗(yàn)知識的視覺輔助目標(biāo)定位方法和無先驗(yàn)知識的視覺輔助目標(biāo)定位方法。先驗(yàn)知識通常表征為多種形式的地圖,前者通過與其配準(zhǔn)實(shí)現(xiàn)絕對定位,理想情況下定位精度可達(dá)地圖級;后者依賴對運(yùn)動(dòng)過程視覺信息變化的捕捉,執(zhí)行相對定位,可與具有絕對定位能力的系統(tǒng)融合處理,提升絕對定位精度。本文將立足視覺信息在提升無人機(jī)目標(biāo)定位性能方面的應(yīng)用,就上述兩類方法展開論述,重點(diǎn)闡述了涉及的關(guān)鍵技術(shù)及研究現(xiàn)狀,并給出了兩類方法的比較分析,最后結(jié)合無人機(jī)產(chǎn)業(yè)發(fā)展趨勢給出了視覺信息在助力目標(biāo)定位領(lǐng)域的技術(shù)發(fā)展策略和應(yīng)用前景。
先驗(yàn)知識是在執(zhí)行目標(biāo)偵察定位之前,所獲得的目標(biāo)區(qū)域環(huán)境信息的統(tǒng)稱,它可以是具有準(zhǔn)確度量信息的高精度數(shù)字地圖(衛(wèi)星、航空影像圖)等反映環(huán)境輻射特性的2D地圖,也可以是具有準(zhǔn)確度量信息的地形圖等反映環(huán)境幾何特性的3D地圖,以及這兩者的結(jié)合;還可以是由視覺特征(原始圖像、圖像特征)按一定拓?fù)浣Y(jié)構(gòu)的圖形化表示。
基于先驗(yàn)知識的視覺輔助目標(biāo)定位就是要通過當(dāng)前的視覺信息與帶空間位置信息的先驗(yàn)知識兩者間的匹配,獲得對當(dāng)前無論是載荷位置還是地面目標(biāo)的空間方位信息。因此,目標(biāo)定位的精度受先驗(yàn)知識的空間位置精度及匹配精度的影響。由于當(dāng)前視覺信息的采集平臺大多情況下不同于先驗(yàn)知識的獲取手段,采用的傳感器不同、拍攝的地點(diǎn)角度不同,而不同時(shí)刻環(huán)境變化也會帶來成像差異,均增加匹配難度。提升多時(shí)相、多源數(shù)據(jù)配準(zhǔn)精度是改善此類方法目標(biāo)定位精度的關(guān)鍵,在下面具體方法的描述中會進(jìn)一步介紹。
1.1 基于2D/3D度量地圖的視覺輔助目標(biāo)定位
常規(guī)思路是先尋找航拍圖片和2D/3D衛(wèi)星影像地圖的同名點(diǎn),然后解算航拍圖片到衛(wèi)星影像的映射關(guān)系,最后得到航拍圖片上目標(biāo)的地理坐標(biāo)。在無人機(jī)航拍領(lǐng)域,單應(yīng)陣模型描述平面到平面的投影關(guān)系,它忽略地表起伏,將其視為一平面成像,利用不少于3個(gè)的同名點(diǎn)求解3×3的單應(yīng)陣,完成從航拍圖片到衛(wèi)星影像的映射,即獲得所有像元對應(yīng)的地理坐標(biāo)。而投影變換模型能夠真實(shí)反映成像關(guān)系,需要至少4個(gè)已知高程的同名點(diǎn)解算3×4投影矩陣完成映射,在數(shù)字高程模型(Digital Elevation Model,DEM)下能準(zhǔn)確完成航拍圖片的正射化,應(yīng)對地表起伏變換。
由于航拍圖片畫幅小,包含的特征很有限,而無人機(jī)低空攝影時(shí)地面景物側(cè)面信息也會對匹配產(chǎn)生干擾,增加了同名點(diǎn)確定的難度,因此,具有某類不變性的特征檢測方法得到廣泛使用,包括SIFT(Scale-Invariant Feature Transform)特征點(diǎn)[2-4]、SURF(Speed-Up Robust Features)特征點(diǎn)[5]、基于邊界的霍夫變換、傅立葉形狀描述符、基于幾何的形狀度量、基于統(tǒng)計(jì)的不變矩、基于形態(tài)學(xué)的骨架描述等。SIFT對尺度、旋轉(zhuǎn)、部分光照、視角變化有魯棒性,成為特征檢測領(lǐng)域的焦點(diǎn)之一,涌現(xiàn)了許多改進(jìn)版本。文獻(xiàn)[6]提出了仿射不變SIFT,利用KD-tree的數(shù)據(jù)結(jié)構(gòu)加速匹配過程的鄰域搜索;文獻(xiàn)[7-8]分別從不同的角度闡述了投影不變SIFT,對于存在嚴(yán)重投影變換的情況表現(xiàn)更好。例如,在低空寬基線航拍,場景的深度變化相比較航高不能忽略時(shí),投影不變SIFT顯示了更優(yōu)越的性能。
只要同名點(diǎn)正確,這類基于2D/3D影像地圖的定位將接近地圖同級的精度水平。文獻(xiàn)[9]借鑒測繪中通用的光束平差法思想,在初始指定了若干地面控制點(diǎn)后,采用區(qū)域光束平差自動(dòng)獲得后續(xù)同名點(diǎn)時(shí)進(jìn)行了自標(biāo)定,并引入DEM模型對高度進(jìn)行了插值,完成對航拍視頻的近實(shí)時(shí)正射化,誤差在1~2像元。文獻(xiàn)[10]采用類似的想法,利用GPS(Global Positioning System)/INS(Inertial Navigation System)的數(shù)據(jù)進(jìn)行初始地理配準(zhǔn),實(shí)現(xiàn)了動(dòng)態(tài)目標(biāo)的運(yùn)動(dòng)軌跡的地理標(biāo)注。
對于特征點(diǎn)提取困難的紋理區(qū)域,基于區(qū)域統(tǒng)計(jì)特性的互信息是一種對噪聲不敏感的多模配準(zhǔn)的有效方法,文獻(xiàn)[11]利用互信息解算航拍圖片到衛(wèi)星影像的映射關(guān)系,為了減少陷入局部極值的可能性,文中將迭代初值選為Hi,i-1Hi-1,map,其中Hi-1,map是前一幀i-1到衛(wèi)星影像的單應(yīng)陣,Hi,i-1是后一幀i到前一幀的單應(yīng)陣,這樣利用互信息去糾正不斷累積的誤差,完成遞推式的地理配準(zhǔn)。
對于僅利用DEM模型進(jìn)行匹配的定位方法,它不受植被四季變化、光照變化的影響,定位穩(wěn)定,但因忽略紋理信息,且DEM精度較低,定位精度受限,更適宜大場景的粗定位。文獻(xiàn)[12]在紅外全景圖中利用動(dòng)態(tài)規(guī)劃分割提取天際線和DEM模型進(jìn)行匹配,以此估計(jì)相機(jī)的姿態(tài)和位置,實(shí)現(xiàn)在地圖的映射。文獻(xiàn)[13]針對山區(qū)地形,提出了基于DEM的大場景定位方法,提取山區(qū)天際線并在DEM數(shù)據(jù)庫中查找與之對應(yīng)的變換,可在4×104km2內(nèi)單幀定位誤差在1km以內(nèi),平均計(jì)算時(shí)間低于10s。
1.2 基于拓?fù)涞貓D的視覺輔助目標(biāo)定位
拓?fù)涞貓D是環(huán)境的基于圖形的表示。每個(gè)節(jié)點(diǎn)對應(yīng)一個(gè)特征或環(huán)境區(qū)域(表征為圖片或是3D點(diǎn)云等),如果加入具有全局參考位置的地標(biāo)、節(jié)點(diǎn)間關(guān)聯(lián)方位信息,則可用于絕對地理定位,如果沒有引用任何坐標(biāo)系測量空間、節(jié)點(diǎn)間關(guān)聯(lián)運(yùn)動(dòng)等鄰里關(guān)系,則可用于長途定性導(dǎo)航、路徑規(guī)劃。拓?fù)涞貓D簡單、緊湊,占用計(jì)算機(jī)內(nèi)存少,一般分成兩個(gè)過程:在訓(xùn)練階段,環(huán)境的圖像或特征被記錄和存儲為模型模板。模型被標(biāo)以一定的定位信息,甚至關(guān)聯(lián)一個(gè)運(yùn)動(dòng)狀態(tài);在定位階段,通過當(dāng)前在線圖像和存儲模板的匹配,識別環(huán)境和自定位。因此,創(chuàng)建環(huán)境表示的合適算法,定義在線匹配準(zhǔn)則是其中的關(guān)鍵。
文獻(xiàn)[14]使用一個(gè)全方位攝像機(jī),在訓(xùn)練階段創(chuàng)建了一個(gè)拓?fù)涞貓D,由特征地點(diǎn)的圖像構(gòu)成拓?fù)涞貓D的節(jié)點(diǎn),兩個(gè)節(jié)點(diǎn)之間的連續(xù)圖像序列組成拓?fù)涞貓D的邊。定位時(shí),將在線圖像投射到由圖像訓(xùn)練集的協(xié)方差矩陣定義的特征空間,以匹配在線圖像與先前記錄的圖像來確定位置。文獻(xiàn)[15]構(gòu)建的拓?fù)涞貓D,其邊表達(dá)了從一個(gè)場景到另一個(gè)場景運(yùn)動(dòng)可能性,偵察時(shí),跟蹤地標(biāo)并始終將其保持在視野內(nèi)。文獻(xiàn)[16]設(shè)計(jì)了一種支持向量機(jī)定位架構(gòu),使用全景圖像,定位過程包括兩個(gè)階段:特征或物體學(xué)習(xí)、識別和分類階段,基于前面特征分類的場景定位學(xué)習(xí)階段;全景圖像顯著改善了學(xué)習(xí)、匹配和定位過程。將定位視為場景分類問題也是一種粗定位策略,先構(gòu)造視覺詞匯表征訓(xùn)練圖像中頻繁出現(xiàn)的局部紋理,計(jì)算每幅圖包含詞匯的特征描述(如直方圖),并用空間金字塔表示(也有用詞匯樹表示的),然后建立學(xué)習(xí)機(jī)制,設(shè)計(jì)分類器,利用圖匹配或圖聚類的方式確定在線圖像所在的場景位置[17]。上述定位方法是定性的,因?yàn)樗鼉H確定觀測區(qū)域附近的一個(gè)節(jié)點(diǎn),而不是給出確切的世界坐標(biāo)。對于視覺特征豐富的城市區(qū)域,通過上述方法找到最佳匹配來實(shí)現(xiàn)粗略定位后,可進(jìn)一步通過若干匹配特征點(diǎn)的準(zhǔn)確空間位置推算當(dāng)前觀測點(diǎn)與目標(biāo)的精確位置。
由上面的分析可知,基于拓?fù)涞貓D的方法在實(shí)現(xiàn)快速粗定位上更具優(yōu)勢,特別適用于執(zhí)行明確航線路徑(已記錄沿線豐富地標(biāo))的偵察任務(wù);而基于DEM模型的定位方法則適于宏觀上具有明顯地形起伏區(qū)域的粗定位;對于精確定位,基于衛(wèi)星影像地圖的方法由于執(zhí)行更加細(xì)致紋理信息的匹配,更易達(dá)到好的效果,但匹配速度是制約實(shí)時(shí)性的關(guān)鍵因素。
在現(xiàn)代語文課程教學(xué)期間,利用現(xiàn)代化的技術(shù)手段是極為常見的。一般的教學(xué)策略研究的實(shí)踐作用不佳,閱讀與寫作教學(xué)期間需要加強(qiáng)實(shí)踐引導(dǎo),根據(jù)不同的閱讀資料讓學(xué)生開展寫作實(shí)踐練習(xí),是將閱讀水平與寫作水平共同提升的方法。為了將學(xué)生的學(xué)習(xí)視野拓展,教師可以利用多媒體技術(shù)進(jìn)行課程教學(xué)引導(dǎo),對計(jì)算機(jī)技術(shù)、互聯(lián)網(wǎng)技術(shù)掌握之后,建立高質(zhì)量的網(wǎng)絡(luò)貨多功能平臺,能夠?qū)①Y源的整合效果與學(xué)生學(xué)習(xí)質(zhì)量有效提升。尤其是對一些深層次的、抽象化的閱讀知識內(nèi)容,教師利用多媒體能夠給學(xué)生提供一個(gè)具象學(xué)習(xí)的機(jī)會,在課堂中經(jīng)過拓展性的閱讀與寫作訓(xùn)練,能夠更好的完成學(xué)習(xí)目標(biāo)。
無先驗(yàn)知識的視覺輔助目標(biāo)定位主要是通過追蹤視覺特征的變化推算相機(jī)、目標(biāo)的空間相對位置變化。相鄰幀間特征的穩(wěn)定性、匹配的唯一性、運(yùn)動(dòng)模型的真實(shí)性直接影響了相對定位的精度。因此,特征提取要對相鄰幀間光照變化、視角變化引起的成像差異具有魯棒性,可以考慮提高幀頻,也可以選取先進(jìn)特征提取方法,而反映運(yùn)動(dòng)變化的特征可以是特征點(diǎn)(例如建立在相關(guān)運(yùn)算上的光流),也可以是特征區(qū)域(例如各種運(yùn)動(dòng)模型下的物體幾何輪廓變化)。而運(yùn)動(dòng)模型要盡可能反映實(shí)際運(yùn)動(dòng)狀態(tài),可以利用先進(jìn)濾波算法融合位姿傳感器的量測值,從而獲得精確的運(yùn)動(dòng)狀態(tài)估計(jì),推算得到目標(biāo)的真實(shí)方位。
2.1 基于光流的視覺輔助目標(biāo)定位
光流(Optical Flow)可大致反映圖像序列特征的運(yùn)動(dòng)特性,表征相鄰幀特征的平移或旋轉(zhuǎn)方向和運(yùn)動(dòng)量,通常對每一個(gè)像元都有一個(gè)向量表示,其范數(shù)取決于運(yùn)動(dòng)速度,其方向代表了相鄰幀中對應(yīng)像元的運(yùn)動(dòng)方向。因?yàn)楣饬骺梢哉故緢鼍暗亩ㄐ蕴卣?,這些特征很難從單幀低品質(zhì)圖像提取,它已廣泛應(yīng)用于無人機(jī)的智能避障、視覺導(dǎo)航、目標(biāo)運(yùn)動(dòng)識別,以及運(yùn)動(dòng)估計(jì)、視頻壓縮、視角插值等方面。
光流計(jì)算基于以下假設(shè):亮度/紋理為常數(shù),只有物體運(yùn)動(dòng)引起的亮度和紋理變化;空間平滑過渡,運(yùn)動(dòng)在像元鄰域是均勻的;小范圍運(yùn)動(dòng),視頻較運(yùn)動(dòng)足夠快,圖像運(yùn)動(dòng)可視為連續(xù)過程。常用的Lucas-Kanade光流法是基于局部能量最優(yōu)的微分方法,對噪聲不敏感,但不能產(chǎn)生稠密光流。而Horn-Schunck光流法,基于全局能量最小的微分方法,能產(chǎn)生稠密光流,但對噪聲敏感,也有文獻(xiàn)結(jié)合慣性導(dǎo)航(INS)數(shù)據(jù)的塊匹配法用于小型UAV光流計(jì)算[18]。文獻(xiàn)[19]中使用170度視場角的Gopro相機(jī),圖像尺寸1 920像元×1 080像元,幀頻30Hz,比較了光流和GPS/INS的結(jié)果,當(dāng)有足夠特征時(shí),兩者定位精度基本相當(dāng),證明了光流定位的有效性。
由于實(shí)際情況往往和上述假設(shè)不符,從光流解算旋轉(zhuǎn)/平移速度和距離信息存在視覺誤差,特別是在不知道場景深度信息下,從多運(yùn)動(dòng)混迭的光流中分解出旋轉(zhuǎn)和平移運(yùn)動(dòng)難度很大。文獻(xiàn)[20]用標(biāo)準(zhǔn)環(huán)境測試了不同運(yùn)動(dòng)(三個(gè)不同方向)下光流的表征,用其作為模板可較好分解平移和旋轉(zhuǎn)運(yùn)動(dòng),同時(shí)為了簡化光流計(jì)算,文中還給出了獨(dú)特的反射鏡面設(shè)計(jì)。用場景先驗(yàn)知識輔助去混迭也是一種有效手段。對于航拍圖片,考慮到場景主要由地面和與地面垂直的平面組成,而且地面通常所占區(qū)域更多,光流表征呈現(xiàn)特殊性。文獻(xiàn)[21]用光流向量任意三點(diǎn)確定主平面,一旦在某幀時(shí)測出主平面,其它后續(xù)幀只需要繼承就行,由主平面可進(jìn)行自運(yùn)動(dòng)分析。文獻(xiàn)[22]通過光流計(jì)算出各小區(qū)域的法向量,生長融合更新平面法向量,然后進(jìn)行垂直地面和地面的兩分類,獲得地面區(qū)域。
融合其它位姿數(shù)據(jù)也可有效消除混迭。通過系統(tǒng)標(biāo)定后,光流與INS、激光測距融合后可用于速度、方向、距離估計(jì),甚至是短距離的無GPS導(dǎo)航。文獻(xiàn)[23]用擴(kuò)展卡爾曼濾波(Extended Kalman Filter,EKF)把立體OF(Agilent adns-2051,1500幀頻)和IMU(3DM-GX1)融合,有效抑制了慣性測量裝置漂移,姿態(tài)角、速度和位置輸出精度更高。文獻(xiàn)[24]提出一種自動(dòng)在線標(biāo)定INS和相機(jī)的方法,將兩者安裝誤差、非同步誤差近似為小的糾偏角輸入到角度估計(jì)中,經(jīng)試驗(yàn)證明融合后計(jì)算稠密光流比單純的光流和塊匹配方法要好,精度可達(dá)亞像元;文獻(xiàn)[25]利用EKF結(jié)合圖像熵直接計(jì)算三個(gè)方向運(yùn)動(dòng)位移。文獻(xiàn)[26]通過識別跟蹤環(huán)境的視覺特征進(jìn)行自運(yùn)動(dòng)分析,然后卡爾曼濾波(Kalman Filter ,KF)融合光流和慣性量測,以確定距離,估計(jì)位置和速度;文獻(xiàn)[27]提出了一個(gè)系統(tǒng)包括:自駕儀(GPS、IMU、壓力計(jì)、磁力計(jì))、掃描式激光測距(水平深度測量)、聲納高度計(jì)、兩個(gè)相機(jī)(其中一個(gè)下視測光流速度),光流是用Shi-Tomas檢測特征后用OpenCV(Open Source Computer Vision)的光流計(jì)算LK(Lucas-Kanade)方法得到。針對IMU經(jīng)過5~30s誤差累積導(dǎo)致漂移嚴(yán)重的問題,使用ARDrone 2.0硬件支持的下視光流相機(jī)作為視覺里程儀,利用EKF融合里程儀度量和環(huán)境地圖(由激光測距數(shù)據(jù)經(jīng)粒子濾波得到)進(jìn)行定位,精度可達(dá)米級。
此外,增加幀頻有利于滿足光流假設(shè)條件,由于降低了運(yùn)動(dòng)模糊、幀間運(yùn)動(dòng)量、亮度差異,更符合連續(xù)時(shí)間模型,減少對其它位姿數(shù)據(jù)的依賴。文獻(xiàn)[28]在無相機(jī)標(biāo)定下,利用高幀頻BF(Basis Flow)計(jì)算出空時(shí)圖像梯度,在KF框架下分離出了獨(dú)立于場景的旋轉(zhuǎn)光流以及與場景相關(guān)的平移光流(由此推知深度圖),從而準(zhǔn)確預(yù)估相機(jī)的位姿。
2.2 基于特征跟蹤的視覺輔助目標(biāo)定位
基于特征跟蹤的目標(biāo)定位主要包括兩個(gè)子問題:1)運(yùn)動(dòng)檢測(運(yùn)動(dòng)模型估計(jì)),給定被跟蹤的特征,在下一幀中識別出特征可能出現(xiàn)的區(qū)域;2)特征匹配,在區(qū)域中找到匹配的特征。當(dāng)無人機(jī)高速飛行時(shí),必須減少處理時(shí)間,同時(shí)增強(qiáng)跟蹤的準(zhǔn)確度,這就要求快速獲得準(zhǔn)確的運(yùn)動(dòng)模型,并可對后續(xù)幀的特征位置準(zhǔn)確預(yù)估。
單應(yīng)陣模型是常用的無人機(jī)航拍運(yùn)動(dòng)模型。文獻(xiàn)[29]提出一種新的圖像跟蹤策略,計(jì)算和使用單應(yīng)性矩陣補(bǔ)償無人機(jī)運(yùn)動(dòng),并檢測對象;文獻(xiàn)[30]采用KLT(Kanade-Lucas-Tomasi)特征,并用TLS(Total Least Squares)估計(jì)兩幀間單應(yīng)陣,用多視角約束降低累積誤差;文獻(xiàn)[31]則由匹配點(diǎn)集估計(jì)了一組單應(yīng)陣,并采用概率模型對每個(gè)單應(yīng)陣打分,選擇得分最高的單應(yīng)陣,保證在容許誤差a下,至少b%的匹配點(diǎn)滿足該變換;文獻(xiàn)[32]求解出視差圖(深度圖),進(jìn)行分層式的單應(yīng)陣估計(jì),盡量避免不同深度同名點(diǎn)對單應(yīng)陣模型求解精度的影響;文獻(xiàn)[33]相比較傳統(tǒng)幀幀匹配的誤差累積,采用了拉普拉斯特征映射連接特征點(diǎn),并引入相似性和空間幾何約束,獲得最優(yōu)超平面的同時(shí),解算出多幀間的單應(yīng)陣關(guān)系,但由于是一個(gè)迭代求解過程,計(jì)算復(fù)雜。
引入濾波算法的運(yùn)動(dòng)預(yù)測可以更準(zhǔn)確地反映實(shí)際運(yùn)動(dòng)狀態(tài)。文獻(xiàn)[34]將特征跟蹤與GPS定位算法融合,使用了圖像分割、二值化操作識別預(yù)定義的特征,如房子窗戶,并采用基于KF算法匹配和跟蹤這些窗戶,完成直升機(jī)AVATAR的自動(dòng)導(dǎo)航定位;文獻(xiàn)[35]融合GPS/IMU及同名點(diǎn)信息,聯(lián)合EKF和無跡濾波(Unscented Kalman Filter,UKF)去更新單應(yīng)陣模型;為了降低累積誤差,文獻(xiàn)[36]安排航線重訪點(diǎn),采用EKF進(jìn)行閉環(huán)控制;文獻(xiàn)[37]對目標(biāo)環(huán)繞觀測,并采用了RLS濾波(Recursive Least Squares Filtering),吊艙標(biāo)定后的有偏估計(jì)、環(huán)繞路徑選擇、測風(fēng)等措施降低估計(jì)誤差,地理定位誤差小于5m;文獻(xiàn)[38]提出了一種KF融合了INS、視覺里程儀,并實(shí)現(xiàn)了機(jī)載視頻與衛(wèi)星影像配準(zhǔn)的視覺導(dǎo)航系統(tǒng),能有效應(yīng)對GPS失效、IMU漂移。表1列出了幾種主要濾波模型的各自特點(diǎn)。
表1 幾種主要濾波模型的特點(diǎn)Tab.1 Features of common filters
由上面的分析可知,這類無先驗(yàn)知識的定位方法通常要采用先進(jìn)的濾波方法實(shí)現(xiàn)對位姿變化狀態(tài)的跟蹤預(yù)測,因其良好的實(shí)時(shí)性,均可以融入自主導(dǎo)航、自主定位系統(tǒng)。光流作為一類特殊的稠密采樣特征,相比較基于特征跟蹤的方法,能更細(xì)致地捕捉瞬間運(yùn)動(dòng)變化,對于大機(jī)動(dòng)小型無人機(jī)表現(xiàn)出良好性能。
上述兩類視覺輔助目標(biāo)定位方法對比分析如表2。
表2 兩類視覺輔助目標(biāo)定位方法對比分析Tab.2 Comparison of two categories of visual aided target localization
基于先驗(yàn)知識的視覺輔助定位方法可實(shí)現(xiàn)高精度絕對定位,而且精度不受平臺及位姿傳感器精度的影響,但需要事先存儲大量先驗(yàn)知識,采用魯棒性匹配方法,通常匹配實(shí)時(shí)性較差,適合在地面景物特征豐富區(qū)域進(jìn)行下視偵察作業(yè)。無先驗(yàn)知識的視覺輔助定位方法可快速計(jì)算出相鄰幀的運(yùn)動(dòng)量,實(shí)現(xiàn)短時(shí)高精度相對定位,為控制隨時(shí)間誤差累積常與其它量測值進(jìn)行融合濾波處理,無需環(huán)境全局性表達(dá),存儲量小、實(shí)時(shí)性好,但不太適用執(zhí)行快速運(yùn)動(dòng)窄視場偵察。組合這兩類方法,可以實(shí)現(xiàn)優(yōu)勢互補(bǔ),在降低誤差累積的同時(shí),降低與數(shù)據(jù)庫的配準(zhǔn)難度,如采用地圖配準(zhǔn)與視覺里程儀相配合的策略,可提供快速高精度航拍定位。
目前,國內(nèi)無人機(jī)偵察基本上分成了基于飛行數(shù)據(jù)的定位方法和基于衛(wèi)星影像數(shù)據(jù)的定位方法。常規(guī)的單點(diǎn)定位、多點(diǎn)定位(包括無人機(jī)群協(xié)同定位)、誤差模型校正及補(bǔ)償?shù)确椒ň鶎儆谇罢?,這類方法多依賴平臺和任務(wù)載荷的量測精度,定位精度難以提高,但實(shí)時(shí)性好,主要用于視頻電視偵察,航拍影像中很少使用[39-40]。在消除誤差源方面,文獻(xiàn)[41]發(fā)現(xiàn)安裝了阻尼減震器后引入的載機(jī)與平臺相對角位移不能簡單等效為簡諧振動(dòng)或直接忽略,應(yīng)為影響定位精度的主要因素之一,為此,提出將慣導(dǎo)設(shè)備與平臺坐標(biāo)系固聯(lián),以徹底消除減震器帶來的誤差,使得平面定位精度提高了一倍,并節(jié)省了復(fù)雜的系統(tǒng)標(biāo)校過程。在構(gòu)建誤差模型方面,武漢大學(xué)孫開敏等人提出了一種動(dòng)態(tài)檢校與在線修訂方法,在原設(shè)定航線周圍找到一塊平坦且特征豐富的區(qū)域進(jìn)行兩條航線的檢校飛行,以有效消除系統(tǒng)誤差。文獻(xiàn)[42]提出將各誤差因素等效為成像高度H和光軸與Z軸夾角的簡單模型,采用監(jiān)督學(xué)習(xí)方法對定位誤差預(yù)測模型進(jìn)行訓(xùn)練,確定模型參數(shù),用于幾何校正的誤差補(bǔ)償,從而獲得精確的地理位置。
基于衛(wèi)星影像的定位方法作為一類特殊的視覺輔助定位方法已引起了高校學(xué)者的研究興趣。文獻(xiàn)[43]提出了基于地球剖分網(wǎng)格的數(shù)據(jù)組織模型用于解決無人機(jī)偵察數(shù)據(jù)存在的組織標(biāo)識多樣性、內(nèi)部信息索引困難、分塊規(guī)則不統(tǒng)一等問題。北京航空航天大學(xué)、國防科技大學(xué)、武漢大學(xué)、陸軍軍官學(xué)院等高校在無人機(jī)偵察元數(shù)據(jù)設(shè)計(jì)、偵察圖片與數(shù)據(jù)庫數(shù)據(jù)匹配、序列圖像跟蹤等方面均有一些成果。這類方法涉及到數(shù)據(jù)組織與處理的智能算法,代表了新的發(fā)展方向,更少地依賴硬件性能,可以達(dá)到更高的定位精度,但實(shí)時(shí)性限制了其實(shí)際應(yīng)用??傮w上,國內(nèi)在視覺輔助目標(biāo)定位技術(shù)研究剛剛起步,多限于實(shí)驗(yàn)室研究,與實(shí)際應(yīng)用還有相當(dāng)?shù)木嚯x。
近年來,無人機(jī)偵察任務(wù)需求日益廣泛,對無人機(jī)的小型化、智能化的要求越來越高。輕小型設(shè)計(jì)使得無人機(jī)較少使用高精度的穩(wěn)定平臺和導(dǎo)航設(shè)備,用傳統(tǒng)方法進(jìn)行目標(biāo)偵察難以獲得滿意的定位精度,而當(dāng)前光學(xué)傳感器的集成度、性能(如高分辨率、大視場等)都大幅提升,采集的視覺信息經(jīng)先進(jìn)圖像處理以提升目標(biāo)定位精度已取得了顯著成績,特別是無先驗(yàn)知識的視覺信息輔助目標(biāo)定位方法已涌現(xiàn)了大量應(yīng)用實(shí)例。隨著數(shù)據(jù)產(chǎn)業(yè)的發(fā)展,在地理信息數(shù)據(jù)庫組織、快速檢索方面的新成果也會推動(dòng)基于先驗(yàn)知識的方法在實(shí)時(shí)性方面的新突破。而兩類方法的大融合將發(fā)揮雙方的優(yōu)勢,促成在低精度導(dǎo)航設(shè)備條件下實(shí)時(shí)高精度目標(biāo)定位的最終實(shí)現(xiàn)。
因此,在無人機(jī)光電偵察目標(biāo)定位領(lǐng)域采用視覺信息智能處理已成為一種輔助傳統(tǒng)定位方法的有效手段,可在低成本低精度的測姿定位裝置下,通過現(xiàn)有貨架式產(chǎn)品及成熟技術(shù)的創(chuàng)新組合,實(shí)現(xiàn)可靠地(近)實(shí)時(shí)定位解算,代表了目前的研究趨勢。借鑒國外研究進(jìn)展,我們可以從以下方面開展新技術(shù)研究:
1)傳統(tǒng)定位方法結(jié)合基于學(xué)習(xí)機(jī)制的誤差控制。精確目標(biāo)定位就是要與各種誤差抗?fàn)幍倪^程,除了傳統(tǒng)的誤差源控制、在線檢校和多次測量平差外,機(jī)器學(xué)習(xí)也為誤差控制注入了新的活力。例如,采用機(jī)器學(xué)習(xí)的方法進(jìn)行訓(xùn)練完成在線檢校。通過機(jī)器學(xué)習(xí)提升整個(gè)定位系統(tǒng)的自主性、智能性,實(shí)現(xiàn)對誤差的校正及補(bǔ)償。
2)偵察數(shù)據(jù)與異源多時(shí)相遙感數(shù)據(jù)融合定位。不同傳感器的特性差異帶來了異源數(shù)據(jù),而不同時(shí)間對同一目標(biāo)的觀測構(gòu)成了多時(shí)相數(shù)據(jù),這些數(shù)據(jù)間存在信息量的差異和冗余,異源配準(zhǔn)依然是研究焦點(diǎn)之一,而合理的融合策略可以保障定位精度的提升,如非平等D-S證據(jù)融合理論可以幫助主從攝像機(jī)檢測器實(shí)現(xiàn)長時(shí)跟蹤定位,基于KF的視覺導(dǎo)航與其它量測信息組合定位,利用深度學(xué)習(xí)方法在基準(zhǔn)地圖中進(jìn)行相關(guān)數(shù)據(jù)的挖掘等等。
3)需求驅(qū)動(dòng)機(jī)載任務(wù)與地面控制合理布局。因?yàn)槟繕?biāo)實(shí)體的表征差異,帶來了不同的應(yīng)用需求,數(shù)據(jù)超載和處理實(shí)時(shí)性的矛盾是亟需解決的,合理的無人機(jī)偵察數(shù)據(jù)組織形式,搭配多核CPU、GPU協(xié)同處理構(gòu)架,實(shí)現(xiàn)以需求為驅(qū)動(dòng)的無人機(jī)偵察數(shù)據(jù)的目標(biāo)定位,從而達(dá)到機(jī)載和地面軟硬件處理能力的最優(yōu)組合,完成精確快速目標(biāo)定位。例如,機(jī)載處理器完成基于光流的相對定位計(jì)算,地面工作站完成對下傳航拍圖片的地理配準(zhǔn),協(xié)同作業(yè)實(shí)現(xiàn)實(shí)時(shí)精確定位。
總之,無人機(jī)目標(biāo)定位性能的提升(實(shí)時(shí)性和精確性)離不開先進(jìn)的信息處理技術(shù),視覺信息處理伴隨著機(jī)器學(xué)習(xí)、人工智能、大數(shù)據(jù)等領(lǐng)域不斷涌現(xiàn)的新技術(shù)、新思路,為目標(biāo)定位諸多關(guān)鍵問題的解決提供了新方案,并最終推動(dòng)了我國空中偵察監(jiān)視水平的提高。
References)
[1] 樊邦奎, 段連飛, 趙炳愛, 等. 無人機(jī)偵察目標(biāo)定位技術(shù)[M]. 北京: 國防工業(yè)出版社, 2014: 19-29. FAN Bangkui, DUAN Lianfei, ZHAO Bingai, et al. UAV Reconnaissance Target Location Technology [M]. Beijing: National Defense Industry Press, 2014: 19-29. (in Chinese)
[2] WAHED M, ELTAWELGS, ELKARIM A G. Automatic Image Registration Technique of Remote Sensing Images [J]. International Journal of Advanced Computer Science and Applications, 2013, 4(2): 177-187.
[3] NASIR H, STANKOVIC V, MARSHALL S. Image Registration for Super Resolution Using Scale Invariant Feature Transform, Belief Propagation, and Random Sampling Consensus[C]//18thEuropean Signal Processing Conference: Aalborg: EURASIP, 2010: 299-303.
[4] LIU Xiangzeng, TIAN Zheng, CHAI Chunyan, et al. Multiscale Registrations of Remote Sensing Image Using Robust SIFT Features in Steerable-domain[J]. The Egyptian Journal of Remote Sensing and Space Sciences, 2011, 14: 63-72.
[5] BAY H, ESS A, TUYTELAARS T, et al. Speeded-up Robust Features[J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.
[6] CAO B, MA C, LIU Z. Affine-invariant SIFT Descriptor with Global Context[C]//International Conference on Image and Signal Processing, IEEE, 2010, 1: 68-71. DOI:10.1109/CISP.2010.5647071.
[7] CAI Guorong, JODOIN P M, LI Shaozi, et al. Perspective-SIFT: An Efficient Tool for Low-altitude Remote Sensing Image Registration[J]. Signal Processing, 2013, 93(11): 3088-3110.
[8] LIU Wei, WANG Yongtian, CHEN Jing, et al. A Completely Affine Invariant Image-matching Method based on Perspective Projection[J]. Machine Vision & Applications, 2012, 23(2): 231-242.
[9] ZHOU Guoqing. Near Real-time Orthorectification and Mosaic of Small UAV Video Flow for Time-critical Event Response[J]. IEEE Transactions on Geoscience & Remote Sensing, 2009, 47(3): 739-747.
[10] SOLBRIG P, BULATOV D, MEIDOW J, et al. Online Annotation of Airborne Surveillance and Reconnaissance Videos[C]//IEEE 11th International Conference on Information Fusion, Cologne, Germany, 2008: 1-8.
[11] LIN Yuping, MEDIONI G. Map-enhanced UAV Image Sequence Registration and Synchronization of Multiple Image Sequences[C]//IEEE Conference on Computer Vision and Pattern Recognition, Minnesota, USA, 2007: 1-7.
[12] BAZIN J C, KWEON I, DEMONCEAUX C, et al. Dynamic Programming and Skyline Extraction in Catadioptric Infrared Images[C]//IEEE International Conference on Robotics and Automation, Kobe, Japan, 2009: 409-416. DOI:10.1109/ ROBOT.2009.5152262.
[13] BAATZ G, SAURER O, KOSER K, et al. Large Scale Visual Geo-localization of Images in Mountainous Terrain[C]//Proc. of European Conference on Computer Vision, Part II, LNCS 7573, 2012: 517-530.
[14] WINTERS N, SANTOS-VICTOR J. Omnidirectional Visual Navigation[C]//In Proc. of IEEE Int’l Symposium on IntelligentRobotic Systems (SIRS), 1999: 109-118.
[15] REMAZEILLES A, CHAUMETTE F, GROS P. 3D Navigation Based on a Visual Memory[C]//IEEE International Conference on Robotics & Automation (ICRA), 2006: 2719-2725. DOI:10.1109/ROBOT.2006.1642112.
[16] MORITA H, HILD M, MIURA J, et al. Panoramic View-based Navigation in Outdoor Environments Based on Support Vector Learning[C]//Intelligent Robots and Systems (IROS), IEEE, 2006: 2302-2307. DOI:10.1109/IROS.2006.282636.
[17] LAZEBNIK S, SCHMID C, PONCE J. Beyond Bags of Features: Spatial Pyramid Matching for Recognizing Natural Scene Categories[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR'06), IEEE, 2006, 2169-2178. DOI:10.1109/CVPR.2006.68.
[18] CHAO Haiyang, GU Yu, NAPOLITANO M. A Survey of Optical Flow Techniques for Robotics Navigation Applications[J]. Journal of Intelligent & Robotic Systems, 2014, 73(1/4): 361-372.
[19] PAN Chao, DENG He, YIN Xiaofang, et al. An Optical Flow-based Integrated Navigation System Inspired by Insect vision[J]. Biological Cybernetics, 2011, 105(3/4): 239-252.
[20] SOCCOL D, THURROWGOOD S, SRINIVASAN Y. A Vision System for Optic-flow-based Guidance of UAVs[C]// Proceedings of the Australasian Conference on Robotics & Automation Acra, Sydney, Australian Robotics and Automation Association (ARAA), 2007: 1-7.
[21] OHNISHIA N, IMIYAB A. Featureless Robot Navigation Using Optical Flow[J]. Connection Science, 2005, 17(1/2): 23-46.
[22] CUI Xuenan, KIM Y G, KIM H. Floor Segmentation by Computing Plane Normals from Image Motion Fields for Visual Navigation[J]. International Journal of Control, Automation and Systems, 2009, 7(5): 788-798.
[23] KIM J, BRAMBLEY G. Dual Optic-flow Integrated Navigation for Small-scale Flying Robots[C]//Proceedings of the Australasian Conference on Robotics & Automation Acra, 2007: 1-7.
[24] WOODS M, KATSAGGELOS A. Efficient Method for the Determination of Image Correspondence in Airborne Applications Using Inertial Sensors[J]. Journal of the Optical Society of America A Optics Image Science & Vision, 2013, 30(1): 102-110.
[25] WANG Zhonghua, DENG Chengzhi, PAN Chao, et al. A Visual Integrated Navigation for Precise Position Estimation[J]. Computers & Electrical Engineering, 2014, 40(3): 897-906.
[26] KENDOUL F, NONAMI K, FANTONI I, et al. An Adaptive Vision-based Autopilot for Mini Flying Machines Guidance, Navigation and Control[J]. Autonomous Robots, 2009, 27(3): 165-188.
[27] PESTANA J, MELLADO-BATALLER I, SANCHEZ-LOPEZ J L, et al. A General Purpose Configurable Controller for Indoors and Outdoors GPS-denied Navigation for Multirotor Unmanned Aerial Vehicles[J]. Journal of Intelligent & Robotic Systems, 2013, 73(1/4): 387-400. DOI: 10.1007/s10846-013-9953-0.
[28] SRINIVASAN N, ROBERTS R, DELLAERT F. High Frame Rate Egomotion Estimation[C]//Proceedings of the 9th International Conference on Computer Vision Systems, Springer, Berlin Heidelberg, 2013, 7963: 183-192.
[29] OLLERO A, FERRUZ J, CABALLERO F, et al. Motion Compensation and Object Detection for Autonomous Helicopter Visual Navigation in the COMETS System[C]//Proc. of IEEE Int’l Conf. on Robotics and Automation (ICRA), IEEE, 2014, 1(5): 19-24.
[30] FAN Baojie, DU Yingkui, TANG Yandong. Efficient Registration Algorithm for UAV Image Sequence[C]//Proceeding of the IEEE International Conference on Information and Automation, Shenzhen, IEEE, 2011: 111-116. DOI:10.1109/ ICINFA.2011.5948972.
[31] NIRANJAN S, GUPTA G, MUKERJEE A, et al. Efficient Registration of Aerial Image Sequences Without Camera Priors[C]//Asian Conference on Computer Vision-accv, Springer, Berlin Heidelberg, 2007, 4844: 394-403.
[32] YAHYANEJAD S, QUARITSCH M, RINNER B. Incremental, Orthorectified and Loop-independent Mosaicking of Aerial Images Taken by Micro UAVs[C]//IEEE International Symposium on Robotic & Sensor Environment. IEEE, 2011: 137-142. DOI:10.1109/ROSE.2011.6058531.
[33] LI Aixia, GUAN Zequn, GUAN Haiyan. Multi-overlapped Based Global Registration of UAV Images[C]//International Conference on Computer Vision in Remote Sensing (CVRS), IEEE, 2012: 105-109. DOI:10.1109/CVRS.2012.6421242.
[34] SARIPALLI S, SUKHATME G S, MEJIAS L O, et al. Detection and Tracking of External Features in an Urban Environment Using an Autonomous Helicopter[C]//Proc. of IEEE Int’l Conf. on Robotics and Automation (ICRA). IEEE, 2005: 3972-3977. DOI:10.1109/ROBOT.2005.1570728.
[35] WANG Yi, SCHULTZ R R, FEVIG R A. Sensor Fusion Method Using GPS/IMU Data for Fast UAV Surveillance Video Frame Registration[C]//IEEE International Conference on Acoustics, Speech, and Signal Processing. Washington DC, IEEE, 2009: 985-988. DOI:10.1109/ICASSP.2009.4959751.
[36] CABALLERO F, MERINOT L, FERRUZ J, et al. Homography Based Kalman Filter for Mosaic Building Applications to UAV Position Estimation[C]//2007 IEEE International Conference on Robotics and Automation Roma. Italy, IEEE, 2007: 2004-2009. DOI:10.1109/ROBOT.2007.363616.
[37] BARBER B D, REDDING J D, MCLAIN T W, et al. Vision-based Target Geo-location Using a Fixed-wing Miniature Air Vehicle[J]. Journal of Intelligent and Robotic Systems, 2006, 47(4): 361-382.
[38] CONTE G, DOHERTY P. An Integrated UAV Navigation System Based on Aerial Image Matching[C]//2008 IEEE Aerospace Conference, MT, IEEE, 2008: 1-10. DOI:10.1109/AERO.2008.4526556.
[39] 孫超, 都基焱, 段連飛. 一種空間兩點(diǎn)交會無人機(jī)定位方法[J]. 兵工自動(dòng)化, 2011, 30(6): 35-42. SUN Chao, DU Jiyan, DUAN Lianfei. A Technology of UAV Positioning to Target by Two-point Space Rendezvous[J]. Ordnance Industry Automation, 2011, 30(6): 35-42. (in Chinese)
[40] 王家騏, 金光, 顏昌翔. 機(jī)載光電跟蹤測量設(shè)備的目標(biāo)定位誤差分析[J]. 光學(xué)精密工程, 2005, 13(2): 105-116. WANG Jiaqi, JIN Guang, YAN Changxiang. Orientation Error Analysis of Airborne Opto-electric Tracking and Measuring Device[J]. Optics and Precision Engineering, 2005, 13(2): 105-116. (in Chinese)
[41] 王子辰, 戴明, 李剛, 等. 機(jī)載光電平臺相對角位移測量系統(tǒng)設(shè)計(jì)[J]. 中國激光, 2013(9): 202-208. WANG Zichen, DAI Ming, LI Gang, et al. Apparatus Design for Surveying Relative Angular Translation of Airborne Optoelectronic Platform[J]. Chinese Journal of Lasers, 2013(9): 202-208. (in Chinese)
[42] 劉春輝, 丁文銳, 李紅光. 基于相位差測量的無人機(jī)單站無源定位系統(tǒng)[J]. 計(jì)算機(jī)測量與控制, 2011, 19(9): 2105-2108. LIU Chunhui, DING Wenyue, LI Hongguang. Research on UAV Airborne Passive Location System Based on Phase Different Measurement[J]. Computer Measurement & Control, 2011, 19(9): 2105-2108. (in Chinese)
[43] 呂雪鋒, 程承旗. 基于地球剖分的空間信息區(qū)位標(biāo)識[J]. 高技術(shù)通訊, 2014, 24(4): 333-346. LYU Xuefeng, CHENG Chengqi. Spatial Information Location Identification Based on Global Subdivision[J]. Chinese High Technology Letters, 2014, 24(4): 333-346. (in Chinese)
Advances in Target Location Based on Visual Information for UAV Photoelectric Reconnaissance
ZHANG Chunxiao LIN Zhaorong YAO Yigang
(Beijing Institute of Space Mechanics & Electricity, Beijing 100190, China)
Due to the performance limitation of the UAV platform and measurement equipments, the target positioning precision of traditional UAV reconnaissance is hard to improve. With the enhancement of the performance of optical sensors and the development of advanced visual information processing technology, it is promising to introduce visual information analysis for improving the ground target location accuracy, which could reduce the system complexity and cost as well. In order to illustrate the advantages of employing the visual information, this paper presents the features and state-of-the-art of key issues of two categories: the geo-reference methods relying on the priori knowledge (such as map database) and the methods without any prior knowledge. The comparison of both categories is carried out, and the advantages and disadvantages are analyzed from the positioning accuracy, influence factors, system complexity and operating requirements. In light of the tendency of UAV industry development and the current status of domestic UAV reconnaissance, the prospect that the visual information promotes the performance of UAV target location is given. This paper could provide inspirations and solutions for the development of domestic UAV reconnaissance.
unmanned aerial vehicle (UAV); target location; visual navigation; geo-reference
V355.1
A
1009-8518(2016)06-0001-10
10.3969/j.issn.1009-8518.2016.06.001
張春曉,女,1984年生,2012年獲北京航空航天大學(xué)精密儀器及機(jī)械專業(yè)博士學(xué)位,工程師。主要從事遙感圖像處理及應(yīng)用方面的研究工作。E-mail:chunxiaozhang@163.com。
(編輯:毛建杰)
2015-07-29
國家自然科學(xué)基金(41401522)