朱得糠, 李東澤, 郭鴻博, 李 彤
(軍事科學院國防科技創(chuàng)新研究院, 北京 100071)
無人機具備低成本、高精度以及便捷飛行等優(yōu)點, 近年來發(fā)展迅速, 特別是搭載光電載荷(可見光/紅外相機) 的無人機, 被廣泛應用于航空攝影測量與遙感[1-2]任務中, 為地理信息系統(tǒng)(Geographic Information System, GIS) 提供 基礎 數(shù)據(jù)[3],如繪制地形圖。 無人機對地視覺定位任務模式不同于GIS 應用, 但其主要視覺處理原理與航空攝影測量一致, 屬于航空攝影測量的一個分支, 該技術在軍事領域的研究和應用由來已久[4], 為偵察和引導打擊提供情報支持。 隨著無人機在民用領域的普及, 其應用也日益廣泛, 如搶險救災人員搜救、警用巡邏、森林植保防范火情等。
機載相機遵循小孔成像原理, 將三維空間目標投影到二維圖像的過程中丟失了一個維度(深度)信息, 單個觀測圖像僅提供了目標的方向角度測量, 據(jù)此無法定位目標。 目前主要通過以下兩種類型的方法解決上述問題: 一是補充額外信息的方法, 引入補充信息解算深度值從而確定目標位置; 二是統(tǒng)計估計方法, 從多角度觀測的方向測量值中利用優(yōu)化或濾波等方法估計目標位置。 補充額外信息方法的核心是利用相機的內(nèi)外參數(shù)進行齊次坐標轉換, 通過相機標定獲得內(nèi)參數(shù), 從相應傳感器讀取外參數(shù), 如從全球導航衛(wèi)星系統(tǒng)(Global Navigation Satellite System, GNSS)讀取無人機位置, 從航姿參考系統(tǒng)(Attitude and Heading Reference System, AHRS)讀取無人機偏航/俯仰/滾轉角等。 統(tǒng)計估計方法基于回歸和優(yōu)化對靜止目標進行三角定位; 基于濾波估計定位運動目標, 原理上與純角度跟蹤(Bearing Only Tracking, BOT)一致。 雖然補充額外信息的許多算法也利用多次測量和統(tǒng)計方法提高定位精度, 但它們不是純角度測量值的位置估計問題, 本文仍然把它們歸為前者。
目前, 成熟的對地視覺定位手段是: 觀察員從無人機回傳的視頻圖像上人工識別并框選目標位置, 圖像處理算法鎖定或跟蹤目標, 提供目標的圖像位置測量值給定位算法。 識別框選目標主要由人工操作, 通常一次定位單個目標已經(jīng)難以滿足軍事和民用需求, 特別是軍用方面, 智能化戰(zhàn)爭時代正在加速到來, 戰(zhàn)場的動態(tài)性和復雜性日益加強, 對多目標的快速識別和定位能力提出了迫切需求。
深度學習引領的人工智能高潮首先在計算機視覺領域取得了巨大突破, 目標檢測識別性能在某些方面已經(jīng)達到甚至超過了人類的水平, 出現(xiàn)了一批高效實用的算法, 如Faster RCNN[5]系列、YOLO[6]系列等。 算法引入航空遙感圖像處理領域,能夠替代觀察員快速準確地在圖像上識別框選多個目標。 目標檢測能力的提升也提高了多目標跟蹤性能, 典型的算法如DeepSort[7]與YOLO 算法相結合, 成為工程應用中的流行算法。 以上智能算法作用在圖像域, 與無人機控制技術相結合提升無人機系統(tǒng)在空間域的智能化程度, 如自動跟蹤飛行、自主打擊引導等, 都需要以空間域目標定位技術為中介。 因此, 結合最新的人工智能計算機視覺技術拓展對地定位能力, 是無人機系統(tǒng)智能化升級的重要途徑。
在軍事領域, 無人機蜂群作戰(zhàn)是近年的一個熱門研究方向。 大量低成本無人機組成蜂群協(xié)同作戰(zhàn), 可以代替單個多功能無人機執(zhí)行偵察監(jiān)視、區(qū)域拒止等任務。 蜂群無人機協(xié)同目標探測, 具備感知范圍大、重訪周期短、多角度同時觀測等優(yōu)勢, 通過信息融合可獲得更高的識別準確率和定位精度。 多機協(xié)同探測的一個重要研究內(nèi)容就是數(shù)據(jù)關聯(lián), 尤其是多目標檢測和跟蹤任務, 目標視覺特征和空間位置信息相耦合, 不同來源的數(shù)據(jù)關聯(lián)時既要考慮視覺特征的相似性又要考慮空間位置的遠近程度。 此應用場景為對地視覺定位提供了新的研究內(nèi)容。
鑒于以上所述視覺定位技術的新要求和新思路, 非常有必要及時梳理總結其關鍵技術和研究現(xiàn)狀, 以加速無人機的智能化發(fā)展。 本文系統(tǒng)總結了該領域近二十年的研究工作, 首先詳細描述了對地視覺定位過程中各種坐標系的定義和相互轉換關系, 從數(shù)學原理上指明問題的關鍵所在;其次全面梳理了單架無人機對地視覺定位研究現(xiàn)狀, 按技術手段分為基于輔助地理信息、基于某一維距離、三角定位和純角度跟蹤濾波等四類方式; 然后整理了多架無人機協(xié)同定位的研究現(xiàn)狀;最后預測了無人機對地視覺定位的未來發(fā)展趨勢。
無人機對地視覺定位任務涉及多個坐標系,許多文獻為了簡化算法描述, 沒有全部用到, 或者忽略安裝位置偏差等, 簡化了坐標之間的轉換計算。 本文從工程實踐的角度出發(fā), 將定位任務定義在常見的大地坐標系下, 由機載光學相機圖像域中的目標位置求解大地坐標, 基于此全面細致描述了全部涉及的坐標系, 并給出相互轉換計算方法。
無人機對地定位需要利用無人機的空間位姿,涉及坐標系較多, 包括世界大地坐標系(World Geodetic System 1984, WGS84)、機載參考系、機體系、相機系、云臺系和圖像系, 下面分別展開描述。
(1)世界大地坐標系
因GNSS 廣泛采用WGS84 世界大地坐標系,故而使其成為無人機導航領域廣泛采用的地心坐標系——即原點與地球質心重合、固定在地球上與地球一起旋轉的坐標系。 WGS84 有空間直角坐標和大地坐標兩種等價表示形式, 它采用十分近似于地球自然形狀的參考橢球作為描述和推算地面點位置和相互關系的基準面。 兩種形式的坐標定義如下:
1) 空間直角坐標系是一種地心地固坐標系(Earth-centered Earth-fixed, ECEF), 也稱為地球坐標系, 簡記為e系。Z軸指向BIH(1984.0)定義的地極(CTP)方向,X軸指向BIH 定義的零度子午面和CTP 赤道的交點,Y軸垂直于XOZ平面構成右手坐標系, 記為Oe-XeYeZe, 如圖1 所示[8]。
圖1 WGS84 坐標系Fig.1 Schematic diagram of WGS84 coordinate system
2)大地坐標系是GNSS 定位數(shù)據(jù)采用的坐標系, 坐標(B,L,H)分別表示大地緯度B、經(jīng)度L和高程H。 緯度是空間點與參考橢球面的法線與CTP 赤道面的夾角, 經(jīng)度是空間點與參考橢球的自轉軸所在的面與BIH 定義的零度子午面的夾角,大地高程是空間點沿著參考橢球的法線方向到參考橢球面的距離, 具體如圖1 所示。
(2)機載參考系
以無人機質心為原點的北東地(North-East-Down, NED)坐標系依據(jù)WGS84 橢球模型定義,X軸指向北極(即正北方向),Y軸指向正東方向,Z軸垂直于O-XY平面向下指向地面, 記為Ov-XvYvZv, 如圖2(a)所示。
圖2 無人機視覺定位相關坐標系Fig.2 Coordinate system related to UAV visual geolocation
(3)機體系
原點取在無人機質心處, 坐標系與飛機固連,X軸在無人機對稱平面內(nèi)平行于機體軸線指向機頭,Y軸垂直于無人機的對稱平面指向機身右方,Z軸在無人機對稱平面內(nèi)與軸垂直并指向機身下方, 記為Ob-XbYbZb, 如圖2(b)所示。
(4)相機系
相機系也叫視線坐標系, 原點為相機的光心,Z軸指向相機視線方向(前方), 根據(jù)小孔成像幾何關系,X軸與像平面水平軸在三維空間方向平行指向右,Y軸與平面豎直軸在三維空間方向平行指向下, 記為Oc-XcYcZc, 如圖2(b)所示。
(5)圖像系
即像素坐標系, 原點是二維矩形圖像左上角點,X軸為圖像上邊沿指向右,Y軸為圖像左邊沿指向下, 記為Ou-XuYu。 注意, 像平面位于小孔成像幾何關系確定的三維空間位置處, 如圖2(b)所示。
(6)云臺系
相機固連在云臺上隨之轉動, 云臺旋轉中心即為原點,X軸一般與相機系Zc軸平行同向,Y軸與相機系Xc軸平行指向右,Z軸與相機系Yc軸平行指向下, 記為Og-XgYgZg, 如圖2(c)所示。
云臺系與相機系的區(qū)別有兩方面: 一是嚴格考究, 二者的原點不一定是重合的; 二是相機系和云臺系一般分別出現(xiàn)在幾何光學和控制領域,二者的X軸、Y軸、Z軸選取遵從各自慣用定義。
已知目標在無人機航拍圖像上的投影點坐標(xPu,yPu)、相機內(nèi)參數(shù)K及焦距f、無人機在WGS84 坐標系的位置(Buav,Luav,Huav)、無人機姿態(tài)角、相機相對機體的姿態(tài)角和位置, 定位任務的目的是求解目標點的大地坐標(BP,LP,HP)。
目標坐標由圖像系轉換到經(jīng)緯高坐標系的過程如圖3 所示。 其中,依據(jù)小孔成像幾何原理, 由投影點在圖像系的二維坐標計算目標點在相機系的三維坐標, 是兩個空間位置點的坐標解算, 隨后的過程均是對目標點在不同系的坐標轉換。 除e系和大地系外, 其它轉換都發(fā)生在空間直角坐標系之間, 本文采用齊次坐標轉換的方式。 對轉換矩陣求逆可獲得反方向的轉換矩陣, 本文不再贅述。
圖3 坐標轉換定位流程圖Fig.3 Flowchart of coordinate transformation geolocation
(1)目標在c系的坐標解算
小孔成像空間定位關系如圖4 所示, 設目標點P在圖像上的投影點為P'。 在c系中, 設P的坐標為,P'的坐標為; 在u系中, 設P'的坐標為。u系向c系轉換是把二維圖像系坐標轉換為三維相機系坐標, 將圖像坐標在末尾添加1 表示為齊次坐標, 即, 則其對應的相機系坐標按如下公式計算
圖4 單目視覺幾何關系Fig.4 Geometry of monocular vision
要唯一確定P, 需要確定λ的值。
無論從代數(shù)或幾何的角度看, 由圖像系坐標求解相機系坐標均需要提供目標位置的一個額外信息(約束方程), 即投影過程中丟失的深度信息,這正是單目視覺定位的難點所在。 通常的解決思路是額外估計或光心與目標連線的距離OcP的長度, 或對靜止目標采用三角定位的方法(即增加約束方程求解)。
式(1)可變形為
(2)c系向g系轉換
從該步開始, 采用齊次坐標轉換的方法處理目標點位置在多個空間直角坐標系之間的轉換,將三維坐標擴展到四維, 即從開始。c系向g系轉換的旋轉矩陣為,令為在g系中云臺質心指向光心的三維列矢量,一般情況下吊艙都是令二者重合, 偏差忽略不計,即令,O為三維全零列矢量。 則c系向g系的齊次轉換為
(3)g系向b系轉換
云臺相對于無人機的姿態(tài)角為(α,β,γ), 偏航角α為云臺Xg軸在b系XbObYb平面內(nèi)投影與Xb軸的夾角, 右偏為正; 俯仰角β為云臺Xg軸與XbObYb平面之間的夾角, 抬頭為正; 滾轉角γ為g系XgOgZg平面與無人機對稱平面之間的夾角, 右滾為正。g系向b系轉換的旋轉矩陣為
注意, 若云臺只有偏航和俯仰兩個維度可調,則式(5)中去掉等號右邊關于γ角的乘項即可。為b系中無人機質心到云臺質心的三維列矢量, 則齊次轉換矩陣為
齊次坐標轉換具有和式(4)相同的形式, 這里不再重復列出。
(4)b系向v系轉換
無人機姿態(tài)角表示為(φ,θ,ψ), 偏航角φ為機體軸在v系XvOvYv(水平)面上的投影與Xv軸之間的夾角, 右偏為正; 俯仰角θ為機體軸與XvOvYv面之間的夾角, 抬頭為正; 滾轉角ψ為無人機對稱平面與通過機體軸的鉛垂平面間的夾角, 右滾為正。b系向v系轉換的旋轉矩陣為
兩個坐標系的原點都是無人機質心, 所以沒有平移矢量, 則
(5)v系向e系轉換
由文獻[9]可知,v系向e系轉換的旋轉矩陣為
(6)e系與大地系之間的轉換
在v系向e系轉換中需要將無人機GNSS 位置(大地系下的坐標) 轉換到e系中得到, 根據(jù)文獻[10], 轉換方法如下
其中,
最終, 目標在e系下的坐標按如下方法轉換為大地系坐標
單架無人機掛載光電載荷對地視覺定位是目前的主流方式, 也是多架無人機協(xié)同的技術基礎,相關研究較多。 目前的主要方法可分為四種類型,分別是基于輔助地理信息的定位、已知目標距離的定位、三角定位和純角度濾波定位。 按前文對技術手段的粗分類, 這里的前兩類屬于基于補充額外信息的定位, 后兩類屬于對多個角度觀測數(shù)據(jù)采用統(tǒng)計方法估計位置的定位。
常用于輔助視覺定位的地理信息數(shù)據(jù)是數(shù)字高程模型(Digital Elevation Model, DEM) 和數(shù)字地表模型(Digital Surface Model, DSM)[11]。 DEM 是地形表面形態(tài)的數(shù)字化表示, 是將地面劃分為網(wǎng)格,用網(wǎng)格坐標(x,y,z)表示實體地面模型, 其中的z表示高程數(shù)據(jù)。 DSM 是在DEM 基礎上進一步包括了地面上所有固定物體, 如建筑、森林、橋梁等在內(nèi)的高程模型, 通常DSM 可與正射影像結合,也就包含了圖像特征信息。
基于輔助地理信息的對地視覺定位思路為:求目標在圖像上的點與光心連線和DEM/DSM 模型交點的坐標。 因為相機的內(nèi)外參數(shù)均已知, 即可確定連線方向, 因而可以求解交點。 定位原理示意圖如圖5(a)所示[12]; 求解交點通常是利用迭代計算直至收斂的方法, 迭代計算過程與利用割線法對連續(xù)函數(shù)求根一致, 如圖5(b)所示[13]。 聯(lián)系1.2 節(jié)c系的坐標解算容易看出, 該類方法從幾何角度理解很直觀, 求解線和面的交點; 從代數(shù)角度看, 相當于增加了一個約束方程。 采用該方法定位的工作包括文獻[13] ~文獻[18]等。
圖5 基于DEM 的定位Fig.5 Schematic diagram of geolocation based on DEM
部分算法利用DSM 校正后的圖像特征進行定位。 文獻[13]、文獻[19] ~文獻[21]對無人機實拍圖像提取SIFT 特征、SURF 特征或CNN 特征, 與參考圖片的特征進行匹配, 根據(jù)匹配點幾何約束修正無人機導航參數(shù)再解算目標點位置, 或者直接在參考圖上匹配定位目標。 文獻[22]提取實拍圖像特征與DSM 正射影像特征匹配, 計算單應(Homography)矩陣, 將目標映射到參考圖像上, 直接提取經(jīng)緯高。 文獻[23]用Sobel 算子提取參考圖線特征保存于無人機中, 與相機拍攝的圖像經(jīng)過相同處理后配準, 即可得到目標位置, 該方法假設地面是水平的, 并且通過氣壓測高儀獲得無人機和地面的相對高度。 文獻[24]對無人機視覺導航定位中的配準定位算法有詳細總結, 該類方法主要用來確定無人機自身的位置, 用于定位目標的研究比較少, 不是對地視覺定位的主流方法。
基于地理信息支持的定位方法優(yōu)點是基于一次觀測即可對靜止或運動目標定位, DSM 模型的圖像特征信息還可以用于改進定位精度, 缺點則是先驗地理信息數(shù)據(jù)通常難以獲得。
由1.2 節(jié)c系的坐標解算可知, 若是能給出成像時丟失的某一個維度的深度信息, 則可以直接計算得到目標位置, 這是實踐中運用最為廣泛的一類方法。 這類方法原理上相當于增加了一個目標三維坐標的約束方程, 結合式(1)由圖像坐標系反解到相機系, 再經(jīng)過一系列坐標系轉換求得參考系下的坐標值。 相關研究算法非常多, 對坐標系的定義不同, 具體求解公式不同, 但思想是一致的。 下面依據(jù)本文設定的坐標系, 給出原理性公式描述, 并梳理主要方法。 常用的補充距離信息包括以下三種:
(1)已知目標海拔高度
這類方法通常假設目標區(qū)域地面平坦, 則可用測量區(qū)域內(nèi)某個參考點的高度值近似目標高度,參考點的高度可以通過GNSS 測量或者DEM 查詢獲得。 無人機海拔高度由GNSS 實時可查, 所以等效于已知目標與無人機之間的高度差, 用h表示。也可以直接獲得高度差, 例如通過氣壓計測量大氣壓強差再轉化為高度差。 其中, 文獻[25]、文獻[26]不需要從無人機狀態(tài)傳感器來測量高度差,而是通過立體視覺的方法估計高度差。
文獻[28] ~文獻[32]均采用此類方法, 此類方法優(yōu)點是只需一次測量即可確定目標位置, 適用于運動和靜止目標, 缺點是精度不高。 更進一步的研究采用多次測量的統(tǒng)計估計方法, 對于靜止目標, 通常采用回歸分析、最小二乘等方法, 對于運動目標, 則建立運動狀態(tài)方程和測量方程,采用Kalman 濾波等方法進行估計。 對靜止目標的多次測量通過統(tǒng)計估計的方法定位, 基本思想就是建立如式(14)等號右邊所示的多個測量方程, 利用統(tǒng)計方法求解最優(yōu)三維位置坐標。 如文獻[33] ~文獻[35]采用迭代最小二乘(Recursive Least Squares, RLS)、誤差濾波、Monte Carlo 等方法減小誤差; 文獻[36]、文獻[37]采用回歸分析的方法在定位的同時估計方位角偏差, 提高估計精度,同時考慮無人機航跡優(yōu)化, 提高測量精度; 文獻[24]、文獻[27]、文獻[38]、文獻[39]用擴展Kalman 濾波(EKF)提高估計精度, 同時提出規(guī)劃路徑和云臺控制等提高精度的方法; 文獻[40]、文獻[41]采用容積Kalman 濾波(CKF)算法進行估計;相似的工作還包括文獻[42] ~文獻[46], 上述算法都是補充海拔高度測量值的統(tǒng)計方法。
(2)已知目標斜距
隨著無人機載荷技術的進步, 越來越多光電吊艙具備主動激光測距能力, 可以直接測量目標到光電吊艙的精確斜距。 激光測距指向和視場中心同向, 因此斜距就等于, 可代入式(1)中解算目標位置, 這種方式不需要額外測量目標高程,不需要假設地面平坦。 文獻[8]、文獻[47]、文獻[48]均是通過激光測距獲得斜距, 并進一步解算或濾波估計目標位置。
(3)已知目標尺寸
在某些情況下, 已知目標某一個維度的絕對尺寸, 通過圖像處理的方法能夠計算得到無人機與目標之間的相對高度, 從而按照前面所述已知高度差的方式定位目標。 如文獻[49]提出的定位方法, 已知目標(車)的長度, 在其處于水平狀態(tài)時,通過測量車頭、車尾之間的像素距離, 可求解出目標相對于無人機的高度差, 從而再利用文獻[33]中的算法對目標進行定位, 如圖7(a)所示。 圖7(b)為其幾何原理, 已知PQ尺寸, 則根據(jù)ΔGHP、ΔGHQ和ΔGPQ的關系, 可以求解出GH的長度。
圖7 已知目標尺寸的定位Fig.7 Schematic diagram of geolocation based on target size known
三角定位利用目標的兩個或多個不同方向角測量值來計算目標位置, 原理是目標與兩個測量點構成三角形。 已知兩參考點的坐標以及參考點與目標點連線方向矢量, 則可以唯一確定目標點坐標, 如圖8(a)所示[50]。 實際應用中, 由于無人機和目標相距較遠且各類誤差疊加, 兩個參考點處測量值估計的定位誤差較大, 通常對多次測量進行濾波或非線性優(yōu)化求解以減小定位誤差, 如圖8(b)所示[50]。 文獻[50]、文獻[51] 采用非線性Kalman 濾波的方法估計最優(yōu)位置, 文獻[52]采用Levenberg-Marquardt 非線性優(yōu)化的方法求位置最優(yōu)解。 采用該方式定位的無人機通常繞目標點進行盤旋飛行, 多次觀測, 最優(yōu)路徑規(guī)劃也是一個重要研究點。 對于單個無人機單相機而言, 該方法只能定位靜止目標, 因為需要無人機運動到不同 位置對同一點進行觀測。
圖8 三角定位Fig.8 Schematic diagram of geolocation based on triangulation
純角度跟蹤是指僅由測量點到目標點的方向角測量值估計運動目標的位置和速度, 常用于無源定位領域, 如被動雷達、聲吶或光學定位[53]。由于丟失深度信息, 單目光學定位處理的也是純角度測量問題, 部分研究采用純角度濾波的方法對運動 目 標 進行 跟蹤 定 位, 如 文獻[54] ~ 文獻[57]。
純角度濾波問題的核心是建立目標運動狀態(tài)方程和觀測方程, 從而通過Kalman 濾波方法估計目標狀態(tài)。 對地定位問題一般建立線性運動狀態(tài)方程和非線性觀測方程, 具體如下
式(15)中, 目標狀態(tài)矢量x為目標位置和運動速度,wk為狀態(tài)轉移誤差(可描述隨機加速度),非線性測量函數(shù)hk(xk) 為k時刻無人機的測量值(一般包括目標圖像坐標、各種無人機傳感器狀態(tài)參數(shù)等),vk為觀測誤差, 以上誤差一般采用Gauss 分布。 在建立了目標運動狀態(tài)方程后, 可以采用經(jīng)典非線性Kalman 濾波方法如EKF、UKF、CKF 等來估計目標狀態(tài)。
地基無源雷達對空目標跟蹤是經(jīng)典的純角度跟蹤應用, 該場景中測量平臺靜止, 且目標背景簡單, 因而跟蹤精度較高。 而在無人機對地視覺定位應用中, 測量平臺和目標都在運動, 尤其是目標在地表運動, 隨機誤差更大, 這種純角度濾波定位方法精度不高。
多機協(xié)同對地視覺定位方法主要有兩種, 一種是多機三角定位, 一種是多機融合濾波定位,后者也包括了在純角度測量值的基礎上輔以額外信息的方法。
多機三角定位是單機三角定位方法的直接擴展, 相比于單機, 在滿足同時測量的條件下可以定位靜止以及運動目標。 這類方法通常是中心化的, 多架無人機將其觀測同一個目標的測量數(shù)據(jù)傳送到一個中心節(jié)點, 利用各無人機狀態(tài)確定多個視線方向, 則交匯點就是目標位置。 文獻[58]、文獻[59]分別采用兩架或多架無人機目標視線交匯求解目標點位置, 利用最小二乘、自適應Kalman濾波等方法對多個觀測估計最優(yōu)值。
相比于單機, 多機融合濾波定位有更多測量數(shù)據(jù), 能夠獲得更高的精度, 同時多機協(xié)同更容易識別目標, 多機融合分為中心化與非中心化兩種。 以單個目標為例, 目標狀態(tài)方程如式(15) 所示, 目標測量方程個數(shù)由無人機架數(shù)決定, 每架無人機對應一個如式(15)所示的測量方程, 在中心節(jié)點匯成總的測量方程。 文獻[60] ~文獻[68]較早研究了多架無人機融合濾波對地定位, 廣泛采用Kalman 濾波、粒子濾波和信息濾波等多種濾波方法, 在濾波過程中通過估計通信延時和偏差, 或引入更多觀測量, 或非中心化處理等方式提高位置估計精度。 文獻[69]側重研究多個無人機如何調整隊形跟蹤目標。 文獻[70] ~文獻[72]提出分布式無人機傳感器資源管理方法以及單架無人機吊艙姿態(tài)角控制方法, 保證多個目標盡可能地在視場中。 文獻[73]引用文獻[33]的方法先讓每一架無人機對自身看到的目標進行定位, 再利用多假設檢驗、對轉換矩陣誤差進行融合濾波等方法提高估計精度。
目前, 多機協(xié)同對地視覺定位方法主要處理單一目標, 回避復雜的多目標數(shù)據(jù)關聯(lián)問題, 因而主要是對單機方法的直接擴展。
隨著基于深度學習的計算機視覺技術飛速發(fā)展, 為光電吊艙賦予智能目標檢測與跟蹤能力成為當下的研究和應用熱點。 目前, 中小型無人機已經(jīng)實現(xiàn)了嵌入式AI 邊緣計算平臺的部署, 具備機載端在線實時多目標檢測與跟蹤能力[32]。 由于不需要人工操作, 目標定位算法可實現(xiàn)實時多目標定位, 從而具備與決策系統(tǒng)全自主銜接的能力,極大地提高了無人機感知的反應速度, 提高了無人機智能化水平, 強化了無人機在軍事和民用領域的應用能力。 多目標定位的智能化是未來的一個重要研究方向。
在軍事上, 無人機“蜂群戰(zhàn)” 的概念及相關技術已經(jīng)成為美軍的重要戰(zhàn)略布局, 實質是以大規(guī)模、低成本無人機集群為主體實現(xiàn)跨域分布式協(xié)同作戰(zhàn)。 基于視覺的協(xié)同感知是分布式協(xié)同的重要組成部分, 協(xié)同目標識別和定位是其主要任務。 協(xié)同必然涉及多源信息融合, 在多目標任務中, 數(shù)據(jù)關聯(lián)是影響融合效果的重要方面, 準確的識別判斷和精確的定位能夠提高數(shù)據(jù)關聯(lián)的準確率, 從而提高后續(xù)識別和定位精度, 二者是一個耦合的過程。 因此, 與多源數(shù)據(jù)關聯(lián)和識別相耦合的多源多目標協(xié)同定位技術是未來無人機視覺對地定位的一個重要研究方向。
當前, 無人機光電吊艙通常配備具有高倍變焦功能的相機以觀察遠距離小目標, 其定位原理是把目標放到視場中心, 令目標的方向角與吊艙視線軸指向重合, 從而規(guī)避相機內(nèi)參數(shù)。 若要實現(xiàn)視場內(nèi)多個目標的同步定位, 對于非視場中心的目標, 內(nèi)參數(shù)必須參與計算過程。 變焦相機標定研究由來已久[74-75], 無人機吊艙變焦鏡頭通常具有視場大、變焦倍數(shù)大的特點, 變焦相機標定方法在無人機吊艙領域的應用和研究未來必將成為一個重要的研究方向, 以支撐無人機光電吊艙定位技術。
無人機飛控傳感器精度有限, 尤其是小型低成本無人機, 在此條件下以提高定位精度為目標的研究也是一個重要方向。 該方向可從兩方面開展研究, 一是通過更加合理的航跡規(guī)劃[37-38,67]特別是多機協(xié)同規(guī)劃來提高定位精度; 二是融合多源傳感器提高定位精度, 尤其是主動激光雷達、微波雷達等。
綜上所述, 受益于計算機視覺智能的跨越式提升, 無人機將具備實時精準的多目標識別與跟蹤能力、高效的飛行控制與協(xié)同能力以及多模態(tài)異構傳感器信息融合能力, 無人機視覺地理定位技術未來將向著多目標、高精度和高可靠性地理定位方向發(fā)展。