鞏保勝,楊阿華,劉夢川
(1. 61243部隊,新疆 烏魯木齊 830006; 2. 61081部隊,北京 100000)
An Automatic Methodology for Aerial Photogrammetric Point Determination
GONG Baosheng,YANG Ahua,LIU Mengchuan
?
一種航空攝影測量自動加密方法
鞏保勝1,楊阿華2,劉夢川1
(1. 61243部隊,新疆 烏魯木齊 830006; 2. 61081部隊,北京 100000)
An Automatic Methodology for Aerial Photogrammetric Point Determination
GONG Baosheng,YANG Ahua,LIU Mengchuan
摘要:提出了一種航空攝影測量自動加密方法。首先由相對定向建立立體模型,并自動提取模型連接點;然后通過循環(huán)搜索,自動連接測區(qū)內(nèi)的全部模型,進而得到全部影像在統(tǒng)一坐標系下的外方位元素,這也是本方案的創(chuàng)新之處,以此為基礎(chǔ),利用光束法平差優(yōu)化各相機的位姿參數(shù);最后,由不少于3個地面控制點進行絕對定向,從而得到各相機的絕對位姿參數(shù),由空間前方交會即可解算加密點的大地坐標。試驗結(jié)果表明,當將定向點均勻分布于測區(qū)時,檢查點的平面和高程誤差滿足我國現(xiàn)行航空攝影測量規(guī)范對航測生產(chǎn)的精度要求;若將定向點分布于測區(qū)一側(cè),檢查點的精度也達到了一定水平,表明可以根據(jù)分布于一側(cè)的少量控制點來測繪全測區(qū)地形。
關(guān)鍵詞:攝影測量加密;前方交會;相對定向;模型連接點;模型連接;絕對定向
一、引言
隨著小型無人駕駛飛機(unmanned aerial vehicle,UAV)在航空攝影中應(yīng)用越來越廣泛,如何有效地利用UAV的航拍數(shù)據(jù)進行地形測繪和4D產(chǎn)品生產(chǎn)并滿足一定的精度要求,是當前學(xué)術(shù)界和工程界研究的熱點問題。然而,傳統(tǒng)的4D產(chǎn)品生產(chǎn)一般按照單片內(nèi)定向、像對相對定向、單模型絕對定向、立體模型測繪的流程進行作業(yè)[1]。這樣的作業(yè)流程理論嚴密,但處理的自動化程度不高,效率低下,導(dǎo)致大量的航拍數(shù)據(jù)得不到有效的處理和利用。此外,由于針對每個單模型都進行絕對定向,因此需要較多的地面控制點;在數(shù)字攝影測量時代,應(yīng)該少用或不用地面控制點,這樣不但可以減輕野外測量強度,縮短作業(yè)周期,而且可以提高航空攝影測量作業(yè)的效率和自動化程度。
目前常用的航空攝影測量加密方法有3種:第一種是常規(guī)光束法區(qū)域網(wǎng)平差[2],此種方法要求較多的、分布范圍廣的控制點,增加了控制點量測及維護的工作量;對于一些因環(huán)境惡劣而無法布設(shè)控制點的地區(qū),則無法施測,導(dǎo)致測繪的盲區(qū)。另外兩種分別是GPS輔助光束法區(qū)域網(wǎng)平差[3]和POS輔助光束法區(qū)域網(wǎng)平差[4],這兩種方法需要額外的測量設(shè)備,增加了作業(yè)的成本;此外,GPS和POS數(shù)據(jù)的測量誤差也將影響最終加密的精度。
與上述3種方法相比,本文所述方法無須額外的測量設(shè)備,僅需輸入一系列有一定重疊的航空遙感影像,基于影像間同名像點即可自動確定全部相機的外方位元素;通過在測區(qū)量測不少于3個地面控制點,最終實現(xiàn)自動三角測量加密,對全測區(qū)地形進行測繪并重建三維地形。
二、加密方案
本文加密方案的處理流程包括同名點匹配、相對定向、模型連接、全局優(yōu)化、絕對定向5個步驟,創(chuàng)新之處在于自動提取模型連接點,循環(huán)搜索全部未連接模型并進行連接,最終自動確定全部影像在公共坐標系下的外方位元素。上述處理流程的各步驟順序執(zhí)行,無須人工干預(yù),自動化程度極高。下面對各步驟分別進行介紹。
1. 同名點匹配
同名點匹配基于SIFT[5-6]和SURF[7-8]特征描述子。首先提取所有圖像的特征點;對于任意兩幅影像,進行特征匹配,并基于隨機采樣一致(random sample consensus,RANSAC)[9]算法求解兩幅圖像的仿射變換關(guān)系,以判斷匹配的有效性:若兩幅圖像無重疊或誤匹配點太多,則無法得到一個有效的仿射變換,該像對被剔除;對于有重疊并匹配成功的兩幅影像,通過RANSAC算法可以剔除少量誤匹配點,最終獲得一定數(shù)量的可靠同名像點,對應(yīng)的兩幅影像即構(gòu)成了一個立體模型。立體模型可由航線內(nèi)或航線間的像對生成。
2. 相對定向
由上述步驟得到了全測區(qū)的大量立體模型像對,基于像對間的同名點及相機內(nèi)參數(shù),通過相對定向直接解法[10],再結(jié)合光束法平差[11]優(yōu)化,可以獲得任意立體模型的精確相對定向元素,即確定構(gòu)成立體模型的兩個相機的相對位姿關(guān)系??梢詫⒁粋€模型的左相機坐標系作為該模型的基準坐標系(也可取立體模型對應(yīng)的水平核線坐標系作為基準),記為模型坐標系。左右相機坐標系到基準坐標系的轉(zhuǎn)換矩陣均可根據(jù)相對定向元素求得。
3. 模型連接
按上述過程進行單模型的相對定向后,測區(qū)內(nèi)各模型之間還是相互獨立的,不同模型具有不同的模型坐標系,因此必須進行模型連接,將所有模型轉(zhuǎn)換到統(tǒng)一的公共基準坐標系下。最終目標是求解各相機坐標系到公共坐標系的旋轉(zhuǎn)、平移變換,即各相機在公共坐標系下的方位參數(shù)。
由于公共坐標系只是提供一個統(tǒng)一的參照,只具有相對意義,與其所處的位置無關(guān),所以可取任一坐標系作為公共坐標系;但為了處理方便,此處將模型列表中的第一個模型對應(yīng)的模型坐標系作為公共坐標系。由于各模型的左右相機到模型坐標系的轉(zhuǎn)換矩陣已知,因此第一個模型的左右相機在公共坐標系下的方位已知。
所有模型分為已連接模型和未連接模型,已連接模型的兩個對應(yīng)相機到公共坐標系的變換矩陣已經(jīng)求得,未連接模型的變換矩陣則未知。初始時,第一個模型為已連接模型,其余的均未連接,確定其他相機在公共坐標系下位姿參數(shù)的過程描述如下:
對于模型列表中的任一尚未被連接的模型,記為Ms,設(shè)Ms的右相機到左相機坐標系的旋轉(zhuǎn)變換矩陣為Rs,基線向量為ts,均已通過相對定向求得。從已連接模型中查找與Ms有公共相機的模型,若找到,記該已連接模型為Ml。如圖1所示,Ⅰ、Ⅱ、Ⅲ為3個相鄰相機,O1、O2、O3為對應(yīng)的投影中心,G為地面點,P1、P2、P3為G在3個相機上的投影像點。Ⅰ和Ⅱ構(gòu)成已連接模型Ml,Ⅱ和Ⅲ構(gòu)成未連接模型Ms。
圖1 模型連接示意圖
首先匹配Ms與Ml中的三度同名點或模型連接點。三度同名點匹配方法如下:
由空間前方交會解算Ml中三度點在公共坐標系下的空間坐標及Ms中三度點在其模型坐標系下的空間坐標,從而得到了兩個三維空間點集。根據(jù)絕對定向[12]的理論,由兩個點集間不少于3個的對應(yīng)點,即可解算出兩個點集間的旋轉(zhuǎn)、平移、比例變換關(guān)系,進而得到Ms的模型坐標系到公共坐標系的轉(zhuǎn)換矩陣T和模型坐標方向到公共坐標方向的旋轉(zhuǎn)變換矩陣R。由于Ms的左、右相機在模型坐標系的坐標pl、pr已知,從而Ms的左、右相機在公共坐標系的坐標分別為T·pl和T·pr;由于左、右相機坐標系到模型坐標系方向的旋轉(zhuǎn)變換矩陣Rl、Rr已知,因此左、右相機坐標系到公共坐標系的旋轉(zhuǎn)矩陣分別為R·Rl和R·Rr,即先變換到模型坐標系方向,再變換到公共坐標系方向。綜上,可得左、右相機坐標系到公共坐標系的旋轉(zhuǎn)平移變換矩陣分別為
左右相機坐標系下任一空間點右乘對應(yīng)的變換矩陣,即可得到該點在公共坐標系下的空間坐標。
至此已實現(xiàn)了Ms與Ml的連接,即得到了Ms中的未連接相機(孤立相機)到公共坐標系的轉(zhuǎn)換矩陣。矩陣的前三列為旋轉(zhuǎn)變換,即相機在公共坐標系下的方向,第四列為平移變換,即相機在公共坐標系下的位置。
上述連接過程必須循環(huán)多次,以確保所有未連接模型都能找到與其相鄰的已連接模型,并進行連接。傳統(tǒng)攝影測量的模型連接過程只針對單航線內(nèi)的模型,兩條航線的連接則需要借助地面控制點或航線間一定量分布均勻的連接點[2],連接點的提取常常需要借助于人工刺點,從而降低了作業(yè)效率。連接過程不區(qū)分航線內(nèi)和航線間,而是將航區(qū)內(nèi)的全部模型看成同等的個體,隨機搜索待連接模型并進行連接;相鄰兩條航線間只要至少存在一個航線間模型,即可實現(xiàn)兩條航線的自動連接;由于模型內(nèi)同名點和模型間同名點(即三度同名點)能夠全自動提取,因此整個航區(qū)的全部相機可以全自動地連接成一個整體。
4. 全局優(yōu)化
由于相機內(nèi)參數(shù)及同名點的誤差,單模型相對定向及模型兩兩連接時不可避免地存在誤差,將各模型按鄰接關(guān)系順序連接必然導(dǎo)致誤差的傳遞和放大。因此直接通過剛體變換得到的各相機在公共坐標系下的位姿存在一定誤差,必須聯(lián)立測區(qū)內(nèi)部的所有約束條件進行優(yōu)化校正才能得到高精度的位姿參數(shù)和場景結(jié)構(gòu)。優(yōu)化方法可以采用稀疏光束法平差[13-14]。需要說明的是,雖然相鄰航線間只要存在至少一個航線間模型(由位于兩條航線的兩個相機構(gòu)成的模型)即可實現(xiàn)航線的連接,但為了提高優(yōu)化的效果,應(yīng)該在相鄰航線間匹配盡量多的像對,以為全局優(yōu)化過程提供足夠多的約束方程。
值得注意的是,此處的平差優(yōu)化過程無須地面控制點,即僅根據(jù)自動提取的同名點建立約束方程進行優(yōu)化,使整個系統(tǒng)內(nèi)部結(jié)構(gòu)達到最優(yōu)吻合。
5. 絕對定向
最后,根據(jù)少量(不少于3個)的地面控制點,通過前方交會解算控制點在公共坐標系下的坐標,由絕對定向可以確定公共坐標系與大地坐標系間的旋轉(zhuǎn)、平移、比例變換參數(shù),進而得到各相機在大地坐標系下的方位參數(shù)。
三、試驗
1. 試驗數(shù)據(jù)
采用威海天福山一塊面積為2km2的測繪試驗場,場區(qū)內(nèi)均勻布設(shè)了186個精確量測的地面控制點,控制點坐標量測精度優(yōu)于0.01m。用飛機對場區(qū)進行航拍,得到了5條航線、115幅航空影像。所用航拍相機為哈蘇H4D-60,鏡頭標稱焦距為50mm,圖像大小為8956像素×6708像素。影像的航向重疊約為60%,旁向重疊大于20%,地面分辨率約為0.05m/像素,比例尺為1∶8000。
2. 試驗結(jié)果
采用本文所述方法解算全部影像對應(yīng)的相機在統(tǒng)一坐標系下的位姿參數(shù);以此為基礎(chǔ),從全部控制點中取10個作為絕對定向點(雖然3個點即可實現(xiàn)絕對定向, 但為了提高精度, 此處還是取10個點進行定向),其他點作為檢查點;由絕對定向點確定各相機在大地坐標系下的位姿,前方交會解算各檢查點的空間坐標。其中,絕對定向點的選擇分兩種情況:一種是定向點分布于測區(qū)的一側(cè),其檢查點的誤差分布如圖2所示;另一種是定向點均勻分布于整個測區(qū),其檢查點的誤差分布如圖3所示。其中,圖3(a)為檢查點的平面誤差分布,圖3(b)為檢查點的高程誤差分布。從圖2可以看出,由于定向點分布于一側(cè),檢查點誤差隨檢查點到定向點分布區(qū)域的距離的增大而增大。
圖2 定向點分布于一側(cè)的檢查點誤差
兩種情況下,最大、最小及均方平面和高程誤差分布見表1。
表1 檢查點誤差 m
圖3 定向點均勻分布的檢查點誤差
從試驗結(jié)果可以看出,本文所述方法的加密精度較高,對于定向點均勻分布的情況,加密點的精度滿足我國現(xiàn)行航空攝影測量內(nèi)業(yè)規(guī)范[15]對1∶8000航空影像的加密精度要求。值得注意的是,試驗尚未對相機進行精確檢校,若進行檢校得到高精度的相機內(nèi)參數(shù),則此處的解算精度還會有進一步的提高。此外,定向點均勻分布于整個測區(qū)的加密精度要優(yōu)于分布于一側(cè),但分布于一側(cè)時的加密精度也達到了一定的水平。因此,可以根據(jù)分布于一側(cè)(小范圍)的少量控制點外推出測區(qū)其他區(qū)域的地形,這對于山地、沙漠、戈壁及邊境地區(qū)等難于布設(shè)控制點的區(qū)域的測繪具有重要意義。
由解算得到的相機內(nèi)外參數(shù)及原始影像,通過在各模型間進行同名點稠密匹配,并根據(jù)求得的相機位姿參數(shù)解算同名點的空間坐標,由稠密空間點云通過三角構(gòu)網(wǎng)及紋理映射可以獲得全場區(qū)的三維地形如圖4所示,圖中將5條航線的所有相機根據(jù)其位姿參數(shù)進行了繪制,重建得到三維地表細節(jié)如圖5所示。精確、逼真的地形得益于高精度的相機方位參數(shù),由此進一步證明了本方案的可行性與有效性。
圖4 全景三維地形
圖5 三維地形細節(jié)
四、結(jié)論
本文提出了一種航空攝影測量加密方法。試驗結(jié)果表明,該方法的加密精度滿足我國現(xiàn)行航空攝影測量規(guī)范對航測生產(chǎn)的精度要求。由于最少僅需3個控制點,且無須額外的測量設(shè)備即可對全測區(qū)地形進行測繪,因此該方法能降低作業(yè)成本,并減少偶然的測量誤差對最終結(jié)果的影響。此外,整個過程幾乎無須人工干預(yù),提高了航空攝影測量加密的效率。而且本方法對航攝像片的攝影角度沒有特殊要求,只需滿足一定的重疊條件即可,在采用小型無人駕駛飛機進行航空攝影、偵查日益普遍的今天,本方法的應(yīng)用前景將非常廣闊,在日后的航空攝影測量作業(yè)中,將是一種經(jīng)濟、高效的選擇方案。
參考文獻:
[1]袁修孝. 航空攝影測量影像定向的若干探討[J]. 地球科學(xué)進展,2007,22(8):828-834.
[2]王之卓. 攝影測量原理[M]. 武漢:武漢測繪科技大學(xué)出版社,2000.
[3]李德仁,周月琴,金為銑.攝影測量與遙感概論[M]. 北京:測繪出版社,2001.
[4]王建超,郭大海,鄭雄偉.機載POS直接地理定位的精度分析[J].國土資源遙感,2007(4):33-37.
[5]LOWE D G. Object Recognition from Local Scale-invariant Features[C]∥Proceedings of the International Conference on Computer Vision. Washington DC:[s.n.],1999.[7]楊敏,艾廷華,周啟.顧及道路目標stroke特征保持的路網(wǎng)自動綜合方法[J].測繪學(xué)報,2013,42(4):581-587.
[6]LOWE D G.Distinctive Image Features from Scale-invariant Keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[7]BAY H,TUYTELAARS T,GOOL L V.SURF: Speeded up Robust Features[J].Lecture Notes in Computer Science,2006,3951(1):404-417.
[8]BAY H, ESS A, TUYTELAARS T, et al. Speeded-Up Robust Features (SURF)[J].Computer Vision and Image Understanding,2008,110(3):346-359.
[9]FISCHLER M A, BOLLES R C. Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography[J]. Communications of the ACM,1981,24(6):381-395.
[10]STEWENIUS H, ENGELS C, NISTéR D. Recent Developments on Direct Relative Orientation[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2006, 60(4): 284-294.
[11]TRIGGS B, MCLAUCHLAN P F, HARTLEY R I, et al. Bundle Adjustment—A Modern Synthesis[J]. Vision Algorithms’99, LNCS, 2000, 1883: 298-372.
[12]LORUSSO A, EGGERT D, FISHER R B. A Comparison of Four Algorithms for Estimating 3-D Rigid Transformations[C]∥British Conference on Machine Vision.[S.l.]:DAI RESEARCH PAPER,1995.
[13]詹總謙,張祖勛,張劍清.基于稀疏矩陣的光束法平差快速算法設(shè)計[J],測繪通報,2006(12) :5-8.
[14]ENGELS C, STEW′ENIUS H, NISTER D. Bundle Adjustment Rules[C]∥Photogrammetric Computer Vision (PCV’06). Bonn:ISPRS, 2006.
作者簡介:鞏保勝(1977—),男,工程師,主要研究方向為攝影測量與遙感。E-mail:562798480L@163.com
基金項目:國防預(yù)研基金(20060826);總裝備部國防預(yù)研項目(513150701)
收稿日期:2015-07-09
中圖分類號:P23
文獻標識碼:B
文章編號:0494-0911(2015)12-0037-04
引文格式: 鞏保勝,楊阿華,劉夢川. 一種航空攝影測量自動加密方法[J].測繪通報,2015(12):37-40.DOI:10.13474/j.cnki.11-2246.2015.373