沈 永 林,劉 軍,吳 立 新,李 發(fā) 帥,王 植
基于無人機(jī)影像和飛控?cái)?shù)據(jù)的災(zāi)場(chǎng)重建方法研究
沈 永 林1,劉 軍2,吳 立 新1,李 發(fā) 帥2,王 植3
(1.北京師范大學(xué)環(huán)境演變與自然災(zāi)害教育部重點(diǎn)實(shí)驗(yàn)室,北京 100875;2.中國礦業(yè)大學(xué)(北京)地球科學(xué)與測(cè)繪工程學(xué)院,北京 100083;3.東北大學(xué)資源與土木工程學(xué)院,遼寧 沈陽 110189)
低空無人機(jī)以其機(jī)動(dòng)、快速、經(jīng)濟(jì)等優(yōu)勢(shì),在災(zāi)害應(yīng)急事件中逐漸發(fā)揮作用,而災(zāi)場(chǎng)三維重建也因其突破了常規(guī)無人機(jī)遙感無法快速提供三維空間信息的局限,在災(zāi)害測(cè)量中的地位日益凸顯。該文面向?yàn)?zāi)害測(cè)量需求,探索一種基于低空影像和無人機(jī)自身飛控?cái)?shù)據(jù)的災(zāi)場(chǎng)三維重建方法。在系統(tǒng)規(guī)劃與平臺(tái)設(shè)計(jì)的基礎(chǔ)上,選取某滑坡區(qū)進(jìn)行試驗(yàn)。依據(jù)計(jì)算機(jī)視覺原理,通過特征提取、影像匹配、運(yùn)動(dòng)與結(jié)構(gòu)重建等實(shí)現(xiàn)了相機(jī)位置及姿態(tài)的恢復(fù),并通過地理注冊(cè)最終完成了災(zāi)場(chǎng)影像三維重建。通過布設(shè)地面標(biāo)識(shí)點(diǎn)并與其GPS RTK測(cè)量坐標(biāo)比對(duì),證實(shí)災(zāi)場(chǎng)重建模型的相對(duì)誤差低于4‰。
無人機(jī);飛控?cái)?shù)據(jù);災(zāi)害測(cè)量;災(zāi)場(chǎng)重建;地理注冊(cè)
近年,自然災(zāi)害多發(fā)、頻發(fā),對(duì)社會(huì)經(jīng)濟(jì)與安全的威脅十分嚴(yán)峻。人類尚難改變或控制自然災(zāi)害發(fā)生的時(shí)間、地點(diǎn)與規(guī)模,但快速、機(jī)動(dòng)、可靠的應(yīng)急測(cè)量可為災(zāi)情評(píng)估、災(zāi)害鏈分析、減災(zāi)救災(zāi)等提供災(zāi)情信息和決策支持。
當(dāng)前災(zāi)害監(jiān)測(cè)的常規(guī)手段有衛(wèi)星遙感、航空攝影測(cè)量、機(jī)載激光雷達(dá)(Light Detection and Ranging,LiDAR)[1]、地面站監(jiān)測(cè)等。然而,由于衛(wèi)星遙感和載人航空攝影測(cè)量在獲取災(zāi)害信息時(shí)受時(shí)空分辨率、外界環(huán)境及使用成本的影響,其在災(zāi)害應(yīng)急過程中的作用受到限制[2]。因此,需尋求新的災(zāi)害應(yīng)急監(jiān)測(cè)技術(shù)途徑。隨著材料科學(xué)和自動(dòng)控制工程的發(fā)展,低空無人機(jī)(Unmanned Aerial Vehicles,UAVs)以其機(jī)動(dòng)靈活、實(shí)時(shí)性強(qiáng)、低成本等優(yōu)勢(shì),迅速成為快速獲取地理數(shù)據(jù)的有效平臺(tái)[3]。無人機(jī)災(zāi)害應(yīng)急測(cè)量系統(tǒng)以快速探查災(zāi)情、掌握受損地物空間信息為主,可為應(yīng)急協(xié)同觀測(cè)提供空間局部參照和聯(lián)絡(luò)服務(wù)。國際上已有無人機(jī)搭載光學(xué)傳感器用于環(huán)境監(jiān)控和災(zāi)害調(diào)查[4,5],但用于災(zāi)害應(yīng)急測(cè)量及災(zāi)場(chǎng)三維重建方面鮮有研究。
本文以特定地形為試驗(yàn)區(qū),依據(jù)計(jì)算機(jī)視覺原理,利用無人機(jī)搭載可見光相機(jī)獲取的高重疊度、高分辨率影像以及飛控系統(tǒng)提供的無人機(jī)位置信息實(shí)現(xiàn)災(zāi)場(chǎng)三維重建,技術(shù)流程包括數(shù)據(jù)預(yù)處理、特征提取、影像匹配、運(yùn)動(dòng)與結(jié)構(gòu)重建、地理注冊(cè)等。通過重建模型誤差評(píng)估,驗(yàn)證了本試驗(yàn)系統(tǒng)可實(shí)現(xiàn)低成本、較可靠的災(zāi)情應(yīng)急測(cè)量,可為災(zāi)損目標(biāo)精準(zhǔn)識(shí)別、災(zāi)情快速評(píng)估提供強(qiáng)技術(shù)保障。
試驗(yàn)所用低空無人機(jī)災(zāi)害測(cè)量系統(tǒng)以小型固定翼無人機(jī)為飛行平臺(tái),搭載輕巧型、高分辨率、消費(fèi)級(jí)非量測(cè)數(shù)碼相機(jī),低空獲取小區(qū)域、高重疊度的高分辨率可見光影像。試驗(yàn)系統(tǒng)主要由無人飛行平臺(tái)、飛行控制系統(tǒng)、地面控制系統(tǒng)、任務(wù)傳感器、地面保障系統(tǒng)5部分(主要參數(shù)見表1)組成。
表1 無人機(jī)平臺(tái)及傳感器主要性能指標(biāo)Table 1 Main index of the UAV platform and sensors
無人機(jī)的飛行控制器(簡(jiǎn)稱“飛控”)是其控制中心,采用全套慣性傳感器,包括三維MEMS陀螺儀、三維加速傳感器和全向磁場(chǎng)傳感器等,擁有精準(zhǔn)的位姿控制能力。一方面,飛控負(fù)責(zé)處理輸入信號(hào),通過神經(jīng)元自適應(yīng)控制算法實(shí)現(xiàn)各種飛行動(dòng)作,完成飛行姿態(tài)和航向控制,保障飛行器穩(wěn)定飛行,并控制相機(jī)吊架和相機(jī)快門等;另一方面,飛控?cái)?shù)據(jù)可為航拍影像提供位置及方向參考。本文利用飛控提供的照片曝光時(shí)刻相機(jī)位置信息,實(shí)現(xiàn)災(zāi)場(chǎng)重建模型的地理注冊(cè)。
試驗(yàn)區(qū)位于山東省臨沂市,設(shè)計(jì)航飛區(qū)面積約500×300 m2。區(qū)內(nèi)地貌特征明顯,且因建筑施工多處發(fā)生小面積滑坡。航飛當(dāng)天多云,風(fēng)力5級(jí)左右。為檢驗(yàn)三維重建點(diǎn)云模型誤差,在區(qū)域內(nèi)布設(shè)了21個(gè)十字形地面標(biāo)識(shí)點(diǎn)(規(guī)格:9 cm×26 cm)(圖1),并采用GPS RTK(Real Time Kinematic)(型號(hào):靈銳S86RTK)進(jìn)行標(biāo)識(shí)點(diǎn)坐標(biāo)的量測(cè)。機(jī)位置、內(nèi)外方位元素及災(zāi)場(chǎng)特征點(diǎn)云信息[6],并可依據(jù)無人機(jī)飛控提供的位置信息,實(shí)現(xiàn)點(diǎn)云數(shù)據(jù)的地理注冊(cè),為應(yīng)急協(xié)同和一體化作業(yè)提供參考。該方法主要包括數(shù)據(jù)預(yù)處理、特征點(diǎn)提取、影像匹配、運(yùn)動(dòng)與結(jié)構(gòu)重建、地理注冊(cè)5步,其技術(shù)流程見圖2。
圖1 無人機(jī)航拍區(qū)及標(biāo)識(shí)點(diǎn)布設(shè)Fig.1 UAV surveying and signature points
圖2 災(zāi)場(chǎng)重建流程Fig.2 Schema of disaster scene reconstruction
為確保影像較高重疊度和后期模型誤差評(píng)估過程中可清晰辨認(rèn)地面標(biāo)識(shí)點(diǎn),預(yù)設(shè)飛行相對(duì)航高為120 m,航向重疊為90%,旁向重疊為60%,2次航飛,南北向共飛行24條航帶,拍攝269幅影像。相機(jī)焦距為24 mm,影像分辨率為4 320×3 240像素,對(duì)應(yīng)地面分辨率達(dá)到厘米級(jí)。此外,為降低飛行拍攝影像的模糊度,相機(jī)快門速度設(shè)置為1/500 s。通過航飛和地面實(shí)測(cè),即可獲取高重疊度低空影像、飛控?cái)?shù)據(jù)、地面標(biāo)識(shí)點(diǎn)位置等信息。
基于計(jì)算機(jī)視覺原理的影像重建技術(shù),可在不依賴相機(jī)校驗(yàn)或其它先驗(yàn)信息提供位置、姿態(tài)或幾何關(guān)系前提下,從無序的無人機(jī)影像中自動(dòng)恢復(fù)相
本步驟主要進(jìn)行數(shù)據(jù)分析和影像質(zhì)量檢核。初步數(shù)據(jù)分析發(fā)現(xiàn):1)飛行器受偏向風(fēng)干擾,使得影像重疊率不規(guī)則(旁向重疊率相差較大)、畸變較大,影像間明暗對(duì)比度不盡相同;2)飛控系統(tǒng)GPS采用動(dòng)態(tài)絕對(duì)定位,定位精度較低(約20 m)。故需檢查影像的清晰度、層次的豐富性、色彩反差、色調(diào)等,手動(dòng)剔除明顯模糊、重影和錯(cuò)位的影像,最終保留264幅影像。
在目標(biāo)識(shí)別和特征匹配領(lǐng)域,基于局部不變量描述子(Local Invariant Descriptor)的特征點(diǎn)提取方法 成 果 豐 富,如 SIFT(Scale-Invariant Features Transform)算 子[7]、PCA-SIFT (Principal Component Analysis SIFT)算 子[8]、SURF(Speeded Up Robust Features)算子[9]等。其中,寬基線條件下,SIFT算子在旋轉(zhuǎn)、尺度縮放、高斯模糊等衡量參數(shù)上都明顯優(yōu)于其它兩種算子[10],適合用于數(shù)量多、畸變大的無人機(jī)影像特征提?。?1],其主要包括尺度空間極值檢測(cè)、特征點(diǎn)位置精確定位、特征點(diǎn)主方向的確定以及特征描述符生成4步。
目前SIFT算法的具體實(shí)現(xiàn)主要針對(duì)低分辨率實(shí)驗(yàn)影像進(jìn)行算子重復(fù)性和準(zhǔn)確性測(cè)試[12],面對(duì)高分辨率無人機(jī)影像時(shí)易出現(xiàn)計(jì)算機(jī)內(nèi)存不足等問題。為此,筆者采取對(duì)高分辨率無人機(jī)影像分塊策略,即在每一子塊上分別提取特征點(diǎn),然后合并子塊生成最終結(jié)果。此外,為避免各子塊交界處特征信息丟失,需確保塊與塊之間有一定的重疊度(>10%)。
在確定各影像提取的特征點(diǎn)位置并建立相應(yīng)128維局部特征描述子后,可采用特征向量歐氏距離作為特征點(diǎn)相似性的度量[7],從而建立各影像間的關(guān)聯(lián)關(guān)系。具體過程包括:1)利用基于K-D樹的近似最鄰近(Approximate Nearest Neighbors,ANN)算法[13]對(duì)影像進(jìn)行粗匹配;2)采用隨機(jī)抽取一致性(Random Sample Consensus,RANSAC)策略[14]和8點(diǎn)算法[15]相結(jié)合,估計(jì)出一個(gè)魯棒的基本矩陣,進(jìn)一步剔除誤匹配點(diǎn),最終得到滿足對(duì)極幾何約束的匹配特征點(diǎn)對(duì)。為直觀顯示,本文根據(jù)無人機(jī)影像間的關(guān)聯(lián)關(guān)系建立高度簇聚集的影像幾何連接圖(圖3),其中結(jié)點(diǎn)表示單幅影像,直線連接表示影像間的關(guān)聯(lián)。
圖3 影像連接Fig.3 Connectivity graph of the whole images
計(jì)算機(jī)視覺中,運(yùn)動(dòng)與結(jié)構(gòu)重建(Structure from Motion,Sf M)是指從二維圖像對(duì)或視頻序列中恢復(fù)出相應(yīng)的三維信息[16],包括成像攝像機(jī)運(yùn)動(dòng)參數(shù)、場(chǎng)景的結(jié)構(gòu)信息等。目前Snavely[6]的Bundler及其圖形版本Photosynth是對(duì)現(xiàn)行Sf M優(yōu)秀算法的集成,具有較好穩(wěn)定性和執(zhí)行效率,其它Sf M開源軟件還包括 Farenzena等[17]的Samantha、Henri的SFMToolkit(Bundler的GPU版本)等。
本文參照Bundler開源軟件包,采用基于Levenberg-Marquardt(LM)[18]算法的通用稀疏光束法平差(Sparse Bundler Adjustment)法[19]解決了目標(biāo)函數(shù)的非線性最小二乘問題。通過逐步迭代不斷最小化投影點(diǎn)與觀測(cè)圖像點(diǎn)之間的重投影誤差,解算出最佳相機(jī)位置、姿態(tài),進(jìn)而得到試驗(yàn)區(qū)三維點(diǎn)云坐標(biāo)(圖4)。
圖4 三維重建點(diǎn)云模型Fig.4 Point cloud model of 3D reconstruction
地理注冊(cè)(Geo-registration)指實(shí)現(xiàn)從三維重建點(diǎn)云坐標(biāo)到地理坐標(biāo)間的映射變換過程,包括基于參考影像(如衛(wèi)星影像、數(shù)字高程模型等)的配準(zhǔn)方法和直接地理坐標(biāo)(如相機(jī)的GPS位置信息)注冊(cè)方法。運(yùn)動(dòng)與結(jié)構(gòu)重建得到的點(diǎn)云坐標(biāo)是任意空間直角坐標(biāo)系下的,實(shí)際應(yīng)用中需將其轉(zhuǎn)換為WGS-84等坐標(biāo)系下才能進(jìn)行重建模型誤差評(píng)估及災(zāi)損量測(cè)工作。針對(duì)災(zāi)害應(yīng)急條件下地面控制點(diǎn)布置困難等問題,考慮在無地面控制點(diǎn)條件下,嘗試?yán)脽o人機(jī)飛控系統(tǒng)提供的輔助數(shù)據(jù)實(shí)現(xiàn)地物三維坐標(biāo)的自動(dòng)解算。
已知拍照時(shí)刻飛控系統(tǒng)記錄的相機(jī) WGS-84大地坐標(biāo)(B,L,H),可將其轉(zhuǎn)換為 WGS-84空間直角坐標(biāo);此外,已知三維重建得到的相機(jī)在任意空間直角坐標(biāo)系下的坐標(biāo),可將其與前者進(jìn)行空間匹配與相互轉(zhuǎn)換。當(dāng)兩坐標(biāo)系下公共點(diǎn)數(shù)大于3時(shí),可采用布爾莎7參數(shù)模型及間接平差原理組成誤差方程式,利用RANSAC模型[13]估計(jì)出魯棒的三維轉(zhuǎn)換矩陣,求得轉(zhuǎn)換參數(shù),并可排除飛控?cái)?shù)據(jù)中GPS位置異常點(diǎn)。最后,利用求得的轉(zhuǎn)換參數(shù),將整個(gè)點(diǎn)云模型轉(zhuǎn)換到WGS-84坐標(biāo)系下。
為評(píng)估重建模型的質(zhì)量,首先需獲取模型中標(biāo)識(shí)點(diǎn)的WGS-84坐標(biāo),包括:1)選取多張含有公共地面標(biāo)識(shí)點(diǎn)的影像,利用Matlab軟件手動(dòng)提取標(biāo)識(shí)點(diǎn)中心像素坐標(biāo);2)結(jié)合影像三維重建獲得的相機(jī)內(nèi)、外方位元素,將標(biāo)識(shí)點(diǎn)從像素坐標(biāo)轉(zhuǎn)換到任意直角坐標(biāo)系下;3)經(jīng)地理注冊(cè),再將其轉(zhuǎn)換到 WGS-84坐標(biāo)系下;4)以GPS RTK測(cè)得的標(biāo)識(shí)點(diǎn)坐標(biāo)為基準(zhǔn),比較標(biāo)識(shí)點(diǎn)坐標(biāo),定量評(píng)估重建模型的誤差(圖5)。
圖5 無控制點(diǎn)條件下模型的絕對(duì)誤差與相對(duì)誤差Fig.5 Absolute and relative errors of point cloud model without ground control points
在無地面控制點(diǎn)條件下,經(jīng)飛控?cái)?shù)據(jù)地理注冊(cè)得到18個(gè)標(biāo)識(shí)點(diǎn)(因含有2、7、21號(hào)標(biāo)識(shí)點(diǎn)的影像不足2張,故不納入誤差評(píng)估)的計(jì)算坐標(biāo)。由圖5a可見,在X、Y、Z3個(gè)方向上,18個(gè)點(diǎn)的計(jì)算坐標(biāo)與測(cè)量坐標(biāo)位置的絕對(duì)誤差均達(dá)到米級(jí),尤其X方向上絕對(duì)誤差高達(dá)15 m。分析造成誤差大的原因主要有:1)飛控系統(tǒng)中GPS動(dòng)態(tài)測(cè)量誤差大;2)相機(jī)曝光時(shí)刻與飛控?cái)?shù)據(jù)文件記錄不同步帶來時(shí)間延遲性系統(tǒng)誤差;3)人工選取標(biāo)識(shí)點(diǎn)時(shí)存在1~3個(gè)像素的識(shí)別誤差;4)受重建方法及影像質(zhì)量影響,還存在影像三維重建誤差。根據(jù)誤差傳播定律,這些誤差都會(huì)影響災(zāi)場(chǎng)模型的絕對(duì)誤差。
由于災(zāi)害應(yīng)急測(cè)量更側(cè)重于災(zāi)情信息提取,災(zāi)損對(duì)象的絕對(duì)坐標(biāo)并不十分重要,重要的是其相對(duì)位置與空間關(guān)系。因此,應(yīng)重點(diǎn)關(guān)注模型的相對(duì)誤差,即重建模型的拓?fù)淇煽啃?。為此,筆者通過比較標(biāo)識(shí)點(diǎn)間的相對(duì)長(zhǎng)度誤差(即計(jì)算長(zhǎng)度與實(shí)際長(zhǎng)度之差與實(shí)際長(zhǎng)度的比值),以此來衡量重建模型的拓?fù)淇煽啃约聪鄬?duì)誤差(18個(gè)標(biāo)識(shí)點(diǎn)共153條計(jì)算長(zhǎng)度)。由圖5b可知,重建模型的相對(duì)誤差在4‰以內(nèi),可滿足災(zāi)害應(yīng)急測(cè)量需求。
試驗(yàn)過程中,筆者嘗試選取了一些地面標(biāo)識(shí)點(diǎn)作為控制點(diǎn)進(jìn)行災(zāi)場(chǎng)三維重建,發(fā)現(xiàn)加入控制點(diǎn)后模型的絕對(duì)誤差顯著降低(圖6)。其中,圖6a、圖6b分別表示利用1個(gè)和3個(gè)控制點(diǎn)時(shí)的模型絕對(duì)誤差。當(dāng)控制點(diǎn)點(diǎn)數(shù)為1時(shí),模型誤差約6 m;而當(dāng)點(diǎn)數(shù)增至3時(shí),誤差降低為13 cm。進(jìn)一步分析利用1個(gè)(圖6c)和3個(gè)(圖6d)控制點(diǎn)時(shí)模型的相對(duì)誤差。發(fā)現(xiàn)由于1個(gè)控制點(diǎn)時(shí),地理注冊(cè)求解的三維模型轉(zhuǎn)換參數(shù)同時(shí)受飛控GPS與地面差分GPS兩種不同定位精度信息的干擾,使得模型相對(duì)誤差急劇異常;而利用3個(gè)控制點(diǎn)時(shí),高精度GPS RTK占主導(dǎo),使得相對(duì)誤差又迅速降低。這表明:若進(jìn)一步采用高精度飛控系統(tǒng),模型的絕對(duì)誤差與相對(duì)誤差都將大幅降低。
圖6 添加控制點(diǎn)后模型的絕對(duì)誤差、相對(duì)誤差Fig.6 Absolute and relative accuracy of point cloud model with GCPs added
本文介紹了基于低空無人機(jī)影像的災(zāi)場(chǎng)三維重建方法,探討了在無地面控制點(diǎn)條件下,利用無人機(jī)自身飛控系統(tǒng)記錄的低精度位置信息實(shí)現(xiàn)重建模型地理注冊(cè)的方法。利用地面布設(shè)的標(biāo)識(shí)點(diǎn),進(jìn)行了災(zāi)場(chǎng)重建模型的誤差評(píng)估與分析,雖然模型的絕對(duì)誤差較大,但其相對(duì)誤差較小,可滿足災(zāi)害應(yīng)急測(cè)量與災(zāi)情評(píng)估需求。此外,通過嘗試?yán)玫孛婵刂泣c(diǎn)約束模型重建,大幅降低了模型的絕對(duì)誤差。為此,下一步應(yīng)用試驗(yàn)中,將考慮采用高精度的飛控系統(tǒng)和利用地面自然控制點(diǎn)兩種途徑,以降低無人機(jī)應(yīng)急測(cè)量與重建模型的絕對(duì)誤差。
本研究實(shí)驗(yàn)數(shù)據(jù)采集工作得到山東臨沂風(fēng)云航空科技有限公司的大力支持,此致謝忱!
[1]沈永林,李曉靜,吳立新.基于航空影像和LiDAR數(shù)據(jù)的海地地震滑坡識(shí)別研究[J].地理與地理信息科學(xué),2010,27(1):16-20.
[2]雷添杰,李長(zhǎng)春,何孝瑩.無人機(jī)航空遙感系統(tǒng)在災(zāi)害應(yīng)急救援中的應(yīng)用[J].自然災(zāi)害學(xué)報(bào),2011,20(1):178-183.
[3]IRSCHARA A,KAUFMANN V,KLOPSCHITZ M,et al.Towards fully automatic photogrammetric reconstruction using digital images taken from UAVs[A].ISPRS TC VII Symposium-100 Years ISPRS[C].2010.
[4]DOUTERLOIGNE K,GAUTAMA S,PHILIPS W,et al.On the accuracy of 3D landscapes from UAV image data[A].IGARSS[C].2010.
[5]GADEMER A,PETIPAS B,MOBAIED S,et al.Developing a low cost vetical take off and landing unmanned aerial system for centimetric monitoring of biodiversity——the fontainebleav forrest case[A].IGARSS[C].2010.
[6]SNAVELY N.Scene Reconstruction and Visualization from Internet Photo Collections[D].University of Washington,2008.
[7]LOWE D G.Distinctive image features from scale-invariant interest points[J].International Journal of Computer Vision,2004,60(2):91-110.
[8]YAN K,SUKTHANKAR R.PCA-SIFT:A more distinctive representation for local image descriptors[A].CVPR[C].2004.511-517.
[9]BAY H,ESS A,TUYTELAARS T,et al.SURF:Speeded up robust features[A].Computer Vision and Image Understanding[C].2008,110(3):346-359.
[10]LUO J,OUBONG G.A comparison of SIFT,PCA-SIFT and SURF[J].International Journal of Image Processing,2009,3(4):143-152.
[11]宮阿都,何孝瑩,雷添杰,等.無控制點(diǎn)數(shù)據(jù)的無人機(jī)影像快速處理[J].地球信息科學(xué)學(xué)報(bào),2010,12(2):254-260.
[12]LINGUA A,MARENCHINO D,NEX F.Performance analysis of the SIFT operator for automatic feature extraction and matching in photogrammetric applications[J].Sensors,2009,9(5):3745-3766.
[13]ARYA S,MOUNT D M,NETANYAHU N S,et al.An optimal algorithm for approximate nearest neighbor searching fixed dimensions[J].The ACM,1998,45(6):891-923.
[14]FISCHLER M A,BOLLES R C.Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography[J].Communications of ACM,1981,24(6):381-395.
[15]HARTLEY R,ZISSERMAN A.Multiple View Geometry in Computer Vision[M].Cambridge University Press,2000.
[16]李德仁,江志軍.車載視頻圖像序列卡爾曼濾波及其移動(dòng)量測(cè)應(yīng)用[J].測(cè)繪科學(xué),2006(4):11-13.
[17]FARENZENA M,F(xiàn)USIELLO A,GHERARDI M,et al.Structure and motion pipeline on a hierchical cluster tree[A].IEEE 3DIM[C].2009.
[18]NOCEDAL J,WRIGHT S J.Numerical Optimization,2nd Edition[M].Springer,2006.
[19]LOURAKIS M,ARGYROS A.The Design and Implementation of a Generic Sparse Bundle Adjustment Software Package Based on the Levenberg-Marquardt Algorithm[R].Institute of Computer Science-FORTH,Greece,2004.
Reconstruction of Disaster Scene from UAV Images and Flight-Control Data
SHEN Yong-lin1,LIU Jun2,WU Li-xin1,LI Fa-shuai2,WANG Zhi3
(1.KeyLaboratoryofEnvironmentChange&NaturalDisasterofMOE,BeijingNormalUniversity,Beijing100875;2.CollegeofGeoscienceandSurveyingEngineering,ChinaUniversityofMiningandTechnology,Beijing100083;3.CollegeofResourcesandCivilEngineering,NortheasternUniversity,Shenyang110189,China)
The increasing demand for Unmanned Aerial Vehicles(UAVs)is typically attributed to the low manufacturing and operational costs,flexibility of the platforms in disaster response missions.As the limitations of conventional UAV remote sensing in spatial information collections,disaster scene reconstruction plays an important role in disaster surveying.To meet the demand of disaster surveying,this paper developed a relatively accurate and low-cost 3D-reconstruction method to generate 3D disaster scene from UAV images supported with flight-control data.Based on a UAV system planning and platform design for disaster surveying,a landslide affected area in Shandong is selected for test.For disaster scene reconstruction,a method was proposed based on computer vision to recover camera′s positions and postures through feature extraction,image matching and Structure from Motion(Sf M)reconstruction.The UAV′s flight-control data was applied to conduct the geo-registration for the whole point cloud model.To verify the accuracy of the reconstructed 3D scene,GPS-RTK (Real Time Kinematic)measured ground control points were used for absolute error and relative error analysis.The results indicated that a relative error less than 4‰ was achieved for the reconstructed 3D scene.It demonstrates that the proposed UAV image reconstruction based approach for disaster surveying is feasible and effective.
Unmanned Aerial Vehicles;flight-control data;disaster surveying;disaster scene reconstruction;geo-registration
P208
A
1672-0504(2011)06-0013-05
2011-08- 20;
2011-10-11
973計(jì)劃項(xiàng)目課題(2011CB707102);國家自然科學(xué)基金課題(40901220);中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)資金資助項(xiàng)目(105565GK);河南理工大學(xué)礦山空間信息技術(shù)國家測(cè)繪局重點(diǎn)實(shí)驗(yàn)室開放基金資助項(xiàng)目(KLM201108)
沈永林(1983-),男,博士研究生,研究方向?yàn)闉?zāi)害測(cè)量與數(shù)字減災(zāi)。E-mail:yonglinshen@gmail.com