李虹 曹琳 紀(jì)任鑫 陳軍鵬 宋亞婷 王永威
摘? 要:為實(shí)現(xiàn)災(zāi)害復(fù)雜環(huán)境中無人機(jī)視頻影像的快速、優(yōu)質(zhì)拼接,綜合利用無人機(jī)POS數(shù)據(jù)、圖像特征點(diǎn)提取和匹配技術(shù),建立一種基于圖優(yōu)化技術(shù)的無人機(jī)視頻影像快速拼接方法,并選取典型高山峽谷區(qū)域開展應(yīng)用試驗(yàn)。試驗(yàn)表明該方法可以實(shí)現(xiàn)航拍視頻的快速實(shí)時(shí)拼接,拼接后影像精度與線下后期拼接數(shù)據(jù)相差不大,很大程度上提高圖像拼接的效率。該文方法可以實(shí)現(xiàn)無人機(jī)航拍視頻快速拼接,滿足現(xiàn)場數(shù)據(jù)檢驗(yàn)以及其他快速應(yīng)急響應(yīng)的需求,在災(zāi)害應(yīng)急保障與救援中有重要應(yīng)用意義。
關(guān)鍵詞:無人機(jī);影像快速拼接;圖優(yōu)化;確定關(guān)鍵幀;特征點(diǎn)提取
中圖分類號(hào):V279+.2? ? ? 文獻(xiàn)標(biāo)志碼:A? ? ? ? ? 文章編號(hào):2095-2945(2024)06-0007-05
Abstract: In order to realize the fast and high quality mosaic of UAV video images in complex disaster environment, a fast mosaic method of UAV video images based on graph optimization technology is established by comprehensively using UAV POS data and image feature point extraction and matching technology, and typical mountain and canyon areas are selected to carry out application experiments. The experimental results show that this method can realize the fast real-time stitching of aerial video, and the image accuracy after stitching is similar to that of offline later stitching data, which improves the efficiency of image stitching to a great extent. This method can realize the rapid stitching of UAV aerial video, meet the needs of on-site data inspection and other rapid emergency response, and therefore has important application significance in disaster emergency support and rescue.
Keywords: UAV; fast image stitching; graph optimization; determining key frames; feature point extraction
隨著無人機(jī)遙感平臺(tái)系統(tǒng)和載荷技術(shù)的不斷發(fā)展,利用無人機(jī)獲取地面影像的數(shù)據(jù),開展正射影像拼接和地表三維模型建立已成為應(yīng)急測繪作業(yè)的主流方式。無人機(jī)作為一種新型航空遙感平臺(tái),具備在人力無法進(jìn)入的危險(xiǎn)區(qū)域開展低空作業(yè)的優(yōu)勢,可以快速獲取地表的高分辨率圖像數(shù)據(jù),能夠?yàn)榭拐鹁葹?zāi)、應(yīng)急救援及時(shí)提供數(shù)據(jù)支撐[1]。
利用無人機(jī)采集到的影像精度較高,但像幅較小,需進(jìn)行影像拼接處理后才能獲得完整的測區(qū)影像。傳統(tǒng)的無人機(jī)正射影像拼接方法一般采取離線處理方式,利用攝影測量技術(shù)恢復(fù)地表的三維點(diǎn)云和單張照片對應(yīng)的位置和姿態(tài)信息,進(jìn)一步進(jìn)行密集匹配獲取數(shù)字表面模型(DSM)和拼接后的正射影像(DOM)。但使用該方法進(jìn)行影像拼接處理比較耗時(shí),一般只針對相機(jī)拍攝的靜態(tài)圖像,所獲得影像成果主要用于災(zāi)害后期的損失評(píng)估或地圖制作等測繪任務(wù)。為了能夠快速獲取拍攝區(qū)域大范圍監(jiān)測影像,滿足突發(fā)事件和災(zāi)害發(fā)生時(shí)需要實(shí)時(shí)掌握災(zāi)場環(huán)境數(shù)據(jù)的應(yīng)急需求,往往通過無人機(jī)拍攝視頻數(shù)據(jù)進(jìn)行實(shí)時(shí)傳輸,同時(shí)要求在無人機(jī)飛行時(shí)對數(shù)據(jù)進(jìn)行實(shí)時(shí)拼接,以達(dá)到能夠快速查看災(zāi)情區(qū)域的效果。
近年來,無人機(jī)航拍視頻快速拼接已成為無人機(jī)測繪領(lǐng)域的熱點(diǎn)研究問題[2]?,F(xiàn)有的無人機(jī)視頻拼接的主流算法有3類,雖然在應(yīng)用場景上各具特色,但都有不足之處。其中應(yīng)用領(lǐng)域最廣、使用頻率最高的圖像拼接方法是基于圖像特征點(diǎn)匹配,即通過提取匹配視頻圖像的特征點(diǎn),快速計(jì)算視頻圖像間的變換參數(shù),進(jìn)而完成視頻的拼接。特征點(diǎn)提取算法最常用的有3種,分別為SIFT算法、SURF算法和ORB算法。SIFT算法(尺度不變特征變換)由Lowe[3]于1999年首次提出,因其對尺度變化、光照變化、旋轉(zhuǎn)等均有較好的魯棒性,至今為止仍是精度最高的特征之一。Bay等人在2006年提出了SURF算法,它是利用積分圖像加速卷積運(yùn)算,使得運(yùn)算速度有了很大提升。Ethan Rublee等人在2011年提出了ORB算法,它是在綜合FAST特征檢測與BRIEF特征描述的基礎(chǔ)上進(jìn)行了優(yōu)化和改進(jìn)[4]。但基于圖像特征點(diǎn)匹配的方法適用于圖像序列較短的情況,對于長時(shí)序的圖像序列會(huì)出現(xiàn)明顯的誤差累積效應(yīng),從而導(dǎo)致拼接效率降低。且該方法對圖像場景和特征點(diǎn)數(shù)量有較高要求,對于稀疏特征點(diǎn)或無特征點(diǎn)區(qū)域,拼接過程易中斷從而導(dǎo)致拼接失敗,特征點(diǎn)數(shù)量過多則會(huì)影響拼接效率。
直接利用無人機(jī)飛行時(shí)獲取的POS(Position and Orientation System)數(shù)據(jù)進(jìn)行影像拼接也是常用的處理方式,該方法利用無人機(jī)自帶的POS系統(tǒng)獲取經(jīng)緯高和姿態(tài)數(shù)據(jù),然后基于共線條件方程求解每個(gè)像素對應(yīng)的地理坐標(biāo),最后基于地理位置進(jìn)行圖像拼接。該方法對無人機(jī)飛行獲取的POS數(shù)據(jù)精度要求較高,而在實(shí)際飛行過程中,由于災(zāi)害現(xiàn)場環(huán)境較為復(fù)雜,獲取的POS數(shù)據(jù)精度存在不穩(wěn)定的問題,導(dǎo)致獲取的相鄰圖像存在明顯的錯(cuò)位現(xiàn)象,使得拼接后的數(shù)據(jù)會(huì)出現(xiàn)明顯的接縫。還有一類影像拼接方法是先基于POS數(shù)據(jù)校正原始圖像獲取正射影像,然后通過特征提取和匹配來求解基準(zhǔn)圖像和待配準(zhǔn)圖像的幾何投影變換關(guān)系,最后通過坐標(biāo)微調(diào)的方式對正射影像重新校正后再基于地理位置拼接圖像。但該方法依然存在系統(tǒng)偏差、速度較慢等問題。
本文從應(yīng)急救援需求出發(fā),為應(yīng)對災(zāi)害現(xiàn)場復(fù)雜惡劣環(huán)境導(dǎo)致飛行不穩(wěn)定造成的影像拼接問題,采用綜合利用多種信息的無人機(jī)視頻快速拼接方法進(jìn)行影像拼接處理試驗(yàn)。該方法以POS數(shù)據(jù)作為相機(jī)位置和姿態(tài)的初始值,利用關(guān)鍵幀圖像特征點(diǎn)提取和匹配結(jié)果來構(gòu)建圖優(yōu)化的約束,然后基于圖優(yōu)化對位置和姿態(tài)進(jìn)行更新,最后利用優(yōu)化后的位置和姿態(tài)完成圖像的快速拼接。
1? 影像快速拼接方法
基于圖優(yōu)化技術(shù)的無人機(jī)視頻數(shù)據(jù)快速拼接方法是綜合利用圖像特征點(diǎn)提取和匹配、無人機(jī)POS數(shù)據(jù)及圖優(yōu)化技術(shù),對視頻數(shù)據(jù)進(jìn)行快速處理,能夠?qū)o人機(jī)拍攝的視頻數(shù)據(jù)進(jìn)行實(shí)時(shí)拼接。該方法實(shí)現(xiàn)主要包括3個(gè)關(guān)鍵步驟,即確定關(guān)鍵幀、特征點(diǎn)提取和匹配、圖優(yōu)化。確定關(guān)鍵幀的作用是從視頻數(shù)據(jù)中確定用于拼接的若干幀圖像數(shù)據(jù),由于視頻的幀率較高,關(guān)鍵幀的確定可以降低計(jì)算的數(shù)據(jù)量;特征點(diǎn)提取與匹配的作用是利用匹配后的二維點(diǎn)對應(yīng)信息來計(jì)算出相鄰圖像拍攝時(shí)的相對位置和姿態(tài)數(shù)據(jù),用來作為圖優(yōu)化的邊;圖優(yōu)化對相機(jī)的位置和姿態(tài)信息進(jìn)行優(yōu)化,每個(gè)相機(jī)的位置和姿態(tài)數(shù)據(jù)對應(yīng)了圖優(yōu)化中的節(jié)點(diǎn),圖像匹配的結(jié)果用來對節(jié)點(diǎn)進(jìn)行調(diào)整。
基于圖優(yōu)化技術(shù)的無人機(jī)視頻數(shù)據(jù)快速拼接方法主要分為以下幾個(gè)步驟,技術(shù)流程如圖1所示。
1.1? 確定關(guān)鍵幀
在選定基準(zhǔn)幀影像后,為了提高圖像拼接的效率,獲取滿足重疊度要求的影像對需要提取關(guān)鍵幀影像。判定當(dāng)前幀圖像是否為關(guān)鍵幀的依據(jù)是當(dāng)前幀與參考幀之間的重疊度[5]。在選定了重疊度和參考幀之后,計(jì)算當(dāng)前幀與基準(zhǔn)幀的重疊度,若重疊度滿足要求,則將當(dāng)前幀選為關(guān)鍵幀,否則移動(dòng)到下一幀,循環(huán)上述過程。在選定關(guān)鍵幀之后,再進(jìn)行下一關(guān)鍵幀的提取[6]。
為提高關(guān)鍵幀的提取效率,本文采用的方法是利用POS數(shù)據(jù)、飛行高度數(shù)據(jù)以及相機(jī)標(biāo)定參數(shù)來確定每張視頻圖像在地面上的覆蓋范圍,然后根據(jù)覆蓋范圍計(jì)算出圖像重疊度,最后根據(jù)航帶內(nèi)以及航帶之間的圖像重疊度來判斷當(dāng)前幀是否為一個(gè)關(guān)鍵幀。為了能夠達(dá)到較好的特征點(diǎn)匹配效果,關(guān)鍵幀的選取要保證相鄰的關(guān)鍵幀之間的重疊度達(dá)到一定的數(shù)值,比如航帶內(nèi)的重疊度要求達(dá)到80%以上,不同航帶之間的重疊度要求達(dá)到30%以上。計(jì)算重疊度時(shí),假設(shè)飛行高度不變,并且假設(shè)地平面沒有起伏,那么相鄰圖像對應(yīng)的地表區(qū)域在XY平面上可以用矩形和來表示,重疊率的計(jì)算公式如下
式中:iou為重疊度;R1為采集圖像地表區(qū)域在X方向上的距離;R2為采集圖像地表區(qū)域在Y方向上的距離。
1.2? 特征點(diǎn)提取與匹配
特征點(diǎn)提取與匹配是圖像拼接的核心步驟,圖像配準(zhǔn)的精度和速度直接影響了拼接的質(zhì)量和實(shí)時(shí)性。本文主要是利用特征點(diǎn)提取算法從圖像中得到稀疏的特征點(diǎn),然后利用特征點(diǎn)匹配建立相鄰圖片之間的特征點(diǎn)對應(yīng)關(guān)系。本文采用ORB 算法進(jìn)行特征點(diǎn)的提取,ORB算法是2011年由Ethan Rublee等人提出的[7]。它是在FAST特征檢測與BRIEF特征描述的基礎(chǔ)上提出的,并對其進(jìn)行了優(yōu)化和改進(jìn)。為了使FAST算法有一定的尺度不變性,ORB算法首先對圖像進(jìn)行降采樣與尺度空間變化,然后構(gòu)建金字塔影像,再在金子塔影像上進(jìn)行特征點(diǎn)檢測,并構(gòu)建特征描述子[4]。特征點(diǎn)提取之后需要用特征描述子對兩幅圖像進(jìn)行粗匹配,粗匹配結(jié)果可能會(huì)出現(xiàn)大量的誤匹配點(diǎn),嚴(yán)重影響之后的單應(yīng)矩陣計(jì)算的準(zhǔn)確度,為圖像拼接帶來難度。因此,需要將這些錯(cuò)誤的匹配點(diǎn)剔除[8]。本文采用RANSAC算法對錯(cuò)誤匹配對進(jìn)行剔除,該算法能夠在包含異常數(shù)據(jù)的數(shù)據(jù)集中得到有效樣本數(shù)據(jù)。這些異常數(shù)據(jù)有可能來自錯(cuò)誤的計(jì)算、測量的誤差等情況,例如圖像特征點(diǎn)匹配中出現(xiàn)的錯(cuò)誤匹配對就是來自系統(tǒng)誤差和算法誤差。
利用特征點(diǎn)提取算法來從圖像中得到稀疏的特征點(diǎn),然后利用特征點(diǎn)匹配來建立相鄰圖片之間的特征點(diǎn)對應(yīng)關(guān)系。為了能夠和POS數(shù)據(jù)的尺度一致,需將特征點(diǎn)轉(zhuǎn)換為地面坐標(biāo)。具體方法是根據(jù)相機(jī)的標(biāo)定參數(shù)(焦距、主點(diǎn)、畸變系數(shù)),以及飛行的高度將特征點(diǎn)投影到地面。為了簡化運(yùn)算以及后續(xù)的拼接,假設(shè)地表是平坦的,即所有的地面點(diǎn)的高程值是相同的。因此在計(jì)算相對位置和姿態(tài)時(shí),只需要考慮平面上的平移和旋轉(zhuǎn),這樣就將復(fù)雜的三維位置與姿態(tài)計(jì)算問題簡化為二維平移與旋轉(zhuǎn)。特征點(diǎn)提取和匹配技術(shù)流程如圖2所示。
1.3? 圖優(yōu)化
在基于圖像的三維重建中,往往需要將地面點(diǎn)的三維坐標(biāo),以及相機(jī)的位置和姿態(tài)一同進(jìn)行優(yōu)化。當(dāng)圖像的數(shù)量較多時(shí),點(diǎn)云的數(shù)量也較大,導(dǎo)致優(yōu)化的速度較慢。圖優(yōu)化只對位置和姿態(tài)進(jìn)行優(yōu)化,需要進(jìn)行優(yōu)化的參數(shù)較少,運(yùn)算量大幅降低,通常在幾次迭代后就可以收斂,因此圖優(yōu)化廣泛地應(yīng)用于實(shí)時(shí)定位和建圖(SLAM)領(lǐng)域。基于圖優(yōu)化的SLAM算法的優(yōu)勢在于它可以消除長時(shí)間的誤差,使所建地圖更加精確等[9]。本文將圖優(yōu)化技術(shù)應(yīng)用于無人機(jī)視頻影像的拼接,也能夠發(fā)揮獨(dú)特的優(yōu)勢。具體流程是:在得到關(guān)鍵幀數(shù)據(jù)后,以關(guān)鍵幀數(shù)據(jù)對應(yīng)的拍攝位置和姿態(tài)作為未知數(shù)。每個(gè)圖像對應(yīng)圖優(yōu)化中的一個(gè)節(jié)點(diǎn)(Node),相鄰圖像之間的相對位置和姿態(tài)作為圖優(yōu)化中的邊(Edge)。節(jié)點(diǎn)的位置和姿態(tài)的初始值來源于無人機(jī)飛行時(shí)的POS數(shù)據(jù)。當(dāng)相鄰圖像的紋理較為豐富時(shí),特征點(diǎn)數(shù)量較多而且匹配成功率較高,可以用來計(jì)算相對位置和姿態(tài),用于構(gòu)造圖優(yōu)化中的邊。當(dāng)匹配不成功時(shí),直接利用POS數(shù)據(jù)來計(jì)算相對位置和姿態(tài)。因此該方法能夠最大程度地利用圖像紋理信息對POS數(shù)據(jù)進(jìn)行校正,當(dāng)紋理不夠豐富或匹配不成功時(shí),還可以利用POS信息來進(jìn)行定位,并且不會(huì)出現(xiàn)拼接中斷的情況。圖優(yōu)化技術(shù)流程如圖3所示。
2? 試驗(yàn)與分析
2.1? 試驗(yàn)區(qū)概況
本文試驗(yàn)區(qū)位于福建省福州市永泰縣,地處福建省東部、福州市西南部,因受火山作用強(qiáng)烈,又受后期喜山運(yùn)動(dòng)新構(gòu)造升降和震蕩影響,境內(nèi)群山林立、溝谷深切,大部分地區(qū)海拔在500 m以上,是典型的高山峽谷地形。該地區(qū)地形陡峭、高差大,巖石和土體容易失穩(wěn)下滑,從而誘發(fā)崩塌、滑坡等災(zāi)害發(fā)生。同時(shí),由于地形抬升作用,使得局地性暴雨頻發(fā),也為泥石流和洪水孕育提供有利條件。試驗(yàn)區(qū)現(xiàn)場如圖4所示。
2.2? 試驗(yàn)數(shù)據(jù)獲取
試驗(yàn)數(shù)據(jù)采集設(shè)備為KWT-X6M多旋翼無人機(jī),續(xù)航時(shí)間為70 min,抗風(fēng)能力7級(jí),遙控器最大控制距離7 km,地面站最大控制距離10 km。該機(jī)型具有很強(qiáng)的環(huán)境適應(yīng)性,可以在海拔5 000 m以上的高原地區(qū)開展測繪作業(yè),并可在高濕、高熱、高腐蝕和高鹽等惡劣環(huán)境下正常使用。無人機(jī)所掛載的相機(jī)型號(hào)為KWT-4K-30X,該設(shè)備具有30倍光學(xué)變焦、829萬像素高清鏡頭,視頻輸出分辨率最高為1 920×1 080 P/60。數(shù)據(jù)采集設(shè)備如圖5所示。
根據(jù)試驗(yàn)區(qū)周邊環(huán)境,選定平坦開闊區(qū)域作為起降點(diǎn),保證無人機(jī)起飛和降落時(shí)四周視野開闊,周邊障礙物的高度角不能大于15°,并且對GNSS信號(hào)接收不產(chǎn)生影響[10]。本次試驗(yàn)起降點(diǎn)選定在福州市永泰縣城以南,嶺路鄉(xiāng)與莆田市涵江區(qū)交界處,坐標(biāo)為25.806°N~118.950°E,距離永泰縣城13 km2,最高海拔1 130 m。測試當(dāng)天永泰縣最高氣溫34 ℃,最低氣溫26 ℃,風(fēng)力1~2級(jí),東北風(fēng)。無人機(jī)進(jìn)行飛行作業(yè)前首先對周邊1 000 m范圍區(qū)域進(jìn)行航線規(guī)劃,航線規(guī)劃區(qū)域內(nèi)包含建筑物、道路、植被等典型地物。通過對無人機(jī)獲取的數(shù)據(jù)進(jìn)行拼接處理后,可以對比拼接成果中不同類型典型地物檢查拼接效果,航線規(guī)劃如圖6所示。本次試驗(yàn)通過2個(gè)架次飛行獲取測試數(shù)據(jù),分別獲取實(shí)時(shí)成圖影像和后期拼接對比數(shù)據(jù)。
2.3? 試驗(yàn)結(jié)果與分析
本次試驗(yàn)通過無人機(jī)飛行獲取的視頻數(shù)據(jù)、POS數(shù)據(jù)、飛行高度數(shù)據(jù)以及相機(jī)標(biāo)定參數(shù)等數(shù)據(jù),綜合運(yùn)用圖像特征點(diǎn)提取和匹配、圖優(yōu)化技術(shù)實(shí)現(xiàn)無人機(jī)視頻影像的快速拼接。按照規(guī)劃航線實(shí)施航測任務(wù),飛行過程中最大爬升高度為107.463 m,飛行速度6 m/s,航向重疊率75%,旁向重疊率85%,測區(qū)面積約0.13 km2,飛行時(shí)間5 m/43 s,共獲取影像32張。實(shí)時(shí)拼接成果與后期拼接成果如圖7所示。
經(jīng)測試,利用圖優(yōu)化技術(shù)實(shí)現(xiàn)無人機(jī)視頻快速拼接成圖方法能夠完整呈現(xiàn)測區(qū)實(shí)時(shí)成圖影像,且成圖速度較快,實(shí)時(shí)成圖時(shí)延小于等于8 s,符合測試指標(biāo)。通過與后期拼接成果對比可以得出,無人機(jī)視頻影像實(shí)時(shí)拼接會(huì)導(dǎo)致精度有一定損失,但紋理特征明顯。同時(shí),通過選取建筑物、道路等典型地物,對單幅影像拼接效果進(jìn)行細(xì)節(jié)對比,可檢查實(shí)時(shí)拼接成果定位精度及角度偏移程度。拼接效果局部對比如圖8所示。從局部對比圖中可以看出,實(shí)時(shí)成圖影像拼接位置基本無偏移,圖幅定位較為準(zhǔn)確;拼接影像角度受飛行姿態(tài)影響有輕微偏移,但對數(shù)據(jù)質(zhì)量影響不大。綜上所述,該方法能夠在保證一定數(shù)據(jù)質(zhì)量的前提下大幅度提高數(shù)據(jù)獲取的時(shí)效性,可滿足應(yīng)急救援實(shí)際需求,為指揮人員提供數(shù)據(jù)支撐。
3? 結(jié)束語
本文為滿足突發(fā)事件和災(zāi)害發(fā)生時(shí)能夠?qū)崟r(shí)掌握災(zāi)場環(huán)境數(shù)據(jù)的應(yīng)急需求,針對無人機(jī)獲取的航拍視頻提出了一種基于圖優(yōu)化技術(shù)的視頻影像快速拼接方法。該方法通過確定關(guān)鍵幀、特征點(diǎn)提取和匹配、圖優(yōu)化等關(guān)鍵技術(shù)可實(shí)現(xiàn)對無人機(jī)視頻影像的快速拼接。本文選取位于福建省永泰縣的典型高山峽谷區(qū)域開展應(yīng)用試驗(yàn),通過無人機(jī)飛行2個(gè)架次分別獲取實(shí)時(shí)成圖影像和后期拼接對比數(shù)據(jù),經(jīng)過數(shù)據(jù)處理后,對無人機(jī)視頻影像實(shí)時(shí)拼接成果與后期拼接成果進(jìn)行對比分析,試驗(yàn)結(jié)果表明如下。
1)該方法充分利用POS信息和圖像特征信息來進(jìn)行視頻影像快速拼接,綜合多種數(shù)據(jù)的優(yōu)勢,能夠提高拼接的效率和精度。
2)該方法可以實(shí)現(xiàn)無人機(jī)航拍視頻的快速拼接,滿足快速應(yīng)急響應(yīng)的需求,能夠在災(zāi)害應(yīng)急保障與救援中發(fā)揮重大作用。
3)該方法應(yīng)用在復(fù)雜的災(zāi)場環(huán)境中仍存在不足之處,實(shí)時(shí)拼接影像角度受飛行姿態(tài)影響有輕微偏移;面對地形陡峭、高差較大的高山峽谷地區(qū),無人機(jī)獲取的視頻影像對于三維位置和姿態(tài)的解算較平坦區(qū)域稍顯復(fù)雜,還值得進(jìn)一步深入研究與驗(yàn)證。
參考文獻(xiàn):
[1] 鄭暉,姜城,孫敏,等.一種近實(shí)時(shí)的無人機(jī)視頻流拼接方法[J].地理與地理信息科學(xué),2015,31(5):1-5.
[2] 孟淑英.自動(dòng)檢測拼接線的無人機(jī)視頻影像快速拼接方法[J].測繪通報(bào),2013(5):47-49.
[3] LOWE D G. Object Recognition from Local Scale-Invariant Features[C]//IEEE Computer Society, 1999.
[4] 陳武.無人機(jī)視頻影像拼接關(guān)鍵技術(shù)研究[D].南昌:南昌航空大學(xué),2019.
[5] 任超鋒.航空視頻影像的正射影像制作關(guān)鍵技術(shù)研究[D].武漢:武漢大學(xué),2014.
[6] 李含倫,李豐凱.低空視頻影像自適應(yīng)關(guān)鍵幀提取與快速拼接[J].圖像與信號(hào)處理,2018,7(4):179-190.
[7] 李慧,藺啟忠,劉慶杰.基于FAST和SURF的遙感圖像自動(dòng)配準(zhǔn)方法[J].國土資源遙感,2012(2):28-33.
[8] 王陳東.低空無人機(jī)視頻實(shí)時(shí)處理關(guān)鍵技術(shù)研究[D].武漢:武漢大學(xué),2018.
[9] 顏普,曹昊宇,雷為好.基于改進(jìn)圖優(yōu)化的激光SLAM算法[J].安徽大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,47(4):35-41.
[10] 曾娟娟,劉娣,陳偉.無人機(jī)三維建模在土方計(jì)量中的應(yīng)用——以湘潭荷塘交通樞紐項(xiàng)目為例[J].科技創(chuàng)新與應(yīng)用,2023,13(18):188-192.