• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    ORB-SLAM3車載雙目視覺(jué)自主導(dǎo)航性能評(píng)估

    2023-01-07 07:23:22劉宗毅
    導(dǎo)航定位學(xué)報(bào) 2022年6期
    關(guān)鍵詞:關(guān)鍵幀雙目位姿

    熊 超,烏 萌,劉宗毅,高 力,郭 浩

    ORB-SLAM3車載雙目視覺(jué)自主導(dǎo)航性能評(píng)估

    熊 超,烏 萌,劉宗毅,高 力,郭 浩

    (地理信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室/西安測(cè)繪研究所,西安 710054)

    針對(duì)全球衛(wèi)星導(dǎo)航系統(tǒng)(GNSS)用于車載導(dǎo)航在復(fù)雜環(huán)境下定位精度較低、低成本和慣導(dǎo)漂移明顯等問(wèn)題,論述了基于旋轉(zhuǎn)不變特征點(diǎn)的同時(shí)定位與地圖構(gòu)建第3代(ORB-SLAM3)系統(tǒng)的整體架構(gòu)和其創(chuàng)新點(diǎn),并評(píng)估了其采用不同的運(yùn)動(dòng)軌跡、不同運(yùn)動(dòng)狀態(tài)的車載數(shù)據(jù)的性能,重點(diǎn)分析ORB-SLAM3整體的位姿精度、ORB-SLAM3和基于旋轉(zhuǎn)不變特征點(diǎn)的同時(shí)定位與地圖構(gòu)建第2代(ORB-SLAM2)系統(tǒng)車載雙目視覺(jué)算法對(duì)比和ORB-SLAM3車載雙目視覺(jué)跟蹤耗時(shí)。實(shí)驗(yàn)結(jié)果表明:ORB-SLAM3整體的定位精度優(yōu)于1.42 m,姿態(tài)精度優(yōu)于3.2×10-3(°)/m,ORB-SLAM3整體的位姿精度與ORB-SLAM2的整體位姿精度相當(dāng),ORB-SLAM3跟蹤耗時(shí)比ORB-SLAM2少約12 ms。

    雙目視覺(jué);自主導(dǎo)航;性能評(píng)估;車載;跟蹤時(shí)間

    0 引言

    視覺(jué)同時(shí)定位與地圖構(gòu)建(simultaneous location and mapping,SLAM)技術(shù)是基于多視圖幾何理論,主要通過(guò)視覺(jué)傳感器的方式,根據(jù)視覺(jué)傳感器獲取的圖像幀之間像素的匹配關(guān)系求解相機(jī)的實(shí)時(shí)位姿并且同時(shí)構(gòu)建周圍環(huán)境地圖的技術(shù)。視覺(jué)SLAM系統(tǒng)可以完成定位的同時(shí)并創(chuàng)建環(huán)境地圖。

    2007年,文獻(xiàn)[1]提出具有里程碑意義的并行跟蹤與地圖構(gòu)建系統(tǒng)(parallel tracking and mapping,PTAM)。PTAM系統(tǒng)是第一個(gè)使用非線性優(yōu)化的SLAM系統(tǒng),使用了2個(gè)線程,分別為實(shí)時(shí)匹配跟蹤特征點(diǎn)的相機(jī)跟蹤線程和維護(hù)序列圖像中選取的稀疏關(guān)鍵幀和基于關(guān)鍵幀的3維點(diǎn)的地圖構(gòu)建線程。2015年,文獻(xiàn)[2]在PTAM的基礎(chǔ)上提出了基于旋轉(zhuǎn)不變特征點(diǎn)的同時(shí)定位與地圖構(gòu)建(oriented fast and rotated brief simultaneous localization and mapping,ORB-SLAM)算法并開(kāi)源了系統(tǒng)的源代碼。ORB-SLAM在整體架構(gòu)上繼承了PTAM系統(tǒng)的多線程思想,同時(shí)對(duì)PTAM系統(tǒng)初始化時(shí)需要進(jìn)行手動(dòng)操作的缺陷進(jìn)行了重點(diǎn)改進(jìn),并在此基礎(chǔ)上擴(kuò)展了ORB-SLAM在多種應(yīng)用環(huán)境下的適應(yīng)性。ORB-SLAM系統(tǒng)在PTAM系統(tǒng)的基礎(chǔ)上增加了一個(gè)回環(huán)檢測(cè)的線程。ORB-SLAM包含了跟蹤、建圖、閉環(huán)檢測(cè)3個(gè)線程,將改進(jìn)后的基于旋轉(zhuǎn)不變特征點(diǎn)(oriented fast and rotated brief,ORB)特征法應(yīng)用貫穿于整個(gè)系統(tǒng),包括特征檢測(cè)、匹配以及閉環(huán)檢測(cè)等過(guò)程。2017年,文獻(xiàn)[3]推出了基于旋轉(zhuǎn)不變特征點(diǎn)的同時(shí)定位與地圖構(gòu)建第2代(oriented fast and rotated brief simultaneous localization and mapping 2,ORB-SLAM2)系統(tǒng)。ORB-SLAM2是基于單目、雙目和紅綠藍(lán)深度(red,green,blue and depth,RGB-D)相機(jī)的一個(gè)完整的SLAM系統(tǒng),廣泛應(yīng)用于無(wú)人車、無(wú)人機(jī)及室內(nèi)外機(jī)器人等設(shè)備。2020年,文獻(xiàn)[4]在ORB-SLAM2的基礎(chǔ)上推出了基于旋轉(zhuǎn)不變特征點(diǎn)的同時(shí)定位與地圖構(gòu)建第3代(oriented fast and rotated brief simultaneous localization and mapping 3,ORB-SLAM3)系統(tǒng)。ORB-SLAM3除了可以用于單目、雙目和RGB-D相機(jī)外,還可以用于魚(yú)眼相機(jī),并增加了視覺(jué)慣導(dǎo)系統(tǒng)(visual-inertial odometry,VIO)和文獻(xiàn)[5]提出的地圖集(Atlas)多地圖SLAM的系統(tǒng)。

    文獻(xiàn)[2-3]關(guān)于ORB-SLAM和ORB-SLAM2的論文中均對(duì)車載視覺(jué)自主導(dǎo)航性能進(jìn)行了測(cè)試。2018年,文獻(xiàn)[6]對(duì)ORB-SLAM2車載雙目視覺(jué)的自主導(dǎo)航性能進(jìn)行了評(píng)估,其實(shí)驗(yàn)結(jié)果表明:持續(xù)的動(dòng)態(tài)物體會(huì)對(duì)ORB-SLAM2整體的導(dǎo)航精度有所影響;無(wú)回環(huán)探測(cè)時(shí),位置誤差隨行駛距離呈現(xiàn)明顯的1%線性發(fā)散,成功的回環(huán)檢測(cè)能夠有效抑制位置姿態(tài)誤差的發(fā)散并提高其精度,定位精度保持在2 m左右。而ORB-SLAM3的論文中作者未給出其車載視覺(jué)自主導(dǎo)航性能的測(cè)試結(jié)果,因此本文著重對(duì)其車載視覺(jué)自主導(dǎo)航性能進(jìn)行評(píng)估。

    本文首先介紹了ORB-SLAM3相對(duì)于ORB-SLAM2、ORB-SLAM算法改進(jìn)的部分及其創(chuàng)新點(diǎn),并對(duì)ORB-SLAM3車載單雙目視覺(jué)的自主導(dǎo)航性能進(jìn)行了評(píng)估,然后在公開(kāi)的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)驗(yàn)證。重點(diǎn)分析ORB-SLAM3整體的位姿精度、ORB-SLAM3和ORB-SLAM2車載雙目視覺(jué)算法對(duì)比和ORB-SLAM3車載雙目視覺(jué)跟蹤耗時(shí)。

    1 ORB-SLAM3系統(tǒng)整體架構(gòu)和創(chuàng)新點(diǎn)

    1.1 ORB-SLAM3系統(tǒng)整體架構(gòu)

    ORB-SLAM3系統(tǒng)包含3個(gè)并行處理的線程,分別是特征跟蹤、局部建圖和回環(huán)檢測(cè)與地圖融合。其系統(tǒng)的整體架構(gòu)如圖1所示。圖1中:IMU(inertial measurement unit)為慣性測(cè)量單元;

    圖1 ORB-SLAM3算法整體架構(gòu)

    BA(bundle adjustment)為光束法平差;Sim(3)指的是利用3對(duì)匹配點(diǎn)進(jìn)行相似變換求解的矩陣向量,可以獲得2個(gè)坐標(biāo)系之間的旋轉(zhuǎn)矩陣、平移向量和尺度;SE(3)指的是由變換矩陣構(gòu)成的特殊歐式群;Atlas指的是地圖集;由文獻(xiàn)[7-8]提出的分布式詞袋模型(distributed bags of words 2, DBoW2)指的是一種高效的回環(huán)檢測(cè)算法,包含具有正序和逆序指向索引圖片的圖像數(shù)據(jù)庫(kù),可實(shí)現(xiàn)快速查詢和進(jìn)行特征比較。從圖1及對(duì)比文獻(xiàn)[2-3]中的框架圖可以看出,ORB-SLAM3系統(tǒng)的整體架構(gòu)與ORB-SLAM2相比主要是在單目、雙目、RGB-D的基礎(chǔ)上增加了IMU,引入了視覺(jué)慣性和Atlas多地圖模式以及地圖融合等功能。而ORB-SLAM2整體架構(gòu)還是基于ORB-SLAM的結(jié)構(gòu),區(qū)別在于跟蹤進(jìn)程中多了預(yù)處理模塊,以及最后有一個(gè)全局光束法平差模塊,可以提高建圖的精度,其余的流程沒(méi)有變化。因此ORB-SLAM3整體架構(gòu)是在ORB-SLAM和ORB-SLAM2基礎(chǔ)上不斷繼承和優(yōu)化的。

    1.2 ORB-SLAM3的創(chuàng)新點(diǎn)

    ORB-SLAM3的創(chuàng)新點(diǎn)主要有:ORB-SLAM只能針對(duì)單目相機(jī)數(shù)據(jù)進(jìn)行處理;ORB-SLAM2增加了對(duì)于雙目和RGB-D相機(jī)的處理,在回環(huán)檢測(cè)模塊增加了文獻(xiàn)[9]提出的全局光束法平差方法的處理;ORB-SLAM3則增加了對(duì)于IMU融合的支持,兼容魚(yú)眼相機(jī)模型,并且增加了Altas多地圖的支持;同時(shí),回環(huán)檢測(cè)為了支持多地圖的模式,提供了一種叫融合(welding) BA的優(yōu)化方式。ORB-SLAM3是可以解決純視覺(jué)和視覺(jué)慣導(dǎo)融合的完整的混合地圖的SLAM系統(tǒng),Atlas代表的是地圖的集合,可以把其中的地圖應(yīng)用到所有的建圖過(guò)程中,如場(chǎng)景重識(shí)別、相機(jī)重定位、閉環(huán)檢測(cè)和精確的地圖融合,即該系統(tǒng)為增量的SLAM系統(tǒng)。

    ORB-SLAM3提供了Altas多地圖的存儲(chǔ)和拼接功能,在視覺(jué)跟蹤丟失后可以嘗試將現(xiàn)有地圖和歷史地圖進(jìn)行匹配和融合,并及時(shí)更新當(dāng)前的活躍地圖。ORB-SLAM3系統(tǒng)在重定位模塊上做了一些改進(jìn)。其主要改進(jìn)是,當(dāng)當(dāng)前關(guān)鍵幀與數(shù)據(jù)庫(kù)中的關(guān)鍵幀可以匹配后,檢測(cè)與當(dāng)前關(guān)鍵幀具有共視關(guān)系的其他關(guān)鍵幀是否也可以進(jìn)行匹配上:如果可以匹配上那么可以認(rèn)為是重定位成功;如果匹配不上,則繼續(xù)使用接下來(lái)的關(guān)鍵幀進(jìn)行檢測(cè)與判定。重定位模塊可以構(gòu)建混合的地圖,可以讓ORB-SLAM3系統(tǒng)長(zhǎng)期穩(wěn)定地運(yùn)行在特征點(diǎn)較少的場(chǎng)景中。當(dāng)ORB-SLAM3系統(tǒng)的實(shí)時(shí)位姿估計(jì)失敗或者跟蹤丟失的時(shí)候,ORB-SLAM3系統(tǒng)會(huì)重新構(gòu)建新的地圖,同時(shí)與原來(lái)構(gòu)建的地圖進(jìn)行對(duì)齊。如果是原有的DBoW2,需要匹配3個(gè)連續(xù)的關(guān)鍵幀,而ORB-SLAM3對(duì)候選的關(guān)鍵幀首先進(jìn)行幾何一致性檢測(cè),然后利用3個(gè)共視的關(guān)鍵幀進(jìn)行局部的一致性檢驗(yàn)。這種策略提升了召回率,并增強(qiáng)了數(shù)據(jù)關(guān)聯(lián),提高了地圖準(zhǔn)確性,也提高了實(shí)時(shí)位姿估計(jì)的魯棒性。ORB-SLAM3系統(tǒng)可以在所有的算法運(yùn)行階段重用所有的之前狀態(tài)信息的SLAM系統(tǒng)。系統(tǒng)可以在光束法平差的時(shí)候使用與當(dāng)前關(guān)鍵幀具有共視關(guān)系的其他關(guān)鍵幀,即使2個(gè)關(guān)鍵幀在時(shí)間上相差很遠(yuǎn),或者來(lái)自之前構(gòu)建的地圖,也依然有效。這些關(guān)鍵技術(shù)的處理使得定位精度有了很大提升。但是這是以顯著提高計(jì)算成本作為代價(jià)的,所以導(dǎo)致ORB-SLAM3系統(tǒng)在內(nèi)存不足的情況下無(wú)法運(yùn)行。因此考慮ORB-SLAM3系統(tǒng)的實(shí)際應(yīng)用過(guò)程時(shí),需要考慮算法的計(jì)算成本和計(jì)算耗時(shí)。

    ORB-SLAM3是第一個(gè)可以對(duì)短期、中期、長(zhǎng)期數(shù)據(jù)進(jìn)行數(shù)據(jù)關(guān)聯(lián)的視覺(jué)慣導(dǎo)系統(tǒng),在已知地圖的環(huán)境中可以無(wú)漂移誤差地運(yùn)行,其中混合地圖數(shù)據(jù)關(guān)聯(lián)可以保證我們進(jìn)行地圖匹配和進(jìn)行光束法平差優(yōu)化。這樣可以構(gòu)建一幅地圖,然后可以在地圖中進(jìn)行精確的定位。短期的數(shù)據(jù)關(guān)聯(lián)指的是,在最近的幾幀圖像匹配地圖元素,丟棄時(shí)間過(guò)于久遠(yuǎn)的幀,這樣會(huì)減少累計(jì)的漂移誤差。中期的數(shù)據(jù)關(guān)聯(lián)指的是,跟蹤匹配相機(jī)累積誤差較小的地圖,這也可以用在光束法平差中,當(dāng)系統(tǒng)在已經(jīng)建好的地圖中運(yùn)行的時(shí)候可以達(dá)到零漂移。長(zhǎng)期的數(shù)據(jù)關(guān)聯(lián)指的是,利用場(chǎng)景重識(shí)別來(lái)匹配當(dāng)前的觀測(cè)和先前的觀測(cè),不用管累計(jì)的漂移誤差,而且即使跟蹤失效也可以實(shí)現(xiàn)長(zhǎng)期的匹配。長(zhǎng)期的匹配可以使用位姿圖優(yōu)化重新設(shè)置漂移的誤差。這是在大場(chǎng)景中精度保證的關(guān)鍵。

    2 自主導(dǎo)航性能評(píng)估指標(biāo)

    通??梢詮亩ㄎ痪?、算法的復(fù)雜度、計(jì)算耗時(shí)和計(jì)算成本等多個(gè)角度來(lái)對(duì)SLAM算法進(jìn)行評(píng)估和評(píng)價(jià)。一般來(lái)說(shuō),定位精度的評(píng)價(jià)是最受關(guān)注的,同時(shí)我們也要考慮算法實(shí)際運(yùn)行時(shí)的耗時(shí)。因此本文設(shè)計(jì)的車載雙目視覺(jué)的自主導(dǎo)航性能評(píng)估指標(biāo)主要有4個(gè),分別是絕對(duì)軌跡誤差、相對(duì)位姿誤差、相對(duì)姿態(tài)誤差以及視覺(jué)導(dǎo)航跟蹤耗時(shí)。

    2.1 絕對(duì)軌跡誤差

    2.2 相對(duì)位姿誤差

    但這樣的計(jì)算復(fù)雜度非常高,計(jì)算起來(lái)很耗時(shí)間。因此在參考文獻(xiàn)[10]中,德國(guó)慕尼黑工業(yè)大學(xué)(Die)數(shù)據(jù)集在給定的評(píng)估工具中,通過(guò)計(jì)算固定數(shù)量的RPE樣本計(jì)算一個(gè)估計(jì)值作為最終結(jié)果。

    需要注意的是,文獻(xiàn)[11]提出RPE和ATE在實(shí)際使用過(guò)程中需要結(jié)合實(shí)際,選擇合適的指標(biāo)進(jìn)行算法評(píng)價(jià)。

    2.3 相對(duì)姿態(tài)誤差

    2.4 視覺(jué)導(dǎo)航跟蹤耗時(shí)

    位姿估計(jì)精度直接影響最終的定位和建圖結(jié)果,計(jì)算消耗的時(shí)間也將影響到自主導(dǎo)航的實(shí)時(shí)性。本文采取視覺(jué)導(dǎo)航跟蹤耗時(shí)來(lái)統(tǒng)計(jì)自主導(dǎo)航計(jì)算耗時(shí),分別以跟蹤耗時(shí)中值和跟蹤耗時(shí)均值進(jìn)行統(tǒng)計(jì)。

    3 實(shí)驗(yàn)及結(jié)果分析

    為了全面準(zhǔn)確地對(duì)ORB-SLAM3系統(tǒng)的車載雙目視覺(jué)進(jìn)行自主導(dǎo)航的性能評(píng)估,本文采用不同的運(yùn)動(dòng)軌跡、不同運(yùn)動(dòng)狀態(tài)的車載雙目視覺(jué)數(shù)據(jù)對(duì)ORB-SLAM3系統(tǒng)的整體實(shí)時(shí)位姿估計(jì)的性能及其與ORB-SLAM2的整體實(shí)時(shí)位姿估計(jì)的性能相比較,并和ORB-SLAM3的視覺(jué)導(dǎo)航跟蹤耗時(shí)等方面分別進(jìn)行實(shí)驗(yàn)和分析。

    3.1 數(shù)據(jù)準(zhǔn)備

    實(shí)驗(yàn)數(shù)據(jù)為KITTI標(biāo)準(zhǔn)數(shù)據(jù)集。KITTI數(shù)據(jù)集是由德國(guó)卡爾斯魯厄理工學(xué)院(Karlsruhe Institute of Technology, KIT)和豐田工業(yè)大學(xué)芝加哥分校(Toyota Technological Institute at Chicago, TTIC)聯(lián)合創(chuàng)辦,利用組裝的設(shè)備齊全的采集車輛對(duì)實(shí)際交通場(chǎng)景進(jìn)行數(shù)據(jù)采集獲得的公開(kāi)數(shù)據(jù)集。本文實(shí)驗(yàn)數(shù)據(jù)選取文獻(xiàn)[12]中推出的KITTI里程計(jì)(odometry)數(shù)據(jù)集,該數(shù)據(jù)集包含F(xiàn)lea2 Firewire相機(jī)采集的高質(zhì)量立體圖像序列及OXTS RT 3000 IMU/全球定位系統(tǒng)(global positioning system, GPS)測(cè)量系統(tǒng)采集的地理數(shù)據(jù)(作為真值,IMU/GPS標(biāo)稱平面精度優(yōu)于0.05 m),這里選取00—10序列數(shù)據(jù)進(jìn)行實(shí)驗(yàn),分別記為KITTI00—KITTI10。實(shí)驗(yàn)數(shù)據(jù)集參數(shù)設(shè)置詳見(jiàn)表1。

    表1 實(shí)驗(yàn)數(shù)據(jù)集參數(shù)設(shè)置

    3.2 結(jié)果及分析

    本文選取KITTI odometry數(shù)據(jù)集序列00—10進(jìn)行實(shí)驗(yàn)性能測(cè)試。本文的實(shí)驗(yàn)平臺(tái)為聯(lián)想臺(tái)式機(jī)電腦(中央處理器(CPU)酷睿i9-9900K,3.60 GHz 8核,內(nèi)存32 GB),本文所有實(shí)驗(yàn)平臺(tái)均在烏班圖(Ubuntu)20.04系統(tǒng)和開(kāi)源計(jì)算機(jī)視覺(jué)庫(kù)(open source computer vision library, OpenCV)4.2.0等環(huán)境中實(shí)現(xiàn)。

    3.2.1 ORB-SALM3車載雙目視覺(jué)整體位姿精度分析

    以IMU/GPS的組合定位結(jié)果作為軌跡的真值,解算實(shí)時(shí)估計(jì)的軌跡與軌跡的真值的偏差值大小,解算的偏差值結(jié)果由不同的顏色條表示。KITTI00—KITTI10共11張圖的ORB-SLAM3與真實(shí)軌跡的誤差如圖2所示,顏色越深代表誤差越大。KITTI數(shù)據(jù)集序列00—10序列中00、02、05、08包含多回環(huán),06、07、09包含單回環(huán),01、03、04、10無(wú)回環(huán)。

    由圖2可知,所有軌跡均與真值軌跡的重合度較高,大轉(zhuǎn)彎處的軌跡誤差相比其他時(shí)段軌跡誤差大,說(shuō)明純視覺(jué)自主導(dǎo)航對(duì)于大轉(zhuǎn)彎造成的運(yùn)動(dòng)過(guò)快的情況還需要進(jìn)行優(yōu)化,提升精度。同時(shí)00、02、05、08序列中多回環(huán)處的軌跡誤差較小,這是因?yàn)榻?jīng)過(guò)回環(huán)檢測(cè)可修正由誤差累積所導(dǎo)致的尺度漂移問(wèn)題。

    3.2.2 ORB-SLAM3和ORB-SLAM2算法對(duì)比及分析

    對(duì)KITTI00—KITTI10序列分別進(jìn)行ORB-SLAM3和ORB-SLAM2車載雙目視覺(jué)的自主導(dǎo)航性能評(píng)估,限于篇幅,這里僅給出00序列的ORB-SLAM3和ORB-SLAM2的估計(jì)軌跡與真實(shí)軌跡的誤差,實(shí)驗(yàn)結(jié)果如圖3所示。其中圖3(a)為ORB-SLAM3和ORB-SLAM2的估計(jì)軌跡與真實(shí)軌跡的整體軌跡,圖3(b)為ORB-SLAM3和ORB-SLAM2的估計(jì)軌跡與真實(shí)軌跡的位置誤差,圖3(c)為ORB-SLAM3和ORB-SLAM2的估計(jì)軌跡與真實(shí)軌跡的姿態(tài)誤差。同時(shí)分別統(tǒng)計(jì)了ORB-SLAM3和ORB-SLAM2車載雙目視覺(jué)的自主導(dǎo)航整體精度數(shù)值,詳見(jiàn)表2。

    圖3 KITTI00序列的ORB-SLAM3和ORB-SLAM2的估計(jì)軌跡與真實(shí)軌跡的整體軌跡、位置誤差和姿態(tài)誤差

    表2 基于KITTI數(shù)據(jù)集的測(cè)試整體精度對(duì)比

    從圖3和表2中可以看出ORB-SLAM3車載雙目視覺(jué)整體定位精度優(yōu)于1.42%,即行駛100 m偏離真值1.42 m,角度誤差優(yōu)于3.2×10-3(°)/m。ORB-SLAM3自主導(dǎo)航整體的位姿精度與ORB-SLAM2的整體位姿精度相當(dāng)。

    3.2.3 ORB-SLAM3和ORB-SLAM2車載雙目視覺(jué)跟蹤耗時(shí)分析

    視覺(jué)導(dǎo)航算法的跟蹤耗時(shí)和算法的實(shí)際使用密切相關(guān)。對(duì)KITTI odometry數(shù)據(jù)集序列00—10分別進(jìn)行ORB-SLAM3和ORB-SLAM2車載雙目視覺(jué)跟蹤耗時(shí)分析,并分別以跟蹤耗時(shí)中值和跟蹤耗時(shí)均值分別進(jìn)行統(tǒng)計(jì),實(shí)驗(yàn)結(jié)果的耗時(shí)統(tǒng)計(jì)如圖4所示,詳細(xì)數(shù)值見(jiàn)表3。從圖4和表3中可以看出,ORB-SLAM3跟蹤耗時(shí)中值約為30.07 ms,ORB-SLAM3跟蹤耗時(shí)均值約為30.76 ms,ORB-SLAM2跟蹤耗時(shí)中值約為42.24 ms,ORB-SLAM2跟蹤耗時(shí)均值約為43.40 ms,ORB-SLAM3跟蹤耗時(shí)比ORB-SLAM2少約12 ms左右,ORB-SLAM3跟蹤耗時(shí)性能更優(yōu)。

    圖4 基于KITTI odometry數(shù)據(jù)集的測(cè)試耗時(shí)統(tǒng)計(jì)

    表3 基于KITTIodometry數(shù)據(jù)集的測(cè)試耗時(shí)分析 ms

    4 結(jié)束語(yǔ)

    本文對(duì)ORB-SLAM3車載單雙目視覺(jué)的自主導(dǎo)航性能進(jìn)行了評(píng)估,并在公開(kāi)的KITTI odometry標(biāo)準(zhǔn)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)驗(yàn)證。重點(diǎn)分析了ORB-SLAM3整體的位姿精度、ORB-SLAM3和ORB-SLAM2車載雙目視覺(jué)算法對(duì)比和ORB-SLAM3車載雙目視覺(jué)跟蹤耗時(shí)。從實(shí)驗(yàn)結(jié)果來(lái)看,純視覺(jué)自主導(dǎo)航對(duì)于大轉(zhuǎn)彎造成的運(yùn)動(dòng)過(guò)快的情況還需要進(jìn)行優(yōu)化提升精度??煽紤]和IMU傳感器進(jìn)行融合處理,利用IMU輸出頻率高和能輸出6個(gè)自由度(6 degrees of freedom,6DoF)的測(cè)量信息等優(yōu)點(diǎn)對(duì)視覺(jué)和IMU得到的位姿結(jié)果進(jìn)行融合,以得到更加魯棒的輸出結(jié)果,實(shí)現(xiàn)在復(fù)雜環(huán)境下可長(zhǎng)期穩(wěn)定運(yùn)行的、具有低成本的、可高精度定位的車載雙目視覺(jué)和IMU融合的自主導(dǎo)航SLAM系統(tǒng)。

    [1] KLEIN G, MURRAY D. Parallel tracking and mapping for small AR workspaces[C]//The Institute of Electrical and Electronic Engineers (IEEE). Proceedings of IEEE and ACM International Symposium on Mixed and Augmented Reality. Nara, Japan: IEEE, 2007: 225-234[2022-04-07].

    [2] MUR-ARTAL R, MONTIEL J, TARDOS J. ORB-SLAM: a versatile and accurate monocular SLAM system[J]. IEEE Transactions on Robotics, 2015, 31(5): 1147-1163.

    [3] MUR-ARTAL R, TARDOS J. ORB-SLAM2: an open-source SLAM system for monocular, stereo, and RGB-D cameras[J]. IEEE Transactions on Robotics, 2017, 33(5): 1255–1262.

    [4] CAMPOS C, ELVIRA R, GOMEZ J, and et al. ORB-SLAM3: an accurate open-source library for visual, visual-inertial and multi-map SLAM[J]. IEEE Transactions on Robotics, 2021, 37(6): 1874-1890.

    [5] ELVIRA R, TARDOS J, MONTIEL J. ORBSLAM-Atlas: a robust and accurate multi-map system[C]//The Institute of Electrical and Electronic Engineers (IEEE). Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Macau, China: IEEE, 2019: 6253-6259[2022-04-07].

    [6] 沈燕芬, 張小紅, 朱鋒. ORB-SLAM2車載雙目視覺(jué)的自主導(dǎo)航性能評(píng)估[J]. 導(dǎo)航定位學(xué)報(bào), 2018, 6(2): 29-35.

    [7] GALVEZ-LOPEZ D, TARDOS J. Bags of binary words for fast place recognition in image sequences[J]. IEEE Transactions on Robotics, 2012, 28(5): 1188-1197.

    [8] MUR-ARTAL R, TARDOS J. Fast relocalisation and loop closing in keyframe-based SLAM[C]//The Institute of Electrical and Electronic Engineers (IEEE). Proceedings of IEEE International Conference on Robotics and Automation (ICRA). Hong Kong, China: IEEE, 2014: 846-853[2022-04-07].

    [9] KONOLIGE K, AGRAWAL M. Frame SLAM: from bundle adjustment to real-time visual mapping[J]. IEEE Transactions on Robotics, 2008, 24(5): 1066-1077.

    [10] STURM J, ENGELHARD N, ENDRES F, et al. A benchmark for the evaluation of RGB-D SLAM systems[C]//The Institute of Electrical and Electronic Engineers (IEEE). Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems. Vilamoura-Algarve: IEEE, 2012: 573–580[2022-04-07].

    [11] ZHANG Z, SCARAMUZZA D. A tutorial on quantitative trajectory evaluation for visual(-inertial)odometry[C]//The Institute of Electrical and Electronic Engineers (IEEE). Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Madrid, Spain: IEEE, 2018: 7244-7251[2022-04-07].

    [12] GEIGER A, LENZ P, STILLER C, et al. Vision meets robotics: the KITTI dataset[J]. Int. J. Robot Res, 2013, 32(11): 1231-1237.

    Performance evaluation on autonomous navigation of ORB-SLAM3 vehicle stereo vision

    XIONG Chao, WU Meng, LIU Zongyi, GAO Li, GUO Hao

    (State Key Laboratory of Geo-information Engineering/Xi’an Research Institute of Surveying and Mapping, Xi’an 710054, China)

    Aiming at the problems that the positioning accuracy is low and the drift of low-cost inertial navigation is obvious in the vehicle navigation with global navigation satellite system (GNSS) under complex environment, the general overview of the system and the contributions provided by oriented fast and rotated brief simultaneous localization and mapping 3 (ORB-SLAM3) are discussed in this paper, and evaluated the vehicle data performance with different traces and motion states, and given the experimental algorithm comparison between ORB-SLAM3 and oriented fast and rotated brief simultaneous localization and mapping 2 (ORB-SLAM2), and evaluated the tracking time of ORB-SLAM3, among which the accuracy of positioning and attitude for ORB-SLAM3 were mainly focused. Experiment result showed that the navigation accuracy is better than 1.42 m on a 100-m path and rotation error is better than 0.0032 (°)/m based on dataset in this paper. The overall navigation error is at the same level between ORB-SLAM3 and ORB-SLAM2, and the tracking time of ORB-SLAM3 is 12 ms better than that of ORB-SLAM2.

    stereo vision;autonomous navigation;performance evaluation;vehicle;tracking time

    P228

    A

    2095-4999(2022)06-0009-09

    熊超,烏萌,劉宗毅,等. ORB-SLAM3車載雙目視覺(jué)自主導(dǎo)航性能評(píng)估[J]. 導(dǎo)航定位學(xué)報(bào), 2022, 10(6): 9-17.(XIONG Chao, WU Meng, LIU Zongyi, et al.Performance evaluation on autonomous navigation of ORB-SLAM3 vehicle stereo vision[J]. Journal of Navigation and Positioning, 2022, 10(6): 9-17.)

    10.16547/j.cnki.10-1096.20220602.

    2022-04-14

    地理信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室研究課題(SKLGIE2022-ZZ-03)。

    熊超(1986—),男,湖北麻城人,碩士,工程師,研究方向?yàn)橐曈X(jué)導(dǎo)航及多源融合導(dǎo)航。

    猜你喜歡
    關(guān)鍵幀雙目位姿
    基于雙目測(cè)距的卡爾曼濾波船舶軌跡跟蹤
    電子制作(2019年20期)2019-12-04 03:51:38
    基于改進(jìn)關(guān)鍵幀選擇的RGB-D SLAM算法
    基于共面直線迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
    基于CAD模型的單目六自由度位姿測(cè)量
    基于相關(guān)系數(shù)的道路監(jiān)控視頻關(guān)鍵幀提取算法
    基于雙目視覺(jué)圖像的長(zhǎng)度測(cè)量方法
    小型四旋翼飛行器位姿建模及其仿真
    基于聚散熵及運(yùn)動(dòng)目標(biāo)檢測(cè)的監(jiān)控視頻關(guān)鍵幀提取
    論“關(guān)鍵幀”在動(dòng)畫(huà)制作中的作用
    基于幾何特征的快速位姿識(shí)別算法研究
    建宁县| 定结县| 元谋县| 霍林郭勒市| 无棣县| 巴南区| 阜新市| 睢宁县| 屏南县| 衡山县| 仪陇县| 富顺县| 青河县| 札达县| 贵德县| 台东市| 曲水县| 都匀市| 炎陵县| 开封市| 平邑县| 河南省| 舟曲县| 平江县| 进贤县| 扶绥县| 邹城市| 繁昌县| 东光县| 林周县| 黑河市| 当雄县| 略阳县| 苍山县| 巴塘县| 大同市| 电白县| 南开区| 伊川县| 榆中县| 忻州市|