• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    視覺SLAM綜述

    2016-04-07 05:46:10權(quán)美香樸松昊李國
    智能系統(tǒng)學(xué)報(bào) 2016年6期
    關(guān)鍵詞:單目關(guān)鍵幀位姿

    權(quán)美香,樸松昊,2,李國

    (1.哈爾濱工業(yè)大學(xué) 多智能體機(jī)器人實(shí)驗(yàn)室,黑龍江 哈爾濱 150000;2. 哈爾濱工業(yè)大學(xué) 多智能體機(jī)器人實(shí)驗(yàn)室,黑龍江 哈爾濱 150000)

    視覺SLAM綜述

    權(quán)美香1,樸松昊1,2,李國1

    (1.哈爾濱工業(yè)大學(xué) 多智能體機(jī)器人實(shí)驗(yàn)室,黑龍江 哈爾濱 150000;2. 哈爾濱工業(yè)大學(xué) 多智能體機(jī)器人實(shí)驗(yàn)室,黑龍江 哈爾濱 150000)

    視覺SLAM指的是相機(jī)作為唯一的外部傳感器,在進(jìn)行自身定位的同時(shí)創(chuàng)建環(huán)境地圖。SLAM創(chuàng)建的地圖的好壞對(duì)之后自主的定位、路徑規(guī)劃以及壁障的性能起到一個(gè)決定性的作用。本文對(duì)基于特征的視覺SLAM方法和直接的SLAM方法,視覺SLAM的主要標(biāo)志性成果,SLAM的主要研究實(shí)驗(yàn)室進(jìn)行了介紹,并介紹了SIFT,SURF,ORB特征的檢測(cè)與匹配,關(guān)鍵幀選擇方法,并對(duì)消除累積誤差的閉環(huán)檢測(cè)及地圖優(yōu)化的方法進(jìn)行了總結(jié)。最后,對(duì)視覺SLAM的主要發(fā)展趨勢(shì)及研究熱點(diǎn)進(jìn)行了討論,并對(duì)單目視覺SLAM,雙目視覺SLAM,RGB_D SLAM進(jìn)行了優(yōu)缺點(diǎn)分析。

    視覺同步定位與創(chuàng)建地圖;單目視覺;RGB_D SLAM;特征檢測(cè)與匹配;閉環(huán)檢測(cè)

    移動(dòng)機(jī)器人的一個(gè)基本任務(wù)是在給定環(huán)境地圖的條件下確定其所在的位置,然而環(huán)境地圖并不是一開始就有的,當(dāng)移動(dòng)機(jī)器人進(jìn)入未知的環(huán)境時(shí),需要通過自身的傳感器構(gòu)建3-D環(huán)境地圖,并且同時(shí)確定自身在地圖中的位置,這就是SLAM(simultaneous localization and mapping)問題,它是運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(structure from motion,SfM)的實(shí)時(shí)版本。

    相機(jī)作為唯一外部傳感器的SLAM被稱為視覺SLAM。由于相機(jī)具有成本低,輕 ,很容易放到商品硬件上的優(yōu)點(diǎn),且圖像含有豐富的信息,視覺SLAM得到了巨大的發(fā)展。根據(jù)采用的視覺傳感器不同,可以將視覺SLAM主要分為三類:僅用一個(gè)相機(jī)作為唯一外部傳感器的單目視覺SLAM;使用多個(gè)相機(jī)作為傳感器的立體視覺SLAM,其中雙目立體視覺的應(yīng)用最多;基于單目相機(jī)與紅外傳感器結(jié)合構(gòu)成的傳感器的RGB-D SLAM。

    1 視覺SLAM方法介紹

    視覺SLAM算法可根據(jù)利用圖像信息的不同分為基于特征的SLAM方法和direct SLAM方法。下面就這兩種方法對(duì)單目視覺SLAM與RGB_D SLAM進(jìn)行簡要的介紹,并介紹視覺SLAM的標(biāo)志性成果以及國內(nèi)外主要的研究單位。

    1.1 基于特征的SLAM方法

    基于特征的視覺SLAM方法指的是對(duì)輸入的圖像進(jìn)行特征點(diǎn)檢測(cè)及提取,并基于2-D或3-D的特征匹配計(jì)算相機(jī)位姿及對(duì)環(huán)境進(jìn)行建圖。如果對(duì)整幅圖像進(jìn)行處理,則計(jì)算復(fù)雜度太高,由于特征在保存圖像重要信息的同時(shí)有效減少了計(jì)算量,從而被廣泛使用。

    早期的單目視覺SLAM的實(shí)現(xiàn)是借助于濾波器而實(shí)現(xiàn)的[1-4]。利用擴(kuò)展卡爾曼濾波器(extended Kalman filter,EKF)來實(shí)現(xiàn)同時(shí)定位與地圖創(chuàng)建,其主要思想是使用狀態(tài)向量來存儲(chǔ)相機(jī)位姿及地圖點(diǎn)的三維坐標(biāo),利用概率密度函數(shù)來表示不確定性,從觀測(cè)模型和遞歸的計(jì)算,最終獲得更新的狀態(tài)向量的均值和方差。但是由于EKF的引進(jìn),SLAM算法會(huì)有計(jì)算復(fù)雜度及由于線性化而帶來的不確定性問題。為了彌補(bǔ)EKF的線性化對(duì)結(jié)果帶來的影響,在文獻(xiàn)[5-7]里將無跡卡爾曼濾波器( Unscented Kalman filter,UKF)或改進(jìn)的UKF引入到單目視覺SLAM中。該方法雖然對(duì)不確定性有所改善,但同時(shí)也增加了計(jì)算復(fù)雜度。此外,文獻(xiàn)[8-9]利用Rao-Blackwellized粒子濾波(Particle filter)實(shí)現(xiàn)了單目視覺SLAM。該方法避免了線性化,且對(duì)相機(jī)的快速運(yùn)動(dòng)有一定的彈力,但是為了保證定位精度,則需要使用較多的粒子,從而大大提高了計(jì)算復(fù)雜度。

    之后基于關(guān)鍵幀的單目視覺SLAM[10-13]逐漸發(fā)展起來,其中最具代表性的是parallel tracking and mapping(PTAM)[10],該論文提出了一個(gè)簡單、有效的提取關(guān)鍵幀的方法,且將定位和創(chuàng)建地圖分為兩個(gè)獨(dú)立的任務(wù),并在兩個(gè)線程上進(jìn)行。文獻(xiàn)[13]是在關(guān)鍵幀的基礎(chǔ)上提出的一個(gè)單目視覺SLAM系統(tǒng),將整個(gè)SLAM過程分為定位、創(chuàng)建地圖、閉環(huán)3個(gè)線程,且對(duì)這3個(gè)任務(wù)使用相同的ORB特征,且引進(jìn)本質(zhì)圖的概念來加速閉環(huán)校正過程。

    微軟公司推出的Kinect相機(jī),能夠同時(shí)獲得圖像信息及深度信息,從而簡化了三維重建的過程,且由于價(jià)格便宜,基于RGB_D數(shù)據(jù)的 SLAM得到了迅速的發(fā)展[14-21]。文獻(xiàn)[18]是最早提出的使用RGBD相機(jī)對(duì)室內(nèi)環(huán)境進(jìn)行三維重建的方法,在彩色圖像中提取SIFT特征并在深度圖像上查找相應(yīng)的深度信息。然后使用RANSAC方法對(duì)3-D特征點(diǎn)進(jìn)行匹配并計(jì)算出相應(yīng)的剛體運(yùn)動(dòng)變換,再以此作為ICP(iterative closest point)的初始值來求出更精確的位姿。RGBD SLAM通常使用ICP算法來進(jìn)行位姿估計(jì),圖1給出了ICP算法的基本流程。文獻(xiàn)[20]與文獻(xiàn)[18]類似,不同點(diǎn)在于對(duì)彩色圖像進(jìn)行的是SURF特征提取,并用ICP對(duì)運(yùn)動(dòng)變換進(jìn)行優(yōu)化后,最后使用Hogman位姿圖優(yōu)化方法求出全局最優(yōu)位姿。

    圖1 ICP算法流程圖Fig.1 Flow diagram of ICP algorithm

    1.2 直接的SLAM方法

    直接的SLAM方法指的是直接對(duì)像素點(diǎn)的強(qiáng)度進(jìn)行操作,避免了特征點(diǎn)的提取,該方法能夠使用圖像的所有信息。此外,提供更多的環(huán)境幾何信息,有助于對(duì)地圖的后續(xù)使用。且對(duì)特征較少的環(huán)境有更高的準(zhǔn)確性和魯棒性。

    近幾年,基于直接法的單目視覺里程計(jì)算法才被提出[22-25]。文獻(xiàn)[22]的相機(jī)定位方法依賴圖像的每個(gè)像素點(diǎn),即用稠密的圖像對(duì)準(zhǔn)來進(jìn)行自身定位,并構(gòu)建出稠密的3-D地圖。文獻(xiàn)[23]對(duì)當(dāng)前圖像構(gòu)建半稠密inverse深度地圖,并使用稠密圖像配準(zhǔn)(dense image alignment)法計(jì)算相機(jī)位姿。構(gòu)建半稠密地圖即估計(jì)圖像中梯度較大的所有像素的深度值,該深度值被表示為高斯分布,且當(dāng)新的圖像到來時(shí),該深度值被更新。文獻(xiàn)[24]對(duì)每個(gè)像素點(diǎn)進(jìn)行概率的深度測(cè)量,有效降低了位姿估計(jì)的不確定性。文獻(xiàn)[25]提出了一種半直接的單目視覺里程計(jì)方法,該方法相比于直接法不是對(duì)整幅圖像進(jìn)行直接匹配從而獲得相機(jī)位姿,而是通過在整幅圖像中提取的圖像塊來進(jìn)行位姿的獲取,這樣能夠增強(qiáng)算法的魯棒性。為了構(gòu)建稠密的三維環(huán)境地圖,Engel 等[26]提出了LSD-SLAM算法(large-scale direct SLAM),相比之前的直接的視覺里程計(jì)方法,該方法在估計(jì)高準(zhǔn)確性的相機(jī)位姿的同時(shí)能夠創(chuàng)建大規(guī)模的三維環(huán)境地圖。

    文獻(xiàn)[27]提出了Kinect融合的方法,該方法通過Kinect獲取的深度圖像對(duì)每幀圖像中的每個(gè)像素進(jìn)行最小化距離測(cè)量而獲得相機(jī)位姿,且融合所有深度圖像,從而獲得全局地圖信息。文獻(xiàn)[28]使用圖像像素點(diǎn)的光度信息和幾何信息來構(gòu)造誤差函數(shù),通過最小化誤差函數(shù)而獲得相機(jī)位姿,且地圖問題被處理為位姿圖表示。文獻(xiàn)[29]是較好的直接RGB_D SLAM方法,該方法結(jié)合像素點(diǎn)的強(qiáng)度誤差與深度誤差作為誤差函數(shù),通過最小化代價(jià)函數(shù),從而求出最優(yōu)相機(jī)位姿,該過程由g2o實(shí)現(xiàn),并提出了基于熵的關(guān)鍵幀提取及閉環(huán)檢方法,從而大大降低了路徑的誤差。

    1.3 視覺SLAM主要標(biāo)志性成果

    視覺SLAM的標(biāo)志性成果有Andrew Davison提出的MonoSLAM[3],是第1個(gè)基于EKF方法的單目SLAM,能夠達(dá)到實(shí)時(shí)但是不能確定漂移多少,能夠在概率框架下在線創(chuàng)建稀疏地圖。DTAM[24]是2011年提出的基于直接法的單目SLAM算法,該方法通過幀率的整幅圖像對(duì)準(zhǔn)來獲得相對(duì)于稠密地圖的相機(jī)的6個(gè)自由度位姿,能夠在GPU上達(dá)到實(shí)時(shí)的效果。PTAM[10]是由Georg Klein提出的第1個(gè)用多線程處理SLAM的算法,將跟蹤和建圖分為兩個(gè)單獨(dú)的任務(wù)并在兩個(gè)平行的線程進(jìn)行處理。KinectFusion[27]是第1個(gè)基于Kinect的能在GPU上實(shí)時(shí)構(gòu)建稠密三維地圖的算法,該方法僅使用Kinect相機(jī)獲取的深度信息去計(jì)算傳感器的位姿以及構(gòu)建精確的環(huán)境3-D地圖模型。2014年提出的LSD-SLAM[26]是直接的單目SLAM方法,即直接對(duì)圖像的像素點(diǎn)進(jìn)行處理,相比于之前的基于直接法的單目視覺里程計(jì),不僅能計(jì)算出自身的位姿,還能構(gòu)建出全局的半稠密且精確的環(huán)境地圖。其中的追蹤方法,直接在sim3上進(jìn)行操作,從而能夠準(zhǔn)確地檢測(cè)尺度漂移,可在CPU上實(shí)時(shí)運(yùn)行。ORB_SLAM[13]是2015年出的比較完整的基于關(guān)鍵幀的單目SLAM算法,將整個(gè)系統(tǒng)分為追蹤、地圖創(chuàng)建、閉環(huán)控制3個(gè)線程進(jìn)行處理,且特征的提取與匹配、稀疏地圖的創(chuàng)建、位置識(shí)別都是基于ORB特征,其定位精確度很高,且可以實(shí)時(shí)運(yùn)行。

    1.4 SLAM的主要研究實(shí)驗(yàn)室

    SLAM的主要研究實(shí)驗(yàn)室有:

    1)蘇黎世聯(lián)邦理工學(xué)院的Autonomous System Lab,該實(shí)驗(yàn)室在tango項(xiàng)目上與谷歌合作,負(fù)責(zé)視覺—慣導(dǎo)的里程計(jì),基于視覺的定位和深度重建算法。

    2)明尼蘇達(dá)大學(xué)的Multiple Autonomous Robotic Systems Laboratory,主要研究四軸飛行器導(dǎo)航,合作建圖,基于地圖的定位,半稠密地圖創(chuàng)建等。

    3)慕尼黑理工大學(xué)的The Computer Vision Group,主要研究基于圖像的3-D重建,機(jī)器人視覺,視覺SLAM等。

    2 視覺SLAM關(guān)鍵性問題

    2.1 特征檢測(cè)與匹配

    目前,點(diǎn)特征的使用最多,最常用的點(diǎn)特征有SIFT(scale invariant feature transform)[30]特征,SURT(speeded up robust features)[31]特征和ORB(oriented fast and rotated BRIEF)[32]特征。SIFT特征已發(fā)展10多年,且獲得了巨大的成功。SIFT特征具有可辨別性,由于其描述符用高維向量(128維)表示,且具有旋轉(zhuǎn)不變性、尺度不變性、放射變換不變性,對(duì)噪聲和光照變化也有魯棒性。[33-36]在視覺SLAM里使用了SIFT特征,但是由于SIFT特征的向量維數(shù)太高,導(dǎo)致時(shí)間復(fù)雜度高。SURF特征具有尺度不變性、旋轉(zhuǎn)不變性,且相對(duì)于SIFT特征的算法速度提高了3到7倍。在文獻(xiàn)[37-39]SURF被作為視覺SLAM的特征提取方法,與SIFT特征相比,時(shí)間復(fù)雜度有所降低。對(duì)兩幅圖像的SIFT和SURF特征進(jìn)行匹配時(shí)通常是計(jì)算兩個(gè)特征向量之間的歐氏距離,并以此作為特征點(diǎn)的相似性判斷度量。ORB特征是FAST[40]特征檢測(cè)算子與BRIEF[41]描述符的結(jié)合,并在其基礎(chǔ)上做了一些改進(jìn)。ORB特征最大的優(yōu)點(diǎn)是計(jì)算速度快,是SIFT特征的100倍,SURF特征的10倍,其原因是FAST特征檢測(cè)速度就很快,再加上BRIEF描述符是二進(jìn)制串,大大縮減了匹配速度,而且具有旋轉(zhuǎn)不變性,但不具備尺度不變性。文獻(xiàn)[12-13,42-44]的SLAM算法中采用了ORB特征,大大加快了算法速度。ORB特征匹配是以BRIEF二進(jìn)制描述符的漢明距離為相似性度量的。

    在大量包含直線和曲線的環(huán)境下,使用點(diǎn)特征時(shí),環(huán)境中很多信息都將被遺棄,為了彌補(bǔ)這個(gè)缺陷,從而也提出了基于邊特征的視覺SLAM[45-46]和基于區(qū)域特征的視覺SLAM[47]方法。

    2.2 關(guān)鍵幀的選擇

    幀對(duì)幀的對(duì)準(zhǔn)方法會(huì)造成大的累積漂浮,由于位姿估計(jì)過程中總會(huì)產(chǎn)生誤差。為了減少幀對(duì)幀的對(duì)準(zhǔn)方法帶來的誤差,基于關(guān)鍵幀的SLAM[10-13,19,29]方法被提出。

    目前有幾種選擇關(guān)鍵幀的方法。文獻(xiàn)[10,13]里當(dāng)滿足以下全部條件時(shí)該幀作為關(guān)鍵幀插入到地圖里:從上一個(gè)關(guān)鍵幀經(jīng)過了n個(gè)幀;當(dāng)前幀至少能看到n個(gè)地圖點(diǎn),位姿估計(jì)準(zhǔn)確性較高。文獻(xiàn)[19]是當(dāng)兩幅圖像看到的共同特征點(diǎn)數(shù)低于一定閾值時(shí),創(chuàng)建一個(gè)新的關(guān)鍵幀。文獻(xiàn)[29]提出了一種基于熵的相似性的選擇關(guān)鍵幀的方法,由于簡單的閾值不適用于不同的場景,對(duì)每一幀計(jì)算一個(gè)熵的相似性比,如果該值小于一個(gè)預(yù)先定義的閾值,則前一幀被選為新的關(guān)鍵幀,并插入地圖里,該方法大大減少了位姿漂浮。

    2.3 閉環(huán)檢測(cè)(loopclosing)方法

    閉環(huán)檢測(cè)及位置識(shí)別,判斷當(dāng)前位置是否是以前已訪問過的環(huán)境區(qū)域。三維重建過程中必然會(huì)產(chǎn)生誤差累積,實(shí)現(xiàn)閉環(huán)是消除的一種手段。在位置識(shí)別算法中,視覺是主要的傳感器[3,48-50]。文獻(xiàn)[51]對(duì)閉環(huán)檢測(cè)方法進(jìn)行了比較,且得出圖像對(duì)圖像[52-53]的匹配性能優(yōu)于地圖對(duì)地圖[54],圖像對(duì)地圖[55]的匹配方法。

    圖像對(duì)圖像的匹配方法中,詞袋(bagofwords)[56]方法由于其有效性得到了廣泛的應(yīng)用[12-13,57-59]。詞袋指的是使用視覺詞典樹(visualvocabularytree)將一幅圖像的內(nèi)容轉(zhuǎn)換為數(shù)字向量的技術(shù)。對(duì)訓(xùn)練圖像集進(jìn)行特征提取,并將其特征描述符空間通過K中心點(diǎn)聚類(kmediansclustering)方法離散化為個(gè)簇,由此,詞典樹的第一節(jié)點(diǎn)層被創(chuàng)建。下面的層通過對(duì)每個(gè)簇重復(fù)執(zhí)行這個(gè)操作而獲得,直到共獲得層。最終獲得W個(gè)葉子節(jié)點(diǎn),即視覺詞匯。每層到每層的K中心聚類過程如圖2所示[56]。

    文獻(xiàn)[60]對(duì)重定位和閉環(huán)檢測(cè)提出了統(tǒng)一的方法,它們使用基于16維的SIFT特征的詞典方法不斷地搜索已訪問過的位置。文獻(xiàn)[61-62]使用基于SURF描述符的詞典方法去進(jìn)行閉環(huán)檢測(cè)SURF特征,SURF特征提取需要花費(fèi)400ms去進(jìn)行。文獻(xiàn)[63]使用SIFT特征執(zhí)行全局定位,且用KD樹來排列地圖點(diǎn)。文獻(xiàn)[59]提出了一種使用基于FAST特征檢測(cè)與BRIEF二進(jìn)制描述符詞典,且添加了直接索引(directindex),直接索引的引入使得能夠有效地獲得圖像之間的匹配點(diǎn),從而加快閉環(huán)檢測(cè)的幾何驗(yàn)證。文獻(xiàn)[12]用基于ORB特征的詞典方法進(jìn)行位置識(shí)別,由于ORB特征具有旋轉(zhuǎn)不變性且能處理尺度變化,該方法能識(shí)別位置從不同的視角。文獻(xiàn)[13]的位置識(shí)別方法建于文獻(xiàn)[12]的主要思想上,即使用基于ORB特征的詞典方法選出候選閉環(huán),再通過相似性計(jì)算進(jìn)行閉環(huán)的幾何驗(yàn)證。

    圖2 K中心點(diǎn)聚類方法Fig.2 Method of k medians clustering

    2.4 地圖優(yōu)化

    對(duì)于一個(gè)在復(fù)雜且動(dòng)態(tài)的環(huán)境下工作的機(jī)器人,3-D地圖的快速生成是非常重要的,且創(chuàng)建的環(huán)境地圖對(duì)之后的定位、路徑規(guī)劃及壁障的性能起到一個(gè)關(guān)鍵性的作用,從而精確的地圖創(chuàng)建也是非常重要的。

    閉環(huán)檢測(cè)成功后,往地圖里添加閉環(huán)約束,執(zhí)行閉環(huán)校正。閉環(huán)問題可以描述為大規(guī)模的光束平差法(bundleadjustment)[64-65]問題,即對(duì)相機(jī)位姿及所有的地圖點(diǎn)3-D坐標(biāo)進(jìn)行優(yōu)化,但是該優(yōu)化計(jì)算復(fù)雜度太高,從而很難實(shí)現(xiàn)實(shí)時(shí)。

    一種可執(zhí)行方法為通過位姿圖優(yōu)化(posegraphoptimization)方法來對(duì)閉環(huán)進(jìn)行優(yōu)化,頂點(diǎn)為相機(jī)位姿,邊表示位姿之間相對(duì)變換的圖稱為位姿圖,位姿圖優(yōu)化即將閉環(huán)誤差沿著圖進(jìn)行分配,即均勻分配到圖上的所有位姿上。圖優(yōu)化通常由圖優(yōu)化框架g2o(generalgraphoptimization)[66]里的LM(levenberg-marquardt)算法實(shí)現(xiàn)。

    文獻(xiàn)[29]提出的RGB_DSLAM算法的位姿圖里每個(gè)邊具有一個(gè)權(quán)重,從而在優(yōu)化過程中,不確定性高的邊比不確定性低的邊需要變化更多去補(bǔ)償誤差,并在最后,對(duì)圖里的每個(gè)頂點(diǎn)進(jìn)行額外的閉環(huán)檢測(cè)且重新優(yōu)化整個(gè)圖。文獻(xiàn)[67]里,在閉環(huán)校正步驟使用了位姿圖優(yōu)化技術(shù)去實(shí)現(xiàn)旋轉(zhuǎn),平移及尺度漂浮的有效校正。文獻(xiàn)[13]在閉環(huán)檢測(cè)成功后構(gòu)建了本質(zhì)圖,并對(duì)該圖進(jìn)行位姿圖優(yōu)化。本質(zhì)圖包含所有的關(guān)鍵幀,但相比于covisibility圖[68],減少了關(guān)鍵幀之間的邊約束。本質(zhì)圖包含生成樹、閉環(huán)連接及covisibility圖里權(quán)重較大的邊。

    3 視覺SLAM主要發(fā)展趨勢(shì)及研究熱點(diǎn)

    3.1 多傳感器融合

    相機(jī)能夠捕捉場景的豐富細(xì)節(jié),而慣性測(cè)量單元(inertial measurement unit,IMU)有高的幀率且相對(duì)小的能夠獲得準(zhǔn)確的短時(shí)間估計(jì),這兩個(gè)傳感器能夠相互互補(bǔ),從而一起使用能夠獲得更好的結(jié)果。

    最初的視覺與IMU結(jié)合的位姿估計(jì)是用濾波方法解決的,用IMU的測(cè)量值作為預(yù)測(cè)值,視覺的測(cè)量值用于更新。文獻(xiàn)[69]提出了一種基于EKF的IMU與單目視覺的實(shí)時(shí)融合方法,提出一種測(cè)量模型能夠表示一個(gè)靜態(tài)特征被多個(gè)相機(jī)所觀察時(shí)的幾何約束,該測(cè)量模型是最優(yōu)的且不需要在EKF的狀態(tài)向量里包括特征的3-D坐標(biāo)。文獻(xiàn)[70]將融合問題分為兩個(gè)線程進(jìn)行處理,連續(xù)圖像之間的慣性測(cè)量和特征跟蹤被局部地在第1個(gè)線程進(jìn)行處理,提供高頻率的位置估計(jì),第2個(gè)線程包含一個(gè)間歇工作的光束法平差的迭代估計(jì),能夠減少線性誤差的影響。許多結(jié)果都已證明在準(zhǔn)確性上基于優(yōu)化的視覺SLAM優(yōu)于基于濾波的SLAM方法。文獻(xiàn)[71]將IMU的誤差以全概率的形式融合到路標(biāo)的重投影誤差里,構(gòu)成將被優(yōu)化的聯(lián)合非線性誤差函數(shù),其中通過關(guān)鍵幀來邊緣化之前的狀態(tài)去維持一個(gè)固定大小的優(yōu)化窗口,保證實(shí)時(shí)操作??紤]到基于優(yōu)化方法的視覺-慣導(dǎo)導(dǎo)航的計(jì)算復(fù)雜度問題,文獻(xiàn)[72]通過預(yù)積分選出的關(guān)鍵幀之間的慣性測(cè)量來進(jìn)行解決,預(yù)積分能夠精確地概括數(shù)百個(gè)慣性測(cè)量到一個(gè)單獨(dú)的相對(duì)運(yùn)動(dòng)約束,這個(gè)預(yù)積分的IMU模型能被完美地融合到視覺-慣性的因子圖的框架下。該系統(tǒng)的實(shí)驗(yàn)結(jié)果表明該系統(tǒng)要比Google的Tango還要精確[72],如圖3所示。

    (a)正視圖 (b)俯視圖圖3 與Tango的性能比較[72]Fig.3 Performance comparison with tango[72]

    共160 m的軌跡開始于(0,0,0)點(diǎn),走到建筑物的第3層,然后再返回到初始點(diǎn)。其中,Google Tango積累1.4 m的誤差,而該提出的方法僅有0.5 m的漂移。

    即使在視覺與IMU融合的系統(tǒng)里,當(dāng)機(jī)器人運(yùn)動(dòng)較為劇烈時(shí),由于其不確定性增大,還是會(huì)導(dǎo)致定位失敗,從而系統(tǒng)的魯棒性有待進(jìn)一步提高。并且為在現(xiàn)實(shí)生活中實(shí)現(xiàn)實(shí)時(shí)定位,其計(jì)算復(fù)雜度也需要進(jìn)行改進(jìn)。

    3.2 SLAM與深度學(xué)習(xí)的結(jié)合

    隨著深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域的大成功,大家對(duì)深度學(xué)習(xí)在機(jī)器人領(lǐng)域的應(yīng)用有很大的興趣。SLAM是一個(gè)大系統(tǒng),里面有很多子模塊,例如閉環(huán)檢測(cè),立體匹配等,都可通過深度學(xué)習(xí)的使用來獲得更優(yōu)的結(jié)果。

    文獻(xiàn)[73]提出了一種基于深度學(xué)習(xí)的立體匹配方法,用卷積神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)小圖像塊間的相似性,該卷積神經(jīng)網(wǎng)絡(luò)輸出的結(jié)果用于線性化立體匹配代價(jià)。文獻(xiàn)[74]通過整合局部敏感散列法和新的語義搜尋空間劃分的優(yōu)化技術(shù),使用卷積神經(jīng)網(wǎng)絡(luò)和大的地圖達(dá)到實(shí)時(shí)的位置識(shí)別。文獻(xiàn)[75]使用卷積神經(jīng)網(wǎng)絡(luò)去學(xué)習(xí)視覺里程計(jì)的最佳的視覺特征和最優(yōu)的估計(jì)器。文獻(xiàn)[76]提出了一種重定位系統(tǒng),使用貝葉斯卷積神經(jīng)網(wǎng)絡(luò)從單個(gè)彩色圖像計(jì)算出六個(gè)自由度的相機(jī)位姿及其不確定性。

    4 視覺SLAM的優(yōu)缺點(diǎn)分析

    4.1 單目視覺SLAM的優(yōu)缺點(diǎn)

    單目相機(jī)應(yīng)用靈活、簡單、價(jià)格低。但是,單目視覺SLAM在每個(gè)時(shí)刻只能獲取一張圖像,且只能依靠獲得的圖像數(shù)據(jù)計(jì)算環(huán)境物體的方向信息,無法直接獲得可靠的深度信息,從而初始地圖創(chuàng)建及特征點(diǎn)的深度恢復(fù)都比較困難。此外,尺度不確定性是單目SLAM的主要特點(diǎn),它是主要的誤差源之一,但是正是尺度不確定性才使得單目SLAM能夠在大尺度和小尺度環(huán)境之間進(jìn)行自由轉(zhuǎn)換。

    4.2 雙目視覺SLAM的優(yōu)缺點(diǎn)

    雙目視覺SLAM利用外極線幾何約束的原理去匹配左右兩個(gè)相機(jī)的特征,從而能夠在當(dāng)前幀速率的條件下直接提取完整的特征數(shù)據(jù),因而應(yīng)用比較廣泛,它直接解決了系統(tǒng)地圖特征的初始化問題。但是系統(tǒng)設(shè)計(jì)比較復(fù)雜,系統(tǒng)成本比較高,且它的視角范圍受到一定限制,不能夠獲取遠(yuǎn)處的場景,從而只能在一定的尺度范圍內(nèi)進(jìn)行可靠的測(cè)量,從而缺乏靈活性。

    4.3 RGBD SLAM的優(yōu)缺點(diǎn)

    深度相機(jī)在獲得彩色圖像的同時(shí)獲得深度圖像,從而方便獲得深度信息,且能夠獲得稠密的地圖,但是成本高,體積大,有效探測(cè)距離太短,從而可應(yīng)用環(huán)境很有限。

    5 結(jié)束語

    十幾年來,視覺SLAM雖然取得了驚人的發(fā)展,但是僅用攝像機(jī)作為唯一外部傳感器進(jìn)行同時(shí)定位與三維地圖重建還是一個(gè)很具挑戰(zhàn)性的研究方向,想要實(shí)時(shí)進(jìn)行自身定位且構(gòu)建類似人眼看到的環(huán)境地圖還有很長的科研路要走。為了彌補(bǔ)視覺信息的不足,視覺傳感器可以與慣性傳感器(IMU)、激光等傳感器融合,通過傳感器之間的互補(bǔ)獲得更加理想的結(jié)果。此外,為了能在實(shí)際環(huán)境中進(jìn)行應(yīng)用,SLAM的魯棒性需要很高,從而足夠在各種復(fù)雜環(huán)境下進(jìn)行準(zhǔn)確的處理,SLAM的計(jì)算復(fù)雜度也不能太高,從而達(dá)到實(shí)時(shí)效果。

    [1]DAVISON A J. SLAM with a single camera[C] //Proceedings of Workshop on Concurrent Mapping an Localization for Autonomous Mobile Robots in Conjunction with ICRA. Washington, DC, USA, 2002: 18-27.

    [2]DAVISON A J. Real-time simultaneous localisation and mapping with a single camera[C]//Proceedings of the Ninth IEEE International Conference on Computer Vision. Washington, DC, USA, 2003: 1403-1410.

    [3]DAVISON A J, REID I D, MOLTON N D, et al. MonoSLAM: real-time single camera SLAM[J]. IEEE transactions on pattern analysis and machine intelligence, 2007, 29(6): 1052-1067.

    [4]CIVERA J, DAVISON A J, MONTIEL J M M. Inverse depth parametrization for monocular SLAM[J]. IEEE transactions on robotics, 2008, 24(5): 932-945.

    [5]MARTINEZ-CANTIN R, CASTELLANOS J A. Unscented SLAM for large-scale outdoor environments[C]//Proceedings of 2005 IEEE/RSJ International Conference on Intelligent Robots and Systems. Edmonton, Alberta, Canada, 2005: 3427-3432

    [6]CHEKHLOV D, PUPILLI M, MAYOL-CUEVAS W, et al. Real-time and robust monocular SLAM using predictive multi-resolution descriptors[C]// Proceedings of the Second International Conference on Advances in Visual Computi. Lake Tahoe, USA, 2006: 276-285.

    [7]HOLMES S, KLEIN G, MURRAY D W. A square root unscented kalman filter for visual monoSLAM[C]//Proceedings of 2008 International Conference on Robotics and Automation, ICRA. Pasadena, California, USA, 2008: 3710-3716.

    [8]SIM R, ELINAS P, GRIFFIN M, et al. Vision-based SLAM using the Rao-Blackwellised particle filter[J]. IJCAI workshop on reasoning with uncertainty in robotics, 2005, 9(4): 500-509.

    [9]LI Maohai, HONG Bingrong, CAI Zesu, et al. Novel Rao-Blackwellized particle filter for mobile robot SLAM using monocular vision[J]. International journal of intelligent technology, 2006, 1(1): 63-69.

    [10]KLEIN G, MURRAY D. Parallel Tracking and Mapping for Small AR Workspaces[C]// IEEE and ACM International Symposium on Mixed and Augmented Reality. Nara, Japan, 2007: 225-234.

    [11]KLEIN G, MURRAY D. Improving the agility of keyframe-based SLAM[C]// European Conference on Computer Vision. Marseille, France, 2008: 802-815.

    [12]MUR-ARTAL R, TARDS J D. Fast relocalisation and loop closing in keyframe-based SLAM[C]// IEEE International Conference on Robotics and Automation. New Orleans, LA, 2014: 846-853.

    [13]MUR-ARTAL R, MONTIEL J M M, TARDOS J D. ORB-SLAM: A Versatile and Accurate Monocular SLAM System[J]. IEEE transactions on robotics, 2015, 31(5): 1147-1163.

    [14]KHOSHELHAM K, ELBERINK S O. Accuracy and resolution of Kinect depth data for indoor mapping applications[J]. Sensors, 2012, 12(2): 1437-1454.

    [15]HOGMAN V. Building a 3-D Map from RGB-D sensors[D]. Stockholm, Sweden: Royal Institute of Technology, 2012.

    [16]HENRY P, KRAININ M, HERBST E, et al. RGB-D mapping: Using depth cameras for dense 3-D modeling of indoor environments[C]//12th International Symposium on Experimental Robotics. Berlin, Germany, 2014: 477-491.

    [17]DRYANOVSKI I, VALENTI R G, XIAO J Z. Fast visual odometry and mapping from RGB-D data[C]// IEEE International Conference on Robotics and Automation. Piscataway, USA, 2013: 2305-2310.

    [18]HENRY P, KRAININ M, HERBST E, et al. RGB-D mapping: using depth cameras for dense 3-D modeling of indoor environments[M]//KHATIB O, KUMAR V, PAPPAS G J. Experimental Robotics. Berlin Heidelberg: Springer, 2014: 647-663.

    [19]HENRY P, KRAININ M, HERBST E, et al. RGB-D Mapping: Using Depth Cameras for Dense 3-D Modeling of Indoor Environments[C]// 12th International Symposium on Experimental Robotics. Berlin Germany, 2014: 477-491.

    [20]HENRY P, KRAININ M, HERBST E, et al. RGB-D mapping: Using Kinect-style depth cameras for dense 3-D modeling of indoor environments[J]. International journal of robotics research, 2012, 31(5): 647-663.

    [21]ENGELHARD N, ENDRES F, HESS J. Real-time 3-D visual SLAM with a hand-held RGB-D camera[C]// Proceeedings of the RGB-D workshop on 3-D Perception in Robotics at the European Robotics Forum. V?ster?s, Sweden, 2011.

    [22]STüHMER J, GUMHOLD S, CREMERS D. Real-time dense geometry from a handheld camera[C]// GOESELE M, ROTH S, KUIJPER A, et al. Pattern Recognition. Berlin Heidelberg: Springer, 2010: 11-20.

    [23]ENGEL J, STURM J, CREMERS D. Semi-Dense Visual Odometry for a Monocular Camera[C]// International Conference on Computer Vision. Sydney, NSW, 2013: 1449-1456.

    [24]NEWCOMBE R A, LOVEGROVE S J, DAVISON A J. DTAM: Dense tracking and mapping in real-time[C]// International Conference on Computer Vision. Barcelona, Spain, 2011: 2320-2327.

    [25]FORSTER C, PIZZOLI M, SCARAMUZZA D. SVO: Fast semi-direct monocular visual odometry[C]// 2014 IEEE International Conference onRobotics and Automation. Hong Kong, China, 2014: 15-22.

    [26]ENGEL J, SCH?PS T, CREMERS D. LSD-SLAM: Large-Scale Direct Monocular SLAM[M]// FLEET D, PAJDLA T, SCHIELE B, et al, eds. Computer Vision-ECCV 2014. Switzerland: Springer International Publishing, 2014: 834-849.

    [27]NEWCOMBE R A, IZADI S, HILLIGES O, et al. KinectFusion: Real-time dense surface mapping and tracking[C]// IEEE International Symposium on Mixed and Augmented Reality. Basel, Switzerland, 2011: 127-136.

    [28]GOKHOOL T, MEILLAND M, RIVES P, et al. A dense map building approach from spherical RGBD images[C]// International Conference on Computer Vision Theory and Applications. Lisbon, Portugal, 2014: 1103-1114.

    [29]KERL C, STURM J, CREMERS D. Dense visual SLAM for RGB-D cameras[C]// Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems. Tokyo, Japan, 2013: 2100-2106.

    [30]Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International journal of computer vision, 2004, 60(2): 91-110.

    [31]BAY H, TUYTELAARS T, VAN GOOL L. SURF: speeded up robust features[M]// LEONARDIS A, BISCHOF H, PINZ A. Computer Vision-ECCV 2006. Berlin Heidelberg: Springer, 2006.

    [32]RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: An efficient alternative to SIFT or SURF[C]// International Conference on Computer Vision. Barcelona, Spain, 2011: 2564-2571.

    [33]ALI A M, JAN NORDIN M. SIFT based monocular SLAM with multi-clouds features for indoor navigation[C]// 2010 IEEE Region 10 Conference TENCON. Fukuoka, 2010: 2326-2331.

    [34]WU E Y, ZHAO L K, GUO Y P, et al. Monocular vision SLAM based on key feature points selection[C]// 2010 IEEE International Conference on Information and Automation (ICIA). Harbin, China, 2010: 1741-1745.

    [35]CHEN C H, CHAN Y P. SIFT-based monocluar SLAM with inverse depth parameterization for robot localization[C]// IEEE Workshop on Advanced Robotics and Its Social Impacts, 2007. Hsinchu, China, 2007: 1-6.

    [36]Zhu D X. Binocular Vision-SLAM Using Improved SIFT Algorithm[C]// 2010 2nd International Workshop on Intelligent Systems and Applications (ISA). Wuhan, China, 2010: 1-4.

    [37]ZHANG Z Y, HUANG Y L, LI C, et al. Monocular vision simultaneous localization and mapping using SURF[C]// WCICA 2008. 7th World Congress on Intelligent Control and Automation. Chongqing, China, 2008: 1651-1656.

    [38]YE Y. The research of SLAM monocular vision based on the improved surf feather[C]// International Conference on Computational Intelligence and Communication Networks. Hongkong, China, 2014: 344-348.

    [39]WANG Y T, FENG Y C. Data association and map management for robot SLAM using local invariant features[C]//2013 IEEE International Conference on Mechatronics and Automation. Takamatsu, 2013.

    [40]ROSTEN E, DRUMMOND T. Machine Learning for High-Speed Corner Detection[M]// LEONARDIS A, BISCHOF H, PINZ A, et al. European Conference on Computer Vision. Berlin Heidelberg: Springer, 2006: 430-443.

    [41]CALONDER M, LEPETIT V, STRECHA C, et al. BRIEF: Binary Robust Independent Elementary Features[C]// European Conference on Computer Vision. Crete, Greece, 2010: 778-792.

    [42]FEN X, ZHEN W. An embedded visual SLAM algorithm based on Kinect and ORB features[C]// 2015 34th Chinese Control Conference. Hangzhou, China, 2015: 6026-6031.

    [43]XIN G X, ZHANG X T, WANG X, et al. A RGBD SLAM algorithm combining ORB with PROSAC for indoor mobile robot[C]// 2015 4th International Conference on Computer Science and Network Technology (ICCSNT). Harbin, China, 2015: 71-74.

    [44]LI J, PAN T S, TSENG K K, et al. Design of a monocular simultaneous localisation and mapping system with ORB feature[C]// International Conference on Multimedia and Expo (ICME), San Jose, California, USA, 2013: 1-4.

    [45]EADE E, DRUMMOND T. Edge landmarks in monocular SLAM[J]. Image and vision computing, 2009, 27(5): 588-596.

    [46]KLEIN G, MURRAY D. Improving the agility of keyframe-based SLAM[C]// European Conference on Computer Vision. Marseille, France, 2008: 802-815.

    [47]CONCHA A, CIVERA J. Using superpixels in monocular SLAM[C]// IEEE International Conference on Robotics and Automation. New Orleans, LA, 2014: 365-372.

    [48]SCHINDLER G, BROWN M, SZELISKI R. City-Scale Location Recognition[C]// IEEE Conference on Computer Vision and Pattern Recognition. Ezhou, China, 2007: 1-7.

    [49]ULRICH I, NOURBAKHSH I. Appearance-based place recognition for topological localization[C]// IEEE International Conference on Robotics and Automation. Anchorage, Alaska, 2010: 1023-1029.

    [50]NEIRA J, RIBEIRO M I, TARDOS J D. Mobile robot localization and map building using monocular vision[C]// Proceedings of the 5th International Symposium on Intelligent Robotic Systems. Pisa, Italy, 1997: 275-284.

    [51]WILLIAMS B, CUMMINS M, NEIRA J, et al. A comparison of loop closing techniques in monocular SLAM[J]. Robotics and autonomous systems, 2009, 57(12): 1188-1197.

    [52]MUR-ARTAL R, TARDOS J D. ORB-SLAM: Tracking and mapping recognizable features[C]// IEEE International Conference on Robotics and Automation (ICRA). Berkeley, CA, USA, 2014.

    [53]CUMMINS M, NEWMAN P. Accelerated appearance-only SLAM[C]// IEEE International Conference on Robotics and Automation. Pasadena, California, USA, 2008: 1828-1833.

    [54]CLEMENTE L A, DAVISON A J, REID I D, et al. Mapping Large Loops with a Single Hand-Held Camera. [C]// Robotics: Science and Systems. Atlanta, GA, USA, 2007.

    [55]CUMMINS M, NEWMAN P. FAB-MAP: Probabilistic Localization and Mapping in the Space of Appearance[J]. International Journal of Robotics Research, 2008, 27(6): 647-665.

    [56]NISTER D, STEWENIUS H. Scalable Recognition with a Vocabulary Tree[C]// 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06). New York, NY, USA, 2006: 2161-2168.

    [57]ANGELI A, FILLIAT D, DONCIEUX S, et al. A fast and incremental method for loop-closure detection using bags of visual words[J]. IEEE transactions on robotics, 2008, 24(5): 1027-1037.

    [58]CUMMINS M, NEWMAN P. Highly scalable appearance-only SLAM-FAB-MAP 2.0[C]// Robotics: Science and Systems V, University of Washington. Seattle, USA, 2009.

    [60]EADE E D, DRUMMOND T W. Unified loop closing and recovery for real time monocular SLAM [C]// British Machine Vision Conference. Leeds, UK, 2008: 1-10.

    [62]CUMMINS M, NEWMAN P. Appearance-only SLAM at large scale with FAB-MAP 2.0[J]. International journal of robotics research, 2011, 30(9): 1100-1123.

    [63]LOWE D G. Distinctive Image features from scale-invariant keypoints[J]. International journal of computer vision, 2004, 60(2): 91-110.

    [64]TRIGGS B, MCLAUCHLAN P F, HARTLEY R I, et al. Bundle Adjustment-A Modern Synthesis[M]// TRIGGS B, ZISSERMAN A, SZELISKI R. Vision Algorithms: Theory and Practice. Berlin Heidelberg: Springer , 2000: 298-372.

    [65]HARTLEY R, ZISSERMAN A. Multiple view geometry in computer vision[M]. 2nd ed. Cambridge U K: Cambridge University Press, 2003.

    [66] KüMMERLE R, GRISETTI G, STRASDAT H. G2o: A general framework for graph optimization[C]// IEEE International Conference on Robotics and Automation. Shanghai, China, 2011: 3607-3613.

    [67]STRASDAT H, MONTIEL J M M, DAVISON A J. Scale drift-aware large scale monocular SLAM[C]// Proceedings of Robotics: Science and Systems. Zaragoza, Spain, 2010.

    [68]STRASDAT H, DAVISON A J, MONTIEL J M M, et al. Double window optimisation for constant time visual SLAM[C]// International Conference on Computer Vision. Barcelona, Spain, 2011: 2352-2359.

    [69]MOURIKIS A I, ROUMELIOTIS S I. A multi-state constraint Kalman filter for vision-aided inertial navigation[C]// Proceedings of the 2007 IEEE International Conference on Robotics and Automation (ICRA). Roma, Italy, 2007.

    [70]MOURIKIS A I, ROUMELIOTIS S I. A dual-layer estimator architecture for long-term localization[C]// Proceedings of the 2008 Workshop on Visual Localization for Mobile Platforms at CVPR. Anchorage, Alaska, 2008.

    [71] LEUTENEGGER S, FURGALE P, RABAUD V, et al. Keyframe-based visual-inertial slam using nonlinear optimization[C]// Proceedings of 2013 Robotics: Science and Systems (RSS). Berlin, Germany, 2013.

    [72]Google. Project tango. URL https://www.google.com/atap/projecttango/.

    [73]?BONTAR J, LE CUN Y. Stereo matching by training a convolutional neural network to compare image patches[J]. The journal of machine learning research, 2015, 17(1): 2287-2318.

    [74]SüNDERHAUF N, SHIRAZI S, DAYOUB F. On the performance of ConvNet features for place recognition[C]// 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). Hamburg, Germany, 2015: 4297-4304.

    [75]COSTANTE G, MANCINI M, VALIGI P, et al. Exploring representation learning with CNNs for frame-to-frame ego-motion estimation[J]. IEEE robotics and automation letters, 2016, 1(1): 18-25.

    [76]KENDALL A, CIPOLLA R. Modelling uncertainty in deep learning for camera relocalization[C]// 2016 IEEE International Conference on Robotics and Automation. Stockholm, Sweden, 2016: 4762-4769.

    權(quán)美香,女,1992年生,博士,主要研究方向?yàn)閱文恳曈XSLAM,VIN,移動(dòng)機(jī)器人視覺導(dǎo)航。

    樸松昊,男,1972年生,教授,博士生導(dǎo)師,中國人工智能學(xué)會(huì)常務(wù)理事,機(jī)器人文化藝術(shù)專業(yè)委員會(huì)主任,主要研究方向?yàn)闄C(jī)器人環(huán)境感知與導(dǎo)航、機(jī)器人運(yùn)動(dòng)規(guī)劃、多智能體機(jī)器人協(xié)作。主持或參加了國家自然科學(xué)基金、國家“863”計(jì)劃重點(diǎn)及面上項(xiàng)目、機(jī)器人技術(shù)與系統(tǒng)國家重點(diǎn)實(shí)驗(yàn)室基金、教育部“985”項(xiàng)目、三星國際合作項(xiàng)目等多個(gè)項(xiàng)目。發(fā)表學(xué)術(shù)論文60余篇,其中被SCI、EI、ISTP檢索60多篇,出版專著一部。

    李國,男,1989年生,博士,主要研究方向?yàn)镾LAM、機(jī)器學(xué)習(xí)。

    An overview of visual SLAM

    QUAN Meixiang1, PIAO Songhao1,2, LI Guo1

    (1. Multi-agent Robot Research Center, Harbin Institute of Technology, Harbin 150000, China; 2. Multi-agent Robot Research Center, Harbin Institute of Technology, Harbin 150000, China)

    Visual SLAM refers to simultaneously localizing itself and reconstructing the environment map using cameras as the only external sensor. The quality of the map created by SLAM plays a decisive role in the performance of the subsequent automatic localization, path planning, and obstacle avoidance. This paper introduced the feature-based visual SLAM and direct visual SLAM methods; the major symbolic achievement of visual SLAM; the main research laboratory of SLAM; and the method of SIFT, SURF, and ORB feature detection and matching, key frame selection. In addition, this paper summarized the loop closure detection and map optimization that removed the accumulated error. In the end, the development tendency and research highlights of SLAM were discussed and the advantages and disadvantages of monocular SLAM, binocular SLAM, and RGB_D SLAM were analyzed.

    visual simultaneous localization and mapping; monocular vision; RGB_D; feature detection and matching; loop closure detection

    10.11992/tis.201607026

    http://www.cnki.net/kcms/detail/23.1538.TP.20170111.1705.006.html

    2016-07-25.

    日期:.

    國家自然科學(xué)基金面上項(xiàng)目(61375081).

    樸松昊. E-mail: piaosh@hit.edu.cn.

    TP391

    A

    1673-4785(2016)06-0768-09

    權(quán)美香,樸松昊,李國. 視覺SLAM綜述[J]. 智能系統(tǒng)學(xué)報(bào), 2016, 11(6): 768-776.

    英文引用格式:QUAN Meixiang, PIAO Songhao, LI Guo. An overview of visual SLAM[J]. CAAI transactions on intelligent systems, 2016, 11(6): 768-776.

    猜你喜歡
    單目關(guān)鍵幀位姿
    一種單目相機(jī)/三軸陀螺儀/里程計(jì)緊組合導(dǎo)航算法
    單目SLAM直線匹配增強(qiáng)平面發(fā)現(xiàn)方法
    基于改進(jìn)關(guān)鍵幀選擇的RGB-D SLAM算法
    基于共面直線迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
    基于CAD模型的單目六自由度位姿測(cè)量
    基于相關(guān)系數(shù)的道路監(jiān)控視頻關(guān)鍵幀提取算法
    小型四旋翼飛行器位姿建模及其仿真
    基于聚散熵及運(yùn)動(dòng)目標(biāo)檢測(cè)的監(jiān)控視頻關(guān)鍵幀提取
    基于單目立體視覺的三坐標(biāo)在線識(shí)別技術(shù)研究
    論“關(guān)鍵幀”在動(dòng)畫制作中的作用
    国产亚洲精品一区二区www| xxx96com| 99香蕉大伊视频| 亚洲一码二码三码区别大吗| 亚洲色图 男人天堂 中文字幕| 国产欧美日韩综合在线一区二区| 免费久久久久久久精品成人欧美视频| 人妻丰满熟妇av一区二区三区| 国产成人免费无遮挡视频| 亚洲欧美一区二区三区久久| 久9热在线精品视频| 99久久精品国产亚洲精品| 国产激情久久老熟女| av国产精品久久久久影院| 日韩国内少妇激情av| 欧美日韩黄片免| 悠悠久久av| 日本五十路高清| 欧美午夜高清在线| 极品教师在线免费播放| 男人的好看免费观看在线视频 | 久久天堂一区二区三区四区| 国产精品爽爽va在线观看网站 | 日本免费a在线| 青草久久国产| 亚洲avbb在线观看| 成人精品一区二区免费| av免费在线观看网站| 999久久久国产精品视频| 午夜a级毛片| 女性生殖器流出的白浆| 交换朋友夫妻互换小说| 99久久国产精品久久久| 在线播放国产精品三级| 午夜91福利影院| 在线观看免费视频日本深夜| 久久欧美精品欧美久久欧美| 久久精品国产清高在天天线| 久久中文字幕人妻熟女| 麻豆国产av国片精品| www国产在线视频色| 日韩大尺度精品在线看网址 | 欧美日韩亚洲国产一区二区在线观看| 搡老乐熟女国产| 精品国产国语对白av| 97人妻天天添夜夜摸| 黑人巨大精品欧美一区二区mp4| 久久久久亚洲av毛片大全| 亚洲,欧美精品.| 丝袜美腿诱惑在线| 国产熟女午夜一区二区三区| 亚洲国产中文字幕在线视频| 久久精品国产综合久久久| 亚洲人成网站在线播放欧美日韩| 色在线成人网| 免费高清视频大片| 国产精品久久久久久人妻精品电影| 69精品国产乱码久久久| aaaaa片日本免费| 两性午夜刺激爽爽歪歪视频在线观看 | 日韩免费av在线播放| 亚洲精品美女久久久久99蜜臀| 成年人黄色毛片网站| xxx96com| 悠悠久久av| 国产一区二区三区综合在线观看| 久久香蕉激情| 国产成人免费无遮挡视频| 自线自在国产av| 亚洲av日韩精品久久久久久密| 黄色片一级片一级黄色片| 免费一级毛片在线播放高清视频 | www.999成人在线观看| 如日韩欧美国产精品一区二区三区| 国产在线精品亚洲第一网站| 黄色 视频免费看| 十八禁网站免费在线| 一区在线观看完整版| 啦啦啦在线免费观看视频4| 亚洲成人久久性| 99在线人妻在线中文字幕| 麻豆国产av国片精品| 搡老乐熟女国产| 99精品在免费线老司机午夜| 亚洲av五月六月丁香网| 少妇被粗大的猛进出69影院| 丝袜人妻中文字幕| 久久人妻av系列| 日本黄色视频三级网站网址| 国产精品一区二区三区四区久久 | 成年人免费黄色播放视频| 一进一出抽搐动态| 国产伦一二天堂av在线观看| 美女午夜性视频免费| 男女下面插进去视频免费观看| 欧美成人免费av一区二区三区| 国产精品国产高清国产av| 亚洲片人在线观看| 日韩大码丰满熟妇| 精品一区二区三区av网在线观看| 99久久久亚洲精品蜜臀av| 亚洲精品美女久久av网站| 国产国语露脸激情在线看| 国产成人精品久久二区二区免费| 亚洲美女黄片视频| 法律面前人人平等表现在哪些方面| 九色亚洲精品在线播放| 亚洲av美国av| 一进一出抽搐动态| 高清欧美精品videossex| 免费少妇av软件| 国产精品久久久久久人妻精品电影| 色尼玛亚洲综合影院| 亚洲熟女毛片儿| 免费高清视频大片| 99久久精品国产亚洲精品| 中文字幕精品免费在线观看视频| avwww免费| 亚洲人成电影观看| 国产精品野战在线观看 | 日韩欧美在线二视频| 久热爱精品视频在线9| 亚洲成av片中文字幕在线观看| 欧美人与性动交α欧美精品济南到| 美女福利国产在线| 亚洲欧美日韩无卡精品| 麻豆av在线久日| 亚洲在线自拍视频| 嫩草影视91久久| 性色av乱码一区二区三区2| 久久久国产一区二区| 亚洲专区国产一区二区| 亚洲成av片中文字幕在线观看| 99久久国产精品久久久| www日本在线高清视频| 国产精品久久久人人做人人爽| 中文欧美无线码| 久久国产亚洲av麻豆专区| 久久国产乱子伦精品免费另类| 久久99一区二区三区| 国内久久婷婷六月综合欲色啪| 国产无遮挡羞羞视频在线观看| 国产精品九九99| 女人被狂操c到高潮| 国产精品98久久久久久宅男小说| 99国产精品免费福利视频| 操出白浆在线播放| 免费在线观看视频国产中文字幕亚洲| 久热这里只有精品99| 亚洲色图 男人天堂 中文字幕| 在线国产一区二区在线| 一a级毛片在线观看| 亚洲五月婷婷丁香| 丝袜美足系列| 精品国产一区二区三区四区第35| 高清毛片免费观看视频网站 | 国产91精品成人一区二区三区| 欧美色视频一区免费| 丝袜美足系列| 国产av一区二区精品久久| 欧美精品一区二区免费开放| 国产成人精品久久二区二区免费| 欧美黑人精品巨大| 制服诱惑二区| 午夜日韩欧美国产| 欧美黑人精品巨大| 国产极品粉嫩免费观看在线| 欧美人与性动交α欧美软件| 免费在线观看完整版高清| 免费在线观看黄色视频的| 一本大道久久a久久精品| 精品人妻在线不人妻| 国产av又大| 欧美日韩国产mv在线观看视频| 精品国产一区二区三区四区第35| 嫁个100分男人电影在线观看| 中文字幕av电影在线播放| 国产成人系列免费观看| 男人的好看免费观看在线视频 | 黄色视频,在线免费观看| 一级片'在线观看视频| 丰满饥渴人妻一区二区三| 黑丝袜美女国产一区| 免费av中文字幕在线| 国产欧美日韩一区二区三区在线| 久久久久久久精品吃奶| 国产精品野战在线观看 | 人妻丰满熟妇av一区二区三区| 女人高潮潮喷娇喘18禁视频| 国产黄色免费在线视频| 真人做人爱边吃奶动态| 欧美黑人精品巨大| 久久这里只有精品19| 午夜激情av网站| 天堂√8在线中文| 十分钟在线观看高清视频www| 又紧又爽又黄一区二区| 久久久国产精品麻豆| 熟女少妇亚洲综合色aaa.| 超碰97精品在线观看| 国产精品av久久久久免费| 国产精品永久免费网站| 婷婷精品国产亚洲av在线| 亚洲一区二区三区欧美精品| 久久久久久久久中文| 久久精品国产亚洲av香蕉五月| 日本一区二区免费在线视频| 手机成人av网站| 老汉色av国产亚洲站长工具| 久久精品国产99精品国产亚洲性色 | 欧美性长视频在线观看| 在线天堂中文资源库| 久久久国产一区二区| 12—13女人毛片做爰片一| 久久人妻熟女aⅴ| 国产日韩一区二区三区精品不卡| 免费看a级黄色片| 亚洲一区二区三区欧美精品| 91在线观看av| 日本精品一区二区三区蜜桃| 亚洲第一欧美日韩一区二区三区| 欧美一区二区精品小视频在线| 亚洲精品中文字幕一二三四区| 亚洲精品久久午夜乱码| 日韩 欧美 亚洲 中文字幕| 久久久国产成人免费| 一边摸一边抽搐一进一出视频| 久久精品影院6| 亚洲欧美精品综合久久99| 少妇粗大呻吟视频| 母亲3免费完整高清在线观看| 国产1区2区3区精品| av欧美777| 中文字幕人妻熟女乱码| 黄色成人免费大全| 极品教师在线免费播放| 9色porny在线观看| 午夜福利欧美成人| 国产欧美日韩综合在线一区二区| 变态另类成人亚洲欧美熟女 | 国产区一区二久久| 久久国产精品影院| 香蕉丝袜av| 国产成人av激情在线播放| 搡老岳熟女国产| 精品熟女少妇八av免费久了| 在线观看免费视频日本深夜| 在线看a的网站| 一级毛片精品| 一进一出好大好爽视频| 老司机午夜福利在线观看视频| 国产一区二区三区视频了| 精品久久久久久,| 成人手机av| 激情在线观看视频在线高清| 亚洲av电影在线进入| 欧美久久黑人一区二区| 在线观看一区二区三区| 国产区一区二久久| ponron亚洲| 日韩高清综合在线| 亚洲国产欧美网| 在线免费观看的www视频| 在线av久久热| 国产精品综合久久久久久久免费 | 别揉我奶头~嗯~啊~动态视频| 激情在线观看视频在线高清| 天天添夜夜摸| 亚洲色图综合在线观看| 在线免费观看的www视频| 久久久久国产一级毛片高清牌| 国产高清视频在线播放一区| 久久久久九九精品影院| 一边摸一边抽搐一进一出视频| 午夜福利免费观看在线| 人人妻人人添人人爽欧美一区卜| 男女做爰动态图高潮gif福利片 | 国产aⅴ精品一区二区三区波| 国产成人系列免费观看| 精品无人区乱码1区二区| 国产精品免费视频内射| 满18在线观看网站| 国产成+人综合+亚洲专区| 91精品三级在线观看| av网站在线播放免费| 波多野结衣高清无吗| 视频在线观看一区二区三区| 久久久久久久久中文| 亚洲av美国av| 成人影院久久| 日韩精品免费视频一区二区三区| 欧美中文日本在线观看视频| 亚洲精品在线观看二区| 一进一出抽搐动态| 国产高清视频在线播放一区| 成年人黄色毛片网站| 在线观看66精品国产| 精品国产乱码久久久久久男人| 欧美最黄视频在线播放免费 | 亚洲欧美精品综合久久99| 乱人伦中国视频| 午夜精品久久久久久毛片777| 国产精品1区2区在线观看.| 亚洲九九香蕉| 黑人操中国人逼视频| 亚洲精品美女久久久久99蜜臀| 久久久久精品国产欧美久久久| 丁香欧美五月| 十分钟在线观看高清视频www| 亚洲 国产 在线| 欧美乱妇无乱码| 国产精品一区二区精品视频观看| cao死你这个sao货| 757午夜福利合集在线观看| 亚洲狠狠婷婷综合久久图片| 黄色毛片三级朝国网站| 亚洲久久久国产精品| av天堂久久9| 国产不卡一卡二| 两人在一起打扑克的视频| 欧美日韩亚洲高清精品| 久久久国产成人免费| 久久精品91蜜桃| 一边摸一边抽搐一进一小说| 欧美日韩av久久| 午夜福利在线免费观看网站| 午夜成年电影在线免费观看| 国产亚洲欧美精品永久| 成人18禁在线播放| 一区二区三区激情视频| 19禁男女啪啪无遮挡网站| 三级毛片av免费| www日本在线高清视频| 99热只有精品国产| 国产麻豆69| av免费在线观看网站| 女生性感内裤真人,穿戴方法视频| 成年女人毛片免费观看观看9| 黑人巨大精品欧美一区二区mp4| 久久精品人人爽人人爽视色| 校园春色视频在线观看| 每晚都被弄得嗷嗷叫到高潮| 精品国产乱码久久久久久男人| 国产高清国产精品国产三级| 亚洲专区中文字幕在线| 黄频高清免费视频| 久久国产精品人妻蜜桃| av中文乱码字幕在线| 在线观看午夜福利视频| 一级毛片高清免费大全| av欧美777| 极品人妻少妇av视频| 韩国精品一区二区三区| 日本wwww免费看| 日本免费一区二区三区高清不卡 | 少妇的丰满在线观看| 最好的美女福利视频网| 久久久国产成人精品二区 | 男女高潮啪啪啪动态图| 午夜福利一区二区在线看| √禁漫天堂资源中文www| 国产高清激情床上av| av网站在线播放免费| 午夜福利欧美成人| 多毛熟女@视频| 精品人妻在线不人妻| 国产精品 欧美亚洲| 在线观看一区二区三区| www.熟女人妻精品国产| 免费在线观看完整版高清| 黑人欧美特级aaaaaa片| 国产一区二区三区综合在线观看| 麻豆一二三区av精品| videosex国产| 亚洲av成人一区二区三| 国内毛片毛片毛片毛片毛片| 国产精品乱码一区二三区的特点 | 欧美另类亚洲清纯唯美| 80岁老熟妇乱子伦牲交| 丰满迷人的少妇在线观看| 岛国视频午夜一区免费看| 黄色a级毛片大全视频| 亚洲成av片中文字幕在线观看| 正在播放国产对白刺激| 亚洲国产毛片av蜜桃av| 成人黄色视频免费在线看| 一级a爱视频在线免费观看| 精品福利永久在线观看| 亚洲精品成人av观看孕妇| 1024视频免费在线观看| 动漫黄色视频在线观看| 久99久视频精品免费| 97碰自拍视频| 成年女人毛片免费观看观看9| 91成人精品电影| 欧美日韩福利视频一区二区| 国产亚洲精品久久久久久毛片| 岛国视频午夜一区免费看| 亚洲片人在线观看| 日本vs欧美在线观看视频| 中文亚洲av片在线观看爽| 久久久久久大精品| 精品第一国产精品| 国产不卡一卡二| 亚洲一区高清亚洲精品| 欧美+亚洲+日韩+国产| 18美女黄网站色大片免费观看| 色播在线永久视频| 亚洲激情在线av| 免费在线观看黄色视频的| 精品福利观看| 久久中文字幕一级| 99国产精品99久久久久| 亚洲国产精品sss在线观看 | a级片在线免费高清观看视频| 在线观看免费午夜福利视频| 国产视频一区二区在线看| 免费观看人在逋| 亚洲在线自拍视频| 天天添夜夜摸| 亚洲欧美日韩高清在线视频| 日韩 欧美 亚洲 中文字幕| 欧美成狂野欧美在线观看| 国产精品1区2区在线观看.| 大陆偷拍与自拍| 午夜免费鲁丝| av欧美777| 亚洲成国产人片在线观看| 亚洲专区中文字幕在线| 久久性视频一级片| a级毛片黄视频| 欧美激情高清一区二区三区| 精品国内亚洲2022精品成人| 国产91精品成人一区二区三区| 亚洲avbb在线观看| 精品久久久久久,| 无人区码免费观看不卡| 久久精品91蜜桃| 亚洲精品在线观看二区| 黄片大片在线免费观看| 每晚都被弄得嗷嗷叫到高潮| 亚洲免费av在线视频| 天天影视国产精品| 国产aⅴ精品一区二区三区波| 老汉色av国产亚洲站长工具| 国产亚洲精品一区二区www| 亚洲av熟女| 一级a爱视频在线免费观看| 久久九九热精品免费| 伊人久久大香线蕉亚洲五| 亚洲成a人片在线一区二区| 精品国产一区二区三区四区第35| 9色porny在线观看| 精品久久久久久久毛片微露脸| 色婷婷久久久亚洲欧美| 超色免费av| 亚洲专区中文字幕在线| 欧美成人免费av一区二区三区| 免费av毛片视频| 可以在线观看毛片的网站| 久久中文字幕人妻熟女| 国产精品免费视频内射| 久99久视频精品免费| 在线视频色国产色| 成人影院久久| 淫秽高清视频在线观看| 亚洲色图av天堂| 如日韩欧美国产精品一区二区三区| 97碰自拍视频| 亚洲国产中文字幕在线视频| 天堂√8在线中文| 女人爽到高潮嗷嗷叫在线视频| 一个人观看的视频www高清免费观看 | 精品久久久精品久久久| 国产精品久久视频播放| 女人被躁到高潮嗷嗷叫费观| 亚洲成国产人片在线观看| 在线永久观看黄色视频| 99精品在免费线老司机午夜| 18禁美女被吸乳视频| 久久国产精品影院| 一区二区三区精品91| 一边摸一边做爽爽视频免费| 日韩 欧美 亚洲 中文字幕| 俄罗斯特黄特色一大片| 欧美最黄视频在线播放免费 | 亚洲国产精品一区二区三区在线| 搡老熟女国产l中国老女人| 淫秽高清视频在线观看| 亚洲午夜理论影院| 国产精品av久久久久免费| 看黄色毛片网站| 99热只有精品国产| 国产片内射在线| 91麻豆精品激情在线观看国产 | 亚洲国产毛片av蜜桃av| 最新在线观看一区二区三区| 国产av在哪里看| 精品久久久久久电影网| 91字幕亚洲| 精品国产一区二区久久| 黑人巨大精品欧美一区二区蜜桃| 一进一出抽搐动态| 午夜精品国产一区二区电影| bbb黄色大片| 日本免费一区二区三区高清不卡 | 国产精品亚洲av一区麻豆| 午夜免费成人在线视频| 日本vs欧美在线观看视频| 免费看a级黄色片| 欧美黄色淫秽网站| 免费看a级黄色片| 久久久国产成人精品二区 | 婷婷丁香在线五月| 精品国产一区二区三区四区第35| 成熟少妇高潮喷水视频| 80岁老熟妇乱子伦牲交| 黄色丝袜av网址大全| 日本精品一区二区三区蜜桃| 国产精品久久久久成人av| 亚洲五月婷婷丁香| 亚洲成人精品中文字幕电影 | 国产主播在线观看一区二区| 国产成人免费无遮挡视频| 人成视频在线观看免费观看| 999久久久国产精品视频| 精品久久久久久成人av| 亚洲熟妇熟女久久| 色婷婷久久久亚洲欧美| 99在线视频只有这里精品首页| 久久国产乱子伦精品免费另类| xxx96com| 亚洲欧美一区二区三区黑人| 久久国产精品影院| 97超级碰碰碰精品色视频在线观看| 80岁老熟妇乱子伦牲交| 9191精品国产免费久久| 亚洲人成电影观看| 日韩成人在线观看一区二区三区| 精品第一国产精品| 精品免费久久久久久久清纯| 12—13女人毛片做爰片一| 高清av免费在线| 日韩三级视频一区二区三区| 激情在线观看视频在线高清| 人人妻人人澡人人看| 亚洲片人在线观看| 亚洲av片天天在线观看| a在线观看视频网站| 色在线成人网| xxxhd国产人妻xxx| 久久人妻熟女aⅴ| 亚洲av五月六月丁香网| www.www免费av| av天堂在线播放| 丰满迷人的少妇在线观看| 国产精品日韩av在线免费观看 | 黄色 视频免费看| 欧美日韩亚洲国产一区二区在线观看| 琪琪午夜伦伦电影理论片6080| 成年版毛片免费区| 久99久视频精品免费| 国产av一区二区精品久久| 午夜91福利影院| 国产色视频综合| 亚洲第一av免费看| 真人做人爱边吃奶动态| 日韩高清综合在线| 亚洲国产精品sss在线观看 | 欧美黄色片欧美黄色片| 老司机亚洲免费影院| 国产精品美女特级片免费视频播放器 | 国产成年人精品一区二区 | 两性夫妻黄色片| 精品国产一区二区三区四区第35| 99国产精品99久久久久| 十八禁人妻一区二区| 波多野结衣av一区二区av| 国产aⅴ精品一区二区三区波| 中文字幕人妻丝袜制服| 午夜视频精品福利| 在线播放国产精品三级| 欧美日韩乱码在线| 少妇粗大呻吟视频| 亚洲精品国产色婷婷电影| 中文字幕人妻丝袜制服| 欧美一区二区精品小视频在线| 黄色丝袜av网址大全| 日本免费a在线| 国产成人欧美| svipshipincom国产片| 香蕉丝袜av| 久久久久久人人人人人| 国产人伦9x9x在线观看| 久久精品国产亚洲av高清一级| 国产精品综合久久久久久久免费 | 热re99久久国产66热| 久久久久国内视频| 久久国产乱子伦精品免费另类| 亚洲 欧美一区二区三区| 中国美女看黄片| 国产在线观看jvid| 精品国内亚洲2022精品成人| 18美女黄网站色大片免费观看| 亚洲国产精品sss在线观看 | 十八禁网站免费在线| 九色亚洲精品在线播放| 性欧美人与动物交配| 五月开心婷婷网| 欧美成人午夜精品| 亚洲欧美精品综合久久99| 亚洲av电影在线进入| 亚洲精品中文字幕在线视频| 国内久久婷婷六月综合欲色啪| 久久精品人人爽人人爽视色|