• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    RGB-D SLAM綜述

    2017-12-06 05:22:14王旒軍陳家斌朱匯申
    導(dǎo)航定位與授時(shí) 2017年6期
    關(guān)鍵詞:回環(huán)位姿深度

    王旒軍,陳家斌,余 歡,朱匯申

    (北京理工大學(xué) 自動(dòng)化學(xué)院,北京 100081)

    RGB-DSLAM綜述

    王旒軍,陳家斌,余 歡,朱匯申

    (北京理工大學(xué) 自動(dòng)化學(xué)院,北京 100081)

    RGB-D SLAM是指使用RGB-D相機(jī)作為視覺傳感器,進(jìn)行同時(shí)定位與地圖構(gòu)建(SLAM)的技術(shù)。RGB-D相機(jī)是近幾年推出的能夠同時(shí)采集環(huán)境RGB圖像和深度圖像的視覺傳感器。首先對(duì)主流RGB-D相機(jī),RGB-D SLAM算法框架流程做了介紹,然后對(duì)RGB-D SLAM算法的國(guó)內(nèi)外主要標(biāo)志性成果,以及RGB-D SLAM的研究現(xiàn)狀進(jìn)行介紹,并對(duì)RGB-D SLAM方法前端視覺里程計(jì)中特征檢測(cè)與匹配、后端位姿圖優(yōu)化、回環(huán)檢測(cè)等關(guān)鍵技術(shù)進(jìn)行介紹總結(jié)。最后,對(duì)RGB-D SLAM算法的優(yōu)缺點(diǎn)進(jìn)行了分析,并對(duì)RGB-D SLAM算法的研究熱點(diǎn)及發(fā)展趨勢(shì)進(jìn)行了討論。

    RGB-D相機(jī);同時(shí)定位與地圖構(gòu)建;視覺里程計(jì);位姿圖優(yōu)化;回環(huán)檢測(cè)

    0 引言

    對(duì)于自主移動(dòng)機(jī)器人,在導(dǎo)航定位方面涉及三個(gè)方面的問題:1)我在哪里(where am I);2)我要去哪里(where am I going);3)我要怎么去(How should I get there)[1]。其中第一個(gè)是定位問題,第二個(gè)是任務(wù)規(guī)劃問題,第三個(gè)為路徑規(guī)劃問題。

    同時(shí)定位與地圖構(gòu)建( Simultaneous Localization and Mapping,SLAM) 問題描述為:一個(gè)機(jī)器人在一個(gè)陌生的環(huán)境中運(yùn)動(dòng),通過自身攜帶的傳感器對(duì)周圍環(huán)境進(jìn)行感知,然后繪制陌生環(huán)境的地圖,同時(shí)定位自己在地圖中的位置[2]。利用SLAM方法可以解決自主移動(dòng)機(jī)器人的定位與建圖問題。使用相機(jī)作為傳感器的SLAM方法被稱為視覺 SLAM(VSLAM)。相比于傳統(tǒng)的慣性器件(Inertial Measurement Unit,IMU)和激光雷達(dá)(Laser Scanner)等傳感器,相機(jī)具有體積小、質(zhì)量小和價(jià)格低等突出的優(yōu)點(diǎn),因此,VSLAM成為近年來SLAM算法研究的熱點(diǎn)。

    RGB-D相機(jī)是新興的視覺傳感器,它可以同時(shí)獲取周圍環(huán)境的RGB圖像和每個(gè)像素的深度(Depth)信息。相比于單目相機(jī)和雙目立體相機(jī)利用算法計(jì)算空間點(diǎn)的三維坐標(biāo),RGB-D相機(jī)獲取空間點(diǎn)的3D信息更加直接方便,深度信息通過紅外結(jié)構(gòu)光(Structured Light)或飛時(shí)(Time-of-flight,TOF)原理測(cè)得,和激光雷達(dá)有些相似。所以,有時(shí)候RGB-D相機(jī)又被稱為偽激光雷達(dá)(Fake Laser)。由于RGB-D相機(jī)能相對(duì)容易地獲取RGB圖像上每一個(gè)像素的深度數(shù)據(jù),并且RGB-D相機(jī)價(jià)格相對(duì)便宜,近年來RGB-D SLAM技術(shù)得到快速發(fā)展。

    1 RGB-D SLAM介紹

    RGB-D SLAM使用RGB-D深度相機(jī)作為傳感器實(shí)現(xiàn)同時(shí)定位與地圖構(gòu)建。經(jīng)過十多年的研究,雖然不同的研究團(tuán)隊(duì)使用的具體VSLAM算法有所區(qū)別,但是這些VSLAM算法都可以歸為前端和后端兩部分,RGB-D SLAM作為VSLAM的一個(gè)分支,當(dāng)然也不例外。本節(jié)首先介紹目前使用的主流RGB-D相機(jī)的種類并做出對(duì)比,然后簡(jiǎn)要介紹RGB-D SLAM算法流程,最后介紹RGB-D SLAM的標(biāo)志性成果。

    1.1 RGB-D相機(jī)介紹

    微軟公司于2010年推出的Kinect相機(jī)是世界上首款RGB-D相機(jī),Kinect相機(jī)是微軟公司針對(duì)Microsoft Xbox 360發(fā)布的一款由PrimeSense公司開發(fā)的體感設(shè)備。它由RGB相機(jī)、3D深度傳感器、麥克風(fēng)陣列和機(jī)動(dòng)傾斜馬達(dá)等組成[3](圖1)。Kinect相機(jī)中間部位是一款RGB彩色鏡頭,圖像分辨率為640×480,最大幀率為30Hz。兩邊分別為紅外發(fā)射和接收裝置,組成Kinect的深度傳感器。其深度傳感器的分辨率為320×240,幀率同樣為30Hz。RGB-D相機(jī)采集的圖像數(shù)據(jù)如圖2所示[4]。

    圖1 微軟Kinect相機(jī)Fig.1 Microsoft Kinect

    圖2 RGB圖像(左)和Depth圖像(右)[4]Fig.2 RGB image (left) and Depth image (right) [4]

    隨后華碩也發(fā)布了其體感控制設(shè)備Xtion Pro Live,它在外觀上和Kinect相似,但比Kinect尺寸略小,RGB和深度傳感器的配置和Kinect相差無幾。華碩Xtion Pro Live相機(jī)如圖3所示。Xtion Pro Live和Kinect參數(shù)對(duì)比如表1所示。

    圖3 華碩Xtion Pro LiveFig.3 Asus Xtion Pro Live

    屬性微軟Kinectv1華碩XtionProLive長(zhǎng)/cm2818寬/cm63.6高(帶底座)/cm7.55深度感應(yīng)有效距離/m1.2~3.50.8~3.5有效視角/(°)水平:57垂直:43水平:58垂直:45電源/接口外接電源+USB2.0USB2.0圖像大小、幀率彩色640×480、32bit、30fps深度320×240、16bit、30fps彩色640×480、32bit、30fps深度320×240、16bit、30fps

    后來,微軟和英特爾(Intel)又相繼推出了Kinect V2 和Realsense 體感設(shè)備,使用了更加先進(jìn)的技術(shù),并在硬件品質(zhì)上有所提升。由于RGB-D相機(jī)功能強(qiáng)大并且價(jià)格低廉,引起了社會(huì)的極大關(guān)注,并逐漸在SLAM領(lǐng)域占有一席之地。

    1.2 RGB-D SLAM算法流程

    RGB-D SLAM算法大體上可分為前端視覺里程計(jì)、后端優(yōu)化、回環(huán)檢測(cè)(又稱閉環(huán)檢測(cè))和建圖幾個(gè)部分。

    算法前端根據(jù)輸入RGB圖像和Depth圖像,對(duì)RGB圖像進(jìn)行特征點(diǎn)檢測(cè)和特征描述子的計(jì)算(僅討論基于特征的方法);然后根據(jù)特征描述子進(jìn)行相鄰兩幀圖像的特征匹配,得到2D-2D特征匹配點(diǎn)集;然后根據(jù)Depth圖像的深度信息,計(jì)算2D-2D特征匹配點(diǎn)對(duì)的空間三維坐標(biāo),得到3D-3D匹配點(diǎn)集。由匹配好的3D-3D點(diǎn)就可以計(jì)算出相鄰兩幀圖像間的旋轉(zhuǎn)和平移矩陣[4],最后對(duì)運(yùn)動(dòng)估計(jì)誤差進(jìn)行優(yōu)化,得到誤差最小的位姿估計(jì)結(jié)果。這樣就可以根據(jù)輸入的視頻流,不斷地得到相機(jī)位姿的增量變化,所以算法前端構(gòu)建了視覺里程計(jì)(VO)。

    算法后端主要是為了優(yōu)化SLAM過程中的噪聲問題。實(shí)際應(yīng)用當(dāng)中,再精確的傳感器獲取的數(shù)據(jù)也會(huì)帶有一定的噪聲。所以,通過前端得到相鄰兩幀圖像之間的運(yùn)動(dòng)估計(jì)之后,還要關(guān)心這個(gè)估計(jì)帶有多大的噪聲。后端優(yōu)化就是從這些帶有噪聲的數(shù)據(jù)中,估計(jì)整個(gè)系統(tǒng)的狀態(tài),給出這個(gè)狀態(tài)的最大后驗(yàn)概率(Maximum a Posteriori,MAP)。具體來說,后端接收不同時(shí)刻視覺里程計(jì)測(cè)量的相機(jī)位姿和回環(huán)檢測(cè)的約束信息,采用非線性優(yōu)化得到全局最優(yōu)的位姿。在VSLAM中,前端和計(jì)算機(jī)視覺研究領(lǐng)域更為相關(guān),例如圖像的特征點(diǎn)檢測(cè)與匹配,而后端則主要是濾波與非線性優(yōu)化算法。

    回環(huán)檢測(cè)又稱為閉環(huán)檢測(cè)(Loop Closure Detection),主要解決機(jī)器人位置隨時(shí)間漂移的問題?;丨h(huán)檢測(cè)就是讓機(jī)器人具有識(shí)別曾經(jīng)到達(dá)過的場(chǎng)景的能力。視覺回環(huán)檢測(cè)就是通過比較兩幅圖像數(shù)據(jù)的相似性,由于圖像信息豐富,使得視覺回環(huán)檢測(cè)比較容易實(shí)現(xiàn)。如果回環(huán)檢測(cè)成功,則認(rèn)為機(jī)器人曾經(jīng)來過這個(gè)地點(diǎn),把比對(duì)信息輸送給后端優(yōu)化算法,后端根據(jù)回環(huán)檢測(cè)的信息,調(diào)整機(jī)器人軌跡和地圖。通過回環(huán)檢測(cè),可以顯著地減小累積誤差[4](圖4)。

    圖4 累積誤差與回環(huán)檢測(cè)校正結(jié)果[4]Fig.4 Cumulative error and the result after loop closing[4]

    建圖(Mapping)是指構(gòu)建地圖的過程,只有構(gòu)建環(huán)境的地圖,才能實(shí)現(xiàn)機(jī)器人的定位或?qū)Ш焦δ?。根?jù)實(shí)際應(yīng)用的需要,SLAM算法構(gòu)建的地圖大體可分為度量地圖(Metric Map)和拓?fù)涞貓D(Topological Map)兩種。

    根據(jù)以上的敘述,RGB-D SLAM算法流程如圖5所示。

    圖5 RGB-D SLAM算法流程圖Fig.5 Flow chart of RGB-D SLAM algorithm

    1.3 RGB-D SLAM標(biāo)志性成果

    華盛頓大學(xué)(University of Washington)的Peter Henry、Michael Krainin、Evan Herbst聯(lián)合英特爾(Intel)實(shí)驗(yàn)室的Xiaofeng Ren、Dieter Fox[4]最早提出基于RGB-D相機(jī)的SLAM算法。Peter Henry等使用尺度不變特征轉(zhuǎn)換(Scale Invariant Feature transform, SIFT)[6]方法對(duì)相鄰兩幀RGB圖像進(jìn)行特征檢測(cè)與描述子提取,然后加入Depth圖像的數(shù)據(jù)生成3D-3D特征點(diǎn)對(duì)信息,使用隨機(jī)采樣一致性(Random Sample Consensus,RANSAC)方法[8]對(duì)3D-3D匹配點(diǎn)對(duì)進(jìn)行配準(zhǔn)并求出對(duì)應(yīng)的變換矩陣,采用迭代最近點(diǎn)(Iterative Closest Point,ICP)[10]方法對(duì)運(yùn)動(dòng)變換進(jìn)行優(yōu)化。后端采用基于樹的網(wǎng)絡(luò)優(yōu)化(Tree-based network Optimizer, TORO)[11]算法并加入基于視覺的回環(huán)檢測(cè)約束最終得到全局最優(yōu)的三維場(chǎng)景地圖。

    隨后不久,Peter Henry等又對(duì)他們之前提出的算法進(jìn)行了改進(jìn)[12]。針對(duì)SIFT方法速度較慢的缺陷,在特征提取時(shí)采用基于加速段的特征檢測(cè)子(Features from Accelerated Segment Test,FAST)[13]方法,描述子的計(jì)算采用Calonder方法。并對(duì)RANSAC階段預(yù)投影誤差進(jìn)行了優(yōu)化,提出只有當(dāng)特征匹配失敗或者是匹配結(jié)果中包含的匹配點(diǎn)對(duì)數(shù)目較少時(shí)才進(jìn)行ICP優(yōu)化。后端使用性能更加優(yōu)秀的稀疏光束平差法(Sparse Bundle Adjustment,SBA)[14]代替TORO算法進(jìn)行全局優(yōu)化,通過場(chǎng)景識(shí)別提高了閉環(huán)檢測(cè)的效率。

    德國(guó)弗萊堡大學(xué)(University of Freiburg)計(jì)算機(jī)科學(xué)系的Nikolas Engelhard、Felix Endres和Jurgen Hess開發(fā)出了一套基于手持Kincet相機(jī)的RGB-D SLAM系統(tǒng)[15],在SLAM 算法前端使用基于加速魯棒性特征(Speeded Up Robust Features,SURF)[16]算法對(duì)輸入的RGB圖像進(jìn)行特征檢測(cè)與特征描述子提取,對(duì)相鄰兩幀RGB圖像進(jìn)行特征匹配。然后加入Depth圖像中的深度信息對(duì)匹配的特征點(diǎn)計(jì)算出三維空間坐標(biāo)。運(yùn)動(dòng)估計(jì)與優(yōu)化方面使用RANSAC方法估計(jì)兩幀圖像之間的運(yùn)動(dòng),使用改進(jìn)的ICP方法優(yōu)化相機(jī)的運(yùn)動(dòng)轉(zhuǎn)移矩陣。算法后端使用HOGMAN位姿圖求解方法對(duì)前端計(jì)算出的運(yùn)動(dòng)轉(zhuǎn)移矩陣進(jìn)行全局優(yōu)化以得到全局最優(yōu)位姿。最后輸出彩色點(diǎn)云數(shù)據(jù)表示的三維環(huán)境地圖。

    之后,F(xiàn)elix Endres等又開發(fā)出了一套新的RGB-D SLAM系統(tǒng)[17]。在新的系統(tǒng)中,他們提出在后端優(yōu)化部分使用開源的圖優(yōu)化庫(General Graph Optimization,g2o)[18]進(jìn)行全局位姿圖優(yōu)化,得到一個(gè)全局的3D點(diǎn)云表示的三維環(huán)境地圖。最后,使用基于八叉樹(Octtree-based Mapping,OctoMap)的地圖構(gòu)建框架對(duì)得到的點(diǎn)云進(jìn)行體素(Voxel)化表示,最終得到一個(gè)3D柵格地圖。所得到的3D柵格地圖可以直接被用于機(jī)器人定位、路徑規(guī)劃和導(dǎo)航。

    Willow Garage公司的Nicola Fioraio和Kurt Konolige提出了一種利用RGB-D相機(jī)構(gòu)建稠密地圖的SLAM算法[19]。該算法在Depth圖像的兩兩配準(zhǔn)中使用光束平差法(Bundle Adjustment,BA)[14]同時(shí)對(duì)Depth圖像和RGB圖像進(jìn)行匹配,一方面根據(jù)所得2D匹配結(jié)果生成稀疏圖(Sparse Graph),另一方面根據(jù)所得的2D匹配結(jié)果使用RANSAC方法估算相機(jī)位姿,再利用GICP(Generalized-ICP)[20]方法以所得相機(jī)位姿為初始值對(duì)采樣后的兩幀圖像進(jìn)行配準(zhǔn);后端全局配準(zhǔn)中每當(dāng)檢測(cè)到閉環(huán)時(shí)則使用g2o方法對(duì)稀疏圖進(jìn)行優(yōu)化,以得到全局最優(yōu)配準(zhǔn)結(jié)果。號(hào)稱此算法對(duì)兩幀圖像進(jìn)行GICP配準(zhǔn)時(shí)只需要10ms,具有實(shí)時(shí)性,比其他幾個(gè)RGB-D SLAM算法性能更優(yōu)秀。

    為了對(duì)來自世界各個(gè)機(jī)構(gòu)和高校研究者提出的RGB-D SLAM 算法進(jìn)行評(píng)估,德國(guó)Munich 理工大學(xué)的Jurgen Sturm 和Daniel Cremers 聯(lián)合Freiburg 大學(xué)的Nikolas Engelhard 和Felix Endres 一起制作了標(biāo)準(zhǔn)的RGBD SLAM 數(shù)據(jù)集[21]。他們采用高速運(yùn)動(dòng)攝像捕捉系統(tǒng)VICON捕捉手持的Kinect 的位置和姿態(tài)數(shù)據(jù)。這些數(shù)據(jù)被作為真實(shí)的軌跡(Ground Truth),可以和通過RGBD SLAM 算法程序估算出來的位姿和姿態(tài)信息作比較。此外,標(biāo)準(zhǔn)數(shù)據(jù)集還包括以時(shí)間戳命名的匹配好的RGB 圖像和Depth圖像。錄制數(shù)據(jù)集時(shí),選取了工廠、辦公室等許多場(chǎng)景,具有代表性的數(shù)據(jù)集有FR1 ROOM 、FR2 DESK 、FR3 LONG OFFICE等 。

    帝國(guó)理工學(xué)院(Imperial College London)的Richard A. Newcombe、Andrew J. Davison等聯(lián)合微軟研究院(Microsoft Research)的Shahram Izadi、Otmar Hilliges等提出的KinectFusion[22]是第一個(gè)基于Kinect深度相機(jī)的,能在GPU上實(shí)時(shí)構(gòu)建稠密三維環(huán)境地圖的SLAM 算法。該算法僅使用Kinect相機(jī)一個(gè)傳感器計(jì)算相機(jī)的位姿并構(gòu)建環(huán)境的三維地圖。

    西班牙薩拉戈薩大學(xué)(University of Zaragoza)的Raul Mur-Artal和Juan Domingo Tardos繼2015年提出比較完整的單目ORB-SLAM算法[23]后,2016年他們又加入了對(duì)雙目相機(jī)和RGB-D相機(jī)的支持[24]。ORB-SLAM算法采用多線程處理,分為追蹤(Tracking)、地圖構(gòu)建(Local Mapping)、閉環(huán)檢測(cè)(Loop Closing)幾個(gè)線程進(jìn)行處理。特征提取與匹配、稀疏地圖創(chuàng)建和回環(huán)位置識(shí)別都是基于ORB(Oriented Robust Brief)[25]特征,在標(biāo)準(zhǔn)CPU上運(yùn)行就可以實(shí)時(shí)地進(jìn)行SLAM運(yùn)算,而且精度很高。

    2 RGB-D SLAM關(guān)鍵技術(shù)

    2.1 特征點(diǎn)提取

    VSLAM算法根據(jù)利用圖像信息的不同可以分為基于特征的SLAM算法和直接SLAM(Direct SLAM)[26]算法?;谔卣鼽c(diǎn)法的前端,長(zhǎng)久以來被認(rèn)為是SLAM的主流方法,它運(yùn)行穩(wěn)定,對(duì)光照、動(dòng)態(tài)物體不敏感,是目前比較成熟的解決方案。

    特征點(diǎn)是由關(guān)鍵點(diǎn)(Key Point)和描述子(Descriptor)兩部分組成。關(guān)鍵點(diǎn)是指該特征點(diǎn)在圖像里的位置,描述子通常是一個(gè)向量,按照人們的需求描述關(guān)鍵點(diǎn)周圍像素的信息。常用的特征提取算法有SIFT[6]、SURF[16]和ORB[25]等。

    1999年British Columbia大學(xué)的David G.Lowe教授總結(jié)了基于不變量技術(shù)的特征檢測(cè)方法,并正式提出了一種基于尺度空間的、對(duì)圖像縮放、旋轉(zhuǎn)甚至仿射變換保持不變性的圖像局部特征描述算子SIFT,這種算法在2004年被加以完善[6]。SIFT算法經(jīng)過十多年的發(fā)展,已經(jīng)取得了巨大的成功[31-34]。在文獻(xiàn)[4]中,Peter Henry等使用SIFT算法對(duì)相鄰兩幀RGB圖像進(jìn)行特征提取與描述子計(jì)算,在室內(nèi)大型場(chǎng)景環(huán)境下測(cè)試取得了較好的結(jié)果。

    SIFT算法充分考慮了圖像變換過程中出現(xiàn)的光照、尺度和旋轉(zhuǎn)等變化,但是計(jì)算量也隨之增大。到目前為止,普通的CPU還無法實(shí)時(shí)地計(jì)算SIFT特征,為此,Herbert Bay 等在2006年提出了SURF[16]算法。SURF算法中采用積分圖、近似的Hessian矩陣和Haar小波變換運(yùn)算來提高時(shí)間效率,采用Haar小波變換增加魯棒性。與SIFT特征相比,SURF算法時(shí)間復(fù)雜度有所降低, 同樣具有尺度和旋轉(zhuǎn)不變性,且相對(duì)于SIFT特征的算法速度提高了3~7倍[35-37]。文獻(xiàn)[15]使用速度更快的SURF算法對(duì)Kinect相機(jī)采集的RGB圖像進(jìn)行特征檢測(cè)與描述子提取,最終實(shí)現(xiàn)了實(shí)時(shí)地構(gòu)建環(huán)境的3D模型。

    ORB算法是由Ethan Rublee 在ICCV 2011上提出的[25]。該算法采用改進(jìn)的具有方向性的FAST[38]和速度極快的二進(jìn)制穩(wěn)健基元獨(dú)立特征(Binary Robust Independent Elementary Features, BRIEF)[39]描述子。在文獻(xiàn)[25]中,作者測(cè)試了SIFT、SURF和ORB算法的性能:對(duì)同一幅圖像提取約1000個(gè)特征點(diǎn)的情況下,SIFT耗時(shí)約5228.7ms,SURF花費(fèi)約217.3ms,而ORB則用了15.3ms。由此可以看出,ORB算法在兼有SIFT和SURF算法旋轉(zhuǎn)、尺度不變性的基礎(chǔ)上速度方面大為提升。文獻(xiàn)[23]中,University of Zaragoza的Raul Mur-Artal和Juan Domingo Tardos構(gòu)建了基于單目相機(jī)的ORB特征檢測(cè)SLAM框架,并在小型、大型室內(nèi)環(huán)境和常用的數(shù)據(jù)集上測(cè)試ORB-SLAM算法,實(shí)驗(yàn)結(jié)果表明ORB-SLAM算法相比其他頂尖的SLAM算法性能大為提升。文獻(xiàn)[24]中,Raul Mur-Artal和Juan Domingo Tardos改進(jìn)了原有的算法提出ORB-SLAM2算法,并增加了對(duì)雙目立體相機(jī)和RGB-D相機(jī)的支持。

    2.2 后端優(yōu)化

    后端的優(yōu)化方法一般分為兩大類:基于濾波器的方法和基于圖優(yōu)化(Graph Optimization)[42]的方法?;跒V波器的方法理論基礎(chǔ)是概率論里的貝葉斯公式,利用控制信息對(duì)機(jī)器人的位姿進(jìn)行先驗(yàn)估計(jì),然后利用觀測(cè)信息對(duì)機(jī)器人位姿和地圖進(jìn)行后驗(yàn)估計(jì)。早期的SLAM方法多采用濾波器優(yōu)化,通常使用擴(kuò)展卡爾曼濾波(Extended Kalman Filter,EKF)和粒子濾波(Particle Filter, PF)濾波器。直至21世紀(jì)早期,基于EKF濾波器的方法仍然占據(jù)了SLAM的主導(dǎo)地位。文獻(xiàn)[40]提出的最早的實(shí)時(shí)SLAM系統(tǒng)既是基于EKF濾波器開發(fā)的。

    為了克服EKF濾波器的缺點(diǎn):線性化誤差和噪聲高斯分布假設(shè),研究者們提出了粒子濾波和非線性優(yōu)化[41]等方法?;趫D優(yōu)化的非線性優(yōu)化方法將機(jī)器人的位姿轉(zhuǎn)化成圖論中的頂點(diǎn)(Vertex),將機(jī)器人位姿之間的約束,以及位姿與觀測(cè)量間的約束則構(gòu)成了邊(Edge),從而將SLAM問題轉(zhuǎn)化為一個(gè)優(yōu)化問題,并利用最小二乘法進(jìn)行求解(圖6)。由于SLAM問題中雅可比矩陣具有稀疏結(jié)構(gòu),并得益于計(jì)算機(jī)技術(shù)和算法的優(yōu)化,使得圖優(yōu)化方法成為現(xiàn)實(shí)。

    圖6 圖優(yōu)化示意圖Fig.6 Graph Optimization

    g2o[18]是一個(gè)開源的圖優(yōu)化庫,是目前最常用的后端優(yōu)化器,可供選擇的梯度下降方法有GN(Gauss-Newton)、LM(Levernberg-Marquardt)[43]和DogLeg(Powell’s dogleg)等。文獻(xiàn)[17]中Felix Endres等利用g2o優(yōu)化器對(duì)位姿進(jìn)行優(yōu)化,得到全局一致的三維地圖。針對(duì)FR1數(shù)據(jù)包[21],該文詳細(xì)地?cái)⑹隽似渌惴ǖ倪\(yùn)行速度和定位精度。因此該方法可以成為利用RGB-D數(shù)據(jù)完成SLAM的比較基準(zhǔn)。

    2.3 回環(huán)檢測(cè)

    回環(huán)檢測(cè)的關(guān)鍵,就是如何能正確有效地判斷相機(jī)經(jīng)過同一個(gè)地方,從而為后端提供更加有效的位姿約束,進(jìn)而消除累積誤差,得到全局一致(Global Consistent)的位姿估計(jì)(圖7)。

    圖7 回環(huán)檢測(cè)與優(yōu)化Fig.7 Loop Closing and Optimization

    回環(huán)檢測(cè)一般有兩種方案:基于里程計(jì)(Odometry Based)[44]和基于外觀(Appearance Based)[47]的?;诶锍逃?jì)的回環(huán)檢測(cè)通過當(dāng)前相機(jī)的位置判斷是否曾經(jīng)到達(dá)過先前的某個(gè)位置附近,檢測(cè)有沒有回環(huán)關(guān)系。但是由于累積誤差的存在,檢測(cè)相機(jī)回到之前位置附近在邏輯上存在悖論,因此,累積誤差較大時(shí)無法給出準(zhǔn)確的結(jié)果[45]?;谕庥^的回環(huán)檢測(cè)僅根據(jù)圖像相似關(guān)系來檢測(cè)回環(huán),與之前的位姿沒有直接關(guān)系,因而使得回環(huán)檢測(cè)相對(duì)獨(dú)立于前端和后端,能給出更加真實(shí)有效的檢測(cè)結(jié)果,成為VSLAM回環(huán)檢測(cè)的主流方法[23,46-47]。

    基于外觀的回環(huán)檢測(cè)多使用圖像特征的方法,詞袋(Bag of Words,BoW)[48]方法因其有效性得到了廣泛應(yīng)用[23,49-51]。詞袋方法首先通過對(duì)大量的訓(xùn)練圖像提取特征(SIFT、SURF、ORB等),并對(duì)這些特征(Word)進(jìn)行分類(經(jīng)典的是K-means聚類算法[52])獲得葉子節(jié)點(diǎn)即為詞典(Dictionary)。這樣,一幅圖像就可以根據(jù)是否出現(xiàn)相應(yīng)的單詞(Word)描述為詞典下的一個(gè)向量。

    文獻(xiàn)[51]中,使用一種K-means 擴(kuò)展的K叉樹來表達(dá)詞典。在根節(jié)點(diǎn),使用K-means++[53]方法把所有樣本聚成k類;對(duì)每一層的每個(gè)節(jié)點(diǎn),把屬于該節(jié)點(diǎn)的樣本再聚成k類,得到下一層;以此類推,最終得到深度為L(zhǎng),每層分叉為k的樹,可以容納kL個(gè)單詞。樹的中間結(jié)構(gòu)僅供快速查找時(shí)使用,在查找給定特征對(duì)應(yīng)的單詞時(shí),只需將它與每個(gè)中間節(jié)點(diǎn)的聚類中心比較(一共比較L次),即可找到最后的單詞,保證了對(duì)數(shù)級(jí)別查找的高效率。文獻(xiàn)[6]使用SIFT特征進(jìn)行全局定位,用KD樹來排列地圖點(diǎn)。文獻(xiàn)[54-55]使用基于SURF特征描述子的詞典方法去進(jìn)行閉環(huán)檢測(cè)特征, 提取約耗時(shí)400ms。文獻(xiàn)[23-24]使用效率和精度折中的ORB特征進(jìn)行回環(huán)檢測(cè),即使用基于ORB特征的詞典篩選出閉環(huán),再通過相似性[56-57]計(jì)算進(jìn)行閉環(huán)的驗(yàn)證。

    3 RGB-D SLAM優(yōu)缺點(diǎn)與發(fā)展趨勢(shì)

    3.1 RGB-D SLAM優(yōu)缺點(diǎn)

    單目SLAM系統(tǒng)無法通過單張圖像獲取像素的深度信息,一般通過三角測(cè)量的方法估計(jì)像素的深度。并且由于單目視覺的尺度不確定性,單目SLAM系統(tǒng)必須進(jìn)行初始對(duì)準(zhǔn)。雙目SLAM系統(tǒng)通過視差原理測(cè)得深度信息,利用左右相機(jī)的圖像的特征匹配獲取像素點(diǎn)對(duì),消除了單目VSLAM系統(tǒng)的初始化問題。相比單目、雙目等SLAM系統(tǒng),RGB-D SLAM系統(tǒng)能夠通過傳感器在硬件層面上測(cè)得圖像點(diǎn)的深度,無需考慮單目SLAM系統(tǒng)的初始對(duì)準(zhǔn)問題,也不必像雙目SLAM系統(tǒng)消耗大量的資源計(jì)算深度。利用RGB-D SLAM進(jìn)行稠密地圖的構(gòu)建相對(duì)容易,并且RGB-D相機(jī)使用紅外結(jié)構(gòu)光或飛時(shí)原理測(cè)量深度,保證了深度數(shù)據(jù)對(duì)紋理的無關(guān)性,這樣即使面對(duì)純色的物體,只要它能夠反光,RGB-D SLAM也能夠比較準(zhǔn)確地獲取深度數(shù)據(jù)。

    RGB-D SLAM也有其相應(yīng)的缺點(diǎn)。由于RGB-D相機(jī)測(cè)量深度的原理,使得RGB-D相機(jī)容易受到日光或者其他傳感器發(fā)射的紅外光的干擾,因此使用多個(gè)RGB-D相機(jī)時(shí)會(huì)相互干擾,在室外使用效果也不好。對(duì)于透明材質(zhì)的物體,因?yàn)榉瓷涔廨^少,也無法很好地測(cè)量其深度。而且由于主流RGB-D相機(jī)深度有效測(cè)量距離在0.5~4m的區(qū)間內(nèi),使得RGB-D SLAM無法應(yīng)用在室外大場(chǎng)景下,應(yīng)用環(huán)境受限。此外,RGB-D SLAM算法實(shí)時(shí)運(yùn)行對(duì)計(jì)算平臺(tái)要求較高,還不能應(yīng)用到輕量級(jí)的嵌入式平臺(tái)上。

    3.2 RGB-D SLAM發(fā)展趨勢(shì)

    RGB-D的一個(gè)研究熱點(diǎn)方向就是和深度學(xué)習(xí)相結(jié)合。到目前為止,SLAM的方案都處于特征點(diǎn)或者像素級(jí)別,利用特征點(diǎn)或像素的方法和我們?nèi)粘I顚?shí)踐中的方式很不一樣。

    很久之前,研究者就試圖將物體信息結(jié)合到SLAM中。文獻(xiàn)[58-61]中把物體識(shí)別和VSLAM結(jié)合起來,構(gòu)建帶標(biāo)簽的地圖。文獻(xiàn)[62]將標(biāo)簽信息引入到優(yōu)化端的目標(biāo)函數(shù)中進(jìn)行優(yōu)化。以上的工作都稱為語義SLAM(Semantic SLAM)(圖8[70])。綜合來說,SLAM與語義的結(jié)合點(diǎn)有以下兩個(gè)方面[63]:一方面語義輔助SLAM。傳統(tǒng)的語義分割和物體識(shí)別往往只考慮一幅圖片,而在SLAM中利用一臺(tái)移動(dòng)的相機(jī),如果把語義分割應(yīng)用到SLAM中,將得到一個(gè)帶有標(biāo)簽的語義地圖。另外,語義信息也可以為回環(huán)檢測(cè)和BA優(yōu)化提供更多的信息。另一方面SLAM輔助語義。物體識(shí)別和語義分割都需要大量的訓(xùn)練數(shù)據(jù),并且需要人工從不同視角采集該物體的圖片,輸入分類器進(jìn)行識(shí)別。利用SLAM,可以自動(dòng)地計(jì)算物體在圖像中的位置,節(jié)省人力成本,并且能加快分類器的訓(xùn)練。

    圖8 語義SLAM[70]Fig.8 Semantic SLAM[70]

    此外,基于詞袋的回環(huán)檢測(cè)算法完全依賴于外觀而沒有利用任何其他信息,這導(dǎo)致外觀相似的圖像容易被當(dāng)成回環(huán)。從詞袋的模型來說,它本身是一個(gè)非監(jiān)督的機(jī)器學(xué)習(xí)過程:構(gòu)建詞典相當(dāng)于對(duì)特征描述子進(jìn)行聚類。因此,基于深度學(xué)習(xí)的框架完全可以應(yīng)用到回環(huán)檢測(cè)當(dāng)中[68-69]。

    文獻(xiàn)[64-65]使用深度學(xué)習(xí)網(wǎng)絡(luò)對(duì)圖像進(jìn)行識(shí)別、檢測(cè)和分割。文獻(xiàn)[66]利用RGB-D相機(jī)采集的室內(nèi)RGB圖像和Depth圖像,進(jìn)行了輪廓檢測(cè),自底向上分組,目標(biāo)檢測(cè)和語義分割(圖9)。文獻(xiàn)[67]創(chuàng)新性的將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)應(yīng)用到SLAM本身的位姿估計(jì)與回環(huán)檢測(cè)當(dāng)中。雖然這些方法還沒有成為主流,但將SLAM與深度學(xué)習(xí)結(jié)合處理圖像將是一個(gè)很有前景的研究方向。

    圖9 RGB-D圖像語義分割[66]Fig.9 Semantic segmentation of RGB-D images[66]

    4 結(jié)束語

    自從微軟2010年針對(duì)Microsoft Xbox 360 發(fā)布第一款RGB-D相機(jī)Kinect以來,世界各地的研究者們就競(jìng)相將RGB-D相機(jī)應(yīng)用到VSLAM技術(shù)當(dāng)中。經(jīng)過近些年的發(fā)展,RGB-D SLAM算法框架趨于成熟,也取得了比較好的實(shí)驗(yàn)效果。但是,RGB-D SLAM算法遠(yuǎn)沒有達(dá)到完善的地步:除了比較常用的特征點(diǎn)法,基于像素的直接法近年來也嶄露頭角;實(shí)際應(yīng)用當(dāng)中,RGB-D 相機(jī)與慣性器件(IMU)、激光雷達(dá)等傳感器的融合會(huì)得到更好的效果;將深度學(xué)習(xí)應(yīng)用到RGB-D SLAM中將是今后的一個(gè)發(fā)展方向;RGB-D SLAM應(yīng)用到AR、VR領(lǐng)域?qū)?huì)改變?nèi)藗兊纳?。相信隨著硬件技術(shù)的進(jìn)步、算法的日趨完備,RGB-D SLAM最終能揚(yáng)長(zhǎng)避短,得到廣泛的應(yīng)用。

    [1] Leonard J J, Durrant-Whyte H F, Cox I J. Dynamic map building for an autonomous mobile robot[M]. Sage Publications, Inc. 1992.

    [2] 祝繼華, 鄭南寧, 袁澤劍,等. 基于ICP算法和粒子濾波的未知環(huán)境地圖創(chuàng)建[J]. 自動(dòng)化學(xué)報(bào), 2009, 35(8):1107-1113.

    [3] 丁潔瓊. 基于RGB-D的SLAM算法研究[D]. 西安:西安電子科技大學(xué), 2014.

    [4] Henry P, Krainin M, Herbst E, et al. RGB-D mapping: Using depth cameras for dense 3D modeling of indoor environments[J]. International Journal of Robotics Research, 2010, 31(5):647-663.

    [5] Newman P, Ho K. SLAM-loop closing with visually salient features[C]//Proceedings of the 2005 IEEE International Conference on Robotics and Automation. IEEE, 2006:635-642.

    [6] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

    [7] Bay H, Ess A, Tuytelaars T, et al. Speeded-up robust features (SURF)[J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.

    [8] Rublee E, Rabaud V, Konolige K, et al. ORB: An efficient alternative to SIFT or SURF[C]//IEEE International Conference on Computer Vision. IEEE Computer Society, 2011:2564-2571.

    [9] Fischler M A, Bolles R C . Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM, 1981, 24(6):381-395.

    [10] Zhang Z. Iterative point matching for registration of free-form curves and surfaces[J]. International Journal of Computer Vision, 1994, 13(2):119-152.

    [11] Burgard W, Brock O, Stachniss C. A tree parameterization for efficiently computing maximum likelihood maps using gradient descent[C]//Robotics:Science and System, 2007:65-72.

    [12] Henry P, Krainin M, Herbst E, et al. RGB-D mapping: Using Kinect-style depth cameras for dense 3D modeling of indoor environments[M]//Experimental Robotics. Springer Berlin Heidelberg, 2014:647-663.

    [13] Rosten E, Drummond T. Machine learning for high-speed corner detection[C]//Proceedings of the European Conference on Computer Vision. 2006:430-443.

    [14] Triggs B, Mclauchlan P F, Hartley R I, et al. Bundle adjustment - a modern synthesis[C]//International Workshop on Vision Algorithms: Theory and Practice. Greece, 1999:298-372.

    [16] Bay H, Ess A, Tuytelaars T, et al. Speeded-up robust features[J]. Computer Vision amp; Image Understanding, 2008, 110(3):404-417.

    [17] Endres F, Hess J, Engelhard N, et al. An evaluation of the RGB-D SLAM system[C]//IEEE International Conference on Robotics and Automation. IEEE, 2012:1691-1696.

    [18] Kümmerle R, Grisetti G, Strasdat H, et al. g2o: A general framework for graph optimization[C]//2011 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2011: 3607-3613.

    [19] Fioraio N, Konolige K. Realtime visual and point cloud SLAM[C]//Proceedings of the RGB-D Workshop on Advanced Reasoning with Depth Cameras at Robotics: Science and Systems Conference(RSS). 2011: 27.

    [20] Segal A, Haehnel D, Thrun S. Generalized-ICP[C]//Proceedings of the Robotics: Science and Systems Conference(RSS). 2009: 435.

    [21] Sturm J, Engelhard N, Endres F, et al. A benchmark for the evaluation of RGB-D SLAM systems[C]//2012 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). IEEE, 2012:573-580.

    [22] Newcombe R A, Izadi S, Hilliges O, et al. KinectFusion: Real-time dense surface mapping and tracking[C]//2010 10thIEEE International Symposium on Mixed and Augmented Reality(ISMAR). IEEE Computer Society, 2011:127-136.

    [23] Mur-Artal R, Montiel J M M, Tardós J D. ORB-SLAM: a versatile and accurate monocular SLAM system[J]. IEEE Transactions on Robotics, 2015, 31(5):1147-1163.

    [24] Murartal R, Tardos J D. ORB-SLAM2: An open-source SLAM system for monocular, stereo and RGB-D cameras[J]. IEEE Transactions on Robotics, 2017, 33(5): 1255-1262.

    [25] Rublee E, Rabaud V, Konolige K, et al. ORB: An efficient alternative to SIFT or SURF[C]//2011 IEEE International Conference on Computer Vision(ICCV). IEEE Computer Society, 2011:2564-2571.

    [26] Hmer J, Gumhold S, Cremers D. Real-time dense geometry from a handheld camera[C]//Joint Pattern Recognition Symposium. Springer, Berlin, Heidelberg, 2010: 11-20.

    [27] Engel J, Sturm J, Cremers D. Semi-dense visual odometry for a monocular camera[C]//2013 IEEE International Conference on Computer Vision(ICCV). IEEE Computer Society, 2013:1449-1456.

    [28] Newcombe R A, Lovegrove S J, Davison A J. DTAM: Dense tracking and mapping in real-time[C]//2011 IEEE International Conference on Computer Vision(ICCV). IEEE Computer Society, 2011:2320-2327.

    [29] Forster C, Pizzoli M, Scaramuzza D. SVO: Fast semi-direct monocular visual odometry[C]//2014 IEEE International Conference on Robotics and Automation(ICRA). IEEE, 2014:15-22.

    [30] Engel J, Sch?ps T, Cremers D. LSD-SLAM: Large-scale direct monocular SLAM[C]//Proceedings of the European Conference on Computer Vision. Springer, Cham, 2014: 834-849.

    [31] Ali A M, Nordin M J. SIFT based monocular SLAM with multi-clouds features for indoor navigation[C]//TENCON 2010 - 2010 IEEE Region 10 Conference. IEEE, 2010:2326-2331.

    [32] Wu E Y, Zhao L K, Guo Y P, et al. Monocular vision SLAM based on key feature points selection[C]//2010 IEEE International Conference on Information and Automation(ICIA).Harbin,China,2010:1741-1745.

    [33] Chen C H, Chan Y P. SIFT-based monocluar SLAM with inverse depth parameterization for robot localization[C]//2007 IEEE Workshop on Advanced Robotics and Its Social Impacts(ARSO). IEEE, 2007:1-6.

    [34] Zhu D X. Binocular vision-SLAM using improved SIFT algorithm[C]//2010 2ndInternational Workshop on Intelligent Systems and Applications(ISA). IEEE, 2010:1-4.

    [35] Zhang Z, Huang Y, Li C, et al. Monocular vision simultaneous localization and mapping using SURF[C]//2008 7thWorld Congress on Intelligent Control and Automation(WCICA). IEEE, 2008:1651-1656.

    [36] Ye Y. The research of SLAM monocular vision based on the improved SURF feather[C]//2014 International Conference on Computational Intelligence and Communication Networks(CICN). IEEE, 2014:344-348.

    [37] Wang Y T, Feng Y C. Data association and map management for robot SLAM using local invariant features[C]//2013 IEEE International Conference on Mechatronics and Automation(ICMA). IEEE, 2013:1102-1107.

    [38] Rosten E, Drummond T. Machine learning for high-speed corner detection[C]//Proceedings of the Computer Vision. 2006:430-443.

    [39] Calonder M, Lepetit V, Strecha C, et al. BRIEF: Binary robust independent elementary features[C]//Proceedings of the European Conference on Computer Vision. Springer-Verlag, 2010:778-792.

    [40] Davison A J, Reid I D, Molton N D, et al. MonoSLAM: Real-time single camera SLAM[J]. IEEE Transactions on Pattern Analysis amp; Machine Intelligence, 2007, 29(6):1052-1067.

    [41] Strasdat H, Montiel J M M, Davison A J. Visual SLAM: Why filter? [J]. Image amp; Vision Computing, 2012, 30(2):65-77.

    [42] Lu F, Milios E. Globally consistent range scan alignment for environment mapping[J]. Autonomous Robots, 1997, 4(4):333-349.

    [43] Moré J J. The Levenberg-Marquardt algorithm: Implementation and theory[M]//Numerical Analysis. Springer, Berlin, Heidelberg, 1978: 105-116.

    [44] Hahnel D, Burgard W, Fox D, et al. An efficient fast SLAM algorithm for generating maps of large-scale cyclic environments from raw laser range measurements[C]//2013 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). IEEE Xplore, 2003:206-211.

    [45] Beeson P, Modayil J, Kuipers B. Factoring the mapping problem: Mobile robot map-building in the hybrid spatial semantic hierarchy[J]. The International Journal of Robotics Research, 2010, 29(4):428-459.

    [46] Latif Y, Cadena C, Neira J. Robust loop closing over time for pose graph SLAM[J]. The International Journal of Robotics Research, 2013, 32(14):1611-1626.

    [47] Ulrich I, Nourbakhsh I. Appearance-based place recognition for topological localization[C]//2000 IEEE International Conference on Robotics and Automation(ICRA). IEEE Xplore, 2000:1023-1029.

    [48] Nister D, Stewenius H. Scalable recognition with a vocabulary tree[C]//2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE, 2006:2161-2168.

    [49] Mur-Artal R, Tardós J D. Fast relocalisation and loop closing in keyframe-based SLAM[C]//2014 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2014: 846-853.

    [50] Angeli A, Filliat D, Doncieux S, et al. A fast and incremental method for loop-closure detection using bags of visual words[J].IEEE Transactions on Robotics, 2008,24(5):1027-1037.

    [51] Galvez-López D, Tardos J D. Bags of binary words for fast place recognition in image sequences[J]. IEEE Transactions on Robotics, 2012, 28(5):1188-1197.

    [52] Lloyd S. Least squares quantization in PCM[J]. IEEE Transactions on Information Theory, 1982, 28(2):129-137.

    [53] Arthur D, Vassilvitskii S. k-means++: The advantages of careful seeding[C]//Proceedings of the 18thAnnual ACM-SIAM Symposium on Discrete Algorithms. Society for Industrial and Applied Mathematics, 2007: 1027-1035.

    [55] Cummins M, Newman P. Appearance-only SLAM at large scale with FAB-MAP 2.0[J]. The International Journal of Robotics Research, 2011, 30(9):1100-1123.

    [56] Sivic J, Zisserman A. Video Google: A text retrieval approach to object matching in videos[C]//2003 IEEE International Conference on Computer Vision. IEEE Xplore, 2003:1470-1477.

    [57] Robertson S. Understanding inverse document frequency: on theoretical arguments for IDF[J]. Journal of Documentation, 2004, 60(5):503-520.

    [58] Nüchter A, Hertzberg J. Towards semantic maps for mobile robots[J]. Robotics amp; Autonomous Systems, 2008, 56(11):915-926.

    [59] Civera J, Glvez-Lpez D, Riazuelo L, et al. Towards semantic SLAM using a monocular camera[C]//2011 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). IEEE, 2011:1277-1284.

    [60] Koppula H S, Anand A, Joachims T, et al. Semantic labeling of 3D point clouds for indoor scenes[C]//Advances in Neural Information Processing Systems. 2011: 244-252.

    [61] Anand A, Koppula H S, Joachims T, et al. Contextually guided semantic labeling and search for three-dimensional point clouds[J]. The International Journal of Robotics Research, 2013, 32(1):19-34.

    [62] Fioraio N, Stefano L D. Joint detection, tracking and mapping by semantic bundle adjustment[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2013:1538-1545.

    [63] Cadena C, Carlone L, Carrillo H, et al. Past, present, and future of simultaneous localization and mapping: Toward the robust-perception age[J]. IEEE Transactions on Robotics, 2016, 32(6):1309-1332.

    [64] Deng J, Dong W, Socher R, et al. ImageNet: A large-scale hierarchical image database[C]//2009 IEEE Conference onComputer Vision and Pattern Recognition(CVPR). IEEE, 2009:248-255.

    [65] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2016:770-778.

    [66] Gupta S, Arbelez P, Girshick R, et al. Indoor scene understanding with RGB-D images: Bottom-up segmentation, object detection and semantic segmentation[J]. International Journal of Computer Vision, 2015, 112(2): 133-149.

    [67] Hou Y, Zhang H, Zhou S. Convolutional neural network-based image representation for visual loop closure detection[C]//2015 IEEE International Conference on Information and Automation. IEEE, 2015:2238-2245.

    [68] Gao X, Zhang T. Loop closure detection for visual SLAM systems using deep neural networks[C]//2015 34thChinese Control Conference(CCC). IEEE, 2015:5851-5856.

    [69] Gao X, Zhang T. Unsupervised learning to detect loops using deep neural networks for visual SLAM system[J]. Autonomous Robots, 2017, 41(1):1-18.

    [70] Salas-Moreno R F, Glocken B, Kelly P H J, et al. Dense planar SLAM[C]//2014 IEEE International Symposium on Mixed and Augmented Reality(ISMAR). IEEE, 2014:157-164.

    AnOverviewofRGB-DSLAM

    WANG Liu-jun, CHEN Jia-bin, YU Huan, ZHU Hui-shen

    (School of Automation, Beijing Institute of Technology, Beijing 100081,China)

    RGB-D SLAM refers to Simultaneous Localization and Mapping (SLAM) using RGB-D camera as a visual sensor. RGB-D camera is a kind of vision sensor which can be used to capture RGB images and depth images of environment. Firstly, this paper introduced the RGB-D camera used frequently and the RGB-D SLAM algorithm framework. Then the main achievements of RGB-D SLAM method at home and abroad, research status of RGB-D SLAM and the key technologies of the RGB-D SLAM method, such as feature detection and matching, the pose graph optimization of the back end and the loop closure detection were introduced and summarized. Finally, the advantages and disadvantages of the RGB-D SLAM method were analyzed, and the research hotspot and development trend of the RGB-D SLAM method were discussed.

    RGB-D camera; SLAM; Visual odometry; Pose graph optimization; Loop closure detection*

    10.19306/j.cnki.2095-8110.2017.06.002

    TP242.6

    A

    2095-8110(2017)06-0009-10

    2017-04-15;

    2017-09-06

    國(guó)家國(guó)防基金(9140A09050313BQ01127);國(guó)家自然科學(xué)基金(91120010)

    王旒軍(1992-),男,碩士,主要從事智能導(dǎo)航、視覺SLAM方向的研究。E-mail:wangliujun_bit@163.com

    陳家斌(1964-),男,教授,博導(dǎo),從事慣性導(dǎo)航、智能導(dǎo)航方向研究。E-mail:chenjiabin@bit.edu.cn

    猜你喜歡
    回環(huán)位姿深度
    深度理解一元一次方程
    嘟嘟闖關(guān)記
    深度觀察
    深度觀察
    深度觀察
    透 月
    寶藏(2018年3期)2018-06-29 03:43:10
    基于共面直線迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
    基于CAD模型的單目六自由度位姿測(cè)量
    小型四旋翼飛行器位姿建模及其仿真
    學(xué)習(xí)“騎撐前回環(huán)”動(dòng)作的常見心理問題分析及對(duì)策
    久久久精品94久久精品| 日韩国内少妇激情av| 国产美女午夜福利| 亚洲国产欧美人成| 亚洲精品亚洲一区二区| 特级一级黄色大片| 中文字幕av在线有码专区| 欧美3d第一页| 亚洲五月天丁香| 深爱激情五月婷婷| 在线a可以看的网站| 日韩在线高清观看一区二区三区| 亚洲欧美精品综合久久99| 99久国产av精品国产电影| 久久久久久大精品| 亚洲内射少妇av| 22中文网久久字幕| 久久久久久久久久久免费av| a级一级毛片免费在线观看| 麻豆成人午夜福利视频| 国产一区二区激情短视频| 97超视频在线观看视频| 国产精品,欧美在线| 国产精品久久久久久精品电影| 婷婷色综合大香蕉| 亚洲乱码一区二区免费版| 一区福利在线观看| av在线观看视频网站免费| www日本黄色视频网| 日韩中字成人| 久久亚洲精品不卡| 在线观看免费视频日本深夜| 精品99又大又爽又粗少妇毛片| 日韩三级伦理在线观看| 91aial.com中文字幕在线观看| 国产单亲对白刺激| 男女下面进入的视频免费午夜| 在线国产一区二区在线| 日本爱情动作片www.在线观看| 亚洲精品日韩av片在线观看| 三级男女做爰猛烈吃奶摸视频| 亚洲国产精品久久男人天堂| 真实男女啪啪啪动态图| 亚洲人与动物交配视频| 99热全是精品| 18禁裸乳无遮挡免费网站照片| 久久6这里有精品| av视频在线观看入口| 精品久久久久久久末码| 在线观看美女被高潮喷水网站| 精品久久国产蜜桃| 色噜噜av男人的天堂激情| 国产爱豆传媒在线观看| 欧美不卡视频在线免费观看| 天堂av国产一区二区熟女人妻| 午夜精品国产一区二区电影 | 日韩欧美在线乱码| 亚洲人成网站在线播| 久久国内精品自在自线图片| av在线天堂中文字幕| 丰满乱子伦码专区| 高清日韩中文字幕在线| 成人国产麻豆网| 成人毛片a级毛片在线播放| 九九在线视频观看精品| 伦精品一区二区三区| 亚洲在线自拍视频| 日韩一区二区三区影片| 在现免费观看毛片| 国产精品嫩草影院av在线观看| 国产伦精品一区二区三区视频9| 高清午夜精品一区二区三区 | 少妇熟女aⅴ在线视频| 尤物成人国产欧美一区二区三区| 最近2019中文字幕mv第一页| 两个人视频免费观看高清| 日韩欧美精品免费久久| 在线观看av片永久免费下载| 日本成人三级电影网站| 高清午夜精品一区二区三区 | 久久久精品94久久精品| 国产精品人妻久久久影院| 97超视频在线观看视频| 亚洲美女视频黄频| www日本黄色视频网| 亚洲成人久久性| 午夜福利成人在线免费观看| 乱系列少妇在线播放| 精品欧美国产一区二区三| 乱系列少妇在线播放| 性插视频无遮挡在线免费观看| av天堂在线播放| 12—13女人毛片做爰片一| 国产成人一区二区在线| 真实男女啪啪啪动态图| 麻豆精品久久久久久蜜桃| 国产精华一区二区三区| 黄色视频,在线免费观看| 亚洲18禁久久av| 身体一侧抽搐| 欧美成人免费av一区二区三区| 午夜福利成人在线免费观看| 国产精品伦人一区二区| 桃色一区二区三区在线观看| 国产精品久久电影中文字幕| 亚洲不卡免费看| 日本黄色片子视频| 久久精品久久久久久久性| 欧美丝袜亚洲另类| 亚洲成a人片在线一区二区| 99热这里只有是精品在线观看| 晚上一个人看的免费电影| 99精品在免费线老司机午夜| 亚洲中文字幕日韩| 日日啪夜夜撸| 亚洲熟妇中文字幕五十中出| 国产亚洲精品av在线| 国产免费男女视频| 国产亚洲av片在线观看秒播厂 | 久久久久久久久久久免费av| 精品久久久久久久久亚洲| 日韩成人av中文字幕在线观看| 欧美xxxx性猛交bbbb| 亚洲丝袜综合中文字幕| 成人毛片a级毛片在线播放| 亚洲欧洲日产国产| 能在线免费观看的黄片| 国产欧美日韩精品一区二区| 两个人的视频大全免费| 精品午夜福利在线看| 久久国内精品自在自线图片| 久久久a久久爽久久v久久| www.av在线官网国产| 亚洲自拍偷在线| 噜噜噜噜噜久久久久久91| 午夜激情福利司机影院| 久久久久免费精品人妻一区二区| 亚洲成人久久性| 精品久久久久久久久亚洲| 床上黄色一级片| 99国产精品一区二区蜜桃av| 一本一本综合久久| 国产69精品久久久久777片| 国产高清三级在线| 在线国产一区二区在线| 老熟妇乱子伦视频在线观看| 欧美精品一区二区大全| 最新中文字幕久久久久| 精品久久久久久久久av| 免费搜索国产男女视频| 国产人妻一区二区三区在| 国产精品麻豆人妻色哟哟久久 | 一个人免费在线观看电影| 欧美色视频一区免费| 99热这里只有精品一区| 一个人看视频在线观看www免费| 日韩精品青青久久久久久| 九色成人免费人妻av| 亚洲欧美日韩高清专用| 亚洲在线自拍视频| av在线蜜桃| 在线观看一区二区三区| 亚洲国产欧美人成| 亚洲四区av| 99久久人妻综合| 欧美一级a爱片免费观看看| 91狼人影院| 在线a可以看的网站| 日日啪夜夜撸| 免费电影在线观看免费观看| 亚洲最大成人av| av卡一久久| 少妇人妻精品综合一区二区 | 欧美最新免费一区二区三区| 日日啪夜夜撸| 丰满人妻一区二区三区视频av| 精品人妻熟女av久视频| 在线观看66精品国产| 亚洲内射少妇av| 一级av片app| 亚洲电影在线观看av| 国产精品爽爽va在线观看网站| 精品日产1卡2卡| 不卡一级毛片| 日韩成人av中文字幕在线观看| 欧美3d第一页| 亚洲,欧美,日韩| 午夜福利在线在线| 中文字幕熟女人妻在线| 久久久久久久亚洲中文字幕| 亚洲欧美日韩无卡精品| 亚洲av第一区精品v没综合| 久99久视频精品免费| 欧美丝袜亚洲另类| 精品人妻一区二区三区麻豆| av天堂中文字幕网| 亚洲激情五月婷婷啪啪| 最近中文字幕高清免费大全6| 国产精品麻豆人妻色哟哟久久 | 欧美日韩一区二区视频在线观看视频在线 | 国产精品嫩草影院av在线观看| 国产伦理片在线播放av一区 | 亚洲av电影不卡..在线观看| 国产极品天堂在线| 99在线视频只有这里精品首页| 欧美激情国产日韩精品一区| 日韩三级伦理在线观看| 国产v大片淫在线免费观看| 亚洲一区二区三区色噜噜| 搡老妇女老女人老熟妇| 干丝袜人妻中文字幕| 国产成人一区二区在线| 亚洲精品久久久久久婷婷小说 | 国产一区二区在线观看日韩| 日日干狠狠操夜夜爽| 国产精品久久久久久久久免| 日本熟妇午夜| 五月伊人婷婷丁香| 午夜福利在线观看吧| 乱码一卡2卡4卡精品| 欧美三级亚洲精品| 亚洲精品粉嫩美女一区| 国产精品美女特级片免费视频播放器| 国产av麻豆久久久久久久| 中文字幕av成人在线电影| 国产一区二区三区在线臀色熟女| 青春草国产在线视频 | 国产精品无大码| 卡戴珊不雅视频在线播放| 精品人妻熟女av久视频| 青春草视频在线免费观看| 成年女人看的毛片在线观看| 中文欧美无线码| 久久99蜜桃精品久久| 国产成人精品久久久久久| 日韩精品有码人妻一区| 一级二级三级毛片免费看| 久久久久性生活片| 国产精品电影一区二区三区| 国产高清不卡午夜福利| 免费av毛片视频| 女人十人毛片免费观看3o分钟| 麻豆精品久久久久久蜜桃| 少妇的逼水好多| 男的添女的下面高潮视频| 国产精品一区二区三区四区久久| 男插女下体视频免费在线播放| 老司机福利观看| 麻豆成人av视频| 久久人人精品亚洲av| 欧美一区二区亚洲| 熟女人妻精品中文字幕| 免费一级毛片在线播放高清视频| 在线观看免费视频日本深夜| avwww免费| 少妇裸体淫交视频免费看高清| 日本黄色片子视频| 久久亚洲国产成人精品v| 国产精品久久久久久亚洲av鲁大| a级毛片免费高清观看在线播放| 热99re8久久精品国产| 欧美最黄视频在线播放免费| 日本成人三级电影网站| 我的女老师完整版在线观看| 亚洲最大成人手机在线| 麻豆一二三区av精品| 99久久精品热视频| 亚洲久久久久久中文字幕| 日本五十路高清| 老司机影院成人| 免费无遮挡裸体视频| 一级二级三级毛片免费看| 亚洲久久久久久中文字幕| 干丝袜人妻中文字幕| 身体一侧抽搐| 天天躁日日操中文字幕| 伦理电影大哥的女人| 狂野欧美激情性xxxx在线观看| 国产综合懂色| 日日撸夜夜添| 亚洲av电影不卡..在线观看| 五月伊人婷婷丁香| 免费看日本二区| 免费av毛片视频| 欧美xxxx性猛交bbbb| 九九在线视频观看精品| 一边摸一边抽搐一进一小说| 婷婷精品国产亚洲av| 搡老妇女老女人老熟妇| 熟妇人妻久久中文字幕3abv| 中文字幕熟女人妻在线| 免费av观看视频| 国产成人精品婷婷| 欧美一级a爱片免费观看看| 日韩制服骚丝袜av| 亚洲图色成人| 国产高清激情床上av| 国产精品伦人一区二区| 国产 一区精品| 免费在线观看成人毛片| 此物有八面人人有两片| 亚洲精品久久久久久婷婷小说 | 久久国内精品自在自线图片| 美女脱内裤让男人舔精品视频 | 精品国内亚洲2022精品成人| 精品午夜福利在线看| av黄色大香蕉| 国产精品久久久久久精品电影| 欧美成人精品欧美一级黄| 免费看a级黄色片| 国产人妻一区二区三区在| 免费观看在线日韩| 亚洲av免费高清在线观看| 美女脱内裤让男人舔精品视频 | 91精品一卡2卡3卡4卡| 久久久久久国产a免费观看| 精品久久久噜噜| 色综合亚洲欧美另类图片| 欧美另类亚洲清纯唯美| 久久精品夜夜夜夜夜久久蜜豆| 美女高潮的动态| 国产精品久久久久久亚洲av鲁大| 久久人人爽人人片av| 久久热精品热| 少妇人妻精品综合一区二区 | 一本久久精品| 国产熟女欧美一区二区| 最近手机中文字幕大全| 日本-黄色视频高清免费观看| 一区二区三区免费毛片| 一级黄色大片毛片| 一本久久精品| 亚洲中文字幕一区二区三区有码在线看| 成人无遮挡网站| 久久精品国产亚洲av涩爱 | 99久久九九国产精品国产免费| 久久综合国产亚洲精品| 精品少妇黑人巨大在线播放 | 91精品国产九色| 亚洲自拍偷在线| 久久99热6这里只有精品| 久久欧美精品欧美久久欧美| 免费在线观看成人毛片| 国产精品久久久久久亚洲av鲁大| 亚洲成a人片在线一区二区| 欧美+亚洲+日韩+国产| 一进一出抽搐动态| 亚洲激情五月婷婷啪啪| 一级黄片播放器| 成人毛片60女人毛片免费| 99久久精品国产国产毛片| 中文亚洲av片在线观看爽| 六月丁香七月| 高清午夜精品一区二区三区 | 亚洲精品久久久久久婷婷小说 | 日本在线视频免费播放| 色综合亚洲欧美另类图片| 亚洲国产精品国产精品| 国产私拍福利视频在线观看| 精品久久久久久久久久免费视频| 精品午夜福利在线看| 午夜精品一区二区三区免费看| av又黄又爽大尺度在线免费看 | 欧美日本视频| 精品免费久久久久久久清纯| 大香蕉久久网| 亚洲五月天丁香| 免费av不卡在线播放| 夜夜爽天天搞| 成人亚洲欧美一区二区av| 18禁在线无遮挡免费观看视频| 婷婷精品国产亚洲av| 欧美成人一区二区免费高清观看| 精品熟女少妇av免费看| 简卡轻食公司| 日日啪夜夜撸| 91精品国产九色| av国产免费在线观看| 女的被弄到高潮叫床怎么办| 久久99热这里只有精品18| 尤物成人国产欧美一区二区三区| 黑人高潮一二区| 午夜精品一区二区三区免费看| 波多野结衣高清作品| 久久久精品大字幕| 又粗又硬又长又爽又黄的视频 | 婷婷六月久久综合丁香| 丝袜喷水一区| 国产一区二区在线av高清观看| 国产欧美日韩精品一区二区| 成年女人永久免费观看视频| 国产亚洲精品av在线| 一级毛片久久久久久久久女| 色综合色国产| 亚洲欧美清纯卡通| 寂寞人妻少妇视频99o| 99久久精品国产国产毛片| 国产精品一区二区在线观看99 | 高清午夜精品一区二区三区 | 人人妻人人澡人人爽人人夜夜 | 国产一区亚洲一区在线观看| 亚洲三级黄色毛片| 久久久久久大精品| 两性午夜刺激爽爽歪歪视频在线观看| av卡一久久| 亚洲人成网站在线播放欧美日韩| 麻豆成人午夜福利视频| 久久99精品国语久久久| 中文字幕制服av| 99久久精品热视频| 日韩大尺度精品在线看网址| 国产视频首页在线观看| 成人高潮视频无遮挡免费网站| 99久久无色码亚洲精品果冻| 一个人看的www免费观看视频| 一边摸一边抽搐一进一小说| 成人毛片60女人毛片免费| 51国产日韩欧美| 国产精品久久久久久亚洲av鲁大| 99久国产av精品| 久久精品国产亚洲av香蕉五月| 国产大屁股一区二区在线视频| 波多野结衣高清作品| 国产在线男女| 亚洲七黄色美女视频| .国产精品久久| 禁无遮挡网站| 亚洲精品日韩在线中文字幕 | 在线免费观看的www视频| 国产探花在线观看一区二区| 久久久精品欧美日韩精品| 两性午夜刺激爽爽歪歪视频在线观看| 国产精品久久视频播放| 人妻夜夜爽99麻豆av| 午夜激情欧美在线| 亚洲国产精品sss在线观看| 欧美高清性xxxxhd video| 我的女老师完整版在线观看| a级一级毛片免费在线观看| 美女xxoo啪啪120秒动态图| www.av在线官网国产| 午夜老司机福利剧场| 两个人的视频大全免费| av在线观看视频网站免费| 国产亚洲欧美98| 色噜噜av男人的天堂激情| 又爽又黄a免费视频| 日韩三级伦理在线观看| 欧美高清成人免费视频www| 69人妻影院| 亚洲成人av在线免费| 久久久色成人| 欧美日本亚洲视频在线播放| 精品久久久久久成人av| 国产精品一区二区三区四区久久| 国产亚洲精品av在线| 日日摸夜夜添夜夜爱| 精品不卡国产一区二区三区| 亚洲国产色片| 国产午夜精品久久久久久一区二区三区| 精品99又大又爽又粗少妇毛片| 美女国产视频在线观看| 天堂av国产一区二区熟女人妻| 在线观看美女被高潮喷水网站| h日本视频在线播放| 亚洲av免费高清在线观看| 此物有八面人人有两片| 亚洲人成网站在线播| 国产精品免费一区二区三区在线| 欧美变态另类bdsm刘玥| 欧美在线一区亚洲| 人妻夜夜爽99麻豆av| 国产亚洲欧美98| 国产伦精品一区二区三区视频9| 欧美一级a爱片免费观看看| 最近视频中文字幕2019在线8| 99久久九九国产精品国产免费| 国产亚洲av嫩草精品影院| 国产精品久久久久久亚洲av鲁大| 蜜桃久久精品国产亚洲av| 亚洲国产欧美在线一区| 亚洲性久久影院| 国模一区二区三区四区视频| 成人亚洲欧美一区二区av| 午夜爱爱视频在线播放| 免费观看a级毛片全部| 中文在线观看免费www的网站| 国产精品三级大全| 看免费成人av毛片| 欧美色视频一区免费| 久久人人精品亚洲av| 99久久成人亚洲精品观看| 99在线人妻在线中文字幕| 欧美日韩在线观看h| 亚洲精品456在线播放app| av免费在线看不卡| 国产精品不卡视频一区二区| 国模一区二区三区四区视频| 91午夜精品亚洲一区二区三区| 午夜福利成人在线免费观看| 久久人人爽人人爽人人片va| 国产成人freesex在线| 美女cb高潮喷水在线观看| 欧美又色又爽又黄视频| 国内久久婷婷六月综合欲色啪| 国产成人福利小说| 国产成人一区二区在线| 男人的好看免费观看在线视频| 99久久久亚洲精品蜜臀av| 日韩 亚洲 欧美在线| 亚洲av中文av极速乱| 日韩一区二区三区影片| 蜜臀久久99精品久久宅男| 亚洲一区高清亚洲精品| 国产一区二区在线观看日韩| 一卡2卡三卡四卡精品乱码亚洲| 18禁黄网站禁片免费观看直播| 色视频www国产| www日本黄色视频网| 免费黄网站久久成人精品| 成人国产麻豆网| 国产久久久一区二区三区| 在线观看一区二区三区| 成年av动漫网址| 久久精品国产自在天天线| 亚洲久久久久久中文字幕| 久久久成人免费电影| 精品人妻一区二区三区麻豆| 国产精品免费一区二区三区在线| 亚洲在线观看片| 国产一区二区在线av高清观看| 午夜免费男女啪啪视频观看| 激情 狠狠 欧美| 亚洲无线观看免费| 免费av毛片视频| 97热精品久久久久久| 亚洲无线观看免费| 免费观看人在逋| 久久精品国产亚洲av涩爱 | 亚洲欧美日韩高清在线视频| 床上黄色一级片| 午夜免费男女啪啪视频观看| 深爱激情五月婷婷| 少妇熟女aⅴ在线视频| 久久韩国三级中文字幕| 亚洲性久久影院| 综合色丁香网| 少妇熟女aⅴ在线视频| 听说在线观看完整版免费高清| 国产精品人妻久久久久久| АⅤ资源中文在线天堂| 久久亚洲国产成人精品v| a级毛片免费高清观看在线播放| 久久精品国产亚洲av涩爱 | av.在线天堂| 国产中年淑女户外野战色| 久久精品久久久久久噜噜老黄 | 久久久久久久久久成人| 亚洲精品影视一区二区三区av| 精品一区二区三区人妻视频| 久久人人爽人人片av| 国内揄拍国产精品人妻在线| 久久久精品大字幕| 乱人视频在线观看| 中文资源天堂在线| 少妇猛男粗大的猛烈进出视频 | 精品午夜福利在线看| 99热精品在线国产| 久久精品综合一区二区三区| 欧美日本视频| 亚洲av熟女| 三级男女做爰猛烈吃奶摸视频| 一级毛片我不卡| 国产高潮美女av| 欧美色欧美亚洲另类二区| 精品人妻视频免费看| 久久久久久久久久久丰满| 国产亚洲91精品色在线| 免费av观看视频| 女人十人毛片免费观看3o分钟| 国产老妇女一区| 麻豆国产av国片精品| 只有这里有精品99| 精品久久久久久成人av| 国产一区二区在线观看日韩| 国内久久婷婷六月综合欲色啪| 亚洲熟妇中文字幕五十中出| 国产成人午夜福利电影在线观看| 欧美一区二区亚洲| 国语自产精品视频在线第100页| 日本一二三区视频观看| 成人毛片60女人毛片免费| 一级黄片播放器| 亚洲乱码一区二区免费版| 国产v大片淫在线免费观看| 国产成人91sexporn| 又爽又黄a免费视频| 哪里可以看免费的av片| 赤兔流量卡办理| 超碰av人人做人人爽久久| 国内精品一区二区在线观看| 插阴视频在线观看视频| 国内少妇人妻偷人精品xxx网站| 成年免费大片在线观看| 一区福利在线观看| 欧美一级a爱片免费观看看| 乱人视频在线观看| 一个人看的www免费观看视频| 好男人在线观看高清免费视频| 人人妻人人澡欧美一区二区| 99热这里只有精品一区| 国产一区亚洲一区在线观看| 国产精品不卡视频一区二区| 欧美成人a在线观看| 91久久精品电影网|