• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    視覺同時(shí)定位與地圖創(chuàng)建綜述

    2018-03-12 01:45:00周彥李雅芳王冬麗裴廷睿
    智能系統(tǒng)學(xué)報(bào) 2018年1期
    關(guān)鍵詞:回環(huán)像素機(jī)器人

    周彥,李雅芳,王冬麗,裴廷睿

    (湘潭大學(xué) 信息工程學(xué)院,湖南 湘潭 411105)

    移動(dòng)機(jī)器人為實(shí)現(xiàn)自主導(dǎo)航,面臨著在哪里、到哪里、怎么去3個(gè)需要解決的關(guān)鍵問題?!霸谀睦铩笔菣C(jī)器人對自身的定位,后兩個(gè)問題即機(jī)器人需要解決的路徑規(guī)劃問題。對自主移動(dòng)機(jī)器人來說,定位是重中之重,是路徑規(guī)劃的基石。在定位中,機(jī)器人首當(dāng)其沖的任務(wù)便是感知周圍的環(huán)境,并對之加以描述。移動(dòng)機(jī)器人的定位和地圖創(chuàng)建已成為了機(jī)器人領(lǐng)域的熱點(diǎn)研究問題[1-2]。目前,已經(jīng)有了很多有效方法來解決已知環(huán)境中(有環(huán)境先驗(yàn)信息)機(jī)器人自主定位與已知機(jī)器人位置情況下的地圖創(chuàng)建問題[1]。然而在很多環(huán)境中,機(jī)器人無法利用全局定位系統(tǒng)進(jìn)行定位,而且事先獲取環(huán)境先驗(yàn)信息很困難,甚至是不可能的[3],此情此景下,機(jī)器人需要在沒有環(huán)境先驗(yàn)信息的情況下,在移動(dòng)過程中一邊計(jì)算自身位置,一邊構(gòu)建環(huán)境地圖,于是移動(dòng)機(jī)器人的同時(shí)定位與地圖創(chuàng)建(SLAM)問題[4-5]應(yīng)運(yùn)而生。

    SLAM也稱為CML (concurrent mapping and localization),最先由Smith Self和Cheeseman于1986年提出[5-6]。這一理論是實(shí)現(xiàn)真正全自主移動(dòng)機(jī)器人的關(guān)鍵已經(jīng)成為共識[7-8]。SLAM以傳感器作為劃分標(biāo)準(zhǔn),主要分為激光、視覺兩大類。其中,激光SLAM研究較早,理論和工程均比較成熟,視覺SLAM尚處于實(shí)驗(yàn)室研究階段[1]。SLAM早期研究側(cè)重于使用濾波理論來最小化運(yùn)動(dòng)物體的位姿和地圖路標(biāo)點(diǎn)的噪聲。自21世紀(jì)以來,學(xué)者們借鑒運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)SfM(structure from motion)中的方式[9],以優(yōu)化理論為基礎(chǔ)求解SLAM問題,該方法通常以位姿圖的形式描述機(jī)器人各時(shí)刻的狀態(tài),又稱為基于圖優(yōu)化的SLAM,在VSLAM領(lǐng)域中取得了主導(dǎo)地位[10-11]。

    1 VSLAM存在的問題分析

    1.1 特征點(diǎn)提取、描述與匹配

    圖像的特征一般可劃分為點(diǎn)特征、直線特征以及邊緣、輪廓特征,其中線、邊緣、輪廓等特征在高維空間進(jìn)行處理,計(jì)算量大;點(diǎn)特征對遮擋相對魯棒、提取速度快并且識別性好,所以應(yīng)用較多。局部特征點(diǎn)不僅能夠保留圖像重要特征信息,而且也使得信息的數(shù)據(jù)量減少,使計(jì)算速度和匹配速度都加快,因此基于特征的VSLAM普遍采用點(diǎn)特征。圖1標(biāo)出了可作為圖像特征的部分。

    圖 1 可作為圖像特征的部分:角點(diǎn)、邊緣、斑點(diǎn)Fig. 1 Parts that can be used as image features: corner,edge, blob

    斑點(diǎn)和角點(diǎn)是局部特征點(diǎn)中比較流行的兩種。斑點(diǎn)的重要特征是與周圍區(qū)域有顏色和灰度上的差別。斑點(diǎn)檢測方法應(yīng)用最廣泛的是利用高斯拉普拉斯算子檢測的方法(LOG),以及利用像素點(diǎn)海森矩陣(二階微分)及其行列式值的方法(DOH)。角點(diǎn)描述的是兩條邊的交點(diǎn),其檢測方法常用Harris角點(diǎn)檢測算法和FAST角點(diǎn)檢測算法。對特征點(diǎn)的描述有浮點(diǎn)型特征描述子和二進(jìn)制字符串特征描述子。提取特征點(diǎn)后需對兩幅圖像進(jìn)行特征匹配,特征匹配采用計(jì)算描述子間距離的方法,距離越小相似性越高。對于浮點(diǎn)型描述子采用歐氏距離,對于二進(jìn)制字符型描述子使用漢明距離(Hamming distance),漢明距離指兩個(gè)描述子(二進(jìn)制串)不同位數(shù)的個(gè)數(shù)。當(dāng)特征點(diǎn)數(shù)量非常大時(shí),快速近似最近鄰(FLANN)算法[12]能夠滿足SLAM的實(shí)時(shí)性需求。

    常用的特征提取和匹配算法有SIFT算法、SURF算法和ORB算法。SIFT[13]算法中使用斑檢測方法和浮點(diǎn)型特征描述子,在建立高斯差分空間金字塔的基礎(chǔ)上提取出具有尺度不變性的特征點(diǎn),然后對特征點(diǎn)鄰域內(nèi)的點(diǎn)的梯度方向進(jìn)行直方圖統(tǒng)計(jì)。特征點(diǎn)的主方向就是直方圖中比重最大的方向,必要時(shí)可選一個(gè)輔方向。SIFT特征集旋轉(zhuǎn)不變性、尺度不變性、對圖像變形和光照魯棒等優(yōu)點(diǎn)于一身,不足之處是計(jì)算量大,計(jì)算速度慢,需要在GPU加速的情況下才可滿足SLAM的實(shí)時(shí)性需求。SURF[14]算法是對SIFT算法的改進(jìn),使用基于DoH的斑點(diǎn)特征檢測方法;在特征點(diǎn)的描述上,SURF算法通過積分圖,利用兩個(gè)方向上的Harr小波模板進(jìn)行梯度計(jì)算,然后對鄰域內(nèi)點(diǎn)的梯度方向以扇形的方式進(jìn)行統(tǒng)計(jì),得到特征點(diǎn)的主方向。SURF算法速度快且穩(wěn)定性好,應(yīng)用也較為廣泛。Ethan-Rublee在2011年提出的ORB[15]算法使用改進(jìn)的FAST特征點(diǎn)檢測算法,ORB的特征描述子采用改進(jìn)后的二進(jìn)制字符串特征描述子BRIEF[16]。由于采用速度極快的二進(jìn)制描述子,ORB使得整個(gè)圖像特征提取的環(huán)節(jié)大大加速。

    1.2 特征點(diǎn)深度獲取

    單目相機(jī)無法直接獲取深度信息,深度信息通過反深度法(inverse depth)、三角測量(三角化)、粒子濾波法等來獲取。Civera等[17]提出了反深度法,該方法旨在減少深度分布非高斯性的影響。反深度法為獲得較好的線性效果,在EKF系統(tǒng)里使用深度的倒數(shù)進(jìn)行更新。三角測量最早由高斯提出,是指通過在兩個(gè)不同地點(diǎn)觀察同一個(gè)點(diǎn)的夾角,確定出該點(diǎn)的距離(深度)。使用關(guān)鍵幀與稀疏捆集調(diào)整(sparse bundle adjustment,SBA)框架的 VSLAM 系統(tǒng),如文獻(xiàn)[18-21],均采用了該方法。Davison等[22]采用的Particle Filter方法會(huì)在特征所在的深度方向上生成多個(gè)粒子, 通過粒子的匹配、更新來得到特征點(diǎn)深度的概率分布,不足之處是容易增加系統(tǒng)的不一致性,致使最后概率估計(jì)發(fā)散。

    雙目相機(jī)一般由左和右兩個(gè)水平放置的相機(jī)組成,通過同步采集到的左右相機(jī)的圖像,計(jì)算圖像之間的視差,來估計(jì)每一個(gè)像素的深度。

    圖2中,OL、OR為左右相機(jī)的光圈中心,黑色框?yàn)槌上衿矫?,f為焦距,uL、uR為成像的平面坐標(biāo),uR為負(fù)數(shù)。根據(jù)幾何關(guān)系,由相似三角形P-PLPR和 P-OL-OR, 得

    整理得

    式中d為P在左眼相機(jī)圖像和右眼相機(jī)圖像中的橫坐標(biāo)之差,叫做視差。根據(jù)視差就可以估計(jì)一個(gè)像素離相機(jī)的距離z。

    圖 2 雙目相機(jī)模型Fig. 2 Binocular camera model

    深度相機(jī)主動(dòng)測量每個(gè)像素的深度直接獲取深度信息[23]。目前的RGB-D相機(jī)按原理可分為兩大類,即通過紅外結(jié)構(gòu)光(structured light)來測量像素距離和通過飛行時(shí)間法(time of flight, ToF)測量像素距離。在結(jié)構(gòu)光原理中,相機(jī)向探測目標(biāo)發(fā)射一束光線(通常是紅外光),根據(jù)返回的結(jié)構(gòu)光圖案,計(jì)算像素離自身的距離。在ToF中,相機(jī)向目標(biāo)發(fā)射脈沖光,然后根據(jù)發(fā)送到返回之間的光束飛行時(shí)間,確定物體離自身的距離。在測量深度之后,RGB-D相機(jī)完成深度與彩色圖像像素之間的配對,輸出一一對應(yīng)的彩色圖和深度圖。圖3 是RGB-D相機(jī)的原理圖。

    圖 3 RGB-D相機(jī)原理圖Fig. 3 Schematic of RGB-D camera

    1.3 數(shù)據(jù)關(guān)聯(lián)的優(yōu)化問題

    SLAM中數(shù)據(jù)關(guān)聯(lián)是對兩個(gè)路標(biāo)(VSLAM中路標(biāo)指圖像特征)進(jìn)行匹配,確定它們是否對應(yīng)環(huán)境中的同一物體。在大方向上,特征匹配解決了SLAM中的數(shù)據(jù)關(guān)聯(lián)問題,但這個(gè)過程中帶有誤差,所以對圖像特征匹配的結(jié)果優(yōu)化是必要的,主要方法有固定區(qū)域匹配、Active Matching、1-Point RANAC、幾何約束等。

    PTAM(parallel tracking and mapping)[18]及其改進(jìn)算法主要使用固定區(qū)域匹配的方法。PTAM假定前后兩幀圖像中像素距離在一個(gè)閾值內(nèi),超出這個(gè)閾值就認(rèn)為是錯(cuò)誤匹配,該法適用于特征點(diǎn)距離相機(jī)稍遠(yuǎn)、深度變化不大的場合,不適用于相機(jī)快速運(yùn)動(dòng)的場合。

    基于EKF濾波的VSLAM系統(tǒng)多采用Davison提出的Active Matching[24]方法。Active Matching方法中,在使用EKF系統(tǒng)運(yùn)動(dòng)模型獲得系統(tǒng)狀態(tài)預(yù)測的基礎(chǔ)上,估計(jì)環(huán)境中的特征點(diǎn)在相機(jī)中的投影位置,再進(jìn)一步處理即可得到圖像中特征點(diǎn)的分布區(qū)域。此方法對相機(jī)的絕大部分運(yùn)動(dòng)情況魯棒,但如果出現(xiàn)相機(jī)姿態(tài)估計(jì)協(xié)方差較大的情況,易產(chǎn)生大的特征匹配估計(jì)區(qū)域,可能匹配錯(cuò)誤。

    為去除Active Matching中的錯(cuò)誤匹配,Civera、Grasa等提出1-Point RANSAC[25-26]方法。該方法用隨機(jī)選擇的一個(gè)匹配點(diǎn)的匹配信息來更新相機(jī)姿態(tài),之后計(jì)算其他匹配點(diǎn)與估計(jì)圖像位置的距離,并判斷這個(gè)距離是否在一定的閾值范圍內(nèi),若不在,被認(rèn)為是外點(diǎn)并剔除它,最后利用得到的內(nèi)點(diǎn)集來更新整個(gè)濾波器狀態(tài)。該方法主要應(yīng)用在基于EKF濾波的SLAM系統(tǒng)中,由于頻繁地更新系統(tǒng)狀態(tài),運(yùn)算時(shí)間代價(jià)比較大。

    幾何約束方法利用 PNP(perspective N points)[27]、對極幾何[28]等剔除誤匹配點(diǎn)。該方法因利用幾何求解,不需要頻繁更新系統(tǒng)狀態(tài),故而能獲得較好的系統(tǒng)運(yùn)行速度。但是對于不同的情況該方法需要具體問題具體分析,使用相對應(yīng)的幾何約束條件,相應(yīng)地增加了系統(tǒng)的復(fù)雜性。

    1.4 累積誤差

    SLAM 中的誤差來源主要為里程計(jì)誤差、觀測誤差和錯(cuò)誤的數(shù)據(jù)關(guān)聯(lián)帶來的誤差3個(gè)方面。在VSLAM 中,環(huán)境的先驗(yàn)信息和機(jī)器人的位置都是未知的,位置誤差(視覺里程計(jì)誤差)不能根據(jù)環(huán)境先驗(yàn)信息得到有效糾正,故而隨著機(jī)器人運(yùn)動(dòng)距離的增大位置誤差也逐漸累積。位置誤差的增大會(huì)造成錯(cuò)誤的數(shù)據(jù)關(guān)聯(lián),相應(yīng)的特征標(biāo)志的誤差也跟著增大;反過來,機(jī)器人的位置誤差因?yàn)閰⒖剂擞姓`差的特征也會(huì)增大。因此,里程計(jì)誤差與特征標(biāo)志之間相互影響使整個(gè)VSLAM系統(tǒng)產(chǎn)生累積誤差,無法保證地圖和軌跡的全局一致性。圖4 中,累積誤差使得估計(jì)軌跡和真實(shí)軌跡相差很大。當(dāng)前VSLAM系統(tǒng)多采用回環(huán)檢測的方式減小這一誤差?;丨h(huán)檢測是指機(jī)器人識別出曾經(jīng)到達(dá)過的場景的能力,當(dāng)機(jī)器人看到兩張相似圖片時(shí),計(jì)算圖像數(shù)據(jù)的相似性,如果回環(huán)檢測成功,可以顯著地減小累積誤差?;丨h(huán)檢測在VSLAM中意義重大,既關(guān)系到估計(jì)的地圖和軌跡在長時(shí)間下的正確性,也可在跟丟時(shí)進(jìn)行重定位,大大增強(qiáng)了系統(tǒng)的魯棒性。

    圖 4 真實(shí)軌跡與出現(xiàn)累積誤差的軌跡Fig. 4 Real track and track with accumulated error

    2 VSLAM實(shí)現(xiàn)方法

    VSLAM的實(shí)現(xiàn)方法分為基于濾波器的方法和基于圖優(yōu)化的方法。其中,基于濾波器的方法只估計(jì)當(dāng)前時(shí)刻的位姿,是一種增量式算法;基于圖優(yōu)化的方法根據(jù)所有觀測到的信息,對整個(gè)機(jī)器人運(yùn)動(dòng)軌跡進(jìn)行估計(jì)。前者又稱為在線SLAM,后者又稱為全SLAM(FULL SLAM)。表1 給出了常用的開源VSLAM方案,其中有使用濾波方法的,也有使用優(yōu)化方法的,本文2.1和2.2節(jié)將對典型方案詳述。

    表 1 常用開源VSLAM方案Table 1 Commonly used open source VSLAM solutions

    2.1 基于濾波器的實(shí)現(xiàn)方法

    2.1.1 基于擴(kuò)展卡爾曼濾波器(extended kalman filter, EKF)的EKF-VSLAM

    21世紀(jì)之前, SLAM中的狀態(tài)估計(jì)主要使用濾波的方法。在 SLAM 中,系統(tǒng)的狀態(tài)由機(jī)器人的位姿和地圖信息(路標(biāo))組成。用卡爾曼濾波器(KF)實(shí)現(xiàn)SLAM必須遵循運(yùn)動(dòng)方程和觀測方程都符合線性高斯模型、系統(tǒng)的狀態(tài)服從高斯分布這兩個(gè)假設(shè)?;贙F的 SLAM 由系統(tǒng)狀態(tài)預(yù)測和更新兩步組成,與此同時(shí),對地圖進(jìn)行加入新路標(biāo)、刪除舊路標(biāo)等操作。KF中,假設(shè)系統(tǒng)都是線性的,但是現(xiàn)實(shí)中,機(jī)器人的運(yùn)動(dòng)模型與觀測模型往往都是非線性的。對此,通常采用一階泰勒展開來近似表示非線性模型的擴(kuò)展卡爾曼濾波器(extended Kalman filter,EKF)方法來實(shí)現(xiàn)SLAM。

    卡爾曼濾波器是實(shí)現(xiàn) SLAM 的基本方法之一[29]。其協(xié)方差矩陣描述了機(jī)器人的位置和地圖的不確定信息。當(dāng)機(jī)器人連續(xù)觀測到環(huán)境中的特征標(biāo)志時(shí),所有協(xié)方差矩陣子陣的行列式呈單調(diào)遞減。每一時(shí)刻機(jī)器人能觀測到路標(biāo)不會(huì)很多,只有少數(shù)幾個(gè)?;诳柭鼮V波器的 SLAM 的時(shí)間復(fù)雜度為O(n2),n表示地圖中的特征標(biāo)志數(shù)[30]。為了達(dá)到降低 SLAM 的時(shí)間復(fù)雜度的目的,Leonard 等[31]提出了 DSM (decoupled stochastic mapping) 方法。DSM中機(jī)器人位置估計(jì)被各子地圖分別保存,當(dāng)機(jī)器人從1個(gè)子地圖運(yùn)動(dòng)到另1個(gè)子地圖時(shí),將前1個(gè)子地圖的信息以EKF的方式傳送給后1個(gè)子地圖。Williams 等[32]提出的基于 CLSF (constrained local submap filter)的 SLAM 方法涉及全局坐標(biāo)已知的子地圖,首先構(gòu)建出這些子地圖,然后機(jī)器人運(yùn)動(dòng)過程中只利用觀測信息更新自身位置和局部子地圖中的特征標(biāo)志,并且在時(shí)效范圍內(nèi)向全局地圖傳遞局部子地圖信息。Guivant等[33]提出了1種沒有任何信息丟失的 SLAM 優(yōu)化算法 CEKF ( compressed extended Kalman filter)。在CEKF中,已觀測到的地圖路標(biāo)一分為二分成A 與 B兩部分,比較特別的是,用A來記錄活動(dòng)子地圖(機(jī)器人當(dāng)前位置的鄰域)。當(dāng)機(jī)器人在A 中運(yùn)動(dòng)時(shí),機(jī)器人的位置與地圖A 通過觀測信息得到實(shí)時(shí)更新,與此同時(shí),地圖 B受到子觀測信息的影響被遞歸地記錄;當(dāng)機(jī)器人運(yùn)動(dòng)到A的區(qū)域之外時(shí),觀測信息被傳送給子地圖 B,地圖 B進(jìn)行一次性更新,新的活動(dòng)子地圖同時(shí)被創(chuàng)建。

    為了降低SLAM的時(shí)間復(fù)雜度,Thrun等[34]也提出去相關(guān)的方法,即基于稀疏信息濾波器 (sparse extended information filter,SEIF) 的 SLAM 方法,該方法中,只對約束關(guān)系進(jìn)行局部更新,這種局部更新使得信息矩陣近似于系數(shù)矩陣,有效降低SLAM的時(shí)間復(fù)雜度。

    Davison[35]于2007年提出的MonoSLAM,是第一個(gè)基于EKF方法實(shí)時(shí)的單目VSLAM系統(tǒng),雖然初步解決了實(shí)時(shí)的問題,能夠在線創(chuàng)建稀疏地圖,漂移多少仍然不能確定,目前已經(jīng)停止對其的開發(fā)。

    圖5 是基于EKF的單目VSLAM流程圖。

    圖 5 基于EKF的單目VSLAM流程圖Fig. 5 Flowchart of EKF-based monocular VSLAM

    2.1.2 基于粒子濾波器的FastSLAM

    M. Montemerlo等[36-37]提出了1種基于粒子濾波器(particle filter, PF) 的FastSLAM 方法。 Fast-SLAM 包含了機(jī)器人定位和特征標(biāo)志位置估計(jì)兩個(gè)過程。粒子濾波器法中機(jī)器人可能的運(yùn)動(dòng)路徑用粒子表示,1個(gè)粒子對應(yīng)著1種可能,每條路徑的好壞由利用觀測信息計(jì)算得到的粒子權(quán)重來評價(jià)。對于每個(gè)粒子來說機(jī)器人的運(yùn)動(dòng)路徑是確定的,故特征標(biāo)志之間相互獨(dú)立且其觀測信息只與機(jī)器人的位姿有關(guān)。FastSLAM 的時(shí)間復(fù)雜度為O (kn) ,其中k為粒子個(gè)數(shù)[30]。用樹形數(shù)據(jù)結(jié)構(gòu)優(yōu)化后的時(shí)間復(fù)雜度可以達(dá)到O (k log n)[30]。 FastSLAM能夠比較好地表示機(jī)器人的非線性 、非高斯運(yùn)動(dòng)模型。

    EKF存在非線性誤差,且需要存儲(chǔ)、維護(hù)和更新狀態(tài)量的均值和方差。如果把路標(biāo)也加入狀態(tài)的話,由于V SLAM中路標(biāo)數(shù)量很大,這個(gè)存儲(chǔ)量是相當(dāng)大的,且與狀態(tài)量呈平方增長(因?yàn)橐鎯?chǔ)協(xié)方差矩陣)。因此,EKF普遍被認(rèn)為不適用于大型場景。PF采樣所需的粒子數(shù)量,隨維度的增加呈指數(shù)增長,所以僅限于低維的問題,對高維問題不適用。除此之外,濾波器方法在一定程度上假設(shè)了馬爾可夫性,如果當(dāng)前幀與很久之前的幀有關(guān)(例如回環(huán)),那么濾波器就會(huì)難以處理這種情況。因?yàn)闉V波這些明顯的缺點(diǎn),在同等計(jì)算量的情況下,非線性優(yōu)化的方法(現(xiàn)代SLAM系統(tǒng))可以取得更好的效果[10]。

    另外,在2011年濾波方面出現(xiàn)了基于RFS(random finite set)的方法[38]。RFS是濾波中新興的潮流[38],RFS是以集合為元素的集合,此集合中的元素及元素個(gè)數(shù)都是隨機(jī)變量。文獻(xiàn)[38]對環(huán)境地圖和傳感器觀測信息用RFS建模,構(gòu)造聯(lián)合目標(biāo)狀態(tài)變量的RFS。依據(jù)貝葉斯濾波框架,利用概率假設(shè)密度濾波(probability hypothesis density, PHD)[39]實(shí)現(xiàn)對機(jī)器人位姿和環(huán)境地圖同時(shí)估計(jì)。該算法避免了數(shù)據(jù)關(guān)聯(lián)的問題,相對于EKF和PF能更有效地表達(dá)SLAM問題。

    2.2 現(xiàn)代SLAM系統(tǒng):基于非線性優(yōu)化的方法

    現(xiàn)代SlAM系統(tǒng)分為兩個(gè)部分:前端和后端[1]。前端提取傳感器數(shù)據(jù)構(gòu)建模型用于狀態(tài)估計(jì),后端根據(jù)前端提供的數(shù)據(jù)進(jìn)行優(yōu)化。這個(gè)架構(gòu)如圖6所示。

    圖 6 典型SLAM系統(tǒng)Fig. 6 Typical SLAM system

    當(dāng)前SLAM事實(shí)標(biāo)準(zhǔn)形成來源于Lu和Milios[40],它是Gutmann和Konolige[41]研究的后續(xù)。典型的SLAM系統(tǒng)如圖6 所示,前端進(jìn)行特征提取、數(shù)據(jù)關(guān)聯(lián)和初值優(yōu)化。前端的數(shù)據(jù)關(guān)聯(lián)模塊包括1個(gè)短期(局部)數(shù)據(jù)關(guān)聯(lián)模塊和1個(gè)長期(回環(huán))數(shù)據(jù)關(guān)聯(lián)模塊。通常意義下的數(shù)據(jù)關(guān)聯(lián)問題在SLAM中是指遞增定位與建圖過程中如何確定當(dāng)前連續(xù)的傳感器觀測之間或者當(dāng)前時(shí)刻的觀測與最近所創(chuàng)建的局部地圖中特征間的關(guān)聯(lián)關(guān)系,這也稱為短期(局部)數(shù)據(jù)關(guān)聯(lián);回環(huán)檢測中的數(shù)據(jù)關(guān)聯(lián)研究機(jī)器人沿不同的路徑回到某一循環(huán)的起點(diǎn)時(shí),如何確定當(dāng)前創(chuàng)建的局部地圖中的特征與以前所創(chuàng)建的循環(huán)起點(diǎn)處地圖中的特征間的關(guān)聯(lián)關(guān)系,這稱為長期(回環(huán))數(shù)據(jù)關(guān)聯(lián)。短期的數(shù)據(jù)關(guān)聯(lián)模塊負(fù)責(zé)關(guān)聯(lián)傳感器中連續(xù)的觀測值對應(yīng)的特征:得到1幀圖像數(shù)據(jù)后,對其進(jìn)行預(yù)處理,篩選出關(guān)鍵幀,對圖像進(jìn)行特征提取、匹配以及運(yùn)動(dòng)求解并得到局部地圖,也就是視覺里程計(jì)(visual odometry,VO);長期的數(shù)據(jù)關(guān)聯(lián)負(fù)責(zé)將新的觀測值關(guān)聯(lián)到舊的路標(biāo)上,也就是回環(huán)(loop closure)。

    前端對視覺傳感器得到的圖像的處理考慮兩幀的信息,出現(xiàn)錯(cuò)誤匹配后便無法進(jìn)行,視覺里程計(jì)也存在累積誤差;后端用來解決這些問題,對全局進(jìn)行優(yōu)化。后端優(yōu)化不僅僅考慮相鄰兩幀之間的信息,而且把所有幀(包括很久之前的狀態(tài))的信息都考慮進(jìn)來,其本質(zhì)上是1個(gè)線性最小二乘問題。與此同時(shí),后端也將信息反饋給前端用于回環(huán)檢測、驗(yàn)證等。上述優(yōu)化問題在SLAM中表示成圖(圖論意義上的圖)的形式。1個(gè)圖由若干個(gè)頂點(diǎn),以及連接著這些頂點(diǎn)的邊組成;用頂點(diǎn)表示優(yōu)化變量,用邊表示誤差項(xiàng)。于是對任意1個(gè)上述形式的非線性最小二乘問題可以構(gòu)建與之對應(yīng)的1個(gè)圖。后端優(yōu)化工具常用g2o、Google Ceres、GTSAM等。

    2.2.1 基于特征提取的VSLAM

    2007年,Klein等[18]提出的PTAM (parallel tracking and mapping)是基于關(guān)鍵幀的單目VSLAM系統(tǒng)。PTAM提出并實(shí)現(xiàn)了跟蹤與建圖過程的并行化。這是視覺SLAM中首次出現(xiàn)前后端的概念,對后來許多視覺SLAM系統(tǒng)的設(shè)計(jì)提供了方向。PTAM將姿態(tài)跟蹤和建立地圖設(shè)計(jì)為兩個(gè)線程:姿態(tài)跟蹤線程(前端)不修改地圖,只是用已知地圖來快速跟蹤;建立地圖線程(后端)引入關(guān)鍵幀機(jī)制,把若干個(gè)關(guān)鍵幀串起來繼而優(yōu)化其軌跡和地圖,此過程專注于地圖的建立、維護(hù)和更新。PTAM在選取關(guān)鍵幀、匹配特征、估計(jì)相機(jī)位置方面十分出色,PTAM在重定位上(跟蹤失敗后需要進(jìn)行重定位以繼續(xù)跟蹤)也表現(xiàn)突出,然而該算法沒有設(shè)計(jì)回環(huán)檢測部分,且缺少幀數(shù)過多時(shí)的處理,視圖不變特性較差,魯棒性不夠,需要人工干預(yù)地圖的構(gòu)建過程。

    RGBD-SLAM-V2[42]是 F. Endres在 2014年提出的一種使用深度相機(jī)計(jì)算SLAM的系統(tǒng)。RGBDSLAM-V2前端提取3-D點(diǎn)的圖像特征,進(jìn)行匹配,渲染點(diǎn)云,后端建立位姿圖并用g2o進(jìn)行優(yōu)化,最后輸出地圖。RGBD-SLAM-V2僅使用深度相機(jī)——RGBD相機(jī),同時(shí)采用SLAM領(lǐng)域里的圖像特征提取、回環(huán)檢測、點(diǎn)云、圖優(yōu)化等目前非常流行的技術(shù),效果良好,但特征點(diǎn)提取、點(diǎn)云渲染都是費(fèi)時(shí)的環(huán)節(jié),算法實(shí)時(shí)性有待改進(jìn)。

    2015年,ORB-SLAM[43]算法被提出。ORBSLAM整合當(dāng)前各種主流的方式計(jì)算SLAM,是現(xiàn)代SLAM系統(tǒng)中非常完善且易用的算法之一。ORBSLAM整個(gè)系統(tǒng)都是圍繞著ORB特征實(shí)現(xiàn)的,對輸入的圖像信息處理時(shí)使用ORB特征,在視覺里程計(jì)與回環(huán)檢測環(huán)節(jié)使用ORB字典。ORB-SLAM創(chuàng)新地使用實(shí)時(shí)跟蹤特征點(diǎn)線程、局部捆集優(yōu)化線程以及全局位姿圖的回環(huán)檢測與優(yōu)化線程三線程完成SLAM,能夠確保地圖與軌跡的全局一致性。其中,實(shí)時(shí)跟蹤特征點(diǎn)線程對每幀新來的圖像提取ORB特征,并與最近的關(guān)鍵幀比較,計(jì)算特征點(diǎn)的位置并粗略估計(jì)相機(jī)位姿;局部捆集優(yōu)化線程求解1個(gè)包括局部空間內(nèi)的特征點(diǎn)與相機(jī)位姿的BA(bundle adjustment)問題;全局位姿圖的回環(huán)檢測與優(yōu)化線程對全局的地圖關(guān)鍵幀進(jìn)行回環(huán)檢測,消除累積誤差。繼PTAM的雙線程結(jié)構(gòu)之后,ORB-SLAM的三線程結(jié)構(gòu)又給研究者帶來新的思路。相比于PTAM,ORB-SLAM有著更為寬松的關(guān)鍵幀選取策略。ORB-SLAM在優(yōu)化位姿時(shí)循環(huán)優(yōu)化4次,確保得到更多的正確匹配。所有的這些改進(jìn)使得ORBSLAM具有更好的魯棒性,即使在較差的場景也能順利工作。ORB-SLAM2[44]提供單目、雙目和RGBD接口,這使得它具有更好的泛用性。然而,ORB的建圖部分只含有稀疏的地圖點(diǎn),只能滿足定位需求,用于導(dǎo)航就不足了。另外,整個(gè)ORB-SLAM系統(tǒng)都采用特征點(diǎn)進(jìn)行計(jì)算,對于每張圖都要計(jì)算ORB特征,這使得ORB-SLAM系統(tǒng)非常耗時(shí)。2.2.2 基于直接法的VSLAM

    特征點(diǎn)法在VSLM中占據(jù)著主流地位,但關(guān)鍵點(diǎn)的提取與描述子的計(jì)算非常耗時(shí),而且使用特征點(diǎn)時(shí),只使用到特征點(diǎn)的信息,其他的像素點(diǎn)都被忽略了。針對這些缺點(diǎn),出現(xiàn)了直接法VSLAM,該法既不必提取關(guān)鍵點(diǎn)也不必計(jì)算描述子,而是基于灰度不變假設(shè),根據(jù)像素來直接計(jì)算相機(jī)運(yùn)動(dòng)。直接法是從光流[45]演變而來的,光流描述了像素在圖像中的運(yùn)動(dòng),而直接法則附帶1個(gè)相機(jī)運(yùn)動(dòng)模型。直接法中,假設(shè)在各個(gè)視角下,1個(gè)空間點(diǎn)成像的灰度值是恒定不變的。該方法直接根據(jù)像素亮度信息,估計(jì)相機(jī)的運(yùn)動(dòng)。直接法完全舍去了關(guān)鍵點(diǎn)提取和描述子計(jì)算,不僅避開了耗時(shí)的特征提取,而且保留了所有特征信息。

    文獻(xiàn)[46]里的DTAM(dense tracking and mapping),繼續(xù)使用關(guān)鍵幀的架構(gòu),但對關(guān)鍵幀的處理與傳統(tǒng)的特征點(diǎn)提取大相徑庭。DTAM中的直接法(direct method)在默認(rèn)環(huán)境亮度不變的前提下,對每一個(gè)像素的深度數(shù)據(jù)進(jìn)行反深度(inverse depth)計(jì)算和不斷優(yōu)化,從而建立稠密地圖并且穩(wěn)定地跟蹤。 DTAM準(zhǔn)、穩(wěn),但對每一個(gè)像素都計(jì)算使得實(shí)時(shí)計(jì)算困難,需通過GPU加速。

    文獻(xiàn)[47]中J. Engel等在2014年提出了LSDSLAM(large-scale direct monocular SLAM),LSDSLAM是直接法在單目SLAM中的實(shí)現(xiàn)。LSD-SLAM放棄了BA (bundle adjustment)的方法,利用直接法構(gòu)建了半稠密地圖,可在實(shí)時(shí)應(yīng)用中運(yùn)行,非常適合機(jī)器人使用。LSD-SLAM對相機(jī)內(nèi)參和相機(jī)曝光非常敏感,且相機(jī)快速運(yùn)動(dòng)時(shí)不容易跟蹤。LSD-SLAM中相機(jī)定位的精度明顯比PTAM和ORB低[43]。在回環(huán)檢測部分,目前尚未有在直接法上實(shí)現(xiàn)的回環(huán)檢測方式,LSD-SLAM仍需依賴基于特征的回環(huán)檢測方法。

    文獻(xiàn)[48]中Forster等提出了介于直接方式和基于特征的方法之間的半直接法SVO。SVO中特征點(diǎn)與直接法混合使用,跟蹤一些關(guān)鍵點(diǎn)(無描述子的角點(diǎn)),然后用直接法,根據(jù)這些關(guān)鍵點(diǎn)周圍的信息,估計(jì)相機(jī)的運(yùn)動(dòng)和位置。SVO不必計(jì)算描述子,處理的信息少,速度極快,在4軸飛行器上效果很好。然而,SVO為了速度和輕量化,沒有回環(huán)檢測、后端優(yōu)化部分,這導(dǎo)致了SVO必然存在累計(jì)誤差,且跟丟后難以重定位。

    直接法可以構(gòu)建半稠密乃至稠密的地圖,而特征點(diǎn)法因?yàn)樽陨砭窒奘菬o法做到的。對比稀疏的點(diǎn)云地圖,比如 ORB-SLAM或PTAM,構(gòu)建稠密的地圖對相機(jī)定位和導(dǎo)航意義更加深刻,作用也更加突出。直接法只要求有像素梯度即可估計(jì)相機(jī)運(yùn)動(dòng),而無須特征點(diǎn)。上文中的DTAM和LSD-SLAM可以對環(huán)境進(jìn)行稠密或半稠密的地圖構(gòu)建,相機(jī)位姿通過圖像像素的灰度直接優(yōu)化。直接法避開了提取特征這一繁瑣和耗時(shí)的過程,大大提高了系統(tǒng)效率,且在圖像模糊、低紋理環(huán)境和高頻紋理的情況下有著更好的魯棒性。

    然而,直接法有其局限性。這些方法采用一個(gè)表面反射模型,灰度值不變這一嚴(yán)苛的假設(shè)需要嚴(yán)格遵守?;叶乳g的差異計(jì)算是直接法賴以實(shí)現(xiàn)的基礎(chǔ),如果環(huán)境亮度或者圖像整體灰度變化,例如環(huán)境突然發(fā)生光線變換或者相機(jī)突然調(diào)整曝光參數(shù),整體的圖像就會(huì)變亮或變暗,于是灰度不變假設(shè)不再成立,算法失敗。梯度不明顯的像素對環(huán)境重構(gòu)的精度影響很大,對于非深度相機(jī)需要更多的觀測信息以彌補(bǔ)深度的不確定性。直接法可能會(huì)受到快門、自動(dòng)增益和自動(dòng)曝光的影響,而且對相機(jī)的圖像采集速率也有較高的要求。相反,基于特征的VSLAM方法得益于其較好的視圖不變特性,可以在更寬的條件下匹配特征、捆集調(diào)整和優(yōu)化相機(jī)位姿。文獻(xiàn)[49]也指出了特征點(diǎn)法相比直接法的優(yōu)勢。

    3 結(jié)束語

    綜上所述,隨著機(jī)器視覺技術(shù)的興起,VSLAM成為機(jī)器人領(lǐng)域越來越熱的問題,該領(lǐng)域的研究者們致力于降低算法復(fù)雜度 、減小誤差、提高效率和精度、提高魯棒性等。但是在以下幾個(gè)方面還需要更進(jìn)一步研究。

    1)靜態(tài)環(huán)境到動(dòng)態(tài)環(huán)境

    目前,大部分VSLAM系統(tǒng)仍然局限于研究理想情況下的靜態(tài)環(huán)境,然而事與愿違,現(xiàn)實(shí)中的環(huán)境通常是復(fù)雜的動(dòng)態(tài)環(huán)境,在動(dòng)態(tài)環(huán)境下研究VSLAM具有重要的意義。動(dòng)態(tài)環(huán)境中在語義地圖下做VSLAM是一個(gè)可選擇的方法。利用語義地圖先判斷物體是否為可動(dòng)物體,然后繼續(xù)下一步的動(dòng)作。

    2)與人工智能相結(jié)合的VSLAM實(shí)現(xiàn)方法

    可以將人工智能領(lǐng)域的方法引入到VSLAM中[50],尋找更有效的VSLAM算法,如文獻(xiàn)[51]。上文提及的語義地圖也可嘗試用深度學(xué)習(xí)的方式實(shí)現(xiàn)。

    3)多傳感器融合

    本文所提到的算法都是在僅用相機(jī)作為傳感器的前提下,而在算法的實(shí)用方面,僅用單一傳感器的VSLAM有固有局限,如相機(jī)快速運(yùn)動(dòng)下不容易跟蹤、難以處理動(dòng)態(tài)的障礙物等,因此,將不同的傳感器數(shù)據(jù)融合起來進(jìn)行互補(bǔ),可使系統(tǒng)更加魯棒、精度更高。例如,慣導(dǎo)組合的VSLAM更能適用于復(fù)雜的場景。慣性傳感器(IMU)能夠測量傳感器本體的加速度和角速度,與相機(jī)傳感器互補(bǔ),兩者融合之后能得到更完善的VSLAM系統(tǒng),然而如何有效結(jié)合這兩者是值得深入探討的問題。

    4)多機(jī)器人協(xié)作

    對于單個(gè)機(jī)器人的VSLAM系統(tǒng)已經(jīng)有不少的解決方案,然而多機(jī)器人VSLAM領(lǐng)域還有通信拓?fù)?、任?wù)規(guī)劃和地圖融合等方面有待研究[52]。

    上述VSLAM發(fā)展方向中,結(jié)合深度學(xué)習(xí)的VSLAM和多傳感融合VSLAM將在SALM領(lǐng)域占據(jù)重要地位;動(dòng)態(tài)環(huán)境下的VSLAM和多機(jī)器人協(xié)作VSLAM仍需砥礪前行。

    [1]CADENA C, CARLONE L, CARRILLO H, et al. Simultaneous localization and mapping: present, future, and the robust-perception age[Z]. Computer science, 2016.

    [2]FUENTES-PACHECO J, RUIZ-ASCENCIO J, RENDóNMANCHA J M. Visual simultaneous localization and mapping: a survey[J]. Artificial intelligence review, 2015, 43(1):55–81.

    [3]于金霞, 王璐, 蔡自興. 未知環(huán)境中移動(dòng)機(jī)器人自定位技術(shù)[M]. 北京: 電子工業(yè)出版社, 2011.YU Jinxia, WANG Lu, CAI Zixing. Self-localization technologies of mobile robot in unknown environment[M].Beijing: Publishing House of Electronics Industry, 2011.

    [4]劉浩敏, 章國鋒, 鮑虎軍. 基于單目視覺的同時(shí)定位與地圖構(gòu)建方法綜述[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2016,28(6): 855–868.LIU Haomin, ZHANG Guofeng, BAO Hujun. A survey of monocular simultaneous localization and mapping[J]. Journal of computer-aided design and computer graphics, 2016,28(6): 855–868.

    [5]SMITH R, SELF M, CHEESEMAN P. Estimating uncertain spatial relationships in robotics[J]. Machine intelligence and pattern recognition, 1988, 1(5): 435–461.

    [6]SMITH R C, CHEESEMAN P. On the representation and estimation of spatial uncertainty[J]. The international journal of robotics research, 1986, 5(4): 56–68.

    [7]CSORBA M. Simultaneous localisation and map building[D]. Oxford: University of Oxford, 1997: 699–704.

    [8]DISSANAYAKE M W M G, NEWMAN P, CLARK S, et al. A solution to the simultaneous localization and map building (SLAM) problem[J]. IEEE transactions on robotics and automation, 2001, 17(3): 229–241.

    [9]AGARWAL S, SNAVELY N, SIMON I, et al. Building Rome in a day[C]//Proceedings of the 12th IEEE International Conference on Computer Vision. Kyoto, Japan, 2009:72–79.

    [10]STRASDAT H, MONTIEL J M M, DAVISON A J. Realtime monocular SLAM: why filter?[C]//Proceedings of 2010 IEEE International Conference on Robotics and Automation. Anchorage, AK, USA, 2010: 2657–2664.

    [11]梁明杰, 閔華清, 羅榮華. 基于圖優(yōu)化的同時(shí)定位與地圖創(chuàng)建綜述[J]. 機(jī)器人, 2013, 35(4): 500–512.LIANG Mingjie, MIN Huaqing, LUO Ronghua. Graphbased SLAM: a survey[J]. Robot, 2013, 35(4): 500–512.

    [12]MUJA M, LOWE D G. Fast approximate nearest neighbors with automatic algorithm configuration[C]//Proceedings of the 4th International Conference on Computer Vision Theory and Applications. Lisboa, Portugal, 2009:331–340.

    [13]LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International journal of computer vision,2004, 60(2): 91–110.

    [14]BAY H, ESS A, TUYTELAARS T, et al. Speeded-up robust features (SURF)[J]. Computer vision and image understanding, 2008, 110(3): 346–359.

    [15]RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: an efficient alternative to SIFT or SURF[C]//Proceedings of 2011 IEEE International Conference on Computer Vision.Barcelona, Spain, 2011: 2564–2571.

    [16]CALONDER M, LEPETIT V, STRECHA C, et al. BRIEF:binary robust independent elementary features[C]//Proceedings of the 11th European Conference on Computer Vision. Heraklion, Crete, Greece, 2010: 778–792.

    [17]CIVERA J, DAVISON A J, MONTIEL J M M. Inverse depth parametrization for monocular SLAM[J]. IEEE transactions on robotics, 2008, 24(5): 932–945.

    [18]KLEIN G, MURRAY D. Parallel tracking and mapping for small AR workspaces[C]//Proceedings of the 6th IEEE and ACM International Symposium on Mixed and Augmented Reality. Nara, Japan, 2007: 225–234.

    [19]KLEIN G, MURRAY D. Improving the agility of keyframe-based SLAM[C]//Proceedings of the 10th European Conference on Computer Vision. Marseille, France, 2008:802–815.

    [20]WEISS S, SIEGWART R. Real-time metric state estimation for modular vision-inertial systems[C]//Proceedings of 2011 IEEE International Conference on Robotics and Automation. Shanghai, China, 2011: 4531–4537.

    [21]JAMA M, SCHINSTOCK D. Parallel tracking and mapping for controlling VTOL airframe[J]. Journal of control science and engineering, 2011, 2011: 413074.

    [22]DAVISON A J. SLAM with a single camera[C]//Proceedings of Workshop on Concurrent Mapping and Localization for Autonomous Mobile Robots in Conjunction with ICRA. Washington, DC, USA, 2002.

    [23]祝風(fēng)翔. 基于圖像的深度獲取方法研究[D]. 杭州, 中國:浙江大學(xué), 2016.ZHU Fengxiang. Depth map acquisition method study based on image[D]. Hangzhou, China: Zhejiang University,2016.

    [24]DAVISON A J. Active search for real-time vision[J]. Proceedings of the 10th IEEE International Conference on Computer Vision. Beijing, China, 2005: 66–73.

    [25]CIVERA J, GRASA O G, DAVISON A J, et al. 1-point RANSAC for EKF-based structure from motion[C]//Proceedings of 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems. St. Louis, MO, USA,2009: 3498–3504.

    [26]CIVERA J, GRASA O G, DAVISON A J, et al. 1-Point RANSAC for extended Kalman filtering: application to real-time structure from motion and visual odometry[J].Journal of field robotics, 2010, 27(5): 609–631.

    [27]GUERRA E, MUNGUIA R, BOLEA Y, et al. Validation of data association for monocular SLAM[J]. Mathematical problems in engineering, 2013, 2013: 671376.

    [28]EADE E, DRUMMOND T. Scalable monocular SLAM[C]//Proceedings of 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York, NY, USA, 2006: 469–476.

    [29]LEONARD J J, DURRANT-WHYTE H F. Simultaneous map building and localization for an autonomous mobile robot[C]//Proceedings of Intelligence for Mechanical Systems, Proceedings IROS’91. IEEE/RSJ International Workshop on Intelligent Robots and Systems’91. Osaka, Japan,1991: 1442–1447.

    [30]羅榮華, 洪炳镕. 移動(dòng)機(jī)器人同時(shí)定位與地圖創(chuàng)建研究進(jìn)展[J]. 機(jī)器人, 2004, 26(2): 182–186.LUO Ronghua, HONG Bingrong. The progress of simultaneous localization and mapping for mobile robot[J]. Robot, 2004, 26(2): 182–186.

    [31]LEONARD J J, FEDER H J S. Decoupled stochastic mapping[J]. IEEE journal of oceanic engineering, 2001, 26(4):561–571.

    [32]WILLIAMS S B. Efficient solutions to autonomous mapping and navigation problems[D]. Sydney, Australia: University of Sydney, 2001.

    [33]GUIVANT J E, NEBOT E M. Optimization of the simultaneous localization and map-building algorithm for realtime implementation[J]. IEEE transactions on robotics and automation, 2001, 17(3): 242–257.

    [34]THRUN S, LIU Yufeng, KOLLER D, et al. Simultaneous localization and mapping with sparse extended information filters[J]. The international journal of robotics research, 2004, 23(7/8): 693–716.

    [35]DAVISON A J, REID I D, MOLTON N D, et al. Mono-SLAM: real-time single camera SLAM[J]. IEEE transactions on pattern analysis and machine intelligence, 2007,29(6): 1052–1067.

    [36]MONTEMERLO M, THRUN S, KOLLER D, et al. Fast-SLAM: a factored solution to the simultaneous localization and mapping problem[C]//Proceedings of the 18th International Conference on Artificial Intelligence. Pittsburgh, PA, USA, 2002: 2004.

    [37]MONTEMERLO M, THRUN S. Simultaneous localization and mapping with unknown data association using FastSLAM[C]//Proceedings of 2003 IEEE International Conference on Robotics and Automation. Taipei, Taiwan,China, 2003: 1985–1991.

    [38]MULLANE J, VO B N, ADAMS M D, et al. A random-finite-set approach to Bayesian SLAM[J]. IEEE transactions on robotics, 2011, 27(2): 268–282.

    [39]ADAMS M, VO B N, MAHLER R, et al. SLAM gets a PHD: new concepts in map estimation[J]. IEEE robotics and automation magazine, 2014, 21(2): 26–37.

    [40]LU F, MILIOS E. Globally consistent range scan alignment for environment mapping[J]. Autonomous robots,1997, 4(4): 333–349.

    [41]GUTMANN J S, KONOLIGE K. Incremental mapping of large cyclic environments[C]//Proceedings of 1999 IEEE International Symposium on Computational Intelligence in Robotics and Automation. Monterey, CA, USA, 1999:318–325.

    [42]ENDRES F, HESS J, STURM J, et al. 3-D mapping with an RGB-D camera[J]. IEEE transactions on robotics, 2014,30(1): 177–187.

    [43]MUR-ARTAL R, MONTIEL J M M, TARDOS J D. ORBSLAM: a versatile and accurate monocular SLAM system[J]. IEEE transactions on robotics, 2015, 31(5):1147–1163.

    [44]MUR-ARTAL R, TARDóS J D. ORB-SLAM2: an opensource SLAM system for monocular, stereo, and RGB-D cameras[J]. IEEE transactions on robotics, 2017, 23(5):1255–1262.

    [45]BLESER G, HENDEBY G. Using optical flow as lightweight SLAM alternative[C]//Proceedings of the 8th IEEE International Symposium on Mixed and Augmented Reality. Orlando, FL, USA, 2009: 175–176.

    [46]NEWCOMBE R A, LOVEGROVE S J, DAVISON A J.DTAM: dense tracking and mapping in real-time[C]//Proceedings of 2011 IEEE International Conference on Computer Vision. Barcelona, Spain, 2011: 2320–2327.

    [47]ENGEL J, SCH?PS T, CREMERS D. LSD-SLAM: largescale direct monocular SLAM[C]//Proceedings of the 13th European Conference on Computer Vision. Zurich,Switzerland, 2014: 834–849.

    [48]FORSTER C, PIZZOLI M, SCARAMUZZA D. SVO: fast semi-direct monocular visual odometry[C]//Proceedings of 2014 IEEE International Conference on Robotics and Automation. Hong Kong, China, 2014: 15–22.

    [49]TORR P H S, ZISSERMAN A. Feature based methods for structure and motion estimation[M]. TRIGGS B, ZISSERMAN A, SZELISKI R. Vision Algorithms: Theory and Practice. Berlin, Heidelberg, Germany: Springer, 2000:278–294.

    [50]林輝燦, 呂強(qiáng), 張洋, 等. 稀疏和稠密的VSLAM的研究進(jìn)展[J]. 機(jī)器人, 2016, 38(5): 621–631.LIN Huican, LYU Qiang, ZHANG Yang, et al. The sparse and dense VSLAM: a survey[J]. Robot, 2016, 38(5):621–631.

    [51]GAO Xiang, ZHANG Tao. Unsupervised learning to detect loops using deep neural networks for visual SLAM system[J]. Autonomous robots, 2017, 41(1): 1–18.

    [52]張國良, 湯文俊, 曾靜, 等. 考慮通信狀況的多機(jī)器人CSLAM問題綜述[J]. 自動(dòng)化學(xué)報(bào), 2014, 40(10):2073–2088.ZHANG Guoliang, TANG Wenjun, ZENG Jing, et al. An overview on the cooperative SLAM problem of multi-robot systems considering communication conditions[J].Acta automatica sinica, 2014, 40(10): 2073–2088.

    猜你喜歡
    回環(huán)像素機(jī)器人
    趙運(yùn)哲作品
    藝術(shù)家(2023年8期)2023-11-02 02:05:28
    像素前線之“幻影”2000
    嘟嘟闖關(guān)記
    “像素”仙人掌
    透 月
    寶藏(2018年3期)2018-06-29 03:43:10
    高像素不是全部
    CHIP新電腦(2016年3期)2016-03-10 14:22:03
    機(jī)器人來幫你
    認(rèn)識機(jī)器人
    機(jī)器人來啦
    學(xué)習(xí)“騎撐前回環(huán)”動(dòng)作的常見心理問題分析及對策
    一级a爱片免费观看的视频| 久久香蕉精品热| 国产91精品成人一区二区三区| 每晚都被弄得嗷嗷叫到高潮| 三级国产精品欧美在线观看 | 99在线人妻在线中文字幕| 久久亚洲精品不卡| 少妇丰满av| 波多野结衣高清无吗| 国产极品精品免费视频能看的| 国产精品久久久久久久电影 | 99国产精品99久久久久| 日韩大尺度精品在线看网址| 亚洲 欧美一区二区三区| 看黄色毛片网站| av黄色大香蕉| 女人被狂操c到高潮| 国产人伦9x9x在线观看| 国产探花在线观看一区二区| 夜夜躁狠狠躁天天躁| 99精品在免费线老司机午夜| 免费在线观看亚洲国产| aaaaa片日本免费| 午夜激情福利司机影院| 免费看十八禁软件| 国产成人一区二区三区免费视频网站| 高清毛片免费观看视频网站| 在线观看午夜福利视频| 精品无人区乱码1区二区| 午夜免费激情av| 国产麻豆成人av免费视频| 久99久视频精品免费| aaaaa片日本免费| 18禁黄网站禁片午夜丰满| 少妇的丰满在线观看| 老司机午夜福利在线观看视频| 精品日产1卡2卡| 国产在线精品亚洲第一网站| 黄色丝袜av网址大全| 午夜精品一区二区三区免费看| 天堂av国产一区二区熟女人妻| www日本在线高清视频| 亚洲色图av天堂| 国产毛片a区久久久久| 日本黄色视频三级网站网址| 一个人免费在线观看电影 | 亚洲专区中文字幕在线| 天天躁狠狠躁夜夜躁狠狠躁| 男女下面进入的视频免费午夜| 国产精品久久久久久精品电影| 国产伦精品一区二区三区视频9 | 悠悠久久av| 99久久久亚洲精品蜜臀av| 好男人电影高清在线观看| 午夜福利高清视频| 婷婷亚洲欧美| 夜夜看夜夜爽夜夜摸| 国产一级毛片七仙女欲春2| 999久久久国产精品视频| 国产视频一区二区在线看| 悠悠久久av| 免费在线观看影片大全网站| 日韩中文字幕欧美一区二区| 曰老女人黄片| 精品一区二区三区视频在线观看免费| 日韩免费av在线播放| 97碰自拍视频| 12—13女人毛片做爰片一| 亚洲一区二区三区色噜噜| 身体一侧抽搐| 亚洲真实伦在线观看| 99久久精品热视频| 久久精品综合一区二区三区| 亚洲欧美一区二区三区黑人| 欧美成人一区二区免费高清观看 | 欧美最黄视频在线播放免费| 天堂影院成人在线观看| 国产精品永久免费网站| 99久久精品一区二区三区| 精品国内亚洲2022精品成人| 中文字幕av在线有码专区| 韩国av一区二区三区四区| 国产免费男女视频| 韩国av一区二区三区四区| 老熟妇乱子伦视频在线观看| 亚洲中文字幕日韩| 男人舔女人的私密视频| 人妻夜夜爽99麻豆av| 日韩欧美精品v在线| 午夜a级毛片| 国产精品,欧美在线| 亚洲精品美女久久av网站| 久久天堂一区二区三区四区| 久久久国产精品麻豆| 偷拍熟女少妇极品色| 日日干狠狠操夜夜爽| 国产精华一区二区三区| 国产成人aa在线观看| 在线观看免费午夜福利视频| 夜夜夜夜夜久久久久| www.精华液| 亚洲av片天天在线观看| 网址你懂的国产日韩在线| 精品不卡国产一区二区三区| 精品国产超薄肉色丝袜足j| 国产男靠女视频免费网站| 最新中文字幕久久久久 | 成在线人永久免费视频| cao死你这个sao货| 国产精品美女特级片免费视频播放器 | 成在线人永久免费视频| 久久性视频一级片| 亚洲一区高清亚洲精品| 中文字幕久久专区| 一个人看视频在线观看www免费 | 国语自产精品视频在线第100页| 亚洲精品在线美女| 国产高清视频在线播放一区| 色在线成人网| 国产精品久久久久久精品电影| 最近视频中文字幕2019在线8| 69av精品久久久久久| 亚洲成a人片在线一区二区| 亚洲欧美日韩高清在线视频| 在线观看舔阴道视频| 成人特级黄色片久久久久久久| 免费看a级黄色片| 美女高潮喷水抽搐中文字幕| 偷拍熟女少妇极品色| 嫁个100分男人电影在线观看| 精品无人区乱码1区二区| 一本精品99久久精品77| 特级一级黄色大片| 亚洲一区二区三区色噜噜| 午夜福利18| 欧美日韩中文字幕国产精品一区二区三区| 久久久久国内视频| 美女cb高潮喷水在线观看 | 黑人巨大精品欧美一区二区mp4| 日韩免费av在线播放| 国产主播在线观看一区二区| 综合色av麻豆| 亚洲五月天丁香| 久9热在线精品视频| 女人被狂操c到高潮| 久久久精品大字幕| 禁无遮挡网站| 青草久久国产| 狂野欧美激情性xxxx| 日本一本二区三区精品| 99国产精品一区二区三区| 亚洲中文字幕一区二区三区有码在线看 | 亚洲精品粉嫩美女一区| 欧美xxxx黑人xx丫x性爽| 久久久国产成人精品二区| 欧美一级毛片孕妇| 久久伊人香网站| 一级毛片高清免费大全| 免费无遮挡裸体视频| 久久久久久人人人人人| 美女大奶头视频| 亚洲欧美日韩无卡精品| 老汉色av国产亚洲站长工具| 激情在线观看视频在线高清| 国产免费男女视频| 12—13女人毛片做爰片一| 亚洲美女视频黄频| 我要搜黄色片| 中文字幕精品亚洲无线码一区| 首页视频小说图片口味搜索| 免费在线观看日本一区| 国产精品1区2区在线观看.| 亚洲电影在线观看av| 99国产极品粉嫩在线观看| 亚洲国产欧洲综合997久久,| 男女视频在线观看网站免费| 无人区码免费观看不卡| 久久草成人影院| 在线播放国产精品三级| 天堂av国产一区二区熟女人妻| 国产精品98久久久久久宅男小说| 国产精品久久久久久亚洲av鲁大| 老汉色av国产亚洲站长工具| 啪啪无遮挡十八禁网站| 欧美色欧美亚洲另类二区| 一本精品99久久精品77| 天天一区二区日本电影三级| 999久久久国产精品视频| 亚洲av免费在线观看| 黄频高清免费视频| 黄色片一级片一级黄色片| xxx96com| 人人妻人人看人人澡| 亚洲色图av天堂| 男女午夜视频在线观看| 免费电影在线观看免费观看| 天天躁日日操中文字幕| 在线免费观看不下载黄p国产 | 国产在线精品亚洲第一网站| 日韩国内少妇激情av| 嫩草影视91久久| 波多野结衣高清作品| 51午夜福利影视在线观看| 三级毛片av免费| 亚洲 欧美一区二区三区| 亚洲成人免费电影在线观看| 男人舔女人下体高潮全视频| 亚洲av第一区精品v没综合| 99热6这里只有精品| 级片在线观看| 亚洲欧美日韩东京热| 欧美日本亚洲视频在线播放| 国产一区二区激情短视频| 国产亚洲av嫩草精品影院| 国产v大片淫在线免费观看| 亚洲av片天天在线观看| 999久久久国产精品视频| 天堂动漫精品| 男人的好看免费观看在线视频| 精品午夜福利视频在线观看一区| 色综合婷婷激情| 亚洲一区二区三区色噜噜| 国产精品免费一区二区三区在线| 国产精品 国内视频| 亚洲男人的天堂狠狠| 人人妻人人看人人澡| 国内少妇人妻偷人精品xxx网站 | 亚洲一区高清亚洲精品| 99久久99久久久精品蜜桃| 男人舔女人的私密视频| 天堂√8在线中文| 免费观看的影片在线观看| 伦理电影免费视频| 国产亚洲精品av在线| 大型黄色视频在线免费观看| 热99在线观看视频| 国产成人精品久久二区二区91| 黄色片一级片一级黄色片| 真实男女啪啪啪动态图| 黄色成人免费大全| 国产主播在线观看一区二区| 91久久精品国产一区二区成人 | 亚洲中文av在线| 欧美zozozo另类| 亚洲人成电影免费在线| 伦理电影免费视频| 成人一区二区视频在线观看| 国内精品一区二区在线观看| 亚洲精品一区av在线观看| 精品乱码久久久久久99久播| 国产成人精品久久二区二区91| 少妇的丰满在线观看| 超碰成人久久| 村上凉子中文字幕在线| 久久中文字幕人妻熟女| 一进一出抽搐动态| 中文字幕久久专区| 欧美日韩黄片免| 香蕉丝袜av| 欧美黑人巨大hd| 久久久久性生活片| 99国产精品一区二区三区| 亚洲片人在线观看| а√天堂www在线а√下载| 色视频www国产| 免费在线观看视频国产中文字幕亚洲| 午夜福利18| 免费看十八禁软件| 一级毛片精品| 三级男女做爰猛烈吃奶摸视频| 精华霜和精华液先用哪个| 久久久久久大精品| 日本撒尿小便嘘嘘汇集6| 99精品在免费线老司机午夜| 国产三级中文精品| 女生性感内裤真人,穿戴方法视频| 欧美黑人巨大hd| 99久国产av精品| 特级一级黄色大片| 亚洲国产精品999在线| 国产精品自产拍在线观看55亚洲| 久久天躁狠狠躁夜夜2o2o| 亚洲一区高清亚洲精品| 中文资源天堂在线| 午夜免费成人在线视频| 久久香蕉国产精品| 久久久国产成人免费| 在线免费观看不下载黄p国产 | 怎么达到女性高潮| 黄色 视频免费看| 久久精品影院6| 精品一区二区三区视频在线 | 精品不卡国产一区二区三区| 亚洲精品国产精品久久久不卡| 色综合欧美亚洲国产小说| 少妇熟女aⅴ在线视频| 国产亚洲精品久久久久久毛片| 精品久久久久久久毛片微露脸| 日本 欧美在线| 99精品在免费线老司机午夜| 日韩成人在线观看一区二区三区| 嫁个100分男人电影在线观看| 亚洲在线观看片| 久久精品人妻少妇| 床上黄色一级片| 精品欧美国产一区二区三| 黑人欧美特级aaaaaa片| 老汉色∧v一级毛片| 亚洲色图av天堂| 国产免费av片在线观看野外av| 欧美激情在线99| 99热这里只有精品一区 | 美女高潮喷水抽搐中文字幕| 男人的好看免费观看在线视频| 观看免费一级毛片| 三级男女做爰猛烈吃奶摸视频| 老汉色av国产亚洲站长工具| 美女 人体艺术 gogo| 在线国产一区二区在线| 午夜福利18| 亚洲五月天丁香| 中文字幕久久专区| 婷婷精品国产亚洲av在线| 亚洲av第一区精品v没综合| 欧美国产日韩亚洲一区| 九九在线视频观看精品| 宅男免费午夜| www.www免费av| 99久久精品一区二区三区| 2021天堂中文幕一二区在线观| 欧美在线一区亚洲| 亚洲欧洲精品一区二区精品久久久| 精品福利观看| 欧美黑人欧美精品刺激| 精品欧美国产一区二区三| 日日摸夜夜添夜夜添小说| 亚洲乱码一区二区免费版| 夜夜爽天天搞| 亚洲在线自拍视频| 久久国产精品影院| 女生性感内裤真人,穿戴方法视频| 色视频www国产| 黄色日韩在线| 色吧在线观看| 在线观看日韩欧美| 国产探花在线观看一区二区| 亚洲av成人不卡在线观看播放网| 一夜夜www| 国产 一区 欧美 日韩| 大型黄色视频在线免费观看| 男女之事视频高清在线观看| 久久国产精品人妻蜜桃| 国产乱人视频| 亚洲av熟女| 亚洲人成网站高清观看| 国产av在哪里看| 最近最新免费中文字幕在线| 日韩大尺度精品在线看网址| 久久久国产欧美日韩av| 欧美激情在线99| 国产综合懂色| 在线a可以看的网站| 宅男免费午夜| 热99re8久久精品国产| 欧美日韩国产亚洲二区| 国产精品久久久久久精品电影| 麻豆国产av国片精品| 午夜日韩欧美国产| 国产一区在线观看成人免费| 嫁个100分男人电影在线观看| 久久久久久久久中文| 精品国产三级普通话版| 亚洲五月婷婷丁香| 国产伦精品一区二区三区四那| 美女免费视频网站| 亚洲国产欧美一区二区综合| 最新美女视频免费是黄的| 人人妻,人人澡人人爽秒播| 国产成人精品久久二区二区91| 午夜久久久久精精品| 日韩欧美国产一区二区入口| 国产高清有码在线观看视频| 国产高清三级在线| 神马国产精品三级电影在线观看| 亚洲精华国产精华精| 一级毛片精品| 男人舔女人下体高潮全视频| 国产淫片久久久久久久久 | 国产午夜精品久久久久久| 国产单亲对白刺激| 亚洲人成网站高清观看| 伊人久久大香线蕉亚洲五| 亚洲国产欧美一区二区综合| 人妻丰满熟妇av一区二区三区| 久久人人精品亚洲av| 亚洲色图 男人天堂 中文字幕| 熟妇人妻久久中文字幕3abv| 岛国视频午夜一区免费看| 久久这里只有精品19| 亚洲国产日韩欧美精品在线观看 | www.999成人在线观看| 夜夜夜夜夜久久久久| 中文亚洲av片在线观看爽| 国内毛片毛片毛片毛片毛片| 久久热在线av| 伊人久久大香线蕉亚洲五| 亚洲精华国产精华精| 国产亚洲精品综合一区在线观看| 他把我摸到了高潮在线观看| 99热6这里只有精品| 亚洲人成网站在线播放欧美日韩| 美女高潮喷水抽搐中文字幕| 在线免费观看不下载黄p国产 | 国产成年人精品一区二区| www国产在线视频色| 亚洲成人久久性| 亚洲精品中文字幕一二三四区| 精品久久久久久久久久免费视频| 97碰自拍视频| 免费看十八禁软件| 国产伦在线观看视频一区| 18禁国产床啪视频网站| 色视频www国产| 老汉色∧v一级毛片| av视频在线观看入口| 黑人操中国人逼视频| 午夜a级毛片| 国内精品久久久久久久电影| 一区二区三区激情视频| 偷拍熟女少妇极品色| 怎么达到女性高潮| 亚洲国产精品999在线| 高清毛片免费观看视频网站| 亚洲国产精品合色在线| 麻豆国产97在线/欧美| 精品久久久久久久久久久久久| 村上凉子中文字幕在线| 久久久国产成人免费| 久久久久国产精品人妻aⅴ院| 久久精品夜夜夜夜夜久久蜜豆| 亚洲人成伊人成综合网2020| 国产精品乱码一区二三区的特点| 欧美黑人欧美精品刺激| 亚洲avbb在线观看| 国产av在哪里看| 久久性视频一级片| 国产毛片a区久久久久| 亚洲狠狠婷婷综合久久图片| 免费观看精品视频网站| 99re在线观看精品视频| 亚洲成人久久爱视频| 亚洲中文字幕日韩| 欧美激情在线99| 日日夜夜操网爽| 深夜精品福利| 中出人妻视频一区二区| 老汉色∧v一级毛片| 18禁裸乳无遮挡免费网站照片| 亚洲国产欧美网| 国产精品久久久人人做人人爽| 精品国产亚洲在线| 欧美日韩中文字幕国产精品一区二区三区| 最新在线观看一区二区三区| 一进一出抽搐gif免费好疼| 亚洲精品久久国产高清桃花| 国产精品乱码一区二三区的特点| 日韩三级视频一区二区三区| 精品久久久久久久久久久久久| 97人妻精品一区二区三区麻豆| 午夜激情福利司机影院| 亚洲熟女毛片儿| 男女视频在线观看网站免费| 亚洲一区二区三区不卡视频| 亚洲中文av在线| 国产在线精品亚洲第一网站| 黄色女人牲交| 99久国产av精品| 国产爱豆传媒在线观看| 69av精品久久久久久| 成人永久免费在线观看视频| 久久久久久国产a免费观看| 中文在线观看免费www的网站| 国产精品影院久久| 国产欧美日韩一区二区精品| av福利片在线观看| 香蕉丝袜av| 国产午夜精品论理片| 日韩三级视频一区二区三区| 怎么达到女性高潮| 丰满人妻一区二区三区视频av | 亚洲国产看品久久| 99久久精品国产亚洲精品| 网址你懂的国产日韩在线| 亚洲精品美女久久av网站| 男女那种视频在线观看| 人人妻人人澡欧美一区二区| 欧美成狂野欧美在线观看| 欧美精品啪啪一区二区三区| 精品国产乱码久久久久久男人| 美女被艹到高潮喷水动态| 亚洲av美国av| 久久午夜综合久久蜜桃| 宅男免费午夜| 最新美女视频免费是黄的| 在线永久观看黄色视频| 午夜福利成人在线免费观看| 国产精品久久久久久亚洲av鲁大| 无人区码免费观看不卡| 每晚都被弄得嗷嗷叫到高潮| 一本久久中文字幕| 在线观看免费视频日本深夜| 亚洲国产欧美一区二区综合| 亚洲欧美精品综合一区二区三区| 男女床上黄色一级片免费看| 久久久精品大字幕| 国产私拍福利视频在线观看| 99久久成人亚洲精品观看| 亚洲国产看品久久| 精品午夜福利视频在线观看一区| 日韩欧美精品v在线| 成人av在线播放网站| 两个人的视频大全免费| 两性夫妻黄色片| 日韩精品中文字幕看吧| 91在线精品国自产拍蜜月 | 欧美日韩福利视频一区二区| 日本成人三级电影网站| 一个人观看的视频www高清免费观看 | 一级毛片高清免费大全| 国产一区二区激情短视频| 欧美最黄视频在线播放免费| 久久亚洲精品不卡| 欧美中文综合在线视频| 国产不卡一卡二| x7x7x7水蜜桃| 午夜福利在线在线| 亚洲人成伊人成综合网2020| 国内少妇人妻偷人精品xxx网站 | 动漫黄色视频在线观看| 嫁个100分男人电影在线观看| 国产精品一区二区精品视频观看| 欧美日韩乱码在线| 亚洲一区二区三区不卡视频| 极品教师在线免费播放| 人人妻人人看人人澡| 天天添夜夜摸| 久久国产精品人妻蜜桃| 香蕉av资源在线| 精品久久久久久久久久免费视频| 中文字幕人妻丝袜一区二区| 免费观看精品视频网站| 久久精品国产清高在天天线| 真实男女啪啪啪动态图| 一进一出好大好爽视频| 脱女人内裤的视频| 午夜免费观看网址| 国产单亲对白刺激| 国内揄拍国产精品人妻在线| 色av中文字幕| 婷婷六月久久综合丁香| 欧美中文日本在线观看视频| 巨乳人妻的诱惑在线观看| 精品午夜福利视频在线观看一区| 国产av在哪里看| 精品午夜福利视频在线观看一区| av欧美777| 日本三级黄在线观看| 草草在线视频免费看| 制服人妻中文乱码| 国产一区二区在线av高清观看| 免费一级毛片在线播放高清视频| 久久中文字幕人妻熟女| 特级一级黄色大片| 99国产精品一区二区蜜桃av| 午夜两性在线视频| 好男人在线观看高清免费视频| 亚洲av成人不卡在线观看播放网| aaaaa片日本免费| 日本与韩国留学比较| 亚洲国产中文字幕在线视频| 精品久久久久久,| 免费看日本二区| avwww免费| 在线播放国产精品三级| 亚洲熟妇熟女久久| 亚洲av成人一区二区三| 亚洲欧美日韩卡通动漫| 欧美日韩精品网址| 欧美成人性av电影在线观看| 亚洲人成网站在线播放欧美日韩| 最近在线观看免费完整版| 97碰自拍视频| 色av中文字幕| 免费电影在线观看免费观看| 免费一级毛片在线播放高清视频| 国产精品av久久久久免费| 国产黄片美女视频| 嫩草影院入口| 我的老师免费观看完整版| 欧美日韩福利视频一区二区| 国产男靠女视频免费网站| 欧洲精品卡2卡3卡4卡5卡区| 欧美黑人欧美精品刺激| 久久精品国产综合久久久| 精品国产乱码久久久久久男人| 白带黄色成豆腐渣| 国产欧美日韩一区二区精品| 午夜免费成人在线视频| 国产激情久久老熟女| 国产成年人精品一区二区| 中文资源天堂在线| 男女视频在线观看网站免费| 亚洲熟女毛片儿| 精品一区二区三区四区五区乱码| 色在线成人网|