劉 志,陳 超
(江蘇科技大學(xué) 機(jī)械工程學(xué)院,鎮(zhèn)江 212003)
一般來(lái)說(shuō)大多數(shù)盲人和視力障礙者使用的導(dǎo)盲工具基本為功能簡(jiǎn)單的手杖,當(dāng)今社會(huì)發(fā)展迅速,周?chē)沫h(huán)境變得越來(lái)越復(fù)雜,簡(jiǎn)單的手杖已經(jīng)不能適應(yīng)變化如此之快的環(huán)境.以導(dǎo)盲犬為代表的生物導(dǎo)盲方式受高訓(xùn)練成本、長(zhǎng)訓(xùn)練周期和壽命等影響始終無(wú)法普及.由于智能化機(jī)械越來(lái)越成熟,性能優(yōu)異的導(dǎo)盲機(jī)器人是解決盲人生活困難問(wèn)題的最優(yōu)解.
在導(dǎo)盲機(jī)器人自定位與自動(dòng)導(dǎo)引研究方面,文獻(xiàn)[1]利用超聲波和紅外傳感器結(jié)合模糊PID控制理論實(shí)現(xiàn)導(dǎo)盲機(jī)器人的尋跡導(dǎo)航功能,但是缺乏實(shí)用性,只能以局部環(huán)境避障作為工作主體.文獻(xiàn)[2]采用天線射頻識(shí)別(radio frequency identifcation,RFID)技術(shù)完成導(dǎo)盲機(jī)器人自主定位,但該方法需要在房間內(nèi)序言布置好射頻標(biāo)簽等硬件.文獻(xiàn)[3]利用Kinect深度相機(jī)進(jìn)行定位和地圖構(gòu)建,實(shí)現(xiàn)導(dǎo)盲機(jī)器人的蔽障和路徑規(guī)劃,但其構(gòu)建的地圖是直接將Kinect獲取的三維模型進(jìn)行平面投影所得,與真實(shí)環(huán)境相差較大.可見(jiàn)傳統(tǒng)的導(dǎo)盲機(jī)器人難以實(shí)現(xiàn)對(duì)復(fù)雜環(huán)境精確而有效的認(rèn)知,且無(wú)法完成全局定位和導(dǎo)航,在人機(jī)交互方面上也存在較為明顯的不足.在數(shù)據(jù)融合地圖構(gòu)建(simultaneous localization and mapping,SLAM)方面國(guó)內(nèi)的相關(guān)研究還很少,文獻(xiàn)[4]使用Kinect和激光雷達(dá)進(jìn)行數(shù)據(jù)融合,優(yōu)化所得地圖;文獻(xiàn)[5]對(duì)飛行時(shí)間技術(shù)(time of flight,TOF)相機(jī)和Kinect進(jìn)行融合,獲得更精細(xì)的點(diǎn)云,構(gòu)建更準(zhǔn)確的三維地圖;文獻(xiàn)[6]使用聲納和激光雷達(dá)進(jìn)行數(shù)據(jù)融合,使得機(jī)器人在低能見(jiàn)度下進(jìn)行SLAM.
為解決上述研究中存在的不足,針對(duì)導(dǎo)盲機(jī)器人的功能特點(diǎn),提出將激光雷達(dá)和深度傳感器進(jìn)行數(shù)據(jù)融合的構(gòu)建導(dǎo)盲機(jī)器人SLAM方法.首先通過(guò)對(duì)比現(xiàn)階段在機(jī)器人操作系統(tǒng)(robot operating system,ROS)中常用的二維SLAM方法來(lái)建立導(dǎo)盲機(jī)器人激光雷達(dá)的二維地圖;然后通過(guò)Kinect建立環(huán)境的三維地圖,結(jié)合Kinect生成的三維環(huán)境模型地圖數(shù)據(jù)信息豐富但數(shù)據(jù)精度欠缺的特點(diǎn)和激光雷達(dá)構(gòu)建的二維地圖進(jìn)行拼接,彌補(bǔ)激光雷達(dá)構(gòu)建二維地圖數(shù)據(jù)精確但相對(duì)來(lái)說(shuō)數(shù)據(jù)信息較少的缺點(diǎn),得到融合二者優(yōu)點(diǎn)的三維空間障礙物模型地圖;最后以Turtlebot2為基礎(chǔ)搭建實(shí)驗(yàn)平臺(tái),在真實(shí)環(huán)境中對(duì)所提方法進(jìn)行實(shí)驗(yàn)驗(yàn)證和比較.
SLAM方法可大致分為兩大類(lèi):基于濾波器的方法,以及基于圖優(yōu)化的方法[7].目前ROS系統(tǒng)中有5種常用的SLAM構(gòu)建方法:HectorSLAM、Gmapping、KartoSLAM、CoreSLAM 和LagoSLAM.通過(guò)對(duì)這5種方法的優(yōu)缺點(diǎn)和精確的定量比較,定義一個(gè)通用的準(zhǔn)則,選取一種合適導(dǎo)盲機(jī)器人使用的方法.
HectorSLAM[8]對(duì)掃描的頻率有較高的要求,當(dāng)掃描頻率較低時(shí)無(wú)法取得良好的結(jié)果,該方法不需要里程計(jì)的數(shù)據(jù),適用于飛行器和在地形起伏較大的地面行駛的機(jī)器人.HectorSLAM是結(jié)合已經(jīng)構(gòu)建的地圖對(duì)激光束點(diǎn)陣進(jìn)行優(yōu)化,以此來(lái)預(yù)測(cè)激光點(diǎn)在實(shí)際地圖中的位置以及占據(jù)柵格的概率,從而更新地圖.Gmapping[9]采用基于RBPF (Rao-Blackwellized particle filter)粒子濾波的Fast SLAM 2.0算法.其利用擴(kuò)展卡爾曼濾波將當(dāng)前機(jī)器人的環(huán)境觀測(cè)信息融入粒子濾波器的提議分布設(shè)計(jì)之中,使得粒子集中地分布于高觀測(cè)似然區(qū)域,自適應(yīng)重采樣技術(shù)引入減少了粒子耗散問(wèn)題,計(jì)算粒子分布的時(shí)候不單單僅依靠機(jī)器人的運(yùn)動(dòng),同時(shí)將當(dāng)前觀測(cè)考慮進(jìn)去,減少了機(jī)器人位置在粒子濾波步驟中的不確定性.KartoSLAM[10]和LagoSLAM[11]是基于圖優(yōu)化的方法,CoreSLAM[12]是為了簡(jiǎn)單和容易理解最小化性能損失而設(shè)計(jì)的一種SLAM算法.
在仿真環(huán)境stdr-simulator仿真器中選取一個(gè)簡(jiǎn)單的樓層地圖作為實(shí)驗(yàn)環(huán)境,地圖總大小為20 m×15 m,共有6個(gè)房間,每個(gè)房間大小為5 m×4.5 m,加載機(jī)器人半徑為0.15 m,在機(jī)器人中部安裝URG-04LX激光雷達(dá),掃描半徑為4 m,掃描范圍為270°,模擬地圖和生成地圖如圖1.
圖1 仿真環(huán)境下機(jī)器人構(gòu)建的地圖Fig.1 SLAM in simulation environment
結(jié)果表明,在仿真環(huán)境下,HectorSLAM、Gmapping和KartoSLAM表現(xiàn)較好,其中Gmapping最為精確,CoreSLAM和LagoSLAM存在較為明顯的誤差.
文中基于Kinect傳感器的實(shí)時(shí)三維環(huán)境構(gòu)建地圖,先提取彩色圖像中的特征點(diǎn),計(jì)算其在深度點(diǎn)云空間中所對(duì)應(yīng)的三維坐標(biāo);而后進(jìn)行彩色圖像配準(zhǔn),利用配準(zhǔn)中得到的運(yùn)動(dòng)結(jié)構(gòu)信息,進(jìn)行深度圖像的拼接;最后形成同一坐標(biāo)系中的三維環(huán)境地圖.
2.1.1 特征點(diǎn)提取
文中選擇點(diǎn)特征作為視覺(jué)路標(biāo),選用FAST角點(diǎn)檢測(cè)方法,FAST[13]角點(diǎn)檢測(cè)利用像素點(diǎn)某個(gè)鄰域內(nèi)相鄰像素點(diǎn)灰度值的差異值的大小來(lái)決定該點(diǎn)是否為角點(diǎn).該方法具有旋轉(zhuǎn)不變性,以及較快的速度和較多的檢測(cè)數(shù)量,能支持實(shí)時(shí)系統(tǒng).
2.1.2 特征點(diǎn)匹配
采用的特征點(diǎn)匹配算法是歸一化互相關(guān)匹配(normalized cross correlation,NCC),原理是計(jì)算相鄰幀上角點(diǎn)鄰域內(nèi)所有像素點(diǎn)灰度值的相關(guān)性,利用相關(guān)系數(shù)來(lái)進(jìn)行圖像匹配[13](圖2).在圖像n中以角點(diǎn)A為中心取一個(gè)大小為(2l+1)×(2k+1)的鄰域T,在待配準(zhǔn)圖片m中以B點(diǎn)在圖像n中的坐標(biāo)為中心選取一個(gè)大小為(2H+1)×(2W+1)的搜索域S,然后對(duì)鄰域T和搜索域S進(jìn)行歸一化互相關(guān)計(jì)算,將鄰域T疊放在搜索域S上平移.若搜索域中S中的某個(gè)角點(diǎn)B大于設(shè)定的閾值,則待配準(zhǔn)圖片m中的B與圖像n中的A相匹配,認(rèn)定是空間中的同一點(diǎn).
圖2 NCC算法示意Fig.2 Schematic diagram of NCC algorithm
在獲取可靠的特征點(diǎn)對(duì)后,需要對(duì)三維點(diǎn)云進(jìn)行匹配,使用迭代最近點(diǎn)(iterative closest points, ICP)算法,對(duì)于兩個(gè)來(lái)自不同坐標(biāo)系的三維數(shù)據(jù)點(diǎn)集,找出兩個(gè)點(diǎn)集之間的空間變換, 對(duì)它們進(jìn)行空間匹配.文中采用FAST角點(diǎn)檢測(cè)和NCC角點(diǎn)匹配是為了減小點(diǎn)集元素的數(shù)目,使用k-d tree來(lái)尋找特征點(diǎn)在參考點(diǎn)云中的最近點(diǎn),不用遍歷三維點(diǎn)云中的每一個(gè)數(shù)據(jù),減少算法的時(shí)間代價(jià).ICP三維點(diǎn)云匹配流程如圖3.
圖3 ICP算法Fig.3 ICP algorithm
激光雷達(dá)構(gòu)建的二維SLAM地圖在精度、速度和魯棒性方面都有很大的優(yōu)勢(shì),但是二維的激光雷達(dá)只能獲取某一個(gè)平面內(nèi)的環(huán)境信息,無(wú)法獲取立體的環(huán)境信息,將Kinect建立的三維環(huán)境模型與激光雷達(dá)建立的二維地圖進(jìn)行拼接融合,既保留了激光雷達(dá)的高精度等優(yōu)點(diǎn),又增加了三維環(huán)境的認(rèn)知.
圖像拼接方法的具體步驟如下:首先使用坎尼邊緣檢測(cè)法對(duì)地圖進(jìn)行邊緣檢測(cè),對(duì)于三維模型地圖需選取某一層來(lái)進(jìn)行;然后使用擴(kuò)展相位相關(guān)法直接計(jì)算出兩幅地圖的平移、旋轉(zhuǎn)和尺度變化參數(shù),使用這些參數(shù)來(lái)拼接兩幅地圖內(nèi)的圖像邊緣;地圖的融合使用漸入漸出法,即在拼接地圖中的重疊區(qū)域,由第一幅地圖慢慢過(guò)渡到第二幅,從而保持拼接地圖在視覺(jué)上的一致性.
坎尼(Canny)算子是一種最優(yōu)的邊緣檢測(cè)算子,廣泛應(yīng)用在數(shù)字圖像處理領(lǐng)域[14].其檢測(cè)邊緣的標(biāo)準(zhǔn)是:低誤判率;高定位精度;抑制虛假邊緣,盡可能地把圖像中的邊緣點(diǎn)誤認(rèn)為是非邊緣點(diǎn),同時(shí)準(zhǔn)確地將圖像的邊緣點(diǎn)定位在灰度差異最大的像素點(diǎn)上,并盡量抑制圖像中虛假邊緣的產(chǎn)生.
坎尼邊緣檢測(cè)流程如下:
(1) 由于大多圖像數(shù)據(jù)中含有噪聲,噪聲點(diǎn)與附近像素點(diǎn)梯度幅值差異大,容易將其無(wú)檢測(cè)視為邊緣點(diǎn),所以利用高斯濾波器對(duì)要處理的圖像進(jìn)行卷積濾波,減小噪聲對(duì)梯度計(jì)算的影響.高斯濾波器如下:
(1)
(2) 使用一階差分算子分別算出水平方向和垂直方向的梯度幅值分量,進(jìn)而得到圖像的梯度的幅值M和方向θ:
(2)
θ=arctan(Gy/Gx)
(3)
(3) 非極大值抑制.對(duì)梯度幅值圖像M(i,j)上每個(gè)像素和梯度方向上兩個(gè)相鄰像素進(jìn)行插值計(jì)算,獲得該像素的梯度幅值,如果該像素的梯度幅值是大的,則把該像素視為可能的邊緣點(diǎn),認(rèn)為是非邊緣點(diǎn),梯度幅值圖像M(i,j)經(jīng)過(guò)非極大值抑制得到圖像NMS(i,j).
(4) 雙閾值檢測(cè)和邊緣連接.遍歷圖像NMS(i,j),分別使用高閾值Th和低閾值Tl進(jìn)行閾值化獲得邊緣圖像E1和E2,E1是強(qiáng)邊緣點(diǎn),可能出現(xiàn)間斷,E2是弱邊緣點(diǎn).跟蹤E1中的邊緣,如果邊緣遇到端點(diǎn),則在圖像E2相對(duì)位置的8鄰域內(nèi)尋找邊緣點(diǎn)來(lái)連接E1中的間斷,經(jīng)過(guò)持續(xù)的邊緣跟蹤,把圖像E1中邊緣的間斷連接起來(lái).
將對(duì)數(shù)極坐標(biāo)變換與相位相關(guān)法相結(jié)合,形成了擴(kuò)展相位相關(guān)法,目的是解決同時(shí)存在相對(duì)平移、旋轉(zhuǎn)和尺度變化的兩幅圖像的配準(zhǔn)問(wèn)題[14].
假設(shè)兩幅圖像信號(hào)f1(x,y)和f2(x,y)滿足:
(4)
即f2(x,y)相對(duì)f1(x,y)沿正時(shí)針?lè)较蛐D(zhuǎn)了θ0角度,尺度變化了α倍,平移了(x0,y0),要根據(jù)已知圖像f1(x,y)和f2(x,y)求出參數(shù)角度θ0、尺度因子α和平移量(x0,y0),使用擴(kuò)展相位相關(guān)法:
(1) 對(duì)f1(x,y)和f2(x,y)分別取傅里葉變換得F1(μ,υ)和F2(μ,υ),應(yīng)滿足:
(5)
(2) 對(duì)F1(μ,υ)和F2(μ,υ)取模得M1(μ,υ)和M2(μ,υ),則有:
(6)
(3) 對(duì)M1(μ,υ)和M2(μ,υ)進(jìn)行對(duì)數(shù)極坐標(biāo)變換,即把這兩幅圖像從笛卡爾系中變換成對(duì)數(shù)極坐標(biāo)系.
對(duì)M1(μ,υ)和M2(μ,υ)做極坐標(biāo)變換得M1(ρ,θ)和M2(ρ,θ),由式(6)得:
M2(ρ,θ)=α2M1(αρ,θ+θ0)
(7)
式中:ρ為極徑,θ為極角.對(duì)式(7)沿ρ軸取對(duì)數(shù)得:
M2(lgρ,θ)=α2M1(lgρ+lgα,θ+θ0)
(8)
令γ=lgρ,γ0=lgα,則式(8)變?yōu)?
M2(γ,θ)=α2M1(γ+γ0,θ+θ0)
(9)
式中:γ為對(duì)數(shù)極徑.式(9)表示尺度因子和旋轉(zhuǎn)角度在對(duì)數(shù)極坐標(biāo)系中表現(xiàn)為M1(γ,θ)和M2(γ,θ)的相對(duì)平移量.
(4) 相位相關(guān)法求解尺度因子α和平移量(x0,y0).
將M1(γ,θ)和M2(γ,θ)做傅里葉變換得Fm1(μ,υ)和Fm2(μ,υ),則其歸一化互功率譜為:
(10)
將C(μ,υ)進(jìn)行傅里葉反變換得:
c(γ,θ)=δ(γ-γ0,θ-θ0)
(11)
(5) 對(duì)圖像f1(x,y)沿正時(shí)針?lè)较蛐D(zhuǎn),并尺度變化α倍得到相對(duì)于f2(x,y)僅存在(x0,y0)平移的圖像,再次使用步驟(4)就可以求解平移量(x0,y0).
為了驗(yàn)證文中所述的方法能合理有效地應(yīng)用于導(dǎo)盲機(jī)器人,以Turtlebot2為基礎(chǔ)搭建實(shí)驗(yàn)平臺(tái),主要包括:Yujin Kobuki移動(dòng)底座、Kinect攝像機(jī)、HOKUYO激光雷達(dá)和筆記本電腦以及其他輔件,如圖6.
圖6 實(shí)驗(yàn)平臺(tái)Fig.6 Experiment platform
真實(shí)場(chǎng)景中的實(shí)驗(yàn)選擇在有4條走廊的辦公樓,其中最長(zhǎng)的走廊長(zhǎng)度為45 m,寬度為2 m,用手柄控制移動(dòng)機(jī)器人采集走廊環(huán)境信息,并使用不同方式構(gòu)建地圖,所得地圖如圖7.
經(jīng)過(guò)實(shí)驗(yàn)發(fā)現(xiàn)其精度由激光雷達(dá)的掃描頻率決定,低掃描頻率下誤差較大,所以HectorSLAM只適用于高性能的激光雷達(dá).Gmapping在所有試驗(yàn)中表現(xiàn)出最好的精確性和魯棒性,通過(guò)里程計(jì)和掃描匹配的結(jié)合減少了粒子數(shù)量,并且能長(zhǎng)時(shí)間保持精度,錯(cuò)誤率和CPU使用率都較低.
圖7 真實(shí)環(huán)境下機(jī)器人構(gòu)建的地圖Fig.7 SLAM in actual environment
KartoSLAM和LagoSLAM都是基于圖優(yōu)化的SLAM方法,KartoSLAM提供精確的地圖較低的CPU負(fù)載,而LagoSLAM生成地圖誤差和CPU負(fù)載較高,原因在于兩者使用的節(jié)點(diǎn)配置和優(yōu)化方式不一樣.CoreSLAM在整個(gè)試驗(yàn)中結(jié)果最差,主要是因?yàn)樗鼪](méi)有回環(huán)檢測(cè)環(huán)節(jié),CoreSLAM設(shè)計(jì)的初衷是在長(zhǎng)走廊中進(jìn)行SLAM,使用簡(jiǎn)單的粒子濾波環(huán)節(jié)來(lái)匹配雷達(dá)數(shù)據(jù)來(lái)構(gòu)建地圖,由圖7,它在較細(xì)的長(zhǎng)廊中表現(xiàn)差強(qiáng)人意,但是其他地方的位置錯(cuò)誤估計(jì)較多.5種方法在構(gòu)建地圖時(shí)的CPU使用率如表1,測(cè)量時(shí)間為360 s.
表1 不同SLAM方法的CPU使用率Table 1 CPU Load of the 2D SLAM approaches %
經(jīng)過(guò)在仿真環(huán)境和真實(shí)環(huán)境中的對(duì)比,Gmapping方法在各方面表現(xiàn)較好,速度快,魯棒性好,因此選用Gmapping作為導(dǎo)盲機(jī)器人的二維地圖構(gòu)建方法.
Kinect的三維SLAM地圖建立在一個(gè)房間里進(jìn)行,機(jī)器人在一個(gè)矩形房間里環(huán)繞一周,采集環(huán)境信息,當(dāng)某一幀的特征點(diǎn)數(shù)量太小,則舍棄該幀,當(dāng)機(jī)器人的移動(dòng)小于5 cm或者轉(zhuǎn)角小于2°,也舍棄這些幀的數(shù)據(jù).Kinect建立的三維模型和渲染效果如圖8(a)和(b),(c)為去除地面特征的效果.
圖8 三維模型獲取及渲染效果Fig.8 3D model
在同一個(gè)房間內(nèi)使用Kinect建立三維SLAM地圖,再使用激光雷達(dá)建立二維SLAM地圖,然后進(jìn)行三維模型和二維地圖的拼接,后期將整個(gè)流程集成到一個(gè)功能包中.該房間大小為5 m×7 m,當(dāng)機(jī)器人環(huán)繞場(chǎng)地一周后,同時(shí)構(gòu)建二維和三維地圖,并完成拼接,第一幀的結(jié)果如圖9(a);整個(gè)房間的構(gòu)圖和拼接結(jié)果如圖9(b);去除點(diǎn)云信息后保留的二維地圖如圖9(c),可見(jiàn)即使是在障礙物較多、環(huán)境較為復(fù)雜的房間內(nèi),依然可以獲得較為理想的結(jié)果.由于Kinect精度以及導(dǎo)盲機(jī)器人速度控制等不可避免的問(wèn)題,匹配遺漏的現(xiàn)象還會(huì)存在,想取得良好的實(shí)驗(yàn)結(jié)果,需保持機(jī)器人均勻低速運(yùn)行.
圖9 地圖拼接Fig.9 Map merging
(1) 仿真環(huán)境和實(shí)際環(huán)境中對(duì)幾種ROS系統(tǒng)下的SLAM算法進(jìn)行對(duì)比,分析各自的圖像質(zhì)量、運(yùn)行速度、魯棒性和CUP使用率,總結(jié)得出Gmapping算法最適合室內(nèi)導(dǎo)盲機(jī)器人使用.
(2) 利用深度傳感器Kinect采集的信息,采用FAST角點(diǎn)檢測(cè)提取穩(wěn)定特征點(diǎn),并使用歸一化互相關(guān)匹配法進(jìn)行特征點(diǎn)匹配,再使用ICP算法對(duì)獲取的深度圖像進(jìn)行精確配準(zhǔn),得到三維環(huán)境地圖,圖中包含環(huán)境內(nèi)的三維深度信息,但是在相應(yīng)速度和精度上略有不足.
(3) 提出了一種基于激光雷達(dá)和Kinect信息融合的導(dǎo)盲機(jī)器人SLAM方法,通過(guò)綜合激光傳感器和深度圖象傳感器Kinect在采集數(shù)據(jù)和精度方面的優(yōu)缺點(diǎn),使用邊緣擴(kuò)展相位相關(guān)法,對(duì)Kinect生成的三維SLAM地圖和激光雷達(dá)構(gòu)建的二維SLAM地圖進(jìn)行拼接,得到融合二者優(yōu)點(diǎn)的三維空間障礙物模型地圖.在真實(shí)環(huán)境中進(jìn)行實(shí)驗(yàn),發(fā)現(xiàn)融合激光和深度信息的三維空間障礙物模型地圖能足夠全面和精確的認(rèn)知環(huán)境,機(jī)器人因此能更好地完成導(dǎo)盲任務(wù).
(4) 采用分布式ROS機(jī)器人操作系統(tǒng),使得整個(gè)機(jī)器人具有良好的實(shí)時(shí)性,文中激光掃描匹配和深度特征的提取與匹配很好的解決了機(jī)器人在構(gòu)建地圖的過(guò)程中遇到移動(dòng)物體的干擾,所得地圖包含了室內(nèi)二維和三維的信息,并且所得地圖可以直接用于后續(xù)的機(jī)器人定位和導(dǎo)盲,配合相應(yīng)的蔽障和路徑規(guī)劃算法可以讓導(dǎo)盲機(jī)器人自主移動(dòng),進(jìn)而可以引導(dǎo)盲人安全行走.
參考文獻(xiàn)(References)
[ 1 ] 張志美, 程立英, 趙以恒, 等. 基于模糊PID控制算法的導(dǎo)盲機(jī)器人研究[J]. 沈陽(yáng)師范大學(xué)學(xué)報(bào)(自然科學(xué)版), 2015, 33(1): 81-85
ZHANG Zhimei, CHEN Liying, ZHAO Yiheng, et al. Fuzzy-PID arithmetic for blind guiding robots [J].Journal of Shenyang Normal University(Natural Science Edition),2015, 33(1):81-85.(in Chinese)
[ 2 ] 陳超,唐堅(jiān),靳祖光.基于RFID技術(shù)導(dǎo)盲機(jī)器人室內(nèi)路徑規(guī)劃的研究[J].江蘇科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,27(1):60-63.DOI:10.3969/j.issn.1673-4807.2013.01.014.
CHEN Chao, TANG Jian, JIN Zuguang. Indoor path planning for seeing eyes robot based on RFID[J].Journal of Jiangsu University of Science and Technology(Natural Science Edition),2013,27(1):60-63.DOI:10.3969/j.issn.1673-4807.2013.01.014.(in Chinese)
[ 3 ] 張?zhí)?陳超. 突破環(huán)境限制的導(dǎo)盲方法[J]. 中國(guó)圖象圖形學(xué)報(bào),2015, 20(11):1545-1551.
ZHENG Tan,CHEN Chao.Guiding the blind to overcome environment limitation [J].Journal of Image and Graphics,2015, 20(11):1545-1551. (in Chinese)
[ 4 ] YEON A S A, KAMARUDIN K, VISVANATHAN R, et al. Feasibility analysis of 2D-SLAM using combination of kinect and laser scanner[J]. Jurnal Teknologi, 2015, 76(12).
[ 5 ] VIEJO D, GARCIA-RODRIGUEZ J, CAZORLA M. Combining visual features and growing neural gas networks for robotic 3D SLAM[J]. Information Sciences, 2014, 276: 174-185. DOI:10.1016/j.ins.2014.02.053.
[ 6 ] SANTOS J M, COUCEIRO M S, PORTUGAL D, et al. A sensor fusion layer to cope with reduced visibility in SLAM[J]. Journal of Intelligent & Robotic Systems, 2015, 80(3): 401-422. DOI:10.1007/s10846-015-0180-8.
[ 7 ] 梁明杰,閔華清,羅榮華. 基于圖優(yōu)化的同時(shí)定位與地圖創(chuàng)建綜述[J]. 機(jī)器人,2013, 35(4):500-512.
LIANG Mjingjie,MIN Huaqing,LUO Ronghua.Graph-based SLAM: A Survey [J]. Robots, 2013, 35(4):500-512. (in Chinese)
[ 8 ] KOHLBRECHER S, STRYK O V, MEYER J, et al. A flexible and scalable SLAM system with full 3D motion estimation[C]//IEEE International Symposium on Safety, Security, and Rescue Robotics. IEEE, 2011:155-160.
[ 9 ] SANTOS J M, PORTUGAL D, ROCHA R P. An evaluation of 2D SLAM techniques available in robot operating system[J]. 2013 IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR), 2013. DOI:10.1109/ssrr.2013.6719348.
[10] DHIMAN N K, DEODHARE D, KHEMANI D. Where am I? Creating spatial awareness in unmanned ground robots using SLAM: A survey[J]. Sadhana, 2015, 40(5): 1385-1433. DOI:10.1007/s12046-015-0402-6.
[11] SANTOS J M, PORTUGAL D, ROCHA R P. An evaluation of 2D SLAM techniques available in robot operating system[J]. 2013 IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR), 2013. DOI:10.1109/ssrr.2013.6719348.
[12] VERKEENKO M S. Development of an algorithm for fast corner points detection[J]. Journal of Computer and Systems Sciences International, 2014, 53(3): 392-401. DOI:10.1134/s1064230714030162.
[13] SHEN X, BAO W. The remote sensing image matching algorithm based on the normalized cross-correlation and SIFT[J]. Journal of the Indian Society of Remote Sensing, 2013, 42(2): 417-422. DOI:10.1007/s12524-013-0323-y.
[14] 曾俊. 圖像邊緣檢測(cè)技術(shù)及其應(yīng)用研究[D].華中科技大學(xué),2011:17-38.