任趙旭,姬書(shū)得,林京鵬,胡為,宋崎
沈陽(yáng)航空航天大學(xué) 航空宇航學(xué)院,遼寧 沈陽(yáng) 110136
在圖像識(shí)別中,低對(duì)比度圖像的識(shí)別一直是該領(lǐng)域的難點(diǎn)。在光照強(qiáng)度過(guò)大或無(wú)光強(qiáng)的情況下,傳統(tǒng)的障礙物識(shí)別是利用圖像自身的灰度變化來(lái)分離障礙物與背景,然而在低對(duì)比度的圖像中,大部分物體的灰度變化強(qiáng)度相近,進(jìn)而易使匹配出錯(cuò),導(dǎo)致識(shí)別算法無(wú)法有效運(yùn)算[1-2]??滦犁萚3]針對(duì)郊外低對(duì)比度圖像,在傳統(tǒng)障礙物特征提取的基礎(chǔ)上,提出了利用Hough變換和基于數(shù)學(xué)形態(tài)學(xué)的線特征的改進(jìn)算法,進(jìn)而提高了線匹配質(zhì)量;謝丹玫等[4]提出了利用視頻采集卡及其SDK軟件開(kāi)發(fā)包和人類對(duì)比度分辨率補(bǔ)償算法,對(duì)暗視覺(jué)環(huán)境下的視頻采集進(jìn)行實(shí)時(shí)自適應(yīng)底層視頻挖掘,使常規(guī)的視頻采集設(shè)備具有了夜視的功能。但文獻(xiàn)[3]與文獻(xiàn)[4]均對(duì)環(huán)境適應(yīng)性較差。雷鳴等[5]提出了一種基于多線激光的單目相機(jī)檢測(cè)算法,通過(guò)觀測(cè)圖像中光帶的扭曲來(lái)計(jì)算障礙物的尺寸信息,但單目相機(jī)需要實(shí)時(shí)處理大量數(shù)據(jù),速度慢、魯棒性差;另外,基于多傳感器融合的障礙檢測(cè)技術(shù)也是一個(gè)重要的發(fā)展方向,Bruno Steyx等[6]已經(jīng)研制出在車上搭載多傳感器的智能車輛,通過(guò)多傳感器融合技術(shù)實(shí)現(xiàn)道路障礙檢測(cè)和路徑跟蹤,但目前多傳感器造價(jià)昂貴,不利于無(wú)人車輛的普及。
在很多工程實(shí)踐中,提取圖像之間的共同特征即可快速、有效地識(shí)別出物體。本文即運(yùn)用低成本的紅外激光網(wǎng)格發(fā)射裝置和紅外雙目攝像機(jī),提出了一種基于紅外激光網(wǎng)格路面障礙識(shí)別方法,利用障礙物會(huì)在網(wǎng)格線發(fā)生斷開(kāi)的現(xiàn)象識(shí)別障礙物并獲取其輪廓和距離。減少了所需處理的信息量,極大提升了檢測(cè)速度和精度,尤其對(duì)于低對(duì)比度圖像下障礙物特征信息的提取有極大優(yōu)勢(shì)。
隨著機(jī)器視覺(jué)領(lǐng)域的不斷發(fā)展壯大[7],雙目視覺(jué)不斷應(yīng)用在機(jī)器人導(dǎo)航與避障、機(jī)械臂的引導(dǎo)、三維成像、汽車導(dǎo)航等諸多領(lǐng)域[8-9],與目前其他測(cè)距方法相比,雙目測(cè)距具有成本低、精度高、方便快捷等優(yōu)點(diǎn)[10-11]。雙目視覺(jué)測(cè)距技術(shù)的基本原理是基于物體在左右相機(jī)像平面成像的相差,利用相似三角形的幾何關(guān)系,得到物體距相機(jī)的距離。
如圖1所示,任意一點(diǎn)P的相對(duì)位置在左右2個(gè)相機(jī)坐標(biāo)系中,設(shè)左側(cè)攝像機(jī)所在自身坐標(biāo)系o-xyz位于世界坐標(biāo)系原點(diǎn)處,且無(wú)旋轉(zhuǎn),圖像所在坐標(biāo)系為O1-X1Y1,其焦距為f1;右攝像機(jī)所在自身坐標(biāo)系為or-xryrzr,圖像所在自身坐標(biāo)系為Or-XrYr,其焦距為fr,則由攝像機(jī)投影變換可推導(dǎo)出模型:
o-xyz坐標(biāo)系與or-xryrzr坐標(biāo)系之間的相互轉(zhuǎn)換關(guān)系可以利用空間變換矩陣Mlr,如式(1)和式(2)所示:
(1)
其中
(2)
式中:R為o-xyz坐標(biāo)系和or-xryrzr坐標(biāo)系之間的旋轉(zhuǎn)矩陣,T為兩個(gè)坐標(biāo)系與原點(diǎn)之間得平移變換矢量。由模型公式可知,對(duì)于o-xyz坐標(biāo)系中的空間點(diǎn),兩相機(jī)相面點(diǎn)之間的對(duì)應(yīng)關(guān)系為
于是,空間點(diǎn)三維坐標(biāo)可以表示為
因此,已知兩個(gè)相機(jī)焦距fl、fr和被測(cè)點(diǎn)p的坐標(biāo)位置,只需知道矩陣R和矢量T就可以求出被測(cè)點(diǎn)的三維坐標(biāo)。在雙目相機(jī)經(jīng)過(guò)標(biāo)定后,便可以得知旋轉(zhuǎn)矩陣R和平移向量T,從而被測(cè)物體點(diǎn)的三維坐標(biāo)即可求得。
圖1 三維空間點(diǎn)重建
由于受到環(huán)境和物體間的相互遮擋等因素影響,從雙目相機(jī)提取出來(lái)的原始圖像網(wǎng)格線上點(diǎn)較密集,不僅顯得網(wǎng)格線較粗,而且數(shù)據(jù)量過(guò)大,不利于后期處理,因此有必要對(duì)這些點(diǎn)進(jìn)行篩選壓縮。為了去除這些無(wú)用點(diǎn)對(duì)激光網(wǎng)格直線擬合的影響,本文先從障礙物輪廓曲率入手進(jìn)行分析,采用道格拉斯普克算法(D-P)進(jìn)行處理,得到去除偏差較大的點(diǎn)之后的擬合直線,使其圖像網(wǎng)格直線更加符合原始數(shù)據(jù)分布。D-P算法是一種簡(jiǎn)單有效的提取網(wǎng)格直線關(guān)鍵點(diǎn)的方法,可根據(jù)特征點(diǎn)特性將圖像中的干擾點(diǎn)去除。如圖2所示,先分別計(jì)算C、D、E三點(diǎn)到直線AB的距離,得到三者當(dāng)中的最大值,圖中最大距離的點(diǎn)對(duì)應(yīng)為C點(diǎn),如果最大值小于規(guī)定的閾值,則C、D、E三點(diǎn)都舍去,此曲線用直線AB取代,否則C點(diǎn)保留。再分別計(jì)算D到AC和E到BC的距離,如果大于閾值則保留該點(diǎn),否則舍去。重復(fù)此過(guò)程,直到圖像中所有像素點(diǎn)都被檢測(cè)到為止。已知相機(jī)采集到的圖像中理想激光網(wǎng)格直線曲率半徑非常大,而所要去除的干擾點(diǎn)所構(gòu)成的直線邊緣的曲率半徑則比較小,采用D-P算法原理,設(shè)定相鄰 3個(gè)點(diǎn)的外接圓半徑為該3個(gè)點(diǎn)之間區(qū)域的曲率,之后通過(guò)采集網(wǎng)格直線上關(guān)鍵節(jié)點(diǎn)將網(wǎng)格區(qū)域分段,然后計(jì)算每一段的曲率,如果求得半徑小于設(shè)定的閾值,則該3點(diǎn)之間的所有點(diǎn)均舍去,不參與直線擬合,最后實(shí)現(xiàn)網(wǎng)格的細(xì)化處理。
圖2 D-P算法示意
激光網(wǎng)格的產(chǎn)生是采用衍射物質(zhì)將一個(gè)單一光點(diǎn)轉(zhuǎn)換成一個(gè)均勻網(wǎng)格,使光線按需要的亮度進(jìn)行網(wǎng)格分布。將規(guī)則的等密度的光線投射于障礙物之上可以得到被扭曲了的非均勻分布的圖像。為了讓測(cè)量精度更高和測(cè)量速度更快,因此沒(méi)有匹配圖像上所有的像素點(diǎn)坐標(biāo),而是采用了一種特征點(diǎn)匹配算法,匹配的是網(wǎng)格線的斷點(diǎn)。并通過(guò)將點(diǎn)的匹配轉(zhuǎn)化為直線的匹配,從而簡(jiǎn)化了匹配的復(fù)雜性,提高了匹配的精度與效率。
首先對(duì)細(xì)化后的圖像進(jìn)行總體搜索,搜索時(shí)所采用的方法是先將圖像中所有符合條件(非連續(xù)性直線)的斷線全部找出,然后再通過(guò)下述方法將多余直線排除掉,提取直線特征后,為了得到匹配的直線特征,需要利用有效的相似性度量的方法對(duì)直線特征進(jìn)行度量計(jì)算,然后經(jīng)過(guò)聚類形成直線特征集。直線聚類是將提取得到的直線,根據(jù)直線的空間鄰近性和相關(guān)特性,將符合一定條件的直線聚類組合[12-13]在一起,如圖3(a)所示,在選取符合條件的k條直線后,由k條直線和直線li組成直線特征集。直線li和p1分別稱為直線特征集的中心線和中心點(diǎn)。由直線li及其端點(diǎn)p1組成的直線特征集包含直線;同樣,以直線li及其端點(diǎn){li,la,lb,lc}組成的直線特征集包括直線{li,la,lb,lc}。通過(guò)描述直線對(duì)之間的空間結(jié)構(gòu)和幾何關(guān)系,為直線匹配做準(zhǔn)備。如圖3(b)所示,p1p2與q1q2為已知直線對(duì),為了描述直線對(duì)之間的相互關(guān)系,首先作虛線輔助線連接組成直線對(duì)的兩條直線端點(diǎn),得到p1q1p1q2p2q1p2q2四條直線,同時(shí)將端點(diǎn)p1和q1延長(zhǎng)相交于點(diǎn)c;然后定義如下5個(gè)角度采用長(zhǎng)度比例、角度關(guān)系和平均梯度值比值構(gòu)成特征向量來(lái)描述兩條直線的結(jié)構(gòu)關(guān)系。若用v表示該特征向量,Smn表示直線對(duì)的相似度,則
v={r1,r2,l1,l2,l3,l4,l5,θ1,θ2,θ3,θ4,θ5,g}
式中:r1、r2表示直線與交點(diǎn)c的比例關(guān)系,l1、l2、l3、l4、l5表示直線之間的長(zhǎng)度比,θ1、θ2、θ3、θ4、θ5表示組成線段之間的角度大小,g表示兩直線平均梯度比例值大小,T為閾值。
(a)聚類直線
(b)直線對(duì)描述
通過(guò)計(jì)算Smn找出橫向及縱向被障礙物分割的直線上所有的斷點(diǎn);然后將斷點(diǎn)與斷點(diǎn)逐一進(jìn)行試探性配對(duì),并且進(jìn)行連通性檢驗(yàn);最后計(jì)算斷點(diǎn)間距,只有間距小于某一經(jīng)驗(yàn)閾值,才可確定其身份。得到所需的斷點(diǎn)坐標(biāo)后通過(guò)特殊算法計(jì)算可以得到障礙物的輪廓大小及所在位置信息。
1)紅外激光網(wǎng)狀發(fā)射器 波長(zhǎng)為980 nm的3 000 mW的紅外不可見(jiàn)點(diǎn)狀激光模組搭配8×8網(wǎng)格效果透鏡。
2)雙目紅外攝像機(jī) 雙目視覺(jué)攝像頭選取了1080P/80幀機(jī)器攝像頭,3.6 mm焦距,同時(shí)選用CCD 傳感器作為圖像采集設(shè)備,通過(guò)圖像采集卡與計(jì)算機(jī)相連,計(jì)算機(jī)使用 VS2013 并配置了 OpenCv2.4.9 開(kāi)發(fā)包,保證兩個(gè)相機(jī)做到同步采集圖片。實(shí)驗(yàn)環(huán)境及設(shè)備如圖4、5所示。
圖4 實(shí)驗(yàn)環(huán)境
圖5 實(shí)驗(yàn)設(shè)備
兩個(gè)攝像機(jī)的光軸相互平行,利用本文采用的直線斷點(diǎn)匹配算法對(duì)白色背景中一白色柱狀障礙物進(jìn)行測(cè)試,計(jì)算出相機(jī)與障礙物的距離和外形尺寸;再根據(jù)實(shí)際距離求得測(cè)距誤差率,改變相機(jī)與障礙物的距離再次測(cè)試。
圖6為采用Canny 算子提取之后的圖像,這里采用參考文獻(xiàn)[3]Canny 提取算法和改進(jìn)線特征算法的檢測(cè)效果,從圖中可以看出該方法無(wú)法有效解決低對(duì)比度圖像的特征提取問(wèn)題。
圖6 Canny 算子提取
經(jīng)計(jì)算機(jī)首先將激光網(wǎng)格進(jìn)行灰度處理,之后將網(wǎng)格細(xì)化計(jì)算,處理前后的圖像如圖7所示。
(a)原始圖像
(b)灰度處理后的圖像
(c)網(wǎng)格細(xì)化后的圖像圖7 激光網(wǎng)格處理前后對(duì)比
實(shí)驗(yàn)結(jié)果如表1所示。實(shí)際物體高9.8 cm,寬4 cm,通過(guò)以上實(shí)驗(yàn)數(shù)據(jù),可以發(fā)現(xiàn)本文所采用的算法在簡(jiǎn)單外型的物體尺寸上測(cè)量較為準(zhǔn)確;當(dāng)測(cè)量距離控制在一定范圍內(nèi)時(shí),尺寸誤差率在5%以內(nèi),滿足特殊設(shè)計(jì)要求。
表1 前方障礙物測(cè)試實(shí)驗(yàn)數(shù)據(jù)
本文提出了一種利用激光網(wǎng)格的路面障礙識(shí)別方法,通過(guò)主動(dòng)發(fā)射紅外激光網(wǎng)格,紅外雙目相機(jī)進(jìn)行圖像采集,在自然場(chǎng)景復(fù)雜、對(duì)比度不高的情況下可以檢測(cè)到連續(xù)完整的特征直線,通過(guò)特征直線的斷點(diǎn)能夠很好地反應(yīng)障礙物的結(jié)構(gòu)特征,從而實(shí)現(xiàn)三維目標(biāo)識(shí)別,降低算法復(fù)雜度。進(jìn)一步地,表面不規(guī)則的障礙物可通過(guò)多次直線匹配算法分析表面特征,進(jìn)而得出障礙物外形尺寸及大致輪廓。由于實(shí)驗(yàn)設(shè)備有限,產(chǎn)生的網(wǎng)格激光粗細(xì)不夠均勻,未來(lái)可在實(shí)驗(yàn)中進(jìn)一步改進(jìn)。