洪 敏,周鳴爭(zhēng),梁祥君,修 宇 (安徽工程大學(xué)計(jì)算機(jī)與信息學(xué)院,安徽蕪湖241000)
目前,車道標(biāo)識(shí)線的檢測(cè)方法基本上可以分2大類[1]:基于特征的方法和基于模型的方法?;谔卣鞯姆椒ㄖ饕抢玫缆仿访嫔系囊恍┨卣?,如顏色特征、紋理特征、灰度梯度等,從所獲取的圖像中提取出這些道路信息,實(shí)現(xiàn)道路的區(qū)域分割,這種方法的主要特點(diǎn)是算法比較簡(jiǎn)單,實(shí)時(shí)性好,但對(duì)環(huán)境因素不敏感;基于模型的方法主要是利用二維道路圖像模型進(jìn)行道路識(shí)別的方法;這種方法具有較高的魯棒性,但處理的計(jì)算量比較大,實(shí)時(shí)性較差。
由于現(xiàn)實(shí)中的道路多種多樣,道路路面容易受到外部影響,如噪聲、光照、陰雨天氣以及道路標(biāo)識(shí)線缺失等復(fù)雜情況,常用的算法大多數(shù)是基于模型的方法:文獻(xiàn) [2]采用車道變換模型 (該模型已廣泛用于車道檢測(cè)和跟蹤),這種方法依賴于數(shù)學(xué)模型來(lái)擬合道路邊界,在一般情況下,簡(jiǎn)單的模型 (如直線)不提供精確匹配,復(fù)雜的模型 (如拋物線和曲線)更加靈活;文獻(xiàn) [3]采用B樣條曲線模型,并采用最大偏向定位方法,但當(dāng)?shù)缆仿访娌皇撬綍r(shí),算法就會(huì)出現(xiàn)較大偏差;文獻(xiàn) [4]提出了一個(gè)線性拋物模型可以遵循的車道線,他們用固定寬度的跟蹤來(lái)偵測(cè)可能的邊緣;文獻(xiàn) [5]特定興趣區(qū)域假設(shè)。僅對(duì)圖像中特定區(qū)域進(jìn)行處理,從而縮短處理時(shí)間,降低算法的復(fù)雜度以及誤判率;文獻(xiàn) [6]在跟蹤方面采用了粒子濾波方法,粒子濾波可以用多種特征加權(quán)度量,但粒子濾波的誤差方差陣是手工加入的,太大太小都會(huì)影響濾波器性能。因此,筆者提出一種基于線性拋物線模型的車道檢測(cè)與跟蹤,并用卡爾曼濾波方法對(duì)模型參數(shù)進(jìn)行更新,仿真結(jié)果表明所提出的方法性能良好。
通過(guò)攝像機(jī)獲取汽車前方一定范圍內(nèi)的圖像數(shù)據(jù)。其裝設(shè)位置位于車輛前擋風(fēng)玻璃與車內(nèi)后視鏡之間,由于車道檢測(cè)必須在影像坐標(biāo)上進(jìn)行,車道線的影像處理結(jié)果由二維圖像經(jīng)透視法[7]轉(zhuǎn)換,還原到物體的三維空間坐標(biāo),以獲得車道的真實(shí)空間的位置,如圖1所示。因此,將影像平面的物體轉(zhuǎn)化為式 (1)、(2)、(3)之實(shí)際物體的世界坐標(biāo)值,然后將轉(zhuǎn)換式帶入道路模型中。其中,X、Y、Z是世界坐標(biāo)系;X′、Y′、Z′是攝像機(jī)坐標(biāo);u、v是圖像坐標(biāo);H是攝像機(jī)距地面的高度;mθ攝像機(jī)傾斜斜率。
圖1 攝像機(jī)投影模型
筆者采用在道路前方設(shè)置水平搜索帶和左右探測(cè)區(qū)域的方法限制車道線檢測(cè)區(qū)域,實(shí)現(xiàn)車道線檢測(cè)算法。算法的基本思路是:以前一幀識(shí)別結(jié)果為中心,左右一定寬度范圍為探測(cè)區(qū)域。在世界坐標(biāo)系下,設(shè)置等間隔水平線,以水平線上下一定寬度范圍的區(qū)域?yàn)樗剿阉鲙?。水平搜索帶與探測(cè)區(qū)域相交的區(qū)域?yàn)檐嚨谰€檢測(cè)感興趣區(qū)域 (ROI),然后算法將在ROI內(nèi)搜索車道線上點(diǎn)。探測(cè)區(qū)域、水平搜索帶和ROI設(shè)置原理如圖2所示。
探測(cè)區(qū)域是以前一楨的識(shí)別結(jié)果為中心,左右一定寬度范圍的區(qū)域。左車道對(duì)應(yīng)有左探測(cè)區(qū)域,右車道對(duì)應(yīng)有右探測(cè)區(qū)域,探測(cè)區(qū)域表示了當(dāng)前車道線可能出現(xiàn)的位置。在確定探測(cè)區(qū)域的寬度時(shí),以車道標(biāo)志線的寬度為基準(zhǔn)設(shè)置,具體方法是:
圖2 感興趣區(qū)域 (ROI)的設(shè)置
式中,mi表示ROI在第i條掃描線上的寬度;Mi是圖像坐標(biāo)系下第i條掃描線上車道標(biāo)志線的寬度;α是一個(gè)設(shè)定的常數(shù),它表示了ROI寬度與標(biāo)志線寬度之間的關(guān)系。
道路邊緣檢測(cè)從某種意義上說(shuō)實(shí)質(zhì)是邊緣像素的提取,常用的邊緣檢測(cè)算子有Sobel、Canny、Laplace、Prewitt、Roberts等。其中,Prewitt、Roberts和Sobel是基于一階導(dǎo)數(shù)的邊緣算子;Laplace是基于二階導(dǎo)數(shù)的邊緣算子;Canny是另外一類邊緣算子。Roberts、Canny、Laplace算子對(duì)噪聲敏感,Sobel受噪聲影響較小,對(duì)噪聲具有平滑作用,Sobel算子可以增大道路邊界與道路其他部分的灰度值差異。綜合考慮算子的性能與實(shí)時(shí)性,筆者提出的算法采用Sobel算子進(jìn)行邊緣提取。道路圖像經(jīng)過(guò)Sobel算子處理后,得到道路邊緣,由于現(xiàn)實(shí)環(huán)境中道路標(biāo)識(shí)線往往受到樹蔭、水跡、光照等影響,使得圖像中還可能存在很多雜點(diǎn)。為此,筆者引入多區(qū)域雙閾值算法[7]來(lái)解決這個(gè)問(wèn)題。算法采用的方法是將原圖像灰度閾值和Sobel算子處理后圖像相結(jié)合進(jìn)行處理,凡是邊緣強(qiáng)度大于高閾值的一定是邊緣點(diǎn),凡是邊緣強(qiáng)度小于低閾值的一定不是邊緣點(diǎn)。如果邊緣強(qiáng)度在兩者之間,則要看這個(gè)像素的臨接像素中有沒有超過(guò)高閾值的邊緣點(diǎn),如果有,就是邊緣點(diǎn);如果沒有,就不是邊緣點(diǎn)。分割的標(biāo)準(zhǔn)如下:
式中,pixelorigin是原圖像的像素值;pixelsobel是原圖像經(jīng)過(guò)Sobel算子處理后的像素值;thresholdorigin是對(duì)原圖像中車體前方特定區(qū)域進(jìn)行采樣后得到的閾值;thresholdsobel為常數(shù),通常為254。算法對(duì)圖像進(jìn)行閾值處理。圖3(a)為原圖像,圖3(b)為Sobel算子邊緣圖像,圖3(c)為使用雙閾值算法之后的邊緣圖像,顯然降低了噪聲。
目前,Hough變換和最小二乘法是常用的道路標(biāo)識(shí)線提取的方法:Hough變換的特點(diǎn)是精度高,提取準(zhǔn)確,但它的實(shí)時(shí)性比較差;最小二乘法的特點(diǎn)是速度快,但當(dāng)外界干擾較大時(shí),它的精度就會(huì)降低。綜合考慮,筆者采用Hough變換提取車道線。
圖3 邊緣提取效果圖
Hough變換經(jīng)常用來(lái)在圖像中尋找直線。假設(shè)有一條與原點(diǎn)距離為λ,方向角為θ的一條直線,如圖4所示。則直線上的每一點(diǎn)都滿足以下方程:
圖3(a)經(jīng)過(guò)Hough變換得到如圖5所示。
圖4 直線的極坐標(biāo)表示
圖5 Hough變換
圖6 車道圖像劃分
車道模型的估計(jì)在跟蹤過(guò)程中起很重要的作用。道路模型在車道線檢測(cè)過(guò)程中具有重要作用。直線模型比較簡(jiǎn)單,它的計(jì)算量小,但缺乏描述不同形狀道路的能力;復(fù)雜的道路模型靈活且適用于不同形狀的道路,如B-Snake模型[7],但易受噪聲和其他干擾因素的影響。在此,采用線性拋物跟蹤模型構(gòu)造左右跟蹤線方法。正如在圖6所示,將車道圖像分為近景和遠(yuǎn)景2段,ym是它們之間的邊界。
車道模型:
車道線通常均是以線段對(duì)線段連接方式,出現(xiàn)于特定范圍,進(jìn)而形成車道邊界,因此,f(y)在點(diǎn)ym連續(xù)并可微[10],利用連續(xù)性和可微得:
將式(8)帶入式(7)中,可將車道模型改寫為:
式中,(xni,yni)表示近景中邊緣圖像的非零像素點(diǎn),i的取值是1到m;(xfj,yfj)表示遠(yuǎn)景中像素點(diǎn)的坐標(biāo),j的取值是從1到n。
式(9)可以改寫成矩陣形式:
J=HA
J是估計(jì)車道邊緣的輸出,H是已知的變量,A是未知的狀態(tài)參數(shù)x是希望輸出的像素:
式中,下標(biāo)L和R表示左和右車道邊界參數(shù)。
目前,車道跟蹤算法有很多種,常用的算法有卡爾曼濾波、粒子濾波和Meam Shift算法。Kalman濾波方法可以用來(lái)更新未知的狀態(tài)參數(shù)為左右邊緣參數(shù),通過(guò)大量的文獻(xiàn)比較,筆者將采用道路模型與Kalman濾波算法相結(jié)合的方法來(lái)更新參數(shù),實(shí)現(xiàn)對(duì)車道線實(shí)時(shí)、準(zhǔn)確的跟蹤。
線性狀態(tài)方程和測(cè)量方程的定義如下:
式中,Ak包含車道模型參數(shù);矩陣Fk表示狀態(tài)由k時(shí)間點(diǎn)到k+1時(shí)間點(diǎn)的狀態(tài)轉(zhuǎn)移矩陣;Hk稱為觀測(cè)矩陣;zk是測(cè)量得到的數(shù)據(jù);wk是均值為零的高斯噪聲;vk是另一個(gè)均值為零的高斯噪聲。
視頻路段是安徽工程大學(xué)附近,分別對(duì)不同環(huán)境 (直道,彎道,有標(biāo)示路段)進(jìn)行試驗(yàn)。由下圖可知,算法能成功地提取車道邊界。
圖7中圖像為直線道路,邊緣圖像很容易分辨得出道路邊界,算法能很好地?cái)M合并跟蹤出了道路邊界;圖8中道路為彎道,由于通過(guò)路面是上面是高架橋,光照有亮變暗,致使前方道路很難分辨出道路邊界,但算法還是有效擬合并跟蹤出了道路邊界;圖9中道路有多條標(biāo)識(shí)線,算法還是能很好提取道路標(biāo)識(shí)線,擬合道路邊界,完成道路跟蹤。
圖7 直線道路
圖8 有彎道的道路圖像
圖9 有多條標(biāo)識(shí)線的道路圖像
筆者提出了基于線性拋物線模型的車道檢測(cè)與跟蹤方法。與傳統(tǒng)模型模型相比,該方法提高抗噪聲能力,對(duì)直線和彎曲道路都具有良好的檢測(cè)效果,且誤判率低,實(shí)時(shí)性好,準(zhǔn)確性高,為工程硬件實(shí)現(xiàn)打下基礎(chǔ)。下一步工作是將算法移植到DSP硬件上,做進(jìn)一步硬件測(cè)試。
[1]余天洪,王榮本,顧柏園園,等 .基于機(jī)器視覺的智能車輛前方道路邊界及車道標(biāo)識(shí)識(shí)別方法綜述 [J].公路交通科技,2006,23 (1):140-142.
[2]Enkelmann W,Struck G,Geisler J,ROMA.A system for model based analysis of road markings [C].Proceedings of IEEE Intelligent Vehicles Symposium,Detroit,USA,2005:356-360.
[3]Huarong Xu,Xiaodong Wang,Hongwu Huang,et al.A fast and stable lane detection method based on B-spline curve [J].IEEE,2009:1036-1040.
[4]Jung C R,Kelber C R.Lane following and lane departure using a linear-parabolic model [J].Image and Vision Computing,2005 (23):1192-1202.
[5]畢雁冰,管欣,詹軍 .車道識(shí)別過(guò)程中搜索車道線的方法 [J].汽車工程,2006,28(5):439-442.
[6]Chunzhao Guo,Seiichi Mita,David McAllester.Lane Detection and Tracking in Challenging Environments based on a Weighted Graph and Integrated Cues [C].Proc of the 2010IEEE on Intelligent Robots and Systems.Taipei,2010:5543-5550.
[7]邱茂林,馬頌德,李毅 .計(jì)算機(jī)視覺中攝像機(jī)定標(biāo)綜述 [J].自動(dòng)化學(xué)報(bào),2000,26(1):43-54.
[8]Wang Y,Dahnoun N,Achim A.A novel system for robust lane detection and tracking [J].Singnal Process,2012 (92):319-334.
[9]Abdulhakam A M,Assidiq,Othman O,et al.Real time lane detection for autonomous vehicles [C].Proc of the International Conference on Computer and Communication Engineering 2008.Kuala Lumpur,2008:82-88.
[10]Chen Q,Wang H.A real time lane detection algorithm based on hyperbola pair model[C].Tokyo:2006IEEE Intelligent Vehicles Symposium,2006:1-6.
長(zhǎng)江大學(xué)學(xué)報(bào)(自科版)2013年7期