郭君斌,王建強(qiáng),易世春,李克強(qiáng)
(1.清華大學(xué),汽車安全與節(jié)能國家重點(diǎn)實(shí)驗(yàn)室,北京 100084; 2.第二炮兵工程大學(xué),西安 710025)
前方車輛檢測和測距是前向碰撞預(yù)警、自適應(yīng)巡航控制等先進(jìn)輔助駕駛系統(tǒng)的關(guān)鍵技術(shù)之一。相對于雷達(dá)等主動(dòng)傳感器而言,視覺具有信息豐富、可視范圍大、價(jià)格低廉和易于檢測與跟蹤等特點(diǎn)[1],因此基于視覺的前方車輛檢測方法越來越受到研究人員的重視。基于多目(包含雙目)視覺系統(tǒng)需要做大量的模型設(shè)計(jì),圖像之間特征點(diǎn)匹配的計(jì)算量大,實(shí)時(shí)性差,很難適用于車輛數(shù)目較多的場合,因此現(xiàn)有方法多是基于單目視覺系統(tǒng)來完成的。
當(dāng)前的車輛識(shí)別多集中在白天光照條件較好的前提下進(jìn)行,主要利用車輛的陰影、邊緣、角點(diǎn)、對稱性等特征獲得車輛候選區(qū)域[2],然后根據(jù)支持向量機(jī)(support vector machine, SVM)[3-5]或Adaboost機(jī)器學(xué)習(xí)算法[6-7]等人工智能方法進(jìn)行驗(yàn)證。但是,在夜間等黑暗環(huán)境中,由于光照條件差,車輛的外形特征很難甚至不可能檢測到,因此夜間環(huán)境下的車輛檢測是智能交通系統(tǒng)中的一個(gè)研究難點(diǎn)。
夜間前方車輛呈現(xiàn)的主要特征是高亮度的尾燈,因此研究人員提出通過設(shè)定固定的亮度閾值來提取尾燈信息,然后經(jīng)過塊標(biāo)注和相似性分析(如面積、位置和形狀等)來實(shí)現(xiàn)尾燈的配對和車輛檢測[8-10]。但該方法設(shè)定的亮度閾值固定不變,對環(huán)境變化的適應(yīng)性較差,而且容易將路燈和交通標(biāo)志牌的反光等誤識(shí)別為車輛尾燈。利用尾燈的紅色特性,可以剔除部分非尾燈的高亮區(qū)域,常用方法是在不同的色彩空間里設(shè)定顏色邊界閾值。常用的有RGB[11-12]、HSV[13]和YCbCr[14-15]等色彩空間。但在剔除非尾燈目標(biāo)的同時(shí)容易使部分尾燈外形受到破壞,導(dǎo)致誤檢或漏檢部分正確尾燈。還有的提出利用尾燈的形狀信息來剔除非尾燈區(qū)域,如假設(shè)尾燈為圓形或橢圓形[16-17],但隨著LED技術(shù)的發(fā)展,尾燈的形狀也朝著異型化和一體化發(fā)展,形狀差異越來越大,因此難以通過簡單的尾燈形狀達(dá)到提取真實(shí)尾燈的目的,容易造成真實(shí)尾燈漏檢。
獲得可能的尾燈信息后,須將屬于同一車輛的兩個(gè)尾燈配對,從而確定真實(shí)車輛位置。尾燈配對的準(zhǔn)則一般是要求相似的縱坐標(biāo)和面積等,還應(yīng)具有一定的高寬比和對稱性等。在車輛位置確定上,一般假設(shè)尾燈離地高度為0.7~0.9m[10,18],而左右尾燈距離與離地高度之比約為2.0[17-18]。在尾燈相似性方面,文獻(xiàn)[19]中提出了形狀、運(yùn)動(dòng)相似性等,達(dá)到了89.3%的檢測率。但上述方法只涉及尾燈的準(zhǔn)確配對,首先是閾值設(shè)置困難,難以獲得較高的檢測率和較低的誤檢率,再者利用幀間信息很少,一旦出現(xiàn)尾燈與高亮物體發(fā)生粘連等情況,就會(huì)導(dǎo)致車輛檢測的失敗,對復(fù)雜光照環(huán)境的適應(yīng)性不強(qiáng)。
針對傳統(tǒng)方法在尾燈提取時(shí)最佳閾值設(shè)置困難、解決車輛檢測率和誤檢率之間的矛盾,提出一種新的基于單目視覺的夜間前方車輛檢測算法,整個(gè)流程如圖1所示。利用最大類間方差法自適應(yīng)確定灰度閾值實(shí)現(xiàn)尾燈圖像的二值化,并基于顏色信息剔除部分非尾燈高亮區(qū)域,根據(jù)前一幀的車輛檢測結(jié)果,利用Kalman濾波跟蹤方法預(yù)估車輛在本幀中的位置,將圖像分為跟蹤區(qū)域和檢測區(qū)域,在兩個(gè)區(qū)域內(nèi)分別根據(jù)先驗(yàn)知識(shí)進(jìn)行尾燈配對,然后根據(jù)尾燈對之間的特征相似性比較,剔除誤檢的尾燈對,在尾燈粘連等檢測失敗的情況下,基于前一幀檢測結(jié)果,通過尾燈估計(jì)完成車輛檢測。
尾燈的一個(gè)顯著特征是紅色的高亮區(qū)域,特別是亮度信息,在黑暗的環(huán)境中顯得尤為突出。因此,提出基于亮度和顏色的改進(jìn)尾燈分割算法(modified rear lamp segmentation algorithm, MRLSA)。首先在亮度空間通過自適應(yīng)閾值對尾燈目標(biāo)進(jìn)行分割,然后對獲得的高亮目標(biāo)進(jìn)行顏色分析,只有具備一定紅色信息的目標(biāo)才被認(rèn)為是備選尾燈,從而排除對面來車的前大燈和其它高亮發(fā)光體等的影響。
由于夜間前方車輛圖像中尾燈所占比例較小,利用Otsu對整幅圖像分析獲得的閾值不能將目標(biāo)和背景分開,容易造成分割不足。為獲得合適的分割閾值,須提高目標(biāo)灰度信息在待分割直方圖中所占的比例。圖像分塊法受分割子塊大小影響較大,且子塊完全屬于背景時(shí)的分割效果不好;多次迭代搜索最佳閾值的方法[20-21]耗時(shí)較長,實(shí)時(shí)性較差。
為減少計(jì)算量,提高系統(tǒng)的實(shí)時(shí)性,根據(jù)圖像中尾燈灰度比背景灰度高的特性,提出根據(jù)大量尾燈統(tǒng)計(jì)結(jié)果確定尾燈分割閾值的下界,在閾值下界和最高亮度值之間利用最大類間方差法自動(dòng)確定最佳分割閾值的設(shè)定方法。該方法不僅可減少計(jì)算量,節(jié)省處理時(shí)間,而且由于初始閾值去掉了大量的暗背景,提高了目標(biāo)在待分割區(qū)域所占的比例,有利于獲得最佳分割閾值。
尾燈分割閾值下界的選取對尾燈分割結(jié)果的影響較大,過低容易導(dǎo)致分割不足,過高則容易導(dǎo)致分割過度,破壞尾燈的完整性。MRLSA的尾燈分割閾值下界通過人為離線統(tǒng)計(jì)確定,共統(tǒng)計(jì)了300幅不同環(huán)境下的尾燈圖像的亮度分布情況,結(jié)果如圖2所示。由圖可見,一般尾燈亮度的灰度值均大于170,小于170的不到1%,因此可將尾燈分割閾值的下界設(shè)為170。
通過閾值分割提取的高亮目標(biāo)中,會(huì)存在道路和車身反光引起的高亮物體,它們與尾燈之間的差別在于尾燈是紅色的,而反光體等其他干擾物一般都是白色的,因此,可以利用顏色信息來剔除非尾燈的高亮區(qū)域。
通過統(tǒng)計(jì)尾燈像素的顏色信息發(fā)現(xiàn),在HSV色彩空間中,可以通過簡單的閾值信息來提取尾燈信息[13]。但是,對于廉價(jià)的普通CCD相機(jī),不能像高動(dòng)態(tài)范圍相機(jī)那樣采集的整個(gè)尾燈都明顯呈現(xiàn)出紅色,往往是尾燈中心區(qū)域呈高亮的白色,周圍存在一些紅色像素。因此,本文中的MRLSA方法則根據(jù)高亮塊的大小,適當(dāng)放大搜索區(qū)域,統(tǒng)計(jì)該區(qū)域內(nèi)紅色像素的分布均值,只有該均值大于某閾值時(shí)才有可能是車輛尾燈。
尾燈分割效果如圖3所示。圖3(a)為采集的夜間前方車輛圖像,圖3(b)為簡單Otsu方法獲得閾值分割尾燈的結(jié)果,由于分割不足,使得尾燈與反光連成一片,圖3(c)是利用自適應(yīng)亮度閾值的尾燈分割結(jié)果,能將尾燈與其他高亮目標(biāo)完整地區(qū)分,圖3(d)是采用MRLSA提取的尾燈結(jié)果,實(shí)驗(yàn)結(jié)果可以看出,提出的MRLSA不僅能將尾燈完整分割開來,而且消除了車牌等高亮物體的干擾。
雖然不同車輛之間的尾燈形式各異,沒有統(tǒng)一的標(biāo)準(zhǔn),但都要求尾燈必須是高亮且對稱分布,左右尾燈具有相同的形狀和大小。因此,可以通過圖像處理的方法提取尾燈的相似性特征完成尾燈配對,并依此檢測出前方道路中的車輛。由于前方不僅有多幀連續(xù)出現(xiàn)在感興趣區(qū)域(region of interest, ROI)的車輛,也有新切入ROI的車輛,為便于尾燈配對,利用Kalman濾波方法將上述兩種情況分別處理。首先利用Kalman濾波對前一幀檢測到的車輛位置進(jìn)行預(yù)測,根據(jù)預(yù)測結(jié)果將圖像分為跟蹤區(qū)域和檢測區(qū)域,在兩個(gè)區(qū)域內(nèi)分別進(jìn)行尾燈配對,并根據(jù)相似性比較消除誤配對的尾燈對。如果前一幀中未檢測到任何車輛,則認(rèn)為圖像中不存在跟蹤區(qū)域,直接在整個(gè)ROI內(nèi)進(jìn)行尾燈配對。
假設(shè)前一幀圖像中檢測到的某輛車位置為p(u,v),u和v為車輛尾部中心在地面上投影點(diǎn)的圖像坐標(biāo),根據(jù)事先標(biāo)定的攝像頭參數(shù)即可計(jì)算p(u,v)在世界坐標(biāo)系中對應(yīng)的位置:
(1)
(2)
其中px=u-W/2
(3)
py=H/2-v
(4)
式中:h為攝像頭的安裝高度;H、W分別為圖像平面的高度和寬度;2β0為攝像機(jī)鏡頭的水平視場角;2α0為攝像機(jī)鏡頭的垂直視場角;γ0為攝像機(jī)的俯仰角;px、py分別為圖像坐標(biāo)系中x、y方向相對于圖像中心的坐標(biāo)。
狀態(tài)方程為
X(k)=A(k|k-1)X(k-1)+w(k-1)
(5)
觀測方程為
Z(k)=C(k)X(k)+v(k)
(6)
(7)
(8)
式中:A(k|k-1)為從k-1時(shí)刻到k時(shí)刻系統(tǒng)的狀態(tài)轉(zhuǎn)移矩陣;C(k)為觀測矩陣;w(k-1)和v(k)分別為零均值的系統(tǒng)噪聲向量和觀測噪聲向量;T為從k-1時(shí)刻到k時(shí)刻系統(tǒng)的采樣時(shí)間間隔。
假設(shè)k時(shí)刻Kalman濾波預(yù)測的目標(biāo)車輛位置為(Px,k,Py,k),根據(jù)下式獲得對應(yīng)的圖像位置:
(9)
(10)
將px,k、py,k根據(jù)式(3)和式(4)的逆變換得到對應(yīng)的圖像坐標(biāo)p(uk,vk)。再以p(uk,vk)為底邊中心,前一幀中對應(yīng)車輛圖像寬度的1.2倍為邊長的正方形區(qū)域?yàn)檐囕v跟蹤區(qū)域,其它區(qū)域?yàn)闄z測區(qū)域。在檢測區(qū)域主要檢測新切入ROI區(qū)域的車輛,在跟蹤區(qū)域進(jìn)行尾燈配對,并完成車輛檢測,若尾燈配對失敗,則根據(jù)尾燈估計(jì)實(shí)現(xiàn)車輛跟蹤。若連續(xù)5幀均未能跟蹤到對應(yīng)車輛,則認(rèn)為該車已超出檢測區(qū)域,不再對其進(jìn)行Kalman濾波跟蹤預(yù)測。
由于左右尾燈具有相同的形狀和大小,且左右對稱分布,忽略攝像頭安裝時(shí)的旋轉(zhuǎn)和車輛的震動(dòng),左右兩個(gè)尾燈應(yīng)具有一樣的圖像縱坐標(biāo)、面積和對稱性,再考慮實(shí)際的車寬一般在1.7m左右,因此,可以根據(jù)上述先驗(yàn)知識(shí)設(shè)定尾燈配對的約束條件。
假設(shè)Bi(ui,c,vi,c)和Bj(uj,c,vj,c)為候選尾燈塊,對應(yīng)的面積為Ai和Aj,其中ui,c,vi,c,uj,c和vj,c分別是各候選尾燈塊中心的圖像坐標(biāo);尾燈塊Bi左右上下四邊的坐標(biāo)為ui,left,ui,right,vi,top和vi,bottom;尾燈塊Bj左右上下四邊的坐標(biāo)為ui,left,ui,right,vi,top和vi,bottom,如圖4所示。則根據(jù)尾燈對之間的相似性,建立如下約束條件:
(1) 尾燈高度一致 由于兩尾燈的安裝高度一致,因此在圖像中,尾燈對應(yīng)滿足|vi,c-vj,c|<Δh;
(2) 面積一致性 兩尾燈塊之間的面積差異不能太大,即
(3) 尾燈對外接矩形寬度 假設(shè)車輛尾燈距地面高度為尾燈對外接矩形寬度的一半[17-18],可根據(jù)事先標(biāo)定的參數(shù)通過圖像坐標(biāo)到世界坐標(biāo)的轉(zhuǎn)化[23]來計(jì)算尾燈對外接矩形的寬度Rwidth=uj,right-ui,left,要求在一定的范圍之內(nèi);
(4) 車輛尾燈對外接矩形的寬高比應(yīng)在一定的范圍內(nèi),即
(5) 尾燈對稱性 如圖5所示,將尾燈對的左尾燈Bi(ui,c,vi,c)左右鏡像結(jié)果Bi′(ui,c,vi,c)與右尾燈Bj(uj,c,vj,c)進(jìn)行比較,統(tǒng)計(jì)兩者的重合區(qū)域面積As,計(jì)算其與最大的尾燈塊面積的比值λs,若小于某閾值Δλs,則認(rèn)為兩尾燈對稱性不強(qiáng),不屬于同一車輛。
λs=As/max(Ai,Aj)
(11)
在上述閾值中,由于左右尾燈形狀大小相同,所以其中心縱坐標(biāo)差異閾值Δh、面積差異閾值ΔA和對稱性約束Δλs要求較為嚴(yán)格。但是由于不同車型設(shè)計(jì)的尾燈形狀大小不同,而且安裝高度各有差異,同時(shí)考慮到行車過程中由于道路顛簸存在震動(dòng),使得用于車寬計(jì)算的參數(shù)存在一定的誤差,因此尾燈配對中尾燈對的寬高比和車寬的閾值范圍應(yīng)當(dāng)設(shè)置的相對寬泛一些。本文中根據(jù)實(shí)驗(yàn)獲得的經(jīng)驗(yàn),一般Δh在1~3像素之間,ΔA在1~2之間取值,Δλs一般取0.5左右,尾燈對外接矩形的寬度近似于車寬,一般取1.7±0.5m,而尾燈對外接矩形的高寬比要求在3~15之間。
由于實(shí)際道路上兩車不可能發(fā)生重疊,如果在基于尾燈配對的車輛檢測結(jié)果中發(fā)生重疊現(xiàn)象時(shí),其中必然存在誤檢車輛,應(yīng)將其剔除。
假設(shè)本幀中檢測到的第i輛車Vi對應(yīng)尾燈對Lm(um,vm)和Ln(un,vn),則將車輛Vi的四邊定義為T(Vi),B(Vi),L(Vi)和R(Vi):
L(Vi)=min(um,un)
(12)
R(Vi)=max(um,un)
(13)
T(Vi)=(vm+vn-|um-un|)/2
(14)
B(Vi)=(vm+vn+|um-un|)/2
(15)
同理獲得第j輛車Vj對應(yīng)的四邊T(Vj),B(Vj),L(Vj)和R(Vj),比較兩者之間的邊界:
DH(Vi,Vj)=max(L(Vi),L(Vj))-
min(R(Vi),R(Vj))
(16)
DV(Vi,Vj)=max(T(Vi),T(Vj))-
min(B(Vi),B(Vj))
(17)
若DH(Vd,Vi)和DV(Vd,Vi)都小于0,說明兩者之間存在重疊情況,則須判斷尾燈對Vi和Vj是否為正確的車輛尾燈對,并剔除其中的誤檢尾燈對。
在跟蹤區(qū)域檢測得到的車輛,通過比較其與前一幀的車輛之間的重合率來消除誤檢尾燈對。針對尾燈對Vi,假設(shè)前一幀檢測得到的對應(yīng)車輛為Vd,Ai和Ad分別為Vi和Vd的面積,計(jì)算Vi和Vd之間重疊區(qū)域面積Ap,根據(jù)重疊區(qū)域面積在Vi和Vd所占的比例來判斷Vi是否為真實(shí)車輛。
(1) 若Ap/Ad≥ΔAS且Ap/Ai≥ΔAS,其中0<ΔAS<1,則認(rèn)為Vi有可能是前一幀檢測到的車輛Vd在本幀圖像中的位置。若存在多個(gè)尾燈對Vi滿足上述條件,則計(jì)算前后車輛位移S=|L(Vd)-L(Vi)|+|R(Vd)-R(Vi)|,最小的S值對應(yīng)的VT認(rèn)為是Vd在本幀中的對應(yīng)位置,其它與之重疊的尾燈對均認(rèn)為是誤配對結(jié)果。
(2) 若Ap/Ad<ΔAS或Ap/Ai<ΔAS,則認(rèn)為兩者之間的重疊區(qū)域太小,Vi是誤配對的尾燈對。
在檢測區(qū)域得到的車輛若也存在重疊的情況,可以比較重疊尾燈對左右尾燈的離地高度和面積大小的差異以及對稱性等,差異值較小,對稱性較強(qiáng)的尾燈對認(rèn)為是正確的尾燈對,與之重疊的為誤檢尾燈對。
由于夜間光照環(huán)境復(fù)雜,存在多種干擾光源,會(huì)破壞尾燈之間的相似性(如打開轉(zhuǎn)向燈,或一側(cè)尾燈與其他高亮物體連成一塊等),都會(huì)造成尾燈配對失敗,從而導(dǎo)致無法檢測前方車輛。如圖6所示,圖6(a)為打開左側(cè)轉(zhuǎn)向燈的尾燈形狀,圖6(b)為左側(cè)尾燈受到對面來車的大燈影響而無法分割的情況,這些情況下都會(huì)面臨前方車輛無法檢測的困難。為降低車輛檢測過程中的漏檢率,提出一種基于尾燈估計(jì)的前方車輛檢測方法。
當(dāng)一側(cè)尾燈與其他高亮物體連成一塊時(shí),該尾燈的內(nèi)側(cè)邊緣能被準(zhǔn)確分割,而且另一側(cè)的尾燈能被完整地提取,因此,可以根據(jù)單側(cè)的完整尾燈估計(jì)前方車輛位置。當(dāng)本幀中的跟蹤區(qū)域未能檢測到相應(yīng)的車輛,此時(shí)應(yīng)基于尾燈估計(jì)完成前方車輛的準(zhǔn)確檢測。
在二值化尾燈圖像中,分別以前一幀圖像中的左右尾燈中心Lm(um,vm)和Ln(un,vn)為初始位置,向上下左右搜索非零像素,以搜索到的非零像素所在塊為備選尾燈,左右兩尾燈塊分別設(shè)為Li(ui,vi)和Lj(uj,vj),分別計(jì)算左右尾燈塊的面積變化率:
ΔAl=|Am-Ai|/Am
(18)
ΔAr=|An-Aj|/An
(19)
(1) 若max(ΔAl,ΔAr)≤ΔAE,則兩個(gè)備選尾燈塊為正確尾燈,以其為基準(zhǔn)估計(jì)車輛位置,ΔAE的大小可以根據(jù)不同需要在0.2~0.4之間選擇。
(2) 若min(ΔAl,ΔAr)>ΔAE,則左右備選尾燈都已受到其它高亮物體的干擾,無法估計(jì)此時(shí)的車輛。
(3) 若min(ΔAl,ΔAr)≤ΔAE而max(ΔAl,ΔAr)>ΔAE,不失一般性,假設(shè)ΔAl>ΔAr,則以右側(cè)備選尾燈Lj(xj,yj)為基準(zhǔn),確定左側(cè)尾燈塊的位置和大小。計(jì)算尾燈組之間的中心距、內(nèi)側(cè)距、外測距的變化率為
(20)
(21)
(22)
以變化最小的距離對應(yīng)的右側(cè)位置為基準(zhǔn),按左側(cè)尾燈塊的大小估計(jì)右側(cè)尾燈塊的大小和位置,并根據(jù)估計(jì)的結(jié)果確定車輛位置。
對應(yīng)圖6兩種由于尾燈受到其它光照干擾而無法檢測車輛的情況,基于尾燈估計(jì)的車輛檢測結(jié)果如圖7所示,車輛檢測結(jié)果用矩形框表示,矩形框下方數(shù)字為計(jì)算的前車距離。實(shí)驗(yàn)結(jié)果證明,基于尾燈估計(jì)的前方車輛檢測方法的檢測結(jié)果準(zhǔn)確,能有效降低前方車輛檢測算法的漏檢率。
為驗(yàn)證算法的有效性,采集了清華大學(xué)夜間校園內(nèi)、夜間高速和夜間城市路況等3種不同光照環(huán)境和干擾因素的夜間實(shí)車視頻。在主頻為2.13GHz的Intel Core i3處理器和內(nèi)存為2G的計(jì)算機(jī)上,對上述視頻進(jìn)行處理,算法的平均處理時(shí)間如表1所示,算法運(yùn)行的平均總時(shí)間為7.026ms,能滿足系統(tǒng)實(shí)時(shí)處理的需要。
表1 算法的平均處理時(shí)間 ms
部分與傳統(tǒng)算法的檢測結(jié)果對比如圖8所示。圖8(a)是由于受到其它高亮物體的干擾,相似性更高的誤配對尾燈對覆蓋了正確的尾燈對而發(fā)生誤檢的情況,圖8(b)是由于一側(cè)尾燈與其他高亮物體發(fā)生粘連而使正確尾燈之間配對失敗而發(fā)生誤檢的情況,圖8(c)和圖8(d)為本文中算法檢測的車輛結(jié)果,從中可以看出,本文算法能夠?qū)崿F(xiàn)復(fù)雜光照環(huán)境下前方車輛的準(zhǔn)確檢測,有效降低檢測算法的誤檢率和漏檢率,車輛定位精度更高。
對采集的視頻通過人為標(biāo)注的方式標(biāo)出各幀圖像中的車輛位置,利用傳統(tǒng)算法和本文中提出的前方車輛識(shí)別算法對上述視頻進(jìn)行檢測,性能比較如表2所示。相對來說,夜間校園路況除少量的對面來車大燈干擾外,外界影響較少;最復(fù)雜的是夜間城市路況,除對面來車影響之外,還存在路燈等外界光照環(huán)境的變化和路燈、路邊反光物等干擾,夜間高速路況的復(fù)雜程度介于兩者之間,因此傳統(tǒng)算法在3種路況下的檢測率參差不齊。與傳統(tǒng)算法相比,本文算法的檢測性能較為穩(wěn)定,檢測率較高,在天氣晴朗的條件下檢測率都在97%以上,能有效地降低漏檢率和誤檢率。
表2 前方車輛檢測算法與傳統(tǒng)算法性能比較
提出一種基于單目視覺的夜間前方車輛檢測算法,高亮的尾燈是夜間車輛目標(biāo)的典型特征,基于亮度和顏色信息可以快速提取尾燈目標(biāo)。利用Kalman濾波預(yù)測方法將圖像分割為跟蹤區(qū)域和檢測區(qū)域,在兩個(gè)區(qū)域內(nèi)分別利用位置、大小和對稱性等約束條件,可以完成尾燈的準(zhǔn)確配對,利用前一幀檢測結(jié)果和尾燈相似性比較可以消除誤配對的尾燈對。利用尾燈估計(jì)的方法,可以準(zhǔn)確估計(jì)單側(cè)尾燈受到外界光源干擾而尾燈配對失敗時(shí)的車輛位置,能提高前方車輛的檢測率。實(shí)驗(yàn)結(jié)果表明,算法能夠在滿足實(shí)時(shí)性要求下,有效檢測出夜間前方車輛目標(biāo)在圖像中的位置,在天氣晴朗條件下的檢測率均在97%以上,為進(jìn)一步開發(fā)具有夜間避撞功能的汽車安全輔助駕駛系統(tǒng)提供了依據(jù)。
參考文獻(xiàn)
[1] 金立生,王榮本,Bart Van Arem,等.先進(jìn)駕駛員輔助系統(tǒng)中的車輛探測研究綜述[J].汽車工程,2007,29(2):132-136.
[2] Sun Zehang, Bebis George, Miller Ronald. On-road Vehicle Detection: A Review[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,28(5):694-711.
[3] Lin Che-Chung, Lin Chi-Wei, Huang Dau-Chen, et al. Design a Support Vector Machine-based Intelligent System for Vehicle Driving Safety Warning[C]. Proceedings of IEEE International Conference on Intelligent Transportation Systems,2008:938-943.
[4] 孫沖,程洪,鄭南寧.一種假設(shè)驗(yàn)證框架下的實(shí)時(shí)道路車輛檢測方法[J].模式識(shí)別與人工智能,2006,19(6):722-726.
[5] 文學(xué)志,趙宏,王楠,等.基于知識(shí)和外觀方法相結(jié)合的后方車輛檢測[J].東北大學(xué)學(xué)報(bào),2007,28(3):333-336.
[6] Khammari A, Nashashibi F, Abramson Y, et al. Vehicle Detection Combining Gradient Analysis and Adaboost Classification[C]. IEEE Proceedings of the International Conference on Intelligent Transportation Systems,2005:66-71.
[7] 李云翀,何克忠,賈培發(fā).基于陰影特征和Adaboost的前向車輛檢測系統(tǒng)[J].清華大學(xué)學(xué)報(bào),2007,47(10):1713-1716.
[8] Kim S Y, Oh S Y, Kang J K, et al. Front and Rear Vehicle Detection and Tracking in the Day and Night Times Using Vision and Sonar Sensor Fusion[C]. IEEE/RSJ International Conference on Intelligent Robots and Systems,2005:2173-2178.
[9] Alcantarilla P, Bergasa L, Jimenez P, et al. Night Time Vehicle Detection for Driving Assistance Lightbeam Controller[C]. Proceedings of IEEE Intelligent Vehicles Symposium,2008:291-296.
[10] Chern Ming-Yang, Hou Ping-Cheng. The Lane Recognition and Vehicle Detection at Night for a Camera-assisted Car on Highway[C]. Proceedings of IEEE International Conference on Robotics & Automation,2003:2110-2115.
[11] Wang Chun-Che, Huang Shih-Shinh, Fu1 Li-Chen, et al. Driver Assistance System for Lane Detection and Vehicle Recognition with Night[C]. Proceedings of IEEE International Conference on Intelligent Robots and Systems,2005:3530-3535.
[12] Sukthankar R. Raccoon: A Real-time Autonomous Car Chaser Operating Optimally at Night[C]. Proceedings of IEEE Intelligent Vehicles Symposium,1993:37-42.
[13] Ronan O’Malley, Edward Jones, Martin Glavin. Rear-Lamp Vehicle Detection and Tracking in Low-Exposure Color Video for Night Conditions[J]. IEEE Transactions on Intelligent Transportati on Systems,2010,11(2):453-462.
[14] Nagumo S, Hasegawa H, Okamoto N. Extraction of Forward Vehicles by Front-mounted Camera Using Brightness Information[C]. Proceedings of IEEE Canadian Conference on Electrical and Computer Engineering,2003:1243-1246.
[15] Kuo Ying-Che, Chen Hsuan-Wen. Vision-based Vehicle Detection in the Nighttime[C]. Proceedings of IEEE International Symposium on Computer, Communication, Control and Automation,2010:361-364.
[16] Alt N, Claus C, Stechele W. Hardware/software Architecture of an Algorithm for Vision-based Real-time Vehicle Detection in Dark Environments[C]. Proceedings of Conf. Design, Autom. Test Eur.,2008:176-181.
[17] Wang C C, Huang S S, Fu L C. Driver Assistance System for Lane Detection and Vehicle Recognition with Night Vision[C]. IEEE/RSJ International Conference on Intelligent Robots and Systems,2005:3530-3535.
[18] Lin Yu-Chen, Lin Che-Chung, Chen Long-Tai, et al. Adaptive IPM-Based Lane Filtering for Night Forward Vehicle Detection[C]. IEEE Conference on Industrial Electronics and Applications,2011:1568-1573.
[19] Steffen Gormer, Dennis Muller, Stephanie Hold, et al. Vehicle Recognition and TTC Estimation at Night Based on Spotlight Pairing[C]. Proceedings of IEEE International Conference on Intelligent Transportation Systems,2009:196-201.
[20] 王茜蒨,彭中,劉莉.一種基于自適應(yīng)閾值的圖像分割算法[J].北京理工大學(xué)學(xué)報(bào),2003,23(4):521-524.
[21] Thomas S, Christoph V C, Marius J Z. On-Road Vehicle Detection During Dusk and at Night[C]. Proceedings of IEEE Intelligent Vehicles Symposium,2010:418-423.
[22] 趙其杰,屠大維,高健,等.基于Kalman濾波的視覺預(yù)測目標(biāo)跟蹤及其應(yīng)用[J].光學(xué)精密工程,2008,16(5):937-942.
[23] 郭磊.基于機(jī)器視覺的智能汽車行駛環(huán)境感知系統(tǒng)[D].北京:清華大學(xué),2007.