劉冬軍,徐美華,龔露鳴,夏臣君
高級駕駛輔助系統(tǒng)(advanced driver assistance systems,ADAS)已逐漸成為汽車電子研究的熱點,該系統(tǒng)借助傳感器采集各種物理信息,然后由云計算中心[1]對這些數(shù)據(jù)進行處理并做出相應(yīng)的決策,最終達到安全駕駛的目的.前方車輛檢測是ADAS技術(shù)中的重要組成部分,通過在車輛行駛過程中標(biāo)記前面出現(xiàn)的車輛來避免發(fā)生碰撞的危險.
目前,基于機器視覺的車輛檢測技術(shù)大致可以分為4類:基于模型方法、基于立體視覺方法、基于光流場方法和基于特征的方法.基于模型方法[2]的車輛檢測技術(shù)通常是先獲取大量不同道路環(huán)境、不同類型的車輛圖像,然后再利用圖像的灰度信息建立車輛特征模型.但是,該方法對模型的依賴性較強.基于光流場方法[3-4]的車輛檢測技術(shù)雖然能夠較好地處理背景運動情況,但是實時性差,對光線變化較敏感.基于立體視覺方法[5]的車輛檢測技術(shù).則能夠較準(zhǔn)確地進行定位,但其計算量大、成本高,且對車輛自身的運動比較敏感.基于特征的方法[6]是利用車輛特征如車底陰影、車身紋理和對稱性等提取車輛區(qū)域.車輛多特征相結(jié)合的檢測方法是現(xiàn)今國內(nèi)外研究的趨勢.Zhang等[7]提出一種結(jié)合多特征的車輛檢測與跟蹤方法利用車底部陰影檢測生成車輛假設(shè)區(qū)域,并利用車輛區(qū)域的邊緣特征和歸一化轉(zhuǎn)動慣量(normalized moment of inertia,NMI)特征進行驗證,雖然該方法能夠快速實現(xiàn)車輛檢測,但是檢測的準(zhǔn)確率并不是理想.金立生等[8]提出一種基于類HAAR特征并結(jié)合Adaboost分類器的識別算法,通過訓(xùn)練大量正負(fù)樣本圖片構(gòu)建分類器該方法運算量大,識別性能有待提高.
圖1 車輛檢測系統(tǒng)的架構(gòu)Fig.1 Architecture of vehicle detection system
綜合以上分析,本工作提出一種基于汽車形態(tài)特征和類HAAR特征融合的單目視覺前方車輛檢測算法.車輛檢測系統(tǒng)的基本架構(gòu)如圖1所示.由圖可知:首先對獲取圖像進行預(yù)處理,其中包括圖像剪裁、灰度化以及圖像去噪;然后運用猴王遺傳算法(monkey-king genetic algorithm,MKGA)分割出圖像感興趣區(qū)域以及背景部分;接下來對感興趣區(qū)域的所有區(qū)塊進行整形處理,并基于車輛形態(tài)特征一次篩選;最后對一次篩選出的圖像區(qū)域提取類HAAR特征,經(jīng)過主成分分析(principal component analysis,PCA)降維后送入支持向量機(support vector machine,SVM)分類器進行二次篩選,最終輸出目標(biāo)車輛.
通過對大量的視頻數(shù)據(jù)進行統(tǒng)計后發(fā)現(xiàn),前方車輛的主體部分均位于原始圖像的下3/5部分,而上2/5部分一般為天空或者建筑物.而上2/5部分的圖像信息對車輛檢測沒有意義.因此保留下3/5部分作為下一步處理的有意義區(qū)域,這樣既減少了后續(xù)過程的數(shù)據(jù)處理量,又增強了系統(tǒng)的實時性能.
對剪裁得到的圖像進行灰度化處理.RGB色彩模式是工業(yè)界的一種顏色標(biāo)準(zhǔn),通過對紅(R)、綠(G)和藍(lán)(B)三個顏色通道的變化以及它們相互之間的疊加可以得到各式各樣的顏色.紅綠藍(lán)3種顏色通道都是8位深度的,每個分量擁有28級灰度.因此通過顏色通道的組合RGB模型可以顯示出16 777 216種顏色.利用加權(quán)平均法對彩色圖像灰度化,運算表達式為
式中:f(i,j)表示圖像平面像素點的亮度幅值;R(i,j),G(i,j)和B(i,j)分別表示該點紅、藍(lán)和綠3個顏色通道的亮度幅值.
此外,攝像機在采集圖像過程中難免受到各種各樣噪聲的干擾.由于圖像質(zhì)量的退化會導(dǎo)致目標(biāo)識別失敗,因此去除噪聲成為圖像預(yù)處理中十分重要的步驟.線性濾波器對圖像細(xì)節(jié)處理時容易丟失信息,而中值濾波不僅可以克服這個問題,并且對濾除脈沖干擾和圖像掃描噪聲非常有效.中值濾波的基本思想是把局部區(qū)域的像素按灰度等級排序,并取該領(lǐng)域內(nèi)的中間值作為當(dāng)前像素點的灰度值,如果區(qū)域內(nèi)的像素點為偶數(shù),則取中間兩個像素點的平均值作為當(dāng)前像素點的灰度值.中值濾波為
式中,T為所選模板領(lǐng)域,f(i,j)為所求點的像素幅值.經(jīng)過中值濾波后,圖像的目標(biāo)邊緣仍比較清晰,去除噪聲效果明顯.另外,中值濾波的計算量相對其他濾波方法較小,便于提高系統(tǒng)的運行速度.
1.2.1 OTSU分割失效
通過統(tǒng)計大量的視頻信息發(fā)現(xiàn),在車輛的底部存在著比道路灰度更低的陰影區(qū)域,并且在可見光照射的條件下,該陰影區(qū)域的位置總是存在于車輛的底部.
利用最大類間方差法(OTSU)[9-11]進行閾值分割,提取車輛底部的陰影特征,并把這些陰影所在的區(qū)域進行尺寸放大,就可以得到疑似車輛尾部的位置.最大類間方差法是通過分析圖像的灰度直方圖以及最小二乘法原理推導(dǎo)得出的.選定的分割閾值應(yīng)使背景和目標(biāo)的平均灰度與整幅圖像的平均灰度之間的差別最大,這種差別用類間方差表示.所求出的閾值T把灰度圖像分為兩個部分:灰度小于T的所有像素點歸為一類,用S0表示;剩余像素點歸為另一類,用S1表示.兩個區(qū)域的類間方差為
式中:σ(T)表示兩類像素點與圖像總體平均值之間的方差和;p0,p1分別表示兩類區(qū)域的概率;u0,u1分別表示兩類區(qū)域的灰度均值;u表示整幅圖像的灰度均值.T在[0,255]內(nèi)依次取值,σ(T)取得最大值時,即為最佳區(qū)域分割閾值.
雖然OTSU算法能夠根據(jù)目標(biāo)和背景之間的方差最大值降低誤分割的概率,但是當(dāng)周圍的環(huán)境比較復(fù)雜且光照條件較差時,圖像的灰度直方圖極易呈現(xiàn)三峰狀或者多峰狀,此時OTSU算法不能理想地分割陰影部分和背景部分,閾值分割效果明顯下降.
1.2.2 基于MKGA閾值分割
針對上述OTSU閾值分割失效問題,尋找一種能夠準(zhǔn)確分割車底陰影區(qū)域的方法成為前方車輛檢測技術(shù)的關(guān)鍵.研究人員提出了一種雙OTSU算法[12].該算法直接搜索使得計算量較大、系統(tǒng)耗費時間長.由于工程中處理的圖像像素點一般都比較高,因此獲取最佳閾值的效率較低.
本工作采取猴王遺傳算法[13-14]求最佳閾值.猴王遺傳算法首先將猴王點和少部分排在前面的較優(yōu)點復(fù)制到下代,接著染色體變異淘汰較劣點,保證種群一直處于進化狀態(tài);然后,又讓猴王點與種群中的其他點進行交叉變異,得到符合條件的新點;最后將這些點依次加入下代種群,在下一代種群中重復(fù)上述排序、復(fù)制、引入變異染色體和交叉變異直至下代種群中點的數(shù)目達到預(yù)定的種群規(guī)模.經(jīng)過若干代計算后,一般能搜索到全局最優(yōu)解附近.根據(jù)猴王遺傳算法的基本思路,并移植到圖像閾值分割中,可以較快地得到整個區(qū)域的最優(yōu)解.猴王遺傳算法閾值分割的基本流程如圖2所示.
圖2 猴王遺傳算法閾值分割流程圖Fig.2 MKGA threshold segmentation f l owchart
(1)參數(shù)設(shè)定.設(shè)定初始種群L=20,初始代數(shù)為0,最大迭代次數(shù)為120,隨機個體占比R=0.3,復(fù)制率k=0.7,交叉概率為0.6,變異概率為0.08.
(2)計算初始個體灰度的類間方差.目標(biāo)和背景的方差越大,閾值分割效果越理想,因此采用圖像灰度的類間方差表達式作為適應(yīng)度函數(shù).某個個體的適應(yīng)度函數(shù)值越大,表明其性能越好.
(3)排序和替換.將計算出來的每個個體的適應(yīng)度進行升序排列,找到猴王點,然后再根據(jù)個體占比R,用隨機生成的方法產(chǎn)生同樣規(guī)模的新個體替代被淘汰的部分,組成新一代種群.
(4)復(fù)制產(chǎn)生新個體.根據(jù)復(fù)制率k求出從當(dāng)前種群中前n個個體,直接進入新一代種群.
(5)交叉變異.將猴王點與n之后的所有個體交叉運算產(chǎn)生L?n個新個體,并根據(jù)所給的變異概率選取某部分個體元素進行變異.
(6)循環(huán)上述步驟.
若連續(xù)多代種群的適應(yīng)度都沒有改變,或者已經(jīng)達到最大進化代數(shù),則停止尋優(yōu)操作,這時趨于穩(wěn)定的最大適應(yīng)度函數(shù)值為圖像分割的閾值.圖3為雙OTSU算法和MKGA算法閾值分割的比較.從圖可以看出,雙OTSU和猴王遺傳算法閾值分割效果差別不大.但是,相比雙OTSU算法,猴王遺傳算法所用時間明顯減少.
圖3 雙OTSU算法和MKGA算法閾值分割的比較Fig.3 Comparation of threshold segmentation between dual OTSU and MKGA
完成閾值分割后,得到了需要處理的前景圖像,但此圖像仍存在大量的干擾因素,需要排除大量的冗余數(shù)據(jù)以提高篩選的準(zhǔn)確率.目標(biāo)區(qū)域的整形可劃分為3步,如圖4所示.
圖4 圖像整形Fig.4 Image shaping
(1)首先對圖像進行腐蝕膨脹操作.作圖像腐蝕處理時,把結(jié)構(gòu)元素沿著所有區(qū)塊的邊沿繞行,使得結(jié)構(gòu)元素的一半的面積與區(qū)塊重合,那么重合部分被腐蝕掉;作圖像膨脹處理時,把結(jié)構(gòu)元素沿著所有區(qū)塊的邊沿繞行,使得結(jié)構(gòu)元素的一半的面積與區(qū)塊重合,那么未重合的部分會重新生長出來.
(2)對前景圖像中的通孔進行填充.通孔填充后,整個目標(biāo)區(qū)域呈現(xiàn)連通狀態(tài),這是為了方便后續(xù)的圖像形態(tài)篩選.
上述處理后的圖像中仍存在一定數(shù)量的突起或者尖刺,主要原因是實際道路情況復(fù)雜,車輛的陰影很容易與周圍車輛的陰影或者公路兩旁的樹木倒影連成一片,由此就產(chǎn)生細(xì)長的連接部分或者尖刺部分.統(tǒng)計發(fā)現(xiàn),毛刺會出現(xiàn)在區(qū)域的上下左右各個方向,但是寬度比連通區(qū)域總寬度要小.根據(jù)這一特點,首先統(tǒng)計每個區(qū)域的最大高度和最大寬度,再從左到右統(tǒng)計某一連通區(qū)域的每一行像素個數(shù).如果該行的像素個數(shù)小于該區(qū)域像素最大寬度的1/3,那么就把該行所有像素點置0,然后從上到下統(tǒng)計本區(qū)域的每一列的像素個數(shù);如果該列的像素個數(shù)小于該區(qū)域像素數(shù)目最大高度的1/3,則把本區(qū)域該列所有像素點置0.
由于汽車設(shè)計的寬度和高度必須滿足安全平穩(wěn)行駛這一必要條件,即車身寬度和高度的比例必須在一定的范圍內(nèi).填充率(f i lling ratio,FR)表示待篩選區(qū)域的面積和其外接矩形的面積之比,比例越大,說明待篩選區(qū)域越接近于一個標(biāo)準(zhǔn)的矩形.比例因子(scale factor,SF)表示待篩選區(qū)域接近于標(biāo)準(zhǔn)高寬比的程度,這個數(shù)值只要接近某個范圍即可,而且高寬比接近并不完全代表該陰影一定是汽車底部的陰影.在算法運行時把FR和SF結(jié)合一起綜合判斷,按照這個模型存儲每個待篩選區(qū)塊的坐標(biāo)、FR和SD信息,然后判斷哪些是符合要求的.具體的判斷標(biāo)準(zhǔn)為
HSV模型[15]分別表示色調(diào)(hue)、飽和度(saturation)和亮度(value).因為HSV顏色域類似于人類感覺顏色的方式,具有較強的感知度,所以在車輛識別算法中利用這個特性對車輛的尾燈進行辨識.
把感興趣目標(biāo)所在坐標(biāo)框的尺寸按照一定比例擴大,對感興趣目標(biāo)圖像從RGB轉(zhuǎn)換到HSV,然后設(shè)置相應(yīng)參數(shù)分割出感興趣目標(biāo)中的車尾燈特征和車牌特征.如果感興趣目標(biāo)中不含有車尾燈特征以及車牌特征,則認(rèn)為該感興趣目標(biāo)被淘汰,繼續(xù)檢測其他感興趣目標(biāo)直到檢測完成.經(jīng)過大量的對比測試發(fā)現(xiàn),如果提取車輛的牌照以及車尾燈特征,漏檢率會比較高.當(dāng)車輛行駛的環(huán)境光線較暗時,攝像頭采集到藍(lán)色車牌的畫面顯示車牌接近黑色,這給尾部車牌的特征檢測帶來了一定的難度.此外,車輛的尾部特征中,車牌區(qū)域的顏色不一定是藍(lán)色,也有可能是黃色或者白色.如果把車牌顏色域的檢測范圍增加藍(lán)色、白色和黃色,就會增加算法的復(fù)雜度.
因此放棄車牌顏色域特征的提取,選擇車輛的紅色尾燈區(qū)域作為車輛尾部特征,得出了紅色車尾燈的一個有效閾值范圍:
應(yīng)用式(5)對大量的車輛尾燈進行了測試,結(jié)果表明,該閾值能夠?qū)κ袌錾洗蟛糠周囕v尾燈進行識別.
類HAAR特征首先由Violas等[16]提出,主要應(yīng)用于人臉檢測.類HAAR特征的檢測方式快速、簡單.類HAAR特征具有多種模型,常用的有兩矩形模型和三明治模型,如圖5所示.兩矩形型的掩模表示黑色區(qū)域的像素點的灰度值減去白色區(qū)域像素點的灰度值.三明治掩模表示中間黑色區(qū)域像素點的灰度值減去兩邊白色區(qū)域像素點灰度值之和.利用以上兩種掩模對車輛的類HAAR特征進行提取,正常光照條件下的前方車輛自身存在很多特征,如車輛頂部與天空密度差異明顯較大,車輛擋風(fēng)玻璃和車身存在水平邊緣分界線、垂直邊緣對稱等.利用兩矩形模型的類HAAR掩??梢缘玫杰囕v尾部垂直和水平邊緣梯度特征,利用三明治模型可以得到前車后蓋的紋理信息,如圖6所示.
圖5 類HAAR特征模型Fig.5 Models of HAAR-like feature
圖6 前車的類HAAR特征Fig.6 HAAR-like feature of front vehicle
一幅圖像能夠派生出較多矩形特征,如果每次提取矩形特征值都計算區(qū)域內(nèi)像素點灰度值之和,則會嚴(yán)重影響特征的檢測速度.圖像積分圖為該像素點左上方所有像素點的灰度值之和,基于圖像積分圖的方法可求取圖像上任意矩形區(qū)域內(nèi)像素點的灰度值之和.首先對行進行遍歷,再對列進行遍歷,因此積分圖像實際上是離散的二重積分,即
式中,F(i,j)表示像素點積分和,f(x,y)為圖像灰度值.矩形積分圖的計算如圖7所示.在積分圖像中任何一個矩形的像素和僅需要使用4次數(shù)組索引,且有
式中,sum表示該區(qū)域像素點灰度值之和.積分圖最大的優(yōu)點在于當(dāng)完成一幅圖像的積分圖像的統(tǒng)計后,算法對圖像的區(qū)塊灰度計算就可以在一個加減操作內(nèi)完成,大大縮減了特征提取的時間.
圖7 矩形積分圖中像素點的計算Fig.7 Calculation of the pixels with in rectangle
對于一個640×360像素的剪裁后圖像,若要提取其類HAAR特征,首先按40×54像素的滑動窗口尺寸移動,每次的移動步長為20,然后每次遍歷完成增大滑動窗口的尺寸.并且對窗口歸一化,把任意大小的窗口壓縮成為24×24像素,而后再對每一塊圖像提取類HAAR特征.不考慮旋轉(zhuǎn)情況,1×2的兩矩形型的類HAAR特征模型的特征總數(shù)為
一次遍歷提取510張圖像的HAAR特征,在鎖定高寬比前提下對滑動窗口進行縮放,再次遍歷.如果把特征數(shù)目乘以圖片數(shù)量,結(jié)果是非常巨大的.因此,應(yīng)先基于形態(tài)特征過濾篩選,再把已篩選區(qū)域及相應(yīng)的類HAAR特征提取出來,并對這些特征進行PCA降維.
設(shè)特征矩陣有n個樣本,每個樣本有m個屬性,則矩陣示為
(1)標(biāo)準(zhǔn)化樣本數(shù)據(jù).樣本的均值、標(biāo)準(zhǔn)差等分別為
(2)計算相關(guān)矩陣.
(3)解特征方程|R?ρf|=0.可求得特征向量
(4)通過主成分貢獻率求主成分.用前面q個主成分之和除以k個主成分之和,可求得到相應(yīng)的貢獻率,即
在確保β的值大于一定基數(shù)的情況下,q的取值越小,數(shù)據(jù)樣本的維度越低.但是降維后特征向量存在丟失的問題,且丟失程度和貢獻率呈反比,因此選擇一個恰當(dāng)?shù)呢暙I率對于算法的準(zhǔn)確度十分重要.假設(shè)latent是一個包含樣本協(xié)方差矩陣的本征向量,對樣本庫中的24×24像素圖像的第一類HAAR特征進行PCA降維,并定義前k個本征向量值的總和貢獻率為
式中,k表示第k個本征向量.
樣本協(xié)方差矩陣的本征值向量如圖8所示.可以看出,對于本工作所使用的前方車輛檢測樣本,當(dāng)維數(shù)大于44時,向量貢獻率超過95%.因此,可以把車輛樣本的類HAAR特征的維度降為44維,這將大大縮減系統(tǒng)提取特征的時間.
圖8 本征值向量貢獻率Fig.8 Contribution rate of eigenvectors
用正負(fù)樣本對分類器進行訓(xùn)練時,選擇了1 000張正樣本和1 500張負(fù)樣本.導(dǎo)入樣本時,每一個樣本都對應(yīng)著一個標(biāo)志位,當(dāng)該樣本為正樣本時標(biāo)記為1,負(fù)樣本時標(biāo)記為0.
如圖9所示,在車輛形態(tài)特征一次篩選結(jié)束以后,得到了若干個待篩選區(qū)域.假設(shè)有n個待確定區(qū)域,首先分離待確定區(qū)域并進行窗口歸一化;然后提取相應(yīng)的類HAAR特征,并把維度降至44;最后把這n×44個特征向量送入SVM分類器,如果不滿足就會被濾除,并稱此為基于類HAAR特征的二次篩選.對比兩次實驗結(jié)果發(fā)現(xiàn),基于車輛形態(tài)特征的一次篩選出現(xiàn)較大的誤差,當(dāng)?shù)缆翻h(huán)境較復(fù)雜時會把一些非車輛區(qū)域誤識別成目標(biāo)車輛,但經(jīng)過類HAAR特征的二次篩選后可以排除絕大部分干擾,識別率明顯提高.相比于一次篩選,該算法在耗時方面雖然會有所增加,但是SVM分類器的訓(xùn)練和測試步驟是離線的,故仍可滿足車輛輔助駕駛系統(tǒng)實時性要求.
圖9 車輛形態(tài)特征的篩選結(jié)果Fig.9 Results of f i rst screening
實驗的硬件平臺為Intel(R)Core(TM)i5-4590,主頻3.3 GHz,內(nèi)存8 G的個人電腦,軟件環(huán)境為Windows 7操作系統(tǒng).選取上海市中環(huán)線的一段道路作為檢測對象,互補金屬氧化物半導(dǎo)體(omplementary metal oxide semiconductor,CMOS)傳感器采集的視頻圖像分辨率為640×480.利用本工作提出的車輛形態(tài)特征級聯(lián)類HAAR特征的車輛檢測方法,提取視頻中不同光照條件和道路環(huán)境條件的若干段素材作為分析對象,采用軟件Matlab 2013進行仿真驗證,測試結(jié)果如圖10所示.由圖可以看出,算法魯棒性較好,受外界環(huán)境因素的影響較小.
圖10 不同環(huán)境條件下的實驗結(jié)果Fig.10 Experimental results of diあerent environments
為了測試該方法的優(yōu)劣,選取了識別率、漏檢率和虛警率作為評價標(biāo)準(zhǔn).識別率表示被正確識別的車輛總數(shù)和被檢測車輛總數(shù)之比,漏檢率表示未被準(zhǔn)確識別車輛總數(shù)與被檢測車輛總數(shù)之比,虛警率表示錯誤檢測的車輛數(shù)與被檢測圖像車輛總數(shù)之比.測試結(jié)果如表1所示.與文獻[8-9]中的方法相比,本工作提出的算法充分考慮了前方車輛檢測系統(tǒng)的穩(wěn)定性和實時性.
表1 不同測試算法的比較Table 1 Comparison of parameter
本工作提出一種形態(tài)特征和類HAAR特征融合的前方車輛檢測方法.形態(tài)特征可以有效、快速地篩選出圖像中可能為車輛尾部的區(qū)域,它利用車輛尾部下方的陰影,車輛尾部在HSV顏色空間下形成的對稱形態(tài)等特征來確定圖像中的感興趣區(qū)域,具有較好穩(wěn)定性和較低運算量的特點.類HAAR特征是一種常用的目標(biāo)識別特征,由于能夠?qū)崿F(xiàn)快速計算,對光照變化和小量的偏移不敏感,被應(yīng)用于很多實時系統(tǒng)中.此外,類HAAR特征能夠較好地描述車輛的邊緣、線段等輪廓信息.因此,把形態(tài)特征與類HAAR特征融合使用,可以更加準(zhǔn)確地描述車輛的尾部信息.
與傳統(tǒng)的類HAAR特征SVM分類相比,本工作提出的算法避免了使用滑動窗口遍歷整幅圖像,而只需檢測一次篩選得到的若干個區(qū)域的類HAAR特征,從而減少了系統(tǒng)的響應(yīng)時間.若在此基礎(chǔ)上利用追蹤等手段,對前方車輛的速度以及車距進一步探索,將對當(dāng)前熱門的無人駕駛研究具有重要的指導(dǎo)意義.
[1]鄭湃,崔立真,王海洋.云計算環(huán)境下面向數(shù)據(jù)密集型應(yīng)用的數(shù)據(jù)布局策略與方法[J].計算機學(xué)報,2010(8):1472-1480.
[2]胡銦,楊靖宇.基于模型的車輛檢測與跟蹤[J].中國圖像圖形學(xué)報,2008,13(3):450-455.
[3]SUN Z H,BEBIS G,MILLER R.On-road vehicle detection:a review[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2006,28(5):694-711.
[4]WANG J X,BEBIS G,MILLER R.Overtaking vehicle detection using dynamic and quasi-static background modeling[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.2005:64-71.
[5]FRANkE U,GAVRILA D,GRZIGS,et al.Autonomous driving goes downtown[J].IEEE Intelligent Systems&Their Applications,1998,13(6):40-48.
[6]慕永云,王榮本,趙一兵.基于多特征融合的前方車輛檢測方法研究[J].計算機應(yīng)用研究,2011,28(9):3572-3575.
[7]張建明,張玲增,劉志強.一種結(jié)合多特征的前方車輛檢測與跟蹤方法[J].計算機工程與應(yīng)用,2011,47(5):220-223.
[8]金立生,王巖,劉景華,等.基于Adaboost算法的日間前方車輛檢測[J].吉林大學(xué)學(xué)報(工學(xué)版),2014,44(6):1604-1608.
[9]OTSU N.A threshold selection method from gray-level histogram[J].IEEE Transaction on Systems,Man and Cybernetics,1979,9(1):62-66.
[10]WANG L,DUAN H CH,WANG J L.A fast algorithm for three-dimensional Otsu’s thresholding method[J].IEEE International Symposium on IT in Medicine and Education,2008,153(2):136-140.
[11]陳琪,熊博蒞,陸軍,等.改進的二維Otsu圖像分割方法及其快速實現(xiàn)[J].電子與信息學(xué)報,2010,32(5):1100-1104.
[12]汪海洋,潘德爐,夏德深.二維Otsu自適應(yīng)閾值選取算法的快速實現(xiàn)[J].自動化學(xué)報,2007,33(9):968-971.
[13]王宏文,梁彥彥,王志華.基于新遺傳算法的Otsu圖像閾值分割方法[J].激光技術(shù),2014,38(3),364-367.
[14]李宇中,劉紅星,張勝.猴王遺傳算法的改進[J].南京師范大學(xué)學(xué)報(工程技術(shù)版),2004,4(3):53-56.
[15]姜蘭池,沈國強,張國煊.基于HSV分塊顏色直方圖的圖像檢索算法[J].機電工程,2009,26(11):54-56.
[16]VIOLAS P,JONES M.Robust real-time objects detection[J].International Journal of Computer Vision,2004,55(2):137-154.