周瑩+曉艷
摘 要
針對(duì)傳統(tǒng)車(chē)輛檢測(cè)方法計(jì)算復(fù)雜和誤檢率高的問(wèn)題,提出了一種基于類(lèi)Haar圖像特征描述的車(chē)輛檢測(cè)方法。首先,建立特征向量庫(kù),利用類(lèi)Haar特征對(duì)訓(xùn)練樣本進(jìn)行特征提取。然后,提取待檢測(cè)圖像的子圖像特征信息。最后,最近鄰分類(lèi)器利用特征向量庫(kù)對(duì)待識(shí)別的子圖像進(jìn)行車(chē)輛存在性檢測(cè)。利用積分圖像的概念對(duì)圖像進(jìn)行描述,大幅度提高了特征提取速度。此外,分析了不同數(shù)量的類(lèi)Haar特征對(duì)檢測(cè)效果的影響。實(shí)驗(yàn)結(jié)果表明,該方法能大幅降低誤檢率,獲得較高的查準(zhǔn)率,對(duì)日間自然光條件下的車(chē)輛有較好的檢測(cè)效果。
【關(guān)鍵詞】Haar-like 積分圖像 最近鄰 車(chē)輛檢測(cè)
1 引言
車(chē)輛檢測(cè)在智能交通系統(tǒng)中至關(guān)重要,旨在預(yù)測(cè)車(chē)輛的潛在危險(xiǎn),以便及時(shí)地警告司機(jī)。當(dāng)前的車(chē)輛檢測(cè)方法主要分成三種:基于感應(yīng)線(xiàn)圈的檢測(cè),基于波頻檢測(cè)和基于圖像視頻的檢測(cè)?;诟袘?yīng)線(xiàn)圈的檢測(cè)方法是通過(guò)感應(yīng)線(xiàn)圈的電磁感應(yīng)現(xiàn)象,當(dāng)車(chē)輛經(jīng)過(guò)時(shí)有電流變化,從而實(shí)現(xiàn)檢測(cè)。但線(xiàn)圈隨著年限的增加會(huì)出現(xiàn)老化損耗等,導(dǎo)致檢測(cè)失效?;诓l的檢測(cè)方法主要依賴(lài)微波、紅外線(xiàn)、超聲波或者雷達(dá)等有源傳感器檢測(cè)車(chē)輛。盡管該方法適用于不同的工作環(huán)境 ,但是其卻無(wú)法區(qū)分障礙物的種類(lèi)(汽車(chē)、行人和自行車(chē)等)。與前兩種方法不同, 圖像視頻檢測(cè)方法利用與人類(lèi)視覺(jué)相似的相機(jī)系統(tǒng),能夠向模式識(shí)別系統(tǒng)提供豐富信息,所以其更適用于車(chē)輛檢測(cè)。
目前,基于視覺(jué)的常用車(chē)輛檢測(cè)方法主要包括基于模板匹配的檢測(cè)方法 、基于學(xué)習(xí)的檢測(cè)方法和基于特征的檢測(cè)方法 。其中,基于學(xué)習(xí)的檢測(cè)方法主要是利用大量的車(chē)輛圖片來(lái)訓(xùn)練分類(lèi)器.常用的分類(lèi)器主要包括SVM、AdaBoost、神經(jīng)網(wǎng)絡(luò)等。文獻(xiàn)[18、19]介紹了一種基于類(lèi)Haar 和AdaBoost 分類(lèi)器的車(chē)輛識(shí)別算法。該算法雖然檢測(cè)速度快,檢測(cè)率高,且誤檢率低,但訓(xùn)練樣本規(guī)模非常大時(shí),訓(xùn)練分類(lèi)器耗時(shí)較長(zhǎng)。文獻(xiàn)[20]HOG 特征和SVM的車(chē)輛檢測(cè)算法, 此算法適應(yīng)性強(qiáng), 但其計(jì)算復(fù)雜度高。
鑒于此,本文提出了一種計(jì)算簡(jiǎn)單且能大幅度降低誤檢率的車(chē)輛檢測(cè)方法,即類(lèi)Haar特征結(jié)合KNN算法。KNN算法簡(jiǎn)單,易于實(shí)現(xiàn),并且利用積分圖像的概念對(duì)圖像進(jìn)行描述,可以顯著提高特征提取速度。該方法由兩部分組成:特征提取階段和檢測(cè)階段。特征提取階段,使用類(lèi)Haar特征對(duì)訓(xùn)練集圖像進(jìn)行特征提取,獲取特征信息,組建特征數(shù)據(jù)庫(kù);檢測(cè)階段,統(tǒng)一測(cè)試圖像尺寸,用滑動(dòng)窗口對(duì)其進(jìn)行分割,并對(duì)子圖像進(jìn)行特征提取。利用最近鄰分類(lèi)器將每幅子圖像的特征信息與特征信息庫(kù)進(jìn)行對(duì)比,從而檢測(cè)是否有車(chē)輛存在,并確定車(chē)輛位置。
2 算法結(jié)構(gòu)
本文算法可以分為兩個(gè)主要階段:特征庫(kù)建立和車(chē)輛檢測(cè)。特征庫(kù)建立階段,首先選取對(duì)分類(lèi)識(shí)別起關(guān)鍵作用的類(lèi)Haar 特征, 并利用其對(duì)訓(xùn)練樣本進(jìn)行特征提取,然后建立特征向量庫(kù)。車(chē)輛檢測(cè)階段,首先提取待檢測(cè)圖像的類(lèi)Haar 特征, 然后將特征輸入到KNN分類(lèi)器中進(jìn)行車(chē)輛存在性檢測(cè). 算法結(jié)構(gòu)如圖1 所示, 文章后續(xù)部分將對(duì)這兩個(gè)主要階段進(jìn)行詳述。
3 特征庫(kù)建立階段
特征庫(kù)建立階段主要包括圖像預(yù)處理、計(jì)算積分圖、提取類(lèi)Haar 特征三部分。這個(gè)階段建立的特征向量庫(kù)將為檢測(cè)階段提供類(lèi)Haar特征信息。
3.1 圖像預(yù)處理及積分圖計(jì)算
將訓(xùn)練集中所有圖像的尺寸統(tǒng)一設(shè)置為24x24的RGB圖像,如圖2所示,訓(xùn)練集樣本包含積極樣本和消極樣本。然后根據(jù)文獻(xiàn)[22] 介紹的方法計(jì)算每個(gè)圖像的積分圖, 為后續(xù)階段快速計(jì)算類(lèi)Haar 特征做準(zhǔn)備。
當(dāng)計(jì)算類(lèi)Haar特征時(shí),僅以Viola等人提出的四個(gè)基本矩形特征為例,在一個(gè)24×24窗口圖像 中任意排列至少可以產(chǎn)生數(shù)以十萬(wàn)計(jì)的特征,求解這些特征值的計(jì)算量很大。為提高類(lèi)Haar特征計(jì)算速度,在特征提取階段引入積分圖的概念,從而可以大幅度提高檢測(cè)速度。
積分圖的主要思想是將圖像從起點(diǎn)開(kāi)始到各個(gè)點(diǎn)所形成的矩形區(qū)域像素之和作為一個(gè)數(shù)組的元素保存在內(nèi)存中,當(dāng)要計(jì)算某個(gè)區(qū)域的像素和時(shí)可以直接索引數(shù)組的元素,不用重新計(jì)算這個(gè)區(qū)域的像素和,即只遍歷一次圖像就可以求出圖像中所有區(qū)域像素和的快速算法,從而提高了圖像特征值計(jì)算的效率。
圖3(a)點(diǎn)(x,y)處的積分值為該點(diǎn)左上方的像素和,圖3(b)矩形區(qū)域D內(nèi)的像素總和由四個(gè)參量得到。
圖4類(lèi)Haar特征。(a)、(b)邊界特征;(c)、(d)線(xiàn)性特征;(e)對(duì)角特征;(f)中心特征。
積分圖是一種能夠描述全局信息的矩陣表示方法。積分圖ii(x,y)表示位置(x,y)處左上方像素值的總和 (如圖3(a)所示),見(jiàn)公式(1)。
其中,i(x,y)是原始圖像,i(x',y')為位置(x,y)左上方的像素點(diǎn)。通過(guò)以下兩個(gè)方程的循環(huán)計(jì)算即可得到積分圖像:
其中,s(x,y)表示行方向的累加和,s(x,-1)=ii(-1,y)=0。當(dāng)掃描到圖像右下角像素時(shí),積分圖像ii就構(gòu)造好了。
積分圖構(gòu)造好后,圖像中任何矩陣區(qū)域的像素累加和都可以通過(guò)簡(jiǎn)單運(yùn)算得到(如圖3(b)所示)。設(shè)D的四個(gè)頂點(diǎn)分別為1、2、3、4,則D的像素和可以表示為公式3所示,即用四個(gè)參量即可得到。
相似地,不同的兩個(gè)矩形區(qū)域的像素和可以由八個(gè)參量得到。由于定義的特征矩形都是相鄰的,所以用六個(gè)參量表示即可。同理,三個(gè)矩形區(qū)域的特征由八個(gè)參量即可得出,四個(gè)矩形區(qū)域的特征由九個(gè)參量即可得出。
3.2 類(lèi)Haar特征提取
類(lèi)Haar 特征是由Viola 等人[22、23] 在其人臉檢測(cè)系統(tǒng)中引入的一種簡(jiǎn)單矩形特征, 因類(lèi)似于Haar 小波(Haar wavelet)而得名,。類(lèi)Haar特征又稱(chēng)為矩形濾波器, 每個(gè)類(lèi)Haar特性描述模板由黑白兩種矩形組成,其提供了一幅圖像中兩個(gè)相鄰區(qū)域的灰度級(jí)信息,即該模板的特征值為白色矩形像素和減去黑色矩形像素和。 如圖4所示,其中圖(a)和(b)為邊界特征,(c)和(d)為線(xiàn)性特征,(e)為對(duì)角特征,(f)為中心特征。endprint
圖5為用于描述車(chē)輛特征的類(lèi)Haar 特征示例?;?.1中的積分圖,計(jì)算每個(gè)樣本圖像的6種類(lèi)Haar 特征, 每個(gè)樣本總共可得到1909個(gè)類(lèi)Haar 特征。
4 檢測(cè)階段
檢測(cè)階段用于對(duì)待識(shí)別的子圖像進(jìn)行車(chē)輛的存在性檢測(cè),主要包括:
(1)圖像預(yù)處理;
(2)計(jì)算積分圖;
(3)提取類(lèi)Haar特征;
(4)應(yīng)用KNN分類(lèi)器進(jìn)行分類(lèi)識(shí)別四個(gè)部分。
首先將測(cè)試圖像的尺寸統(tǒng)一設(shè)置為320x240。然后利用滑動(dòng)窗口對(duì)圖像進(jìn)行分割,得到一系列的子圖像,并對(duì)其進(jìn)行特征提取,獲得特征向量。3.2節(jié)提取的類(lèi)Haar特征庫(kù)用于本階段的特征提取和檢測(cè)。最后,利用最近鄰分類(lèi)器結(jié)合特征向量庫(kù)對(duì)待識(shí)別的子圖像進(jìn)行車(chē)輛存在性檢測(cè), 輸出最終的分類(lèi)識(shí)別結(jié)果。
最近鄰(KNN,K-Nearest Neighbor)分類(lèi)算法,也叫鄰近算法,是數(shù)據(jù)挖掘分類(lèi)技術(shù)中最簡(jiǎn)單的方法之一。所謂K最近鄰,就是K個(gè)最近的鄰居的意思,即每個(gè)樣本都可以用它最接近的K個(gè)鄰居來(lái)代表。KNN算法的核心思想是如果一個(gè)樣本在特征空間中的K個(gè)最相鄰的樣本中的大多數(shù)屬于某一個(gè)類(lèi)別,則該樣本也屬于這個(gè)類(lèi)別,并具有這個(gè)類(lèi)別上樣本的特性。本文最近鄰算法的K值取1。
5 實(shí)驗(yàn)結(jié)果和討論
實(shí)驗(yàn)結(jié)果主要包含兩部分:
(1)分別選取不同數(shù)量的類(lèi)Haar特征進(jìn)行測(cè)試,觀(guān)察不同特征參數(shù)對(duì)檢測(cè)結(jié)果的影響。
(2)為驗(yàn)證本文提出的車(chē)輛檢測(cè)算法性能,將本文所提出的算法與SVM算法進(jìn)行對(duì)比,并對(duì)實(shí)驗(yàn)結(jié)果比較分析。
所有試驗(yàn)均利用Matlab R2014b完成,實(shí)驗(yàn)平臺(tái)的硬件環(huán)境是因特爾i3處理器,2.20GHz,2GB內(nèi)存,Win7操作系統(tǒng)。用于訓(xùn)練本文檢測(cè)系統(tǒng)性能的數(shù)據(jù)集組成如下:
(1)積極樣本集:包含2775個(gè)示例圖像。這些圖像由不同種類(lèi)汽車(chē)的正視或后視圖組成(如圖2(a));
(2)消極樣本集:包含4498個(gè)示例圖像(如圖2(b)),這些圖像不包含任何車(chē)輛信息。在特征提取階段,將消極圖像和積極圖像尺寸統(tǒng)一設(shè)置為24x24。
首先,由150幅積極圖像及275幅消極圖像組成的測(cè)試圖集對(duì)系統(tǒng)進(jìn)行測(cè)試。類(lèi)Haar特征分別選取如圖4所示的前兩種、前四種和六種矩形特征。測(cè)試結(jié)果如表1所示。
由表1可以看出特征數(shù)量越多檢測(cè)率越高。其中采用六種類(lèi)Haar特征時(shí)的檢測(cè)率達(dá)到98.00%,明顯高于采用二特征和四特征的檢測(cè)率。采用四種和六種類(lèi)Haar特征的誤檢率相同均為1.09%,遠(yuǎn)低于二特征的誤檢率。檢測(cè)結(jié)果表明,選取不同數(shù)量的類(lèi)Haar特征對(duì)檢測(cè)結(jié)果有較大影響,這是因?yàn)檫x取的特征數(shù)量越多,所包含的信息量越大,檢測(cè)率就越高,同理,誤檢率越低。本文最終選擇具有六個(gè)矩形特征的類(lèi)Haar特征描述。
為了客觀(guān)地評(píng)價(jià)該車(chē)輛分類(lèi)器的性能,本文采用了三個(gè)道路數(shù)據(jù)集的圖像作為測(cè)試集進(jìn)行測(cè)試。測(cè)試圖像主要來(lái)自Daimler Benchmark Dataset和Caltech數(shù)據(jù)庫(kù)、KITTI數(shù)據(jù)庫(kù)。測(cè)試圖像尺寸統(tǒng)一設(shè)置為320x240,部分檢測(cè)結(jié)果如圖6所示,白色框?yàn)楸疚臋z測(cè)結(jié)果。
其次,采用文獻(xiàn)[29]中Recall查全率、Precision查準(zhǔn)率、F-score值等指標(biāo)對(duì)本文方法進(jìn)行評(píng)價(jià)。公式4中,TP代表真陽(yáng)性,即正確檢測(cè)出車(chē)輛;FP代表假陽(yáng)性,即將非車(chē)輛誤認(rèn)為車(chē)輛;FN代表假陰性,即將車(chē)輛誤認(rèn)為非車(chē)輛。
為了評(píng)估本文算法的性能,進(jìn)行了比較測(cè)試。本文從常見(jiàn)路面數(shù)據(jù)集Daimler Benchmark Dataset、Caltech數(shù)據(jù)庫(kù)和KITTI數(shù)據(jù)庫(kù)中抽取300張車(chē)輛圖像及300張不包含車(chē)輛信息的圖像作為測(cè)試集,并將尺寸統(tǒng)一設(shè)置為24x24。表2為SVM算法與本文算法的車(chē)輛檢測(cè)實(shí)驗(yàn)結(jié)果。
通過(guò)表2可以看出,本文算法與SVM算法相比檢測(cè)率略低,但大幅降低了誤檢率,誤檢率僅為1.33%,而SVM算法的誤檢率高達(dá)95%。比較得出本文算法在省去了大量訓(xùn)練時(shí)間的同時(shí)降低了誤檢率,獲得了較高的查準(zhǔn)率和F值。實(shí)驗(yàn)結(jié)果表明,本文提出的結(jié)合類(lèi)Haar特征和KNN算法的車(chē)輛識(shí)別方法有效地降低了靜態(tài)圖像的車(chē)輛誤檢率,具有較高的魯棒性。
然而,本文算法也存在一定的誤檢現(xiàn)象,如圖7所示,由紅色框標(biāo)出,圖a中較遠(yuǎn)處的車(chē)輛,由于車(chē)輛的類(lèi)Haar特征與路面特征相近,所以未識(shí)別出來(lái)。圖b中的卡車(chē)由于被建筑物遮擋住部分車(chē)體等原因并未被識(shí)別出。
6 結(jié)束語(yǔ)
車(chē)輛識(shí)別是智能交通系統(tǒng)中的關(guān)鍵技術(shù)。本文提出且實(shí)施了一種基于類(lèi)Haar特征的車(chē)輛檢測(cè)方法,實(shí)現(xiàn)了降低誤檢率的同時(shí)能準(zhǔn)確地從圖像中識(shí)別出目標(biāo)車(chē)輛。本文提出的結(jié)合類(lèi)Haar特征和最近鄰分類(lèi)器的算法復(fù)雜度低,且有效地降低了靜態(tài)圖像車(chē)輛誤檢率。
然而,本文算法仍有很多需要改進(jìn)的地方,如:這類(lèi)方法容易受環(huán)境和光照等因素的影響,如何提高對(duì)夜間道路車(chē)輛的檢測(cè)效果;如何將此算法應(yīng)用到視頻車(chē)輛檢測(cè)中,實(shí)現(xiàn)實(shí)時(shí)車(chē)輛檢測(cè);以及如何提高在道路安全實(shí)際應(yīng)用中的可靠性、檢測(cè)速度等。這些改進(jìn)將是未來(lái)工作的目標(biāo)。
參考文獻(xiàn)
[1]Negri P,Clady X,Prevost L. Benchmarking haar and histograms of oriented gradients features applied to vehicle detection[J]. ICINCO 2007;Proceedings of the Fourth International Conference on Informatics in Control, Automation and Robotics, Robotics and Automation 1;May 9-12,2007;Angers,F(xiàn)rance. 2007:359-364.endprint
[2]郭新華,陳鍛生.基于機(jī)器學(xué)習(xí)的快速車(chē)輛檢測(cè)方法[D].泉州市,華僑大學(xué),2016.
[3]Autoscope-Video Detection Solutions.http://autoscope.com
[4]Iteris-Innovation for better mobility. http://www.iteris.com
[5]N.Chintalacheruvu and V.Muthukumar, Video Based Vehicle Detection and its Appli-cation in Intelligent Transportation Systems[J].Journal of Transportation Technologies,Vol.2 No.4,2012,pp.305-314.
[6]黨宏社,趙廣社.汽車(chē)巡航控制用傳感器進(jìn)展[J].傳感器技術(shù),2002,21(01):1-3.
[7]Ge J,Luo Y,Tei G.Real-time pedestrian detection and tracking at nighttime for driver-assistance systems[J]. Intelligent Transportation Systems, IEEE Transactions on;2009;10(02),283-298.
[8]李鄉(xiāng)儒,吳福朝,胡占義.均值漂移算法的收斂性[J].軟件學(xué)報(bào),2005,16(03):365-374.
[9]N.Dalal.Finding people in images and videos [D].Ph D Thesis,INRIA,2006.
[10]M.Oren,C.Papageorgiou,P.Sinha, et al.Pedestrian detection using wavelet templates[A].In Proc.of IEEE CVPR [C],1997.
[11]B.Günyel, R.Benenson,R.Timofte,and L.Van Gool.Stixels motion estimation without optical flow computation.In ECCV,2012.
[12]Wang H,Zhang H.A Hybrid Method of Vehicle Detection based on Computer Vision for Intelligent Transportation System[J].International Journal of Multimedia & Ubiquitous Engineering, 2014.
[13]代科學(xué),李國(guó)輝,涂丹等.監(jiān)控視頻運(yùn)動(dòng)目標(biāo)檢測(cè)減背景技術(shù)的研究現(xiàn)狀和展望[J].中國(guó)圖象圖形學(xué)報(bào),2006,11(07):919-927.
[14]U.Franke,and I.Kutzbach.Fast stereo based object detection for stop and go traffic[A].In Proc.of IEEE Intelligent Vehicles Symposium [C].1996,339-344.
[15]U.Franke,D.Gavrila,S.Gorzig,etal.Autonomousdrivinggoesdowntown [J].IEEE Intelligent Systems, 1999,13(06):40-48.
[16]D.Gavrila,J.Giebel,and S.Munder. Vision-based pedestrian detection: the protector system[A].In Proc. IEEE Intelligent Vehicles Symposium [C].2004,13-18.
[17]R.Benenson,R.Timofte,andL.VanGool.Stixelsestimationwithoutdepthmap computation. In ICCV,CVVT workshop,2011.
[18]文學(xué)志,方巍,鄭鈺輝.一種基于類(lèi)Haar 特征和改進(jìn)AdaBoost 分類(lèi)器的車(chē)輛識(shí)別算法[J].電子學(xué)報(bào),2011,39(05):1121-1126.
[19]Wen-Chung Chang;Chih-Wei Cho.Online boosting for vehicle detection[J]. IEEE Transa-ctions on Systems,Man, and Cybernetics,Part B:Cybernetics.Published by Institute of Electrical- and Electronics Engineers,Inc.,2010,40(03):892-902.
[20]李修志,吳鍵,催志明,陳建明.復(fù)雜交通場(chǎng)景中采用稀疏表示的車(chē)輛識(shí)別算法[J].中國(guó)圖象圖形學(xué)報(bào),2012,17(03):387-392.
[21]Ertugrul,OF,Tagluk,ME,Anovel version of k nearest neighbor:Dependent nearest neigh-bor[J].APPLIED SOFT COPUTING,2017(55):480-490.
[22]Lienhart R,Maydt J.An extended set of Haar-like features for rapid object detection[C].The IEEE International Conference on Image Processing.New York,USA,2002,1:900-903.endprint
[23]Viola P,Jones M.Robust real-time face detection[J].International Journal of Computer Vision,Published by Springer,2004,57(02):137-154.
[24]Oualla M,Sadiq A,Mbarki S.A survey of Haar-Like feature representation[J].Multimedia Computing and Systems (ICMCS).2014 April; International Conference on;2014(01)1101-1106.
[25]Christianini,N.,and J.C.Shawe-Taylor.An Introduction to Support Vector Machines and Other Kernel-Based Learning Methods. Cambridge[M].UK:Cambridge University Press,2000-03-28.
[26]佚名.Benchmark Dataset http:// www.gavrila.Net/Datasets/Daimler_Pedestrian_Benchmark_D/Daimler_Mono_Ped__Detection_Be/Daimler_mono_ped __detection_be.
[27]佚名.Caltech數(shù)據(jù)庫(kù)http://www.vision.caltech.edu/html-files/archive.html.
[28]佚名.KITTI數(shù)據(jù)庫(kù)http://www.cvlibs.net/datasets/kitti/eva l_object.php.
[29]D Konstantinidis,T Stathaki,V Argyriou,N Grammalidis,Building Detection Using Enhanced HOG–LBP Features and Region Refinement Processes[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2016,PP(99):1-18.
作者簡(jiǎn)介
周瑩(1993-),女,黑龍江省哈爾濱市人。碩士學(xué)位?,F(xiàn)為哈爾濱師范大學(xué)碩士三年級(jí)在讀,學(xué)生。主要研究方向?yàn)閳D像處理、智能交通系統(tǒng)。
于曉艷(1975-),女,黑龍江省哈爾濱市人。碩士研究生導(dǎo)師,教授。主要研究領(lǐng)域?yàn)閳D像處理與機(jī)器視覺(jué)。
作者單位
哈爾濱師范大學(xué)物理與電子工程學(xué)院 黑龍江省哈爾濱市 150025endprint