劉曰,彭海娟,路錦文
(北汽集團(tuán)新技術(shù)研究院,北京 101300)
智能駕駛中車輛檢測(cè)方法綜述
劉曰,彭海娟,路錦文
(北汽集團(tuán)新技術(shù)研究院,北京 101300)
文章綜述了智能駕駛中車輛檢測(cè)方法,首先介紹車輛檢測(cè)算法的組成,包括單一的檢測(cè)和融合跟蹤的檢測(cè),然后根據(jù)兩種檢測(cè)算法的實(shí)現(xiàn),將現(xiàn)有的算法進(jìn)行了分類,分析并討論了各自方法的優(yōu)缺點(diǎn)。其中,檢測(cè)部分分為圖像處理方法和機(jī)器學(xué)習(xí)方法,圖像處理方法包括基于雷達(dá)的方法,基于知識(shí)的方法,基于運(yùn)動(dòng)的方法和基于模型的方法。機(jī)器學(xué)習(xí)的方法包括基于特征和分類器的方法以及基于特征模板的方法;跟蹤部分分為基于對(duì)比度分析的方法,基于匹配的方法和基于TLD的方法。最后在結(jié)論部分做了總結(jié),展望了智能駕駛車輛檢測(cè)未來技術(shù)的發(fā)展方向。
車輛檢測(cè);智能駕駛;機(jī)器視覺;目標(biāo)跟蹤
CLC NO.: U467 Document Code: A Article ID: 1671-7988 (2017)11-22-05
隨著汽車行業(yè)的迅猛發(fā)展,汽車從最初的代步工具逐步演化成現(xiàn)在必不可少的個(gè)人交通工具,人們對(duì)汽車的性能的要求也越來越高,安全、節(jié)能、環(huán)保、舒適和信息智能化是當(dāng)今汽車發(fā)展的主要需求方向。與此同時(shí),智能交通系統(tǒng)(Intelligent Traffic System, ITS)中的智能駕駛技術(shù)在近年得以蓬勃發(fā)展。
從20世紀(jì)70年代開始,日本、歐美等發(fā)達(dá)國(guó)家開始進(jìn)行智能汽車的研究,在可行性和實(shí)用化方面都取得了突破性的進(jìn)展0。中國(guó)從20世紀(jì)80年代開始進(jìn)行智能汽車的研究。計(jì)算機(jī)視覺是智能駕駛中的核心技術(shù),利用車載傳感器來感知車輛周圍環(huán)境,并根據(jù)感知所獲得的道路、車輛位置和障礙物信息,控制車輛的轉(zhuǎn)向和速度,給出車輛可通行區(qū),從而使車輛能夠安全、可靠地在道路上行駛。
車載視覺中智能駕駛的識(shí)別目標(biāo),包括車輛、行人、交通標(biāo)志等,其中車輛的檢測(cè)是智能駕駛環(huán)境感知的重要組成部分0,0,其水平的高低直接影響到智能駕駛車輛的行為決策,本文將對(duì)車載視覺中的車輛目標(biāo)在智能駕駛中的檢測(cè)方法進(jìn)行綜述。
車輛檢測(cè)算法是智能駕駛中的核心算法之一,是自主導(dǎo)航、碰撞避免等應(yīng)用不可缺少的環(huán)節(jié)。在實(shí)際道路工況中,車輛檢測(cè)是一個(gè)極富挑戰(zhàn)性的任務(wù),需解決的現(xiàn)實(shí)難題有:
(1)道路多樣:結(jié)構(gòu)化道路,如高速,非結(jié)構(gòu)化道路,如城鎮(zhèn);
(2)車型豐富:形狀、大小、顏色不盡相同,多目標(biāo)車輛;
(3)環(huán)境變化:天氣、光照影響,背景干擾,相機(jī)振動(dòng);
(4)自車變化:姿態(tài)、遠(yuǎn)近,遮擋因素。
實(shí)際駕駛中,車輛檢測(cè)的效果一般需同時(shí)滿足實(shí)時(shí)性和準(zhǔn)確性,而這兩種性能往往相互制約,在不同的道路工況中,體現(xiàn)的重要性不一,如在高速路況下,車輛速度較快,車輛間可看成隊(duì)列,檢測(cè)準(zhǔn)確性更重要;而在城市路況下,道路環(huán)境變化較大,車輛間運(yùn)動(dòng)規(guī)律不明顯,檢測(cè)實(shí)時(shí)性突顯其重要性。因此,一般來說,車輛檢測(cè)分為兩部分:檢測(cè)和跟蹤。檢測(cè)部分的任務(wù)是搜索圖像,檢測(cè)當(dāng)前圖像序列中是否有車輛目標(biāo),并獲得目標(biāo)大小和位置信息。跟蹤部分的任務(wù)是利用當(dāng)前幀中檢測(cè)目標(biāo)的初始信息,縮小檢測(cè)范圍,在連續(xù)幀中跟蹤目標(biāo)的變化。檢測(cè)需要對(duì)圖像進(jìn)行遍歷性的搜索,還需考慮不同的尺度空間,所以時(shí)間復(fù)雜度一般都比較高。而跟蹤算法可以利用時(shí)間和空間約束條件,減小搜索空間,到達(dá)實(shí)時(shí)性要求,還可以充分利用已檢測(cè)車輛的特征,提高車輛連續(xù)準(zhǔn)確識(shí)別的穩(wěn)定性。
因此,根據(jù)已有的檢測(cè)算法,本文將車輛檢測(cè)算法分為兩類:
(1)只包括檢測(cè)的算法
檢測(cè)算法的輸入是單幀圖像,核心算法分隔車輛目標(biāo)和背景,輸出是車輛目標(biāo)的位置信息。若檢測(cè)算法能達(dá)到實(shí)時(shí)性的要求且識(shí)別率較高,可以對(duì)每幀圖像進(jìn)行檢測(cè)而不采用跟蹤算法。為達(dá)到此目標(biāo),一般將檢測(cè)算法分為兩部分0:假設(shè)生成階段和假設(shè)驗(yàn)證階段。假設(shè)生成(Hypothesis Generation, HG)階段的功能是生成當(dāng)前圖像中所有可能的車輛目標(biāo)區(qū)域,即感興趣區(qū)域(Region of Interesting, ROI),在確定的多個(gè)ROI中往往有些并不是包含有車輛目標(biāo)的區(qū)域,為避免誤檢,這就需要進(jìn)一步的驗(yàn)證,而假設(shè)驗(yàn)證(Hypothesis Verification, HV)階段的功能正是校驗(yàn)假設(shè)區(qū)域是否有車輛目標(biāo)的存在,有效排除非車輛目標(biāo),保留車輛目標(biāo)。
(2)檢測(cè)和跟蹤融合的方法
在車輛檢測(cè)的基礎(chǔ)上,通過車輛跟蹤方法一方面可以根據(jù)車輛運(yùn)動(dòng)狀態(tài),預(yù)測(cè)車輛在圖像中的位置,建立跟蹤區(qū)域。另一面則可以充分應(yīng)用已檢測(cè)車輛的特征,提高車輛連續(xù)識(shí)別的穩(wěn)定性。為了到達(dá)檢測(cè)算法的實(shí)現(xiàn)性或進(jìn)一步提高檢測(cè)穩(wěn)定性,可以采用檢測(cè)和跟蹤融合的策略,先檢測(cè)到目標(biāo)然后再利用跟蹤算法進(jìn)行跟蹤的方法,到達(dá)有效跟蹤同一車輛目標(biāo)的運(yùn)動(dòng)變化以及實(shí)時(shí)檢測(cè)新出現(xiàn)的車輛目標(biāo)的效果。采用這種融合方法,可以進(jìn)一步縮小檢測(cè)時(shí)所需的搜索空間,充分利用在前一幀圖像中檢測(cè)或跟蹤到的車輛位置等信息,將ROI搜索空間限制在很小的范圍之內(nèi),到達(dá)實(shí)時(shí)性要求。這一檢測(cè)和跟蹤融合的檢測(cè)策略,也可為車輛的進(jìn)一步行為分析做準(zhǔn)備,達(dá)到對(duì)車輛運(yùn)動(dòng)進(jìn)行長(zhǎng)期的分類和預(yù)測(cè)的效果。
車輛檢測(cè)算法是從圖像序列中提取出車輛目標(biāo)并進(jìn)行定位,即分割車輛目標(biāo)與背景,屬于計(jì)算機(jī)視覺中的目標(biāo)識(shí)別和運(yùn)動(dòng)檢測(cè)問題。車輛檢測(cè)部分的實(shí)現(xiàn)分為ROI假設(shè)階段和目標(biāo)確定階段。跟蹤車輛需要對(duì)圖像序列中車輛的位置進(jìn)行運(yùn)動(dòng)學(xué)估計(jì),并形成車輛軌跡。有時(shí)我們同時(shí)需要實(shí)現(xiàn)車輛運(yùn)動(dòng)參數(shù)的估計(jì),如速度,加速度等,提供連續(xù)穩(wěn)定的識(shí)別。
車輛檢測(cè)部分實(shí)現(xiàn)的方法可分為圖像處理方法和機(jī)器學(xué)習(xí)方法,圖像處理方法包括基于雷達(dá)的方法,基于知識(shí)的方法,基于運(yùn)動(dòng)的方法和基于模型的方法;機(jī)器學(xué)習(xí)的方法包括基于特征和分類器對(duì)的方法以及基于特征模板的方法。
車輛追蹤部分的實(shí)現(xiàn)可分為基于對(duì)比度分析的方法,基于匹配的方法和基于TLD的方法0,將在后續(xù)章節(jié)紹具體方法。車輛檢測(cè)和跟蹤方法分類示意圖如圖1所示。
圖1 車輛檢測(cè)和跟蹤方法分類示意圖
2.1 ROI假設(shè)階段
ROI假設(shè)階段的算法實(shí)現(xiàn)原則是盡可能多的獲取可能的感興趣目標(biāo),避免漏檢,一定程度上容許誤檢。涉及到的方法有:
(1)基于雷達(dá)的方法
車輛檢測(cè)的環(huán)境感知研究中,使用過多種傳感器,如超聲波、紅外線、激光、視頻和雷達(dá)。從對(duì)目標(biāo)探測(cè)能力和對(duì)天氣環(huán)境的適應(yīng)能力上,雷達(dá)都表現(xiàn)出優(yōu)異的性能。
車載毫米波雷達(dá)可在得到測(cè)量距離的基礎(chǔ)上,由多普勒效應(yīng)直接讀出目標(biāo)的速度信息,其距離測(cè)量精度一般不如激光雷達(dá)。與激光雷達(dá)不同,毫米波雷達(dá)的輸出大多經(jīng)過內(nèi)部集成的處理單元處理,可以直接讀取目標(biāo)障礙物信息。[6]文獻(xiàn)[6]中,利用毫米波雷達(dá)量測(cè)集合與目標(biāo)集合的對(duì)應(yīng)關(guān)系,采用廣義概率數(shù)據(jù)關(guān)聯(lián)算法進(jìn)行數(shù)據(jù)關(guān)聯(lián),最終可以穩(wěn)定地得到目標(biāo),克服了基于視覺的車輛檢測(cè)方法對(duì)目標(biāo)距離和環(huán)境光線敏感的缺點(diǎn)。但雷達(dá)檢測(cè)的目標(biāo)不具備語義信息,無法辨識(shí)目標(biāo)是否為車輛,要引入圖像提供的視覺信息來進(jìn)行目標(biāo)的驗(yàn)證。
(2)基于知識(shí)(或特征)的方法
基于知識(shí)的方法通過一些車輛的共同特征來定位車輛,其中車輛底部陰影,車輛水平/垂直邊緣,車輛對(duì)稱性,車輛紋理等是最常用的特征。在白天較好的光照條件下,車輛底部區(qū)域的灰度明顯比其他區(qū)域低。利用車輛邊緣的水平特性和垂直特性等特點(diǎn),可將車輛從圖像背景中分隔出來。利用車輛的幾何對(duì)稱性,可以出對(duì)稱性映射圖中獲取車輛的位置。通過對(duì)車輛進(jìn)行紋理分析,能有效反映車輛結(jié)構(gòu),有助于圖像分隔和特征抽取。單獨(dú)使用某種特征一般不能得到較好的檢測(cè)結(jié)果,通常做法是將多種特征結(jié)合起來,進(jìn)行特征融合,從而到達(dá)較好的檢測(cè)效果。
大部分之前討論的方法不適用于夜間車輛檢測(cè),燈光是夜間車輛最明顯的特征,因此現(xiàn)有的夜間車輛識(shí)別方法大都采用尾燈來識(shí)別前方車輛,識(shí)別流程可分為三個(gè)主要步驟:首先在不同的顏色空間內(nèi)通過圖像分割提取車輛尾燈,常用的顏色空間包括YCbCr,RGB和HSV,然后根據(jù)車輛尾燈相對(duì)位置,對(duì)稱性和相似性等特征匹配尾燈[7],從而實(shí)現(xiàn)夜間車輛檢測(cè)。
(3)基于運(yùn)動(dòng)的方法
基于運(yùn)動(dòng)特征常見的檢測(cè)方法有幀差分法和光流法。幀差法是背景減圖法中的一種,根據(jù)背景模型不同分為背景幀差分和相鄰幀差分。相鄰幀差分的基本原理就是將前后兩幀圖像對(duì)應(yīng)像素點(diǎn)的灰度值相減,所以速度很快,但容易漏檢運(yùn)動(dòng)速度較慢的車輛并且常常會(huì)將一輛車分成幾個(gè)部分造成多檢。而背景幀差分是采用圖像序列中的當(dāng)前幀和背景參考模型比較來檢測(cè)運(yùn)動(dòng)物體的一種方法,同時(shí)使用于靜止和運(yùn)動(dòng)的車輛目標(biāo),但依賴于背景更新。
由于行駛環(huán)境中前車與自車總是存在一定的相對(duì)運(yùn)動(dòng)關(guān)系,在連續(xù)的圖像序列中同一車輛上特征點(diǎn)具有相同的運(yùn)動(dòng)規(guī)律,光流法[8]正是利用被觀測(cè)面上像素點(diǎn)運(yùn)動(dòng)產(chǎn)生的瞬時(shí)速度場(chǎng)來檢測(cè)運(yùn)動(dòng)車輛。一般情況下,光流由攝像機(jī)運(yùn)動(dòng)、場(chǎng)景中目標(biāo)運(yùn)動(dòng),或兩者的運(yùn)動(dòng)產(chǎn)生。光流法能夠較好的處理背景運(yùn)動(dòng)的情況,無需障礙物的先驗(yàn)知識(shí),可用來估計(jì)車輛在圖像中位置和速度,但對(duì)噪聲、光線變化較敏感,且計(jì)算量較大,實(shí)時(shí)性較差,不適用于靜止目標(biāo),由于從旁邊超越的車輛和安裝攝像機(jī)的車輛之間有較大的相對(duì)運(yùn)動(dòng)速度,所以光流方法較適用于檢測(cè)從旁邊超過的車輛。在實(shí)際應(yīng)用中,需特殊的硬件設(shè)備支持。
(4)基于模型的方法
基于模型的方法建立車輛對(duì)象的三維或二維模型與待檢測(cè)圖像之間的匹配操作。三維模型通過立體(或雙目)視覺提供,相機(jī)參數(shù)通過標(biāo)記計(jì)算,利用視差圖和逆透視圖,定位車輛目標(biāo)[9]。利用幾何外形建立車輛二維模型,如文獻(xiàn)[10]采用了基于對(duì)稱性檢測(cè)ROI,然后利用建立的矩形二維模型進(jìn)行匹配的方法。基于模型的方法經(jīng)常和基于特征的方法相結(jié)合,首先基于特征找到車輛的大致區(qū)域位置, 然后再用模型進(jìn)行匹配。
基于模型方法的缺點(diǎn)是對(duì)車輛模型過分依賴,由于車型的多樣性和車輛姿態(tài)的變化,單一的固定模型往往不能適用于所有的車輛。而為每種車輛和姿態(tài)都建立精細(xì)的模型勢(shì)必造成計(jì)算量的成倍增加,不利于實(shí)時(shí)處理,實(shí)際應(yīng)用中,三維模型的建立需要專有的高效的FPGA平臺(tái)[11]。
2.2 目標(biāo)確定階段
在目標(biāo)確定階段,由于已經(jīng)通過基于雷達(dá)或知識(shí)或運(yùn)動(dòng)或模板的方法生成了可能的車輛位置,可以采用如下的方法來進(jìn)行準(zhǔn)確可靠的車輛確認(rèn)。
(1)基于特征和分類器的方法
基于特征和分類器對(duì)的方法實(shí)際上是把檢測(cè)的任務(wù)轉(zhuǎn)化成了模式識(shí)別,首先提取檢測(cè)方法得到的可能含有車輛的圖像區(qū)域的特征向量,作為模式分類器的輸入,再利用已經(jīng)訓(xùn)練好的分類器進(jìn)行分類,將誤檢的不包含車輛的區(qū)域識(shí)別出來,進(jìn)一步提高檢測(cè)的正確率。
特征提取是一種變換或者編碼,將數(shù)據(jù)從高維的原始特征空間通過映射,變換到低維空間的表示,好的特征應(yīng)具有不變形和可區(qū)分性。其中常用特征向量有主成分分析(Principal Component Analysis, PCA)特征,小波特征,梯度方向積分圖(Histogram of Oriented Gradient, HOG),Haar-like特征尺度不變特征轉(zhuǎn)換(Scale-invariant feature transform, SIFT)等;用于區(qū)分車輛與非車輛目標(biāo)的分類器有神經(jīng)網(wǎng)絡(luò)(Nerual Network, NN),支持向量機(jī)(Support Vector Machine, SVM)和AdaBoost方法等。
一般將單種特征與分類器相配對(duì)來驗(yàn)證ROI,如文獻(xiàn)[12]分別制作車輛正前方,左/右側(cè)及遠(yuǎn)距離車輛的尾部圖片,分別計(jì)算其PCA特征,并采用SVM方法訓(xùn)練最佳分類器,但遠(yuǎn)距離的識(shí)別率有待改善。在文獻(xiàn)[13]中,HOG-SVM使用聯(lián)合乘積的內(nèi)核函數(shù)來檢測(cè)車輛,檢測(cè)速度仍有待改善。自從Viola P[14]提出基于Haar-like特征的Adaboost方法在人臉檢測(cè)中的應(yīng)用以來,Adaboost方法作為一種集成算法,便廣泛應(yīng)用于目標(biāo)檢測(cè)方面。為進(jìn)一步提高檢測(cè)率,文獻(xiàn)[15]中探索了Haar-like特征與HOG特征的優(yōu)缺點(diǎn),并將之結(jié)合作為車輛特征,利用Adaboost方法,有效降低了誤識(shí)別率。但其中的分類器一般是離線訓(xùn)練,學(xué)習(xí),故在制作正負(fù)樣本,訓(xùn)練階段需要較大的工作量,且一般手工選取特征,調(diào)節(jié)需要大量的時(shí)間,近幾年在人工智能領(lǐng)域非?;鸬纳疃葘W(xué)習(xí)(Deep Learning, DL)[16]算法能自動(dòng)學(xué)習(xí)特征,是一種改進(jìn)的神經(jīng)網(wǎng)絡(luò)。很多深度學(xué)習(xí)的算法是半監(jiān)督式學(xué)習(xí)算法,用來處理存在少量未標(biāo)識(shí)數(shù)據(jù)的大數(shù)據(jù)集。常見的深度學(xué)習(xí)算法包括:受限波爾茲曼機(jī)(Restricted Boltzmann Machine, RBN),深度置信網(wǎng)絡(luò)(Deep Belief Networks, DBN),卷積網(wǎng)絡(luò)(Convolutional Network, CN),堆棧式自動(dòng)編碼器(Stacked Auto-encoders)。
(2)基于特征模板的方法
相比基于特征和分類器的方法,基于特征模板的跟蹤方法不常見,其通過使用車輛的預(yù)定義的特征模板庫,比較假設(shè)生成區(qū)域HG與存儲(chǔ)模板之間的相關(guān)性,設(shè)定閾值,驗(yàn)證HG的準(zhǔn)確性。
2.3 目標(biāo)跟蹤階段
目標(biāo)跟蹤階段的算法實(shí)現(xiàn)原則是利用連續(xù)幀間的時(shí)間連續(xù)性以及當(dāng)前幀中檢測(cè)目標(biāo)在下一幀中的空間相關(guān)性,達(dá)到檢測(cè)的實(shí)時(shí)性和穩(wěn)定性。涉及到的方法有:
(1)基于對(duì)比度分析的方法
基于對(duì)比度分析的目標(biāo)跟蹤算法利用目標(biāo)與背景在對(duì)比度上的差異來提取,識(shí)別和跟蹤目標(biāo)。這類算法按照跟蹤參考點(diǎn)的,不同可以分為邊緣跟蹤、形心跟蹤和質(zhì)心跟蹤等。這類算法不適合復(fù)雜背景中的目標(biāo)跟蹤。
(2)基于匹配的方法
基于匹配的方法包括特征匹配、貝葉斯跟蹤和均方漂移[17](Mean Shift, MS)。貝葉斯跟蹤框架根據(jù)對(duì)運(yùn)動(dòng)分布描述能力的大小,依次分為卡爾曼濾波(Kalman Filter, KF)、粒子濾波(Particle Filter, PF)、隱馬爾科夫模型(HMMs)和動(dòng)態(tài)貝葉斯模型(DBNs),這些算法的主要區(qū)別參考文獻(xiàn)[18]。
(3)基于TLD的方法
TLD(Tracking-Learning-detection)是一種近幾年較為流行的追蹤框架[19],集檢測(cè)、跟蹤與在線學(xué)習(xí)于一體,實(shí)現(xiàn)檢測(cè)器的在線學(xué)習(xí)和更新,達(dá)到對(duì)目標(biāo)長(zhǎng)期跟蹤的效果。該算法與傳統(tǒng)跟蹤算法的顯著特點(diǎn)在于將傳統(tǒng)的跟蹤算法和傳統(tǒng)的檢測(cè)算法相結(jié)合來解決被跟蹤目標(biāo)在被跟蹤過程中發(fā)生的形變、部分遮擋等問題。同時(shí),通過一種改進(jìn)的在線學(xué)習(xí)機(jī)制不斷更新跟蹤模塊的“顯著特征點(diǎn)”和檢測(cè)模塊的目標(biāo)模型及相關(guān)參數(shù),從而使得跟蹤效果更加穩(wěn)定、可靠。但不足之處是只適應(yīng)于單目標(biāo)跟蹤。
本文分析了智能駕駛中車輛檢測(cè)常用方法的組成:?jiǎn)我坏臋z測(cè)和融合跟蹤的檢測(cè),然后從目前車輛檢測(cè)中的研究難點(diǎn)出發(fā),對(duì)目前檢測(cè)和追蹤部分的實(shí)現(xiàn)算法進(jìn)行分類,介紹了不同算法的優(yōu)缺點(diǎn)。
從目前的檢測(cè)來看,機(jī)器學(xué)習(xí)算法是關(guān)鍵,研究新的特征,或自動(dòng)學(xué)習(xí)特征,或多種特征融合,建立新的分類器或在線學(xué)習(xí)框架,是將來的研究方向。采用立體視覺以及多傳感器融合的方法也是車輛檢測(cè)的常用方法,但是由于單目視覺具有算法成熟、實(shí)時(shí)性高等優(yōu)點(diǎn),因此目前多數(shù)車輛檢測(cè)方法都是基于單目視覺。但立體視覺以及多傳感器融合的方法有著不可替代的優(yōu)點(diǎn),將是未來車輛檢測(cè)算法的發(fā)展方向。跟蹤算法作為車輛檢測(cè)的補(bǔ)充部分,不僅可提高檢測(cè)精度和穩(wěn)定性,也為未來車輛駕駛行為分析提供依據(jù)。當(dāng)然,在車聯(lián)網(wǎng)技術(shù)迅速發(fā)展的今天,引入車車通信,車與基礎(chǔ)設(shè)施通信,也是智能駕駛車輛檢測(cè)具有前景的研究方向。
[1] Sun Z, Bebis G, Miller R. On-road vehicle detection: A review[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(5): 694 - 711.
[2] Kumar K A, Kumar S R. Vision-based Vehicle Detection Survey[J]. International Journal of Recent Contributions from Engineering, Science & IT (iJES), 2016, 4(1): 31-35.
[3] Wen X, Shao L, Fang W, et al. Efficient feature selection and classification for vehicle detection[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2015, 25(3): 508-517.
[4] Buch N, Velastin S A and Orwell J. A review of computer vision techniques for the analysis of urban traffic [J]. IEEE Transactions on Intelligent Transportation Systems, 2011, 12(3): 920-939.
[5] Kalal Z, Mikolajczyk K, Matas J. Tracking-Learning-Detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422.
[6] 胡彬, 趙春霞. 基于 MHT模型的毫米波雷達(dá)車輛檢測(cè)方法[J].南京理工大學(xué)學(xué)報(bào): 自然科學(xué)報(bào), 2012, 36(4): 557-560.
[7] 郭君斌, 王建強(qiáng), 易世春, 李克強(qiáng). 基于單目視覺的夜間前方車輛檢測(cè)方法[J]. 汽車工程, 2014, 36 (5):574 – 579.
[8] Giachetti A, Campani M, Torre V. The use of optial flow for road navigation[J]. IEEE Trans on Robotics and Automation, 1998, 14(1):34-48.
[9] Mona Saini. Survey on Vision Based On-Road Vehicle Detection[J]. International Journal of u-and e-Services, Science and Technology, 2014, 7(4): 139-146.
[10] Bensrhair A, Bertozzi M, Broggi A,et al. Cooperative Approach to Vision based Vehicle Detection[C]. IEEE Proceedings of Intelligent Transportation Systems.IEEE, 2001: 207-212.
[11] Gehrig S, Eberli F, Meyer T. A real-time low-power stereo vision engine using semi-global matching[C] Proc. Int. Conf. Computer Vision Systems, 2009: 134–143.
[12] Arrospide J, Salgado L. Region-Dependent Vehicle Classification Using PCA Features[C]. 19th IEEE International Conference on Image Processing, 2012: 453-456.
[13] Q. Yuan, A. Thangali, V. Ablavsky, and S. Sclaroff. Learning a family of detectors via multiplicative kernels[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(3): 514-530.
[14] Viola P, Jones M J. Rapid Object Detection using a Boosted Cascade of Simple Feature[C]. Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2001: 511-518.
[15] Negri P, Clady X, Hanif S M, et al. A Cascade of Boosted Genera -tive and Discriminative Classifiers for Vehicle Detection[J]. EURASIP Journal on Advances in Signal Processing, 2008: 1-12.
[16] Schmidhuber J. Deep learning in neural networks: An overview[J]. Neural networks, 2015, 61: 85-117.
[17] YIZONG CHENG. Mean Shift Mode Seeking, and Clustering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1995,17(8): 790-799.
[18] 蔡榮太, 吳元昊, 王明佳, 吳慶祥. 視頻目標(biāo)跟蹤算法綜述[J].電視技術(shù), 2010, 12(34): 135-138.
[19] Kalal, Z, Mikolajczyk, K, Matas, J. Face-TLD: Tracking- Learning-Detection applied to faces[C]. 17th IEEE International Conference on Image Processing, 2010: 3789-3792.
A Survey of Vehicle Detection Methods in Intelligent Driving
Liu Yue, Peng Haijuan, Lu Jinwen
(BAIC Group New Technology Institute, Beijing 101300)
This paper reviews the detection method of vehicles in intelligent driving, firstly of all, introduces the vehicle detection algorithm, including single detection and detection fusion with tracking. And then according to the two kinds of detection algorithm, the existing algorithms are classified, we analyze and discuss the advantages and disadvantages of each method. The detection part is divided into an image processing method and a machine learning method, and the image processing method includes a radar based method, a knowledge-based method, a motion based method and a model based method. The methods of machine learning are based on features and classifiers, and feature template. The tracking part is divided into contrast evaluating method, matching method and TLD based method. Finally, the conclusion is summarized, and the future development direction of vehicle detection technology is prospected.
vehicle detection; intelligent driving; computer vision; object tracking
U467
:A
:1671-7988 (2017)11-22-05
10.16638/j.cnki.1671-7988.2017.11.009
劉曰,就職于北京汽車研究總院有限公司新技術(shù)研究院。