曲巨寶
(武夷學(xué)院數(shù)學(xué)與計(jì)算機(jī)系,福建武夷山 354300)
運(yùn)動(dòng)車輛跟蹤一直是道路交通管理和肇事逃逸追蹤關(guān)注的焦點(diǎn)。利用城市道路監(jiān)控?cái)z像機(jī),如何準(zhǔn)確而有效地定位視頻序列中待跟蹤車輛目標(biāo)的位置,一直是計(jì)算機(jī)圖像處理、視覺(jué)計(jì)算領(lǐng)域中的一個(gè)熱門課題。其中車牌自動(dòng)識(shí)別也是智能交通系統(tǒng)一個(gè)重要的部分[1],但其前提是要對(duì)視頻圖像進(jìn)行提取后獲得車牌信息。絕大多數(shù)應(yīng)用場(chǎng)合中要求目標(biāo)跟蹤算法對(duì)遮擋、光線變化以及目標(biāo)縮放、旋轉(zhuǎn)具有魯棒性,且跟蹤算法耗時(shí)少,實(shí)時(shí)性高。目前,常用的MeanShift算法、CamShift算法和粒子濾波被廣泛應(yīng)用于目標(biāo)跟蹤領(lǐng)域中。MeanShift以其無(wú)需參數(shù)、快速模式匹配的特性而受到廣泛關(guān)注。但該算法無(wú)法更新跟蹤窗核寬,當(dāng)目標(biāo)發(fā)生明顯的尺寸變化時(shí),容易造成目標(biāo)的丟失[2]。粒子濾波是通過(guò)隨機(jī)樣本的狀態(tài)和權(quán)值來(lái)計(jì)算后驗(yàn)概率分布,是一種簡(jiǎn)單、有效的由非高斯、非線性的觀測(cè)數(shù)據(jù)計(jì)算后驗(yàn)概率的方法。但是計(jì)算量較大,尤其是隨著狀態(tài)空間的維數(shù)的增加計(jì)算量增加更快[3]。CamShift算法通過(guò)H分量方向投影圖中目標(biāo)區(qū)的一階矩計(jì)算獲得目標(biāo)尺度和跟蹤窗,依靠連續(xù)迭代計(jì)算,獲取目標(biāo)形心位置[4]。該算法可以對(duì)人臉等具有特定顏色的目標(biāo)進(jìn)行跟蹤,但在復(fù)雜背景中、運(yùn)動(dòng)目標(biāo)色彩豐富或者當(dāng)目標(biāo)與背景顏色接近時(shí),跟蹤結(jié)果往往難以令人滿意。為此,本文在深入研究了CamShift算法之后,提出了基于自適應(yīng)顏色識(shí)別、傾角旋轉(zhuǎn)、信息識(shí)別的改進(jìn)CamShift算法,以應(yīng)用于復(fù)雜場(chǎng)景情況下車輛目標(biāo)的精確跟蹤。
CamShift算法是一個(gè)基于隨機(jī)顏色概率模型的跟蹤算法,它通過(guò)聚類的方式搜尋運(yùn)動(dòng)目標(biāo),而與跟蹤對(duì)象的具體模型無(wú)關(guān),利用區(qū)域內(nèi)的顏色信息實(shí)現(xiàn)快速可變核窗寬跟蹤。它由反向投影、MeanShift算法和CamShift跟蹤三個(gè)主要部分構(gòu)成[5-6]。
CamShift算法是在顏色概率分布圖中執(zhí)行MeanShift算法,MeanShift算法根據(jù)反向投影和初始搜索窗口位置,利用迭代方法尋求質(zhì)心,當(dāng)搜索窗口中心的移動(dòng)小于某個(gè)給定值或者函數(shù)已經(jīng)達(dá)到最大迭代次數(shù)時(shí),認(rèn)為收斂條件滿足,停止迭代。設(shè)I(x,y)是反向投影圖中(x,y)處的像素值,x和y的變化范圍為搜索窗的范圍。
CamShift算法流程如下:
由于CamShift算法使用單一的HSV顏色模型,很難適應(yīng)物體大范圍運(yùn)動(dòng)或場(chǎng)景背景變化和大幅度光照變化[4];其以HSV模型中H分量作為目標(biāo)建模特征,當(dāng)S或者V值較小或者較大時(shí)勢(shì)必降低灰色、黑色等色調(diào)模糊的目標(biāo)模型與背景模型的可分度,導(dǎo)致跟蹤失敗[7-8];其次是當(dāng)目標(biāo)發(fā)生傾斜、角度變化時(shí)無(wú)法正確識(shí)別目標(biāo),當(dāng)目標(biāo)被遮擋、瞬間消失等情況發(fā)生時(shí)都無(wú)法正確跟蹤。如圖1的a列所示。在a1和a2兩圖中目標(biāo)能被CamShift算法準(zhǔn)確跟蹤,在a3和a4兩圖中天空突然變晴朗,亮度增大,可以看到此時(shí)的跟蹤已經(jīng)發(fā)生偏離。
圖1 兩種算法實(shí)驗(yàn)結(jié)果比較
當(dāng)車輛在運(yùn)動(dòng)中與攝像機(jī)間的視角發(fā)生變化時(shí),其目標(biāo)圖像內(nèi)的像素組成就發(fā)生了變化,僅靠一階CamShift是無(wú)法正確識(shí)別目標(biāo)的,為此進(jìn)一步利用二階矩陣求取車輛目標(biāo)傾角和搜索窗[9]構(gòu)造目標(biāo)二階矩分別為
為能更好地預(yù)測(cè)車輛目標(biāo)在下一時(shí)刻可能出現(xiàn)的位置和運(yùn)動(dòng)特性,為運(yùn)動(dòng)目標(biāo)建立狀態(tài)信息模型和加速度位移方程[10]:
其中:α,β是一個(gè)介于0≤α,β≤1的常數(shù)。
利用VC6.0及MATLAB7.0為平臺(tái),在P4 3.0GHz 512M的機(jī)器上開發(fā)了本算法的實(shí)驗(yàn)系統(tǒng),對(duì)各種場(chǎng)景下的車輛視頻序列進(jìn)行連續(xù)跟蹤實(shí)驗(yàn)。在實(shí)驗(yàn)中,首先利用自適應(yīng)HSV顏色組合模型對(duì)場(chǎng)景中H,S,V三分量進(jìn)行凸組合建模,通過(guò)多目標(biāo)規(guī)劃法求取最優(yōu)組合系數(shù),實(shí)現(xiàn)自適應(yīng)CamShift跟蹤識(shí)別;為確保當(dāng)車輛發(fā)生旋轉(zhuǎn)、傾斜時(shí)也能夠正確識(shí)別,采用二階矩進(jìn)行傾角預(yù)測(cè);通過(guò)構(gòu)造車輛狀態(tài)信息方程,預(yù)測(cè)車輛在下一時(shí)刻可能出現(xiàn)的位置和運(yùn)動(dòng)特性,避免因車輛遮擋、瞬間消失、重現(xiàn)時(shí)給跟蹤系統(tǒng)帶來(lái)的擾動(dòng),同時(shí)對(duì)系統(tǒng)跟蹤效率也有很大提高。其算法實(shí)現(xiàn)流程如圖2所示。
圖2 自適應(yīng)組合CamShift算法流程圖
圖3 深色度車輛超車時(shí)兩種算法跟蹤結(jié)果比較
為驗(yàn)證本算法的有效性,對(duì)道路上的實(shí)際車輛視頻進(jìn)行了大量的跟蹤測(cè)試實(shí)驗(yàn)。圖1是使用本算法前后的實(shí)驗(yàn)結(jié)果比對(duì)。其中a列圖像是利用傳統(tǒng)CamShift算法進(jìn)行目標(biāo)跟蹤的結(jié)果,b列是本文算法。盡管在b3和b4兩圖中目標(biāo)快速地移向攝像機(jī),且天空光照增強(qiáng),本文算法依然可以很好地跟蹤到目標(biāo),而傳統(tǒng)的CamShift算法已經(jīng)丟失了目標(biāo)。圖3是一輛深色轎車超車過(guò)程視頻跟蹤過(guò)程。從第1幀標(biāo)定了該車輛到第53幀,傳統(tǒng)CamShift算法(圖a)都能很好地跟蹤到目標(biāo),但當(dāng)進(jìn)入到第68幀超車后,由于H分量的作用,使得搜索窗將兩部色度相近的車都框入跟蹤區(qū),到第97幀時(shí)已經(jīng)完全失去了目標(biāo)車輛;圖b是利用本文算法進(jìn)行的跟蹤。在第68幀時(shí)由于運(yùn)用了車輛狀態(tài)信息識(shí)別算法,對(duì)車輛質(zhì)心、加速度等信息做了很好的預(yù)測(cè),因此保證了跟蹤質(zhì)量和效率。圖4是兩種算法在跟蹤時(shí)的車輛質(zhì)心狀態(tài)仿真圖,在第 420幀至 620幀時(shí)亮度增大,傳統(tǒng)CamShift算法明顯偏離目標(biāo),而本算法卻沒(méi)有受到干擾,能夠正常跟蹤。
圖4 車輛質(zhì)心跟蹤仿真圖
針對(duì)CamShift算法只適于跟蹤H分量等特定顏色目標(biāo)的不足,本文采用HSV空間的H,S,V三個(gè)分量建立目標(biāo)的三維直方圖,并利用凸函數(shù)和多目標(biāo)規(guī)劃最優(yōu)求解法獲得自適應(yīng)顏色識(shí)別最佳組合算法,提高了算法適應(yīng)場(chǎng)景變化的能力。進(jìn)一步提高車輛目標(biāo)跟蹤過(guò)程的識(shí)別率,建立了多變量狀態(tài)模型和旋轉(zhuǎn)的跟蹤和預(yù)測(cè),提高了目標(biāo)跟蹤的準(zhǔn)確性和魯棒性。經(jīng)大量的現(xiàn)場(chǎng)實(shí)驗(yàn)表明,本文算法跟蹤效果好,識(shí)別率高,實(shí)時(shí)性強(qiáng),易于工程實(shí)現(xiàn),有很好的應(yīng)用前景。
[1]石曉瑛,許智榜.車牌自動(dòng)識(shí)別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[J].華東交通大學(xué)學(xué)報(bào),2009,26(3):48-51.
[2]CRISAN D,DOUCET A.A survey of convergence results on particle filtering methods for practitioners[J].IEEETransSpeech and Audio Proc,2002,10(3):173-185.
[3]李靜,陳兆乾.基于顏色的粒子濾波非剛性目標(biāo)實(shí)時(shí)跟蹤算法[J].鄭州大學(xué)學(xué)報(bào):理學(xué)版,2006,38(4):60-63.
[4]JINMAN K,COHEN I,MEDIONI G.Continuous Tracking within and across Camera Streams[C]//2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.2003:267-272.
[5]BOYLE M.The Effects of Capture Conditions on the CAMSHIFT Face Tracker[R].Alberta,Canada:Department of Computer Science,University of Calgary,2001:45-47.
[6]NOUAROULD-DRIS,ALI GANOUN,RAPHAEL CANALS.ImprovedObjectTracking withCamShiftAlgorithm[C]//IEEE International Conference on Acoustics,Speech and Signal Procession,2006:165-167.
[7]NUMMIAR O K,KOLLER-MEIER E,VAN GOOL L.An adaptive color-based particle filter[J].Image and Vision Computing,2003,21(1):99-110.
[8]COMANICIU D,RAMESH V,MEER P.Kernel based object tracking[J].IEEE Trans Pattern Analysis Machine Intelligence,2003,25(5):564-575.
[9]ALLEN J G.Object tracking using CamShift algorithm and multiple quantizedfeature space[C]//Proceedingsof 2003 Pan-Sydney Area Workshop onVisual Information Processing.Darlinghurst,Australia:Australian Computer Society,2004:3-7.
[10]COMANICIU D,RAMESH V,Meer P.Kernel-based object tracking[J].PAMI,2003,5:564-577.