肖秦琨,劉向軍
(西安工業(yè)大學(xué) 電子信息工程學(xué)院,陜西 西安 710032)
隨著計(jì)算機(jī)視覺(jué)技術(shù)、信號(hào)處理和多媒體等技術(shù)的發(fā)展,視頻監(jiān)控系統(tǒng)得到廣泛的應(yīng)用。為了減少人力的參與和提高視頻監(jiān)控系統(tǒng)的智能化,研究目標(biāo)跟蹤的有效方法是非常有必要的[1]。運(yùn)動(dòng)目標(biāo)跟蹤利用目標(biāo)點(diǎn)、線、區(qū)域塊等特征對(duì)目標(biāo)進(jìn)行特征匹配,從而實(shí)現(xiàn)跟蹤。比較典型的匹配算法有:Mean-shift算法、粒子濾波和模板匹配等。Mean-shift算法[2]采用顏色特征,計(jì)算量小、實(shí)時(shí)性好,缺點(diǎn)是灰度圖像或紋理信息較少,圖像的目標(biāo)跟蹤不能取得很好的跟蹤結(jié)果,且目標(biāo)存在遮擋和明顯尺度變化時(shí)容易丟失目標(biāo)。粒子濾波算法[3]作為一種基于貝葉斯估計(jì)的非線性濾波算法,在處理非高斯非線性時(shí)變系統(tǒng)的參數(shù)估計(jì)和狀態(tài)濾波問(wèn)題方面有獨(dú)到的優(yōu)勢(shì),但是作為一種新型算法對(duì)通用問(wèn)題缺乏借鑒意義,實(shí)時(shí)性差且粒子濾波的收斂性尚未解決。模板匹配算法[4]是通過(guò)計(jì)算像素點(diǎn)鄰域相似度來(lái)判斷匹配度,算法簡(jiǎn)單,但該方法需遍歷整張圖片,計(jì)算量大,且目標(biāo)形變、旋轉(zhuǎn)、遮擋時(shí),跟蹤的魯棒性較差?;谝陨蠁?wèn)題,研究基于Shape Context的目標(biāo)跟蹤算法具有良好的現(xiàn)實(shí)意義。
基于以上原因,文中提出了一種基于局部特征匹配的目標(biāo)跟蹤方法,該方法利用Shape Context[5]對(duì)目標(biāo)邊緣上點(diǎn)的相互位置關(guān)系進(jìn)行匹配,對(duì)平移、旋轉(zhuǎn)、遮擋等情況具有良好的魯棒性。局部特征匹配的基本思想是:利用Shape Context提取目標(biāo)的輪廓信息和特征,然后對(duì)兩個(gè)目標(biāo)特征點(diǎn)進(jìn)行相似度比較,通過(guò)判斷其相似度,利用預(yù)測(cè)投票的方法斷定其質(zhì)心位置進(jìn)行匹配。
目標(biāo)跟蹤常用的特征提取算法有:SUSAN算法、Harris算法等。然而這些算法在目標(biāo)部分遮擋、形變等情況時(shí),對(duì)目標(biāo)提取的特征信息不準(zhǔn)確,容易發(fā)生誤匹配或無(wú)法找到匹配目標(biāo)。而基于Shape Context的特征提取,是一種對(duì)目標(biāo)的邊界特征進(jìn)行描述的方法,通過(guò)邊界的局部特征匹配可以很好的確定目標(biāo)。
輪廓能最直接描述一個(gè)物體,因而輪廓線上的一定數(shù)量的離散點(diǎn)可以表示一個(gè)物體的形狀信息。Shape Context通過(guò)提取目標(biāo)的輪廓邊界信息,計(jì)算其相似度來(lái)描述目標(biāo)的特征。
一幅圖中,在邊緣檢測(cè)的基礎(chǔ)上,可以得到一組離散的邊界點(diǎn)點(diǎn)集,設(shè)點(diǎn)集為 Pi={p1,p2,…pn},對(duì)任一個(gè)點(diǎn) pi,其余n-1個(gè)點(diǎn)與i點(diǎn)構(gòu)成的向量組,能很好的反映該點(diǎn)在目標(biāo)中的形狀信息。
為直觀反映Shape Context特征描述方法,我們引入一種類似雷達(dá)掃描系統(tǒng)的對(duì)數(shù)極坐標(biāo)系,如圖1所示:
圖1 特征提取示意圖Fig.1 Schematic of the feature extraction based on shape context
整個(gè)空間被分成 12×5=60個(gè)bin,對(duì)給定點(diǎn)pi,以該點(diǎn)為中心所成的極坐標(biāo)系中,落入每個(gè)bin中像素點(diǎn)個(gè)數(shù)來(lái)描述。依次計(jì)算得到n個(gè)形狀直方圖,對(duì)任一物體的輪廓可以用n×60大小的矩陣表示。
文中基于目標(biāo)Shape Context特征信息,建立特征數(shù)據(jù)庫(kù),以特征數(shù)據(jù)庫(kù)為中介,與被跟蹤目標(biāo)特征信息進(jìn)行匹配,投票找出被測(cè)目標(biāo)的質(zhì)心和邊界信息,從而確定被跟蹤目標(biāo),如圖2所示。
圖2 文中目標(biāo)跟蹤流程圖Fig.2 Flow chart of tracking
1)建立目標(biāo)特征信息數(shù)據(jù)庫(kù)
以人為例,建立10~20個(gè)目標(biāo)的image、mask(輪廓信息)信息,訓(xùn)練得到目標(biāo)的SC特征,生成codebook特征集D(D:包含 cek,k=1,...,n)。Codebook 中記錄邊緣點(diǎn)的 SC 特征,點(diǎn)與質(zhì)心的相對(duì)位置等信息。
2)特征匹配
對(duì)被測(cè)目標(biāo)進(jìn)行邊緣檢測(cè)(edge_detection),提取目標(biāo)圖片幀的SC特征,與codebook中特征集進(jìn)行比較。用Cost值評(píng)價(jià)兩個(gè)點(diǎn)的相似度[6]。令Cs為Shape Context的Cost值。Cs就是基于 χ2-test的直方圖距離統(tǒng)計(jì)值。g(k)和 h(k)分別表示待匹配的兩幅圖像對(duì)應(yīng)點(diǎn)的直方圖值。計(jì)算方法如下:
Cs值越小,相似度越大。
3)投票預(yù)測(cè)目標(biāo)的質(zhì)心
設(shè)被檢測(cè)點(diǎn)A的SC信息為{fi},定義codebook中與fi匹配的cek的概率為P(cek|A),該點(diǎn)預(yù)測(cè)到的目標(biāo)o的質(zhì)心c的概率P(o,c|cek,A)。由此可得到被檢測(cè)幀中目標(biāo)的質(zhì)心為:
由P(o,c)得到投票圖,投票最大值即hypo_center。同時(shí)根據(jù)點(diǎn)對(duì)點(diǎn)的投票結(jié)果確定被檢測(cè)目標(biāo)的邊界bbox_list。
與傳統(tǒng)的目標(biāo)跟蹤算法不同,文中引入了Shape Context的統(tǒng)計(jì)直方圖值進(jìn)行相似度度量,這就克服了傳統(tǒng)方法中目標(biāo)旋轉(zhuǎn)、平移等情況下難以匹配的問(wèn)題,同時(shí),采用預(yù)測(cè)估計(jì)的方法判斷目標(biāo)的位置,能夠取得良好的匹配效果。
對(duì)于相似度度量,采用了COST值計(jì)算,我們選取前7副數(shù)據(jù)庫(kù)中的圖片與待檢測(cè)的目標(biāo)幀(第21幀)進(jìn)行演示,計(jì)算結(jié)果演示如表1所示。
表1 COST值計(jì)算相似度Tab.1 Computing the sim ilarity of COST
表1中,T為閾值,COST為基于χ2-test的直方圖距離統(tǒng)計(jì)值的平均值。通過(guò)實(shí)驗(yàn),發(fā)現(xiàn)當(dāng)閾值設(shè)定為T=0.3時(shí),匹配率接近100%,很多情況下可作為經(jīng)驗(yàn)值使用。
針對(duì)文中提出的特征提取方法,采用MATLAB進(jìn)行算法的實(shí)現(xiàn)。
如圖3所示,對(duì)于輸入的原圖像,首先我們進(jìn)行邊緣檢測(cè),對(duì)其進(jìn)行SC_feature的提取,通過(guò)相似度量確定與codebook中的對(duì)應(yīng)點(diǎn)。圖(c)為投票的圖,“+”位置代表投票的最大值。圖(d)為通過(guò)多次投票得到目標(biāo)的位置信息,顯示出投票的結(jié)果。
圖3 目標(biāo)跟蹤過(guò)程演示Fig.3 Object tracking experiment
圖4 跟蹤結(jié)果Fig.4 Tracking result
圖4為多次投票后得到的多幀圖像中的目標(biāo)跟蹤結(jié)果,由圖4可見(jiàn),文中提到的基于局部特征的目標(biāo)跟蹤算法是有效的。
圖5 目標(biāo)質(zhì)心位置跟蹤結(jié)果Fig.5 Trajectory of object center
為了直觀的顯示本文方法下目標(biāo)跟蹤的效率,建立了一個(gè)目標(biāo)運(yùn)動(dòng)質(zhì)心位置變化和投票預(yù)測(cè)得到的質(zhì)心位置的對(duì)比圖,如圖5所示,“.”表示采用文中提到的方法進(jìn)行實(shí)驗(yàn)得到的目標(biāo)質(zhì)心位置,“-”表示目標(biāo)本身質(zhì)心位置變化。從圖中可以看出,本方法得到的目標(biāo)質(zhì)心位置和目標(biāo)的運(yùn)動(dòng)軌跡基本相同,能夠?qū)崿F(xiàn)良好的跟蹤效果。
根據(jù)目標(biāo)跟蹤中存在的諸多問(wèn)題,文中詳細(xì)研究了基于Shape Context特征提取算法進(jìn)行目標(biāo)跟蹤,對(duì)目標(biāo)旋轉(zhuǎn)、變形、局部遮擋等問(wèn)題具有良好的魯棒性。文中的新穎之處在于:
1)與傳統(tǒng)的目標(biāo)跟蹤算法不同,引入了Shape Context的統(tǒng)計(jì)直方圖值進(jìn)行相似度度量機(jī)制,對(duì)目標(biāo)旋轉(zhuǎn)、形變時(shí)具有良好的魯棒性。
2)在相似度度量基礎(chǔ)上,采用投票的方法對(duì)目標(biāo)的位置進(jìn)行預(yù)測(cè)估計(jì),實(shí)驗(yàn)證明,這種方法能做到很好的匹配效果。
[1]朱宏.基于視頻序列的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤技術(shù)研究[D].成都:西南交通大學(xué),2008.
[2]宋新,沈振康,王平,等.Mean Shift在目標(biāo)跟蹤中的應(yīng)用[J].系統(tǒng)工程與電子技術(shù),2007,29(09):405-409.SONG Xin, SHEN Zhen-kang, WANG Ping, et al.Application of mean Shift method in target tracking[J].Systems Engineering and Electronics, 2007,29(09):405-409
[3]Johnson N,Hogg D C,et al.Learning the distribution of object trajectories for event recognition[J].Image and Vision Computing,1996,14(1):609-615.
[4]Feng Z R,Lu N,Jiang P.Posterior probability measure for image matching[J].Pattern Recognition,2008,41(7):2422-2433.
[5]Belongie S, Malik J, Puzicha J.Shape context:a new descriptor for shape matching and object recognition[J].Neural Information Processing Systems,2001,13(3):831-837.
[6]Belongie S,Mori G,malik J.Matching with shape contexts[J].IEEE Workshop on Content-based access of Image and Video-Libraries,2000,11(3):961-967.