姚紅革,李國(guó)華,王啟舟
(西安工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,西安 710021)
?
粒子濾波多特征融合算法跟蹤精度估計(jì)
姚紅革,李國(guó)華,王啟舟
(西安工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,西安 710021)
摘要:為了對(duì)粒子濾波的多特征融合算法的跟蹤精度進(jìn)行估計(jì),本文提出一種基于密度函數(shù)小波估計(jì)的跟蹤精度估計(jì)方法.利用正交對(duì)稱小波基函數(shù)對(duì)各特征距離值集進(jìn)行處理.根據(jù)跟蹤過程中各特征的不同狀態(tài),對(duì)各特征距離值集的概率分布進(jìn)行融合.由總距離值密度函數(shù)求出該幀的粒子權(quán)值期望,作為跟蹤精度值,并從中估計(jì)出各特征距離值集的概率分布;形成反映總的跟蹤狀態(tài)的距離值密度函數(shù).
關(guān)鍵詞:精度估計(jì);粒子濾波;多特征融合;跟蹤
在視頻目標(biāo)跟蹤過程中,多模式多特征融合方法,利用粒子權(quán)值平方和來表示各特征信息的粒子退化程度,并以此值作為各特征信息質(zhì)量狀況的衡量.根據(jù)各特征信息質(zhì)量在線變化融合模式,達(dá)到跟蹤過程中各模式的優(yōu)勢(shì)互補(bǔ),實(shí)現(xiàn)對(duì)已獲得的觀測(cè)數(shù)據(jù)的最優(yōu)利用.由于多模式融合策略是依據(jù)實(shí)際狀況來更改融合模式的,所用模式為與當(dāng)時(shí)跟蹤狀態(tài)相匹配的最優(yōu)或較優(yōu)模式,因而提高了跟蹤的精度和穩(wěn)定性.
當(dāng)前多特征融合中有代表性的模式有:以似然函數(shù)的形式對(duì)多種特征進(jìn)行融合[1].他的特點(diǎn)是同時(shí)使用多特征,各特征的比例可以固定甚至相同.各特征的比例也可以依照實(shí)際跟蹤狀況自適應(yīng)變化,根據(jù)信息在當(dāng)前形勢(shì)下的可靠性自適應(yīng)的調(diào)節(jié)各個(gè)信息的加權(quán),將自適應(yīng)融合策略結(jié)合到粒子濾波中實(shí)現(xiàn)跟蹤.這類方法中有代表性的是加權(quán)和融合.對(duì)多種特征有選擇的融合[2].采用表決原則或根據(jù)跟蹤具體情況在線切換跟蹤特征的方法來對(duì)特征進(jìn)行選擇使用.表決原則中又有一致性原則、多數(shù)原則和n選m原則.另外還有最小融合規(guī)則、最大融合規(guī)則.這類方法中有代表性的是最大最小融合.采用分層采樣方法對(duì)多特征進(jìn)行融合[3].該方法所進(jìn)行的粒子采樣并不是在整個(gè)特征空間中執(zhí)行,而是在不同的特征空間中依次進(jìn)行.即先對(duì)一個(gè)特征進(jìn)行采樣,稱為概要層特征采樣,再在概要層特征的基礎(chǔ)上進(jìn)行再一次特征提取,稱為主要層采樣.前者往往是對(duì)目標(biāo)狀態(tài)進(jìn)行概要估計(jì),后一次進(jìn)行精確估計(jì).利用模糊推理實(shí)施特征融合[4].用模糊理論中的隸屬度函數(shù)來表示每一種特征隸屬于目標(biāo)或背景的置信度,隸屬度函數(shù)所產(chǎn)生的值集可投射為每個(gè)像素點(diǎn)屬于目標(biāo)或背景的置信度,融合時(shí)利用模糊組合算子來實(shí)現(xiàn).該類方法常與似然函數(shù)融合方式結(jié)合來用,具體是將隸屬度作為似然函數(shù)的比例系數(shù),并根據(jù)實(shí)際跟蹤情況通過自適應(yīng)調(diào)整比例系數(shù)的形式進(jìn)行融合.多模式融合是以單模式融合為基礎(chǔ)的,他可以方便的使用現(xiàn)有的融合模式,也方便使用組成現(xiàn)有融合模式的各特征信息構(gòu)成算法.為了檢驗(yàn)所用算法的有效性,與常規(guī)的單模式融合:加權(quán)和融合模式、乘性融合模式、最大最小模式的跟蹤效果進(jìn)行對(duì)比實(shí)驗(yàn), Shen等用加權(quán)和融合模式與多模式融合在遮擋情況下[5],Lee 等用乘性融合模式與多模式融在復(fù)雜背景下[6],Triesch等用最大最小模式與多模式融合在關(guān)照變化的情況下[7]做了對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果證明在跟蹤穩(wěn)定、可靠度方面具有明顯優(yōu)勢(shì).但這是基于實(shí)驗(yàn)的,目前在理論上還沒有一種針對(duì)多特征目標(biāo)跟蹤精度的估計(jì)方法.
為了檢驗(yàn)多特征融合的跟蹤精度,本文提出了基于小波密度函數(shù)的多特征融合精度估計(jì)算法.通過小波密度估計(jì)方法計(jì)算每幀的跟蹤精度值,實(shí)現(xiàn)了不同跟蹤模式間跟蹤精度的精度值的計(jì)算與對(duì)比,該方法的估計(jì)值與實(shí)驗(yàn)值基本相符.
1后驗(yàn)密度函數(shù)的小波估計(jì)
設(shè)X1,X2,…,Xn為服從某一未知密度函數(shù)f(x)獨(dú)立同分布隨機(jī)變量,且f滿足一定的正則性條件,則密度函數(shù)f可由其在多尺度空間(假定f屬于實(shí)空間)上的投影逼近[8-9]如下:
(1)
式中:φJ(rèn),k(x)和Ψm,k(x)分別為相互正交的尺度函數(shù)和小波基函數(shù),式(1)要求f(x)屬于平方可積實(shí)函數(shù)空間,其中
φJ(rèn),k(x)=2-J/2φ(2-Jx-k),J,k∈Z
φm,k(x)=2-m/2φ(2-mx-k),m,k∈Z
這樣要估計(jì)密度函數(shù)f(x),可以通過估計(jì)小波系數(shù)cJ,k和dm,k來確定.根據(jù)小波基的正交性,分別用φJ(rèn),k(x)和Ψm,k(x)對(duì)(1)式兩邊作內(nèi)積確定系數(shù)如下:
cJ,k〈f(x),φJ(rèn),k(x)〉=∫RφJ(rèn),k(x)f(x)dx
dm,k〈f(x),Ψm,k(x)〉=∫RΨJ,k(x)f(x)dx
因f(x)是密度函數(shù),所以cJ,k和dm,k可以以均值的形式表示如下:
cJ,k=E(φJ(rèn),k(x))
dm,k=E(Ψm,k(x))
即有cJ,k和dm,k的估計(jì)為
(2)
(3)
(4)
根據(jù)Parseval恒等式,式(4)為1即為全體小波系數(shù)符合條件為
這樣方能確保密度函數(shù)估計(jì)的積分為1.
(5)
ωi(x1,…,xn)可看為φJ(rèn),k(x)和Ψm,k(x)的權(quán)重,可計(jì)算[11]如下:
ωi(x1,…,xn)=
(6)
2多特征觀測(cè)數(shù)據(jù)的融合與跟蹤精度估計(jì)
在多信息融合粒子濾波方法中,顏色特征、邊緣特征、紋理特征、形狀特征等,是由不同觀測(cè)數(shù)據(jù)經(jīng)由不同方法運(yùn)算得到的.在此并不將觀測(cè)值轉(zhuǎn)換為高斯形式的似然函數(shù),而是將觀測(cè)值與目標(biāo)模板比對(duì)后,求取距離值,以距離值做為輸入來進(jìn)行密度函數(shù)的小波估計(jì),依下式進(jìn)行特征融合
(7)
其中為m特征總數(shù),ωi為第i個(gè)特征在融合估計(jì)中所占的權(quán)重,∑j=1Di,j為第j個(gè)特征n個(gè)抽樣粒子與目標(biāo)模板距離的和.融合策略的改變,參見[12].
跟蹤精度估計(jì)是基于對(duì)目標(biāo)狀態(tài)的估計(jì)的,而目標(biāo)狀態(tài)的估計(jì)一般采用兩種準(zhǔn)則[11]為
(1) 最大后驗(yàn)準(zhǔn)則(MAP),即“最相似的就是可能性最大的”即以得到最大權(quán)值的粒子的狀態(tài)為最終后驗(yàn)概率的表示形式.
并結(jié)合φJ(rèn),k(x)和Ψm,k(x)正交性有
(8)
(9)
3多特征粒子濾波算法跟蹤精度算法描述
多特征粒子濾波跟蹤精度算法過程描述為
(1) 計(jì)算各特征距離集分布
① 求各特征觀測(cè)數(shù)據(jù)所對(duì)應(yīng)的距離值,得各特征距離值集.
② 數(shù)據(jù)依式(2)計(jì)算 cJ,k和dm,k的估計(jì).
4實(shí)驗(yàn)結(jié)果及分析
用該方法作了如下實(shí)驗(yàn),并對(duì)其進(jìn)行了精度測(cè)試.這個(gè)實(shí)驗(yàn)序列中,被跟蹤目標(biāo)是一輛在公路上行駛著的小轎車.此序列中鏡頭在發(fā)生運(yùn)動(dòng),而且目標(biāo)顏色類似于背景色,且不時(shí)有樹木遮擋和光照變換而帶來的顏色和紋理的變化,以及因有駛離觀察點(diǎn)而引起的形狀和大小的變化.此次實(shí)驗(yàn)采用顏色,運(yùn)動(dòng)和邊緣特征信息,結(jié)果如圖1所示.白框?yàn)橛筛髁W訝顟B(tài)求得的目標(biāo)位置,框內(nèi)點(diǎn)為各個(gè)粒子分布狀態(tài).圖2為各特征的可靠度值,退化狀態(tài)閾值設(shè)為140.在第3幀,目標(biāo)較大,沒有遮擋等干擾三個(gè)特征可靠度值均大于140,都比較可靠,所以為乘性模式.隨后的13,19,23,32,42幀,由于樹木遮擋和光照的影響,顏色信息的可信度下降,低于閾值,融合策略隨之轉(zhuǎn)換成加權(quán)和方式.在之后的跟蹤中,因目標(biāo)離觀察點(diǎn)漸行漸遠(yuǎn)目標(biāo)變小,形狀和運(yùn)動(dòng)信息也在變化使得各分信息都變得不可靠,因而53,72,83幀為最大最小模式跟蹤.在最大最小模式下主要依靠粒子濾波的重抽樣功能一定程度的維持著分信息的可靠度,在目標(biāo)較遠(yuǎn)較小的情況下,也有著較好跟蹤.
圖1 轎車序列跟蹤結(jié)果
圖3為實(shí)驗(yàn)的各特征狀態(tài)可靠度(粒子權(quán)值平方和)與多模式融合跟蹤精度,從圖3中可看出,圖3(b)多模式融合精度隨跟蹤的變化趨勢(shì)與圖3(a)各特征粒子權(quán)值的變化趨勢(shì)相似,尤其是與值較大的特征信息(紋理特征)的變化趨勢(shì)相似,證實(shí)本跟蹤精度計(jì)算方法與實(shí)際測(cè)試趨勢(shì)一致,證實(shí)方法的有效性.另外也說明多模式融合策略能吸納各信息有利成分的同時(shí)受跟蹤質(zhì)量高的信息的影響度大.
實(shí)驗(yàn)二各幀多模式融合精度值(共90幀),精度均值為0.78.
0.978 430.878 440.865 820.865 94
0.827 750.812 390.880 890.859 04
0.934 430.891 970.888 410.898 42
0.788 320.763 950.755 110.783 30
0.838 200.756 850.782 690.783 09
0.719 250.779 060.708 720.854 12
0.758 330.715 540.626 180.834 05
0.840 250.782 500.763 310.694 48
0.787 770.825 830.706 260.779 29
0.832 480.797 210.740 650.658 17
0.847 590.736 370.643 990.652 28
0.850 980.736 560.730 390.811 86
0.708 550.870 710.687 360.829 22
0.724 270.786 650.689 120.776 48
0.624 650.794 730.846 400.863 53
0.534 130.648 660.621 590.550 65
0.601 190.598 360.666 150.656 59
0.717 160.638 360.639 500.623 70
0.503 830.634 680.709 300.597 31
0.688 050.593 130.718 120.620 10
0.503 710.500 160.580 300.545 51
0.620 350.614 340.613 420.547 95
0.659 310.604 05 (90幀)
圖2 各特征信息可靠度
圖3 各特征可靠度與多模式融合跟蹤精度
5結(jié) 論
文中主要研究了目標(biāo)的多特征融合跟蹤精度衡量.提出了基于小波密度函數(shù)的多特征融合精度估計(jì)算法.
1) 用小波密度估計(jì)計(jì)算各特征的粒子距離分布.求各特征觀測(cè)數(shù)據(jù)所對(duì)應(yīng)的距離值,得各特征距離值集.進(jìn)而轉(zhuǎn)求小波系數(shù),再計(jì)算各特征的距離集分布.
2) 計(jì)算總的粒子距離分布.將各特征的距離集分布進(jìn)行融合得到總距離集分布,并對(duì)其進(jìn)行歸一化.計(jì)算總的粒子距離分布的期望,作為該幀的跟蹤精度值.
3) 該方法也可對(duì)一般的粒子濾波跟蹤算法精度進(jìn)行估計(jì),具有通用性.本文分別用兩個(gè)實(shí)驗(yàn)對(duì)所提出跟蹤方法和精度測(cè)量方法進(jìn)行了檢驗(yàn),結(jié)果表明所提出的方法能夠?qū)\(yùn)動(dòng)目標(biāo)實(shí)現(xiàn)魯棒跟蹤,精度測(cè)量結(jié)果符合實(shí)際.
參 考 文 獻(xiàn):
[1]YANG C,DURAISWAMI R,DAVIS L.Efficient Mean-shift Tracking via a New Similarity Measure[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,San Diego:IEEE,2005:176.
[2]WANG H,SUTER D,SCHINDLER K.Effective Appearance Model and Similarity Measure for Particle Filtering and Visual Tracking[C]// Proceedings of 9th European Conference on Computer Vision,Graz:Springer Berlin Heidelberg,2006:606.
[3]LIM J,ROSS D,LIN R S,et al.Incremental Learning for Visual Tracking[J].Advances in Neural Information Processing Systems.2007(6),32.
[4]HO J,LEE K C,YANG M H,et al.Visual Tracking Using Learned Linear Subspaces[C]// Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Washington:IEEE Computer Society,2012:782.
[5]SHEN C,VAN A,BROOKS M J.Visual Tracking via Efficient Kernel Discriminant Subspace Learning[C]//Proceedings of International Conference on Image Processing,Genova:IEEE International Conference on Image Processing,2005:590.
[6]LEE K C,KRIEGMAN D.Online Learning of Probabilistic Appearance Manifolds for Video Based Recognition and Tracking[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Washington:IEEE Computer Society,2005:852.
[7]TRIESCH J,MALSBURG C.Democratic Integration:Self-organized Integration of Adaptive Cue[J].Neural Computation,2011,13(6):2049.
[8]KITTLER J,HATTEF M,ROBERT P W,et al.On Combining Classifiers[C]//IEEE Transactions on Pattern Analysis and Machine Intelligence,Washington:Intermational Conference on Pattern Recognition,1998:226.
[9]SHEN C H,HENGEL A,DICK A.Probabilistic Multiple Cue Integration for Particle Filter Based Tracking[C]// Proceedings of 7th Digital Image Computer Techniques and Applications,Melbourne,Sydney:In Proc Int Conf Digital Image Computing-techniques & Applications,2003:399.
[10]WANG H,SUTER D.Efficient Visual Tracking by Probabilistic Fusion of Multiple Cues[C]//Proceedings of 18th International Conference on Pattern Recognition,Vancouver:Ecpr Hongkang,2006:892.
[11]LEICHTER I,LINDENBAUM M,RIVLIN E.A Probabilistic Framework for Combining Tracking Algorithms[J].Bulletin of Symbolic,2004,1(2):189.
[12]姚紅革,杜亞勤.基于多模式多特征融合粒子濾波視頻目標(biāo)跟蹤[J].西安工業(yè)大學(xué)學(xué)報(bào),2012,12(32):891.
YAO Hongge,DU Yaqin.A Video Target Tracking Algorithm Based on Particle Filter of Multi-cues and Multi-modal Fusion[J].Journal of Xi’an Technological University,2012,12 (32):891.
(責(zé)任編輯、校對(duì)張立新)
Tracking Accuracy Estimation of Particle Filter Multi-Cue Fusion Algorithm
YAOHongge,LIGuohua,WANGQizhou
(School of Computer Science and Engineering,Xi’an Technological University,Xi’an 710021,China)
Abstract:In order to estimate the tracking accuracy of the particle filter multi-cue fusion algorithm,a method based on the density functional wavelet estimation is presented.With the symmetric orthogonal wavelet function,the distance values of each feature set are processed.According to the different states of each feature in the process of tracking,the probability distribution of the distance values of each feature is integrated.Finally,the desired particle weight of the frame is obtained as the tracking accuracy by the total distance density value function.The probability distributions of the distance value set of each feature are estimated,from which the total distance value density function of the tracking state is formed.
Key words:accuracy estimation;particle filter;multi-cues fusion;tracking
文獻(xiàn)標(biāo)志碼:中圖號(hào):TP391.41A
文章編號(hào):1673-9965(2016)03-0200-06
作者簡(jiǎn)介:姚紅革(1968-),男,西安工業(yè)大學(xué)副教授,主要研究方向?yàn)橛?jì)算機(jī)視覺與仿真.E-mail:yaohongge@xatu.edu.cn.
收稿日期:2015-10-21
DOI:10.16185/j.jxatu.edu.cn.2016.03.006
基金資助:陜西省教育廳專項(xiàng)科研計(jì)劃項(xiàng)目(14JK1344)