朱文佳, 金 強(qiáng), 余 燁
(1.安徽百誠(chéng)慧通科技有限公司,安徽 合肥 230088; 2.合肥工業(yè)大學(xué) 計(jì)算機(jī)與信息學(xué)院,安徽 合肥 230009)
顏色與紋理自適應(yīng)融合的粒子濾波跟蹤算法
朱文佳1, 金 強(qiáng)2, 余 燁2
(1.安徽百誠(chéng)慧通科技有限公司,安徽 合肥 230088; 2.合肥工業(yè)大學(xué) 計(jì)算機(jī)與信息學(xué)院,安徽 合肥 230009)
針對(duì)傳統(tǒng)粒子濾波跟蹤算法中的目標(biāo)模型單一、粒子退化等問(wèn)題,文章提出了一種基于顏色特征與紋理特征自適應(yīng)融合的粒子濾波跟蹤算法,該方法選取顏色特征和紋理特征作為目標(biāo)的視覺(jué)描述子,然后將2種特征的后驗(yàn)概率進(jìn)行融合,并對(duì)目標(biāo)模板進(jìn)行自適應(yīng)更新,進(jìn)而估計(jì)出目標(biāo)的狀態(tài)。實(shí)驗(yàn)結(jié)果表明,該方法能夠較好地處理背景光照變化明顯、目標(biāo)物體與背景顏色相近、遮擋、局部形變等干擾因素的影響,準(zhǔn)確跟蹤及定位運(yùn)動(dòng)目標(biāo)。
目標(biāo)跟蹤;粒子濾波;顏色特征;紋理特征;特征融合
粒子濾波(particle filter)又被稱為序列蒙特卡洛方法(sequential Monte Carlo method),它是指通過(guò)尋找一組在狀態(tài)空間傳播的隨機(jī)樣本對(duì)概率密度函數(shù)進(jìn)行近似計(jì)算,以樣本均值代替積分運(yùn)算,從而獲得狀態(tài)最小方差分布的過(guò)程。由于粒子濾波能有效處理非線性、非高斯系統(tǒng)的狀態(tài)值估計(jì)問(wèn)題,因此,被廣泛地應(yīng)用于解決計(jì)算機(jī)視覺(jué)中的各種問(wèn)題,其在目標(biāo)跟蹤領(lǐng)域的應(yīng)用最為典型。
基于粒子濾波框架,國(guó)內(nèi)外研究者提出了一些目標(biāo)跟蹤算法。例如,文獻(xiàn)[1]提出的Condensation算法,該算法在跟蹤復(fù)雜目標(biāo)輪廓時(shí)取得了較好的效果,但由于算法沒(méi)有采用目標(biāo)模型的觀測(cè)信息,當(dāng)目標(biāo)的顏色或文理信息與背景類似時(shí),容易出現(xiàn)目標(biāo)跟蹤丟失;文獻(xiàn)[2]采用顏色信息表示目標(biāo)的表觀模型,采用粒子濾波預(yù)測(cè)運(yùn)動(dòng)目標(biāo)在下一幀中的位置,與Condensation算法相比,該算法的丟失率得到改進(jìn),然而,由于顏色信息容易受到光照變化的影響,當(dāng)場(chǎng)景中存在光照變化時(shí),準(zhǔn)確率降低。
文獻(xiàn)[3]提出局部無(wú)序跟蹤算法(locally orderless tracking,LOT),定義了一個(gè)隨著運(yùn)動(dòng)目標(biāo)變化而更新的動(dòng)態(tài)模型,算法對(duì)剛性目標(biāo)和變形目標(biāo)均有較好的魯棒性。文獻(xiàn)[4]針對(duì)非剛體目標(biāo)對(duì)算法的影響,提出基于仿射群的粒子濾波跟蹤算法,該算法采用仿射群作為目標(biāo)狀態(tài)來(lái)建立運(yùn)動(dòng)目標(biāo)的狀態(tài)空間模板,并將狀態(tài)轉(zhuǎn)移模型定義為幾何自回歸過(guò)程,使用高斯分布作為粒子濾波算法的建議分布,較好地解決了目標(biāo)外形變化導(dǎo)致的跟蹤丟失問(wèn)題,然而,仿射群的使用降低了算法的時(shí)間效率。文獻(xiàn)[5]采用尺度不變特征變換(scale-invariant feature transform,SIFT)來(lái)描述運(yùn)動(dòng)目標(biāo)的表觀模型,使用漸進(jìn)主成分分析方法(principal component analysis,PCA)來(lái)度量目標(biāo)模板與候選目標(biāo)之間的相似性,使用少量的粒子獲得較好的跟蹤效果,但是SIFT和PCA計(jì)算效率較低,因此,該算法也存在時(shí)間效率問(wèn)題。文獻(xiàn)[6]針對(duì)運(yùn)動(dòng)目標(biāo)跟蹤過(guò)程中目標(biāo)外觀和姿態(tài)變化的情況,提出了一種基于記憶機(jī)制的粒子濾波跟蹤算法,該算法存儲(chǔ)跟蹤過(guò)程中以前視頻幀的估計(jì)狀態(tài),并從這些狀態(tài)中隨機(jī)采樣生成當(dāng)前幀的先驗(yàn)估計(jì),該算法對(duì)目標(biāo)外觀的復(fù)雜變化有著較好的魯棒性;由于目標(biāo)估計(jì)狀態(tài)的存儲(chǔ),增加了算法的空間復(fù)雜度,因此,該算法難以應(yīng)用于存儲(chǔ)空間有限的嵌入式設(shè)備中。文獻(xiàn)[7]提出了一種基于粒子群優(yōu)化的粒子濾波算法(annealed PSO-based particle filter,APSOPF),該算法主要解決了三維人體運(yùn)動(dòng)目標(biāo)跟蹤中高維參數(shù)問(wèn)題和較差的圖像觀測(cè)問(wèn)題,實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)的粒子濾波算法相比,APSOPF算法在跟蹤真實(shí)世界的3D人體運(yùn)動(dòng)時(shí)可以獲得更低的誤差。文獻(xiàn)[8]采用顏色和邊緣信息表示目標(biāo)的表觀模型,同時(shí)對(duì)不同特征的粒子分層采樣,實(shí)驗(yàn)結(jié)果證實(shí)了算法的有效性。文獻(xiàn)[9]提出基于顏色和局部二值模式(local binary patterns,LBP)多特征mean-shift跟蹤方法,使跟蹤結(jié)果不再過(guò)分依賴某一特征,增強(qiáng)了對(duì)背景變化、目標(biāo)大范圍運(yùn)動(dòng)的魯棒性。
盡管粒子濾波思想在目標(biāo)跟蹤領(lǐng)域取得了一些研究成果,然而針對(duì)復(fù)雜場(chǎng)景下的目標(biāo)跟蹤,例如,背景光照變化明顯、目標(biāo)物體與背景顏色相近、遮擋、局部形變等情況,仍然存在目標(biāo)易丟失、跟蹤效率低、目標(biāo)模型單一、粒子退化等問(wèn)題。為了彌補(bǔ)這些不足,本文提出了一種基于顏色和紋理特征自適應(yīng)融合的粒子濾波跟蹤算法,即選取顏色和紋理特征表達(dá)目標(biāo)的表觀模型,將這2種特征的后驗(yàn)概率進(jìn)行融合,并對(duì)目標(biāo)模板進(jìn)行自適應(yīng)更新,進(jìn)而估計(jì)出運(yùn)動(dòng)目標(biāo)在下一幀中的位置和尺度信息。
粒子濾波跟蹤的基本原理是通過(guò)目標(biāo)的初始狀態(tài)和提取到的目標(biāo)特定視覺(jué)特征,對(duì)后續(xù)目標(biāo)狀態(tài)進(jìn)行狀態(tài)估計(jì),其難點(diǎn)在于目標(biāo)表觀模型的設(shè)計(jì)和粒子的更新,本文將顏色特征與紋理特征進(jìn)行自適應(yīng)融合來(lái)描述目標(biāo)的表觀模型。
首先建立系統(tǒng)觀測(cè)模型,包括顏色特征的觀測(cè)模型和紋理特征的觀測(cè)模型,獲取視覺(jué)目標(biāo)在HSV(Hue,Saturation,Value)顏色空間、LBP紋理空間下的觀測(cè)概率分布;然后基于背景噪聲的影響因子來(lái)選擇2種特征的融合機(jī)制,通過(guò)加權(quán)融合和乘性融合機(jī)制的結(jié)合,設(shè)置采樣粒子的權(quán)值;最后通過(guò)對(duì)目標(biāo)模板進(jìn)行自適應(yīng)更新,以實(shí)現(xiàn)粒子的狀態(tài)轉(zhuǎn)移,從而實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)跟蹤。
算法流程如圖 1所示,對(duì)于給定的輸入序列,計(jì)算對(duì)應(yīng)的LBP和顏色特征,然后進(jìn)行粒子采樣,最后計(jì)算2種特征下目標(biāo)的可能位置并通過(guò)加權(quán)融合,最終實(shí)現(xiàn)目標(biāo)的準(zhǔn)確定位。
圖1 算法流程
目標(biāo)跟蹤算法的具體步驟如下。
輸入:圖像序列I1,…,In。
輸出:目標(biāo)位置和尺度(x,y,w,h)。
(1)
其中,δ(x)為單位沖激函數(shù),即狄拉克函數(shù)
(3) 粒子的權(quán)值計(jì)算。計(jì)算出每個(gè)粒子所對(duì)應(yīng)的權(quán)值,然后根據(jù)觀測(cè)系數(shù)與背景噪聲影響因子閾值T的大小關(guān)系選擇特征融合機(jī)制,在得到所有粒子的權(quán)值信息后,對(duì)粒子的權(quán)值進(jìn)行歸一化。
(5) 重采樣。計(jì)算有效粒子數(shù)Neff,將其與預(yù)先設(shè)定的閾值進(jìn)行比較,若Neff小于事先設(shè)定的某一閾值,則進(jìn)行重采樣;反之則不進(jìn)行重采樣,直接進(jìn)入步驟(6)。
(6) 對(duì)目標(biāo)模板進(jìn)行更新,令k=k+1,返回步驟(2)。
1.1 系統(tǒng)觀測(cè)模型
1.1.1 顏色特征模型
(2)
(3)
(4)
(5)
通過(guò)Bhattacharyya距離,可以確定視覺(jué)目標(biāo)在HSV顏色空間下的觀測(cè)概率,計(jì)算公式為:
(6)
其中,λ為控制參數(shù),實(shí)驗(yàn)過(guò)程中選取λ=20。顯然,相似性度量越小,樣本也越可靠,樣本的觀測(cè)概率越大,目標(biāo)定位的準(zhǔn)確性越高。
1.1.2 紋理特征模型
本文采用LBP算子作為待融合的紋理特征。LBP是一種用來(lái)描述圖像局部紋理信息的算子,具有旋轉(zhuǎn)不變性和灰度不變性等顯著的優(yōu)點(diǎn),其定義為:
(7)
其中,gc表示位置(xc,yc)處的灰度值,gi表示分布在圓心為(xc,yc)、半徑為r的圓周內(nèi)的P個(gè)像素點(diǎn)的灰度值。
本文采用LBP特征的統(tǒng)計(jì)直方圖作為特征向量,統(tǒng)計(jì)直方圖的計(jì)算公式為:
(8)
(9)
其中,i=1,…,n;n的大小為2P;f(x,y)為像素(x,y)處的LBP值。
通過(guò)(7)式和(8)式可計(jì)算出LBP值為i的像素個(gè)數(shù),所構(gòu)成的統(tǒng)計(jì)直方圖反映了一幅圖像的LBP值分布,便于目標(biāo)表觀模型的相似性度量。
(10)
(11)
然后,采用(12)式可以計(jì)算出視覺(jué)目標(biāo)在LBP紋理空間下的觀測(cè)概率,即
(12)
1.1.3 顏色和紋理特征的融合
為了克服復(fù)雜背景下出現(xiàn)的目標(biāo)跟蹤丟失問(wèn)題,本文采用顏色和LBP特征表達(dá)目標(biāo)的觀測(cè)模型,通過(guò)2種特征的匹配來(lái)設(shè)置采樣粒子的權(quán)值,從而實(shí)現(xiàn)穩(wěn)定的多特征融合機(jī)制。采用一種動(dòng)態(tài)的自適應(yīng)的特征融合機(jī)制,結(jié)合乘性融合與加權(quán)融合,使得融合結(jié)果具有更高的置信度,當(dāng)出現(xiàn)粒子退化時(shí)使用加權(quán)融合使得算法具有較強(qiáng)的魯棒性。
本文通過(guò)背景噪聲的影響因子來(lái)選擇2種特征的融合機(jī)制,若跟蹤目標(biāo)背景噪聲因子較大,則為了提高跟蹤的穩(wěn)定性,采用加權(quán)融合;若噪聲因子較小,則采用置信度更高的乘性融合。采用目標(biāo)模板與候選模板之間的Bhattacharyya系數(shù)ρ來(lái)判斷運(yùn)動(dòng)目標(biāo)背景噪聲因子的大小,在運(yùn)動(dòng)目標(biāo)跟蹤正確時(shí),目標(biāo)模板與候選模板之間的Bhattacharyya系數(shù)在一定范圍內(nèi)浮動(dòng);而當(dāng)運(yùn)動(dòng)目標(biāo)背景噪聲增強(qiáng)時(shí),候選區(qū)域的Bhattacharyya系數(shù)會(huì)發(fā)生大幅度的波動(dòng)。
在跟蹤過(guò)程中,如果運(yùn)動(dòng)目標(biāo)背景噪聲增強(qiáng),那么候選區(qū)域的觀測(cè)系數(shù)會(huì)大幅度下降,但是,當(dāng)噪聲與運(yùn)動(dòng)目標(biāo)顏色或紋理相近時(shí),采用單一判斷標(biāo)準(zhǔn)可能會(huì)缺乏正確性,因此,只要顏色和紋理中的任何一個(gè)觀測(cè)系數(shù)大幅度下降,可以判定運(yùn)動(dòng)目標(biāo)背景噪聲增強(qiáng)。
乘性融合機(jī)制的計(jì)算公式為:
(13)
當(dāng)觀測(cè)系數(shù)ρ小于給定的閾值T時(shí),算法判定運(yùn)動(dòng)目標(biāo)背景噪聲增強(qiáng),為了提高跟蹤的穩(wěn)定性,切換到加權(quán)和融合機(jī)制;當(dāng)運(yùn)動(dòng)目標(biāo)狀態(tài)正常時(shí),再切換回乘性融合機(jī)制。
加權(quán)融合機(jī)制計(jì)算公式為:
(14)
1.2 表觀模型的自適應(yīng)更新
在視覺(jué)運(yùn)動(dòng)目標(biāo)跟蹤中,一個(gè)精確的運(yùn)動(dòng)目標(biāo)模板可以大大提高跟蹤的精確性。在現(xiàn)實(shí)場(chǎng)景中,視頻中常常存在許多干擾因素,例如陰影、光照和背景變化等,導(dǎo)致運(yùn)動(dòng)目標(biāo)的觀測(cè)模型發(fā)生變化。如果在跟蹤過(guò)程中不能及時(shí)更新目標(biāo)的表觀模型,通常會(huì)增加跟蹤丟失的概率,因此,為了提高算法的魯棒性,需要實(shí)時(shí)更新目標(biāo)的表觀模型。
當(dāng)跟蹤過(guò)程中存在遮擋時(shí),若盲目地對(duì)表觀模型進(jìn)行更新,則容易引入錯(cuò)誤的視覺(jué)信息,因此,需要有選擇地對(duì)表觀模型進(jìn)行更新。本文采用的更新機(jī)制為:當(dāng)特征融合機(jī)制為乘性融合時(shí),對(duì)表觀模型進(jìn)行更新;當(dāng)融合機(jī)制為加權(quán)融合時(shí),表觀模型不需要更新。
在對(duì)目標(biāo)模板進(jìn)行更新時(shí),將當(dāng)前的目標(biāo)模板po與候選區(qū)域的模板pc進(jìn)行加權(quán)融合,表觀模型更新計(jì)算公式為:
(15)
大量的實(shí)驗(yàn)分析表明,若參數(shù)β取值過(guò)大,則容易造成目標(biāo)跟蹤丟失;若β取值過(guò)小,則導(dǎo)致目標(biāo)尺度估計(jì)不精確。為了更好地平衡目標(biāo)跟蹤丟失與尺度估計(jì)問(wèn)題,本文經(jīng)過(guò)大量實(shí)驗(yàn)測(cè)試,選取相對(duì)穩(wěn)定的經(jīng)驗(yàn)值β=0.8作為表觀模型更新權(quán)值。
(2) 產(chǎn)生在[0,N-1]上均勻分布的隨機(jī)數(shù)u:u~U[0,N-1]。
(3) 令i=1,對(duì)于j=1,…,N,有
通過(guò)表觀模型的加權(quán)融合和粒子的重采樣,確保目標(biāo)的表觀模型隨著場(chǎng)景的變化自適應(yīng)更新,有效減少了跟蹤誤差和跟蹤丟失問(wèn)題。
采用Visual C++2012和OpenCV2.4.8 SDK實(shí)現(xiàn)了本文算法,所用PC配置為1.6 GHz CPU,內(nèi)存8.0 GB。在文獻(xiàn)[10]中最權(quán)威的CVPR 2013 benchmark數(shù)據(jù)集上,選取David3、CarDark和Skating 3種序列,采用傳統(tǒng)粒子濾波算法、CTSE[11]、CMT[12]及本文算法,從目標(biāo)遮擋、相似背景、目標(biāo)變形方面對(duì)測(cè)試結(jié)果進(jìn)行對(duì)比分析。
(1) 遮擋情況下的跟蹤。David3序列是一個(gè)男士在人行道上行走的過(guò)程中被告示牌和樹(shù)木遮擋,由于告示牌和樹(shù)木的遮擋,運(yùn)動(dòng)目標(biāo)的外觀模型發(fā)生了變化,而且運(yùn)動(dòng)目標(biāo)在運(yùn)動(dòng)過(guò)程中也存在背景相似問(wèn)題,給跟蹤算法帶來(lái)了很大的干擾。跟蹤結(jié)果如圖2所示。運(yùn)動(dòng)目標(biāo)在第27幀時(shí)出現(xiàn)了交通標(biāo)志的遮擋,由于遮擋物太小,因而傳統(tǒng)的粒子濾波算法也能夠跟蹤到目標(biāo)的大部分面積。在第73幀時(shí),雖然場(chǎng)景中沒(méi)有遮擋的存在,但是出現(xiàn)了背景干擾,場(chǎng)景中出現(xiàn)汽車,并且路面顏色與運(yùn)動(dòng)目標(biāo)褲子顏色相似,采用傳統(tǒng)粒子濾波時(shí)跟蹤結(jié)果出現(xiàn)了漂移現(xiàn)象,而本文算法使用多特征表達(dá)目標(biāo)的表觀模型,從而能夠準(zhǔn)確定位到目標(biāo)的位置。在第83幀時(shí),場(chǎng)景中再次出現(xiàn)遮擋現(xiàn)象,傳統(tǒng)粒子濾波、CTSE和CMT對(duì)目標(biāo)位置的估計(jì)出現(xiàn)較大偏移。本文算法將顏色和紋理特征進(jìn)行融合,并在跟蹤過(guò)程中實(shí)時(shí)更新目標(biāo)模板,從而在第177幀、第188幀出現(xiàn)大面積遮擋時(shí),也能準(zhǔn)確定位目標(biāo)位置。
圖2 遮擋情況下的跟蹤結(jié)果
(2) 在背景相似情況下的跟蹤。CarDark序列周圍環(huán)境昏暗,光照變化明顯,背景干擾極大,場(chǎng)景中存在較多相似目標(biāo)。跟蹤結(jié)果如圖3所示。從圖3可以看出,第39幀、第59幀、第165幀存在較強(qiáng)的光照變化和相似背景,因此傳統(tǒng)粒子濾波算法不能夠準(zhǔn)確定位目標(biāo)位置和尺度信息;第252幀、第301幀、第393幀出現(xiàn)相似目標(biāo),采用傳統(tǒng)粒子濾波、CTSE和CMT算法,漂移現(xiàn)象較為明顯,而本文算法融合了LBP紋理特征和顏色特征,由于LBP特征對(duì)光照變化具有較強(qiáng)的魯棒性,因此本文算法能夠準(zhǔn)確估計(jì)目標(biāo)的位置和尺度信息。
(3) 運(yùn)動(dòng)目標(biāo)發(fā)生局部形變情況下的跟蹤。Skating序列是滑冰場(chǎng)景序列,運(yùn)動(dòng)目標(biāo)的姿態(tài)和光照變化頻率較高,且目標(biāo)之間存在遮擋。跟蹤結(jié)果如圖4所示。從圖4可以看出,第33幀、第64幀、第114幀運(yùn)動(dòng)目標(biāo)發(fā)生了局部形變,采用傳統(tǒng)粒子濾波算法,出現(xiàn)漂移現(xiàn)象;第170幀、第203幀、第284幀中運(yùn)動(dòng)目標(biāo)發(fā)生了局部遮擋,傳統(tǒng)粒子濾波、CTSE和CMT算法受到背景顏色和相似目標(biāo)的干擾,跟蹤錯(cuò)誤加重。而本文算法采用LBP紋理和HSV顏色特征,對(duì)光照具有較強(qiáng)的魯棒性,使得粒子分布較均勻,因此當(dāng)目標(biāo)發(fā)生形變時(shí)也能夠準(zhǔn)確定位目標(biāo)的真實(shí)位置。從以上分析可知,本文算法對(duì)目標(biāo)形變具有較強(qiáng)的魯棒性。
圖3 相似背景下的跟蹤結(jié)果
圖4 目標(biāo)形變下的跟蹤結(jié)果
(4) 定量分析。為了更加準(zhǔn)確地評(píng)估算法,本文采用文獻(xiàn)[10]CVPR 2013 benchmark性能評(píng)價(jià)指標(biāo),即跟蹤率(tracking rate,TR)、虛警率(false alarm rate,FAR),對(duì)傳統(tǒng)粒子濾波算法、CTSE、CMT和本文算法進(jìn)行量化評(píng)估,結(jié)果見(jiàn)表1所列。
TR值越高說(shuō)明算法成功率越高,FAR值越低說(shuō)明算法的精確性越高。
從表1可以看出,本文跟蹤算法的性能優(yōu)于其他算法。
表1 算法性能的評(píng)價(jià)結(jié)果
針對(duì)粒子濾波在運(yùn)動(dòng)目標(biāo)跟蹤過(guò)程中存在的不足之處,本文提出了基于顏色特征和紋理特征自適應(yīng)融合的粒子濾波跟蹤算法。顏色特征和紋理特征的自適應(yīng)融合能夠有效表達(dá)運(yùn)動(dòng)目標(biāo)的表觀模型,在跟蹤過(guò)程中實(shí)時(shí)更新目標(biāo)模板,為粒子濾波提供了穩(wěn)健的表觀模型,使跟蹤算法能夠有效地避免復(fù)雜場(chǎng)景下干擾因素的影響。實(shí)驗(yàn)結(jié)果表明,本文算法在光照變化、局部形變、部分遮擋和背景相似等復(fù)雜環(huán)境下均能估計(jì)目標(biāo)的準(zhǔn)確位置和尺度信息,量化結(jié)果也進(jìn)一步證實(shí)了算法的魯棒性。
[1] ISARD M,BLAKE A.Condensation:conditional density propagation for visual tracking[J].International Journal of Computer Vision,1998,29(1):5-28.
[2] PEREZ P,HUE C,VERMAAK J,et al.Color-based probabilistic tracking[C]//European Conference on Computer Vision.Berlin:Springer,2002:661-675.
[3] ORON S,BAR-HILLEL A,LEVI D,et al.Locally orderless tracking[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR).[S.l.]:IEEE,2012:1940-1947.
[4] KWON J,LEE K M,PARK F C.Visual tracking via geometric particle filtering on the affine group with optimal importance functions[C]//IEEE Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE,2009:991-998.
[5] LI X,HU W M,ZHANG Z F,et al.Visual tracking via incremental log-Euclidean Riemannian subspace learning[C]//IEEE Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE,2008:1-8.
[6] MIKAMI D,OTSUKA K,YAMATO J.Memory-based particle filter for face pose tracking robust under complex dynamics[C]//IEEE Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE,2009:999-1006.
[7] WANG X Y,WAN W G,ZHANG X G,et al.Annealed particle filter based on particle swarm optimization for articulated three-dimensional human motion tracking[J].Optical Engineering,2010,49(1):017204-017204-11.
[8] YANG C,DURAISWAMI R,DAVIS L.Fast multiple object tracking via a hierarchical particle filter[C]//Tenth IEEE International Conference on Computer Vision.[S.l.]:IEEE,2005:212-219.
[9] 李菊,余燁,戴歡,等.基于顏色和LBP多特征的mean shift的跟蹤算法[J].合肥工業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2014,32(5):578-581.
[10] WU Y,LIM J,YANG M H.Online object tracking:a benchmark[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR).[S.l.]:IEEE,2013:2411-2418.
[11] CHAKRAVORTY T,BILODEAU G A,GRANGER E.Contextual object tracker with structure encoding [C]//IEEE International Conference on Image Processing.[S.l.]:IEEE,2015:4937-4941.
[12] NEBEHAY G,PFLUGFELDER R.Clustering of static-adaptive correspondences for deformable object tracking[C]//IEEE Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE,2015:2784-2791.
(責(zé)任編輯 張淑艷)
A particle filter tracking algorithm based on adaptive fusion of color and texture
ZHU Wenjia1, JIN Qiang2, YU Ye2
(1.Anhui Baichenghuitong Technology Company Limited, Hefei 230088, China; 2.School of Computer and Information, Hefei University of Technology, Hefei 230009, China)
In order to solve the problems of the singularity of target model and particle degeneracy in traditional particle filter tracking algorithm, an improved particle filter tracking algorithm based on adaptive fusion of color feature and texture feature is proposed. Firstly, color and texture features are chosen as visual descriptor of the object. Then the posterior probability of the two features is fused together, and the object model is updated adaptively, and then the object state is estimated. Experimental results show that the proposed method can accurately locate and track moving objects in case of obvious background illumination changes, similar object and background, occlusion, local deformation and other interfering factors existed in complex environment.
object tracking; particle filter; color feature; texture feature; feature fusion
2015-08-03;
2016-04-30
安徽省科技攻關(guān)計(jì)劃資助項(xiàng)目(1401b042009);安徽省高等學(xué)校自然科學(xué)研究資助項(xiàng)目(KJ2014ZD27)
朱文佳(1980-),男,安徽安慶人,安徽百誠(chéng)慧通科技有限公司工程師; 余 燁(1982-),女,安徽安慶人,博士,合肥工業(yè)大學(xué)副教授,碩士生導(dǎo)師,通訊作者,E-mail:yuye@hfut.edu.cn.
10.3969/j.issn.1003-5060.2017.08.009
TP391.413
A
1003-5060(2017)08-1053-07