金志剛,衛(wèi)津津,羅詠梅,劉曉輝
1.天津大學(xué)電子信息工程學(xué)院,天津300072
2.天津大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,天津300072
3.國(guó)家計(jì)算機(jī)網(wǎng)絡(luò)應(yīng)急技術(shù)處理協(xié)調(diào)中心,北京100029
基于改進(jìn)的顏色和SURF特征的粒子濾波目標(biāo)跟蹤
金志剛1,衛(wèi)津津1,羅詠梅2,劉曉輝3
1.天津大學(xué)電子信息工程學(xué)院,天津300072
2.天津大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,天津300072
3.國(guó)家計(jì)算機(jī)網(wǎng)絡(luò)應(yīng)急技術(shù)處理協(xié)調(diào)中心,北京100029
針對(duì)視頻中運(yùn)動(dòng)目標(biāo)的準(zhǔn)確跟蹤問題,提出了一種改進(jìn)的顏色直方圖特征和SURF特征的粒子濾波跟蹤算法。采用SURF算法提取特征點(diǎn),利用分層迭代的KLT算法對(duì)特征點(diǎn)進(jìn)行穩(wěn)定跟蹤。將SURF特征與改進(jìn)的視覺顯著性顏色特征進(jìn)行乘性融合,作為粒子濾波的觀測(cè)概率。針對(duì)跟蹤過程中SURF匹配數(shù)下降和不穩(wěn)定的現(xiàn)象,設(shè)計(jì)了SURF特征模板集的更新策略。與傳統(tǒng)特征的跟蹤進(jìn)行多組對(duì)比實(shí)驗(yàn),其結(jié)果證明了該方法對(duì)光照和遮擋具有很好的魯棒性,對(duì)目標(biāo)跟蹤的準(zhǔn)確率更高。
目標(biāo)跟蹤;視覺顯著性;顏色直方圖;加速魯棒特征(SURF);粒子濾波;KLT算法
目標(biāo)跟蹤是絕大多數(shù)視覺系統(tǒng)中不可或缺的環(huán)節(jié),同時(shí)也是計(jì)算機(jī)視覺和模式識(shí)別領(lǐng)域的熱點(diǎn)問題,在人機(jī)交互、機(jī)器人導(dǎo)航、智能視頻監(jiān)控等方面有廣泛的應(yīng)用。為了實(shí)現(xiàn)準(zhǔn)確、穩(wěn)定的目標(biāo)跟蹤,許多學(xué)者已經(jīng)提出不同的跟蹤算法[1-3]。作為運(yùn)動(dòng)目標(biāo)跟蹤方法的常用數(shù)學(xué)工具,粒子濾波(Particle Filter)對(duì)運(yùn)動(dòng)模型的非線性、非高斯、多峰等問題表現(xiàn)出良好的適應(yīng)性,已被大量應(yīng)用于行人、車輛等運(yùn)動(dòng)目標(biāo)的跟蹤[4-8]。
粒子濾波需要建立目標(biāo)的觀測(cè)模型,為了提高跟蹤的魯棒性,多種類型的特征被用來表征目標(biāo)。文獻(xiàn)[3-7]中算法大都是提取目標(biāo)的顏色、紋理、運(yùn)動(dòng)等一種或多種特征,雖然一定程度上能夠完成對(duì)目標(biāo)的跟蹤,但對(duì)目標(biāo)的特征描述并不完備,無法適應(yīng)目標(biāo)和背景的變化。Tang等[8]提出了結(jié)合Mean-shift和粒子濾波的算法,該算法雖然對(duì)目標(biāo)跟蹤有很好的魯棒性,但在目標(biāo)遮擋以及相鄰幀出現(xiàn)較大的目標(biāo)位移時(shí),受Mean Shift算法搜索區(qū)域的限制,跟蹤會(huì)出現(xiàn)發(fā)散現(xiàn)象;Hossain等[9]利用SIFT(Scale Invariant Feature Transform)局部不變特征實(shí)現(xiàn)對(duì)目標(biāo)的跟蹤,由于圖像的局部區(qū)域特征具有對(duì)光照、尺度、旋轉(zhuǎn)的不變性,因此以局部不變特征表征目標(biāo)進(jìn)行跟蹤效果比較好,但SIFT特征匹配計(jì)算復(fù)雜,無法滿足實(shí)時(shí)跟蹤的要求。近年來,SURF(Speeded Up Robust Features)[10]、RIFF(Rotation Invariant Fast Features)[11]、BRIEF(Binary Robust Independent Elementary Features)[12]等各種角點(diǎn)提取和描述算法陸續(xù)被提出,文獻(xiàn)[13]對(duì)這幾種優(yōu)秀的特征點(diǎn)檢測(cè)算法進(jìn)行了綜合性能比較,在旋轉(zhuǎn)測(cè)試、模糊測(cè)試等方面,SURF的綜合性能占優(yōu)勢(shì)。SURF算法借鑒SIFT中簡(jiǎn)化近似的思想,對(duì)DoH(Determinant of Hessian)中的高斯二階微分模板進(jìn)行近似簡(jiǎn)化,計(jì)算速度提高了3倍。如果對(duì)視頻的每一幀都進(jìn)行特征點(diǎn)檢測(cè),會(huì)消耗較長(zhǎng)時(shí)間,這時(shí)基于相鄰幀連續(xù)信息的特征光流法進(jìn)行跟蹤會(huì)更加快速有效。本文選用KLT(Kanade-Lucas-Tomasi)[14]來實(shí)現(xiàn)對(duì)特征點(diǎn)的匹配,文獻(xiàn)[15-16]中是利用屬于光流法的KLT算法實(shí)現(xiàn)對(duì)目標(biāo)跟蹤。
以上述內(nèi)容為基礎(chǔ),本文提出基于SURF算法和KLT匹配算法,獲取特征點(diǎn)匹配結(jié)果,結(jié)合顏色直方圖特征,作為粒子濾波模型中的觀測(cè)函數(shù),同時(shí)設(shè)計(jì)了特征點(diǎn)更新策略,最終實(shí)現(xiàn)對(duì)連續(xù)穩(wěn)定的視頻中目標(biāo)進(jìn)行準(zhǔn)確跟蹤。
為避免對(duì)目標(biāo)的特征提取中背景區(qū)域過多而引入噪聲,本文在獲取矩形窗口后,利用最小二乘法使用橢圓擬合目標(biāo)形狀。
2.1目標(biāo)顯著性顏色特征
顏色直方圖法[17]計(jì)算簡(jiǎn)單且便于實(shí)現(xiàn),對(duì)運(yùn)動(dòng)目標(biāo)形變、目標(biāo)的平面旋轉(zhuǎn)、非剛體以及部分遮擋有較強(qiáng)的魯棒性,本文基于目標(biāo)形狀擬合的橢圓區(qū)域,在HSV空間定義目標(biāo)的顏色直方圖。
其中,num(color(k))為第k種顏色的數(shù)目。sum(Pixel)代表圖像區(qū)域的總像素?cái)?shù)。對(duì)視頻做視覺顯著性分析[18],有助于實(shí)現(xiàn)目標(biāo)的分割、識(shí)別和檢索。定義顯著性加權(quán)顏色直方圖為:
其中,SM為圖像的視覺顯著圖,sum(SM(color(k)))是顏色為color(k)的像素處的視覺顯著值之和,sum(SM)為視覺顯著圖中所有元素之和。
2.2特征點(diǎn)提取與匹配
2.2.1SURF特征點(diǎn)提取
SURF算法在SIFT基礎(chǔ)上做了許多改進(jìn),對(duì)DoH算法中的高斯二階微分模板進(jìn)行簡(jiǎn)化,通過采用不斷增大盒狀濾波模板尺寸的間接方法,逐步放大的近似高斯濾波器對(duì)輸入圖像的積分圖像做卷積操作形成尺度空間。然后使用Hessian矩陣[19]進(jìn)行特征點(diǎn)檢測(cè),其中用盒狀濾波模板對(duì)卷積計(jì)算做近似估計(jì),以提高速度,可得到近似的Hessian矩陣行列式:
以此表示某像素點(diǎn)x處的角點(diǎn)響應(yīng)值。其中,Dxx,Dxy,Dyy分別是二階偏導(dǎo)濾波器的近似估計(jì)。遍歷圖像中所有像素點(diǎn),形成某一尺度下特征點(diǎn)檢測(cè)的響應(yīng)圖像。使用不同的模板尺寸形成多尺度角點(diǎn)響應(yīng)的圖像后,將所有小于預(yù)設(shè)極值的角點(diǎn)響應(yīng)值舍棄。利用非極大值抑制方法,得到穩(wěn)定的特征點(diǎn)位置及尺度值。
2.2.2KLT特征點(diǎn)匹配
利用SURF算法提取特征點(diǎn)后,一般采用距離準(zhǔn)則進(jìn)行匹配,但這需要求取特征點(diǎn)的SURF特征描述子,該方法非常耗時(shí),不適合用于實(shí)時(shí)跟蹤。KLT算法是一種基于最優(yōu)估計(jì)的匹配方法,以待跟蹤窗口H×W在視頻圖像幀間的灰度差平方和(SSD)作為度量的跟蹤算法。該算法利用每個(gè)特征點(diǎn)周圍小窗口的局部信息之間的相似性度量進(jìn)行最優(yōu)估計(jì),耗時(shí)較少。因此,本文選用改進(jìn)的KLT算法對(duì)特征點(diǎn)進(jìn)行匹配。
(1)KLT算法理論
KLT算法假設(shè)了一個(gè)包含特征紋理信息的窗口區(qū)域H×W,用一個(gè)平移模型描述特征窗口內(nèi)的像素點(diǎn)變化,t時(shí)刻的圖像幀I(x,y,t)和t+τ時(shí)刻的圖像幀I(x,y,t+τ)滿足如下關(guān)系:
運(yùn)動(dòng)量d=(Δx,Δy)為點(diǎn)(x,y)的偏移,該算法就是將運(yùn)動(dòng)參數(shù)的問題轉(zhuǎn)化為找到使SSD函數(shù)(用ε表示)最小化的特征窗口位移d,假設(shè)給定兩幅圖像I和J,定義ε為:
其中H×W表示特征窗口,ω(X)是加權(quán)函數(shù),通常為1。d是遠(yuǎn)小于X的量,故可將J(X+d)進(jìn)行泰勒展開,去掉高次項(xiàng),只保留前兩項(xiàng),g是泰勒展開的一階泰勒系數(shù),然后根據(jù)式(5)對(duì)d求導(dǎo),最終化簡(jiǎn)得:
式中,d表示特征窗口中心的平移,dk表示第k次牛頓迭代法計(jì)算得到的d值。迭代計(jì)算d需要初始估計(jì)值d0,本文初始迭代值設(shè)為0。
(2)改進(jìn)的KLT算法
KLT算法匹配耗時(shí)少,精度高,適合于目標(biāo)運(yùn)動(dòng)速度小,幀間位移較小的情況。但當(dāng)目標(biāo)快速運(yùn)動(dòng)時(shí),幀間位移很大,小窗口匹配容易漏匹配,而選擇大的窗口,匹配精度會(huì)下降。因此,需要對(duì)上述KLT匹配算法進(jìn)行分層迭代匹配。
首先根據(jù)高斯金字塔分解,對(duì)圖像I和J分別進(jìn)行精度遞減的L層金字塔分解,可得到Il和Jl(其中l(wèi)= 0,1,…,L),初始化=0,n=0,令l=L,n=n+1,根據(jù)公式(7)得到,判斷迭代次數(shù)是否達(dá)到規(guī)定要求或精度是否滿足要求,然后判斷若l=0則結(jié)束,最終令。
經(jīng)上述分層迭代后,選擇小的搜索窗口,通過不斷將高分辨率層的迭代結(jié)果作為低分辨率層迭代的初始值繼續(xù)進(jìn)行迭代,到最低層為止,可大大提高目標(biāo)作快速運(yùn)動(dòng)時(shí)的特征點(diǎn)匹配精度。
獲取目標(biāo)的視覺特征后,目標(biāo)的跟蹤可以視為狀態(tài)估計(jì)問題,即根據(jù)目標(biāo)在前一幀的狀態(tài)信息估計(jì)其當(dāng)前幀的狀態(tài)。粒子濾波[20]又稱序列化的蒙特卡羅方法,以蒙特卡羅隨機(jī)模擬理論為基礎(chǔ),將系統(tǒng)狀態(tài)的后驗(yàn)分布用一組加權(quán)的隨機(jī)樣本近似表示,新的狀態(tài)通過這些隨機(jī)樣本的貝葉斯遞推估計(jì)。
其中Zk表示目標(biāo)模板的觀測(cè)狀態(tài)。k時(shí)刻目標(biāo)的估計(jì)狀態(tài)由式(9)計(jì)算得出。
3.1粒子跟蹤初始化
選定跟蹤目標(biāo)以后,首先初始化目標(biāo)模板狀態(tài)和粒子點(diǎn)集。目標(biāo)狀態(tài)的粒子表示為:[x,y,a,b],其中(x,y)是橢圓窗口的中心坐標(biāo),a和b分別表示橢圓窗口的長(zhǎng)、短軸。設(shè)定粒子數(shù)目N,N個(gè)粒子的權(quán)重初始化為。在目標(biāo)初始狀態(tài)附近隨機(jī)分布粒子狀態(tài)參數(shù),得到初始時(shí)刻0的粒子集2,…,N}。
粒子運(yùn)動(dòng)模型采用二階自回歸模型:
其中,Ut-1是4元隨機(jī)高斯噪聲,高斯分布均值為0,方差與目標(biāo)尺度相關(guān)。C={C1,C2,C3,C4}表示粒子的隨機(jī)傳播半徑。
3.2計(jì)算觀測(cè)概率
粒子觀測(cè)是指將新捕獲的圖像信息表示為觀測(cè)值,并計(jì)算狀態(tài)更新后的粒子與目標(biāo)模板的相似程度,用觀測(cè)概率更新粒子的權(quán)值。
3.2.1顏色觀測(cè)概率
采用Bhattacharyya距離衡量目標(biāo)模板和候選區(qū)域(粒子i=1,2,…,N)的顯著性顏色直方圖相似距離。
3.2.2SURF特征觀測(cè)概率
在跟蹤窗口的相鄰區(qū)域(基于上一幀窗口位置選擇3H×3W鄰域范圍)尋找匹配的SURF特征點(diǎn),得到數(shù)目為M的匹配SURF特征模板集。對(duì)于某個(gè)粒子i,計(jì)算落入粒子區(qū)域(粒子i=1,2,…,N)中的匹配特征點(diǎn)的個(gè)數(shù)m。定義SURF觀測(cè)概率::
3.2.3聯(lián)合的觀測(cè)概率
本文采用乘性融合框架,獲得目標(biāo)的最終觀測(cè)概率如下:
3.3粒子權(quán)重更新
3.4目標(biāo)狀態(tài)估計(jì)
估計(jì)目標(biāo)狀態(tài)是指通過估計(jì)運(yùn)動(dòng)目標(biāo)的狀態(tài)參數(shù)和粒子狀態(tài)參數(shù)的加權(quán)。
其中,[xt,yt,at,bt]i是t時(shí)刻粒子i的狀態(tài),是t時(shí)刻粒子i的權(quán)重。加權(quán)求和后的狀態(tài)參數(shù)即為目標(biāo)當(dāng)前幀的狀態(tài)估計(jì),獲得目標(biāo)的位置和尺寸,從而完成對(duì)當(dāng)前幀的跟蹤。
本文實(shí)現(xiàn)的粒子濾波跟蹤基本流程如圖1所示。
圖1 粒子濾波跟蹤流程
3.5模板更新和SURF特征點(diǎn)更新
受光照、運(yùn)動(dòng)形態(tài)的變化,目標(biāo)的顏色特征和SURF特征點(diǎn)集也會(huì)產(chǎn)生變化。因此,需要以一定的時(shí)間間隔對(duì)目標(biāo)模型進(jìn)行更新,通過擴(kuò)展橢圓跟蹤窗口,使其包含一定的背景區(qū)域,做顯著性檢測(cè)和分割,使用分割出的目標(biāo)區(qū)域擬合出橢圓外接窗口,同時(shí)基于新的窗口區(qū)域重新計(jì)算模板顏色直方圖。另外,本文設(shè)計(jì)的SURF特征點(diǎn)集的更新包括增加特征點(diǎn)、刪除特征點(diǎn)和更新特征點(diǎn)三個(gè)方面,具體方法如下:
(1)對(duì)于模板中的SURF特征點(diǎn),定義一個(gè)權(quán)值K,初始化為1。模板特征點(diǎn)集定義為Sm={fi,Ki|i=1,2,…,F(xiàn)}。使用模板對(duì)t時(shí)刻的目標(biāo)進(jìn)行跟蹤時(shí),通過狀態(tài)估計(jì)獲取目標(biāo)新的狀態(tài)估計(jì),使用新的目標(biāo)窗口區(qū)域中的SURF對(duì)模板特征集進(jìn)行更新。如果匹配的特征點(diǎn)數(shù)與模板總特征點(diǎn)的比值小于某個(gè)閾值,則SURF特征集不進(jìn)行更新。
(2)模板特征集中沒有匹配的那些特征點(diǎn),權(quán)值K值減少1,如果K≤x1,則從模板集中刪去(x1為變量,x1≤0)。
(3)模板中與新的目標(biāo)窗口中匹配的那些特征點(diǎn),使用新的窗口中相應(yīng)的特征點(diǎn)對(duì)其特征矢量進(jìn)行更新,同時(shí)K加1。設(shè)定一個(gè)變量x2(x2>1),如果K≥x2,該特征點(diǎn)將永久保留。
(4)將新的目標(biāo)窗口中出現(xiàn)的,但沒有匹配的SURF也加入特征點(diǎn)集S,作為新增加的特征點(diǎn),設(shè)置權(quán)值K= 1,并保存目標(biāo)窗口尺寸、中心坐標(biāo)和該特征點(diǎn)坐標(biāo)。
其中,參數(shù)x1,x2的設(shè)置對(duì)SURF特征集的有用性和冗余性會(huì)產(chǎn)生關(guān)鍵的影響,因此本文通過實(shí)驗(yàn)選擇合適的參數(shù)x1,x2。采用Crowd_PETS09跟蹤數(shù)據(jù)庫(kù)中的視頻(#S2#L1)和L1_BPR的car兩段視頻進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)視頻如圖2所示,紅色矩形標(biāo)注的為用于更新特征集的目標(biāo)。
圖2 用于參數(shù)選擇的實(shí)驗(yàn)視頻
先假設(shè)x2為一個(gè)不變大數(shù),模板集的平均總數(shù)和平均每幀正確匹配點(diǎn)數(shù)隨x1變化如表1所示。
表1 模板集規(guī)模和平均匹配數(shù)隨參數(shù)x1變化
由結(jié)果可以看出,隨著x1的增加,雖然模板集規(guī)模在變大,但是平均正確匹配數(shù)并沒有明顯的增加。x1的選擇實(shí)質(zhì)上是增加了前些幀沒有正確匹配的特征點(diǎn),而模板集規(guī)模的增加,容易導(dǎo)致誤匹配的增加,因此選擇參數(shù)x1=0,即只將前1幀沒有正確匹配的特征點(diǎn)加入模板集。確定x1=0后,調(diào)整x2的大小,獲得模板集規(guī)模和平均正確匹配數(shù)的變化如表2所示。
表2 模板集規(guī)模和平均匹配數(shù)隨參數(shù)x2變化
從表2中看出,隨著參數(shù)x2的增加,模板集的規(guī)模和平均正確匹配點(diǎn)數(shù)都有所下降。x2=2顯然是不可取的,模板集總數(shù)會(huì)一直增加。設(shè)置x2的實(shí)質(zhì)是保存那些能夠連續(xù)正確匹配的特征點(diǎn),本文選擇x2=4。
本文提出了基于顏色特征和SURF特征的粒子濾波跟蹤算法。為了驗(yàn)證顯著性特征的跟蹤效果,將本文算法與傳統(tǒng)的基于顏色直方圖的粒子濾波跟蹤(Color based Particle Filter tracking,Color PT)相比較。
4.1實(shí)驗(yàn)環(huán)境
實(shí)驗(yàn)環(huán)境和實(shí)驗(yàn)參數(shù)如下:筆記本電腦Acer-4741g,Intel CoreTMi5 CPU@2.53 GHz,內(nèi)存2 GB;操作系統(tǒng)為Windows XP Professional,SP2;仿真軟件采用Matlab R2010b和Microsoft VC++2008以及opencv2.3視覺庫(kù)。目標(biāo)的初始位置通過手工的方式給出,粒子數(shù)目N設(shè)為200;初始分布為均勻分布U(x)=1/N。本文采用的視覺顯著圖生成算法為L(zhǎng)C[21]。
4.2實(shí)驗(yàn)結(jié)果
為了驗(yàn)證本文方法的效果,本文進(jìn)行了以下幾組實(shí)驗(yàn)。實(shí)驗(yàn)1為了驗(yàn)證算法對(duì)遮擋和類似目標(biāo)影響的魯棒性;實(shí)驗(yàn)2為了驗(yàn)證算法對(duì)光照變化的魯棒性。
實(shí)驗(yàn)1遮擋對(duì)算法的跟蹤性能影響。測(cè)試視頻采用CAVIAR的視頻序列(OneLeaveShopReenter2cor,分辨率384×288)。其中圖3(a)顯示的是使用顏色直方圖粒子跟蹤的結(jié)果,可以看出,從193幀開始,跟蹤行人開始被走廊中新出現(xiàn)的行人遮擋,而且具有相似的顏色特征,基于顏色特征的粒子濾波跟蹤從此開始失效,一直持續(xù)到視頻第400幀附近。而本文提出的跟蹤算法(如圖3(b))由于利用了SURF特征匹配,其對(duì)伸縮、旋轉(zhuǎn)、光照等具有不變性的特點(diǎn),彌補(bǔ)了顏色特征的不足,另外,基于粒子濾波的方法能夠?qū)ο乱粫r(shí)刻的目標(biāo)進(jìn)行預(yù)測(cè),使其在遮擋結(jié)束后能夠準(zhǔn)確找到原來的跟蹤目標(biāo)。該視頻序列具有人工標(biāo)定的運(yùn)動(dòng)目標(biāo)位置和尺寸信息,圖3(c)計(jì)算出了跟蹤過程中估計(jì)的目標(biāo)中心與手工標(biāo)定的目標(biāo)中心的距離。從跟蹤準(zhǔn)確性看,本文方法明顯優(yōu)于僅使用顏色直方圖的粒子濾波跟蹤。
實(shí)驗(yàn)2兩種算法在明顯光照變化下的跟蹤效果比較。如圖4所示,在ETH的測(cè)試序列(sunny_day-img-left,分辨率640×480)中的目標(biāo)進(jìn)行跟蹤。使用CPT的跟蹤從101幀開始,由于光照的變化跟蹤明顯開始不穩(wěn)定;到286幀(如圖4(a)的第三幅圖像),CPT跟蹤了錯(cuò)誤的目標(biāo),一直到第350幀以后跟蹤才逐步正常。而本文所提的方法跟蹤效果如圖4(b)所示,結(jié)合SURF特征提取方法彌補(bǔ)了基于顏色直方圖特征對(duì)目標(biāo)跟蹤的缺點(diǎn),基本上沒有受到光照的影響,跟蹤穩(wěn)定性明顯好于CPT。
圖3 視頻OneLeaveShopReenter2cor的實(shí)驗(yàn)結(jié)果
圖4 視頻ETH(sunny_day-img-left)的跟蹤結(jié)果
在粒子數(shù)目有限的前提下,由于粒子的隨機(jī)分布和運(yùn)動(dòng)的隨機(jī)性,粒子濾波跟蹤并不是完全穩(wěn)定的跟蹤。為了定量地衡量算法的效果,對(duì)兩次實(shí)驗(yàn)分別做5次獨(dú)立重復(fù)實(shí)驗(yàn),計(jì)算跟蹤的平均失敗幀數(shù)。跟蹤失敗的定義為:真實(shí)狀態(tài)與估計(jì)狀態(tài)的重合程度低于50%,即基本上偏離了目標(biāo)。表3是重復(fù)實(shí)驗(yàn)得到的兩次跟蹤實(shí)驗(yàn)中平均失敗幀數(shù)。
表3 兩個(gè)實(shí)驗(yàn)場(chǎng)景中對(duì)目標(biāo)的跟蹤結(jié)果
經(jīng)過大量的實(shí)驗(yàn)發(fā)現(xiàn),本文跟蹤算法對(duì)行人目標(biāo)具有良好的跟蹤效果,特別是對(duì)于目標(biāo)被遮擋、光照變化等情況也能夠?qū)崿F(xiàn)較為準(zhǔn)確的跟蹤。由于跟蹤計(jì)算量和耗時(shí)的因素主要包括跟蹤窗口的大小、粒子數(shù)目和特征的計(jì)算復(fù)雜度。本文通過利用改進(jìn)的KLT算法,對(duì)特征點(diǎn)進(jìn)行匹配,與通常利用距離的特征點(diǎn)匹配算法相比,在處理速度上有所提高,實(shí)驗(yàn)1中平均每幀的處理時(shí)間為0.067 s,實(shí)驗(yàn)2中平均每幀的處理時(shí)間為0.071 s,能夠較好地滿足實(shí)時(shí)處理的要求。
跟蹤目標(biāo)的尺度、形狀變化,遮擋,光照變化等都影響視覺跟蹤的魯棒性,本文在粒子濾波框架下,提出了改進(jìn)的視覺顯著性顏色直方圖和SURF特征聯(lián)合跟蹤的方法,其中對(duì)SURF特征點(diǎn)的匹配是利用了改進(jìn)的分層迭代KLT特征匹配方法,大大提高了特征點(diǎn)匹配的速度。針對(duì)快速運(yùn)動(dòng)的目標(biāo),SURF特征匹配中可能出現(xiàn)的匹配數(shù)目急劇減少的問題,提出一種SURF特征集的更新策略,并通過實(shí)驗(yàn)驗(yàn)證了本文所提方法在跟蹤速度和跟蹤準(zhǔn)確度方面,較Color PT方法都有所提高。
[1]Shiina Y,Ikenaga T.Recovery method based particle filter for object tracking in complex environment[C]//Signal& Information Processing Association Annual Summit and Conference(APSIPA ASC),Hollywood,CA,2012:1-4.
[2]吳垠,李良福,肖樟樹,等.基于尺度不變特征的光流法目標(biāo)跟蹤技術(shù)研究[J].計(jì)算機(jī)工程與應(yīng)用,2013,49(15):157-161.
[3]Jiang Zhengqiang,Huynh D Q,Moran W,et al.Multiple pedestrian tracking using colour and motion models[C]// Digital Image Computing:Techniques and Applications(DICTA),2010:328-334.
[4]Ying Hongwei,Qiu X,Song Jiatao,et al.Particle filtering object tracking based on texture and color[C]//Intelligence Information Processing and Trusted Computing(IPTC),2010:626-630.
[5]陳金廣,馬麗麗,陳亮.基于邊緣粒子濾波的目標(biāo)跟蹤算法研究[J].計(jì)算機(jī)工程與應(yīng)用,2010,46(28):128-131.
[6]Pérez P,Vermaak J,Blake A.Data fusion for tracking with particles[J].Proceedings of the IEEE,2004:495-513.
[7]Li P,Chaumette F.Image cues fusion for object tracking based on particle filter[C]//Int’l Conf Articulated Motion and Deformable Objects,2004:99-107.
[8]Tang Da,Zhang Yujin.Combining mean-shift and particle filter for object tracking[C]//Image and Graphics(ICIG),Hefei,Anhui,2011:771-776.
[9]Hossain K,Oh Chi-min,Lee Chi-Woo,et al.Multi-part SIFT feature based particle filter for rotating object tracking[C]//Informatics,Electronics&Vision(ICIEV),2012:1016-1020.
[10]Bay H,Tuytelaars T,Gool L V.SURF:Speeded up robust features[C]//Computer Vision-ECCV 2006,2006:404-417.[11]Takacs G,Chandrasekhar V,Tsai S,et al.Unified realtime tracking and recognition with rotation-invariant fast features[C]//IEEE Computer Conference on Computer Vision and Pattern Recognition(CVPR),San Francisco,CA,2010:934-941.
[12]Calonder M,Lepetit V,Strecha C,et al.BRIEF:binary robustindependentelementaryfeatures[C]//Computer Vision-ECCV 2010,2010:778-792.
[13]Khvedchenya E.Feature descriptor comparision report[R/OL].[2012-08-18].http://computer-vision-talks.com/.
[14]Tomasi C,Kanade T.Detection and tracking of point features,Carnegie Mellon University Technical Report CMUCS-91-132[R/OL].[1991].http://www.lira.dist.unige.it/teaching/ SINA/slides-current/tomasi-kanade-techreport-1991.pdf.
[15]Gong J,Liu F Q,Song C L,et al.Research on the moving vehicle detection algorithm based on the motion vector[J].Advances in Intelligent and Soft Computing,2012,127:41-49.
[16]劉玉,王敬東,李鵬.一種基于SIFT和KLT相結(jié)合的特征點(diǎn)跟蹤方法研究[J].宇航學(xué)報(bào),2011,32(7):1618-1625.
[17]Yang Hanxuan,Shao Ling,Zheng Feng,et al.Recent advances and trends in visual tracking:a review[J].Neurocomputing,2011,74(18):3823-3831.
[18]Montabone S,Soto A.Human detection using a mobile platform and novel features derived from a visual saliency mechanism[J].Image and Vision Computing,2010:89-94.
[19]王永明,王貴錦.圖像局部不變性特征與描述[M].北京:國(guó)防工業(yè)出版社,2010.
[20]胡仕強(qiáng),敬忠良.粒子濾波原理及其應(yīng)用[M].北京:科學(xué)出版社,2010.
[21]Achanta R,Hemami S,Estrada F,et al.Frequency-tuned salient region detection[C]//IEEE Int’l Conf Computer Vision and Pattern Recognition(CVPR),2009:1597-1604.
Targets tracking based on improved color histogram and SURF features using particle filter.
JIN Zhigang1,WEI Jinjin1,LUO Yongmei2,LIU Xiaohui3
1.School of Electronic Information Engineering,Tianjin University,Tianjin 300072,China
2.School of Computer Science and Technology,Tianjin University,Tianjin 300072,China
3.National Computer Network Emergency Treatment Coordination Center,Beijing 100029,China
In order to track moving targets of video exactly,a novel tracking scheme is proposed using particle filter based on improved color histogram features and Speeded Up Robust Features(SURF).SURF algorithm is applied to extracting features.The features are tracked stably by the hierarchically iterative matching of the Kanade-Lucas-Tomasi(KLT)matching algorithm.Based on fusion mode of multiplicative weights,the SURF and improved saliency weighted color histogram are used to the joint observation probability.Meanwhile,for avoiding the drop of SURF matching numbers and the instability in tracking process,a SURF feature-point-set update method is presented.Through using multi-group experiments,the results demonstrate that this approach has great robustness for either sunlight or block and has high accuracy in tracking. Key words:target tracking;visual saliency;color histogram;Speeded Up Robust Features(SURF);particle filter;KLT algorithm
A
TP391
10.3778/j.issn.1002-8331.1310-0297
國(guó)家高技術(shù)研究發(fā)展計(jì)劃(863)(No.2009AA01A336)。
金志剛(1972—),男,教授,博士生導(dǎo)師,研究領(lǐng)域?yàn)榫W(wǎng)絡(luò)與信息安全,圖像/視頻處理;衛(wèi)津津(1987—),通訊作者,女,博士研究生,研究領(lǐng)域?yàn)槟J阶R(shí)別,視頻圖像處理;羅詠梅(1974—),女,工程師,研究領(lǐng)域?yàn)橛?jì)算機(jī)網(wǎng)絡(luò)技術(shù)與應(yīng)用;劉曉輝(1986—),男,博士生,研究領(lǐng)域?yàn)槟J阶R(shí)別,視頻圖像處理。E-mail:weijin525@163.com
2013-10-23
2014-01-16
1002-8331(2015)22-0193-06
CNKI網(wǎng)絡(luò)優(yōu)先出版:2014-03-18,http://www.cnki.net/kcms/doi/10.3778/j.issn.1002-8331.1310-0297.html