戴平陽,洪景新,李翠華,詹小靜
(廈門大學(xué)信息科學(xué)與技術(shù)學(xué)院,福建 廈門361005)
目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域的熱點(diǎn)研究課題,它在智能視頻監(jiān)控、人機(jī)交互、精確制導(dǎo)以及虛擬現(xiàn)實(shí)等領(lǐng)域有著廣泛的應(yīng)用.目標(biāo)跟蹤的主要難點(diǎn)包括復(fù)雜場(chǎng)景下目標(biāo)平移、旋轉(zhuǎn)、光照變化、視角變化等目標(biāo)外觀變化,目標(biāo)的遮擋與自遮擋,動(dòng)態(tài)場(chǎng)景中嘈雜背景干擾及雨、煙、霧、陰影等因素干擾.視覺目標(biāo)跟蹤問題近十多年來已經(jīng)進(jìn)行了廣泛而又深入的研究,但實(shí)踐表明,復(fù)雜場(chǎng)景下的運(yùn)動(dòng)目標(biāo)跟蹤算法還遠(yuǎn)未成熟.因此在復(fù)雜場(chǎng)景下設(shè)計(jì)一個(gè)魯棒、準(zhǔn)確地進(jìn)行視覺目標(biāo)跟蹤的算法仍然是一項(xiàng)具有挑戰(zhàn)性的課題.
目標(biāo)跟蹤指的是圖像序列中對(duì)目標(biāo)的運(yùn)動(dòng)狀態(tài)進(jìn)行持續(xù)估計(jì)與預(yù)測(cè)過程.目標(biāo)外觀模型的好壞是跟蹤算法的關(guān)鍵.根據(jù)目標(biāo)模型建立方法不同,通常將跟蹤方法分為兩類:產(chǎn)生式模型和判別式模型.基于產(chǎn)生式模型的跟蹤方法首先學(xué)習(xí)一個(gè)外觀模型作為目標(biāo)觀測(cè),然后在目標(biāo)可能運(yùn)動(dòng)的范圍內(nèi)搜索與該生成模型最相似的區(qū)域,從而實(shí)現(xiàn)目標(biāo)的跟蹤.Black[1]等提出了一種子空間學(xué)習(xí)方法,采用主成分分析方法建立感興趣目標(biāo)的外觀模型來進(jìn)行跟蹤;Zhou[2]等則在粒子濾波框架中嵌入自適應(yīng)的外觀變化模型來處理跟蹤過程中目標(biāo)外觀變化.Ross等[3]將提出一種增量子空間更新方法,通過漸進(jìn)獲取子空間的基構(gòu)建跟蹤框架,以適應(yīng)目標(biāo)外觀的動(dòng)態(tài)變化.基于判別式模型的跟蹤方法將目標(biāo)跟蹤表示成一個(gè)分類問題,通過選擇合適的特征及分類器將目標(biāo)從背景中區(qū)分開來.Collins等[4]提出了一種基于判別式在線學(xué)習(xí)跟蹤算法,該算法在線選擇具有背景和前景區(qū)分性的RGB顏色值的線性組合來作為跟蹤特征.Wang等[5]將Haar特征應(yīng)用于跟蹤領(lǐng)域,通過在特征空間中使用Fisher判別方法,選擇得到有判別力的特征,在粒子濾波框架中提出一種具有判別力的在線跟蹤算法.Avidan[6]利用AdaBoost算法從弱分類器中學(xué)習(xí)得到一個(gè)強(qiáng)分類器來進(jìn)行目標(biāo)跟蹤.Grabner等[7]則設(shè)計(jì)一個(gè)在線Boosting分類器,該分類器從候選的特征池中選擇最具有判別力的特征來進(jìn)行目標(biāo)跟蹤.
近年來,稀疏表示成為計(jì)算機(jī)視覺的研究熱點(diǎn),出現(xiàn)了大量基于稀疏表示的目標(biāo)跟蹤算法[8-11].Mei等[12]最早將稀疏表示引入跟蹤領(lǐng)域,提出了L1跟蹤器.該算法在粒子濾波框架下用模板字典對(duì)目標(biāo)建模,通過獨(dú)立求解受約束的L1最小化問題得到候選區(qū)域在目標(biāo)字典上的稀疏表示,以重構(gòu)誤差來判斷當(dāng)前目標(biāo)位置.由于L1跟蹤的目標(biāo)模板是通過對(duì)目標(biāo)區(qū)域抖動(dòng)構(gòu)建得到,因此其缺點(diǎn)是對(duì)于線性表示的稀疏性假設(shè)不是在所有情況下都成立.當(dāng)目標(biāo)發(fā)生較大遮擋或目標(biāo)快速運(yùn)動(dòng)時(shí),候選目標(biāo)區(qū)域在目標(biāo)字典單位模板對(duì)應(yīng)的系數(shù)可能會(huì)出現(xiàn)較多的非零元素,目標(biāo)的整體表示系數(shù)將不再稀疏,從而導(dǎo)致目標(biāo)跟蹤錯(cuò)誤.
為了在目標(biāo)遮擋、噪聲干擾及目標(biāo)快速運(yùn)動(dòng)等復(fù)雜場(chǎng)景進(jìn)行魯棒跟蹤,本文將目標(biāo)的稀疏表示和判別式在線學(xué)習(xí)相結(jié)合,提出了一種基于稀疏表示的判別式目標(biāo)跟蹤算法.該算法首先采用稀疏表示對(duì)目標(biāo)進(jìn)行特征提取,得到具有判別力的目標(biāo)特征表示,然后利用樸素貝葉斯分類器對(duì)候選目標(biāo)進(jìn)行分類,選取概率最大的樣本作為當(dāng)前的目標(biāo)估計(jì).為了適應(yīng)場(chǎng)景及目標(biāo)外觀變化,設(shè)計(jì)動(dòng)態(tài)更新機(jī)制對(duì)分類器和字典進(jìn)行了在線更新.和傳統(tǒng)的基于稀疏表示的跟蹤算法相比,本文算法通過目標(biāo)的稀疏表示獲得具有判別力的目標(biāo)特征表示,而在線的樸素貝葉斯分類器則確保了目標(biāo)跟蹤算法的快速有效,克服了基于傳統(tǒng)稀疏表示的跟蹤算法無法在目標(biāo)發(fā)生較大遮擋及快速運(yùn)動(dòng)等復(fù)雜場(chǎng)景進(jìn)行魯棒跟蹤的缺點(diǎn).
設(shè)圖像序列的初始m幀為訓(xùn)練圖像,T=[T1,…,Tm]為目標(biāo)模板集合,其中Ti∈Rd×d.為了構(gòu)建目標(biāo)外觀的特征向量,我們采用與文獻(xiàn)[11]類似方法.對(duì)于每個(gè)目標(biāo)模板Ti,采用w×w的滑動(dòng)窗口進(jìn)行稠密采樣,將得到的所有圖像塊列向量化并進(jìn)行L2范數(shù)歸一化,得到每個(gè)目標(biāo)模板的局部字典Ti=[t11,…,tM],聯(lián)合所有目標(biāo)模板,從而得到最終的稀疏編碼字典:
其中,l=w×w表示圖像塊向量的維度,m表示模板數(shù)量,M表示每個(gè)模板采樣得到圖像塊的數(shù)量.y∈Rd×d是候選目標(biāo)樣本,那么可以使用上述方法提取該樣本的局部圖像塊,得到候選目標(biāo)樣本的采樣表示:
根據(jù)稀疏表示理論,樣本的局部圖像塊可以由稀疏編碼字典D稀疏表示,可通過求解凸優(yōu)化問題得到各個(gè)圖像塊在字典D中的稀疏編碼:
其中,λ1和λ2為正則化參數(shù).當(dāng)λ2=0時(shí),公式(3)為L(zhǎng)1范數(shù)稀疏編碼,λ2>0使得公式(3)為嚴(yán)格凸優(yōu)化問題.由公式(3)可得局部圖像塊yi在字典D的稀疏表示:
從而得到候選樣本y∈Rd×d的稀疏編碼為:
通過候選樣本圖像塊與字典中目標(biāo)模板之間的投票關(guān)系,可以獲得候選區(qū)域的特征表示.令稀疏字典中每個(gè)目標(biāo)模板對(duì)候選樣本的局部圖像塊進(jìn)行投票,即將局部圖像塊的稀疏系數(shù)加權(quán)從而得到權(quán)重向量,其中為所有目標(biāo)模板的第j個(gè)圖像塊對(duì)候選目標(biāo)的第i個(gè)圖像塊的投票權(quán)重,C為歸一化參數(shù).因此,可以得到目標(biāo)模板與候選樣本的投票權(quán)重矩陣V= [v1,…,vM]∈RM×M.由于權(quán)重矩陣V的對(duì)角線表示目標(biāo)模板圖像塊與對(duì)應(yīng)候選樣本圖像塊之間的投票,因此選取X=diag(V),X∈RM,為候選樣本的特征向量.
候選區(qū)域中,一個(gè)好的候選樣本可以由目標(biāo)模板字典稀疏表示,其對(duì)應(yīng)的稀疏編碼向量只有幾個(gè)大的系數(shù).同樣地,每個(gè)局部圖像塊的稀疏編碼向量在其對(duì)應(yīng)位置的目標(biāo)模板圖像塊上的系數(shù)也比較大,那么提取得到的特征向量則對(duì)應(yīng)了這些系數(shù)中的大系數(shù),即保留了大部分的能量.而非目標(biāo)樣本在字典上的表示是稠密的,能量均勻分布在字典空間.因此,目標(biāo)樣本與非目標(biāo)樣本在特征向量表示上存在很大差異.在此觀測(cè)基礎(chǔ)上,利用判別式在線學(xué)習(xí)方法,設(shè)計(jì)分類器在跟蹤過程中將目標(biāo)與背景區(qū)分開來.
樸素貝葉斯分類器是一種基于獨(dú)立假設(shè)貝葉斯定理的簡(jiǎn)單概率分類器.樸素貝葉斯分類器假定樣本的各個(gè)屬性之間相互獨(dú)立,根據(jù)少量的訓(xùn)練數(shù)據(jù)進(jìn)行參數(shù)估計(jì).盡管變量相互獨(dú)立假設(shè)現(xiàn)實(shí)中難以滿足,但該分類器需要估計(jì)的參數(shù)少,對(duì)缺失數(shù)據(jù)不敏感,并且有著分類誤差小,簡(jiǎn)單高效穩(wěn)定等特點(diǎn).
在跟蹤問題中,樣本只有2種類別屬性:目標(biāo)或背景,是一個(gè)二分類問題.假設(shè)目標(biāo)和背景的先驗(yàn)概率為p(y),y∈{+1,-1},對(duì)于測(cè)試樣本X,其類條件概率為p(X|y),根據(jù)貝葉斯公式及最小錯(cuò)誤率的貝葉斯決策準(zhǔn)則可得二元分類器:
若選擇分類器的后驗(yàn)概率比值作為似然函數(shù)可得:
設(shè)樣本X包含M 個(gè)屬性,即X=[x1,…,xM],并且各個(gè)屬性之間相互獨(dú)立,則有:
若先驗(yàn)概率p(y=+1)=p(y=-1),則式(7)可表示為:
利用稀疏表示的外觀模型,目標(biāo)由特征向量X=[x1,…,xM]表示.特征向量X=[x1,…,xM]每個(gè)元素代表了目標(biāo)模板圖像塊與候選樣本對(duì)應(yīng)圖像塊的投票值.假設(shè)特征向量各個(gè)元素之間相互獨(dú)立,且服從高斯分布,則樸素貝葉斯分類器的類條件概率p(X|y)滿足參數(shù)(μ+i,σ+i,μ-i,σ-i)高斯分布:
聯(lián)合所有特征向量元素的類條件概率得到候選樣本在分類器下的置信值為:
在跟蹤過程中,隨著時(shí)間推移以及遮擋、光照、噪聲干擾等因素作用,目標(biāo)的外觀模型會(huì)發(fā)生很大變化.因此,為了保證跟蹤的準(zhǔn)確性及魯棒性,必須對(duì)分類器進(jìn)行在線更新.對(duì)于模板字典更新采用文獻(xiàn)[12]的方法,在跟蹤過程中,使用跟蹤結(jié)果圖像塊替換模板字典中重構(gòu)誤差最大的圖像塊,從而實(shí)現(xiàn)字典集合的動(dòng)態(tài)更新.
在t時(shí)刻獲得目標(biāo)位置后,在目標(biāo)周圍及遠(yuǎn)離目標(biāo)區(qū)域分別采樣正負(fù)樣本更新分類器.在跟蹤過程中,設(shè)置一個(gè)動(dòng)態(tài)更新參數(shù)δ,采用動(dòng)態(tài)更新機(jī)制,每隔δ幀重新訓(xùn)練分類器.訓(xùn)練樣本除了來自初始化訓(xùn)練的靜態(tài)訓(xùn)練樣本庫外,還包括最近δ幀的正負(fù)樣本.
本文的基于稀疏表示的判別式目標(biāo)跟蹤算法具體描述如下:
輸入:視頻圖像序列 {I1,…,In},初始目標(biāo)位置 {r1,…,rm}.
輸出:視頻圖像序列中的跟蹤結(jié)果目標(biāo)矩形框 {r1,…,rn}.
初始化:
1)構(gòu)造稀疏編碼字典D,
2)獲取訓(xùn)練樣本{Xi,yi},并將其保留作為靜態(tài)訓(xùn)練樣本.其中Xi∈RM為局部稀疏特征向量,yi∈{-1,+1}為樣本標(biāo)記,
令 t=1,…,n,
1)根據(jù)設(shè)定搜索半徑r采樣目標(biāo)候選矩形框,稀疏編碼提取得到對(duì)應(yīng)特征向量{Xi},
2)利用樸素貝葉斯分類器L(Xi)計(jì)算樣本作為目標(biāo)置信值li,
4)由當(dāng)前跟蹤結(jié)果獲取動(dòng)態(tài)訓(xùn)練樣本,判斷是否進(jìn)行分類器更新.若滿足更新條件,則合并靜態(tài)樣本與動(dòng)態(tài)樣本庫,重新訓(xùn)練分類器,清空動(dòng)態(tài)樣本庫用于收集新的樣本.
本文算法在Visual Studio 2010上采用C++和OpenCV實(shí)現(xiàn).跟蹤目標(biāo)采用矩形框表示,初始狀態(tài)在起始幀手動(dòng)或自動(dòng)選定.實(shí)驗(yàn)參數(shù)設(shè)置如下:訓(xùn)練圖像數(shù)量m=5,目標(biāo)模板及所有候選樣本均縮放為32×32像素,d=32,滑動(dòng)窗口為16×16,w=16,滑動(dòng)步長(zhǎng)為8個(gè)像素;稀疏表示正則化參數(shù)λ1=0.01,目標(biāo)搜索半徑r=30,正樣本采樣半徑為2,負(fù)樣本圓環(huán)為目標(biāo)矩形框的長(zhǎng)邊,樣本數(shù)量N=20,分類器動(dòng)態(tài)更新參數(shù)δ=5.以上參數(shù)在實(shí)驗(yàn)過程中對(duì)所有視頻序列均固定不變.
實(shí)驗(yàn)在幾組跟蹤領(lǐng)域常用的圖像視頻序列上進(jìn)行.根據(jù)測(cè)試視頻的不同挑戰(zhàn),實(shí)驗(yàn)將測(cè)試視頻分為3組,其中:Occlusion1和Girl視頻包含了目標(biāo)遮擋及外觀變化難點(diǎn);Animal和Jumping序列挑戰(zhàn)在于目標(biāo)快速運(yùn)動(dòng)及運(yùn)動(dòng)模糊;Car4和Car11是汽車尾部跟蹤視頻,其中包含了光照變化、噪聲、外觀變化等挑戰(zhàn).實(shí)驗(yàn)將本文算法與當(dāng)前主流的6種算法進(jìn)行比較:Frag[13],L1[12],MIL[14],PCA[3],PN[15],VTD[16].
該組視頻實(shí)驗(yàn)主要針對(duì)嚴(yán)重遮擋與外觀變化的目標(biāo)跟蹤.
Occlusion1視頻序列是女子被書本遮擋場(chǎng)景.書本多次從各個(gè)不同方向?qū)θ四樳M(jìn)行遮擋,遮擋面積最大可達(dá)面部可視面積70%.實(shí)驗(yàn)部分結(jié)果如圖1(a)所示.其中,第575幀遮擋面積達(dá)70%,6種對(duì)比算法均出現(xiàn)漂移、被擠壓現(xiàn)象,而本文算法幾乎不受影響.圖2(a)給出7種算法在Occlusion1視頻上的中心誤差.該圖顯示,本文算法的中心誤差是最小的,特別是500~600幀,6種對(duì)比算法誤差很大,這一結(jié)果顯示本文算法在遮擋條件下的魯棒性.
另一個(gè)視頻序列為Girl,該視頻包含女子多次轉(zhuǎn)動(dòng),目標(biāo)外觀發(fā)生巨大變化,同時(shí)還包含相似目標(biāo)遮擋.實(shí)驗(yàn)部分結(jié)果如圖1(b)所示.中心誤差分析如圖2(b)所示.實(shí)驗(yàn)結(jié)果同樣表明本文算法對(duì)比其它6種算法,在目標(biāo)發(fā)生遮擋與外觀變化時(shí)具有魯棒性.
圖1 視頻序列跟蹤效果Fig.1 Tracking results of video sequences
該組實(shí)驗(yàn)是針對(duì)快速運(yùn)動(dòng)及運(yùn)動(dòng)模糊的目標(biāo)跟蹤.
Animal視頻序列的主要挑戰(zhàn)在于目標(biāo)快速運(yùn)動(dòng)并且背景中相似目標(biāo)干擾.實(shí)驗(yàn)部分結(jié)果如圖1(c)所示.由42幀實(shí)驗(yàn)結(jié)果表明,目標(biāo)快速跳躍運(yùn)動(dòng)時(shí),對(duì)比算法明顯漂移甚至丟失目標(biāo),而本文算法依然準(zhǔn)確跟蹤目標(biāo).由圖2(c)的中心誤差分析圖可以看出,6種主流算法中除了VTD算法外均出現(xiàn)較大的中心誤差,跟蹤效果很不理想.而本文算法的中心誤差自始至終都保持在最小,顯示了本文算法對(duì)于目標(biāo)快速運(yùn)動(dòng)的魯棒性和準(zhǔn)確性.
Jumping視頻序列是男子在室外跳繩,其臉部為跟蹤目標(biāo).該視頻的主要難點(diǎn)在于人臉的上下快速運(yùn)動(dòng)及其伴隨的運(yùn)動(dòng)模糊.實(shí)驗(yàn)部分結(jié)果如圖1(d)所示.16幀目標(biāo)突然跳起,人臉模糊,F(xiàn)rag、L1、VTD均出現(xiàn)漂移.實(shí)驗(yàn)結(jié)果顯示,在跟蹤過程中,F(xiàn)rag、L1、VTD和PCA均逐漸丟失目標(biāo),而MIL和PN算法則向上或向下漂移,只有本文算法比較準(zhǔn)確鎖定目標(biāo).中心誤差分析如圖2(d)所示.
該組實(shí)驗(yàn)是針對(duì)汽車尾部進(jìn)行目標(biāo)跟蹤.
Car4視頻序列白天車輛跟蹤場(chǎng)景,跟蹤的目標(biāo)為前方車輛的尾部,其主要挑戰(zhàn)在于目標(biāo)在行進(jìn)過程中多次經(jīng)過路橋陰影區(qū)域,帶來光照劇烈變化,同時(shí)還存在外觀尺度變化.實(shí)驗(yàn)部分結(jié)果如圖1(e)所示.178幀目標(biāo)第一次進(jìn)入陰影區(qū)域,F(xiàn)rag和MIL出現(xiàn)輕度漂移,194幀目標(biāo)完全進(jìn)入陰影區(qū)域,PN開始出現(xiàn)漂移,240幀目標(biāo)離開陰影區(qū)域,F(xiàn)rag發(fā)生嚴(yán)重漂移.304,451和620幀目標(biāo)發(fā)生尺度變化,MIL丟失目標(biāo),PN和VTD也出現(xiàn)輕度漂移.整個(gè)跟蹤過程中,L1和PCA表現(xiàn)十分穩(wěn)定,本文算法也取得了相近的跟蹤效果.中心誤差分析如圖2(e)所示.
Car11視頻序列是夜晚車輛跟蹤場(chǎng)景,跟蹤目標(biāo)也是前方車輛尾部.目標(biāo)在街道穿行,期間多次發(fā)生尺度變化、光照變化及快速運(yùn)動(dòng).同時(shí),跟蹤目標(biāo)車輛較小,能獲取的信息量較小,跟魯棒跟蹤帶來很大難度.實(shí)驗(yàn)部分結(jié)果如圖1(f)所示.目標(biāo)在60,207幀快速運(yùn)動(dòng),235幀發(fā)生尺度變化,MIL發(fā)生嚴(yán)重漂移,F(xiàn)rag丟失目標(biāo),除了本文算法和PCA能穩(wěn)定跟蹤,其它算法均出現(xiàn)不同程度漂移.目標(biāo)在300,384幀轉(zhuǎn)彎快速運(yùn)動(dòng),PCA算法發(fā)生漂移,其他5種對(duì)比算法均丟失目標(biāo),只有本文算法全程準(zhǔn)確跟蹤目標(biāo).中心誤差分析如圖2(f)所示,與6種流行算法相比,本文算法誤差一直保持最小.
為了更加直觀地對(duì)比跟蹤算法的準(zhǔn)確性,我們統(tǒng)計(jì)了上述7種算法在6個(gè)視頻序列上的中心平均誤差,如表1所示.在6個(gè)視頻序列測(cè)試中,本文算法有3個(gè)取得最低評(píng)價(jià)誤差,2個(gè)排在第二以及1個(gè)第三,總平均誤差最小.這清楚地表明本文算法在各種挑戰(zhàn)下對(duì)目標(biāo)具有良好的準(zhǔn)確性和魯棒性.
圖2 跟蹤結(jié)果中心誤差Fig.2 The center position error of sequence
表1 算法平均中心誤差Tab.1 Average center error pixel
本文提出了一種基于稀疏表示的判別式目標(biāo)跟蹤算法.該算法采用稀疏表示對(duì)目標(biāo)進(jìn)行特征提取,獲得具有判別力的目標(biāo)特征表示.在跟蹤過程中利用樸素貝葉斯分類器對(duì)候選目標(biāo)進(jìn)行分類,選取概率最大的樣本作為當(dāng)前的目標(biāo)估計(jì).為了適應(yīng)場(chǎng)景及目標(biāo)外觀動(dòng)態(tài)變化,分類器和字典進(jìn)行了在線更新.該算法將稀疏表示與判別式分類器結(jié)合,采用目標(biāo)的稀疏表示獲得具有判別力的目標(biāo)特征表示,而在線的樸素貝葉斯分類器則確保了目標(biāo)跟蹤的快速有效,克服了基于傳統(tǒng)稀疏表示的跟蹤算法無法在目標(biāo)發(fā)生較大遮擋及快速運(yùn)動(dòng)等復(fù)雜場(chǎng)景進(jìn)行魯棒跟蹤的缺點(diǎn).實(shí)驗(yàn)結(jié)果表明,與目前流行的多種跟蹤算法相比,本文的算法具有良好的跟蹤魯棒性和準(zhǔn)確性.
[1]Black M J,Jepson A D.Eigen tracking:robust matching and tracking of articulated objects using a view-based representation [J].International Journal of Computer Vision,1998,26(1):63-84.
[2]Zhou S K,Chellappa R,Moghaddam B.Visual tracking and recognition using appearance-adaptive models in particle filters[J].Image Processing,IEEE Transactions on,2004,13(11):1491-1506.
[3]Ross D,Lim J,Lin R S,et al.Incremental learning for robust visual tracking[J].International Journal of Computer Vision,2008,77(1):125-141.
[4]Collins R T,Liu Y X,Leordeanu M.Online selection of discriminative tracking features[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2005,27(10):1631-1643.
[5]Wang J Y,Chen X L,Gao W.Online selecting discriminative tracking features using particle filter[J].IEEE Computer Society Conference on,2005,2:1037-1042.
[6]Avidan S.Ensemble tracking [J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2007,29(2):261-271.
[7]Grabner H,Bischof H.On-line boosting and vision [J].Computer Vision and Pattern Recognition,IEEE Computer Society Conference on,2006,1:260-267.
[8]Bao C L,Wu Y,Ling H B,et al.Real time robust L1 tracker using accelerated proximal gradient approach [C]∥Computer Vision and Pattern Recognition (CVPR),IEEE Conference on.Providence,RI:IEEE,2012:1830-1837.
[9]Wang Q,Chen F,Xu W L,et al.Online discriminative object tracking with local sparse representation[C]∥Applications of Computer Vision(WACV),2012IEEE Workshop on.Breckenridge,CO:IEEE,2012:425-432.
[10]Zhong W,Lu H C,Yang M H.Robust object tracking via sparsity-based collaborative model[C]∥Computer Vision and Pattern Recognition (CVPR),2012IEEE Conference on.Providence,RI:IEEE,2012:1838-1845.
[11]Jia X,Lu H C,Yang M H.Visual tracking via adaptive structural local sparse appearance model[C]∥Computer Vision and Pattern Recognition(CVPR),2012IEEE Conference on. Providence, RI: IEEE, 2012:1822-1829.
[12]Mei X,Ling H B.Robust visual tracking and vehicle classification via sparse representation [J].Pattern A-nalysis and Machine Intelligence,IEEE Transactions on,2011,33(11):2259-2272.
[13]Adam A,Rivlin E,Shimshoni I.Robust fragments-based tracking using the integral histogram[J].Computer Vi-sion and Pattern Recognition,2006IEEE Computer Society Conference on,2006,1:798-805.
[14]Babenko B,Yang M,Belongie S.Visual tracking with online multiple instance learning[C]∥Pattern Analysis and Machine Intelligence,IEEE Transactions on.Miami,F(xiàn)L:IEEE,2009:983-990.
[15]Kalal Z,Mikolajczyk K,Matas J.Tracking-learning-de-tection[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2012,34(7):1409-1422.
[16]Kwon J,Lee K M.Visual tracking decomposition[C]∥Computer Vision and Pattern Recognition (CVPR),2010IEEE Conference on.San Francisco,CA:IEEE,2010:1269-1276.