趙 端 謝 琦
(鄭州大學(xué)信息工程學(xué)院 河南 鄭州 450001)
基于特征加權(quán)的快速壓縮感知跟蹤
趙 端 謝 琦
(鄭州大學(xué)信息工程學(xué)院 河南 鄭州 450001)
基于壓縮感知的目標(biāo)跟蹤算法具有簡(jiǎn)單、實(shí)時(shí)、高效的特點(diǎn)??焖賶嚎s感知目標(biāo)跟蹤算法FCT(Fast Compressive Tracking)生成目標(biāo)高維特征未考慮不同尺度濾波器生成特征的有效性,目標(biāo)與候選樣本之間的相似性度量?jī)H考慮簡(jiǎn)單疊加,在目標(biāo)受到光照、遮擋等外界因素的影響下易使跟蹤結(jié)果出現(xiàn)偏差。針對(duì)這些問題,提出一種基于特征加權(quán)的快速壓縮感知跟蹤算法。該算法根據(jù)濾波器尺度,自適應(yīng)地分配權(quán)值,生成目標(biāo)高維特征。算法將候選樣本各維壓縮特征分類為目標(biāo)壓縮特征的可能性與貝葉斯分類器輸出相乘,作為目標(biāo)與候選樣本之間的相似性度量。實(shí)驗(yàn)結(jié)果表明,提出的方法在目標(biāo)受到光照、遮擋等外界因素的影響下具有更強(qiáng)的魯棒性。
目標(biāo)跟蹤 壓縮感知 實(shí)時(shí) 特征加權(quán)
視覺目標(biāo)跟蹤是機(jī)器視覺領(lǐng)域研究的熱點(diǎn)問題,已經(jīng)被廣泛應(yīng)用于眾多領(lǐng)域,如:機(jī)器人、智能視頻監(jiān)控、軍用導(dǎo)航等,有著極高的研究?jī)r(jià)值和廣闊的應(yīng)用發(fā)展前景[1]。
傳統(tǒng)的視覺目標(biāo)跟蹤算法大致包含三個(gè)部分:一個(gè)外觀模型,一個(gè)運(yùn)動(dòng)模型和一個(gè)相似性度量策略。近些年來(lái),視覺目標(biāo)跟蹤算法得到眾多的關(guān)注和研究。例如,文獻(xiàn)[2]提出一種新穎的跟蹤框架(TLD),即將跟蹤任務(wù)分解為跟蹤、學(xué)習(xí)和檢測(cè),該算法結(jié)合檢測(cè)和跟蹤方法,建立新的在線學(xué)習(xí)機(jī)制,從而使得跟蹤結(jié)果更加準(zhǔn)確。文獻(xiàn)[3]利用稠密的時(shí)空上下文來(lái)進(jìn)行跟蹤,具有簡(jiǎn)單、快速及魯棒的優(yōu)點(diǎn)。算法在貝葉斯框架下,通過(guò)目標(biāo)位置在上一幀的先驗(yàn)信息來(lái)計(jì)算置信圖,有效地減輕了目標(biāo)位置的模糊。此外,還有CSK[4]、LSS[5]等算法。雖然目標(biāo)跟蹤已經(jīng)得到廣泛的關(guān)注和研究,但目標(biāo)外觀易因目標(biāo)受到光照[6]、遮擋[7-8]等外界因素的影響時(shí)發(fā)生變化,目標(biāo)跟蹤仍然是一個(gè)具有挑戰(zhàn)性的問題。
壓縮感知理論[9-10]用投影矩陣得到信號(hào)的壓縮測(cè)量值,然后通過(guò)重構(gòu)算法重構(gòu)出原始信號(hào),因其具有簡(jiǎn)單、高效等優(yōu)點(diǎn),在跟蹤領(lǐng)域得到廣泛的使用。文獻(xiàn)[11]提出一種基于壓縮感知理論的目標(biāo)跟蹤算法,該算法證明了利用壓縮感知技術(shù)獲得的低維壓縮信號(hào)基本保留原有信號(hào)的全部特性,進(jìn)而在不降低計(jì)算精度的前提下大大提高運(yùn)算效率。文獻(xiàn)[12]提出一種簡(jiǎn)單高效地基于壓縮感知的目標(biāo)跟蹤算法(FCT)。該算法利用符合壓縮感知RIP條件的隨機(jī)感知矩陣對(duì)多尺度圖像特征進(jìn)行降維,然后采用簡(jiǎn)單的樸素貝葉斯分類器在降維后的特征上進(jìn)行分類。該跟蹤算法非常簡(jiǎn)單,并具有較高的準(zhǔn)確性。但算法中獲取樣本的高維特征描述具有一定的盲目性。該算法通過(guò)樣本與濾波器的卷積獲取樣本的高維特征,但是沒有考慮到隨著濾波器尺寸的增大,濾波后產(chǎn)生的有效特征逐漸減少。同時(shí)算法中目標(biāo)與候選樣本之間的相似性度量?jī)H考慮簡(jiǎn)單疊加,處理策略過(guò)于簡(jiǎn)單,當(dāng)跟蹤目標(biāo)在受到光照、遮擋等外界因素的影響下易使跟蹤結(jié)果出現(xiàn)偏差。本文針對(duì)這些問題提出了改進(jìn)的特征加權(quán)跟蹤算法。該算法根據(jù)濾波器尺度,自適應(yīng)給多尺度濾波器濾波得到的特征分配權(quán)值,生成目標(biāo)高維特征。算法將候選樣本各維壓縮特征分類為目標(biāo)壓縮特征的可能性與貝葉斯分類器輸出相乘,作為目標(biāo)與候選樣本之間的相似性度量。實(shí)驗(yàn)表明,本文提出的算法能在目標(biāo)發(fā)生遮擋以及光照等變化的情況下準(zhǔn)確地跟蹤目標(biāo)。
FCT算法最主要的特點(diǎn)就是實(shí)時(shí)高效,它是一種基于分類的跟蹤算法。該算法和大多數(shù)分類模型一樣,利用壓縮特征訓(xùn)練分類器,然后在上一幀目標(biāo)周圍采樣,通過(guò)分類器對(duì)所有候選樣本進(jìn)行分類,得到分類器響應(yīng)最大值對(duì)應(yīng)的目標(biāo)區(qū)域即為當(dāng)前幀中跟蹤目標(biāo)的位置。
1.1 壓縮感知理論
壓縮感知,又稱壓縮采樣、壓縮傳感,它是信號(hào)領(lǐng)域誕生的一個(gè)新的采樣理論。通過(guò)開發(fā)信號(hào)的稀疏特性,壓縮感知可以在遠(yuǎn)小于Nyquist采樣率的條件下,利用隨機(jī)采樣獲取信號(hào)的離散樣本,然后通過(guò)非線性重建算法完美的重建信號(hào)。所謂壓縮感知,最核心的理論在于不降低精度的條件下試圖減少對(duì)一個(gè)信號(hào)進(jìn)行測(cè)量的成本。對(duì)于文獻(xiàn)[12]中提出的FCT算法,最直觀的應(yīng)用即是用壓縮感知來(lái)提取目標(biāo)特征,實(shí)現(xiàn)高維信號(hào)向低維的轉(zhuǎn)變。具體表現(xiàn)形式為:
V=ΦX
(1)
通常,滿足受限等距屬性(RIP)的矩陣為隨機(jī)高斯矩陣R∈m×n,其中ri,j~N(0,1)。但是由于隨機(jī)高斯矩陣是稠密矩陣,當(dāng)n的取值較大時(shí),內(nèi)存和計(jì)算量仍然很大。因此,在FCT算法中采用了一個(gè)非常稀疏的隨機(jī)投影矩陣Φ ,定義如下:
(2)
其中,當(dāng)s的取值為1或3時(shí),此矩陣滿足RIP屬性。在FCT算法中,s=n/algn ,此時(shí)隨機(jī)投影矩陣的精確性幾乎接近于傳統(tǒng)高斯矩陣。
1.2 壓縮特征
圖1 樣本高維特征描述
矩形濾波器構(gòu)造如下:
(3)
其中,1≤i≤w,1≤j≤h,w和h分別為目標(biāo)的寬度和高度。
獲取樣本的高維特征以后,我們通過(guò)上文提及的隨機(jī)投影矩陣Φ,利用式(1)即可得樣本的壓縮低維特征。
1.3 分類器的創(chuàng)建與更新
(4)
其中,假定先驗(yàn)概率p(y=1)=p(y=0),且y∈{0,1}是一個(gè)二值變量,它分別表示負(fù)樣本和正樣本。由文獻(xiàn)[15]可得,高維隨機(jī)向量的投影幾乎總是呈現(xiàn)高斯分布,因此,式(4)中的條件概率p(vi|y=1)和p(vi|y=0)可被假設(shè)為符合以下高斯分布。即:
(5)
(6)
1.4 由粗到精的搜索策略
FCT算法采用一種由粗到精的搜索策略來(lái)提高算法的速度和性能。在粗跟蹤階段,選取一個(gè)較大的搜索半徑和搜索步長(zhǎng),依據(jù)文獻(xiàn)[12]中的算法,確定一個(gè)粗糙的跟蹤位置。在細(xì)跟蹤階段,以粗跟蹤階段獲取的目標(biāo)位置為中心,在一個(gè)小的搜索半徑內(nèi),選取較小的搜索步長(zhǎng)進(jìn)行搜索,得到目標(biāo)的最終跟蹤位置。
本文在兩個(gè)方面對(duì)快速壓縮感知跟蹤(FCT)算法進(jìn)行改進(jìn),使得算法在目標(biāo)受到光照、遮擋等外界因素的影響時(shí)具有更強(qiáng)的魯棒性。
2.1 特征加權(quán)
由圖1可知,文獻(xiàn)[12]通過(guò)一組多尺度矩形濾波器{F1,1,…,Fw,h}來(lái)得到樣本的高維特征描述。對(duì)于樣本Z∈w×h,通過(guò)與濾波器進(jìn)行卷積處理,可得到(wh)2維的高維特征。但是,由一系列的實(shí)驗(yàn)不難得到,隨著濾波器尺寸的不斷增大,我們獲得樣本的有效特征越來(lái)越少,這對(duì)于提高跟蹤效果并不明顯(如圖2所示)。
圖2 多尺度濾波結(jié)果圖像
因此,本文提出了基于特征加權(quán)的方法來(lái)解決這一問題。文中采用一定的權(quán)值分配機(jī)制,分別將通過(guò)小尺度濾波器獲得的有效特征賦予較大權(quán)值,同時(shí)將較小的權(quán)值分配給通過(guò)大尺度濾波器獲取的特征。具體方法如下:
(7)
(8)
xt=wt×(Fi,j?Zw×h)
(9)
X=(x1,x2,…,xwh)T
(10)
其中,i和j為濾波器的寬度和高度,且1≤i≤w,1≤j≤h,w和h為樣本Z的寬度和高度,1≤t≤wh,wh為濾波器的個(gè)數(shù),X為獲得的加權(quán)高維特征描述。然后,通過(guò)式(1)即可得到樣本的壓縮低維特征。
與文獻(xiàn)[12]獲取的高維特征相比,改進(jìn)的方法通過(guò)權(quán)值分配機(jī)制,提高了濾波獲得的有效特征的比重,能夠取得更好的跟蹤效果。
2.2 相似性度量
由式(4)可得,在FCT算法中目標(biāo)與候選樣本之間的相似性度量?jī)H考慮簡(jiǎn)單的疊加和,并選取分類器響應(yīng)最大值對(duì)應(yīng)的區(qū)域作為目標(biāo)區(qū)域,但這種方法具有一定的缺陷。由式(4)可得:
(11)
hi(v)=log(p(vi|y=1))-log(p(vi|y=0))
(12)
T=count(hi(v)>0) (i=1,2,…,m)
(13)
P=T/m
(14)
C(v)= P×H(v)=
(15)
其中,T表示hi(v)>0的個(gè)數(shù),m為壓縮特征的個(gè)數(shù)。然后,選取C(v)的最大響應(yīng)值對(duì)應(yīng)的候選區(qū)域作為跟蹤的目標(biāo)區(qū)域。經(jīng)實(shí)驗(yàn)證明,本文提出的相似性度量方法具有更強(qiáng)的適應(yīng)性,且可有效地避免樣本中個(gè)別壓縮特征過(guò)度擬合引起的跟蹤誤差。
本文在對(duì)文獻(xiàn)[12]中的算法改進(jìn)的基礎(chǔ)上,提出了基于特征加權(quán)的壓縮跟蹤算法,主要算法流程如下所示:
算法流程:
輸入:視頻序列F。
輸出:視頻序列F中每一幀的跟蹤位置。
1. 初始化參數(shù)。
a) 手動(dòng)選取跟蹤目標(biāo)的位置[x,y,w,h],其中(x,y)為矩形框左上角坐標(biāo),w和h分別為矩形框的寬度和高度。在此以It表示t幀時(shí)跟蹤目標(biāo)的位置;
b) 選取正負(fù)樣本集,根據(jù)式(10)獲取樣本高維特征,然后由式(1)獲得壓縮低維特征后按照式(6)初始化分類器。
2. 粗跟蹤。對(duì)于第t幀(t≥2),以αc為半徑選取正樣本集Dc={z|‖I(z)-It-1‖≤αc},由式(10)獲取樣本高維特征后通過(guò)式(1)得到低維壓縮特征;
6. 輸出跟蹤結(jié)果,若t不是最后一幀,返回步驟2。
為了驗(yàn)證本文算法的有效性,在此用4個(gè)標(biāo)準(zhǔn)視頻進(jìn)行實(shí)驗(yàn)驗(yàn)證,視頻數(shù)據(jù)的詳細(xì)信息如表1所示。本文算法分別與文獻(xiàn)[12]和文獻(xiàn)[16]中算法進(jìn)行了對(duì)比。所有算法在Window 7系統(tǒng)下MATLAB R2014a運(yùn)行,計(jì)算機(jī)配置是Intel(R) Core(TM) i3-2130 CPU,主頻3.40 GHz,4.00 GB內(nèi)存。
表1 視頻詳細(xì)信息
參數(shù)設(shè)置如下:手動(dòng)標(biāo)記第一幀目標(biāo)位置,正樣本集搜索半徑α=4,隨機(jī)選取45個(gè)正樣本,負(fù)樣本集搜索內(nèi)外半徑分別為β=8,γ=30,隨機(jī)選取50個(gè)負(fù)樣本,粗跟蹤階段的搜索半徑為25,搜索步長(zhǎng)為4,細(xì)跟蹤階段的搜索半徑為10,搜索步長(zhǎng)為1,壓縮低維特征的個(gè)數(shù)m=100,學(xué)習(xí)速率λ=0.85。
表2 跟蹤成功率 %
表3 平均中心位置誤差 像素
圖3 david序列跟蹤結(jié)果
圖4 dudek序列跟蹤結(jié)果
圖5 faceocc1序列跟蹤結(jié)果
圖6 skating1序列跟蹤結(jié)果
圖7 david序列跟蹤誤差曲線圖
圖8 dudek序列跟蹤誤差曲線圖
圖9 faceocc1序列跟蹤誤差曲線圖
圖10 skating1序列跟蹤誤差曲線圖
表4給出了三種算法每幀的平均時(shí)耗對(duì)比。本文的改進(jìn)算法在生成目標(biāo)高維特征描述及度量目標(biāo)與候選樣本之間相似性時(shí)增加了較少的計(jì)算量,使得改進(jìn)的算法在時(shí)間上增加的開銷很小。由表4的時(shí)耗對(duì)比可得,三種算法均能達(dá)到實(shí)時(shí)的要求。
表4 平均時(shí)間 s/幀
對(duì)于david視頻序列,最主要的難題就是光照變化,同時(shí)還有形變及尺度變化等問題。對(duì)于CT算法,當(dāng)目標(biāo)的光照變化和紋理變化不大的情況下跟蹤較為準(zhǔn)確,但視頻序列在第130幀左右時(shí)目標(biāo)姿態(tài)發(fā)生變化,CT的跟蹤結(jié)果開始偏移。在第336幀左右時(shí)發(fā)生光照變化,此時(shí)跟蹤結(jié)果偏移加劇,甚至在549~654幀發(fā)生漂移。之后,當(dāng)目標(biāo)再次進(jìn)入跟蹤框以后又跟蹤到目標(biāo)(如圖3所示)。FCT算法在第336幀附近視頻序列發(fā)生光照變化時(shí),跟蹤也不是很穩(wěn)定(如圖3所示)。本文針對(duì)這一問題,進(jìn)行了改進(jìn)。在文中提出的算法中,通過(guò)獲取高效的高維特征描述,從而得到更加有效的低維壓縮特征用于分類。同時(shí)采用改進(jìn)的相似性度量方法,當(dāng)視頻序列中發(fā)生光照變化時(shí),仍可以獲得準(zhǔn)確的跟蹤結(jié)果(如圖3所示)。
對(duì)于遮擋問題,dudek視頻序列和faceocc1視頻序列都體現(xiàn)了這一難題。dudek視頻序列在第103幀左右時(shí)發(fā)生遮擋,由跟蹤結(jié)果可以看到CT和FCT算法均發(fā)生偏移(如圖4所示)。對(duì)于本文的算法,由跟蹤結(jié)果(如圖4所示)可以看到改進(jìn)的算法對(duì)于遮擋現(xiàn)象具有更強(qiáng)的魯棒性。faceocc1視頻序列最主要的挑戰(zhàn)就是遮擋。在視頻序列中,當(dāng)目標(biāo)發(fā)生遮擋時(shí),由跟蹤結(jié)果易觀察到CT和FCT算法的跟蹤均不穩(wěn)定,而改進(jìn)的算法跟蹤結(jié)果仍很準(zhǔn)確(如圖5所示)。同時(shí),dudek視頻序列挑戰(zhàn)了形變和移動(dòng)等問題。在第176幀和第286幀左右時(shí)目標(biāo)發(fā)生了形變和移動(dòng),我們可以看到CT和FCT算法的跟蹤結(jié)果在后續(xù)視頻幀中均發(fā)生了大的偏移,本文算法則有效地抑制了這一現(xiàn)象,確保了跟蹤的準(zhǔn)確性(如圖4所示)。
對(duì)于skating1視頻序列挑戰(zhàn)的難題有復(fù)雜背景和光照等。對(duì)于CT算法,在第75幀左右時(shí)目標(biāo)背景和光照發(fā)生變化,其跟蹤結(jié)果有所偏移。同時(shí),視頻序列從第282幀開始背景和目標(biāo)差別不太明顯,此時(shí)CT算法跟蹤結(jié)果出現(xiàn)誤差,并發(fā)生漂移(如圖6所示)。對(duì)于FCT算法和文中的改進(jìn)算法,在305幀之前的視頻序列中均實(shí)現(xiàn)了跟蹤目標(biāo)的魯棒性(如圖6所示),但是對(duì)于跟蹤目標(biāo)的精確性,本文的算法效果更好。在305幀以后的視頻序列中,由于目標(biāo)和背景較為相似,在跟蹤結(jié)果中開始出現(xiàn)誤差,并發(fā)生漂移。因此,對(duì)于復(fù)雜背景下目標(biāo)和背景差別不大的情況,本文算法仍具有一定的局限性,沒有達(dá)到很好的效果。
綜上,相對(duì)于CT算法和FCT算法,本文提出的改進(jìn)算法獲得了良好的跟蹤結(jié)果。隨著濾波器尺寸的增大,通過(guò)濾波獲取的圖像的有效特征越少,這對(duì)于跟蹤過(guò)程很不利,極易在目標(biāo)受到遮擋、光照等因素影響時(shí)引入誤差。因此,本文在生成目標(biāo)高維特征時(shí),采用自適應(yīng)的權(quán)值分配機(jī)制,考慮不同尺度濾波器生成特征的有效性,獲取高效的特征描述。同時(shí),算法在度量目標(biāo)與候選樣本之間相似性時(shí),不僅考慮疊加和,還計(jì)算各維壓縮特征被分類為目標(biāo)壓縮特征的可能性,由兩者共同決定跟蹤結(jié)果。通過(guò)以上實(shí)驗(yàn)證明,提出的改進(jìn)算法在目標(biāo)受到遮擋、光照、形變等因素的影響時(shí),仍能獲得準(zhǔn)確、穩(wěn)定的跟蹤結(jié)果,相比較另兩種算法具有明顯的優(yōu)勢(shì)。
本文針對(duì)文獻(xiàn)[12]中FCT算法中存在的問題,提出了特征加權(quán)的快速壓縮感知跟蹤算法。算法通過(guò)一定的權(quán)值分配機(jī)制,將不同尺度濾波器卷積獲得的特征賦予不同的權(quán)值,從而獲取高效的高維特征描述。同時(shí)算法在原分類器簡(jiǎn)單疊加的基礎(chǔ)上,統(tǒng)計(jì)每個(gè)弱分類器分類結(jié)果為正樣本的個(gè)數(shù),由兩者共同決定跟蹤結(jié)果,有效提高了目標(biāo)跟蹤的準(zhǔn)確性。對(duì)不同視頻序列的跟蹤結(jié)果表明,文中提出的改進(jìn)算法在目標(biāo)發(fā)生遮擋以及光照等變化時(shí)能夠獲得更準(zhǔn)確的跟蹤結(jié)果。但是當(dāng)跟蹤目標(biāo)和背景較為相似時(shí),文中算法仍具有一定的局限性,同時(shí)本文沒有提出針對(duì)尺度變化的解決方案,如何有效地解決這些問題,是本文后續(xù)的研究重點(diǎn)。
[1] 高文,朱明,賀柏根,等.目標(biāo)跟蹤技術(shù)綜述[J].中國(guó)光學(xué),2014,7(3):365-375.
[2] Kalal Z,Mikolajczyk K,Matas J.Tracking-learning-detection[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2012,34(7):1409-1422.
[3] Zhang K,Zhang L,Liu Q,et al.Fast visual tracking via dense spatio-temporal context learning[C]//13th European Conference on Computer Vision.Springer International Publishing,2014:127-141.
[4] Henriques J F,Caserio R,Martins P,et al.Exploiting the circulant structure of tracking-by-detection with kernels[C]//12th European Conference on Computer Vision,2012:702-715.
[5] Wang D,Lu H,Yang M H.Least soft-thresold squares tracking[C]//2013 IEEE Conference on Computer Vision and Pattern Recognition,2013:2371-2378.
[6] 袁雪,宋永端.目標(biāo)跟蹤算法在光照突變條件下的應(yīng)用[J].應(yīng)用科學(xué)學(xué)報(bào),2011,29(6):592-597.
[7] 許曉航,肖剛,云霄,等.復(fù)雜背景及遮擋條件下的運(yùn)動(dòng)目標(biāo)跟蹤[J].光電工程,2013,40(1):23-30.
[8] 張彥超,許宏麗.遮擋目標(biāo)的分片跟蹤處理[J].中國(guó)圖象圖形學(xué)報(bào),2014,19(1):92-100.
[9] 尹宏鵬,劉兆棟,柴毅,等.壓縮感知綜述[J].控制與決策,2013,28(10):1441-1445,1453.
[10] 任越美,張艷寧,李映.壓縮感知及其圖像處理應(yīng)用研究進(jìn)展與展望[J].自動(dòng)化學(xué)報(bào),2014,40(8):1563-1575.
[11] Li H,Shen C,Shi Q.Real-time visual tracking using compressive sensing[C]//2011 IEEE Conference on Computer Vision and Pattern Recognition,2011:1305-1312.
[12] Zhang K,Zhang L,Yang M H.Fast compressive tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(10):2002-2015.
[13] Achlioptas D.Database-friendly random projections:Johnson-Lindenstrauss with binary coins[J].Journal of Computer and System Sciences,2003,66(4):671-687.
[14] Baraniuk R,Davenport M,DeVore R,et al.A simple proof of the restricted isometry property for random matrices[J].Constructive Approximation,2008,28(3):253-263.
[15] Diaconis P,Freedman D.Asymptotics of graphical projection pursuit[J].The Annals of Statistics,1984,12(3):793-815.
[16] Zhang K,Zhang L,Yang M H.Real-time compressive tracking[C]//Proceedings of the 12th European Conference on Computer Vision.Springer,2012:864-877.
FAST COMPRESSIVE SENSING TRACKING BASED ON FEATURE WEIGHTING
Zhao Duan Xie Qi
(SchoolofInformationEngineering,ZhengzhouUniversity,Zhengzhou450001,Henan,China)
The target tracking algorithm based on compressive sensing is simple, real-time and efficient. Fast compressive tracking algorithm (FCT) generates high dimensional features of the target without considering the effectiveness of different scale filter generation features, and the similarity measure between target and candidate sample only considers simple superposition. It is easy to make the tracking result deviate under the influence of external factors such as illumination and occlusion. Aiming at these problems, a fast compressive sensing tracking algorithm based on feature weighting is proposed. The algorithm adaptively assigns weights according to the filter scale, and generates high dimensional features of the target. The likelihood of the algorithm to classify each dimension compression feature of the candidate sample as the target compression feature is multiplied by the Bayesian classifier output, which is used as a measure of similarity between the target and the candidate sample. The experimental results show that the proposed method is more robust to the influence of external factors such as illumination and occlusion.
Object tracking Compressive sensing Real time Feature weighting
2016-05-10。趙端,碩士生,主研領(lǐng)域:目標(biāo)跟蹤。謝琦,教授。
TP3
A
10.3969/j.issn.1000-386x.2017.06.036