薛模根,朱 虹,袁廣林
(1.陸軍軍官學(xué)院偏振光成像探測(cè)技術(shù)安徽省重點(diǎn)實(shí)驗(yàn)室,安徽合肥230031;2.陸軍軍官學(xué)院十一系,安徽合肥230031)
在線魯棒判別式字典學(xué)習(xí)視覺跟蹤
薛模根1,朱 虹1,袁廣林2
(1.陸軍軍官學(xué)院偏振光成像探測(cè)技術(shù)安徽省重點(diǎn)實(shí)驗(yàn)室,安徽合肥230031;2.陸軍軍官學(xué)院十一系,安徽合肥230031)
傳統(tǒng)子空間跟蹤較好解決了目標(biāo)表觀變化和遮擋問題,但其仍存在對(duì)復(fù)雜背景下目標(biāo)跟蹤魯棒性不足和模型漂移等問題.針對(duì)這兩個(gè)問題,本文首先通過(guò)增大背景樣本的重構(gòu)誤差和利用L1范數(shù)損失函數(shù)建立一種在線魯棒判別式字典學(xué)習(xí)模型;其次,利用塊坐標(biāo)下降設(shè)計(jì)了該模型的在線學(xué)習(xí)算法用于視覺跟蹤模板更新;最后,以粒子濾波為框架,結(jié)合提出的模板更新方法實(shí)現(xiàn)了魯棒的視覺跟蹤.實(shí)驗(yàn)結(jié)果表明:與IVT(Incremental Visual Tracking)、L1APG(L1-tracker using Accelerated Proximal Gradient)、ONNDL(Online Non-Negative Dictionary Learning)和PCOM (Probability Continuous Outlier Model)等典型跟蹤方法相比,本文方法具有較強(qiáng)的魯棒性和較高的跟蹤精度.
視覺跟蹤;模板更新;字典學(xué)習(xí);粒子濾波
視覺跟蹤是通過(guò)視頻圖像序列不斷估計(jì)目標(biāo)狀態(tài)的過(guò)程,它在智能監(jiān)控、人機(jī)交互、機(jī)器人導(dǎo)航和運(yùn)動(dòng)分析等方面都具有重要的應(yīng)用價(jià)值.目前,視覺跟蹤面臨著目標(biāo)表觀變化、目標(biāo)遮擋和復(fù)雜背景等難題,其仍是計(jì)算機(jī)視覺領(lǐng)域研究的熱點(diǎn).為解決這些難題,已經(jīng)提出了一些方法[1],其中,基于子空間的跟蹤方法較好解決了目標(biāo)表觀變化和目標(biāo)遮擋問題,特別是L1跟蹤的提出使子空間跟蹤再次受到了廣泛關(guān)注.
受到主成分分析(Principal Component Analysis,PCA)在人臉識(shí)別中應(yīng)用的啟發(fā),1996年,Black等人[2]首次將基于PCA的子空間模型應(yīng)用到視覺跟蹤中.該方法以子空間常量為假設(shè),不能適應(yīng)目標(biāo)表觀的變化.為了適應(yīng)目標(biāo)的變化,子空間更新變得尤為重要,因此Ross等人[3]提出一種基于增量子空間學(xué)習(xí)(Incremental Subspace Learning,ISL)的視覺跟蹤.該方法利用ISL更新子空間,適應(yīng)了目標(biāo)表觀的緩慢變化,但是易于發(fā)生模型漂移,對(duì)目標(biāo)遮擋的魯棒性較差.近幾年,受到稀疏表示在人臉識(shí)別中應(yīng)用的啟發(fā),一些學(xué)者提出了基于稀疏表示的子空間跟蹤[4~7],又稱為“L1跟蹤”.L1跟蹤較好地解決了目標(biāo)遮擋問題,但它對(duì)模板的依賴性更強(qiáng),一旦模板中引入錯(cuò)誤信息容易導(dǎo)致跟蹤失敗,這就對(duì)模板更新提出了更高的要求.文獻(xiàn)[4,5]首先檢測(cè)目標(biāo)是否受到遮擋,并利用未遮擋的跟蹤結(jié)果直接替換模板,一定程度上緩解了模型漂移.文獻(xiàn)[6]提出一種基于在線字典學(xué)習(xí)的目標(biāo)跟蹤方法,利用字典學(xué)習(xí)在線更新模板,增強(qiáng)了對(duì)目標(biāo)變化的適應(yīng)性和魯棒性.文獻(xiàn)[7]將在線魯棒字典學(xué)習(xí)和非負(fù)矩陣分解相結(jié)合用于模板更新,有效抑制了模型漂移.在L1跟蹤的啟發(fā)下,Wang等人[8]在文獻(xiàn)[3]基礎(chǔ)上利用PCOM描述連續(xù)離群點(diǎn)用于遮擋檢測(cè),進(jìn)一步提高了對(duì)遮擋目標(biāo)跟蹤的魯棒性.
由上述分析可以發(fā)現(xiàn),現(xiàn)有子空間跟蹤較好解決了目標(biāo)表觀變化和目標(biāo)遮擋問題,但仍存在一些不足:對(duì)于復(fù)雜背景下的目標(biāo)跟蹤,由于產(chǎn)生式模型中缺少判別信息,模板很難對(duì)相似的目標(biāo)和背景進(jìn)行準(zhǔn)確判別,從而導(dǎo)致跟蹤失敗.針對(duì)此問題,本文首先提出一種在線魯棒判別式字典學(xué)習(xí)模型,該模型引入背景信息并增大模板對(duì)背景樣本的重構(gòu)誤差,提高了模板的判別能力;同時(shí),為了克服模型漂移,采用L1范數(shù)作為損失函數(shù),降低了離群數(shù)據(jù)(如錯(cuò)誤信息或遮擋信息)對(duì)模板的影響.然后,求解該模型提出了在線魯棒判別式字典學(xué)習(xí)算法用于視覺跟蹤模板更新.
由文獻(xiàn)[6,7]可知,視覺跟蹤模板更新可以看作是在線的字典學(xué)習(xí)問題.與一般在線字典學(xué)習(xí)不同,本文結(jié)合視覺跟蹤中對(duì)模板的判別性和魯棒性要求,提出了在線魯棒判別式字典學(xué)習(xí)模型,并設(shè)計(jì)了其求解算法用于視覺跟蹤模板更新.
2.1在線魯棒判別式字典學(xué)習(xí)模型
為了使模板包含判別式信息同時(shí)抑制模型漂移,本文提出如式(1)所示的在線魯棒判別式字典學(xué)習(xí)模型:
其中,訓(xùn)練樣本集{A1,…,An}由n個(gè)樣本子集組成,每個(gè)樣本子集Ai(i=1,…,n)包含目標(biāo)樣本和背景樣本共N個(gè)訓(xùn)練樣本;D為目標(biāo)模板字典分別為在D上的編碼系數(shù),i=1,…,n;d為D上任意原子;λ1,λ2為調(diào)節(jié)常數(shù).
本文提出的在線魯棒判別式字典學(xué)習(xí)模型式(1)包含損失函數(shù)和正則化項(xiàng)兩個(gè)部分.在字典學(xué)習(xí)中,普遍采用的損失函數(shù)有L1損失函數(shù)和L2損失函數(shù).與L2損失函數(shù)相比,L1損失函數(shù)具有對(duì)離群數(shù)據(jù)魯棒的優(yōu)點(diǎn),即利用L1損失函數(shù)學(xué)到的字典原子受離群數(shù)據(jù)的影響較小.這一結(jié)論已在人臉識(shí)別[9]和背景估計(jì)[10]等計(jì)算機(jī)視覺中得到證實(shí).其原因在于,離群數(shù)據(jù)的重構(gòu)誤差滿足拉普拉斯分布,這正好與L1損失相符[11].因此,為了降低離群數(shù)據(jù)對(duì)目標(biāo)模板的影響,從而抑制模型漂移,模型式(1)采用L1范數(shù)作為損失函數(shù).為了適應(yīng)目標(biāo)的變化,模板字典D對(duì)目標(biāo)樣本應(yīng)具有較好地重構(gòu)能力,目標(biāo)樣本的重構(gòu)誤差越小越好,即為了增強(qiáng)模板字典D對(duì)目標(biāo)和背景的判別能力,背景樣本的重構(gòu)誤差越大越好,即.綜合以上三個(gè)方面,損失函數(shù)應(yīng)為,其中 λ1用于平衡兩個(gè)重構(gòu)誤差.為正則化項(xiàng),使目標(biāo)函數(shù)的解更穩(wěn)定.
2.2在線魯棒判別式字典學(xué)習(xí)算法
為了適應(yīng)目標(biāo)表觀的變化,在視覺跟蹤中需要利用跟蹤結(jié)果更新目標(biāo)模板.顯而易見在線字典學(xué)習(xí)的學(xué)習(xí)方式比較符合視覺跟蹤的要求.啟發(fā)于文獻(xiàn)[12],求解如式(1)所示模型的在線魯棒判別式字典學(xué)習(xí)算法分為三個(gè)階段:采集在線數(shù)據(jù)、求解編碼系數(shù)和在線字典更新.假設(shè)每隔h幀圖像序列進(jìn)行一次模板更新,t時(shí)刻第T次更新時(shí),n=T,采集在線數(shù)據(jù)階段,取t-h +1,…,t時(shí)刻的跟蹤結(jié)果作為目標(biāo)樣本取以t時(shí)刻跟蹤結(jié)果中心位置l為圓心的環(huán)形區(qū)域內(nèi)隨機(jī)值作為背景樣本求解編碼系數(shù)階段,已知t-h時(shí)刻模板字典Dt-h以及訓(xùn)練樣本采用迭代重加權(quán)最小平方法(Iterative Reweighted Least Squares,IRLS)[13]分別求解式(2)、式(3)得到
其中,d為D的第j行向量(j=1,…,k),(A+)ji,(A-)ji分別為A+,A-的第j行第i列元素,(X+)i,(X-)i分別為X+,X-的第i列向量,N+,N-分別為目標(biāo)樣本數(shù)和背景樣本數(shù).求解式(6)可以通過(guò)式(7)、式(8)不斷迭代逼近其解直至收斂:
其中,δ+,δ-為很小的正數(shù).顯然,每次迭代求解式(7)即是最優(yōu)化一個(gè)二次函數(shù),易于解決.通過(guò)上述研究分析,本文提出的基于在線魯棒判別式字典學(xué)習(xí)的模板更新方法總結(jié)如算法1所示.
算法1
模板更新方法
1:輸入:t-h時(shí)刻,n=T-1:模板字典Dt-h,數(shù)據(jù)記錄
1,…,k
2:t時(shí)刻,n=T:
3:采集在線數(shù)據(jù):目標(biāo)樣本A+T和背景樣本AT
4:求解編碼系數(shù):采用 IRLS分別求解式(2)、式(3)得到X+T、X-T
5:在線字典更新:
7: 重復(fù)
8: for j=1 to k do
9:
11: 計(jì)算權(quán)值:
12: end for
13:歸一化處理
14:直到收斂
本文跟蹤方法是以粒子濾波為框架結(jié)合提出的模板更新方法而建立的.利用粒子濾波跟蹤目標(biāo),包括預(yù)測(cè)和更新兩個(gè)步驟.已知1到t-1時(shí)刻所有可用圖像觀測(cè)y1:t-1=(y1,…,yt-1),則預(yù)測(cè)過(guò)程為:
其中,xt,xt-1分別為t和t-1時(shí)刻的目標(biāo)狀態(tài),p(xt| xt-1)為狀態(tài)轉(zhuǎn)移模型.本文采用高斯分布建立狀態(tài)轉(zhuǎn)移模型,如式(10)所示:
其中,xt=(xt,yt,wt,ht,θt),xt,yt,wt,ht,θt分別表示 t時(shí)刻目標(biāo)區(qū)域中心點(diǎn)位置坐標(biāo)、目標(biāo)寬度、高度及傾斜角.Ψ為對(duì)角矩陣,其對(duì)角元素表示相應(yīng)狀態(tài)的方差.t時(shí)刻,當(dāng)圖像觀測(cè)yt可用時(shí),則進(jìn)行更新過(guò)程:
其中,p(yt|xt)為觀測(cè)似然模型.建立觀測(cè)似然模型分為兩個(gè)步驟,首先,對(duì)于任意粒子的圖像觀測(cè)yit,求解其L1正則化編碼系數(shù),模型如式(12)所示:
其中,Bt=[Dt,I],Dt為t時(shí)刻目標(biāo)模板,I是一個(gè)單位陣,稱為小模板;相應(yīng)地為圖像觀測(cè)在目標(biāo)模板Dt上的稀疏編碼系數(shù)為圖像觀測(cè)在小模板I上的稀疏編碼系數(shù),稱為小模板系數(shù);λ為正則化系數(shù).然后,已知編碼系數(shù)定義如式(13)所示觀測(cè)似然模型:
其中,Γ為歸一化常量,α為高斯核尺度參數(shù).需要特別說(shuō)明的是,本文是在L1跟蹤基礎(chǔ)上的研究工作,L1跟蹤最大的優(yōu)勢(shì)是在目標(biāo)遮擋下能夠魯棒跟蹤,其原因在于目標(biāo)遮擋使觀測(cè)噪聲符合拉普拉斯分布.據(jù)此,L1跟蹤利用小模板I表示噪聲以捕捉遮擋,如式(12)模型所示.綜上所述,已知所有圖像觀測(cè)y1:t,利用最大后驗(yàn)概率準(zhǔn)則估計(jì)跟蹤目標(biāo)的最優(yōu)狀態(tài):
算法2
目標(biāo)跟蹤方法
1:初始化:t=1時(shí)刻,手工標(biāo)定目標(biāo)x1,初始目標(biāo)模板D1,初始粒子權(quán)值1/N′,h=1
2:for t=2 to T do
8: 粒子重采樣
9: h=h+1
10:如果h達(dá)到規(guī)定閾值,則利用算法1更新目標(biāo)模板,并且重置h=0
本文提出的跟蹤方法是以Matlab R2010a為開發(fā)工具實(shí)現(xiàn)的,并在Intel(R)Core(TM)3.19GHz 4CPUs,3.47GB內(nèi)存的臺(tái)式電腦上調(diào)試通過(guò).采用Faceocc1、David3、Walking2、Singer1、Dog1、Suv、Cardark等序列[15]對(duì)提出的跟蹤方法進(jìn)行了實(shí)驗(yàn)驗(yàn)證,并與IVT[3]、L1APG[5]、ONNDL[7]、PCOM[8]等4種跟蹤方法進(jìn)行了比較.為了保證比較的合理性和公平性,實(shí)驗(yàn)中,5種跟蹤方法的粒子數(shù)均為600,模板(特征基)的大小均為32 ×32、個(gè)數(shù)均為16,狀態(tài)轉(zhuǎn)移模型參數(shù)均為(4,4,0.01,0.01,0.002).關(guān)于本文跟蹤方法的參數(shù)設(shè)置說(shuō)明如下:在線魯棒判別式字典學(xué)習(xí)算法中,參數(shù)λ1用于平衡目標(biāo)和背景重構(gòu)誤差,參數(shù)λ2為正則化系數(shù),用于平衡損失函數(shù)與正則化項(xiàng),為了保證目標(biāo)表示的精準(zhǔn)度,本文設(shè)置λ1,λ2為較小的正數(shù),通過(guò)選取0~1之間的正數(shù)進(jìn)行實(shí)驗(yàn)發(fā)現(xiàn)當(dāng)λ1=0.25,λ2=0.01時(shí)跟蹤性能最好;模板更新步長(zhǎng)h取決于目標(biāo)表觀變化頻率,本文設(shè)置h =5,即每隔5幀圖像序列進(jìn)行一次模板更新;采集在線數(shù)據(jù)時(shí),取前5幀跟蹤結(jié)果為目標(biāo)樣本(N+=5),取當(dāng)前幀環(huán)形區(qū)域內(nèi)隨機(jī)值為背景樣本(N-=200);參數(shù) γ 和δ為環(huán)形區(qū)域的兩個(gè)半徑,其值的選取應(yīng)使背景樣本包含大量背景信息和少量目標(biāo)信息,本文采用與文獻(xiàn)[16]相同的方法設(shè)置參數(shù)γ和δ,即γ=max(W/2,H/ 2),δ=2γ,其中W和H分別為目標(biāo)的寬和高.
4.1定性分析
圖1給出了IVT、L1APG、ONNDL、PCOM及本文跟蹤方法對(duì)7組圖像序列的跟蹤結(jié)果和定性比較. Faceocc1、David3、Walking2和Suv序列存在大面積目標(biāo)遮擋,由圖1(a)~(c)、1(f)可知,本文跟蹤方法成功抑制了模型漂移,明顯優(yōu)于其他跟蹤方法.David3、Singer1 和Dog1序列存在大量目標(biāo)表觀變化,由圖1(b)、1(d)、1(e)可知,本文跟蹤方法優(yōu)于其他4種方法,適應(yīng)性良好.Dog1、Suv和Cardark序列受到復(fù)雜或低對(duì)比度背景干擾,由圖1(e)~(g)可知,本文跟蹤方法的跟蹤結(jié)果最優(yōu),具有強(qiáng)判別力.
4.2定量分析
借鑒于文獻(xiàn)[15],本文采用成功率和精度兩個(gè)指標(biāo)進(jìn)行定量實(shí)驗(yàn)分析.給定一幀圖像,已知某種跟蹤方法的跟蹤窗區(qū)域rt和實(shí)際跟蹤窗區(qū)域 ra,定義重疊率為S=|rt∩ra|/|rt∪ra|,其中,|·|表示區(qū)域內(nèi)像素個(gè)數(shù);定義中心位置誤差為rt與ra中心點(diǎn)之間的歐式距離(像素個(gè)數(shù)).據(jù)此,關(guān)于兩個(gè)實(shí)驗(yàn)指標(biāo)的定義及參數(shù)設(shè)置說(shuō)明如下:成功率為重疊率大于給定重疊閾值的圖像幀數(shù)比率,實(shí)驗(yàn)中設(shè)定重疊閾值為0到1.精度為中心位置誤差小于給定中心位置誤差閾值的圖像幀數(shù)比率,實(shí)驗(yàn)中設(shè)定中心位置誤差閾值為0到50個(gè)像素. 圖2給出了5種跟蹤方法對(duì)7組圖像序列的成功率和精度曲線比較.由圖2可知,本文方法在跟蹤成功率和精度上均優(yōu)于其他方法.
4.3計(jì)算時(shí)間分析
實(shí)驗(yàn)中作比較的5種跟蹤方法(IVT、L1APG、ONNDL、PCOM及本文方法)均是以粒子濾波為框架的子空間跟蹤.假設(shè)U∈Rk×q為IVT和PCOM的特征基,D ∈Rk×q為L(zhǎng)1APG、ONNDL和本文方法的模板,N′為粒子數(shù).在相同軟硬件環(huán)境下,k=32×32,q=16,N′=600時(shí),5種跟蹤方法進(jìn)行一幀跟蹤的平均計(jì)算時(shí)間如表1所示.可以看出,本文跟蹤方法的速度比IVT、PCOM慢,但比L1APG、ONNDL快.
表15 種方法的計(jì)算時(shí)間比較
4.4魯棒性分析
對(duì)比L1APG、ONNDL與本文方法相似的跟蹤方法,由上述實(shí)驗(yàn)可知,本文方法具有較強(qiáng)的魯棒性與較高的跟蹤精度,其根本原因在于本文跟蹤方法與它們使用的模板更新方法不同.本文提出了一種在線魯棒判別式字典學(xué)習(xí)算法進(jìn)行模板更新.一方面,該算法增強(qiáng)模板對(duì)目標(biāo)和背景的辨識(shí)度,實(shí)現(xiàn)了判別式字典學(xué)習(xí),提高了跟蹤精度;另一方面,采用L1范數(shù)損失函數(shù)和在線學(xué)習(xí)方法,在適應(yīng)目標(biāo)變化的同時(shí)克服了模型漂移,進(jìn)一步提高了跟蹤魯棒性.圖3分別給出了Faceocc1序列中L1APG、ONNDL和本文方法在第350幀時(shí)模板更新結(jié)果.可以看出,本文模板不僅自適應(yīng)目標(biāo)變化,還成功排除了遮擋信息,完好保留了目標(biāo)信息.
4.5討論
上述實(shí)驗(yàn)表明,本文跟蹤方法具有較強(qiáng)的魯棒性和較高的跟蹤精度,但它還存在兩個(gè)問題.第一,與現(xiàn)有基于字典學(xué)習(xí)的跟蹤方法[6,7]相同,利用在線字典學(xué)習(xí)得到的目標(biāo)模板字典不完整和不準(zhǔn)確,尤其是在目標(biāo)表觀突然變化時(shí),比如快速out-plane旋轉(zhuǎn)和突然的光照變化等情況,會(huì)導(dǎo)致跟蹤失敗.圖4(a)給出了本文方法存在跟蹤失敗的情況.Girl序列的跟蹤目標(biāo)為人頭,它存在快速的out-plane旋轉(zhuǎn),發(fā)生了跟蹤失敗.第二,本文跟蹤方法是利用粒子濾波實(shí)現(xiàn)的.眾所周知,粒子濾波較好解決了目標(biāo)的非線性運(yùn)動(dòng)問題,但是在目標(biāo)快速運(yùn)動(dòng)時(shí),基于粒子濾波的跟蹤方法需要大規(guī)模的粒子才能穩(wěn)定跟蹤目標(biāo),這會(huì)顯著降低目標(biāo)跟蹤的速度.圖4(b)給出了當(dāng)目標(biāo)快速運(yùn)動(dòng)時(shí),本文方法的跟蹤結(jié)果.雖然能夠穩(wěn)定跟蹤目標(biāo),但是其跟蹤速度較慢,平均每幀的跟蹤時(shí)間為0.556s.上述兩個(gè)方面是進(jìn)一步研究要解決的問題.
針對(duì)現(xiàn)有子空間跟蹤對(duì)復(fù)雜背景下目標(biāo)跟蹤判別力不強(qiáng)和模型漂移的問題,本文首先提出了一種在線魯棒判別式字典學(xué)習(xí)模型.一方面,該模型通過(guò)增大模板重構(gòu)背景樣本的誤差提高了模板對(duì)目標(biāo)和背景的判別能力;另一方面,使用L1范數(shù)作為損失函數(shù)降低了模板對(duì)離群數(shù)據(jù)的敏感度.然后,求解該模型設(shè)計(jì)了在線學(xué)習(xí)算法用于視覺跟蹤模板更新.在上述兩個(gè)方面的基礎(chǔ)上,以粒子濾波為框架完成了在線魯棒判別式字典學(xué)習(xí)視覺跟蹤.利用多個(gè)具有挑戰(zhàn)性的圖像序列對(duì)提出的跟蹤方法進(jìn)行了實(shí)驗(yàn)驗(yàn)證并與現(xiàn)有跟蹤方法進(jìn)行了比較,實(shí)驗(yàn)結(jié)果表明:與現(xiàn)有跟蹤方法相比,本文方法更能魯棒跟蹤目標(biāo).
[1]Li Xi,Hu Wei-ming,Shen Chun-hua,et al.A survey of appearance models in visual object tracking[J].ACM Transactions on Intelligent Systems and Technology,2013,4 (4):58(1)-58(48).
[2]Black M J,Jepson A D.Eigentracking:Robust matching and tracking of articulated objects using a view-based representation[A].European Conference on Computer Vision [C].London:Springer-Verlag Berlin,1996.329-342.
[3]Ross D,Lim J,Lin R S,et al.Incremental learning for robust visual tracking[J].International Journal of Computer Vision,2008,77(1-3):125-141.
[4]Mei Xue,Ling Hai-bin,Wu Yi,et al.Minimum error bounded efficient L1 tracker with occlusion detection[A]. IEEE Conference on Computer Vision and Pattern Recognition[C].Colorado:Springer-Verlag Berlin,2011.1257 -1264.
[5]Bao Cheng-long,Wu Yi,Ling Hai-bin,et al.Real time robust L1 tracker using accelerated proximal gradient approach[A].IEEE Conference on Computer Vision and Pattern Recognition[C].Providence:IEEE Computer Society Press,2012.1830-1837.
[6]Xing Jun-liang,Gao Jin,Li Bing,et al.Robust object tracking with online multi-lifespan dictionary learning[A]. IEEE International Conference on Computer Vision[C]. Sydney:IEEE Computer Society Press,2013.665-672.
[7]Wang Nai-yan,Wang Jing-dong,Yeung D.Online robust non-negative dictionary learning for visual tracking[A]. IEEE International Conference on Computer Vision[C]. Sydney:IEEE Computer Society Press,2013.657-664.
[8]Wang Dong,Lu Hu-chuan.Visual tracking via probability continuous outlier model[A].IEEE Conference on Computer Vision and Pattern Recognition[C].Columbus:IEEE Computer Society Press,2014.3478-3485.
[9]Wagner A,Wright J,Ganesh A,et al.Towards a practical face recognition system:Robust alignment and illumination by sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(2):372 -386.
[10]Lu Ce-wu,Shi Jian-ping,Jia Jia-ya.Online robust dictionary learning[A].IEEE Conference on Computer Vision and Pattern Recognition[C].Portland:IEEE Computer Society Press,2013.415-422.
[11]Nojun K.Principal component analysis based on L1-norm maximization[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2008,30(9):1672-1680.
[12]Mairal J,Bach F,Ponce J,et al.Online dictionary learning for sparse coding[A].The 26th International Conference on Machine Learning[C].Montreal:IEEE Computer Society Press,2009.539-547.
[13]Bissantz N,Dmbgen L,Munk A,et al.Convergence analysis of generalized iteratively reweighted least squares algorithms on convex function spaces[J].SIAM Journal on Optimization,2009,19:1828-1845.
[14]Richtarik P,Takac M.Iteration complexity of randomized block-coordinate decent methods for minimizing a composite function[J].Mathematical Programming,2014,144 (1-2):1-38.
[15]Wu Yi,Lim J,Yang M.Online object tracking:a benchmark[A].IEEE Conference on Computer Vision and Pattern Recognition[C].Portland:IEEE Computer Society Press,2013.2411-2418.
[16]Babenko B,Yang M H,Belongie S.Robust object tracking with online multiple instance learning[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(8):1619-1632.
薛模根 男,1964年10月出生于安徽合肥.博士,教授,合肥工業(yè)大學(xué)博士生導(dǎo)師.主要研究方向?yàn)閳D像處理、計(jì)算機(jī)視覺、光電防御等.
E-mail:xuemogen@126.com
朱 虹 女,1987年10月出生于新疆烏魯木齊.現(xiàn)為陸軍軍官學(xué)院碩士研究生.主要研究方向?yàn)閳D像處理、計(jì)算機(jī)視覺等.
E-mail:729039126@qq.com
Online Robust Discrimination Dictionary Learning for Visual Tracking
XUE Mo-gen1,ZHU Hong1,YUAN Guang-lin2
(1.Anhui Province Key Laboratory of Polarization Imaging Detection Technology,Army Officer Academy of PLA,Hefei,Anhui 230031,China;(2.Eleventh Department,Army Officer Academy of PLA,Hefei,Anhui 230031,China)
The traditional subspaces based visual trackers well solved appearance changes and occlusions.However,they were weakly robust for complex background and prone to model drifting.To deal with these two problems,this paper enlarges reconstruction errors of the background samples and uses L1-norm loss function to establish an online robust discrimination dictionary learning model.Then an online robust discrimination dictionary learning algorithm for template updating in visual tracking is designed via the block coordinate descent(BCD).Finally,robust visual tracking is achieved with the proposed template updating method in particle filter framework.The experimental results show that the proposed method has better performance in robustness and accuracy than the state-of-the-art trackers such as IVT(Incremental Visual Tracking),L1APG(L1-tracker using Accelerated Proximal Gradient),ONNDL(Online Non-Negative Dictionary Learning)and PCOM(Probability Continuous Outlier Model).
visual tracking;template updating;dictionary learning;particle filter
TP391.4
A
0372-2112(2016)04-0838-08
電子學(xué)報(bào)URL:http://www.ejournal.org.cn 10.3969/j.issn.0372-2112.2016.04.012
2014-09-16;
2015-01-20;責(zé)任編輯:覃懷銀
國(guó)家自然科學(xué)基金(No.61175035,No.61379105);中國(guó)博士后科學(xué)基金(No.2014M562535);安徽省自然科學(xué)基金(No. 1508085QF114)