蔡自興 彭 夢(mèng) 余伶俐
?
基于時(shí)序特性的自適應(yīng)增量主成分分析的視覺跟蹤
蔡自興 彭 夢(mèng)*余伶俐
(中南大學(xué)信息科學(xué)與工程學(xué)院 長(zhǎng)沙 410083)
當(dāng)前基于增量主成分分析(PCA)學(xué)習(xí)的跟蹤方法存在兩個(gè)問題,首先,觀測(cè)模型沒有考慮目標(biāo)外觀變化的連續(xù)性;其次,當(dāng)目標(biāo)外觀的低維流行分布為非線性結(jié)構(gòu)時(shí),基于固定頻率更新模型的增量PCA學(xué)習(xí)不能適應(yīng)子空間模型的變化。為此,該文首先基于目標(biāo)外觀變化的連續(xù)性,在子空間模型中提出更合理的目標(biāo)先驗(yàn)概率分布假設(shè)。然后,根據(jù)當(dāng)前跟蹤結(jié)果與子空間模型之間的匹配程度,自適應(yīng)調(diào)整遺忘比例因子,使得子空間模型更能適應(yīng)目標(biāo)外觀變化。實(shí)驗(yàn)結(jié)果驗(yàn)證了所提方法能有效提高跟蹤的魯棒性和精度。
視覺跟蹤;主成分分析;增量子空間學(xué)習(xí);遺忘因子;自適應(yīng)增量
視覺跟蹤可以看成在連續(xù)的視頻序列中根據(jù)目標(biāo)運(yùn)動(dòng)模型和目標(biāo)外觀模型,尋找置信度最大的候選圖像區(qū)域。在現(xiàn)實(shí)環(huán)境中目標(biāo)物的外觀通常受到光照變化、目標(biāo)姿態(tài)變化、目標(biāo)大小變化以及部分遮擋等因素的影響,因此如何建立一個(gè)具有增量學(xué)習(xí)能力的外觀模型成為跟蹤的最重要問題。目前已有的基于外觀模型學(xué)習(xí)的跟蹤方法主要分為3大類,基于生成模型的跟蹤方法、基于判決模型的跟蹤方法,以及基于生成模型和判決模型相結(jié)合的跟蹤方法[8,9]。生成模型的優(yōu)點(diǎn)是能夠反映同類數(shù)據(jù)本身的相似度,缺點(diǎn)是對(duì)目標(biāo)和背景的區(qū)分能力不足。判決模型的優(yōu)點(diǎn)是反映了不同類別數(shù)據(jù)之間的差異,缺點(diǎn)是不能反映訓(xùn)練數(shù)據(jù)本身的特性。在復(fù)雜的背景環(huán)境下,由于背景樣本的不完備、不準(zhǔn)確和復(fù)雜性,基于判決模型的跟蹤方法很難準(zhǔn)確建立目標(biāo)和背景的決策邊界。另一方面,基于生成模型的跟蹤方法反映了同類樣本的分布,僅僅需要足夠多的目標(biāo)樣本就能保持非常好的跟蹤精度和跟蹤魯棒性。
在圖像原始的高維空間中,包含大量冗余信息以及噪聲信息。主成分分析(Principal Component Analysis, PCA)將高維圖像數(shù)據(jù)映射到低維子空間獲取目標(biāo)模板內(nèi)部的本質(zhì)結(jié)構(gòu)特征,因此反映了目標(biāo)模板在低維流行中的分布特性,減少了噪聲所造成的誤差。在此基礎(chǔ)上,文獻(xiàn)[1]提出了一種基于PCA的IVT(Incremental Visual Tracker)跟蹤算法,并實(shí)時(shí)增量地更新子空間模型以適應(yīng)目標(biāo)外觀的變化,在目標(biāo)外觀緩慢變化情況下的IVT算法能取得較好的跟蹤性能。目前基于IVT算法的擴(kuò)展研究非常多,主要集中在以下幾個(gè)方面進(jìn)行改進(jìn)。文獻(xiàn)[10,11]在IVT算法基礎(chǔ)上賦予目標(biāo)模板不同的權(quán)值,強(qiáng)調(diào)目標(biāo)模板對(duì)于子空間構(gòu)造的不同影響程度。文獻(xiàn)[12]采用加權(quán)平均方式融合IVT算法和基于稀疏表達(dá)跟蹤算法的跟蹤結(jié)果。文獻(xiàn)[13]使用增量PCA方法構(gòu)建子空間的基向量作為稀疏字典中的目標(biāo)模板,然后利用稀疏表達(dá)的分類能力進(jìn)行跟蹤。文獻(xiàn)[14]基于SIFT特征將圖像分成若干區(qū)域,然后使用IVT算法進(jìn)行跟蹤。文獻(xiàn)[15,16]首先通過(guò)色彩、紋理、灰度、梯度方向直方圖等特征分別使用IVT算法進(jìn)行跟蹤,然后融合多特征的跟蹤結(jié)果和子空間模型。
但是IVT及其所有改進(jìn)的算法中存在以下兩個(gè)缺點(diǎn):(1)這些方法都是基于低維子空間模型來(lái)計(jì)算候選目標(biāo)的相似度,沒有充分考慮到目標(biāo)變化的時(shí)間連續(xù)特性。因此一旦目標(biāo)外觀發(fā)生突變或者相似背景時(shí),容易跟蹤失敗。(2)當(dāng)目標(biāo)外觀的低維流行分布為非線性結(jié)構(gòu)或者局部線性結(jié)構(gòu)時(shí), IVT算法按照固定的遺忘比例因子對(duì)線性子空間模型更新,顯然不能滿足復(fù)雜目標(biāo)外觀變化下的魯棒跟蹤需求。對(duì)原有知識(shí)遺忘過(guò)快會(huì)降低子空間模型對(duì)目標(biāo)外觀描述的精確性,對(duì)原有知識(shí)遺忘過(guò)慢則會(huì)降低子空間模型的適應(yīng)性。
針對(duì)以上兩個(gè)問題,本文在IVT算法的基礎(chǔ)上提出了改進(jìn)方法。首先針對(duì)IVT算法的觀測(cè)模型的不足,基于子空間模型中目標(biāo)外觀的變化,本文提出更合理的目標(biāo)的先驗(yàn)概率分布假設(shè)。其次,為了能適應(yīng)目標(biāo)外觀變化,本文根據(jù)當(dāng)前跟蹤結(jié)果與子空間模型之間的符合程度,自適應(yīng)調(diào)整遺忘比例因子,使子空間模型更新頻率能適應(yīng)目標(biāo)外觀變化的頻率,提高了子空間模型對(duì)當(dāng)前時(shí)刻目標(biāo)物外觀的描述能力。
IVT算法是基于增量子空間的粒子濾波跟蹤算法,將視覺跟蹤問題看成一個(gè)隱馬爾科夫模型。設(shè)狀態(tài)變量描述了視頻圖像中時(shí)刻的目標(biāo)位置和運(yùn)動(dòng)參數(shù),給定一組目標(biāo)圖像的觀測(cè)值,是一個(gè)維圖像向量。視覺跟蹤的本質(zhì)是基于隱馬爾科夫模型由觀測(cè)數(shù)據(jù)估計(jì)出目標(biāo)的當(dāng)前狀態(tài)的后驗(yàn)概率分布,如式(1)所示,其中為觀測(cè)模型,為相鄰時(shí)刻目標(biāo)狀態(tài)間的運(yùn)動(dòng)模型。
為了提高子空間模型對(duì)目標(biāo)物外觀變化的適應(yīng)性,IVT算法采用增量更新的子空間作為目標(biāo)的外觀模型,在跟蹤過(guò)程中有效地學(xué)習(xí)和更新目標(biāo)的特征子空間。隨著跟蹤過(guò)程的推進(jìn),為了平衡新舊觀測(cè)數(shù)據(jù)的比重,IVT算法在更新子空間模型時(shí)引入了遺忘比例因子,在每次更新子空間模型時(shí)都給先前的均值和特征值乘上一個(gè)系數(shù)。
本文針對(duì)IVT算法的不足進(jìn)行如下改進(jìn):本文首先基于子空間模型內(nèi)的目標(biāo)外觀變化的時(shí)序性改進(jìn)了目標(biāo)的先驗(yàn)概率分布假設(shè),使得目標(biāo)外觀發(fā)生突變或者相似背景時(shí),仍能進(jìn)行魯棒的目標(biāo)跟蹤,不出現(xiàn)發(fā)散現(xiàn)象。其次,本文設(shè)計(jì)了一種方法來(lái)評(píng)價(jià)當(dāng)前跟蹤結(jié)果與子空間模型之間的匹配程度,通過(guò)自適應(yīng)調(diào)整遺忘比例因子,平衡特征子空間模型的新舊觀測(cè)數(shù)據(jù)比重,使得子空間模型更能適應(yīng)目標(biāo)外觀變化。
IVT算法的觀測(cè)模型只關(guān)注于候選目標(biāo)的相似性,而忽略了子空間模型內(nèi)的目標(biāo)外觀變化的時(shí)間連續(xù)特性。因此本節(jié)改進(jìn)了IVT算法的觀測(cè)模型,把時(shí)序特性引入到觀測(cè)模型中,使得目標(biāo)在子空間模型內(nèi)的先驗(yàn)概率分布假設(shè)更為合理。本文的觀測(cè)模型是建立在以下兩個(gè)合理假設(shè)之上的。(1)假設(shè)上一時(shí)刻,即時(shí)刻,目標(biāo)跟蹤的結(jié)果是可信的。(2)假設(shè)時(shí)間序列上相鄰兩幀跟蹤結(jié)果在子空間模型上投影的變化不大。
本文提出的基于時(shí)序特性的觀測(cè)模型的推導(dǎo)過(guò)程,如式(4)所示。首先,引入變量,根據(jù)全概率公式可以得出式(4)中的第1步推導(dǎo)。然后,根據(jù)文獻(xiàn)[17]的關(guān)于PCA特征子空間中概率分布的計(jì)算原理,認(rèn)為除將為的子項(xiàng)保留,其它對(duì)應(yīng)的很小,故不予考慮,因此可以得出式(4)中的第2步推導(dǎo)。最后,在滿足以下條件:給定,則與和相互獨(dú)立;給定,和相互獨(dú)立,可以得出式(4)中的第3步推導(dǎo)。
IVT算法的觀測(cè)模型[1],如式(3)所示,只對(duì)應(yīng)了新的觀測(cè)模型的第1子項(xiàng)部分,如式(4)所示。然而目標(biāo)外觀的先驗(yàn)概率分布,即式(4)的第2子項(xiàng)部分被簡(jiǎn)單設(shè)置為1。因此一旦目標(biāo)外觀不符合子空間模型或者子空間模型對(duì)目標(biāo)和背景的區(qū)分性很低時(shí),容易跟蹤失敗。本文的觀測(cè)模型充分考慮到目標(biāo)外觀變化的時(shí)間連續(xù)特性,即上述的假設(shè)(2),使用時(shí)間序列上相鄰兩幀跟蹤結(jié)果在子空間模型上投影的差異作為子空間模型內(nèi)目標(biāo)外觀的先驗(yàn)概率分布的度量準(zhǔn)則,構(gòu)建更有效的觀測(cè)模型。基于子空間模型,式(4)中的和由服從高斯分布的概率密度函數(shù)可以獲得[17],如式(5)和式(6)所示,其中為特征空間中心。由于在觀測(cè)模型中引入了目標(biāo)外觀變化的時(shí)間序列特性,因此當(dāng)子空間模型與當(dāng)前目標(biāo)外觀存在偏差時(shí)或者子空間模型對(duì)目標(biāo)和背景的區(qū)分性降低時(shí),本文的跟蹤方法仍然能憑借觀測(cè)模型的時(shí)序特性保持魯棒的跟蹤。
僅僅依靠在觀測(cè)模型中引入了目標(biāo)外觀變化的時(shí)間序列特性(3.1節(jié)),只能在特征子空間模型還未出現(xiàn)較大偏差的短時(shí)間內(nèi)保持穩(wěn)定的跟蹤。當(dāng)目標(biāo)外觀的低維流行分布為非線性結(jié)構(gòu)時(shí),為了適應(yīng)目標(biāo)的外觀變化,需要跟蹤算法能夠及時(shí)重新構(gòu)建或者修正特征子空間模型。針對(duì)這一問題,當(dāng)前IVT的一些改進(jìn)方法采用將低維子空間模型構(gòu)建成多個(gè)線性子空間模型,并且結(jié)合稀疏表達(dá)分類的原理進(jìn)行目標(biāo)跟蹤。但是這些方法憑經(jīng)驗(yàn)設(shè)置劃分子空間的閾值,不可能滿足各種目標(biāo)形變和光照環(huán)境;同時(shí)多線性子空間模型增加了模型的復(fù)雜度,構(gòu)建模型時(shí)容易出現(xiàn)過(guò)擬合。為此本文設(shè)計(jì)了一種評(píng)價(jià)子空間模型描述當(dāng)前跟蹤結(jié)果準(zhǔn)確性的判決機(jī)制,通過(guò)自適應(yīng)調(diào)整遺忘比例因子,平衡特征子空間模型的新舊觀測(cè)數(shù)據(jù)比重,提高子空間模型對(duì)當(dāng)前時(shí)刻跟蹤結(jié)果的描述準(zhǔn)確性。
基于當(dāng)前跟蹤結(jié)果是正確的假設(shè)前提下,評(píng)價(jià)子空間模型是否準(zhǔn)確描述當(dāng)前時(shí)刻的跟蹤結(jié)果,從圖像觀測(cè)的角度來(lái)看本質(zhì)上就是當(dāng)前跟蹤結(jié)果區(qū)域(即3.1節(jié)的跟蹤結(jié)果)和基于子空間模型相似度最大區(qū)域之間的重疊部分的比例大小,重疊區(qū)域比例越大表明當(dāng)前跟蹤結(jié)果與模型之間的符合程度越高。因此本文根據(jù)使用式(4)新的觀測(cè)模型估計(jì)的目標(biāo)中心位置和使用式(3)原有觀測(cè)模型估計(jì)的目標(biāo)中心位置之間的差異,判斷子空間模型的可靠性。當(dāng)兩者的中心位置之間的差異越大時(shí),表明重疊區(qū)域比例越小,模型的可靠性越低,應(yīng)該盡快更新模型拋棄舊樣本的知識(shí)來(lái)適應(yīng)目標(biāo)和環(huán)境變化,所以給遺忘比例因子設(shè)置較大值;當(dāng)兩者的中心位置之間的差異越小時(shí),表明重疊區(qū)域比例越大,模型的可靠性越高,應(yīng)該盡量保存舊樣本的知識(shí)來(lái)維持模型對(duì)目標(biāo)外觀描述的精確性,所以給遺忘比例因子設(shè)置較小值。
綜合上述兩節(jié)對(duì)IVT跟蹤算法進(jìn)行的改進(jìn)(3.1節(jié)和3.2節(jié)),本文提出了一種基于時(shí)序特性的自適應(yīng)增量PCA的目標(biāo)跟蹤算法,算法流程圖見表1。其中子空間模型和子空間均值的更新具體步驟見文獻(xiàn)[1],為候選目標(biāo)的粒子權(quán)重,為粒子濾波的粒子個(gè)數(shù)。
圖1 遺忘比例因子和的變化關(guān)系曲線
表1本文提出的跟蹤算法
輸入:圖像,粒子數(shù),目標(biāo)的初始狀態(tài)。輸出:每幀圖像中目標(biāo)的跟蹤結(jié)果。(1)根據(jù)目標(biāo)的初始狀態(tài)初始化子空間模型,樣本均值;(2) Fordo;(3) 根據(jù)運(yùn)動(dòng)模型預(yù)測(cè)當(dāng)前的粒子狀態(tài),并獲取對(duì)應(yīng)的觀測(cè)值,式(2);(4) 根據(jù)式(4)計(jì)算為目標(biāo)的置信值;(5) 根據(jù)式(8)計(jì)算遺忘比例因子;(6) 取置信值最大的粒子作為跟蹤結(jié)果,并根據(jù)和更新子空間模型和樣本均值;(7) 根據(jù)對(duì)粒子進(jìn)行重采樣獲取新的;(8) End for
為了評(píng)估本文算法執(zhí)行結(jié)果,我們?cè)诙鄠€(gè)經(jīng)典的公開測(cè)試視頻序列上進(jìn)行了一系列的實(shí)驗(yàn),并將本文算法和當(dāng)前流行的經(jīng)典跟蹤算法IVT[1], L1APG[2]以及最新的跟蹤算法MIML[7]進(jìn)行了比較。這些視頻中包含了各種有挑戰(zhàn)性的情形:包括目標(biāo)遮擋、光照變化、相似背景、旋轉(zhuǎn)變化和尺度變化等。
本文所有算法統(tǒng)一將粒子數(shù)定為300個(gè)。通過(guò)仿射變化將目標(biāo)區(qū)域規(guī)則化,IVT和本文算法將目標(biāo)區(qū)域規(guī)則化為矩陣,L1APG算法和MIML將目標(biāo)區(qū)域規(guī)則化為矩陣。
第1個(gè)測(cè)試視頻Sylvester包含了光照變化和劇烈的姿態(tài)變化。如圖2所示在第400, 700, 1000和1200幀比較各算法結(jié)果,IVT, L1APG和MIML算法不能適應(yīng)變化而偏離了實(shí)際目標(biāo),本文算法由于考慮了目標(biāo)外觀變化的時(shí)間序列連續(xù)特性并且自適應(yīng)調(diào)整遺忘比例因子,所以跟蹤結(jié)果表現(xiàn)出較好的魯棒性。
第2個(gè)測(cè)試視頻Car4包含了較大的光照變化和復(fù)雜背景。如圖3所示在第200, 300, 400和600幀比較各算法結(jié)果,L1APG算法不能適應(yīng)變化而偏離了實(shí)際目標(biāo),IVT算法從第300幀以后都引入太多背景。本文算法由于考慮了目標(biāo)外觀變化的時(shí)間序列連續(xù)特性,對(duì)目標(biāo)能進(jìn)行更穩(wěn)定而精確的跟蹤。
第3個(gè)測(cè)試視頻Cardark包含了劇烈的光線變化和相似背景。如圖4所示在第100, 200, 300和390幀比較各算法結(jié)果,IVT和MIML算法不能適應(yīng)變化而偏離了實(shí)際目標(biāo),本文的算法由于考慮了目標(biāo)外觀變化的時(shí)間序列連續(xù)特性,能較好地區(qū)分目標(biāo)和相似背景,對(duì)目標(biāo)能進(jìn)行穩(wěn)定而精確的跟蹤。
本節(jié)對(duì)跟蹤誤差進(jìn)行定量的分析,使用了平均中心位置誤差和平均重疊率作為定量分析的統(tǒng)計(jì)量。中心位置誤差是指圖像中跟蹤結(jié)果的中心位置與實(shí)際值的中心位置之間的歐式距離,單位是像素。重疊率指的是跟蹤結(jié)果的區(qū)域和目標(biāo)真實(shí)值的區(qū)域之間的重疊部分所占的比率。表2比較了不同算法在6個(gè)經(jīng)典視頻中的跟蹤結(jié)果的平均中心位置誤差,表3比較了不同算法在6個(gè)經(jīng)典視頻中的跟蹤結(jié)果的平均重疊率,可以看出本文算法在大部分視頻中保持了較低的平均中心位置誤差和較高的平均重疊率,表現(xiàn)出好于其它算法的跟蹤精度,具有較好的跟蹤魯棒性。
IVT算法只關(guān)注于候選圖像樣本之間的相似性,而忽略了子空間模型內(nèi)的目標(biāo)外觀變化的時(shí)間連續(xù)特性,并且采用固定頻率更新線性的子空間模型。因此在測(cè)試視頻中,當(dāng)目標(biāo)外觀發(fā)生突變或者目標(biāo)和背景不容易區(qū)分時(shí),跟蹤結(jié)果發(fā)生了嚴(yán)重的漂移,容易跟蹤失敗。
L1APG算法缺乏根據(jù)目標(biāo)樣本的分布準(zhǔn)確地描敘目標(biāo)流行結(jié)構(gòu)的能力,區(qū)分背景和目標(biāo)的能力差。并且采用基于固定閾值的模板更新策略,字典的樣本更新過(guò)慢,不能適應(yīng)目標(biāo)外觀的變化。因此在所有長(zhǎng)時(shí)間序列的測(cè)試視頻中,容易跟錯(cuò)目標(biāo)。
MIML算法通過(guò)單一的線性映射將高維空間中的樣本特征投影到低維空間進(jìn)行特征提取,并且采用基于固定頻率的度量空間更新策略。因此,當(dāng)目標(biāo)外觀的低維流行分布為非線性結(jié)構(gòu)時(shí),很難構(gòu)建一個(gè)有效的線性的度量空間。當(dāng)發(fā)生劇烈的目標(biāo)姿態(tài)變化或者遮擋時(shí),度量空間中的距離不能準(zhǔn)確反映候選目標(biāo)的置信度,因此容易引入背景造成跟蹤漂移。
本文的算法把目標(biāo)外觀變化的時(shí)序特性引入到觀測(cè)模型,使得目標(biāo)在子空間模型內(nèi)的先驗(yàn)概率分布假設(shè)更為合理。同時(shí),本文算法根據(jù)子空間模型和當(dāng)前跟蹤結(jié)果符合程度,及時(shí)進(jìn)行修正子空間模型,平衡特征子空間模型的新舊觀測(cè)數(shù)據(jù)比重。因此本文算法對(duì)目標(biāo)能進(jìn)行魯棒而精確的跟蹤。
圖2 視頻Sylvester跟蹤結(jié)果比較
圖3 視頻Car4跟蹤結(jié)果比較
圖4 視頻Cardark跟蹤結(jié)果比較
表2比較不同算法在6個(gè)測(cè)試視頻的平均中心位置誤差(單位為像素)
測(cè)試視頻IVT算法L1APG算法MIML算法本文算法 Sylvester34.2 23.5 56.8 8.1 Car416.9 63.8 5.2 4.5 Cardark 8.4 2.0 9.1 1.2 Dudek14.1112.8 68.510.4 Basketball 8.5 28.9153.411.2 David 9.9 73.9 24.7 4.9
表3比較不同算法在6個(gè)測(cè)試視頻的平均重疊率(%)
測(cè)試視頻IVT算法L1APG算法MIML算法本文算法 Sylvester0.520.480.210.62 Car40.510.250.460.78 Cardark0.660.830.280.88 Dudek0.730.560.620.71 Basketball0.300.270.070.45 David0.560.230.350.65
基于增量PCA學(xué)習(xí)的跟蹤方法只關(guān)注于圖像樣本之間的相似性,而忽略了子空間模型內(nèi)的目標(biāo)外觀變化的時(shí)間連續(xù)特性。為此,本文首先改進(jìn)了目標(biāo)的先驗(yàn)概率分布假設(shè),構(gòu)建更有效的觀測(cè)模型。其次,為了平衡特征子空間模型的新舊觀測(cè)數(shù)據(jù)比重,本文設(shè)計(jì)了一種評(píng)價(jià)子空間模型描述當(dāng)前跟蹤結(jié)果準(zhǔn)確性的判決機(jī)制,通過(guò)自適應(yīng)調(diào)整遺忘比例因子,提高子空間模型對(duì)當(dāng)前時(shí)刻目標(biāo)外觀描述的準(zhǔn)確性。因此當(dāng)子空間模型與當(dāng)前目標(biāo)外觀存在偏差時(shí),本文的跟蹤方法仍然能保持魯棒的跟蹤,適應(yīng)目標(biāo)外觀的突變和復(fù)雜背景。實(shí)驗(yàn)結(jié)果定性和定量地顯示本文方法能有效提高跟蹤的魯棒性和跟蹤的精度。
[1] Ross D A, Lim J W, Lin R S,.. Incremental learning for robust visual tracking[J]., 2008, 77(1-3): 125-141.
[2] Bao C L, Wu Y, Linh H B,.. Real time robust L1 tracker using accelerated proximal gradient approach[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Rhode Island, 2012: 1830-1837.
[3] MeI X and Ling H B. Robust visual tracking and vehicle classification via sparse representation[J]., 2011, 33(11): 2259-2272.
[4] Babenko B, Yang M H, Belongie S,.. Robust object tracking with online multiple instance learning[J]., 2011, 33(8): 1619-1632.
[5] Grabner H and Bischof H. On-line boosting and vision[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, New York, 2006, 1: 260-267.
[6] Avidan S. Ensemble tracking[J]., 2007, 29(2): 261-271.
[7] Yang M, Zhang C X, Wu Y W,.. Robust object tracking via online multiple instance metric learning[C]. Electronic Proceedings of the 2013 IEEE International Conference on Multimedia and Expo Workshops, San Jose, 2013: 1-4.
[8] Zhong Wei, Lu Hu-chuan, and Yang M. Robust object tracking via sparse collaborative appearance model[J]., 2014, 23(5): 2356-2368.
[9] 呂卓紋, 王科俊, 李宏宇, 等. 融合Camshift的在線Adaboost目標(biāo)跟蹤算法[J]. 中南大學(xué)學(xué)報(bào)(自然科學(xué)版), 2013, 44(2): 232-238. Lu Zhuo-wen, Wang Ke-jun, Li Hong-yu,.. Online Adaboost target tracking algorithm combined fused with Camshift[J].(), 2013, 44(2): 232-238.
[10] 錢誠(chéng), 張三元. 適用于目標(biāo)跟蹤的加權(quán)增量子空間學(xué)習(xí)算法[J]. 浙江大學(xué)學(xué)報(bào)(工學(xué)版), 2011, 45(12): 2240-2246. Qian Cheng and Zhang San-yuan. Weighted incremental subspace learning algorithm suitable for object tracking[J].(), 2011, 45(12): 2240-2246.
[11] Cruz-Mota J, Bierlaire M, and Thiran J. Sample and pixel weighting strategies for robust incremental visual tracking[J]., 2013, 23(5): 898-911.
[12] Xie Yuan, Zhang Wen-sheng, Qu Yan-yun,.. Discriminative subspace learning with sparse representation view-based model for robust visual tracking[J]., 2014, 47(3): 1383-1394.
[13] Ji Zhang-jian, Wang Wei-qiang, and Xu Ning. Robust object tracking via incremental subspace dynamic sparse model[C]. Proceedings of IEEE International Conference on Multimedia and Expo, Chengdu, 2014: 1-6.
[14] Guo Yan-wen, Chen Ye, and Tang Feng. Object tracking using learned feature manifolds[J]., 2014, 118(1): 128-139.
[15] Chen Wei-hua, Cao Li-jun, and Zhang Jun-ge. An adaptive combination of multiple features for robust tracking in real scene[C]. Proceedings of the IEEE International Conference on Computer Vision, Sydney, 2013: 129-136.
[16] Yang Han-xuan, Song Zhan, and Chen Ru-nen. An incremental PCA-HOG descriptor for robust visual hand tracking[J]., 2010, 6553: 687-695.
[17] Moghaddam B and Pentland A. Probabilistic visual learning for object detection[C]. Proceedings of the IEEE International Conference on Computer Vision, Cambridge, 1995: 786-793.
[18] Chen Feng, Wang Qing, Wang Song,.. Object tracking via appearance modeling and sparse representation[J]., 2011, 29(11): 787-796.
[19] Wang Dong, Lu Hu-chuan, and Yang M H . Online object tracking with sparse prototypes[J]., 2013, 22(1): 314-325.
[20] Wang Qing, Chen Feng, Xu Wen-li,.. Object tracking via partial least squares analysis[J]., 2012, 21(10): 4454-4465.
Adaptive Incremental Principal Component Analysis Visual Tracking Method Based on Temporal Characteristics
Cai Zi-xing Peng Meng Yu Ling-li
(,,410083,)
Existing visual tracking methods based on incremental Principal Component Analysis (PCA) learning have two problems. First, the measurement model does not consider the continuation characteristics of the object appearance changes. Second, when the manifold distribution of target appearance is non-linear structure, the incremental principal component analysis learning based on fixed update frequency can not adapt to changes of subspace model. Therefore, the more reasonableprobability distribution of targets is proposed based on the continuity of the object appearance changes in the subspace model. Then, according to the matching degree between the current tracking results and the subspace model, the proposed method adaptively adjusts forgetting factor, in order to make the subspace model more adaptable to the object appearance change. Experimental results show that the proposed method can improve the tracking accuracy and robustness.
Visual tracking; Principal Component Analysis (PCA); Incremental subspace learning; Forgetting factor; Adaptive increment
TP391
A
1009-5896(2015)11-2571-07
10.11999/JEIT141646
2014-12-25;改回日期:2015-07-20;
2015-08-25
彭夢(mèng) pengmeng_pm@csu.edu.cn
國(guó)家自然科學(xué)基金重大研究計(jì)劃(90820302);國(guó)家自然科學(xué)基金(61175064, 61403426, 61403423)
The Major Research Project of the National Natural Science Foundation of China (90820302); The National Natural Science Foundation of China (61175064, 61403426, 61403423)
彭 夢(mèng): 男,1978年生,博士生,研究方向?yàn)橐曈X跟蹤和多傳感器融合.
蔡自興: 男,1938年生,教授,博士生導(dǎo)師,研究方向?yàn)槿斯ぶ悄?、智能控制、機(jī)器人.