張永強(qiáng),程丹松,王 君,吳 銳,陳 竟,石大明
(哈爾濱工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 150001 哈爾濱)
?
拓展模板的視頻跟蹤技術(shù)
張永強(qiáng),程丹松,王 君,吳 銳,陳 竟,石大明
(哈爾濱工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 150001 哈爾濱)
在視覺(jué)目標(biāo)跟蹤(video tracking)過(guò)程中,當(dāng)跟蹤圖像存在背景雜波、圖像噪聲(如圖像遮擋、圖像快速移動(dòng))時(shí),算法往往不能取得很好的圖像追蹤效果.為解決該問(wèn)題,在經(jīng)典L1-tracker追蹤算法的基礎(chǔ)上,針對(duì)目標(biāo)遮擋、目標(biāo)消失等嚴(yán)重影響跟蹤效果的情況進(jìn)行研究,提出加入拓展模板(固定模板和近況模板)的策略來(lái)提高跟蹤精度和抗遮擋能力.固定模板保持追蹤目標(biāo)最初的圖像特征,防止錯(cuò)誤的追蹤結(jié)果在模板更新時(shí)引入錯(cuò)誤的特征,進(jìn)而導(dǎo)致識(shí)別目標(biāo)偏移.近況模板記錄目標(biāo)的最新跟蹤結(jié)果,避免由于點(diǎn)模板的大量使用而造成遮擋的誤識(shí)別.通過(guò)對(duì)多個(gè)標(biāo)準(zhǔn)數(shù)據(jù)集的實(shí)驗(yàn)測(cè)試,證明加入新策略的L1-tracker算法,在不破壞原有L1-tracker優(yōu)勢(shì)的基礎(chǔ)上,顯著地提升了L1-tracker算法應(yīng)對(duì)遮擋問(wèn)題的能力.
圖像目標(biāo)追蹤;稀疏表示;L1-tracker;固定模板;近況模板
近些年來(lái),隨著社會(huì)需求和科學(xué)工程技術(shù)的進(jìn)步,視覺(jué)目標(biāo)跟蹤(video tracking)已經(jīng)被應(yīng)用到很多的領(lǐng)域,如:視頻監(jiān)控、車輛導(dǎo)航和人機(jī)交互等[1].但是當(dāng)跟蹤圖像存在背景雜波、圖像噪聲(如圖像遮擋、圖像快速移動(dòng))時(shí),很多算法都未能取得很好的圖像追蹤效果.
矩陣的稀疏表示(sparse representation),又稱壓縮傳感(compressive sensing)[2],是一種先把圖像數(shù)據(jù)矩陣化,然后利用其內(nèi)在稀疏性和矩陣線性表示來(lái)進(jìn)行處理的技術(shù),它可以顯著地提高運(yùn)算效率.在稀疏表示、壓縮感知理論興起后,相關(guān)的理論很快地被應(yīng)用到跟蹤領(lǐng)域[3-7].如文獻(xiàn)[6]提出了基于L1范數(shù)最小化的目標(biāo)跟蹤方法(L1-tracker),該方法利用粒子濾波器框架下的稀疏近似方法來(lái)解決視頻跟蹤問(wèn)題,在解決圖像遮擋、強(qiáng)烈的光照變化和姿態(tài)變化等情況取得了較好的效果,并減少了運(yùn)算的復(fù)雜度.此后作者又重新對(duì)文獻(xiàn)[6]的方法進(jìn)行改進(jìn)[8-9].除了L1-tracker方法外,很多學(xué)者也提出了其他的方法,如文獻(xiàn)[10]提出了Real-Time Compressive Tracking跟蹤方法.
但是當(dāng)圖像中存在復(fù)雜圖像噪聲信號(hào)或圖像遮擋時(shí),傳統(tǒng)的L1-Tracker方法在處理精度和遮擋誤判方面還存在一些問(wèn)題.為解決這些問(wèn)題,本文在此基礎(chǔ)上[8-9,11-12]進(jìn)行了一些有效的改進(jìn),提出增加拓展模板(固定模板和近況模板)的策略,實(shí)驗(yàn)結(jié)果證明加入拓展模板的算法在不破壞算法原有優(yōu)勢(shì)的前提下,有效地提升了L1-tracker算法的精度和對(duì)遮擋問(wèn)題的判斷能力.
1.1 L1-tracker模型
(1)
(2)
(3)
1.2 模板更新
基于模板的跟蹤方法最早是在文獻(xiàn)[7]中被提出的.文獻(xiàn)[14]通過(guò)固定的模板來(lái)進(jìn)行追蹤,并使追蹤結(jié)果和模板的距離平方和最小化.一般而言,追蹤目標(biāo)只會(huì)在相對(duì)局部的圖像幀里保持不變,隨著圖像序列的變化,追蹤目標(biāo)將不可避免地發(fā)生變化,最后導(dǎo)致原有模板難以繼續(xù)進(jìn)行準(zhǔn)確的追蹤.換句話說(shuō),如果不對(duì)模板進(jìn)行更新,由于各種光照或者位置變化導(dǎo)致的目標(biāo)改變將使傳統(tǒng)L1-tracker追蹤算法失效.另一方面,如果過(guò)于頻繁、隨意地進(jìn)行模板更新,模板將不斷地累積一些不屬于目標(biāo)特征的內(nèi)容,最后導(dǎo)致模板失效.所以,L1-tracker算法需要能動(dòng)態(tài)地應(yīng)對(duì)目標(biāo)變化,并進(jìn)行模板的更新.文獻(xiàn)[5]通過(guò)把衡量?jī)蓚€(gè)同規(guī)格圖像相似程度的方程Sim(.,.)定義為Cos(θ)來(lái)進(jìn)行判別,其中θ是將兩個(gè)輸入圖像向量化之后的向量角為
1.3 遮擋檢測(cè)
模板需要更新,才能很好地應(yīng)對(duì)追蹤目標(biāo)的變化,進(jìn)而保持較好的追蹤效果.雖然上述更新方法考慮到檢測(cè)模板的更新需求,以及如何選擇合適的模板來(lái)進(jìn)行更新,但是它沒(méi)有考慮到目標(biāo)可能被其他物體遮擋的情況.當(dāng)這種情況發(fā)生時(shí),大量不是目標(biāo)特征的內(nèi)容會(huì)被添加進(jìn)特征模板,最終導(dǎo)致誤識(shí)別事件的發(fā)生.
所以在傳統(tǒng)的L1-tracker算法中,使用了兩種模板:一種是特征模板,另一種是點(diǎn)模板.特征模板反映了追蹤目標(biāo)的圖像特征,點(diǎn)模板則對(duì)應(yīng)遮擋、采集到的非目標(biāo)圖像以及噪聲信號(hào)的檢測(cè).雖然點(diǎn)模板,主要用于遮擋和噪聲檢測(cè),但在進(jìn)行目標(biāo)跟蹤時(shí),目標(biāo)的正常外表變化也會(huì)使用點(diǎn)模板,但是這時(shí)的使用和遮擋還是有區(qū)別的;遮擋時(shí)通常是成片的,而普通外表變化是漸進(jìn)的、相對(duì)零散的.通過(guò)對(duì)點(diǎn)模板矩陣的分析可知,如果對(duì)上面得到的0、1二值矩陣進(jìn)行形態(tài)學(xué)處理,從去掉一些小孔洞之后的圖像來(lái)看,遮擋會(huì)導(dǎo)致大片的黑色區(qū)域(數(shù)值為1),而一般的外表變化則只會(huì)出現(xiàn)比較零散的黑色區(qū)域.因此就可以通過(guò)計(jì)算圖像中的最大黑色聯(lián)通區(qū)域來(lái)判斷是否發(fā)生了遮擋,如果這個(gè)區(qū)域大于圖像總面積的某個(gè)比例,就可以認(rèn)為出現(xiàn)了遮擋.在出現(xiàn)遮擋之后,本文可以暫時(shí)(如文獻(xiàn)[5]使用的維持5幀)停止模板的更新.
通過(guò)對(duì)傳統(tǒng)L1-tracker算法的分析,本文知道在傳統(tǒng)L1-tracker算法[9,11-12]中,進(jìn)行模板更新之前需要進(jìn)行遮擋的檢測(cè).遮擋的檢測(cè)需要將點(diǎn)模板的系數(shù)a=[cT;cI]向量轉(zhuǎn)化為和模板同規(guī)格的矩陣,然后按照一定的預(yù)設(shè)值將其轉(zhuǎn)化為0、1的二值矩陣,再在這個(gè)矩陣上檢測(cè)最大的聯(lián)通區(qū)域,看是否構(gòu)成遮蔽判斷.但是在傳統(tǒng)L1-tracker算法中cT和cI存在一些混淆.cT有大于0的限制,但是cI沒(méi)有,而且傳統(tǒng)L1-tracker算法只考慮了cT>0的情況,也就說(shuō)只是將系數(shù)0、1二值矩陣中大于預(yù)設(shè)值的部分轉(zhuǎn)化了1.而當(dāng)遮蔽物的灰度值是小于當(dāng)前的追蹤目標(biāo)時(shí),傳統(tǒng)L1-tracker算法將不進(jìn)行處理.所以這個(gè)做法并不十分合適.
本文針對(duì)這個(gè)問(wèn)題,對(duì)傳統(tǒng)L1-tracker算法進(jìn)行改進(jìn).分開(kāi)考慮模板系數(shù)為正和為負(fù)的情況,并在特征模板和點(diǎn)模板的基礎(chǔ)上,加入了拓展模板(固定模板和近況模板).這種實(shí)現(xiàn)稱之為tracker-2.由上述分析可以知道,傳統(tǒng)的L1-tracker算法是介于頻繁更新模板和不更新模板兩種策略之間的一種動(dòng)態(tài)策略,而固定模板和近況模板相當(dāng)于這兩種極端策略.
2.1 固定模板
在進(jìn)行目標(biāo)追蹤時(shí),不時(shí)會(huì)出現(xiàn)一種極端的情況,即追蹤目標(biāo)暫時(shí)性地從圖像序列中消失.如果不考慮這種變化往往會(huì)導(dǎo)致算法對(duì)追蹤目標(biāo)消失的應(yīng)對(duì)能力變?nèi)?,并且在追蹤目?biāo)再次出現(xiàn)后也無(wú)法進(jìn)行有效地判斷.因?yàn)樵诋?dāng)前追蹤的圖像中不存在目標(biāo)時(shí),它會(huì)和追蹤算法中的目標(biāo)模板出現(xiàn)很大的差異,此時(shí)算法可能會(huì)將這種情況視為目標(biāo)已經(jīng)發(fā)生改變、而目標(biāo)模板不能很好地應(yīng)對(duì)目標(biāo)的變化,所以會(huì)嘗試根據(jù)當(dāng)前錯(cuò)誤的追蹤結(jié)果來(lái)更新模板,進(jìn)而導(dǎo)致追蹤模板被加入一些錯(cuò)誤的特征,最后出現(xiàn)識(shí)別目標(biāo)的偏移.所以當(dāng)前的許多圖像追蹤算法都會(huì)選擇檢測(cè)目標(biāo)是否在當(dāng)前幀中出現(xiàn),來(lái)決定下一步圖像追蹤的走向,如果檢測(cè)到目標(biāo)不存在,就會(huì)停止追蹤,直到再次檢測(cè)到目標(biāo)后再繼續(xù)進(jìn)行跟蹤.傳統(tǒng)L1-tracker算法應(yīng)對(duì)這種目標(biāo)消失的情況具有一些天然優(yōu)勢(shì).對(duì)于目標(biāo)消失,傳統(tǒng)L1-tracker算法并不停止進(jìn)行追蹤,而是繼續(xù)追蹤.這個(gè)時(shí)候由于追蹤的結(jié)果會(huì)與原本的追蹤目標(biāo)產(chǎn)生很大差異,所以會(huì)大量使用點(diǎn)模板,這樣在點(diǎn)模板的系數(shù)矩陣二值化之后,就會(huì)形成面積較大的聯(lián)通區(qū)域,進(jìn)而可以判斷出現(xiàn)了遮擋,然后就會(huì)停止模板的更新,提高對(duì)目標(biāo)變化的魯棒性.
但是大量使用點(diǎn)模板會(huì)帶來(lái)運(yùn)算量的增加,所以為解決該問(wèn)題,本文提出一種應(yīng)對(duì)策略—加入固定模板,固定模板將最初指定的目標(biāo)保存下來(lái),單獨(dú)制作成一個(gè)固定不變的模板,它不會(huì)因模板更新策略而被更新[15].這樣做的依據(jù)是:當(dāng)目標(biāo)消失時(shí),特征模板可能已被錯(cuò)誤地更新過(guò),已經(jīng)不能很好地描述目標(biāo)的圖像特征;此外當(dāng)目標(biāo)再次出現(xiàn)時(shí),其圖像特征也是難以預(yù)測(cè)的,所以采用最原始的目標(biāo)模板是一種保守而且有效的策略.對(duì)于沒(méi)有出現(xiàn)目標(biāo)消失的情況而言,新添加固定模板也不會(huì)有負(fù)面影響,這是因?yàn)楣潭0灞3至俗粉櫮繕?biāo)最初的圖像特征,不會(huì)引進(jìn)任何錯(cuò)誤的結(jié)果.所以增加固定模板是一種保守且不會(huì)對(duì)追蹤準(zhǔn)確度有負(fù)面影響的策略,最多只是線性地增加了少量的運(yùn)算時(shí)間.
2.2 近況模板
如固定模板所述,在使用傳統(tǒng)L1-tracker算法進(jìn)行目標(biāo)跟蹤時(shí),會(huì)出現(xiàn)因發(fā)生遮擋而造成誤識(shí)的現(xiàn)象.這種問(wèn)題的發(fā)生是因?yàn)槟0宀荒芎芎玫孛枋霎?dāng)前的追蹤,即在需要更新模板時(shí),不去更新模板,反而減少點(diǎn)模板的使用,從而嚴(yán)重影響跟蹤的效果.
針對(duì)此問(wèn)題,本文提出一種應(yīng)對(duì)策略—加入近況模板.近況模板,就是根據(jù)相似度大小,從最近的跟蹤結(jié)果中(與文獻(xiàn)[5]相同,本文也選擇為5幀)挑選一個(gè)與特征模板描述程度最高的追蹤結(jié)果,并加入到模板中,然后不斷地以最新的、可靠性高的追蹤結(jié)果對(duì)其進(jìn)行更新.這種策略來(lái)源于這樣一種認(rèn)識(shí):圖像模板的變化在相對(duì)局部的范圍內(nèi)是有限的,并且大的圖像變化來(lái)源于多次較小變化的積累.同時(shí)近況模板作為一個(gè)非??煽康淖粉櫧Y(jié)果.它具有兩個(gè)重要的性質(zhì),首先它是可靠的,基本上能夠肯定是本文追蹤的目標(biāo),否則它不具有作為模板的資格;其次它是近況的,是距離當(dāng)前幀較近的一次識(shí)別結(jié)果,從而當(dāng)前目標(biāo)與它的差異程度要小于當(dāng)前目標(biāo)和特征模板的差異.
本文提到的一個(gè)誤識(shí)遮擋的典型場(chǎng)景是當(dāng)開(kāi)始出現(xiàn)小的外觀變化時(shí),傳統(tǒng)L1-tracker算法還認(rèn)為模板足以描述當(dāng)前追蹤的結(jié)果,而不進(jìn)行模板的更新(如果輕易更新,容易在模板上積累錯(cuò)誤的特征,造成追蹤結(jié)果的偏移);但是隨著目標(biāo)逐漸發(fā)生變化,最終的結(jié)果是當(dāng)傳統(tǒng)L1-tracker算法發(fā)現(xiàn)模板已經(jīng)不能很好地描述當(dāng)前的追蹤結(jié)果時(shí),會(huì)使用很多的點(diǎn)模板,進(jìn)而容易在系數(shù)矩陣二值化之后,出現(xiàn)成片的1-聯(lián)通區(qū)域,然后錯(cuò)誤的識(shí)別為遮擋.而本文采用近況模板(近況矩陣)策略后,在目標(biāo)發(fā)生小的外觀變化時(shí),tracker-2算法能夠發(fā)現(xiàn)它雖然有些小的不同,但還是可以信任的,這樣就能將這樣小的目標(biāo)變化提前保留下來(lái),不會(huì)放任它一直積累;等發(fā)現(xiàn)需要更新模板時(shí),就不需要大量地使用點(diǎn)模板,因?yàn)檫@些模板的變化已經(jīng)被近況模板描述了,從而減少了因遮擋而發(fā)生的錯(cuò)誤判定.
在實(shí)驗(yàn)中,tracker-2方法采用Matlab實(shí)現(xiàn),實(shí)驗(yàn)系統(tǒng)平臺(tái)是Windows7.在具體的參數(shù)設(shè)置上,判定式Sim的預(yù)設(shè)閾值τ=0.3,超過(guò)0.3時(shí)則認(rèn)為模板已經(jīng)不能很好地描述當(dāng)前的追蹤結(jié)果;特征模板的數(shù)目為10,使用的粒子數(shù)目為600, λ=0.01,μt=10.進(jìn)行對(duì)比實(shí)驗(yàn)的傳統(tǒng)L1-tracker算法也使用同樣的設(shè)置.
3.1 結(jié)果對(duì)比分析
在量化測(cè)試中,本文選擇了4個(gè)公開(kāi)的標(biāo)準(zhǔn)視頻,對(duì)加入拓展模板后的優(yōu)化L1-tracker(tracker-2)算法與傳統(tǒng)的L1-tracker算法進(jìn)行對(duì)比測(cè)試.在性能評(píng)價(jià)上,文獻(xiàn)[10,15-16]通過(guò)選取區(qū)域交疊率[17]來(lái)決定每一幀的追蹤結(jié)果是否可以接受.具體描述為跟蹤目標(biāo)區(qū)域與實(shí)際目標(biāo)區(qū)域的交疊率:兩區(qū)域之交的面積與兩區(qū)域之并的面積比.設(shè)某一幀跟蹤目標(biāo)區(qū)域?yàn)镽OIT,實(shí)際目標(biāo)區(qū)域?yàn)镽OIG,則該幀的交疊率score可計(jì)算為
當(dāng)交疊率小于50%,則認(rèn)為該幀跟蹤失敗,進(jìn)而可定義所有幀的正確率,即正確跟蹤的幀數(shù)與總幀數(shù)之比,設(shè)總幀數(shù)為Ntotal,正確跟蹤的幀數(shù)為Nscore≥0.5,整體跟蹤正確率P為
為了能更進(jìn)一步的理解,本文將二者在對(duì)應(yīng)圖像幀中的追蹤結(jié)果與標(biāo)準(zhǔn)目標(biāo)位置的中心矩進(jìn)行對(duì)比, 如圖1~4所示.
優(yōu)化L1-tracker算法和傳統(tǒng)L1-tracker算法的處理正確率的對(duì)比結(jié)果見(jiàn)表1.通過(guò)對(duì)比測(cè)試結(jié)果,本文可以發(fā)現(xiàn)在Car、Singer、Walking這3個(gè)數(shù)據(jù)集中,傳統(tǒng)的L1-tracker和優(yōu)化L1-tracker(tracker2)幾乎沒(méi)有大的差別,這說(shuō)明本文的改動(dòng)不會(huì)破壞傳統(tǒng)L1-tracker本身具有的一些優(yōu)勢(shì),沒(méi)有降低追蹤效果,甚至還有部分的提升.而在Face數(shù)據(jù)集中,本文優(yōu)化的L1-tracker相對(duì)于傳統(tǒng)L1-tracker有了非常顯著的提升,幾乎將整體的正確率翻倍.綜上所述,通過(guò)對(duì)4個(gè)測(cè)試集處理結(jié)果的分析可以看出,本文的方法在不破壞傳統(tǒng)L1-tracker優(yōu)勢(shì)的基礎(chǔ)上,實(shí)現(xiàn)了進(jìn)一步的性能提升.
圖1 Car 測(cè)試結(jié)果對(duì)比
圖2 Singer 測(cè)試結(jié)果對(duì)比
圖3 Walking 測(cè)試結(jié)果對(duì)比
圖4 Face 測(cè)試結(jié)果對(duì)比
序列傳統(tǒng)L1-tracker優(yōu)化L1-trackerCar0.99670.9983Singer0.99520.9972Walking0.98000.9842Face0.29310.5727
通過(guò)對(duì)圖1的分析,可以發(fā)現(xiàn)在多數(shù)時(shí)刻,優(yōu)化L1-tracker算法比傳統(tǒng)L1-tracker算法的目標(biāo)中心矩差要小,也就說(shuō),在滿足基本追蹤要求的基礎(chǔ)上,優(yōu)化L1-tracker能夠更加準(zhǔn)確地進(jìn)行跟蹤.通過(guò)對(duì)圖1分析可以看出,雖然本文的優(yōu)化L1-tracker在總體數(shù)據(jù)上略微好一些.但在特定應(yīng)用場(chǎng)景上,即光亮噪聲特別嚴(yán)重的時(shí)候,由于優(yōu)化L1-tracker的近況模板會(huì)比較及時(shí)地進(jìn)行更新,所以會(huì)積累一部分的光噪信息,進(jìn)而影響識(shí)別.
在圖3的Walking數(shù)據(jù)集中,對(duì)于測(cè)試視頻在200幀左右時(shí),優(yōu)化、傳統(tǒng)的L1-tracker都出現(xiàn)了識(shí)別追蹤的偏移,此后各幀的跟蹤結(jié)果又回到了正常的追蹤水平上.這是因?yàn)樵赪alking測(cè)試視頻的200幀左右時(shí),本文追蹤的主要目標(biāo)被另外一個(gè)行人擋住了絕大部分.這樣的遮擋不可避免的會(huì)引起追蹤的偏移,而L1-tracker本身非常良好的遮擋識(shí)別使其在之后的圖像幀中,又能繼續(xù)識(shí)別和追蹤目標(biāo),而不是在遮擋的時(shí)候出現(xiàn)模板劣化,進(jìn)而導(dǎo)致無(wú)法繼續(xù)追蹤.本文提出的優(yōu)化L1-tracker一方面比傳統(tǒng)L1-tracker更先出現(xiàn)偏移,同時(shí)也更先回到正常的追蹤.通過(guò)結(jié)果分析,本文得到以下結(jié)論,一方面優(yōu)化L1-tracker會(huì)有更嚴(yán)格的遮擋判定,所以很快就檢查到了遮擋,允許大量使用點(diǎn)模板,進(jìn)而導(dǎo)致偏移很快就出現(xiàn);另一方面,近況模板也加速了檢測(cè)到一個(gè)合適的追蹤結(jié)果,所以能夠快速地回到正確追蹤的節(jié)奏中.
在圖4中,可以發(fā)現(xiàn)優(yōu)化L1-tracker在測(cè)試中出現(xiàn)壓倒性的優(yōu)勢(shì).在Face數(shù)據(jù)集中頻繁地出現(xiàn)目標(biāo)被遮擋和各種目標(biāo)形變,此時(shí)優(yōu)化L1-tracker具有更嚴(yán)格的遮擋判斷,避免了識(shí)別誤差的積累;同時(shí)由于近況模板的使用,可以使算法避免將目標(biāo)變化識(shí)別為遮擋,從而能夠及時(shí)地響應(yīng)形變,正確地更新模板.這樣在圖像受遮擋導(dǎo)致偏移之后,優(yōu)化L1-tracker能很快地重新回到正確的追蹤狀態(tài).相比之下,在大多數(shù)情況下,傳統(tǒng)的L1-tracker算法表現(xiàn)的性能較優(yōu)化L1-tracker算法差,同時(shí)傳統(tǒng)L1-tracker算法的曲線相對(duì)更加平滑(體現(xiàn)出錯(cuò)誤不斷積累的過(guò)程);而優(yōu)化L1-tracker的曲線不平滑(體現(xiàn)了L1-tracker對(duì)于追蹤狀態(tài)的不斷檢驗(yàn)),并能及時(shí)地采取正確地應(yīng)對(duì)策略.在總體的測(cè)試結(jié)果上也實(shí)現(xiàn)了大幅度地提升.
3.2 圖像對(duì)比分析
本文將一些圖像幀和追蹤到的圖像進(jìn)行直觀比較,通過(guò)視覺(jué)圖像對(duì)比,直觀地體現(xiàn)本文新策略的效果.在圖5, 6的各個(gè)子圖中,最左邊是初始標(biāo)定幀,其后分別是不同時(shí)刻的識(shí)別效果圖,方框選中的部分是L1-tracker的跟蹤結(jié)果.
圖5 優(yōu)化、傳統(tǒng)的L1-tracker在Face上的對(duì)比
圖6 測(cè)試集上的直觀追蹤圖像
在圖5中,本文對(duì)優(yōu)化、傳統(tǒng)的L1-tracker結(jié)果進(jìn)行了直觀地對(duì)比.在Face序列中,隨著大量遮擋的出現(xiàn)、使追蹤目標(biāo)交替變化出現(xiàn),這大大影響了跟蹤的準(zhǔn)確性.在圖5(b)中,傳統(tǒng)L1-tracker算法從目標(biāo)人的頭發(fā)生偏轉(zhuǎn)開(kāi)始,識(shí)別結(jié)果就出現(xiàn)了明顯地偏移;而在圖5(a)中,優(yōu)化L1-tracker(tracker-2)算法則能夠基本完成追蹤任務(wù),沒(méi)有出現(xiàn)明顯的偏差.尤其是在跟蹤的后期,雖然優(yōu)化L1-tracker的追蹤目標(biāo)框已經(jīng)變得相對(duì)很小,但是它的位置還是很準(zhǔn)確.這種對(duì)比說(shuō)明優(yōu)化L1-tracker算法應(yīng)對(duì)遮擋的能力較傳統(tǒng)L1-tracker算法有了極大地提升.
在圖6的測(cè)試圖像中,圖6(a)所示測(cè)試集Car的視頻主要是檢測(cè)光線變暗和位置變化帶來(lái)的目標(biāo)跟蹤問(wèn)題.圖6(b)所示測(cè)試集Singer的視頻則具有更強(qiáng)的光照,甚至能夠掩蓋目標(biāo)的輪廓.在這兩個(gè)測(cè)試集中,需要注意的是在光線變化時(shí),能否及時(shí)地更新模板響應(yīng)目標(biāo)的變化.在圖6 (a)中可以發(fā)現(xiàn)本文追蹤的目標(biāo)車輛,在入橋洞和出橋洞的時(shí)候都進(jìn)行了模板更新;入橋洞更新是響應(yīng)光影變化;但是出橋洞的更新原因,其實(shí)是容易被忽略的,因?yàn)槌龆吹臅r(shí)候似乎與入洞前的圖像一樣,一些尚未更新的模板似乎也能夠描述目標(biāo).但是其實(shí)Car的測(cè)試視頻中還是存在很強(qiáng)的光照影響,出洞后和入洞前,目標(biāo)車輛后玻璃的圖像都發(fā)生了很大變化,所以兩者都需要更新.通過(guò)對(duì)比,圖6 (b)部分則只在光變強(qiáng)的時(shí)候進(jìn)行了更新,在光變?nèi)醯臅r(shí)候沒(méi)有更新,這說(shuō)明尚未進(jìn)行更新的模板還能在光照變?nèi)踔罄^續(xù)識(shí)別追蹤目標(biāo).在兩個(gè)測(cè)試過(guò)程中,位置的變化都沒(méi)有影響到追蹤的正常進(jìn)行.
1)通過(guò)對(duì)基于粒子濾波算法框架和稀疏表示技術(shù)的L1-tracker算法進(jìn)行探討,完成了對(duì)傳統(tǒng)L1-tracker圖像追蹤算法的改進(jìn),提出了新的策略-拓展模板(近況模板和固定模板)來(lái)應(yīng)對(duì)圖像目標(biāo)追蹤中的目標(biāo)被遮擋和遮擋誤判等問(wèn)題.
2)在經(jīng)典圖像目標(biāo)追蹤測(cè)試集上,本文對(duì)改進(jìn)后的優(yōu)化L1-tracker算法和傳統(tǒng)L1-tracker算法進(jìn)行比較.對(duì)比實(shí)驗(yàn)數(shù)據(jù)有效地證明,加入的拓展模板在不破壞算法的原有優(yōu)勢(shì)的前提下,有效地提升了L1-tracker算法的精度和應(yīng)對(duì)遮擋問(wèn)題的能力.
[1] YILMAZ A, JAVED O, SHAH M. Object tracking: a survey[J]. ACM Computing Surveys, 2006, 38(4):1-45.
[2] LI Hanxi, SHEN Chunhua, SHI Qinfeng. Real-time visual tracking using compressive sensing[C]//Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2011: 1305-1312.
[3] JIA Xu. Visual tracking via adaptive structural local sparse appearance model[C]//Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Washington, DC: IEEE Computer Society, 2012: 1822-1829.
[4] ZHANG Tianzhu, GHANEM B, Liu Si, et al. Low-rank sparse learning for robust visual tracking[C]//Proceedings of the 12thEuropean conference on Computer Vision. Berlin, Heidelberg: Springer-Verlag, 2012: 470-484.
[5] ZHONG Wei. Robust object tracking via sparsity-based collaborative model[C]//Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Washington, DC: IEEE Computer Society, 2012:1838-1845.
[6] MEI Xue,LING Haibin. Robust visual tracking using1minimization[C]//Proceedings of the 12thInternational Conference on Computer Vision (ICCV). Kyoto: IEEE, 2009,1436-1443.
[7] LUCAS B D, KANADE T, et al. An iterative image registration technique with an application to stereo vision[C]// Proceedings of the 7thinternational joint conference on Artificial intelligence. San Francisco, CA : Morgan Kaufmann Publishers Inc, 1981:674-679.
[8] MEI Xue, LING Haibin. Robust visual tracking and vehicle classification via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(11):2259-2272.
[9] MEI Xue, LING Haibin, WU Yi, et al. Efficient minimum error bounded particle resampling L1-tracker with occlusion detection[J]. IEEE Transactions on Image Processing, 2013, 22(7) : 2661-2675 [10]ZHANG Kaihua,ZHANG Lei,YANG M H. Real-time compressive tracking[C]//Proceedings of the 12thEuropean conference on Computer Vision. Berlin, Heidelberg: Springer-Verlag, 2012: 864-877.
[11]BAO Chenglong, Wu Yi, Ling Haibin et al. Real time robust L1-tracker using accelerated proximal gradient approach[C]// Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Washington, DC: IEEE Computer Society, 2012:1830-1837.
[12]MEI Xue, LING Haibin, WU Yi, et al. Minimum error bounded efficient L1-tracker with occlusion detection[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Providence, RI: IEEE Xplore, 2011:1257-1264.
[13]KIM S J,KOH K,LUSTIG M,et al. An interior-point method for large-scale L1-regularized least squares[J].Journal of Selected Topics in Signal Processing, 2007, 1(4): 606-617.
[14]HAGER G D, BELHUMEUR P N. Efficient region tracking with parametric models of geometry and illumination[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(10): 1025-1039.
[15]KALAL Z, MATAS J, MIKOLAJCZYK K. P-N learning: Bootstrapping binary classifiers by structural constraints[C]// 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). San Francisco, CA: IEEE Computer Society, 2010: 49-56.
[16]KALAL Z, MIKOLAJCZYK K, MATAS J. Tracking-learning-detection[J]. IEEE Transactions on, Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422.
[17]EVERINGHAM M, Van GOOL L, WILLIAMS C K I, et al. Thepascal visual object classes (voc) challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303-338.
(編輯 張 紅)
Robust visual tracking based on expanded template
ZHANG Yongqiang, CHENG Dansong, WANG Jun, WU Rui, CHEN Jing, SHI Daming
(School of Computer Science and Technology, Harbin Institute of Technology, 150001 Harbin, China)
In video tracking applications, most algorithms often fail in such conditions as object occlusion, disappearance. To address this issue, an improved L1-tracker algorithm is proposed. Expanded templates (including the fixed template and the evolved template) are applied to improve the tracking accuracy and robustness.The fixed template keeps the original features of the target, and prevents the error introduced by false tracking result with the template update. The evolved template recording the latest tracking result is used to avoid massive use of trivial templates which will lead to the false recognition of occlusion. The experimental results on a number of standard data sets prove that the application of expended templates improves the ability of L1-tracker algorithm to deal with the occlusion problem.
image target tracking; sparse representation; L1-tracker; fixed template; evolved template
10.11918/j.issn.0367-6234.2016.04.011
2014-10-13.
國(guó)家自然科學(xué)基金 (61440025); 中國(guó)航天科技集團(tuán)公司哈爾濱工業(yè)大學(xué)聯(lián)合技術(shù)創(chuàng)新中心(CASC-HIT13-1004); 國(guó)防科工局重大專項(xiàng)(公開(kāi))(50-Y20A08-0508-15/16);國(guó)家博士后科學(xué)基金(20100480998).
張永強(qiáng)(1989—),男,博士研究生;
石大明(1971—),男,教授,博士生導(dǎo)師.
程丹松, cdsinhit@hit.edu.cn.
TP391
A
0367-6234(2016)04-0066-07