顧培婷 黃德天 柳培忠 黃煒欽 汪鴻翔
?
相關(guān)濾波目標(biāo)跟蹤算法研究*
顧培婷 黃德天 柳培忠 黃煒欽 汪鴻翔
華僑大學(xué)工學(xué)院
近年來(lái),相關(guān)濾波目標(biāo)跟蹤在視覺(jué)領(lǐng)域中受到了越來(lái)越多的關(guān)注,并取得了令人矚目的成果。該文對(duì)目前基于相關(guān)濾波的跟蹤算法進(jìn)行分析研究,首先提出了一個(gè)通用的相關(guān)濾波目標(biāo)跟蹤框架,然后討論幾種經(jīng)典的跟蹤算法,并對(duì)其改進(jìn)算法進(jìn)行分析歸類(lèi),主要分為尺度更新、背景遮擋;最后通過(guò)仿真實(shí)驗(yàn)對(duì)幾種算法性能進(jìn)行分析,并提出相關(guān)濾波跟蹤技術(shù)存在的問(wèn)題。
目標(biāo)跟蹤算法 相關(guān)濾波 尺度更新 背景遮擋 改進(jìn)算法
運(yùn)動(dòng)目標(biāo)跟蹤在計(jì)算機(jī)視覺(jué)領(lǐng)域中是最具挑戰(zhàn)的課題之一,廣泛應(yīng)用于監(jiān)控和機(jī)器人等領(lǐng)域。目標(biāo)跟蹤就是對(duì)視頻中給定的目標(biāo)進(jìn)行分析跟蹤,然后預(yù)測(cè)出跟蹤視頻中的目標(biāo)。由于受到各種環(huán)境影響,例如光照變化、遮擋、形變、旋轉(zhuǎn)、運(yùn)動(dòng)模糊等,設(shè)計(jì)出高效、魯棒性的目標(biāo)跟蹤仍然是一個(gè)難題。目前所面臨的挑戰(zhàn)可分為三類(lèi),分別是:目標(biāo)外觀變化、目標(biāo)尺度變化和部分或全部遮擋。造成目標(biāo)外觀變化的因素很多,如受到光照影響導(dǎo)致目標(biāo)的外觀信息發(fā)生變化;目標(biāo)的大小改變、形變等則導(dǎo)致目標(biāo)尺度變化。采用何種特征表示目標(biāo),及如何建立自適應(yīng)模型來(lái)解決這些問(wèn)題,是設(shè)計(jì)目標(biāo)跟蹤算法的關(guān)鍵。
經(jīng)過(guò)幾十年的研究,眾多學(xué)者已經(jīng)提出了各種算法來(lái)解決這些問(wèn)題,例如文獻(xiàn)[1]~[6]使用生成模型算法,而文獻(xiàn)[7]~[11]使用判別模型算法。生成模型方法就是學(xué)習(xí)目標(biāo)的外觀,然后在圖像中尋找最接近目標(biāo)的位置;判別模型則采用分類(lèi)器將目標(biāo)和背景分離,產(chǎn)生目標(biāo)和背景的判別模型,該方法同時(shí)關(guān)注目標(biāo)和背景,從而能更有效地識(shí)別目標(biāo)。相關(guān)濾波跟蹤器屬于判別模型方法,具有顯著的跟蹤成果,已經(jīng)得到廣大學(xué)者的關(guān)注。
總結(jié)研究相關(guān)濾波跟蹤算法對(duì)于未來(lái)的研究具有重要意義。相關(guān)濾波就是通過(guò)對(duì)感興趣的目標(biāo)區(qū)域產(chǎn)生峰值,而背景相反,從而得到目標(biāo)位置。Bolme等提出MOSSE算法[12],改變了目標(biāo)跟蹤的形勢(shì),該算法采用一個(gè)自適應(yīng)的訓(xùn)練框架,達(dá)到了高效、魯棒的跟蹤結(jié)果。之后,學(xué)者們?cè)贛OSSE基礎(chǔ)上相繼提出了許多改進(jìn),例如,Henriques等[13]將核函數(shù)引入MOSSE,Danelljan等[14]采用顏色屬性表示目標(biāo)特征。在解決尺度變化上,SAMF[15]、DSST[16]、KCF[17]等算法具有顯著的跟蹤結(jié)果。隨著越來(lái)越多的CFTS算法被提出,基于相關(guān)濾波的跟蹤方法表現(xiàn)了其突出的魯棒性、高效性,具有廣闊的發(fā)展前景。
為方便其他研究人員的后續(xù)研究,本文的主要目標(biāo)包括:對(duì)CFTs的總體框架進(jìn)行概述;描述幾種經(jīng)典的CFTs算法,并對(duì)基于CFTs的改進(jìn)算法進(jìn)行歸類(lèi),最后列出五種代表性的算法進(jìn)行性能比較,得出相關(guān)濾波跟蹤算法具有較高的魯棒性。
2.1 相關(guān)濾波器的跟蹤框架
根據(jù)現(xiàn)有的相關(guān)濾波跟蹤算法,通用的框架概述如下:首先,濾波器將選取第一幀給定的目標(biāo)位置的圖像塊,作為訓(xùn)練樣本。然后隨著每個(gè)時(shí)間步長(zhǎng),根據(jù)之前的圖像塊預(yù)測(cè)后續(xù)的位置,并用于檢測(cè)。接著,如圖1所示,從原始圖像中提取出各種特征,并且使用余弦窗平滑邊界效應(yīng)。再通過(guò)DFT離散傅里葉變換,快速學(xué)習(xí)分類(lèi)器。在實(shí)際中,DFT的一個(gè)向量是通過(guò)快速傅里葉變換(FFT)算法高效計(jì)算得到。同時(shí)空間的置信圖或響應(yīng)圖可以通過(guò)逆FFT獲得,響應(yīng)最大值的位置就是標(biāo)的位置。用數(shù)學(xué)方法來(lái)描述算法,令是輸入圖像,是相關(guān)濾波器。在實(shí)際中,是原始圖像塊或是提取的特征。︵是傅里葉變換。根據(jù)卷積定理,循環(huán)卷積等于頻域中逐元數(shù)相乘。公式(1)是和生成的置信圖。
濾波器的訓(xùn)練,首先確定輸出,目標(biāo)和濾波器,滿(mǎn)足:
因此,
(3)
在使用相關(guān)濾波器框架時(shí),需要處理好以下幾個(gè)問(wèn)題:首先,訓(xùn)練過(guò)程對(duì)CFTs至關(guān)重要,由于目標(biāo)外觀會(huì)不斷改變,濾波器需要自適應(yīng)的訓(xùn)練和更新,以適應(yīng)目標(biāo)的新外觀。第二,特征表示方法會(huì)影響跟蹤性能。盡管像素值可以直接用于檢測(cè),但是跟蹤過(guò)程中會(huì)受到各種噪聲影響。選取好的特征對(duì)跟蹤器至關(guān)重要。第三,由于相關(guān)濾波器的目標(biāo)跟蹤框是固定的,不能很好地解決目標(biāo)尺度發(fā)生變化的跟蹤,所以自適應(yīng)的更新目標(biāo)尺度是CFTs的另一個(gè)挑戰(zhàn)。因此,研究一種有效的尺度估計(jì)算法是有必要的。
圖1 相關(guān)濾波跟蹤框架
2.2 經(jīng)典算法
2.2.1 MOSSE算法
根據(jù)公式(2)和(3),一個(gè)簡(jiǎn)單的濾波器可以由樣本x和輸出響應(yīng)值y實(shí)現(xiàn)。然而,一個(gè)魯棒性的跟蹤算法需要訓(xùn)練很多樣本,上述框架遠(yuǎn)不能實(shí)現(xiàn)。因此,Bolme等提出MOSSE算法[12],采用最小輸出平方誤差和算法,對(duì)目標(biāo)外觀變化有較強(qiáng)的適應(yīng)性,因此,最小輸出平方誤差和算法可以用下式表示:
其中,i是訓(xùn)練圖像,最終公式(4)變?yōu)椋?/p>
(5)
詳細(xì)的公式推導(dǎo)可以查閱文獻(xiàn)[17]。一般情況下,輸出值y可以表現(xiàn)為任何形狀。MOSSE算法則生成一個(gè)2維的高斯分布,且其峰值在中心。若是將 Kronecker delta函數(shù)應(yīng)用于計(jì)算y,則目標(biāo)中心值為1,其余為0。所得的濾波器理論上是一個(gè)UMACE濾波器,因此UMACE是MOSSE的一種特殊情況。
2.2.2 KCF算法
文獻(xiàn)[12]和[34]證明了基于相關(guān)濾波器的跟蹤算法具有高效、魯棒的特點(diǎn)。然而,該算法還存在局限性,ASEF算法和MOSSE算法可以認(rèn)為是簡(jiǎn)單的線(xiàn)性分類(lèi),因此通過(guò)引入核函數(shù)可以處理非線(xiàn)性分類(lèi)問(wèn)題,使得相關(guān)濾波器性能更具有穩(wěn)健性。
目前已有一些基于核相關(guān)濾波的算法,例如文獻(xiàn)[18]~[20]。Henriques等提出KCF跟蹤算法[17,20]、最小二乘分類(lèi)器和循環(huán)矩陣進(jìn)行有效的核相關(guān)濾波。
2.2.2.1 正則化風(fēng)險(xiǎn)最小理論
假設(shè)給定一組訓(xùn)練樣本及其回歸值:{(1,1),(2,1),...,(x,y),...},其訓(xùn)練的最終目標(biāo)是找到一個(gè)函數(shù),使得如下殘差函數(shù)最小:
其中,λ是正則化參數(shù),上式的閉式解可以參考線(xiàn)性最小二乘的求解,得出如下:
(7)
如果按照常規(guī)求解式(7),由于矩陣的求逆計(jì)算復(fù)雜度高,影響計(jì)算時(shí)間。文獻(xiàn)[7]指出,在一定條件下,核矩陣K可轉(zhuǎn)換為循環(huán)矩陣,根據(jù)這一性質(zhì),將公式(7)轉(zhuǎn)化為:
(9)
2.2.2.2 循環(huán)矩陣
其中,第一行為向量u,第二行是經(jīng)過(guò)第一行向右循環(huán)移位1個(gè)元素得到的,依次類(lèi)推。
則公式(9)可轉(zhuǎn)換到DFT域,即:
2.2.2.3 目標(biāo)檢測(cè)
通過(guò)采用滑動(dòng)窗口的方式計(jì)算圖像塊z所有子窗口的響應(yīng),響應(yīng)最大的子窗口即為目標(biāo)的位置。分類(lèi)器的響應(yīng)為:
3.1 尺度更新
3.1.1 STC算法
K. Zhang等提出STC算法[21],利用時(shí)空上下文信息跟蹤目標(biāo),這可以看成是另一類(lèi)型的CFTs算法。時(shí)空上下文信息已經(jīng)被應(yīng)用于多種跟蹤算法中[22-24]。條件概率函數(shù)表示為:
(14)
式中,是歸一化參數(shù),鑒于高斯分布式的權(quán)重,更注重跟蹤目標(biāo)中心區(qū)域,所以上下文信息接近目標(biāo)中心,分配權(quán)重越大,反之權(quán)重越小。
算法的快速學(xué)習(xí)可定義為:
(17)
3.1.2 SAMF和DSST算法
一般的CFTs,如MOSSE和KCF,都是使用固定的跟蹤窗口,無(wú)法處理目標(biāo)尺度變化,針對(duì)這個(gè)問(wèn)題,學(xué)者們已提出許多算法。在SAMF[15]和DSST算法[16]中,提出了一種搜索策略應(yīng)用到估計(jì)目標(biāo)尺度。具體的、不同尺度的跟蹤窗構(gòu)成了樣本池,響應(yīng)最大值的跟蹤窗可以用來(lái)預(yù)測(cè)目標(biāo)位置。文獻(xiàn)[13]等提出了SAMF算法。即:假設(shè)窗口的尺度大小為,表示模板窗口大小,則,是尺度池的值,當(dāng)前的目標(biāo)窗口可以通過(guò)在采樣窗口集中搜索得到最大相關(guān)的窗口。SAMF中的值在[0.985,1.015]之間。
DSST的表示為:
兩個(gè)跟蹤算法的主要區(qū)別在于,SAMF一次處理一個(gè)窗口,而DSST采用3維相關(guān)濾波器來(lái)搜索最佳跟蹤窗尺度大小。與上述方法不同的是,有些算法通過(guò)基于分塊跟蹤解決尺度變化問(wèn)題。例如,文獻(xiàn)[25]采用用貝葉斯框架跟蹤目標(biāo)。文獻(xiàn)[26]提出統(tǒng)計(jì)方法,根據(jù)標(biāo)記和排序不同圖像塊之間的相對(duì)位置估計(jì)尺度變化。這些方法也取得了顯著的結(jié)果。其中,STC特有的估計(jì)尺度變化方法。尺度表示方法為:
(19)
(20)
3.1.3 其他算法
文獻(xiàn)[27]采用高斯窗代替余弦窗消除目標(biāo)邊界噪聲,同時(shí)引入關(guān)鍵點(diǎn)模型進(jìn)行尺度預(yù)測(cè)。尺度預(yù)測(cè)可以表示為:
文獻(xiàn)[28]通過(guò)投票方法解決尺度問(wèn)題,后驗(yàn)概率最大的就是所選尺度大小,然后采用多模板、多特征和非線(xiàn)性核進(jìn)行目標(biāo)跟蹤。多模板核相關(guān)濾波問(wèn)題可用下式表示:
(23)
3.2 背景遮擋
為了解決目標(biāo)遮擋問(wèn)題,研究者們已提出多種基于分塊跟蹤的算法。通常的,如果目標(biāo)被部分遮擋,即遮擋是從目標(biāo)的某個(gè)區(qū)域發(fā)生的,遮擋部分信息丟失,但是其他未被遮擋的部分未改變可以表示目標(biāo),只要正確跟蹤目標(biāo)未遮擋部分,就可以繼續(xù)跟蹤目標(biāo)。文獻(xiàn)[25]將目標(biāo)分解為5個(gè)子塊,使用KCF跟蹤器跟蹤每個(gè)子塊,再將子塊的分類(lèi)器置信值組合,得到聯(lián)合置信度。同時(shí)使用SCCM方法重新分配目標(biāo)權(quán)重值。然后,通過(guò)在貝葉斯框架內(nèi)使用聯(lián)合置信度推導(dǎo)出后驗(yàn)概率最大的候選目標(biāo)。文獻(xiàn)[26]利用本地信息基于KCF跟蹤算法跟蹤,該算法通過(guò)自動(dòng)選擇樣本塊作為算法的分塊部分,這個(gè)樣本塊是穩(wěn)定的。當(dāng)樣本塊不再可靠時(shí),將進(jìn)行重采樣,當(dāng)獲得可靠的樣本塊時(shí),可以通過(guò)Hough Voting-like方法預(yù)測(cè)目標(biāo)位置。文獻(xiàn)[29]提出一種新的在線(xiàn)更新策略來(lái)估計(jì)尺度,首先在目標(biāo)周?chē)杉幌盗卸喑叨葓D像塊,在提取特征前,采用雙線(xiàn)性插值法得到與第一幀目標(biāo)框尺度相同,再用分類(lèi)器訓(xùn)練得到一維的尺度KCF,然后尋找響應(yīng)最大值,實(shí)現(xiàn)尺度預(yù)測(cè)。
目標(biāo)跟蹤算法的優(yōu)劣可以從兩個(gè)方面考慮——魯棒性與實(shí)時(shí)性。由于視頻序列會(huì)受各種環(huán)境因素影響,例如復(fù)雜背景、運(yùn)動(dòng)目標(biāo)速度快、光照變化等,跟蹤過(guò)程中的高精度要求對(duì)算法的魯棒性造成很大困難。同時(shí),跟蹤過(guò)程中要控制圖像處理環(huán)節(jié),以提高跟蹤實(shí)效性。
本文采用跟蹤精度曲線(xiàn)圖來(lái)評(píng)價(jià)算法的優(yōu)劣程度。跟蹤精度曲線(xiàn)圖首先設(shè)定一個(gè)目標(biāo)估計(jì)位置與真實(shí)位置的閾值距離,在跟蹤過(guò)程中,統(tǒng)計(jì)跟蹤算法估計(jì)的目標(biāo)位置與真實(shí)位置的距離小于閾值范圍的幀數(shù),并計(jì)算幀數(shù)占整個(gè)視頻幀的百分比。用公式表示為:。
圖2為本文對(duì)STC[21]、CSK[13]、KCF[17]、CN2[14]、DSST[16]等五種相關(guān)濾波算法的性能進(jìn)行比較,本文使用文獻(xiàn)[30]提供的標(biāo)準(zhǔn)測(cè)試視頻序列進(jìn)行實(shí)驗(yàn)。表1為本文采用的視頻序列的數(shù)據(jù)信息。
表1 測(cè)試序列
Dark car??????????????????Deer
Shaking??????????????????Skating1
圖2 五種算法性能比較
從圖2可見(jiàn),閾值越低、精度值越高的跟蹤算法越好。五種算法對(duì)四種視頻序列跟蹤精度效果較好。KCF算法對(duì)光照變化跟蹤失敗,STC算法對(duì)目標(biāo)快速運(yùn)動(dòng)不敏感等跟蹤結(jié)果不佳,這些可以作為后續(xù)深入研究,但是總體上均有較高的魯棒性,且實(shí)時(shí)性高。在所有的跟蹤過(guò)程中,DSST和CN2的跟蹤效果較好。CSK算法在復(fù)雜背景、光照、姿態(tài)形變條件下,能在閾值為20時(shí)達(dá)到100%高距離精度,但是針對(duì)快速運(yùn)動(dòng)的目標(biāo)跟蹤效果略差。KCF算法對(duì)光照變化不敏感,但在其他條件下跟蹤效果較佳,具有較強(qiáng)的魯棒性。對(duì)于尺度、光照、姿態(tài)變化,DSST算法和CN2算法在閾值為20時(shí)能達(dá)到100%的跟蹤精度,具有很高的跟蹤精度。總的來(lái)說(shuō),在復(fù)雜背景和姿態(tài)變化方面,相關(guān)濾波跟蹤算法均能達(dá)到較好的跟蹤結(jié)果。
本文對(duì)國(guó)內(nèi)外基于相關(guān)濾波的跟蹤算法進(jìn)行研究和總結(jié),雖然已有的跟蹤算法有顯著的跟蹤效果,但是仍然存在許多問(wèn)題需要解決,主要有:
(1)尺度變化。盡管已有很多算法在相關(guān)濾波上提出改進(jìn)尺度變化,但是還沒(méi)能完全適用全部視頻序列,所以在這方向的研究還有待深入改善。
(2)完全遮擋最具挑戰(zhàn)。當(dāng)目標(biāo)全部被遮擋、無(wú)法獲取目標(biāo)信息時(shí),只能通過(guò)先驗(yàn)信息預(yù)測(cè)目標(biāo)軌跡,但是這種方法具有不穩(wěn)定性;當(dāng)目標(biāo)的運(yùn)動(dòng)狀態(tài)改變較大時(shí),預(yù)測(cè)位置就會(huì)有很大偏差,可能導(dǎo)致跟蹤結(jié)果不精確。
(3)目標(biāo)形變?nèi)允菃?wèn)題。當(dāng)目標(biāo)發(fā)生較大形變時(shí),由于相關(guān)濾波跟蹤器跟蹤框固定,無(wú)法實(shí)時(shí)跟蹤上目標(biāo)。例如跳水運(yùn)動(dòng)員、籃球隊(duì)員等,設(shè)計(jì)一個(gè)解決目標(biāo)形變、魯棒的目標(biāo)跟蹤算法將是一個(gè)值得關(guān)注的方向。
綜上所述,盡管研究者已經(jīng)提出很多相關(guān)的濾波跟蹤算法,但并不是適用于所有場(chǎng)合的跟蹤,具有一定的局限性,完整的跟蹤框架還有待研究。因此,設(shè)計(jì)一個(gè)高效、魯棒、完善的相關(guān)濾波跟蹤算法仍是視覺(jué)領(lǐng)域的研究熱點(diǎn)。
[1] Kwon J, Lee K M. Tracking by Sampling Trackers[C]// International Conference on Computer Vision. IEEE Computer Society, 2011:1195-1202.
[2] Sevillalara L. Distribution fields for tracking[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2012:1910-1917.
[3] Ahuja N. Robust visual tracking via multi-task sparse learning[C]// IEEE Conference on Computer Vision & Pattern Recognition, 2012:2042-2049.
[4] LIU T, WANG G, WANG L, et al. Visual Tracking via Temporally Smooth Sparse Coding[J]. Signal Processing Letters IEEE, 2015, 22(9):1452-1456.
[5] Belagiannis V, Schubert F, Navab N, et al. Segmentation Based Particle Filtering for Real-Time 2D Object Tracking[C]// European Conference on Computer Vision. 2012:842-855.
[6] Kwak S, Nam W, Han B, et al. Learning occlusion with likelihoods for visual tracking[C]// IEEE International Conference on Computer Vision. 2011:1551-1558.
[7] Hare S, Saffari A, Torr P H S. Struck: Structured output tracking with kernels[C]// IEEE International Conference on Computer Vision, 2011: 263-270.
[8] Lucey S. Enforcing non-positive weights for stable support vector tracking[C]// IEEE Conference on Computer Vision & Pattern Recognition. 2008:1-8.
[9] Wang X, Hua G, Han T X. Discriminative Tracking by Metric Learning[C]// Computer Vision - ECCV 2010, 11th European Conference on Computer Vision, Heraklion, Crete, Greece, September 5-11, 2010, Proceedings, Part III. 2010:200-214.
[10] Kalal Z, Matas J, Mikolajczyk K. P-N learning: Bootstrapping binary classifiers by structural constraints[C]// Cvpr, IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE Computer Society Conference on Computer Vision and Pattern Recognition. 2010:49-56.
[11] Zhang K, Zhang L, Yang M H. Real-time compressive tracking[C]// European Conference on Computer Vision. Springer-Verlag, 2012:864-877.
[12] D. S. Bolme, J. R. Beveridge, B. A. Draper, et al. Visual object tracking using adaptive correlation filters[C]// IEEE Conference on Computer Vision & Pattern Recognition, 2010, 119(5):2544-2550.
[13] Henriques J F, Rui C, Martins P, et al. Exploiting the Circulant Structure of Tracking-by-Detection with Kernels[M]// Computer Vision – ECCV 2012. Springer Berlin Heidelberg, 2012:702-715.
[14] Danelljan M, Khan F S, Felsberg M, et al. Adaptive Color Attributes for Real-Time Visual Tracking[C]// Computer Vision and Pattern Recognition. IEEE, 2014:1090-1097.
[15] Li Y, Zhu J. A Scale Adaptive Kernel Correlation Filter Tracker with Feature Integration[M]// Computer Vision - ECCV 2014 Workshops. Springer International Publishing, 2014:254-265.
[16] Danelljan M, H?ger G, Khan F, et al. Accurate Scale Estimation for Robust Visual Tracking[J]. Center for Medical Image Science & Visualization, 2015.
[17] Henriques J F, Caseiro R, Martins P, et al. High-Speed Tracking with Kernelized Correlation Filters[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015, 37(3):583-596.
[18] R?ning J. Fast FFT-based distortion-invariant kernel filters for general object recognition[J]. Proc Spie, 2009, 7252:725202-725202-18.
[19] Casasent D. Analysis of kernel distortion-invariant filters[C]// Optics East 2007. International Society for Optics and Photonics, 2010:67640Y.1- 67640Y.14.
[20] Jeong K H, Pokharel P P, Xu J W, et al. Kernel Based Synthetic Discriminant Function for Object Recognition[C]// IEEE International Conference on Acoustics, Speech, & Signal Processing. 2006:V-V.
[21] Zhang K, Zhang L, Liu Q, et al. Fast Visual Tracking via Dense Spatio-temporal Context Learning[M]// Computer Vision – ECCV 2014. Springer International Publishing, 2014:127-141.
[22] Dinh T B, Vo N, Medioni G. Context tracker: Exploring supporters and distracters in unconstrained environments[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2011:1177-1184.
[23] Grabner H, Matas J, Gool L V, et al. Tracking the invisible: Learning where the object might be[C]// IEEE Conference on Computer Vision & Pattern Recognition. 2010:1285-1292.
[24] Longyin Wen, Zhaowei Cai, Zhen Lei, et al. Online Spatio-temporal Structural Context Learning for Visual Tracking[C]// European Conference on Computer Vision. 2012:716-729.
[25] Liu T, Wang G, Yang Q. Real-time part-based visual tracking via adaptive correlation filters[C]// Computer Vision and Pattern Recognition. IEEE, 2015:4902-4912.
[26] Li Y, Zhu J, Hoi S C H. Reliable Patch Trackers: Robust visual tracking by exploiting reliable patches[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2015:353-361.
[27] A. S. Montero, J. Lang, R. Laganière. Scalable Kernel Correlation Filter with Sparse Feature Integration[C]// 2015 IEEE International Conference on Computer Vision Workshop (ICCVW). IEEE Computer Society, 2015:587-594.
[28] Bibi A, Ghanem B. Multi-template Scale-Adaptive Kernelized Correlation Filters[C]// IEEE International Conference on Computer Vision Workshop. IEEE, 2015:613-620.
[29] 張雷,王延杰,劉艷瀅, 等. 基于相關(guān)濾波器的視覺(jué)目標(biāo)跟蹤方法[J].光電子·激光,2015(7): 1349-1357.
[30] Yi Wu,Jongwoo Lim.Online Object Tracking: A Benchmark.In CVPR,2013.
華僑大學(xué)研究生科研創(chuàng)新能力培育計(jì)劃資助項(xiàng)目。