張麗娟,紀(jì) 峰,常 霞,李澤仁
?
遮擋情況下多尺度壓縮感知跟蹤
張麗娟,紀(jì) 峰,常 霞,李澤仁
(北方民族大學(xué)數(shù)學(xué)與信息科學(xué)學(xué)院,寧夏 銀川 750021)
針對現(xiàn)有在線學(xué)習(xí)跟蹤算法中目標(biāo)在線模型更新錯誤導(dǎo)致跟蹤漂移的問題,提出一種在線模型自適應(yīng)更新的目標(biāo)跟蹤算法:首先利用壓縮感知技術(shù)的高效性,對多尺度圖像特征進(jìn)行降維,并提取多尺度樣本來實現(xiàn)目標(biāo)尺度自適應(yīng)更新,再由提取的正負(fù)樣本低維圖像特征訓(xùn)練樸素貝葉斯分類器,利用分類器輸出置信度最大處目標(biāo)樣本完成目標(biāo)跟蹤,并依據(jù)當(dāng)前目標(biāo)置信度來自適應(yīng)在線模型更新速率,減少了遮擋帶來的目標(biāo)錯誤更新。實驗表明:該方法在尺度變化、局部和全局遮擋、光照變化等情況下均能完成魯棒跟蹤,平均跟蹤成功率較原始壓縮感知跟蹤算法提高了20.3%。
目標(biāo)跟蹤;在線學(xué)習(xí);壓縮感知
目標(biāo)跟蹤是當(dāng)前計算機視覺領(lǐng)域內(nèi)的一個重要研究方向,在視頻監(jiān)控、運動分析、目標(biāo)識別等方面得到了廣泛應(yīng)用[1],為了完成魯棒的目標(biāo)跟蹤任務(wù),目標(biāo)在線模型受到了廣泛關(guān)注,而基于目標(biāo)在線模型,當(dāng)前跟蹤算法可分為生成式跟蹤算法[2-4]和判別式跟蹤算法[5-8]。
生成式跟蹤算法通過提取目標(biāo)信息來完成目標(biāo)表示,然后利用在線學(xué)習(xí)到的目標(biāo)模型在當(dāng)前幀中基于最小重構(gòu)誤差完成目標(biāo)定位,但該類方法忽略了判別性較強的背景信息。判別式跟蹤算法將目標(biāo)跟蹤構(gòu)建為一個二元分類問題,同時提取目標(biāo)與背景信息來訓(xùn)練一個分類器,由分類器決定當(dāng)前幀目標(biāo)位置,因此也稱為基于檢測的跟蹤算法(tracking by detection)。Grabner等[5]提出了一種在線半監(jiān)督boosting跟蹤算法,利用未標(biāo)簽樣本克服了分類器錯誤更新而導(dǎo)致的跟蹤漂移問題;Babenko等[6]將多示例學(xué)習(xí)的思想引入目標(biāo)跟蹤,利用包含有正負(fù)樣本的“樣本袋”來代替單一樣本送入分類器訓(xùn)練,提高了分類器的判別能力;近來Kalal等[7]提出了一種結(jié)構(gòu)化約束準(zhǔn)則來提升分類器對正負(fù)樣本的選擇,提升了分類器的抗背景干擾能力。然而這類算法普遍復(fù)雜度較高,為此限制了它們的實時應(yīng)用。
文獻(xiàn)[8]在充分利用上述兩類算法的各自優(yōu)勢的基礎(chǔ)上,提出了一種實時跟蹤算法——壓縮感知跟蹤(Compressive Tracking,CT),通過建立一個隨機投影矩陣對多尺度圖像特征進(jìn)行降維,并通過樸素貝葉斯分類器進(jìn)行分類,其高效性引起了學(xué)者的廣泛關(guān)注:文獻(xiàn)[9]通過過飽和分塊提升了CT的抗局部遮擋能力,但計算復(fù)雜度也隨之增高;文獻(xiàn)[10]利用模板匹配策略提升了分類器的判別能力,文獻(xiàn)[11]用互補的多個矩陣代替CT中的投影矩陣。然而上述算法依然存在以下問題:第一,缺乏對目標(biāo)尺度的自適應(yīng)更新;第二,缺乏對遮擋的有效判斷,進(jìn)而導(dǎo)致目標(biāo)在線模型錯誤更新。
針對以上兩個問題,本文在利用壓縮感知理論提取圖像特征的高效性的基礎(chǔ)上,采取多尺度樣本來實現(xiàn)目標(biāo)尺度自適應(yīng)更新,在由分類器得到當(dāng)前幀目標(biāo)位置后,依據(jù)當(dāng)前目標(biāo)置信度來自適應(yīng)在線模型更新速率,減少了遮擋帶來的目標(biāo)錯誤更新,進(jìn)而能夠完成魯棒的跟蹤任務(wù)。
隨機投影矩陣是壓縮感知理論中的重要概念,其作用是將高維圖像特征壓縮成低維特征,如下式:
=(1)
式中:r~(0,1),在2或3之間隨機選擇,因此隨機投影矩陣中的大量元素為零,大大減少了計算量。
式中:和是矩形濾波器的寬和高;和是樣本窗口的寬和高。通過公式(1)高維特征將被壓縮成低維特征,文獻(xiàn)[8]中采取類Haar特征的加權(quán)組合并采取積分圖像加速,如圖1所示。
其中:
對所有采樣樣本計算其()值,選擇最大的候選樣本作為最終跟蹤結(jié)果,再在其周圍采樣新的正樣本,計算其特征值對公式(5)進(jìn)行更新:
式(6)中:1,1分別是正樣本圖像特征的均值和方差;為學(xué)習(xí)率,原始算法中固定為0.85。
從以上的分析可以發(fā)現(xiàn)CT算法存在兩大問題:一是式(3)中多尺度濾波器采用固定大小,一旦目標(biāo)尺度發(fā)生變化將無法提取到正確的特征信息;二是在線模型中采用固定學(xué)習(xí)速率,當(dāng)目標(biāo)受到遮擋或光照變化等因素影響時模型將產(chǎn)生更新錯誤。為此本文提出改進(jìn)策略:采取多尺度樣本來實現(xiàn)目標(biāo)尺度自適應(yīng)更新;依據(jù)當(dāng)前目標(biāo)置信度來自適應(yīng)在線模型更新速率。
CT算法式(3)中多尺度濾波器(即圖像特征)的位置和大小固定不變,當(dāng)目標(biāo)尺度發(fā)生變化時將不再適用,而為了自適應(yīng)目標(biāo)尺度變化,本文首先將圖像特征根據(jù)濾波器窗口大小歸一化,如下式:
圖1 隨機投影矩陣提取特征
0×中的每一個元素表示為0×(r,r,r,h),其中r、r、r、h分別代表矩形濾波器的位置、寬和高。在尺度下,R×的每一個元素則表示為((round(rs),(round(rs),(round(rs), (round(hs))。
從式(6)可以發(fā)現(xiàn)CT算法采用固定學(xué)習(xí)率更新在線模型,當(dāng)目標(biāo)受到遮擋或光照變化等因素影響時模型將產(chǎn)生更新錯誤,容易導(dǎo)致跟蹤漂移。實驗表明由分類器()得到的每一幀目標(biāo)置信度值是不一樣的,因此可以采用當(dāng)前幀目標(biāo)置信度值來決定式(6)中學(xué)習(xí)率的大小,如下式:
式中:H()代表第幀的目標(biāo)置信度值;max()代表當(dāng)前所有幀目標(biāo)置信度值中的最大值;代表第幀學(xué)習(xí)率的大小,當(dāng)目標(biāo)被局部遮擋或受光照變化影響時,目標(biāo)置信度值較小,所以取較小值,而當(dāng)H()<0時,則說明樣本被分類器判定為負(fù)樣本,當(dāng)前目標(biāo)處于被完全遮擋狀態(tài),學(xué)習(xí)率應(yīng)當(dāng)置為0,目標(biāo)在線模型不再更新。
實驗采用常見的具有3段不同挑戰(zhàn)性的視頻,并與原始CT算法[8]以及多示例學(xué)習(xí)MIL算法[6]進(jìn)行對比分析,實驗利用OpenCV2.4.9在VS2010上進(jìn)行調(diào)試。視頻主要特性如表1所示。
表1 實驗視頻的不同特性
分類器學(xué)習(xí)率初始化為1=0.85,搜索窗口半徑=25,正樣本采樣半徑=4,負(fù)樣本內(nèi)外采樣半徑=8和=30,尺度更新機制中=1.02,=1,也即尺度空間共3個尺度。
圖2 多尺度隨機投影矩陣
圖4顯示了本文算法的抗遮擋能力,Suv序列在第185幀左右目標(biāo)逐步被樹木遮擋,CT算法由于采用固定學(xué)習(xí)率不斷將錯誤信息更新到在線模型而逐漸丟失目標(biāo),MIL算法在第350幀左右目標(biāo)被遮擋后也出現(xiàn)了同樣的問題,而本文算法一旦判定完全遮擋則不再更新在線模型,全程完成了魯棒跟蹤任務(wù)。
表2 算法跟蹤成功率對比
圖5顯示了本文算法的抗光照變化能力,David序列中目標(biāo)從暗處走向亮處,且目標(biāo)多次出現(xiàn)形變,CT算法和MIL算法由于缺乏對目標(biāo)信息的有效判斷,跟蹤框逐漸偏移目標(biāo),而本文算法的全程魯棒跟蹤顯示了本文算法的抗光照變化能力。
圖3 視頻序列跟蹤誤差
Fig.3 Video sequence tracking error
圖4 Suv序列跟蹤結(jié)果
圖6顯示了本文算法的抗尺度變化能力,Car4序列中的目標(biāo)尺度越來越小,本文算法的多尺度機制能夠不斷捕捉到這種尺度變化,因此跟蹤框隨著目標(biāo)減小而減小,且能對目標(biāo)進(jìn)行很好的定位,而CT算法和MIL算法缺乏尺度更新機制在目標(biāo)從橋下走出時丟失了目標(biāo)。
針對現(xiàn)有在線學(xué)習(xí)跟蹤算法中存在的跟蹤漂移問題,本文在壓縮感知跟蹤算法的基礎(chǔ)上,采用在線模型自適應(yīng)更新機制以及目標(biāo)尺度自適應(yīng)更新機制,提出了一種簡單且高效的目標(biāo)跟蹤算法。三組不同挑戰(zhàn)性的實驗表明:本文方法在目標(biāo)被長時或短時遮擋、光照變化及尺度變化等情況下均能完成魯棒跟蹤,跟蹤成功率較原始壓縮感知算法提高了20.3%。
圖5 David序列跟蹤結(jié)果
圖6 Car4序列跟蹤結(jié)果
[1] Wu Y, Lim J, Yang M H. Online object tracking: a benchmark[C]//, 2013: 2411-2418(doi: 10.1109/CVPR.2013.312).
[2] Ross D, Lim J, Lin R, et al. Incremental learning for robust visual tracking[C]//, 2008, 77(1-3): 125-141.
[3] Mei X, Ling H. Robust visual tracking and vehicle classification via sparse representation[J]., 2011, 33(11): 2259-2272.
[4] Li H, Shen C, Shi Q. Real- time visual tracking using compressive sensing[C]//, 2011: 1305- 1312 (doi: http: //doi. ieeecomputersociety. org/ 10.1109/ CVPR. 2011. 5995483).
[5] Grabner H, Leistner C, Bischof H. Semi- supervised on-line boosting for robust tracking[C]//, 2008, Part I: 234-247.
[6] Babenko B, Yang M H, Belongie S. Robust object tracking with online multiple instance learning[J]., 2011, 33: 1619-1632.
[7] Kalal Z, Matas J, Mikolajczyk K. Tracking -learning-detection[J]., 2012, 34: 1409-1422.
[8] Zhang K H, Zhang L, Yang M H. Real time compressive tracking [C]//, 2012, 7574: 864 - 877.
[9] Zhu Qiuping, Yan Jia, Deng Dexiang. Compressive tracking via over- saturated sub-region classifiers[J]., 2013, 17(6): 448-455.
[10] Jing Jing, Xu Guangzhu, Lei Bangjun. Using appearance rematching to improve compressive tracking[C]//, 2013: 28-33(doi: 10.1145/ 2499788. 2499825).
[11] 朱秋平, 顏佳, 張虎, 等. 基于壓縮感知的多特征實時跟蹤[J]. 光學(xué)精密工程, 2013, 21(2): 437-444.
Zhu Qiuping, Yan Jia, Zhang Hu, et al. Real-time tracking using multiple features based on compressive sensing[J]., 2013, 21(2): 437-444.
Multi-scale Compression Perception Tracking under Occlusion
ZHANG Li-juan,JI feng,CHANG Xia,LI Ze-ren
(,750021,)
In order to deal with the drift problem by updating error in current online learning tracking algorithms, a new adaptive update tracking algorithm is proposed. First of all, based on the efficiency of compressed sensing, the multi-scale image feature space is decreased, and multi-scale samples are exacted to update the target scale. Secondly, a naive Bayes classifier is trained by low dimension image features from positive and negative samples. Experimental results show that the proposed algorithm can complete the robust tracking under the condition of scale changes, partial and full occlusion, illumination changes, etc. Tracking successful rate is improved by 20.3% compared with the original compressive tracking.
object tracking,online learning,compressive sensing
TP391
A
1001-8891(2015)12-1052-06
2015-07-20;
2015-10-05.
張麗娟,女,河北省滄州人。碩士研究生,主要研究方向為圖形圖像處理。E-mail:372160407@qq.com。
國家自然科學(xué)基金項目,編號:61440044,61102008,61462002,61163017;寧夏自然科學(xué)基金項目,編號:NZ13097,國家民委科研項目,編號:14BFZ003。