李紅軍 趙明莉 母方欣
關(guān)鍵詞: 半監(jiān)督學(xué)習(xí); 目標(biāo)跟蹤; 增量線性判別分析; 置信度; 分類面; 狀態(tài)估計
中圖分類號: TN911.73?34 ? ? ? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)識碼: A ? ? ? ? ? ? ? ? ? ? ? ?文章編號: 1004?373X(2019)03?0052?04
Abstract: A linear discriminate analysis method based on semi?supervised learning is proposed for object tracking. According to the few object image and background image samples, the incremental linear discriminate analysis is used to find the classification plane with maximum labeled sample classification interval. The current frame is sampled to acquire a large number of unlabeled image samples, and the samples are projected into subspace. The semi?supervised learning is used to modify the classification plane. The nearest object which is farthest away the background in candidate objects is selected as the target to estimate the state of current frame. The object image and background image samples with high confidence are selected from classification results to add them into the training set. The object image and background image samples with low confidence are deleted in training set, and the bases of projected subspace are updated. The experimental results show that the proposed method can adapt to various changes of object perfectly, and acquire better results than the method based on supervised learning.
Keywords: semi?supervised learning; object tracking; incremental linear discriminate analysis; confidence; classification plane; state estimation
目標(biāo)跟蹤是計算機視覺的一個重要組成部分,廣泛應(yīng)用于民用和軍用領(lǐng)域,如智能視頻監(jiān)控、視頻檢索、人機交互、戰(zhàn)場監(jiān)控等,越來越多地吸引了眾多研究人員及團體的關(guān)注。
基于分類的跟蹤是尋找一個目標(biāo)和背景之間的最優(yōu)分類面,從而在圖像序列中跟蹤目標(biāo),如圖1所示。與模板匹配的不同之處在于,基于分類的跟蹤不僅考慮目標(biāo),還考慮背景信息。Lin等利用Fisher線性判別函數(shù)在子空間中對目標(biāo)區(qū)域和背景區(qū)域分類,取得了比較好的結(jié)果,Nguyen等也采用Fisher線性判別函數(shù)來分類,不同之處在于前者選用的全局特征,而后者選用局部特征。由于Fisher線性判別函數(shù)最優(yōu)的前提條件是目標(biāo)和背景都是等方差單高斯分布,而在實際中很難滿足這個假設(shè)。針對這個問題,將目標(biāo)和背景分布嵌入到圖模型中[1],解決背景多模態(tài)的問題,然而這種方法需要對每一幀圖像建立圖模型,而且這種方法屬于自學(xué)習(xí)的方法,分類結(jié)果誤差的積累將會導(dǎo)致跟蹤任務(wù)的失敗。
傳統(tǒng)基于監(jiān)督學(xué)習(xí)的方法需要大量標(biāo)注的樣本,在實際應(yīng)用中,一般很難獲得完備的訓(xùn)練集[2],但可以獲得大量未標(biāo)注的樣本。針對目標(biāo)和背景變化以及模板漂移的問題,本文提出一種基于半監(jiān)督學(xué)習(xí)的判別方法用于目標(biāo)跟蹤。如圖1所示,半監(jiān)督學(xué)習(xí)就是同時利用標(biāo)注樣本和未標(biāo)注樣本,從而獲得更好的分類器。在這些候選目標(biāo)中找到離目標(biāo)最近、離背景最遠(yuǎn)的目標(biāo),作為目標(biāo)在當(dāng)前幀的狀態(tài)估計。同時,挑選置信度高的目標(biāo)圖像和背景圖像樣本加入到訓(xùn)練集中,刪除訓(xùn)練集中置信度低的目標(biāo)圖像和背景圖像樣本,并更新投影子空間的基。
為了測試上述跟蹤算法的有效性,采用真實視頻序列進(jìn)行測試。在實驗中,目標(biāo)的初始狀態(tài)是手動標(biāo)注的,采樣粒子數(shù)均設(shè)為600,此外,將本文提出方法和文獻(xiàn)[7]提出的基于監(jiān)督學(xué)習(xí)的方法進(jìn)行對比實驗。
在視頻序列“dudek”上進(jìn)行實驗,狀態(tài)各參數(shù)的方差為[52,52,0.012,0.022,0.002 2,0.001 2]。在這個視頻中,目標(biāo)在角度和尺度上都有大的變化,而且有嚴(yán)重遮擋發(fā)生。跟蹤結(jié)果如圖5所示,從中可知,目標(biāo)在角度和尺度發(fā)生大的變化以及發(fā)生嚴(yán)重的遮擋時,基于自學(xué)習(xí)的方法發(fā)生嚴(yán)重的遮擋仍然將跟蹤結(jié)果作為正樣本加入到訓(xùn)練集中,導(dǎo)致目標(biāo)中心嚴(yán)重偏離真實的目標(biāo)中心,這種誤差將會隨著跟蹤的執(zhí)行而不斷積累,最終導(dǎo)致任務(wù)失敗。而本文提出的方法利用未標(biāo)記的樣本修正分類面,而且不斷更新訓(xùn)練集,用置信度高的樣本取代置信度低的樣本,可以較好地處理這種情形。跟蹤結(jié)果的平方根誤差如圖6所示,由結(jié)果可以看出,本文提出的基于半監(jiān)督線性判別分析的方法可以很好地適應(yīng)目標(biāo)的各種變化,并且跟蹤誤差要小于文獻(xiàn)[7]中的方法。
本文提出一種基于半監(jiān)督學(xué)習(xí)的線性判別方法用于目標(biāo)跟蹤。用含有隱含變量的一階馬爾科夫模型來描述運動目標(biāo)的跟蹤過程。通過粒子濾波在當(dāng)前圖像中采樣,獲得大量候選目標(biāo)。將跟蹤問題作為一個半監(jiān)督學(xué)習(xí)來處理,半監(jiān)督學(xué)習(xí)同時利用標(biāo)注樣本和未標(biāo)注樣本,標(biāo)記樣本用來最大化不同類別之間的分類間隔,未標(biāo)記樣本用來逼近數(shù)據(jù)的內(nèi)部結(jié)構(gòu),從而獲得好的分類結(jié)果。然而跟蹤是一個在線過程,很難獲得完備的訓(xùn)練數(shù)據(jù),本文在分類結(jié)果中挑選置信度高的目標(biāo)圖像和背景圖像樣本加入到訓(xùn)練集中,刪除訓(xùn)練集中置信度低的目標(biāo)圖像和背景圖像樣本,并更新投影子空間的基。通過視頻序列對本文提出的方法進(jìn)行測試,實驗結(jié)果表明,本文提出的方法可以很好地適應(yīng)目標(biāo)的各種變化,并獲得比基于監(jiān)督學(xué)習(xí)方法更好的效果。
參考文獻(xiàn)
[1] 楊曉偉,趙海軍.自動目標(biāo)識別與機動目標(biāo)建模及跟蹤方法研究[J].電子科技,2017,30(10):127?130.
YANG Xiaowei, ZHAO Haijun. Research on automatic target recognition and maneuvering target modeling and tracking [J]. Journal of electronic science and technology, 2017, 30(10): 127?130.
[2] 朱文青,劉艷,卞樂,等.基于生成式模型的目標(biāo)跟蹤方式綜述[J].微處理機,2017(1):41?47.
ZHU Wenqing, LIY Yan, BIAN Le, et al. Survey on object tracking method base on generative model [J]. Microprocessors, 2017(1): 41?47.
[3] 王蘋,張磊,吳澤民,等.視頻目標(biāo)跟蹤典型算法比較與分析[J].電視技術(shù),2015,39(23):79?84.
WANG Ping, ZHANG Lei, WU Zemin, et al. Comparison and analysis of state?of?the?art visual object tracking algorithms [J]. Video engineering, 2015, 39(23): 79?84.
[4] 吳建寧,徐海東,凌云,等.基于塊稀疏貝葉斯學(xué)習(xí)的人體運動模式識別[J].計算機應(yīng)用,2016,36(4):1039?1044.
WU Jianning, XU Haidong, LING Yun, et al. Human activity pattern recognition based on block sparse Bayesian learning [J]. Journal of computer applications, 2016, 36(4): 1039?1044.
[5] 張汝云,許明艷,江濤.一種基于隱馬爾科夫模型的目標(biāo)軌跡跟蹤算法[J].計算機應(yīng)用研究,2013,30(5):1455?1470.
ZHANG Ruyun, XU Mingyan, JIANG Tao. Partial CSI based affinity propagation dynamic clustering algorithm [J]. Application research of computers, 2013, 30(5): 1455?1470.
[6] AKARM ?B, ?MARC ?P, ?DUC A T. A study on human activity recognition using accelerometer data from smart phones [J]. Procedia computer science, 2014, 34: 450?457.
[7] ZHANG X, HU W, MAYBANK S, et al. Graph based discri?minative learning for robust and efficient object tracking [C]// 2007 IEEE the 11th International Conference on Computer Vision. Rio de Janeiro, Brazil: IEEE, 2007: 1?8.