謝維信 趙 田
(深圳大學ATR國防科技重點實驗室, 廣東深圳 518060)
隨著目標跟蹤相應的算法不斷地進步,在計算機視覺領域引起越來越廣泛的關注和研究[1-2]。目標跟蹤算法涵蓋了圖像處理、機器學習和模式識別等方面的技術,在人機交互、軍事制導、智能監(jiān)控以及智能交通等領域的應用越來越廣泛[3]。但在現(xiàn)實場景中的復雜情況使得目標跟蹤的效果受到一定的影響。這些影響因素主要包括光照、運動模糊、形變、遮擋、尺度變化、快速運動和相似背景干擾等。如何在復雜的背景環(huán)境下提高算法的跟蹤精度和穩(wěn)定性成為目標跟蹤研究領域的重點研究內容。
根據不同的觀測模型可以將跟蹤算法分成兩大類模型,分別是生成式模型和判別式模型。生成式模型只是針對目標的外觀特征進行建模,因此在處理目標被遮擋和目標快速運動等問題時,跟蹤效果不是很理想。目前比較流行的是判別式模型,判別式模型將目標跟蹤問題轉化成二分類問題,用分類實現(xiàn)目標的定位,通過辨別特征差異,對前景和背景進行有效區(qū)分,從而將背景和跟蹤目標區(qū)分開。兩種模型進行對比判別式模型的跟蹤效果更穩(wěn)定,穩(wěn)定性更強。
近年來,依據判別式模型的相關濾波(Correlation Filter)算法發(fā)展越來越廣泛[4]。相關濾波在2010年初次被應用在跟蹤領域,Bolme等提出了最小均方誤差濾波器MOSSE(Minimum Output Sum of Squared Error)相關濾波器[5],在該算法中依據樣本圖像對目標外觀進行建模,大幅度提高了目標跟蹤的速度和準確度。針對訓練樣本不足的問題,Henriques等人[6]在2012年提出了核循環(huán)結構跟蹤算法CSK(Circulant Structure of Tracking-by-detection with Kernels),在該算法中通過循環(huán)移位進行密集采樣,使得整張圖片的信息得到充分的利用。并結合FFT(Fast Fourier Transform)進行分類器的快速訓練,極大地提高了算法的性能。2014年Henriques等[7]在CSK的基礎上提出核相關濾波算法KCF(Kernel Correlation Filter),該算法將多通道的HOG特征[8]作為選取的目標特征,大大提高了濾波器的判別能力;通過核函數(shù)將線性空間的零回歸問題映射到非線性空間,使得樣本分類速度在高維特征空間中得到提高。同年,文獻[9]提出用顏色空間CN(Color Name)[10]替換CSK中的灰度特征,并采用PCA(Principal Component Analysis)降維[11]的方式,將特征空間中的冗余信息去除,有效的提升算法的實時性。Danelljan等提出了多尺度空間濾波跟蹤算法DSST[12](Discriminative Scale Space Tracker),該算法以MOSSE算法為基礎,提取HOG特征,構建三維濾波器,其中分為一維尺度濾波器和二維位置濾波器。該算法能夠很好的適應目標的尺寸變化,尺度濾波器具有很好的移植性。SRDCF算法的提出有效的解決循環(huán)移位產生的邊界效應[13]問題。
特征的選擇和提取是目標跟蹤算法中的重要部分,選取特征的優(yōu)劣對跟蹤器的精度和魯棒性起著非常重大的作用。隨著近些年人們對特征提取的越來越豐富,涌現(xiàn)出許多把多種特征進行融合的算法。Li等[14]提出了多特征尺度自適應濾波器SAMF(Scale Adaptive Multiple Feature),該算法在特征層面上把梯度特征HOG、灰度特征和CN特征進行串聯(lián),從而得到多特征的融合特征,相比較于單特征的目標跟蹤算法,在跟蹤精度和魯棒性上得到很大提升;但跟蹤速度上效果欠佳。Bertinetto等[15]提出互補學習相關濾波器Staple,HOG特征在目標形變是穩(wěn)定性差,但是對光照變化具有魯棒性;CN特征對光照變化敏感,但對物體形變和快速運動的跟蹤穩(wěn)定性十分出色,因此該方法將HOG特征和CN特征進行互補融合,從而有效的提高了跟蹤的精度。文獻[16]提出對不同特征按照特征響應圖的可信度來分配權重,通過求得FHOG特征和LBP(Local Binary Pattern)特征[17]的特征響應圖,之后進行自適應加權融合,對目標部分遮擋、尺度變化等多種問題具有較好的穩(wěn)定性和準確率。
雖然以上基于相關濾波的算法都已經取得了不錯的跟蹤效果,但還存在因光照變化、尺度變化、運動模糊和目標遮擋等導致跟蹤過程中出現(xiàn)不同程度的跟蹤漂移,甚至是跟丟目標的問題。在跟蹤速度能夠滿足實時性要求的情況下,本文提出一種多特征自適應融合的跟蹤算法。本文算法將梯度特征HOG、灰度特征和CN特征作為本算法提取特征。首先分析三種不同特征的跟蹤性能表現(xiàn),在特征層面上把CN特征、GRAY特征融合成顏色特征矩陣。隨后在決策層面對顏色特征和HOG特征分別進行訓練,訓練得到兩組獨立的相關濾波器,之后在決策層面把訓練所得到的兩種濾波器的響應值分配不同的權重,通過線性加權的運算得到多個具有不同偏向的特征值,選取得分值最高的融合特征作為跟蹤特征,保障了跟蹤效果的準確性;引入遮擋判別策略和目標重定位機制,實現(xiàn)對目標遮擋的有效識別,抑制跟蹤漂移。在標準數(shù)據集OTB50[18]和OTB100[19]上進行實驗,并和近年來一些流行跟蹤方法進行對比,結果表明,本文所用算法具有更高的有效性和穩(wěn)定性。
MOOSE相關算法主要思想是通過卷積濾波方法將時域卷積變換成頻域乘法,為了實現(xiàn)算法運算速度的提升,加入快速傅里葉變換進行快速計算。所對應的公式如下:
f(x,y)?h(x,y)?F(u,ν)⊙H(u,ν)
(1)
式中:?是卷積符號,表示兩個函數(shù)在空間上的卷積,⊙表示兩個矩陣中對應元素的乘積。
在目標跟蹤算法中,卷積濾波的核心思想是把輸入圖像和相應的濾波器進行卷積運算,輸出結果得到陡峭的兩維高斯分布圖形,恰好峰值正處在輸入圖像的中心位置,最高峰值位置就是目標的中心位置[20],因此在后續(xù)的跟蹤過程中就可以通過判斷卷積濾波后的峰值位置來定位每一幀圖像目標的跟蹤位置。
圖1 卷積濾波過程Fig.1 Convolution filtering process
MOSSE算法選取灰度特征提取樣本fi,…,ft,經過濾波后的結果為gi,…,gt,其所在對應的時刻所得到的濾波器ht應滿足最小均方誤差和:
(2)
圖像的尺寸大小為M×N,等式的左邊是空間域方程,根據Parseval定理[21]導出等式右邊。由此,可以得到求解上式最小值得方程式:
(3)
式中,分子和分母根據樣本fi并加入一定的權重進行更新。對于下一幀尺寸大小為M×N的樣本Z,得到的相關值y表示為:
(4)
y取得最大值所在位置就是樣本Z中目標的位置。
MOSSE算法結構簡單,利用相關濾波思想,提高了算法的跟蹤精度。然而,算法僅僅使用了灰度特征,對一些復雜的背景、目標形變以及尺度變化跟蹤效果不是很理想。
DSST目標跟蹤算法是由MOSSE算法改進的,將特征由一維的灰度特征改為多維的HOG特征,大大提高了跟蹤的效果。在DSST算法中包含兩個濾波器,分別是位置濾波器和尺度濾波器,用來分別預測目標的尺度和位置。FDSST算法[22]是在DSST算法的基礎上,對濾波后的數(shù)據進行插值和維數(shù)的壓縮,達到提升算法跟蹤速度的效果。
首先,該算法根據選定目標的第一幀f,用循環(huán)矩陣算法生成一系列的樣本,通過樣本訓練得到最優(yōu)的濾波器,用來估計下一幀目標的位置所在。該算法把梯度特征HOG作為該算法采用的特征,針對目標提取d維特征,fl,其中l(wèi)∈{1,2,…,d},代表的第l通道特征,f(n)∈Rd。每個通道都有所對應的濾波器hl。得到的樣本輸出g為期望中的以正樣本為中心的二維高斯函數(shù)。對應的目標函數(shù)方程式表示為:
(5)
式中:*表示循環(huán)相關,λ為引入的正則項系數(shù),防止分母項為零和避免濾波器過擬合。
為加速運算,用Parseval公式將運算轉換到復頻域進行運算求解得到濾波器為:
(6)
將按照時間順序的每一幀加入對濾波器的訓練中,根據每幀的訓練結果決定模型更新與否。為了確保每個通道的濾波器hl都有很強的魯棒性,對濾波器模型采用如下策略更新:
(7)
(8)
Sscale=σn×P×σn×R
(9)
其中:σ是尺度系數(shù),Sscale為尺度響應。在尺度濾波過程中,通過對17維的特征進行插值得到33維響應向量,判定響應值最大的尺度作為選取的最合適尺度。
本文是在FDSST的算法框架上進行改進的。目標的特征選擇對目標跟蹤成功與否取著決定性作用,本文采用HOG、CN和灰度特征,通過設置不同的融合因子,得到五種不同權重組合的融合特征,通過選取最大響應值判斷出最優(yōu)融合特征;加入遮擋判斷策略和目標重定位機制,提高了算法的抗遮擋能力,防止跟蹤過程中發(fā)生漂移現(xiàn)象,有效地提高了跟蹤的穩(wěn)定性和準確性。
HOG特征是對圖像局部特征的表現(xiàn),CN特征是對圖像全局特征的描述,局部特征HOG對光照的變化不敏感,但對目標的快速移動和程度比較大的形變比較敏感;CN特征對形變和快速移動有很好的魯棒性。但在灰度圖像中,灰度特征對目標的判定效果要比CN特征好,所以在本文中,首先對圖像進行判斷,如果輸入圖像為灰度圖像,就只提取圖像的灰度特征和HOG,不對CN特征進行提取;如果圖像為彩色圖像,則分別對圖像的三類特征進行提取,隨后把灰度特征和CN特征在特征層面融合在一起,稱為顏色特征。其表示為:
(10)
式中:Ugray代表所提取的灰度特征,UCN表示CN特征,Ucl表示兩種特征在特征層面上的融合。cat()函數(shù)用于構造多維矩陣。
之后分別計算HOG特征fhog和顏色特征fcl的響應圖,通過線性加權的方式對兩種響應在決策層面進行融合,得到融合響應。
F=τFhog+(1-τ)Fcl
(11)
式中:Fhog和Fcl分別是兩種特征的得分響應函數(shù);τ為融合因子。最終得到融合特征的響應F。
在跟蹤過程中,目標和背景都在發(fā)生一定的變化,如果設定融合特征偏向為某一固定值,則沒有應對不斷變化的目標和背景的選擇適應能力。因此本文通過設定幾種不同的融合因子,得到不同程度的偏向,可以有效地應對目標和背景的變化,并增強了對不同跟蹤場景的適應能力。經過大量實驗論證,選出五種使本文算法跟蹤效果最優(yōu)的融合因子,如表1所示。
表1 融合因子分配方式
根據表1的融合因子,得到五種不同的融合響應值F={F1,F2,F3,F4,F5},并采用文獻[4]提出的平均峰值相關能量(APCE)計算五種融合的可信度,平均峰值相關能量越大,跟蹤效果越穩(wěn)定。計算公式表示為:
(12)
式中:Fmax表示最大響應值,Fmin表示最小響應值,Fm,n是位置(m,n)的元素值。選擇可信度最大值所對應的融合特征作為當前幀的融合特征。
如圖2所示,是分別以Basketball序列和Deer序列為例,給出了不同融合因子下融合特征的可信度值曲線圖。圖中五種不同顏色的曲線表示不同的融合特征。在basketball序列中,經常存在快速移動,目標遮擋的現(xiàn)象,可以看出,隨著跟蹤過程中目標和背景的不斷變化,最大可信度所對應的融合因子也有所不同。Deer序列中,存在目標快速移動問題,但隨著目標的移動,融合特征也在根據可信度的大小發(fā)生調整從而適應跟蹤過程中的變化。因此本文所提出的特征自適應融合保障了每一幀的可信度值是最大的,為后續(xù)幀的跟蹤提供了比較可靠的依據。
圖2 特征選擇結果分析Fig.2 Analysis of feature selection results
目標遮擋是目標跟蹤過程中常見的問題。在跟蹤過程中,提取的目標外觀特征會隨著被遮擋而受到污染,目標跟蹤模型會出現(xiàn)不同程度的跟蹤漂移,導致跟蹤結果不準確。如果目標被嚴重遮擋或是全部遮擋,可能會導致跟蹤失敗。當目標跟蹤的過程沒有干擾時,其響應圖是一個具有穩(wěn)定峰值的高斯分布圖。如果發(fā)生目標遮擋或丟失等干擾情況,響應圖就會出現(xiàn)多峰值狀態(tài)。如圖3所示。
本文采用峰值旁瓣比(PSR)和平均峰值相關能量(APCE)[4]的結合作為遮擋評判能夠更大程度的對目標的遮擋做出準確判斷。PSR作為跟蹤置信度,尋找其最大的峰值,將最大峰值周圍的區(qū)域作為旁瓣,如下式表示:
(13)
式中:Fmax表示最大響應值,μ表示峰值旁瓣的均值,δ表示峰值旁瓣的方差。通常會設定閾值,如果計算得到的PSR值大于設定閾值,則認定為跟蹤成功,否則,跟蹤失敗。
但目標在連續(xù)視頻幀中被遮擋情況下,出現(xiàn)多峰值現(xiàn)象,響應圖各點的響應值會出現(xiàn)波動,均值會被拉大,相差值效果不明顯,減弱PSR對遮擋判斷能力。在這種情況下可以使用最大響應峰值和多個峰值之間的關系,用APCE來衡量跟蹤的結果。
圖3 目標正常和被遮擋的跟蹤響應圖Fig.3 Normal and occlusion tracking response maps
PAPCE的值是對響應結果的波動情況反映。隨著PAPCE的值越大,跟蹤效果越趨于穩(wěn)定。但目標小部分被遮擋時,APCE變化不明顯,此時PSR效果比較好。因此本文采用兩者的結合作為評判尺度。
在第t幀中,定義的遮擋狀態(tài)置信度θ(t)如下:
(14)
式中:當APCE的值PAPCE小于設定閾值Ptha,PSR值小于設定閾值Pthp時,θ(t)值為1,目標跟蹤出現(xiàn)丟失,需要進行目標的重定位。
在目標跟蹤過程中,由于較長時間的遮擋或干擾,跟蹤模型會學習到遮擋物或干擾物的特征,影響跟蹤器做出準確的判斷,出現(xiàn)跟蹤漂移現(xiàn)象。為防止后續(xù)跟蹤漂移現(xiàn)象加重或是目標丟失,需要增加目標的候選區(qū)域,重新確定目標的準確位置。因此,本文提出一種目標重新定位的方法。通過對發(fā)生目標遮擋的視頻幀增加目標候選區(qū)域的方法,實現(xiàn)對目標的重新定位。目標重定位的示意圖如圖4所示。
圖4 目標檢測到遮擋后重定位Fig.4 Target relocation after occlusion detection
在目標重新定位的過程中,本文算法以遮擋前的目標所在位置為基準,通過將中心位置分別向左上方、正上方、右上方、左下方、正下方和右下方移動一定距離得到候選區(qū)域。在當前幀中增加了6個不同的候選區(qū)域來增加搜索范圍。這6個區(qū)域和原區(qū)域彼此之間都有重合,對每個區(qū)域進行獨立的目標搜索。這些區(qū)域表示為a={a1,a2,a3,a4,a5,a6}。隨后對這些區(qū)域做原有跟蹤算法的目標跟蹤操作,得到每個區(qū)域的相關響應值,選取響應峰值最大的區(qū)域m作為本次重定位選定的最終區(qū)域。
Fm=max{F1,F2,F3,F4,F5,F6}
(15)
之后,使用3.2節(jié)中所提出的遮擋判斷策略對選定的區(qū)域進行判斷,如果滿足式(14)的判定條件,則認為成功跟蹤到目標,否則,認為當前幀目標跟蹤失敗。
由圖5可知,通過3.2節(jié)中所提到的算法進行目標遮擋檢測,當檢測出目標被遮擋后,立即啟動重定位機制,在遮擋過后成功地跟蹤到目標。
圖5 重定前后對比圖Fig.5 Comparison before and after reset
本文算法具體步驟如下所示。
①建立初始化模型。根據第一幀圖像所提供的信息,分別訓練顏色濾波器、HOG濾波和一維尺度濾波器。
②特征提取。根據t-1幀訓練得到的濾波器對第t幀圖像進行特征提取。獲得HOG特征向量和顏色特征向量。
③特征融合。對步驟②得到的特征向量進行響應求解,由表1所提供的融合因子進行融合,得到不同偏向的融合特征響應。選取可信度最大的特征作為跟蹤特征,取得目標位置。
④遮擋判斷。根據遮擋判斷策略對步驟③得到的目標位置進行判斷,判斷此幀是否出現(xiàn)目標遮擋或是丟失。
⑤目標重定位。如果在步驟④中判定目標跟蹤過程出現(xiàn)遮擋或是目標丟失,則進行目標重新定位,否則,跳過本步驟,直接轉到步驟⑥。
⑥尺度估計。根據當前幀所確定的目標位置,由方程式(9)構建尺度金字塔,通過尺度濾波器計算得到尺度響應。選取最大響應值作為當前幀t的最佳估計尺度。
⑦模型更新。根據前面步驟所得到的最佳跟蹤結果進行模型更新。
⑧跟蹤結果可視化。將跟蹤窗口進行可視化呈現(xiàn),如果不是最后一幀轉到步驟②繼續(xù)執(zhí)行下一幀圖像跟蹤,否則,結束。
本文算法框圖如圖6所示。
圖6 本文算法流程圖Fig.6 Algorithm flow chart
本文所提算法的實驗是在Intel(R)Core(TM)i5- 6500CPU,主頻3.2GHz,內存8GB的臺式電腦上進行的,實現(xiàn)本文算法的平臺為MATLABR2017a。
本文選取OTB50和OTB100大型基準數(shù)據集作為本文實驗的測試序列。其中包括物體遮擋、尺度變化、光照變化、快速移動和背景干擾等多種具有挑戰(zhàn)性的影響因素。為了驗證本文算法的魯棒性和有效性,選取了CSK、KCF、CN、FDSST、SAMF和STAPLE等6種近幾年跟蹤效果比較好的算法進行對比。
本文采取準確率和成功率作為評價標準。使用一次性通過評估(OPE)評價準則對準確率和成功率進行計算。設定準確率的閾值p=20pixel,準確率(DP)表示的是跟蹤中心點位置誤差小于設定閾值p的相對幀數(shù)所占總幀數(shù)的比值,其定義公式表示如下:
(16)
成功率(OP)用跟蹤方框Bt和預測方框Bgt的交并比(重疊率)大于閾值的幀數(shù)與總幀數(shù)的比值表示,一般閾值設定為S=0.5。重疊率和成功率計算公式如下:
(17)
(18)
本文算法實驗的參數(shù)設置情況為:學習率為0.025,正則化參數(shù)為0.01,HOG通道為32維,CN是10維,灰度特征維1維特征;在一維尺度濾波器中,尺度因子的參數(shù)設置為1.02,維數(shù)為17維。
本文算法在OTB50和OTB100兩個數(shù)據集上測試了包括本文算法在內的7種算法,得到了7種算法在OTB50和OTB100上的跟蹤成功率和精確率曲線如圖7和圖8所示。7種算法的準確率和成功率對比如表2所示。
圖7 在OTB50數(shù)據集上的一次性評估結果Fig.7 One time evaluation results on OTB50 data set
圖8 在OTB100數(shù)據集上的一次性評估結果Fig.8 One time evaluation results on OTB100 data set
表2 7種算法性能比較
分析圖5、圖6和表2的數(shù)據可得,在OTB50數(shù)據集上進行測試的7種算法中,本文算法的精確率和成功率分別是0.896和0.808,排名第二的算法FDSST精確率和成功率分別為0.817和0.731,本文算法比排名第二的算法精確率和成功率分別提高了7.9%和7.7%;在OTB100數(shù)據集上,本文算法精確率和成功率分別為0.909和0.880,排名第二的算法STAPLE精確率和成功率分別為0.891和0.810,比排名第二的算法STAPLE分別提高了1.8%和7%。在跟蹤速度上,本文算法在OTB50和OTB100上的平均跟蹤速度為30.830FPS,比SAMF算法提高了15.609FPS;但相較于其他五種算法,本文跟蹤速度相對比較慢。通過上述對比,本文所提出的算法在和其他6種對比算法相比較在整體性能上表現(xiàn)最優(yōu)。
本文算法優(yōu)點主要在于以下幾點:(1)對HOG特征、CN特征和灰度特征在特征層面和決策層面進行融合,有效的解決了只有單一特征HOG特征時對運動模糊、快速移動的敏感性和CN特征對光照變化的敏感,極大地增強了特征的表達能力。(2)通過大量實驗,設定了5組最佳融合因子,選取響應值最高的融合特征,提高了跟蹤的準確性。(3)引入遮擋判斷策略和目標重定位機制,能夠很大程度上提高抗遮擋能力,有效抑制跟蹤漂移。(4)引入尺度濾波器,在跟蹤過程中能夠自適應目標尺度的變化,增強了跟蹤效果的穩(wěn)定性和準確性。
我們對目標跟蹤中經常遇到的運動模糊和遮擋性等問題上的跟蹤性能進行比較。相應的精確率和成功率的對比曲線圖如圖9和圖10所示。
圖10 在遮擋視頻序列上的精確率和成功率Fig.10 Accuracy rate and success rate on occluded video sequence
在實驗過程中,我們抽取五組具有代表性的視頻進行比較,其中前兩組都有嚴重的目標遮擋問題。后面每組視頻都存在快速移動、運動模糊和目標遮擋等特點,對比結果如圖11所示。
Jogging視頻序列中存在嚴重的遮擋問題,當目標在第50幀左右時,開始出現(xiàn)較為嚴重的遮擋,在此時本文算法能夠穩(wěn)定跟蹤,SAMF和STAPLE開始發(fā)生輕微的跟蹤漂移,其他算法發(fā)生的漂移更嚴重;到第65幀時,只有本文算法還能持續(xù)穩(wěn)定跟蹤直至跟蹤結束,其他六種算法均由于跟蹤漂移嚴重而跟蹤失敗。說明本文算法對遮擋問題具有很好的魯棒性,能夠十分有效的抑制跟蹤漂移。
圖11 本文算法在Jogging,Human7,DragonBaby,Bird2,Soccer視頻序列中與其他算法進行對比Fig.11 Algorithm in this paper is compared with other algorithms in the video sequences of Jogging,human7, dragonbaby, bird2 and soccer
Soccer視頻序列存在目標遮擋和背景復雜的情況,在104幀到108幀,隨著目標位置被遮擋的越來越嚴重,其他對比算法逐漸出現(xiàn)跟蹤漂移的情況,有的算法甚至是丟失跟蹤目標。本文算法得益于采用了遮擋判斷策略和目標重新定位機制,能夠有效的判斷出遮擋的存在,并進行目標的重定位,大大提高了跟蹤的準確性和穩(wěn)定性;在145幀到247幀中,大部分算法已經跟蹤丟失目標,本文算法依然能夠準確的跟蹤到目標。說明本文算法對目標遮擋和背景復雜有很好的魯棒性,對跟蹤漂移具有良好的抑制作用。
Human7視頻序列中目標具有運動模糊和視頻抖動的屬性,在33幀到122幀的過程中,CSK、KCF、CN、FDSST和SAMF都出現(xiàn)了跟蹤丟失的現(xiàn)象,只有SATPLE和本文算法能夠準確的跟蹤到目標,在207幀和224幀中,STAPLE算法發(fā)生了輕微的漂移。本文算法在尺度和精度上都能夠很好的定位目標。說明本文算法對目標運動模糊具有很好的適應性和穩(wěn)定性。
DragonBaby視頻序列具有運動模糊、快速移動等特點。在第33和34幀時,FDSST、KCF、CSK等算法已經跟蹤失敗,其他算法都出現(xiàn)一定的漂移,只有本文算法準確的跟蹤到目標區(qū)域。在第50幀和85幀中,除本文算法和STAPLE外,其他算法全部跟丟,STAPLE算法出現(xiàn)較大的漂移,本文算法跟蹤準確。這說明本文算法在快速移動和運動模糊的場景下可以實現(xiàn)對目標的穩(wěn)定跟蹤。
Bird2視頻序列主要包含目標遮擋和背景復雜的情況。在Bird2中,第62幀其他算法在存在遮擋的情況下發(fā)生了跟蹤漂移,只有本文算法精確地跟蹤到目標所在位置。在第93幀和96幀,CSK算法和FDSST算法已經跟丟目標。由上述情況說明本文算法能夠在目標發(fā)生遮擋或背景復雜的情況下對目標的跟蹤具有很好的穩(wěn)定性。
以上實驗結果表明,本文的算法在目標運動模糊、目標遮擋和快速移動等情況下,能夠穩(wěn)定的跟蹤到目標,具有很強的魯棒性和穩(wěn)定性。
本文算法通過將三種不同的特征在特征層面和決策層面進行融合,并結合不同的融合因子,得到五種不同的融合響應值,通過最大響應值選取最佳融合特征,從而提高了目標的特征表達能力;引入遮擋判斷策略,能夠有效的判斷出遮擋現(xiàn)象行的存在;采用目標重定位機制,有效的抑制了跟蹤漂移和防止目標丟失;引進了單獨的尺度濾波器,對目標尺度變化具有良好的適應性。我們的實驗結果表明,本文所提出的算法在目標跟蹤過程中,對目標跟蹤過程中存在的運動模糊、光照變化和部分遮擋等干擾因素具有很好的魯棒性和準確性;跟蹤速度能夠滿足實際使用要求。在后續(xù)工作中,打算改進算法的運算效率,在保證穩(wěn)定性和準確性的同時進一步提升算法的跟蹤速度。