丁 業(yè) 兵
(安徽郵電職業(yè)技術(shù)學(xué)院通信工程系 安徽 合肥 230031)
?
基于慣量矩的自適應(yīng)帶寬Mean Shift目標(biāo)跟蹤算法
丁 業(yè) 兵
(安徽郵電職業(yè)技術(shù)學(xué)院通信工程系安徽 合肥 230031)
摘要基于核的傳統(tǒng)均值漂移目標(biāo)跟蹤算法,對(duì)于目標(biāo)的尺度和角度缺乏良好的自適應(yīng)能力。為此,提出一種基于慣量矩的自適應(yīng)調(diào)整核函數(shù)帶寬均值漂移跟蹤算法。該算法首先用顏色模型在最優(yōu)迭代位置投影創(chuàng)建目標(biāo)概率密度分布,然后計(jì)算此密度分布的形心主軸慣量矩和旋轉(zhuǎn)角度,最后用慣量矩的方法對(duì)目標(biāo)進(jìn)行橢圓擬合。得到目標(biāo)的長(zhǎng)度和寬度,遞歸濾波后自適應(yīng)調(diào)整核函數(shù)帶寬。實(shí)驗(yàn)結(jié)果表明,該算法在光照、尺度變化情況下可以準(zhǔn)確跟蹤目標(biāo),并估計(jì)目標(biāo)旋轉(zhuǎn)角度。
關(guān)鍵詞目標(biāo)跟蹤均值漂移慣量矩核帶寬概率密度
0引言
視頻運(yùn)動(dòng)目標(biāo)跟蹤已經(jīng)運(yùn)用于視頻監(jiān)控、人機(jī)交互、智能穿戴等各方面[1-3],而在復(fù)雜環(huán)境下進(jìn)行有效跟蹤卻一直是人類研究的課題[4,5]?;诤撕瘮?shù)的Mean Shift目標(biāo)跟蹤,計(jì)算量小、易實(shí)現(xiàn),成為一種經(jīng)典的視頻目標(biāo)跟蹤算法[6,7],但其存在尺度自適應(yīng)問(wèn)題。為了適應(yīng)目標(biāo)大小變化,其對(duì)核函數(shù)帶寬進(jìn)行正負(fù)10%修正,根據(jù)巴士系數(shù)得到最優(yōu)結(jié)果,但這種相似性度量會(huì)在小窗口中達(dá)到局部最大,發(fā)生小尺度游蕩問(wèn)題[8]。為了解決尺度自適應(yīng)問(wèn)題。很多文獻(xiàn)從跟蹤模型的數(shù)學(xué)推導(dǎo)過(guò)程中進(jìn)行改進(jìn)。如Collins采用尺度空間理論進(jìn)行目標(biāo)空間的定位和帶寬的確定[9];文獻(xiàn)[10]采用估計(jì)協(xié)方差矩陣描述目標(biāo)形狀的最大期望算法進(jìn)行變尺度迭代尋找目標(biāo);李培華等根據(jù)奇異值分解理論,建立了一種新的候選目標(biāo)模型,跟蹤仿射變換后的目標(biāo)[11];文獻(xiàn)[12]提出一種基于尺度不變SIFT(Scale Invariant Feature Transform)特征度量的Mean Shift目標(biāo)跟蹤算法[12]。也有一些文獻(xiàn)是提取目標(biāo)的特征點(diǎn)進(jìn)行匹配來(lái)獲得尺度信息,如彭寧嵩等人提出一種基于后向跟蹤、形心配準(zhǔn)的核函數(shù)帶寬自動(dòng)選取算法[13]。還有一些文獻(xiàn)是采用目標(biāo)與背景的差異來(lái)調(diào)整帶寬,如左軍毅等人利用目標(biāo)與背景顏色的差異,修正了最優(yōu)帶寬判別條件[8],解決了算法固有的小尺度游蕩問(wèn)題。除了尺度自適應(yīng)外,Mean Shift跟蹤發(fā)展的另外一些方向包括目標(biāo)表觀的多特征選擇[14-16]、對(duì)目標(biāo)進(jìn)行分塊、處理遮擋的情況[17]、目標(biāo)直方圖更新[18]和快速移動(dòng)目標(biāo)的處理[19]。
本文引入的轉(zhuǎn)動(dòng)慣量是物理學(xué)中表征物體轉(zhuǎn)動(dòng)慣性大小的量,與物體質(zhì)量及其密度分布有關(guān)[20],運(yùn)用于數(shù)字圖像中也稱為慣量矩?;叶让芏葓D像的慣性特征可以用來(lái)描述物體的大小,慣性主軸方向能描述目標(biāo)在二維平面的旋轉(zhuǎn)角度[21,22]。
圖像慣性矩具有計(jì)算量小、易于實(shí)現(xiàn)的特點(diǎn)。將目標(biāo)顏色模型在每幀的目標(biāo)迭代位置進(jìn)行直方圖概率密度投影,此概率密度分布的大小即為目標(biāo)的大小。對(duì)概率密度分布采用計(jì)算相應(yīng)慣性矩的方法,推導(dǎo)得出跟蹤目標(biāo)的長(zhǎng)度、寬度以及旋轉(zhuǎn)角度,再運(yùn)用簡(jiǎn)單遞歸濾波的方法自適應(yīng)調(diào)整核函數(shù)帶寬。
1Mean Shift目標(biāo)跟蹤算法
令{xi}i=1,2,…,n為圖像中目標(biāo)范圍內(nèi)各像素點(diǎn)的位置。如果用色彩分布來(lái)描述目標(biāo)物體,則中心位于y0的物體,其顏色u的概率可以表示為:
(1)
(2)
核函數(shù)根據(jù)樣本點(diǎn)距離中心位置的不同給出不同的權(quán)重。qu是描述目標(biāo)色彩中某個(gè)顏色u的直方圖值。
采用相同帶寬的核函數(shù),中心位于y處的候選目標(biāo)顏色u的概率密度為:
(3)
目標(biāo)用量化后的顏色直方圖密度表示為q={qu}u=1,2,…,m,中心位置為y的候選目標(biāo)表示為p(y)={pu(y)}u=1,2,…,m。候選目標(biāo)與目標(biāo)間的相似性用Bhattacharyya系數(shù)進(jìn)行度量,即:
(4)
新的目標(biāo)位置的搜索由上一幀目標(biāo)最優(yōu)位置開(kāi)始,相鄰兩幀在目標(biāo)變化不是很劇烈的情況下,相似性度量函數(shù)ρ(y)滿足泰勒公式展開(kāi)條件。在pu(y0)點(diǎn),泰勒級(jí)數(shù)近似展開(kāi)為:
(5)
將式(3)代入式(5),可得:
(6)
其中,權(quán)重wi為:
(7)
式(5)中的第一項(xiàng)是定值,第二項(xiàng)是含有中心位置變量y的核函數(shù)概率密度函數(shù)。核函數(shù)帶寬為h,樣本權(quán)重系數(shù)為wi,此概率密度的最大值用Mean Shift算法獲得,即逐步迭代到最優(yōu)位置。
設(shè)初始位置為y0,g(x)=-k′(x),Mean Shift算法迭代步驟如下:
步驟1以y0為迭代起始點(diǎn),計(jì)算相似度值ρ(y0);
步驟2計(jì)算新的位置中心y1:
(8)
步驟3以y1為中心計(jì)算概率密度直方圖{pu(y1)}u=1,2,…,m新的相似度值為ρ(y1);
步驟4如果ρ(y1)<ρ(y0),則y1=( y0+y1)/2;
步驟5如果‖y1-y0‖<ε,停止迭代,否則令 y0=y1,回到步驟1,直到跟蹤結(jié)束。
ε為誤差閾值,當(dāng)相鄰兩次中心位置幾乎一樣時(shí),就是所要求的目標(biāo)最優(yōu)位置。
2基于慣量矩的自適應(yīng)帶寬Mean Shift算法
形心主軸是過(guò)圖形形心,慣量積等于零的一對(duì)對(duì)稱正交軸,勻質(zhì)橢圓形平面體的質(zhì)心即為圖形形心。設(shè)原圖像坐標(biāo)系為x-y,此直角坐標(biāo)系下的形心坐標(biāo)為(x0,y0)。將坐標(biāo)軸原點(diǎn)平移到目標(biāo)形心后,令f(x,y)為圖像坐標(biāo)(x,y)處的概率密度,目標(biāo)概率密度分布對(duì)x、y軸的轉(zhuǎn)動(dòng)慣量Ix、Iy和慣量積Ixy分別為:
(9)
原圖像坐標(biāo)系經(jīng)過(guò)平移旋轉(zhuǎn)后,新的形心主軸坐標(biāo)系為x′-y′,旋轉(zhuǎn)角度為φ。坐標(biāo)系變換以后,變換公式為:
(10)
主軸慣量矩和慣量積分別為:
(11)
將式(10)代入式(11),化簡(jiǎn)后得:
(12)
形心主軸慣量積等于零,因而可以求得旋轉(zhuǎn)角度φ為:
(13)
式中,φ即為目標(biāo)在二維窗口視角下偏轉(zhuǎn)的角度,φ∈[-π/4, +π/4]。當(dāng)Ix>Iy,為目標(biāo)長(zhǎng)軸與y軸的夾角;Ix (14) 圖像中的目標(biāo)概率密度分布近似為勻質(zhì)橢圓形平面體,通過(guò)圖像慣量矩的特征用橢圓來(lái)進(jìn)行擬合,橢圓的長(zhǎng)半軸和短半軸長(zhǎng)度l、w分別為: (15) 式中,M為概率密度的累加值,其推導(dǎo)前提是將圖像中的橢圓形目標(biāo)近似看作為一個(gè)勻質(zhì)橢圓體。令各像素大小m1=m2=…=mn=ρ,M= m1+ m2+…+mn,設(shè)x=lcosθ,y=wsinθ,θ∈[0,2π],推導(dǎo)過(guò)程如下: (16) (17) 函數(shù)帶寬h的計(jì)算方法如下: (18) 為了避免目標(biāo)尺度過(guò)于敏感,新的核函數(shù)帶寬的獲取采用濾波更新尺度策略,即更新后的帶寬: hnew=γhopt+(1-γ)hprev (19) 取γ=0.1,hopt為式(18)計(jì)算得到的帶寬,hprev為上一幀目標(biāo)的帶寬。 基于慣量矩的自適應(yīng)核帶寬Mean Shift目標(biāo)跟蹤算法執(zhí)行步驟為: 步驟1選擇跟蹤目標(biāo),建立歸一化核函數(shù)概率密度直方圖目標(biāo)顏色模型; 步驟2在當(dāng)前幀,以目標(biāo)前一幀最優(yōu)位置為目標(biāo)初始迭代位置,采用相同帶寬核函數(shù)進(jìn)行Mean Shift目標(biāo)跟蹤定位,迭代到最優(yōu)位置; 步驟3將目標(biāo)核函數(shù)概率密度直方圖在最優(yōu)位置投影,創(chuàng)建目標(biāo)概率密度分布圖; 步驟4計(jì)算目標(biāo)概率密度分布的形心主軸轉(zhuǎn)動(dòng)慣量和旋轉(zhuǎn)角度,進(jìn)而推導(dǎo)得到擬合后的目標(biāo)橢圓長(zhǎng)、短軸參數(shù);結(jié)合上一幀圖像中的目標(biāo)帶寬,用濾波算法獲得新的核函數(shù)帶寬,為下一幀圖像中的目標(biāo)跟蹤提供更新后的核函數(shù)帶寬,即轉(zhuǎn)到步驟2,直到視頻目標(biāo)跟蹤結(jié)束。 3實(shí)驗(yàn)結(jié)果與分析 實(shí)驗(yàn)硬件平臺(tái)為Core(TM)i5處理器,軟件平臺(tái)為Win 7操作系統(tǒng)、Matlab仿真軟件。本文采用RGB顏色空間建立目標(biāo)顏色直方圖模型,紅、綠、藍(lán)三種顏色通道分別被量化為16等份,共同構(gòu)成目標(biāo)顏色特征。目標(biāo)樣本點(diǎn)距離目標(biāo)中心的位置不同,權(quán)重不同,度量權(quán)重的大小采用如下核函數(shù): (20) 式中,x為空間中的一個(gè)點(diǎn)。核函數(shù)使得樣本點(diǎn)距離中心越遠(yuǎn),權(quán)重越小。 實(shí)驗(yàn)視頻為攝像機(jī)運(yùn)動(dòng)情況下拍攝到的辦公室環(huán)境中的人臉跟蹤測(cè)試視頻,且有背景光照變化影響。視頻中每幀圖像大小為128×96像素,視頻人臉顏色模型的獲得通過(guò)手動(dòng)完成,即在第一幀中用矩形框選定人臉?lè)秶?。在相同?shí)驗(yàn)條件下,與經(jīng)典Mean Shift目標(biāo)跟蹤算法進(jìn)行了比較。典型幀的跟蹤結(jié)果見(jiàn)圖1所示,(a)為經(jīng)典Mean Shift算法跟蹤結(jié)果,白色矩形框標(biāo)出了跟蹤窗口。從圖中可見(jiàn),人臉偏轉(zhuǎn)及光照影響下,跟蹤框發(fā)生了偏移,而且存在目標(biāo)人臉變大后,跟蹤窗口仍然在小尺度下徘徊的現(xiàn)象。(b)為基于慣量矩的Mean Shift算法跟蹤結(jié)果,矩形框?yàn)樗阉鞔翱?,橢圓框描述目標(biāo)形狀大小,圖中可見(jiàn),矩形框能準(zhǔn)確鎖定目標(biāo)范圍,受光照變化影響較小,橢圓框圈定了目標(biāo)人臉。 圖1 光照變化下的人臉跟蹤 圖2為兩種跟蹤算法部分視頻幀的跟蹤誤差曲線。橫坐標(biāo)為視頻的幀序號(hào),縱坐標(biāo)為相應(yīng)幀的算法誤差值,實(shí)線為基于慣量矩的Mean Shift跟蹤算法誤差曲線,虛線為經(jīng)典Mean Shift跟蹤算法誤差曲線。 圖2 光照變化下的人臉跟蹤誤差曲線 人臉中心位置和核函數(shù)帶寬的真實(shí)值是人工在每幀視頻圖像中采集獲得。每幀圖像中的誤差用算法得出的結(jié)果與真實(shí)值之間的像素距離來(lái)度量。具體誤差數(shù)據(jù)用數(shù)學(xué)均值和標(biāo)準(zhǔn)差進(jìn)行統(tǒng)計(jì),統(tǒng)計(jì)結(jié)果見(jiàn)表1所示。從表中可見(jiàn),本文算法的跟蹤中心點(diǎn)位置和核函數(shù)帶寬誤差小于經(jīng)典Mean Shift跟蹤算法;在同等條件下,平均每幀跟蹤時(shí)間也小于經(jīng)典Mean Shift跟蹤算法。 表1 光照變化下人臉跟蹤誤差(均值±標(biāo)準(zhǔn)差) 圖3是人臉尺度變化下的典型跟蹤結(jié)果,圖像上方灰色區(qū)域顯示的是當(dāng)前幀和總視頻幀數(shù),圖像左上角框內(nèi)為跟蹤采集到的人臉。視頻中,測(cè)試者由近及遠(yuǎn),然后又靠近攝像頭,人臉大小隨之發(fā)生變化。(a)是經(jīng)典Mean Shift算法跟蹤結(jié)果,從圖中可見(jiàn),人臉在由大變小的情況下,跟蹤結(jié)果較為準(zhǔn)確,但當(dāng)人臉由小變大后,跟蹤窗口不再變大。(b)是基于慣量矩的Mean Shift算法跟蹤結(jié)果,從圖中可見(jiàn),跟蹤窗口能自適應(yīng)調(diào)整窗口大小,適應(yīng)人臉尺度變化情況。 圖3 尺度變化下的人臉跟蹤 圖4是人臉發(fā)生較大偏轉(zhuǎn)的典型跟蹤結(jié)果,視頻中,人臉左右急劇偏轉(zhuǎn)。(a)是經(jīng)典Mean Shift算法跟蹤結(jié)果,跟蹤窗口無(wú)法自轉(zhuǎn),跟蹤結(jié)果不夠準(zhǔn)確;(b)是基于慣量矩的Mean Shift算法跟蹤結(jié)果,自適應(yīng)調(diào)整帶寬跟蹤過(guò)程中,橢圓窗口隨著人臉的偏轉(zhuǎn)而轉(zhuǎn)動(dòng),實(shí)現(xiàn)準(zhǔn)確捕捉,跟蹤結(jié)果更為準(zhǔn)確。 圖4 人臉偏轉(zhuǎn)跟蹤結(jié)果 將視頻第290幀到第350幀人臉的偏轉(zhuǎn)角度繪制成曲線,如圖5所示。 圖5 人臉偏轉(zhuǎn)角度曲線 人臉向左偏轉(zhuǎn)的角度為圖5中的正值,向右偏轉(zhuǎn)的角度為負(fù)值, 從圖5中可見(jiàn),角度的變化準(zhǔn)確反映了人臉偏轉(zhuǎn)情況。從第290幀到第312幀,人臉從左向右偏轉(zhuǎn),達(dá)到最大偏轉(zhuǎn)角度32.3632°;從第312幀到第328幀,人臉從右向左偏轉(zhuǎn),達(dá)到最大偏轉(zhuǎn)角度34.6942°。根據(jù)第2節(jié)推導(dǎo)原理,角度范圍為[-π/4, +π/4],實(shí)際人臉偏轉(zhuǎn)角度沒(méi)有超過(guò)45度,所以主軸慣量矩的值Ix>Iy。擬合橢圓的夾角是橢圓長(zhǎng)軸與垂線的夾角,為正則在垂線的右側(cè),為負(fù)則在垂線的左側(cè)。 綜上,三組實(shí)驗(yàn)驗(yàn)證了本文算法較經(jīng)典Mean Shift跟蹤算法在光照、目標(biāo)尺度變化情況下具有更優(yōu)良的表現(xiàn),并且能夠運(yùn)用慣量矩的方法對(duì)目標(biāo)進(jìn)行橢圓擬合,計(jì)算獲得目標(biāo)的旋轉(zhuǎn)角度。 4結(jié)語(yǔ) 傳統(tǒng)Mean Shift目標(biāo)跟蹤算法存在小尺度游蕩問(wèn)題,并且描述目標(biāo)形狀能力較為欠缺,無(wú)法獲知目標(biāo)旋轉(zhuǎn)角度。本文將物理學(xué)中的轉(zhuǎn)動(dòng)慣量特征引入到數(shù)字圖像處理中,運(yùn)用圖像慣量矩的方法對(duì)傳統(tǒng)Mean Shift目標(biāo)跟蹤算法中的尺度問(wèn)題進(jìn)行了改進(jìn)。該算法使用了原算法的核函數(shù)顏色模型,在Mean Shift迭代的最優(yōu)位置投影創(chuàng)建目標(biāo)概率密度分布圖,將此密度分布近似為均質(zhì)橢圓體。采用慣量矩的方法對(duì)密度分布進(jìn)行橢圓擬合,從而獲得目標(biāo)的大小、旋轉(zhuǎn)角度,自適應(yīng)調(diào)整下一幀跟蹤窗口核函數(shù)帶寬。該算法易于實(shí)現(xiàn),但依賴于獲得準(zhǔn)確的目標(biāo)密度分布,遮擋情況是下一步研究的方向。 參考文獻(xiàn) [1] Ferryman J M,Maybank S J,Worrall A D.Visual surveillance for moving vehicles[J].International Journal of Computer Vision,2000,37(2):187-197. [2] Francisco B F,Alberto O,Gabriel O.Visual Navigation for Mobile Robots:A Survey[J].Journal of Intelligent and Robotic Systems,2008,53(3):263-296. [3] Jong S K,Dong H Y,Yong H J.Fast and robust algorithm of tracking multiple moving objects for intelligent video surveillance systems[J].IEEE Transactions on Consumer Electronics,2011,57(3):1165-1170. [4] Babu R V,Patrick P,Patrick B.Robust tracking with motion estimation and local Kernel-based color modeling[J].Image Vision Computing,2007,25(8):1205-1216. [5] Prakash U M,Thamaraiselvi V G.Detecting and tracking of multiple moving objects for intelligent video surveillance systems[C]//International Conference on Current Trends in Engineering and Technology,India:Coimbatore,2014:253-257. [6] Comaniciu D,Ramesh V,Meer P.Real-time tracking of non-rigid objects using mean shift[C]//IEEE Conference on Computer Vision and Pattern Recognition,USA:Hilton Head,2000:142-149. [7] Comaniciu D,Ramesh V,Meer P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-577. [8] 左軍毅,梁彥,趙春暉,等.Mean Shift跟蹤算法中尺度自適應(yīng)策略的研究[J].中國(guó)圖象圖形學(xué)報(bào),2008,13(9):1750-1757. [9] Collins R T.Mean-shift blob tracking through scale space[C]//IEEE Conference on Computer Vision and Pattern Recognition,2003:234-240. [10] Zivkovic Z,Krose B.An EM-like algorithm for color-histogram-based object tracking[C]//IEEE Conference on Computer Vision and Pattern Recognition,USA:LOS Alamitos,2004:798-803. [11] 李培華,肖莉娟.基于Mean Shift的相似性變換和仿射變換目標(biāo)跟蹤算法[J].中國(guó)圖象圖形學(xué)報(bào),2011,16(2):258-266. [12] 翟海濤,吳建,陳建明,等.基于SIFT特征度量的Mean Shift目標(biāo)跟蹤算法[J].計(jì)算機(jī)應(yīng)用與軟件,2011,28(6):47-50,120. [13] 彭寧嵩,楊杰,劉志,等.Mean Shift跟蹤算法中核函數(shù)窗寬的自動(dòng)選取[J].軟件學(xué)報(bào),2005,16(9):1542-1550. [14] Robert T C,Yanxi Liu,Marius L.Online Selection of Discriminative Tracking Features[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(10):1631-1643. [15] 丁業(yè)兵,趙峰,郝詩(shī)海.多特征帶寬自適應(yīng)Mean Shift目標(biāo)跟蹤算法[J].計(jì)算機(jī)工程,2013,39(2):197-201. [16] 袁廣林,薛模根,韓裕生,等.基于自適應(yīng)多特征融合的Mean Shift目標(biāo)跟蹤[J].計(jì)算機(jī)研究與發(fā)展,2010,47(9):1663-1670. [17] Jeyakara J,Babub R,Ramakrishnanc K.Robust object tracking with background-weighted local kernels[J].Computer Vision and Image Understanding,2008,112(3):296-309. [18] Peng N S,Yang J,Liu Z.Mean Shift blob tracking with kernel histogram filtering and hypothesis testing[J].Pattern Recognition Letters,2005,26(5):605-614. [19] Li S X,Chang H X,Zhu C F.Adaptive pyramid mean shift for global real-time visual tracking[J].Image and Vision Computing,2010,28(3):424-437. [20] 李高平,楊軍,陳毅紅.改進(jìn)轉(zhuǎn)動(dòng)慣量特征的快速分形圖像編碼算法[J].計(jì)算機(jī)工程與應(yīng)用,2013,49(24):148-152. [21] 羅斌.灰度圖像的慣性主軸方向特征[J].安徽大學(xué)學(xué)報(bào):自然科學(xué)版,1998,22(4):40-42. [22] Nan Liang.An approach on characteristic lines extracting of gray images using moment of inertia[C]//IEEE International Conference on Advanced Computer Control.China:Shenyang,2010:379-382. 收稿日期:2015-01-30。安徽省高校優(yōu)秀青年人才基金重點(diǎn)項(xiàng)目(2013SQRL121ZD)。丁業(yè)兵,講師,主研領(lǐng)域:視頻目標(biāo)跟蹤,圖像處理。 中圖分類號(hào)TP391 文獻(xiàn)標(biāo)識(shí)碼A DOI:10.3969/j.issn.1000-386x.2016.07.072 ADAPTIVE BANDWIDTH MEAN SHIFT TARGET TRACKING ALGORITHM BASED ON INERTIA MOMENT Ding Yebing (DepartmentofCommunicationEngineering,AnhuiPostandTelecommunicationCollege,Hefei230031,Anhui,China) AbstractTraditional kernel-based mean shift tracking algorithm lacks good adaptability in scale and rotation angle of target. For this reason, we proposed an inertia moment-based mean shift tracking algorithm which adaptively adjusts the bandwidth of kernel function. First, the algorithm projects and creates a target probability density distribution with colour model in optimal iterative position. Then it calculates the centroid axis inertia moment and rotation angle of the density distribution. Finally it makes ellipse fitting on target with inertia moment method to get the length and width of target. After recursive filtering, it adaptively adjusts kernel function’s bandwidth. Experimental results showed that the algorithm can accurately track the target and estimate target’s rotation angle under the condition of light and scale changes. KeywordsTarget trackingMean shiftInertia momentKernel bandwidthProbability density