陳富健,謝維信
深圳大學(xué)ATR國防科技重點(diǎn)實驗室,廣東 深圳 518060
在目標(biāo)跟蹤過程中,目標(biāo)往往因被物體遮擋造成丟失,導(dǎo)致跟蹤器無法繼續(xù)精準(zhǔn)跟蹤目標(biāo)。為解決這一難題,提高跟蹤器在遮擋條件下的跟蹤魯棒性和跟蹤精度,需為跟蹤器設(shè)計不同的抗遮擋機(jī)制。Kalal等[1]首先提出將目標(biāo)檢測模塊和目標(biāo)跟蹤模塊相互結(jié)合的機(jī)制,達(dá)到在目標(biāo)丟失時跟蹤器能夠依賴目標(biāo)檢測模塊找回目標(biāo)的目的。但由于該算法使用特征點(diǎn)跟蹤的模式,跟蹤精度較低。為提高跟蹤精度,Ma等[2]在相關(guān)濾波器的基礎(chǔ)上,提出一種相關(guān)濾波算法和隨機(jī)蕨分類器結(jié)合的跟蹤算法LCT,有效提高了目標(biāo)跟蹤的精度。Ma等[3]進(jìn)一步改進(jìn)目標(biāo)檢測器,提出了LCT+跟蹤器,利用支持向量機(jī)替換隨機(jī)蕨分類器,但目標(biāo)檢測的范圍依然有局限性。Zhao等[4]改進(jìn)了LCT跟蹤器,利用生成的候選框來判斷候選框內(nèi)的邊緣與目標(biāo)邊緣的相似性檢測目標(biāo),實現(xiàn)了目標(biāo)的全局檢測。Hu等[5]在LCT的基礎(chǔ)上,利用深度學(xué)習(xí)的方法YOLOv3[6]替換其檢測器,改進(jìn)了跟蹤器的性能。Wang 等[7]利用改進(jìn)的平均峰值相關(guān)能量判別標(biāo)準(zhǔn)初始化YOLOv3檢測器和跟蹤器。Li等[8]也在相關(guān)濾波器的基礎(chǔ)上提出了一種分塊的目標(biāo)跟蹤方法,該方法將目標(biāo)切割成多塊進(jìn)行分別處理,能夠有效處理遮擋的情況,但忽視了目標(biāo)完整的全局信息,造成跟蹤的精度不高。為解決這一問題,王任華等[9]提出了一種全局與局部分塊聯(lián)合的方法,同時考慮全局模型和分塊信息進(jìn)行跟蹤。Dai 等[10]設(shè)計了一個元更新器,結(jié)合幾何線索、判別線索和外觀線索判斷在長期跟蹤過程中是否需要更新跟蹤器以提高跟蹤器的長期跟蹤能力。
為解決該算法存在目標(biāo)檢測范圍具有局限性的問題,在LCT+基準(zhǔn)算法的基礎(chǔ)上,提出了基于顏色塊重檢的自適應(yīng)抗遮擋目標(biāo)跟蹤算法。首先提取初始幀目標(biāo)的顏色塊信息,當(dāng)目標(biāo)發(fā)生跟丟時,利用該顏色塊信息進(jìn)行目標(biāo)重檢測。提出的目標(biāo)檢測方法能對全局圖像范圍進(jìn)行目標(biāo)的重檢測,擴(kuò)大了目標(biāo)檢測的范圍,有效定位丟失的目標(biāo),提高了在遮擋情況下目標(biāo)跟蹤的魯棒性。
LCT+的基準(zhǔn)跟蹤器主要基于文獻(xiàn)[11]的核相關(guān)濾波器。為獲得核相關(guān)濾波器w,基于循環(huán)矩陣的性質(zhì)對大小為M×N的輸入圖像進(jìn)行密集采樣后,分別在水平和垂直方向進(jìn)行m、n個像素點(diǎn)的循環(huán)移位操作得到樣本xm,n。并且每個樣本對應(yīng)的標(biāo)簽y(m,n)符合高斯分布,則濾波器w可由式(1)給出:
f表示樣本xm,n和濾波器w的相關(guān)操作,λ表示正則化系數(shù)。式(1)根據(jù)離散傅里葉變換的性質(zhì),可得到式(2):
系數(shù)α可定義為:
F 和F-1分別表示傅里葉變換和傅里葉反變換。kxx表示核相關(guān),在算法中使用的是高斯核,根據(jù)循環(huán)矩陣的性質(zhì),其可定義為:
⊙表示對應(yīng)位置元素的相乘。當(dāng)輸入新的圖像z時,則響應(yīng)圖為:
響應(yīng)圖y最大值所在點(diǎn)的位置為目標(biāo)的中心位置。
為獲得目標(biāo)的最佳尺度,對目標(biāo)圖像構(gòu)建尺度金字塔。若當(dāng)前目標(biāo)圖像的尺度大小為W×H,K表示尺度因子,構(gòu)建尺度空間為:
計算每個大小為sW×sH圖像塊的響應(yīng)值,則輸出最大響應(yīng)的尺度因子s,即為最優(yōu)尺度。
LCT+算法采用支持向量機(jī)作為目標(biāo)重檢測模塊。若當(dāng)前幀相關(guān)濾波器的響應(yīng)值大于設(shè)定閾值,表明目標(biāo)被正常跟蹤,則提取當(dāng)前幀目標(biāo)的特征來訓(xùn)練支持向量機(jī),以適應(yīng)目標(biāo)不斷變化的狀態(tài)。若當(dāng)前幀相關(guān)濾波器的響應(yīng)閾值小于設(shè)定閾值,表明目標(biāo)處于跟丟狀態(tài),則激活支持向量機(jī)對目標(biāo)進(jìn)行重檢測。
為解決LCT+算法無法對全局圖像進(jìn)行目標(biāo)重檢測的問題,提出基于顏色塊重檢的自適應(yīng)抗遮擋目標(biāo)跟蹤算法。在目標(biāo)運(yùn)動過程中,目標(biāo)的顏色信息在大部分情況下不會發(fā)生太大的改變。即使目標(biāo)在運(yùn)動過程中發(fā)生了形變,只要其顏色信息不變就能對目標(biāo)進(jìn)行重檢測。該算法只需在初始幀中獲取目標(biāo)的顏色塊信息,不像SVM 檢測器時刻對目標(biāo)進(jìn)行特征的學(xué)習(xí)訓(xùn)練,可有效提高目標(biāo)跟蹤的速率。重檢測采取的方法根據(jù)初始幀目標(biāo)的顏色塊信息對目標(biāo)丟失幀進(jìn)行顏色分割和形態(tài)學(xué)處理。由于該方法較為簡潔,不會對跟蹤器造成太大的負(fù)擔(dān),可有效提高跟蹤效率。并且其能重新檢測全局圖像中的目標(biāo),擴(kuò)大了目標(biāo)檢測的范圍。
如圖1 所示,該算法由兩部分構(gòu)成,包括初始幀目標(biāo)的顏色塊分割模塊與目標(biāo)重檢測模塊。在初始幀目標(biāo)的顏色塊分割模塊中,對初始幀目標(biāo)進(jìn)行分割處理得到顏色塊,以便應(yīng)用在目標(biāo)檢測模塊中。為得到分割的顏色塊,通過建立顏色似然圖、二值化和區(qū)域生長來進(jìn)行處理。在目標(biāo)檢測模塊中,根據(jù)在上一個模塊中分割得到的初始幀目標(biāo)顏色塊信息對丟失幀進(jìn)行顏色分割并進(jìn)行圖像形態(tài)學(xué)處理,然后和初始幀目標(biāo)顏色塊匹配。若匹配成功則定位到候選目標(biāo)。將該候選目標(biāo)輸入到相關(guān)濾波器,若響應(yīng)值大于閾值則確定為最終目標(biāo),重新定位目標(biāo)。
初始幀目標(biāo)顏色塊分割模塊主要包括兩個部分:得到抑制背景的目標(biāo)圖像和計算該圖像的顏色塊。為了更加準(zhǔn)確地計算目標(biāo)的顏色塊信息,需將目標(biāo)附近的背景干擾進(jìn)行剔除,否則將影響到顏色塊的分割進(jìn)而影響到后續(xù)目標(biāo)重檢測的執(zhí)行。因此為得到抑制背景的目標(biāo)圖像,采用對目標(biāo)圖像建立顏色似然圖的方法,計算目標(biāo)圖像的顏色塊則采用彩色圖像區(qū)域生長的方法。通過結(jié)合這兩種方法,最終得到目標(biāo)的顏色塊,如圖1(g)所示。
2.2.1 顏色似然圖建立
顏色似然圖的建立采用文獻(xiàn)[12-13]中的方法,截取目標(biāo)區(qū)域和其附近的背景區(qū)域,根據(jù)式(7)、(8)分別計算如圖1(b)所示的目標(biāo)似然圖和如圖1(c)所示的背景顏色似然圖:
圖1 基于顏色塊重檢的自適應(yīng)抗遮擋目標(biāo)跟蹤算法框架Fig.1 Framework of adaptive anti-occlusion target tracking algorithm based on color block re-detection
其中,bx表示輸入圖像I對應(yīng)的像素點(diǎn)x所對應(yīng)的顏色通道值b,O表示目標(biāo)區(qū)域,S表示背景區(qū)域,|· |表示統(tǒng)計該區(qū)域的數(shù)量值大小。其中,由式(7)和(8)結(jié)合可得式(9):
通過上式計算得到如圖1(d)所示的抑制背景的目標(biāo)顏色似然圖后,對該目標(biāo)顏色似然圖進(jìn)行二值化處理得到濾波模板,利用該濾波模板與初始幀的目標(biāo)進(jìn)行點(diǎn)乘濾波,可得到抑制背景后的目標(biāo)圖像。
2.2.2 彩色圖像區(qū)域生長
獲得抑制背景的目標(biāo)圖像后,采用彩色圖像區(qū)域生長的方法對目標(biāo)圖像進(jìn)行自適應(yīng)顏色塊分割,以獲取目標(biāo)的顏色塊信息。彩色區(qū)域生長算法的步驟如下:
步驟1制定種子陣列模板。如圖2(a)所示,在濾波模板中隨機(jī)選取一個種子點(diǎn)進(jìn)行區(qū)域生長。區(qū)域生長規(guī)則滿足8連通域。
步驟2顏色像素點(diǎn)差值計算。當(dāng)圖2(b)的輸入目標(biāo)圖像的像素點(diǎn)與種子點(diǎn)在8 鄰域之間的對應(yīng)顏色像素點(diǎn)的差值小于設(shè)定閾值時,將該點(diǎn)添加到種子點(diǎn)陣列中。更新種子陣列后,繼續(xù)與輸入目標(biāo)圖像進(jìn)行計算。其中,顏色像素點(diǎn)之間的差值計算滿足:
其中,R、G、B表示向量a和z的RGB顏色分量。a表示種子陣列模板,z表示目標(biāo)圖像。
步驟3當(dāng)前次彩色圖像區(qū)域生長停止條件。根據(jù)步驟2循環(huán)往復(fù)計算,直至種子陣列不再增長則輸出彩色區(qū)域生長的圖像,如圖2(c)所示。其中,圖2 的虛線框內(nèi)表示當(dāng)前次彩色圖像區(qū)域生長的狀態(tài)。
步驟4新濾波目標(biāo)的計算。當(dāng)計算完一個彩色圖像生長區(qū)域后,將圖2(a)的濾波模板減去圖2(d)的種子陣列模板得到圖2(e)的新濾波模板。
步驟5新輸入目標(biāo)圖像的計算。圖2(e)的新濾波模板與圖2(b)的輸入目標(biāo)圖像進(jìn)行點(diǎn)乘運(yùn)算,濾波后得到圖2(f)的新輸入目標(biāo)圖像。
步驟6重復(fù)上述步驟計算新的分割區(qū)域。根據(jù)新輸入的目標(biāo)圖像進(jìn)行彩色圖像區(qū)域生長,重復(fù)步驟1~步驟3,計算得到圖2(g)的下一個分割出的區(qū)域。重復(fù)步驟4 和步驟5 得到新輸入目標(biāo)圖像,繼續(xù)循環(huán)往復(fù)直至所有區(qū)域被分割完畢。
圖2 彩色圖像區(qū)域生長示意圖Fig.2 Schematic diagram of region growth in color image
步驟7判斷分割區(qū)域是否保留。利用彩色圖像區(qū)域生長算法分割輸入目標(biāo)圖像得到不同的區(qū)域后,最終判斷分割區(qū)域的連通域是否大于設(shè)定閾值,如果大于設(shè)定的閾值,則保留該分割區(qū)域,最終結(jié)果如圖2(k)所示。其中,該閾值的設(shè)定為:
其中,h和w分別表示輸入目標(biāo)圖像的高度和寬度,α表示系數(shù),S表示連通域閾值大小。當(dāng)分割區(qū)域的連通域大于上式任意一個條件,保留該分割區(qū)域。
經(jīng)過步驟1~步驟7后,輸入目標(biāo)圖像被分割成多個顏色塊區(qū)域,選取大于閾值的顏色塊區(qū)域作為后續(xù)目標(biāo)檢測的顏色分割以及匹配的標(biāo)準(zhǔn)。
2.3.1 顏色分割
通過顏色分割的方法來檢測丟失幀中的目標(biāo),其能夠?qū)θ謭D像進(jìn)行處理,避免LCT+算法中檢測范圍的局限性。在進(jìn)行顏色分割時,根據(jù)2.2.2小節(jié)步驟2中的式(10)可得顏色分割的閾值,其中R、G、B表示向量a和z的RGB 顏色分量。a表示丟失幀圖像,z表示2.2.2小節(jié)中得到的顏色塊。
如圖1所示,經(jīng)過2.2節(jié)得到圖1(g)中的顏色塊后,對圖1(h)的丟失幀進(jìn)行顏色分割,得到圖1(i)的顏色分割結(jié)果。
2.3.2 形態(tài)學(xué)處理
如圖1(i)所示,顏色分割后的圖像還存在噪聲點(diǎn)等情況。且在顏色分割過程中存在分割誤差,導(dǎo)致分割后的顏色塊可能會出現(xiàn)孔洞。為了更加準(zhǔn)確地匹配初始幀目標(biāo)的顏色塊,采用形態(tài)學(xué)中的連通域方法和孔洞填充處理噪聲點(diǎn)。
對圖1(i)中的顏色分割后的圖像進(jìn)行孔洞填充,使其形狀接近于初始幀目標(biāo)的顏色塊。采用連通域方法計算其連通域大小,刪除小的連通域,即過濾噪聲點(diǎn),得到圖1(j)的圖像。
2.3.3 目標(biāo)匹配
顏色塊匹配利用初始幀目標(biāo)顏色塊的幾何信息和顏色分割處理后圖像中的顏色塊幾何信息進(jìn)行匹配,定義匹配置信度score為:
下標(biāo)tgt表示初始幀目標(biāo)的顏色塊,det表示檢測到的顏色塊,A表示連通域的大小,s表示尺度因子,AR表示該連通域大小占該顏色塊框大小的比率,LWR表示該顏色塊長寬的比率,L表示顏色塊的長度,W表示顏色塊的寬度,Cct表示目標(biāo)丟失前的中心坐標(biāo),Cdet表示檢測到顏色塊的中心坐標(biāo),hw表示初始幀目標(biāo)顏色塊的最長邊,n表示目標(biāo)丟失幀的數(shù)量。式中r=‖Cct-Cdetj‖/(2×hw×n)表示隨著丟失幀數(shù)量n的累加,能不斷擴(kuò)大重檢測的范圍。當(dāng)丟失幀數(shù)量n較小時,目標(biāo)重檢范圍隨之減小,從而避免檢測到遠(yuǎn)處的干擾物。因為隨著丟失幀數(shù)量n的累加,若‖Cct-Cdetj‖的差值越大,總體上r的值和原來變化不大,則置信度score變化不大?!珻ct-Cdetj‖表示目標(biāo)丟失前位置和檢測到顏色塊的距離,‖Cct-Cdetj‖的差值越大而置信度score變化不大,這表明能檢測到的顏色塊范圍也越廣。根據(jù)式(12)計算得到置信度最大的顏色塊,然后基于該顏色塊計算該目標(biāo)的中心位置坐標(biāo),獲得候選目標(biāo)。
由于在重檢測過程中可能遇到具有相似顏色的干擾物,因此還需進(jìn)一步驗證顏色塊匹配計算得到的候選目標(biāo)。在LCT+算法中,相關(guān)濾波器的特征訓(xùn)練基于HOG特征和HOI特征,這兩種特征對于目標(biāo)形變、平移變換等情況適應(yīng)性較好。將得到的候選目標(biāo)輸入到相關(guān)濾波器中,若響應(yīng)值大于1.3×max_response,表明該候選目標(biāo)為真正的目標(biāo),max_response表示上一幀相關(guān)濾波器的響應(yīng)值。
如圖3所示,以紅色顏色塊為例說明目標(biāo)匹配的過程。在2.3 節(jié)中獲得了在初始幀目標(biāo)中分割的顏色塊,如圖3(c)所示。通過式(12)計算圖3(a)中初始幀目標(biāo)顏色塊和圖3(b)中丟失幀分割出顏色塊的置信度,結(jié)果分別為0.38 和0.56。判斷置信度是否大于閾值Ts=0.48,大于該閾值后取最優(yōu)顏色塊,如圖3(f)所示。然后在丟失幀圖像中定位到候選目標(biāo)的位置,并截取該候目標(biāo)所在的區(qū)域,并將候選目標(biāo)輸入到相關(guān)濾波器中。
相關(guān)濾波器經(jīng)過訓(xùn)練后已知目標(biāo)模板特征和系數(shù)矩陣α。提取候選目標(biāo)的特征后,根據(jù)式(4)計算候選目標(biāo)的特征與已知目標(biāo)模板特征的核相關(guān)kxz。根據(jù)式(5),計算核相關(guān)kxz和已知系數(shù)矩陣α的響應(yīng)圖y,最終結(jié)果如圖3(k)所示。該響應(yīng)圖的峰值大小response為0.38。若相關(guān)濾波器的響應(yīng)值輸出大于閾值1.3×max_resopnse,確定為正確目標(biāo)。由于在上一幀中max_resopnse=0.137,因此該候選目標(biāo)的響應(yīng)值大小response>1.3×max_response=0.178 1,確定該候選目標(biāo)為正確目標(biāo)并在丟失幀中進(jìn)行定位,最終目標(biāo)重檢測成功,如圖3(l)所示。
重新檢測到目標(biāo)后,根據(jù)該重檢目標(biāo)更新相關(guān)濾波器和尺度s。尺度更新是指對重檢目標(biāo)建立尺度金字塔,取最優(yōu)尺度s,如圖3(m)所示。提取重檢目標(biāo)的特征更新相關(guān)濾波器,如圖3(o)所示,基于該特征更新目標(biāo)模板特征以及計算得到系數(shù)矩陣α,并更新該系數(shù)矩陣α。
圖3 顏色塊匹配過程Fig.3 Process of color block matching
2.3.4 目標(biāo)定位
在2.3.3小節(jié)中,若顏色塊匹配則定位目標(biāo),但此時顏色塊的坐標(biāo)和目標(biāo)的中心坐標(biāo)并不一致,需定位到目標(biāo)的中心位置上。由于顏色塊的位置和目標(biāo)的中心位置存在一定的關(guān)系,可根據(jù)初始幀目標(biāo)的顏色塊位置和中心位置推斷出所檢測到目標(biāo)的中心位置,由式(13)和(14)計算出目標(biāo)的中心位置:
(xtgt1,ytgt1)表示初始幀目標(biāo)的中心位置(如圖4(a)和圖4(b)紅色星號所示),(xtgt2,ytgt2)表示其顏色塊的中心位置(如圖4(b)藍(lán)色星號所示)。(xdet1,ydet1)表示丟失幀中目標(biāo)顏色塊的中心位置(如圖4(c)藍(lán)色星號所示),(xdet2,ydet2)表示丟失幀中目標(biāo)的中心位置(如圖4(c)紅色星號所示),s表示尺度因子。
圖4 目標(biāo)定位過程Fig.4 Process of target location
如圖4所示為目標(biāo)定位的過程,計算圖4(b)初始幀目標(biāo)的中心位置和其顏色塊中心位置的距離:
則d=(d1,d2)=(-2.0,-25.5 )。當(dāng)目標(biāo)丟失后,如圖4(c)所示,重新檢測出顏色塊的中心位置,根據(jù)初始幀目標(biāo)中心位置和其顏色塊中心位置的距離d以及尺度因子s=0.9,計算該重檢測目標(biāo)的中心位置:
則(xdet2,ydet2)=(297.3,231.27),最終定位目標(biāo)的中心位置坐標(biāo)結(jié)果如圖4(d)所示。
圖5為算法的流程圖,主要分成初始化幀目標(biāo)顏色塊分割和目標(biāo)重檢測。
圖5 算法流程圖Fig.5 Flow chart of this algorithm
初始幀目標(biāo)顏色塊分割的流程如下:首先,計算初始幀的目標(biāo)和背景顏色似然圖。其次抑制目標(biāo)附近的背景,對彩色圖像進(jìn)行區(qū)域生長分割獲得顏色塊。經(jīng)過上述初始化步驟操作后,使用相關(guān)濾波跟蹤目標(biāo),若視頻序列幀都被處理完后結(jié)束運(yùn)行,否則持續(xù)判斷目標(biāo)是否丟失。若目標(biāo)丟失則進(jìn)行目標(biāo)重檢測,如果沒有發(fā)生目標(biāo)丟失則繼續(xù)進(jìn)行相關(guān)濾波目標(biāo)跟蹤。
目標(biāo)重檢測利用顏色塊信息對丟失幀進(jìn)行顏色分割,將分割后的圖像進(jìn)行形態(tài)學(xué)處理并判斷分割的顏色塊和初始幀目標(biāo)顏色塊是否匹配。若匹配失敗則繼續(xù)進(jìn)行目標(biāo)重檢測,若匹配成功則定位到候選目標(biāo)上,并將該候選目標(biāo)輸入到相關(guān)濾波器進(jìn)行計算,當(dāng)響應(yīng)值大于閾值,輸出所檢測到的目標(biāo)定位,最后繼續(xù)進(jìn)行相關(guān)濾波跟蹤。
OTB50 和OTB100 公開數(shù)據(jù)集涵蓋了大量的具有挑戰(zhàn)性情況的視頻集,例如目標(biāo)遮擋、目標(biāo)形變、目標(biāo)旋轉(zhuǎn)、背景干擾、目標(biāo)形變、目標(biāo)快速運(yùn)動等情況,能夠有效驗證目標(biāo)跟蹤算法的有效性。
根據(jù)在文獻(xiàn)[14]中的定義,采用距離精度和成功率作為目標(biāo)跟蹤性能的評估指標(biāo)。成功率指在所有視頻序列幀中,目標(biāo)框的重疊率Op=|rdet?rtgt|/|rdet?rtgt|小于設(shè)定閾值T0的幀數(shù)占所有視頻序列幀數(shù)的比率,該比率的范圍為[0,1] ,T0設(shè)置為0.5。其中rdet指跟蹤器得到的目標(biāo)框,rtgt指標(biāo)注的目標(biāo)框,?和?表示兩個目標(biāo)框像素的并集和交集,|· |表示統(tǒng)計該目標(biāo)框區(qū)域的像素點(diǎn)的數(shù)量。距離精度指在所有的視頻序列幀中,跟蹤得到目標(biāo)框中心位置和標(biāo)注目標(biāo)框中心位置之間的誤差值,小于設(shè)定閾值T1的幀數(shù),占所有視頻序列幀數(shù)的比率,T1設(shè)定為20像素大小。
成功率和距離精度均以標(biāo)注框的第一幀初始化跟蹤器,依據(jù)跟蹤器輸出的跟蹤結(jié)果評估目標(biāo)跟蹤算法,該評估方法稱為一次性通過評估(one-pass evaluation,OPE)。本文主要評估目標(biāo)的抗遮擋性能,因此采用OPE的評估方法能夠準(zhǔn)確地計算各個算法在OTB數(shù)據(jù)集上的抗遮擋性能。
本文所提算法的核相關(guān)濾波器的參數(shù)設(shè)置和基準(zhǔn)算法LCT+所設(shè)置的一致。在彩色圖像區(qū)域生長參數(shù)的設(shè)置上,系數(shù)α設(shè)為0.1,連通域S設(shè)為150。在顏色分割的參數(shù)設(shè)置上,分割系數(shù)D設(shè)為5/128。在形態(tài)學(xué)處理的參數(shù)設(shè)置上,匹配閾值Ts設(shè)為0.48。
算法的實驗代碼在LCT+的開源MATLAB 代碼上進(jìn)行改進(jìn),刪除了支持向量機(jī)重檢測模塊,增加了基于顏色塊的自適應(yīng)目標(biāo)重檢測模塊。在算法驗證的實驗中,使用的電腦配置為Intel Core i5-8300 2.3 GHz 的CPU和8 GB的RAM。
圖6 和圖7 為所提算法和其他一些主流算法如fDSST[15]、LCT+[3]、DSST[16]、KCF[17]、MRCT[18]在OTB50和OTB100數(shù)據(jù)集上的算法精度和成功曲線圖。如圖6所示,在OTB50數(shù)據(jù)集上,對比基準(zhǔn)算法LCT+,所提算法在距離精度和成功率分別提高了0.038和0.028。如圖7所示,在OTB100 數(shù)據(jù)集上,對比基準(zhǔn)算法LCT+,所提算法在距離精度和成功率分別提高了0.033 和0.020。所提算法不僅提高了基準(zhǔn)算法的精度,而且超過上述幾個主流跟蹤算法fDSST、DSST、KCF 和MRCT,表明所提算法在目標(biāo)跟蹤上具有較高的精度。
圖6 OTB50數(shù)據(jù)集的測試結(jié)果Fig.6 Results of one-pass evaluation in OTB50 dataset
圖7 OTB100數(shù)據(jù)集的測試結(jié)果Fig.7 Results of one-pass evaluation in OTB100 dataset
為了驗證所提算法的抗遮擋性能,選取OTB50 和OTB100 中存在遮擋情況的視頻集進(jìn)行算法評估,如圖8和圖9所示。由圖8可知,在OTB50遮擋數(shù)據(jù)集上,相比LCT+算法,所提算法在距離精度和成功率分別提高了0.066和0.049;由圖9可知,在OTB100遮擋數(shù)據(jù)集上,相比LCT+算法,所提算法在距離精度和成功率分別提高了0.075 和0.048,并且相比其他一些主流算法,在成功率和距離精度上都相對較優(yōu)。在OTB50 和OTB100數(shù)據(jù)上的測試表明基于顏色塊的自適應(yīng)跟蹤算法能夠有效處理目標(biāo)被遮擋的情況,實現(xiàn)了目標(biāo)的重新檢測并定位,有效提高了目標(biāo)的精度。
圖8 OTB50中遮擋數(shù)據(jù)集的測試結(jié)果Fig.8 Results of one-pass evaluation in OTB50 occlusion video sequence
圖9 OTB100中遮擋數(shù)據(jù)集的測試結(jié)果Fig.9 Results of one-pass evaluation in OTB100 occlusion video sequence
表1為跟蹤器運(yùn)行速率的對比,由于所提算法的檢測過程比基準(zhǔn)算法LCT+簡單,并且不必對SVM分類器進(jìn)行訓(xùn)練,其跟蹤速率有所提高。
表1 算法運(yùn)行速度對比Table 1 Comparison of algorithms running speed
在OTB50和OTB100的視頻數(shù)據(jù)集中,具有低分率(low resolution,LR)、出視野(out-of-view,OV)、背景雜波(background clutters,BC)、平面外旋轉(zhuǎn)(out-of-plane rotation,OPR)、平面內(nèi)旋轉(zhuǎn)(in-plane rotation,IPR)、快速運(yùn)動(fast motion,F(xiàn)M)、運(yùn)動模糊(motion blur,MB)、非剛體變形(deformation,DEF)、尺度變化(scale variation,SV)、光照變化(illumination variation,IV)、遮擋(occlusion,OCC)一共11種情況。
在OTB50 和OTB100 中不同屬性干擾下的成功率和距離精度實驗結(jié)果分別如表2 和表3 所示。其中,表中的粗體字表示最優(yōu)結(jié)果,下劃線表示次優(yōu)結(jié)果。
表3 在OTB50和OTB100上不同屬性算法的距離精度對比Table 3 Comparison of distance precision of algorithms with different attributes on OTB50 and OTB100
由表2 可知,在OTB50 的成功率結(jié)果中,所提算法在OCC、OV、DEF 和IPR 這4 個屬性上都表現(xiàn)最優(yōu),并且其余多個屬性表現(xiàn)次優(yōu)。在OTB100 的成功率結(jié)果中,所提算法在OCC、OV、SV、DEF、MB、FM、IPR和OV這8個屬性上都表現(xiàn)最優(yōu),并且其余的屬性表現(xiàn)次優(yōu)。
表2 在OTB50和OTB100上不同屬性算法的成功率對比Table 2 Comparison of success rate of algorithms with different attributes on OTB50 and OTB100
由表3 可知,在OTB50 的距離精度結(jié)果中,本文算法在OCC、OV、SV、DEF、IPR 和LR 這6 個屬性上都表現(xiàn)最優(yōu),并且其余多個屬性表現(xiàn)次優(yōu)。在OTB100的距離精度結(jié)果中,所提算法在除了BC屬性上都表現(xiàn)最優(yōu)。
為了可視化所提算法的抗遮擋性能效果,挑選了6個具有代表性的視頻集,將所提算法與其他幾個主流跟蹤算法進(jìn)行比較,跟蹤結(jié)果如圖10所示。表4為這5個視頻集分別具有的屬性值。其中,這6個視頻集都具有遮擋屬性,并且還包含其他的屬性值。
表4 視頻序列對應(yīng)的屬性Table 4 Corresponding attributes of video sequence
如圖10所示,從上到下分別為Girl2、Walking2、Jogging2、Panda、Skating2-1、Skating2-2視頻集。在Girl2視頻序列中第112幀發(fā)生目標(biāo)被遮擋的情況,而且目標(biāo)相比于第10 幀中行人已經(jīng)轉(zhuǎn)身,目標(biāo)發(fā)生了較大的變化。所提算法依然能夠通過顏色塊分割后進(jìn)行目標(biāo)重檢測,并在第129幀中重新找回目標(biāo)且準(zhǔn)確定位到目標(biāo)上,而其他跟蹤算法由于被遮擋物干擾而將目標(biāo)跟丟。
目標(biāo)在Walking2和Jogging2的第257幀,第53幀中都被不同程度地遮擋,通過顏色塊檢測器,所提算法重新跟上目標(biāo),而LCT+算法和其他部分算法跟丟了目標(biāo)。
在Panda、Skating2-1和Skating2-2視頻集中,由于發(fā)生了遮擋、目標(biāo)形變等情況,LCT+跟蹤器產(chǎn)生了偏移,并且其他跟蹤器也都存在不同程度的偏移,造成了目標(biāo)丟失。例如,在Panda視頻集的第378幀和Skating2-1視頻集第90 幀,LCT+跟蹤器跟丟目標(biāo)后無法再跟上目標(biāo)。雖然目標(biāo)相比初始幀發(fā)生了形變,但所提算法依然能在判斷目標(biāo)跟丟后通過顏色塊信息重新檢測目標(biāo),持續(xù)跟蹤目標(biāo)。在Skating2-2視頻集的第49幀中LCT+算法和所提算法由于目標(biāo)形變、快速變化跟丟目標(biāo),但在第198幀中所提算法又重新檢測并持續(xù)跟蹤目標(biāo)。
因此,所提算法在目標(biāo)發(fā)生形變時依然能夠檢測出目標(biāo),并在目標(biāo)發(fā)生遮擋重新出現(xiàn)時也檢測出目標(biāo),表明所提算法在抗遮擋上具有較優(yōu)的性能與較好的魯棒性。
圖11為圖10中視頻集對應(yīng)點(diǎn)的中心位置誤差的波形圖。波形圖的值越大,表明跟蹤到目標(biāo)框中心位置和標(biāo)注目標(biāo)框中心位置的距離誤差值越大,跟蹤器越不穩(wěn)定;值越小表明跟蹤到的目標(biāo)框中心位置和標(biāo)注目標(biāo)框中心位置的距離誤差值越小,跟蹤器越穩(wěn)定。在出現(xiàn)目標(biāo)被遮擋的情況時,所提算法對應(yīng)的波動較大,經(jīng)過基于顏色塊的重檢測目后,波動減少。因此,跟蹤器能較好地進(jìn)行跟蹤,而其他跟蹤器的波動相比本文跟蹤器波動較大。
圖10 所提算法與其他5種跟蹤算法在6個視頻序列中的定性比較Fig.10 Qualitative comparison between proposed algorithm and five other tracking algorithms in six video sequence
圖11 所提算法在其中6個視頻序列中與其他跟蹤算法的對比Fig.11 Comparison of proposed algorithm with other tracking algorithms in six video sequences
所提算法采取基于顏色塊重檢的自適應(yīng)抗遮擋策略,當(dāng)檢測到目標(biāo)丟失后,基于初始幀目標(biāo)的顏色塊信息進(jìn)行目標(biāo)重檢測,較好地處理目標(biāo)被遮擋的情況,能夠長期穩(wěn)定地進(jìn)行目標(biāo)跟蹤。
基于顏色塊重檢的自適應(yīng)抗遮擋目標(biāo)跟蹤算法能夠在提取初始幀目標(biāo)的顏色塊信息后,根據(jù)顏色塊信息重檢測跟丟的目標(biāo)并進(jìn)行匹配,最終重新跟蹤目標(biāo)。該算法利用顏色塊檢測模塊替換了LCT+算法中的支持向量機(jī)檢測模塊,實現(xiàn)了目標(biāo)的全局檢測。通過在OTB上的實驗表明,所提算法改善了目標(biāo)的抗遮擋性能,有效提高了目標(biāo)跟蹤的速度和精度,實現(xiàn)了目標(biāo)的魯棒性跟蹤。在下一步的工作中,將致力于研究初始幀目標(biāo)模板的更新問題,通過更新該模板從而更新顏色塊信息以提高重檢測的精度,提高跟蹤器的魯棒性。