李 想,汪榮貴,楊 娟,蔣守歡,梁啟香
(合肥工業(yè)大學(xué)計算機與信息學(xué)院,合肥230009)
基于示例選擇的目標跟蹤改進算法
李 想,汪榮貴,楊 娟,蔣守歡,梁啟香
(合肥工業(yè)大學(xué)計算機與信息學(xué)院,合肥230009)
多示例學(xué)習(xí)是一種處理包分類問題的新型學(xué)習(xí)模式,傳統(tǒng)基于多示例學(xué)習(xí)的目標跟蹤算法在自適應(yīng)獲取正包時受到無益或有害示例的干擾,不能很好地提取目標的鑒別性特征。為此,設(shè)計基于核密度估計的示例選擇方法,剔除訓(xùn)練集中的無益示例或有害示例,提高多示例學(xué)習(xí)算法的有效性,并在此基礎(chǔ)上提出一種基于示例選擇的目標跟蹤改進算法,針對負示例占多數(shù)的情況建立核密度估計函數(shù)來精簡正包中的示例,使用精簡后的樣本數(shù)據(jù)進行訓(xùn)練學(xué)習(xí),最終實現(xiàn)對目標的實時跟蹤。實驗結(jié)果表明,該算法在光照變化、目標部分遮擋及形體變化等情形下都具有較好的穩(wěn)健性。
多示例學(xué)習(xí);有害示例;核密度估計;示例選擇;穩(wěn)健性;目標跟蹤
視頻中運動目標的自動跟蹤是計算機視覺的重要研究內(nèi)容,在安全監(jiān)控、視頻內(nèi)容分析、機器人導(dǎo)航等領(lǐng)域都有著廣闊的應(yīng)用前景。然而,在實際跟蹤過程中,通常會遇到光照變化、復(fù)雜背景的干擾,以及目標的部分遮擋和形體變化等情況,這些都會導(dǎo)致跟蹤精度下降甚至跟蹤漂移或丟失。因此,跟蹤算法的穩(wěn)健性在視頻跟蹤過程中具有非常關(guān)鍵的作用。
穩(wěn)健性跟蹤算法是視頻目標跟蹤研究的重點和難點,其具有代表性的研究成果主要有:文獻[1]提出了基于MeanShift的目標跟蹤方法,該方法在物體遇到目標遮擋和形體變形時仍能實時的跟蹤,但當背景與目標相似情況下該算法魯棒性較差;文獻[2]提出使用支持向量機(SVM)對目標進行跟蹤,但該算法計算量大跟蹤實時性弱;文獻[3]提出基于子塊的積分直方圖跟蹤方法,該跟蹤方法可以很好地處理部分遮擋問題,但不能較好地適應(yīng)形體變化;文獻[4]提出基于AdaBoost級聯(lián)的人臉檢測方法,使用Haar-like小波特征和積分圖方法提取人臉特征訓(xùn)練AdaBoost,并對AdaBoost訓(xùn)練出的強分類器級聯(lián)對人臉進行檢測,并取得較好的檢測結(jié)果;文獻[5]提出基于分類的目標跟蹤方法,在線的方式訓(xùn)練Boosting特征分類器提取鑒別性特征分離目標和背景,實現(xiàn)了對目標物體地跟蹤。Boosting算法通過對復(fù)雜背景模型的在線學(xué)習(xí),可以較好地處理跟蹤時出現(xiàn)的干擾和自身變化等情況。然而Boosting算法在訓(xùn)練階段利用已知的概念標記類更新分類器,可是在實際應(yīng)用中能標記的信息少而模糊[6],導(dǎo)致Boosting算法具有內(nèi)在不確定性即樣本的歧義性[7]。
多示例學(xué)習(xí)(Multiple Instance Learning,MIL)[8]由Dietterich于上個世紀90年代提出。這種學(xué)習(xí)的訓(xùn)練樣本由包組成,因而在處理標記模糊性問題上比傳統(tǒng)的學(xué)習(xí)方法更加靈活。Paul Viola提出一種基于多示例學(xué)習(xí)目標跟蹤方法,該方法通過對包的訓(xùn)練學(xué)習(xí)將內(nèi)在不確定性傳遞給學(xué)習(xí)算法,以此構(gòu)造MILBoost分類器對目標進行檢測。文獻[9-10]在Paul Viola的基礎(chǔ)上采用自適應(yīng)外觀模型,并改進MILBoost算法將其應(yīng)用到目標跟蹤,取得了較好的跟蹤效果。但對于MILBoost跟蹤系統(tǒng)來說,通過跟蹤結(jié)果來預(yù)測目標的最佳位置,根據(jù)該點位置在一定搜索半徑內(nèi)選擇出樣本訓(xùn)練集正包和負包,然而在搜索半徑內(nèi)獲取滿足條件的訓(xùn)練樣本較多,會阻礙多示例學(xué)習(xí)的有效性。事實上,該方法得到的正包訓(xùn)練樣本占主導(dǎo)地位的往往是負示例,此時通過提取目標鑒別性特征來更新分類器反而降低跟蹤精度。
本文通過對多示例進行在線篩選的思想解決上述問題,提出一種基于高斯核密度估計的在線示例選擇方法。通過對多示例學(xué)習(xí)框架和核密度估計方法的研究,以及對獲取的訓(xùn)練樣本中負示例占多數(shù)現(xiàn)象的分析,利用AdaBoost分類器訓(xùn)練得到的特征集,建立基于負示例的高斯核密度估計函數(shù)來在線篩選正包中的示例,用篩選過后的正包在線更新AdaBoost分類器預(yù)測目標的最佳位置,由此提高跟蹤算法的穩(wěn)健性。
2.1 多示例學(xué)習(xí)
多示例學(xué)習(xí)被認為是與監(jiān)督學(xué)習(xí)、非監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)并列的一種新型機器學(xué)習(xí)框架,文獻[11]提出多示例學(xué)習(xí)概念,將每一種分子作為一個包,分子的每一個同分異構(gòu)體作為包中的一個示例。拓展到理論研究上即訓(xùn)練樣本集由若干個概念標記的包組成,每個包包含若干個沒有概念標記的示例,若一個包中至少包含一個正樣本,則該包標記為正,若一個包中的所有示例都是負樣本,則該包標記為負。通過對訓(xùn)練包的學(xué)習(xí),盡可能正確地對訓(xùn)練集之外包的概念標記進行預(yù)測[12]。
在傳統(tǒng)的學(xué)習(xí)框架的訓(xùn)練模式下,處理的樣本是一類已知的標記類,然而實現(xiàn)應(yīng)用中可提供的標記信息少而模糊,而多示例學(xué)習(xí)處理的訓(xùn)練樣本是以包為單位,只需知道包的概率標記而不是示例,在處理標記模糊性方面更加靈活[13]。多示例學(xué)習(xí)方法在圖像檢索、數(shù)據(jù)挖掘以及圖像分割、目標檢測和目標跟蹤等領(lǐng)域具有良好的應(yīng)用前景。
傳統(tǒng)鑒別性學(xué)習(xí)算法訓(xùn)練二值分類器來估算p(y|x),{(x1,y1),(x2,y2),…,(xn,yn)}表示訓(xùn)練樣本集(xi表示樣本,yi表示二值標記),在多示例學(xué)習(xí)框架里訓(xùn)練數(shù)據(jù)由包組成,表示形式為{X1,X2,…,Xn},其中,包Xi={xi1,xi2,…,xim};xij表示包中示例,yi∈{0,1}是包的概念標記,則包的概念標記定義為:
其中,yij是示例標記,實際訓(xùn)練過程中yij是未知的。由多示例學(xué)習(xí)框架得知,訓(xùn)練集由若干個具有概念標記的包組成,每個包包含若干沒有概念標記的示例。從訓(xùn)練角度來看,如果訓(xùn)練數(shù)據(jù)過多,會導(dǎo)致跟蹤算法的計算復(fù)雜度增加,且訓(xùn)練數(shù)據(jù)中會存在對分類結(jié)果無用的示例,導(dǎo)致分類器精度下降。由于非參數(shù)核密度估計方法不需要假定數(shù)據(jù)的密度分布形式,直接從數(shù)據(jù)中估計未知密度函數(shù)。因此,本文在訓(xùn)練階段運用核密度估計方法對訓(xùn)練樣本進行篩選。
2.2 核密度估計
核密度估計是由Rosenblatt和Parzen提出的一種非參數(shù)檢驗方法。該方法不使用數(shù)據(jù)分布的先驗知識,是一種從數(shù)據(jù)樣本本身出發(fā)研究數(shù)據(jù)分布特征的方法,因而在統(tǒng)計學(xué)和應(yīng)用領(lǐng)域均受到高度重視。下面簡要介紹核密度估計基本知識。
設(shè)數(shù)據(jù){x1,x2,…,xn}取自連續(xù)分布,在任意點x處的總體概率密度函數(shù)f(x)的核密度定義為:
其中,h為預(yù)先給定的正數(shù),通常稱為窗寬或者平滑參數(shù)。
(x)表現(xiàn)的好壞與核函數(shù)K(u)和窗寬h有關(guān),當窗寬較大時(x)的估計較穩(wěn)定,方差波動較小,反之,當窗寬較小時,估計的偏差較小,使得f^(x)的波動方差較大。
為了保持概率密度估計的合理性,通常要求核密度滿足以下條件:
常用的核函數(shù)有以下3種:
(1)高斯核函數(shù):
(2)Epanechnikov核函數(shù):
(3)Biweight核函數(shù):
依據(jù)高斯模型運算簡單的優(yōu)勢,核密度估計模型對隨機序列分布描述精確的特點,本文將非參數(shù)的核密度估計方法和高斯模型結(jié)合,綜合利用兩者的優(yōu)勢與特點對示例進行選擇。
本文利用多示例學(xué)習(xí)框架對目標進行跟蹤時,采用自適應(yīng)方式選擇訓(xùn)練樣本數(shù)據(jù),通過預(yù)測目標物體的最佳位置l?,將滿足條件X+={||l(x)-l?(x)||<r}選取得到的訓(xùn)練樣本集作為正包中的示例,而滿足條件X-={r<||l(x)-l?(x)||<β}選取得到的訓(xùn)練樣本集作為負包中的示例。
這種方式選擇得到的訓(xùn)練樣本會存在以下2個問題:(1)訓(xùn)練樣本提取的特征過多,增加計算復(fù)雜度;(2)訓(xùn)練樣本包會存在干擾示例,并且干擾示例具有絕對的選擇權(quán),會弱化分類器的分類結(jié)果,導(dǎo)致下一幀跟蹤目標的預(yù)測位置錯誤。因此,在基于多示例框架的跟蹤過程中,需要摒棄對分類過程產(chǎn)生干擾的無益示例或者有害示例[14]。其中,無益示例指一些類中不能提供有用的信息的示例;有害示例指在分類過程提供錯誤信息導(dǎo)致分類錯誤的示例。
假設(shè)對于某個示例集合C={a1,a2,…,as}(ai是類中的示例)。運用多樣性密度(Diverse Density, DD)算法來計算某個示例ai在全部包的概率大小,如式(4)所示:
根據(jù)Bayes理論計算ai概率大小其復(fù)雜度高,而且DD方法在選擇示例方面更加嚴格,因為它總是只能尋找一個示例。這種示例選擇方法獲得的訓(xùn)練集中仍存在很多無益示例或者有害示例。所以,本文提出基于核密度估計的示例選擇,以有效減少訓(xùn)練集中無益示例或者有害示例對分類結(jié)果的干擾,提高目標跟蹤算法的穩(wěn)健性。
假設(shè){x1,x2,…,xn}是n個離散的樣本,其服從的分布概率密度函數(shù)f(x),則密度估計為:
其中均勻核函數(shù)為:
若將式(5)窗寬放寬就得到一般核密度估計表示形式(式(2))。
為提高核密度估計的計算效率,本文采用運算簡單高斯核密度,即高斯核密度估計函數(shù)。假設(shè)fei為某一特征,則fei的高斯核密度函數(shù)如下:
其中,mi表示第i個負包中掃描示例得到fei個數(shù);xij表示第i負包中第j個示例的特征值;μ表示對應(yīng)特征fei負包示例的均值;σ表示對應(yīng)特征fei負包示例的方差。
示例選擇的基本原理如下:
(1)利用AdaBoost分類器訓(xùn)練得到的特征集,對于每個特征計算負包中示例的特征值。
(2)建立相應(yīng)的高斯核密度分布函數(shù)fei(x)。
(3)計算正包中的示例特征值,如果對于正包中的某示例的分布多次滿足建立的高斯核密度分布(即正包中的示例滿足分布兩垂直虛線之間,如圖1所示),則認為它是負示例,將其剔除;反之,則保留。
圖1 高斯核密度函數(shù)分布
將通過高斯核密度估計函數(shù)篩選過后得到訓(xùn)練樣本的正包,與原負包的樣本一起訓(xùn)練AdaBoost分類器,再對目標物體進行分類并預(yù)測跟蹤目標的最佳位置。但是每當有新的數(shù)據(jù){(x1,y1),(x2,y2),…,(xn,yn)}時,若還采用原有的高斯核密度估計分布函數(shù)對正包進行篩選,會直接導(dǎo)致跟蹤精度的下降,算法的穩(wěn)健性減弱。因此,本文采用如下策略對示例選擇算法的高斯核進行在線更新:
圖2舉例說明基于高斯核密度估計的示例選擇算法,其中,實現(xiàn)為正包樣本;虛線為負包樣本(圖中所框定出來的正負包樣本只是訓(xùn)練樣本一部分)。
圖2 示例選擇說明
本文提出一種基于高斯核密度估計示例選擇的目標跟蹤算法。該算法在訓(xùn)練階段,剔除正包中無益或者有害的示例,并訓(xùn)練AdaBoost分類器進而對目標物體進行跟蹤。然而跟蹤的初始化階段并不進行示例選擇,而是通過人機交互方式提取樣本,并訓(xùn)練AdaBoost分類器。以圖3為例,先將第1幀作為訓(xùn)練幀,通過手動定義樣本的位置信息并規(guī)定樣本統(tǒng)一的高寬來選取正負包,將目標位置四周的樣本如實線框所示樣本作為正包中的示例,而遠離目標的樣本如虛線框框所示樣本作為負包中的示例。圖3中黑色實框的樣本為正包樣本,白色虛框的樣本為負包樣本(其中圖中所框定出來的正負包樣本只是訓(xùn)練樣本一部分),并對得到的訓(xùn)練樣本集利用AdaBoost分類器進行訓(xùn)練。
圖3 訓(xùn)練樣本手動定義示例
本文訓(xùn)練AdaBoost訓(xùn)練器所用特征是Haarlike特征[15],如圖4所示。利用積分圖方式求出圖像中所有區(qū)域像素和,針對圖中的矩形特征的計算,通過計算特征矩形的端點積分圖,再進行簡單的加減運算得到特征值,這樣計算方式大大提高計算速度。
圖4 Haar-like特征
訓(xùn)練AdaBoost分類器除了得到的特征集建立高斯核密度估計外;同時還利用得到的弱分類器組合成強分類器來預(yù)測下一目標的最佳位置l?,目標的最佳位置l?采用具有連續(xù)置信度輸出的LUT型弱分類器,如圖5所示,其中,hj(x)表示特征對應(yīng)的弱分類器,Wk+1和Wk
-1分別表示作為正示例和負示例的權(quán)重之和(其中,k表示第k區(qū)間),將正包中示例的置信度高作為當前幀t的目標位置即為目標的最佳位置
圖5 LUT型弱分類器
綜上所述,本文跟蹤算法步驟如下:
Setp 1初始幀,通過人機交互獲取樣本集,運用積分圖計算Harr-like特征,并訓(xùn)練AdaBoost分類器,所有的特征均值和方差都設(shè)置為0。
Setp 2預(yù)測當前幀t的最佳位置,根據(jù){||l(x)-l?(x)||<r}和{r<||l(x)-l?(x)||<β}將樣本分為正包和負包。
Setp 3并利用上一幀訓(xùn)練AdaBoost分類器得到的特征集,計算負包中的示例的Harr-like特征,建立高斯核密度函數(shù),在線更新均值μ和方差σ。
Setp 4計算正包中某示例是否滿足某個特征的高斯核密度分布,通過對每個示例設(shè)置計數(shù)變量來判斷;如果某示例多次滿足高斯核密度函數(shù)分布,則將該示例刪除,以此篩選正包中的示例。
Setp 5在線更新AdaBoost分類器。
Setp 6預(yù)測下一幀的位置前,先判斷這幀是否是最后一幀,如果是則結(jié)束,否則轉(zhuǎn)步驟Step2。
本文目標跟蹤算法流程如圖6所示。
圖6 本文目標跟蹤算法流程
本文實驗平臺為CPU雙核2.6 GHz,內(nèi)存2 GB,軟件為Matlab R2009a,Windows XP操作系統(tǒng)。為了驗證本文算法的有效性,實驗中選取了多組具有代表性的視頻進行處理,這些視頻中包含了目標的遮擋,光照的劇烈變化,目標的快速移動等較難處理的情況。本文采用 MIL跟蹤方法以及 OAB(Online AdaBoost)跟蹤方法作為對比實驗,并且分別通過主觀觀察和客觀評價方法驗證本文算法的優(yōu)越性。
本文所采用的實驗對比方法采用相同的運動模型,算法在跟蹤的初始化階段,需要手動定義目標的訓(xùn)練樣本,初始時設(shè)置μ0=0,σ0=0。本文算法和OAB算法設(shè)置搜索半徑為30像素,在搜索半徑內(nèi)未發(fā)現(xiàn)目標時,下一幀將擴大搜索半徑,擴大率為ε=1.1。對于本文算法,對于本文算法每一幀的半徑r=5范圍內(nèi)視為正包中的示例,一般情況下正包中包含約60個的圖像子塊;對于負包示例的半徑設(shè)置為β=55,一般情況下負包中會生成約70個的圖像子塊。更新策略的參數(shù)本文設(shè)置為α=0.85。圖7為實驗結(jié)果對比,其中,黑色直線為本文算法;白色點劃線為MIL算法;白色虛線為 OAB算法。圖7(a)為視頻 david inside的跟蹤效果,本文提供了#1,#14,#154,#277, #316和#460幀作為效果展示圖,從效果圖可以看出視頻跟蹤中遇到光線變化和自身變化等情況,本文算法較MIL和OAB都具有較好的跟蹤效果。圖7(b)為視頻sylverster的跟蹤效果,此視頻主要難點在于目標的自身變化和光照變化,如#1,#389,#608,#866,#933, #1344圖中所示,本文算法在跟蹤效果方面比MIL算法和OAB算法好。圖7(c)從occluded face2中選取#1,#282,#411,#658,#732,#812的效果圖,本視頻存在的主要處理難點是人臉遮擋問題,該視頻中人臉的遮擋率大75%,,如#732,本文算法仍然有較好的跟蹤效果。圖7(d)從tiger2中選取#1,#53,#114,#205,#329, #362的效果圖,該視頻主要處理的是物體的快速移動以及經(jīng)常性遮擋,從圖中可以看出,當目標出現(xiàn)全遮擋本文算法依然可以跟蹤。
上述的實驗結(jié)果對比是從主觀上來評價本文算法的優(yōu)越性,下面從客觀角度來衡量本文算法性能。目前對于跟蹤算法主要采用中心像素誤差作為評價標準,中心像素距離指的是目前跟蹤到的目標中心位置與目標實際中心位置的像素距離。圖8為每個視頻基于中心像素距離標準的跟蹤效果對比,其中對于每個視頻每隔5幀,提取該目標的中心位置和實際中心位置的像素距離。
但是這種方法并不能很好地分析跟蹤算法準確性,如圖9所示,由圖9(a)可以看出,盡管它們的中心點重合,但是由于文章采用自適應(yīng)選取樣本,因此它在大小和形狀相差很大,如果單獨考慮中心像素誤差,會認為跟蹤精確度達到100%,但事實情況并非如此。圖9(b)顯示目標較大時,盡管中心平均像素誤差較大,但還是有較多區(qū)域重合,而目標較小時,如圖9(c)所示,盡管中心平均像素誤差較小,但跟蹤結(jié)果已偏離目標。因此,本文認為跟蹤目標的準確度和目標的中心位置有關(guān),還和目標的大小有關(guān),為此本文采用一種更加嚴格的評價標準,基于重合面積的精確度計算方法[16-17]。
圖7 實驗結(jié)果對比
圖8 中心像素距離對比
圖9 跟蹤結(jié)果現(xiàn)象分析
如圖10所示,S1代表真實目標區(qū)域面積,S2代表跟蹤到的目標區(qū)域面積,S3為S1和S2面積的重合部分,則其精確度評價標準p為:
圖10 重合面積表示
基于此評價標準,對圖8中的每個視頻的跟蹤效果進行對比,結(jié)果如圖11所示。
由圖8和圖11的實驗結(jié)果可以看出,在視頻跟蹤的前期階段,MIL算法跟蹤效果較好,因為MIL算法主要通過基于部分模型解決遮擋問題,但不能很好地解決目標的自身變化。而OAB算法跟蹤整體效果不錯,但跟本文算法相比,由于訓(xùn)練樣本過多,導(dǎo)致跟蹤精度都不如本文算法。從上面的主觀和客觀的分析結(jié)果可以看出本文提出的方法能夠更加穩(wěn)健的跟蹤到目標,并且在背景復(fù)雜,光線變化,物體的快速移動,目標遮擋等復(fù)雜條件下,都具有較高的準確率。
圖11 重合精確度對比
本文對多示例學(xué)習(xí)框架訓(xùn)練分類器的優(yōu)點與不足進行分析,根據(jù)選取訓(xùn)練樣本的樣本分布特點,提出了基于高斯核密度估計的示例選擇的目標跟蹤方法,并針對負示例占據(jù)主導(dǎo)優(yōu)勢的情況,建立基于負示例分布的高斯核密度,對正包中的示例進行篩選,得到最終的訓(xùn)練樣本數(shù)據(jù),然后更新訓(xùn)練AdaBoost分類器對目標進行跟蹤。實驗結(jié)果表明,本文算法在處理遮擋、光照變化、快速移動以及自身變化的情況時,具有較好的跟蹤效果。
[1] Comaniciu D,Rameshand V,Meer P.Real-time Tracking of Non-rigid Objects Using Mean Shift[C]// Proceedings of CVPR’00.Hilton Head Island,USA: IEEE Press,2000:142-149.
[2] Avidan S. Subset Selection for Efficient SVM Tracking[C]//Proceedings of CVPR’03.Madison, USA:IEEE Press,2003:85-92.
[3] Adam A,Rivlin E,Shimshoni I.Robust MILments-based Tracking Using the Integral Histogram [C]// Proceedings of CVPR’06.New York,USA:IEEE Press, 2006:798-805.
[4] Viola P,Jones M J.Real-time Face Detection[J]. International Journal of Computer Vision,2004,57(2): 137-154.
[5] Grabner H,Grabner M,Bischof H.Real-time Tracking via Online Boosting[C]//Proceedings of BMVC’06. Edinburgh,UK:[s.n.],2006:47-56.
[6] Li Mu,Kwok J T,Lu Baoliang.Online Multiple Instance Learning with No Regret[C]//Proceedings of CVPR’10.San Francisco,USA:IEEE Press,2010: 1395-1401.
[7] Viola P,PlattJC,Zhang Cha.Multiple Instance Boosting for Object Detection[C]//Proceedings of NIPS’05.Whistler,Canada:[s.n.],2005:1417-1426.
[8] Dietterich T G,Lathrop R H,Lozano-Pérez T.Solving the Multiple-instance Problem with Axis-parallel Rectangles[J].Artificial Intelligence,1997,89(1/2):31-71.
[9] Babenko B,Yang M H,Belongie S.Visual Tracking with Online Multiple Instance Learning[C]// Proceedings of CVPR’09.Miami,USA:IEEE Press, 2009:983-990.
[10] Babenko B,Yang M H,Belongie S.Robust Object Tracking with Online Mutltiple Instance Learning[C]// Proceedings of PAMI’11.Miami,USA:IEEE Press, 2011:983-990.
[11] Maron O,Lozano-Perez T.A Framework for Multiple Instance Learning[C]//Proceedings of NIPS’98. [S.l.]:MIT Press,1998:570-576.
[12] 鄧劍勛,熊忠陽.多示例圖像檢索算法研究及在人臉識別中的應(yīng)用[D].重慶:重慶大學(xué),2012.
[13] Zho Zhihua,Xu Junming.On the Relation Between Multi-instanceLearning and Semi-supervised Learning[C]//Proceedings of ICML’07.New York,USA: [s.n.],2007:1167-1174.
[14] Fu Zhouyu,Robles-Kelly A,Zhou Jun.MILIS:Multiple Instance Learning with Instance Selection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(5):958-977.
[15] Suha K,Nam W,Han B.Learning Occlusion with Likehoods for Visual Tracking[C]//Proceedings of ICCV’11.Barcelona,Spain:[s.n.],2011:1551-1558.
[16] 戴經(jīng)成,汪榮貴,游生福,等.在線多示例學(xué)習(xí)目標跟蹤方法研究[J].計算機工程與應(yīng)用,2012,48(15): 129-135.
[17] 戴經(jīng)成,汪榮貴.基于多示例學(xué)習(xí)的圖像分析方法研究[D].合肥:合肥工業(yè)大學(xué),2013.
編輯 金胡考
Improved Object Tracking Algorithm Based on Instance Selection
LI Xiang,WANG Ronggui,YANG Juan,JIANG Shouhuan,LIANG Qixiang
(School of Computer and Information,Hefei University of Technology,Hefei 230009,China)
Multiple Instance Learning(MIL)is a new learning paradigm that deals with the problem of bags classification.The object tracking algorithm based on MIL is often interfered by useless or harmful instances when adaptively choose positive bags,and can not extract good discriminative feature,and this will affect the robustness of tracking algorithm.Therefore,this paper proposes an instance selection method based on kernel density estimation to improve the efficiency of MIL algorithm,which eliminates useless or harmful instances in training set,and then on this basis it provides a robust object tracking algorithm based on instance selection.Firstly,the algorithm builds up kernel density estimation function,uses it to optimize instances of positive bag for the majority of them are negative instances, and then uses the optimized training data to training-and-learning,and finally achieves real-time object tracking. Experimental results demonstrate that when the object suffers from the illumination changes,object partial occlusions, appearance changes and some other situations,the proposed object tracking algorithm is more robust.
Multiple Instance Learning(MIL);harmful instance;kernel density estimation;instance selection; robustness;object tracking
1000-3428(2015)01-0150-08
A
TP181
10.3969/j.issn.1000-3428.2015.01.028
國家自然科學(xué)基金資助項目“霧天視頻中目標跟蹤的視覺計算模型與方法研究”(61075032);安徽省自然科學(xué)基金資助項目(1408085AF117)。
李 想(1990-),女,碩士,主研方向:計算機視覺;汪榮貴(通訊作者),教授、博士;楊 娟,講師、博士;蔣守歡、梁啟香,碩士研究生。
2014-02-18
2014-03-21 E-mail:wangrgui@hfut.edu.cn
中文引用格式:李 想,汪榮貴,楊 娟,等.基于示例選擇的目標跟蹤改進算法[J].計算機工程,2015,41(1):150-157.
英文引用格式:Li Xiang,Wang Ronggui,Yang Juan,et al.Improved Object Tracking Algorithm Based on Instance Selection[J].Computer Engineering,2015,41(1):150-157.