張立朝,畢篤彥,楊 源,余旺盛,覃 兵
(1.空軍工程大學(xué)航空航天工程學(xué)院,陜西西安 710038;2.空軍工程大學(xué)空管領(lǐng)航學(xué)院,陜西西安710051;3.空軍工程大學(xué)信息與導(dǎo)航學(xué)院,陜西西安 710077)
一種AGMM配準(zhǔn)的尺度自適應(yīng)目標(biāo)跟蹤方法
張立朝1,畢篤彥1,楊 源2,余旺盛3,覃 兵1
(1.空軍工程大學(xué)航空航天工程學(xué)院,陜西西安 710038;2.空軍工程大學(xué)空管領(lǐng)航學(xué)院,陜西西安710051;3.空軍工程大學(xué)信息與導(dǎo)航學(xué)院,陜西西安 710077)
針對(duì)視覺目標(biāo)跟蹤中目標(biāo)尺度發(fā)生變化時(shí)容易發(fā)生跟蹤失敗的問題,提出基于不對(duì)稱高斯混合模型配準(zhǔn)的尺度自適應(yīng)目標(biāo)跟蹤方法.不對(duì)稱高斯混合模型配準(zhǔn)把上一幀和當(dāng)前幀圖像的特征點(diǎn)集分別作為高斯混合模型高斯重心和數(shù)據(jù)點(diǎn),并將特征信息與空間信息相融合;通過比較數(shù)據(jù)點(diǎn)與高斯混合模型高斯重心之間的相似程度,對(duì)兩幀圖像之間的點(diǎn)集進(jìn)行配準(zhǔn),得到當(dāng)前幀中可靠的特征點(diǎn);點(diǎn)集的離散程度充分反映了目標(biāo)尺度大小,通過仿射變換計(jì)算圖像離散度比例變化,可以準(zhǔn)確地估計(jì)出當(dāng)前幀目標(biāo)框的位置和尺度.實(shí)驗(yàn)表明,該算法對(duì)目標(biāo)尺度變化具有較強(qiáng)的自適應(yīng)性,并且在發(fā)生光照變化、復(fù)雜背景時(shí),也可以達(dá)到很好的效果.
視覺跟蹤;尺度自適應(yīng);不對(duì)稱高斯混合模型配準(zhǔn);仿射變換;特征點(diǎn)集
目標(biāo)跟蹤[1-4]是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)重點(diǎn)問題,也是難點(diǎn)問題.目標(biāo)跟蹤廣泛應(yīng)用于監(jiān)控、視頻編碼以及軍工領(lǐng)域.如何有效地在視頻序列中對(duì)感興趣目標(biāo)進(jìn)行有效跟蹤,是計(jì)算機(jī)視覺中一個(gè)極具挑戰(zhàn)性的課題.存在的挑戰(zhàn)有快速目標(biāo)移動(dòng)、光照變化、遮擋和復(fù)雜背景.
尺度估計(jì)一直是目標(biāo)跟蹤的重點(diǎn)問題:在跟蹤過程中,目標(biāo)框尺度關(guān)系到下一幀目標(biāo)位置及尺度的定位.當(dāng)目標(biāo)的尺度發(fā)生變化時(shí),如何適應(yīng)目標(biāo)尺度的變化已成為跟蹤任務(wù)的重點(diǎn).目前對(duì)目標(biāo)進(jìn)行尺度估計(jì)的基本方法有:基于Lindeberg尺度空間理論[5];基于仿射變換[6];基于Bhattacharrya系數(shù)對(duì)尺度求導(dǎo),得到尺度Mean shift[7];基于粒子濾波[8]的尺度估計(jì),在原始尺度周圍進(jìn)行遍歷;也有將Bhattacharrya系數(shù)換成Chi squared度量[9],然后在次最好結(jié)果的集合中挑選出最好的結(jié)果,進(jìn)行尺度估計(jì);還有在這些方法基礎(chǔ)上改進(jìn)的算法.但是這些尺度算法通常沒有充分反映前后幀之間的配準(zhǔn)信息,并且也缺乏對(duì)目標(biāo)的特征信息和空間信息的綜合描述.在跟蹤過程中,目標(biāo)的尺度可能變大或變小,一般情況下認(rèn)為相鄰兩幀尺度變化不大,即目標(biāo)的尺度隨時(shí)間變化服從連續(xù)分布,為充分利用前后幀的配準(zhǔn)關(guān)系并融合目標(biāo)的特征信息和空間信息,筆者引入點(diǎn)集來描述這些信息,采用基于不對(duì)稱高斯混合模型(Asymmetrical Gauss Mixture Models,AGMM)配準(zhǔn)的點(diǎn)集[10]預(yù)測(cè).相對(duì)于基于運(yùn)動(dòng)光流預(yù)測(cè)的個(gè)別點(diǎn)匹配算法[11]易受光照變化的影響,不對(duì)稱高斯混合模型配準(zhǔn)采用在高斯混合模型(GMM)[12]原始空間信息的基礎(chǔ)上加入特征信息,并采用點(diǎn)集進(jìn)行匹配,跟蹤結(jié)果更準(zhǔn)確,也更魯棒.
筆者采用基于仿射變換的目標(biāo)尺度估計(jì)算法,首先在上一幀目標(biāo)區(qū)域和當(dāng)前幀目標(biāo)候選區(qū)域檢測(cè)特征點(diǎn)集;然后利用不對(duì)稱高斯混合模型配準(zhǔn)對(duì)目標(biāo)點(diǎn)集與候選目標(biāo)點(diǎn)集進(jìn)行匹配,得到當(dāng)前幀中可靠的特征點(diǎn);最后仿射變換計(jì)算圖像離散度比例變化,準(zhǔn)確地估計(jì)出當(dāng)前幀目標(biāo)尺度.
1.1 不對(duì)稱高斯混合模型構(gòu)建
利用概率密度估計(jì)解決兩個(gè)點(diǎn)集之間的匹配問題.在視頻跟蹤中,認(rèn)為前一幀圖像的點(diǎn)集為高斯混合模型重心,而當(dāng)前幀圖像的點(diǎn)集為數(shù)據(jù)點(diǎn).假設(shè)St-1={yj|yj∈R2,j=1,…,m},St={xi|xi∈R2,i=1,…,n},分別為從前后相鄰兩幀圖像中提取特征點(diǎn)集.把集合St-1的元素看做m個(gè)高斯混合模型重心,把集合St的元素看做通過高斯混合模型產(chǎn)生的數(shù)據(jù)點(diǎn).高斯混合模型概率密度函數(shù)為
假定C(Y)是集合St-1中點(diǎn)的運(yùn)動(dòng)模型,?yi∈St-1=yj+C(yj)是第j個(gè)高斯成分的新位置.考慮噪聲點(diǎn)和局外點(diǎn),加入歸一化分布.將歸一化分布的權(quán)重表示為1-ω(0≤ω≤1),混合模型為
其中,
p(xi|j)是關(guān)于xi的第j個(gè)高斯成分;p(o)=1/n,對(duì)局外點(diǎn)和噪聲點(diǎn)進(jìn)行建模;pij(i=1,…,n;j=1,…, m)是所有高斯成分的混合系數(shù).在文獻(xiàn)[10]中,每一個(gè)高斯混合模型成分被認(rèn)為擁有相同的權(quán)重并且pij= 1/m.Θ={C(Y),σ},是運(yùn)動(dòng)參數(shù);D是點(diǎn)集維數(shù);σ是高斯成分的方差.
然而,除了考慮點(diǎn)集位置的一致性外,點(diǎn)集之間的特征相似性也是影響對(duì)應(yīng)可靠性的重要因素.如果高斯分布重心與特征空間中的數(shù)據(jù)點(diǎn)非常相似,那么應(yīng)該對(duì)這個(gè)高斯混合模型成分賦予大的權(quán)重,這樣具有相似特征的點(diǎn)對(duì)擁有更多的機(jī)會(huì)組成一個(gè)對(duì)應(yīng)關(guān)系.因此,不對(duì)稱高斯混合模型權(quán)重定義為
其中,f(xi)和f(yi)分別表示點(diǎn)xi和yi的特征.
因此,似然函數(shù)關(guān)于局內(nèi)點(diǎn)和局外點(diǎn)分布的混合模型為
為了更有效地解決復(fù)雜變形的點(diǎn)集配準(zhǔn),利用Tikhonov regularization定義先驗(yàn)概率,為
根據(jù)式(5)和式(6),后驗(yàn)概率p(Θ,ω|X)∝L(Θ,ω)p(C).因此,可以通過求解最大后驗(yàn)概率(Maximum A Posteriori,MAP)問題來估計(jì)參數(shù)Θ和ω.這相當(dāng)于最小化負(fù)的log-posteriorε(Θ,ω):
其中,p(xi|Θ,ω)由式(2)給出.
1.2 期望最大算法求解
期望最大(Expectation-Maximization,EM)算法是一個(gè)求解MAP問題的很好算法.利用期望最大算法找出最優(yōu)的Θ和ω.首先猜想?yún)?shù)的值,然后利用貝葉斯理論計(jì)算混合成分的后驗(yàn)概率分布,即算法的expectation或E-step.在M-step,獲得新的參數(shù)值通過最小化ε(Θ,ω)的期望,即Q(Θ,ω).Q(Θ,ω)可以寫為
E-step:通過貝葉斯理論計(jì)算混合成分的后驗(yàn)概率分布,即
其中,i=1,…,n,j=1,…,m.
式(9)表示樣本xi與yi匹配的概率.概率越小,匹配越不可靠.因此,經(jīng)過期望最大算法收斂后,匹配的概率可以用來濾除這些不穩(wěn)定的匹配.給出一個(gè)閾值tp,概率小于tp的匹配可以當(dāng)做非匹配點(diǎn)而移除掉.
M-step:通過最小化能量函數(shù)Q(Θ,ω)更新參數(shù)Θ和ω.
其中,1是元素全為1的列向量,P是矩陣,且P(j,i)=p(j|xi,Θ,ω).
2.1 基于仿射變換的尺度自適應(yīng)
選取2017年1月~10月期間收治的86例行胸、腹腔鏡聯(lián)合治療的食管癌患者,按隨機(jī)數(shù)字法分為對(duì)照組和觀察組。對(duì)照組:男女性別比為22:21;年齡49~78歲,平均(56.8±6.4)歲。觀察組:男女性別比為24:19;年齡49~78歲;平均(56.3±6.4)歲。兩組一般資料比較無統(tǒng)計(jì)學(xué)意義(P>0.05)。
將混合高斯模型獲得的點(diǎn)集進(jìn)行可靠性處理之后,獲得比較好的點(diǎn)集,在已知上一幀目標(biāo)尺度的情況下,通過對(duì)這些點(diǎn)集仿射變換,計(jì)算出當(dāng)前幀目標(biāo)的尺度.經(jīng)過后驗(yàn)概率p(j|xi,Θ,ω)小于閾值tp的非匹配濾除,留下可靠的匹配點(diǎn),則第t-1幀圖像It-1和第t幀圖像It中可靠的匹配特征點(diǎn)分別為S′t-1={yj|yj∈R2,j=1,…,r}和S′t={xi|xi∈R2,i=1,…,r},如圖1所示.
圖1 匹配特征點(diǎn)
根據(jù)圖1,分別計(jì)算點(diǎn)集S′t-1和S′t的離散度,再利用離散度計(jì)算仿射變換因子.
(1)It-1中目標(biāo)在x和y方向的空間離散度分別為
(2)It中目標(biāo)在x和y方向的空間離散度分別為
(3)仿射變換因子為
其中,{sx,sy}為目標(biāo)水平、垂直方向的伸縮參數(shù),{Δx,Δy}為平移參數(shù).
選取匹配點(diǎn)進(jìn)行仿射變換,考慮到實(shí)際中經(jīng)常遇到的平移和伸縮運(yùn)動(dòng),目標(biāo)仿射變換模型為
其中,(xt-1,yt-1)和(xt,yt)分別為同一目標(biāo)特征點(diǎn)分別在圖像It-1和圖像It中的位置.
當(dāng)前幀的目標(biāo)位置中心和目標(biāo)尺度表示為(O,Obb)t,計(jì)算如下:中心點(diǎn)Ot通過上一幀中心點(diǎn)Ot-1加上偏移量計(jì)算,即目標(biāo)框Obbt的寬度wt和高度ht分別通過上一幀Obbt-1的寬度wt-1和高度ht-1乘以伸縮參數(shù){sx,sy}得到,即
2.2 算法流程
基于不對(duì)稱高斯混合模型配準(zhǔn)的尺度自適應(yīng)目標(biāo)跟蹤算法流程如下.
輸入:圖像It-1和It,初始目標(biāo)位置O0,初始目標(biāo)框Obb0,采樣點(diǎn)集S0;
輸出:(O,Obb)t,It中匹配點(diǎn)集S′t;
For frame=t
3.1 不對(duì)稱高斯混合模型配準(zhǔn)實(shí)驗(yàn)
采用Mikolajczyk dataset[13]對(duì)不對(duì)稱高斯混合模型配準(zhǔn)的匹配映射進(jìn)行評(píng)估,如圖2所示.首先選3對(duì)典型的圖像對(duì)(boat1,boat3),(trees1,trees5)和(bikes1,bikes3),用來說明不對(duì)稱高斯混合模型算法的匹配表現(xiàn),一個(gè)匹配采用一個(gè)帶方向的箭頭表示.不對(duì)稱高斯混合模型配準(zhǔn)算法不單純考慮圖像的空間信息,同時(shí)加入目標(biāo)的特征信息.文中的特征信息采用尺度不變特征轉(zhuǎn)換(Scale Invariant Feature Transform, SIFT)特征[14],即式(4)的f(xi)與f(yi)利用尺度不變特征轉(zhuǎn)換描述子來計(jì)算,采樣尺度不變特征轉(zhuǎn)換特征點(diǎn)并在高斯混合模型中加入目標(biāo)的尺度不變特征轉(zhuǎn)換特征權(quán)重.尺度不變特征轉(zhuǎn)換特征提供先驗(yàn)信息,根據(jù)式(4),不對(duì)稱高斯混合模型中高斯混合模型的權(quán)重根據(jù)尺度不變特征轉(zhuǎn)換描述子匹配程度進(jìn)行不同程度的調(diào)整,對(duì)不同的高斯成分賦予不同的權(quán)重,減少誤匹配點(diǎn)和奇異點(diǎn),提高正確匹配點(diǎn)的數(shù)目以提取到目標(biāo)更多的特征點(diǎn),并且能夠準(zhǔn)確估計(jì)目標(biāo)的旋轉(zhuǎn)及一些尺度的變化.非匹配點(diǎn)過濾閾值tp設(shè)為0.3,不對(duì)稱高斯混合模型算法能夠?yàn)V除掉絕大多數(shù)非匹配特征點(diǎn)而留下準(zhǔn)確匹配的特征點(diǎn).
3.2 跟蹤實(shí)驗(yàn)
(1)‘CarScale’視頻序列.為測(cè)試上述算法對(duì)目標(biāo)尺度變化的自適應(yīng)性,采用的視頻序列為Bench Mark數(shù)據(jù)庫[15]中‘CarScale’視頻,序列長(zhǎng)度為252幀.圖3矩形框中標(biāo)出的為跟蹤目標(biāo),實(shí)驗(yàn)測(cè)試了目標(biāo)由遠(yuǎn)及近逐漸變大的過程中,本算法對(duì)目標(biāo)尺度變化的自適應(yīng)性,并與文獻(xiàn)[11]使用運(yùn)動(dòng)光流仿射變換的TLD算法進(jìn)行比較.分別挑選了#1、#128、#150、#161、#216和#221等具有代表性的幾幀跟蹤結(jié)果圖.可以看出,開始時(shí)目標(biāo)的尺度比較小,TLD算法可以較好地跟蹤上,隨著目標(biāo)的尺度不斷變大,從第128幀起目標(biāo)尺度變化已經(jīng)很大,依賴于檢測(cè)模板的TLD算法由于目標(biāo)模板都是初始化的小尺度模板,而得不到及時(shí)更新,因此不能適應(yīng)目標(biāo)尺度的變大.如圖3所示,筆者提出的算法可以及時(shí)適應(yīng)目標(biāo)尺度的變化,原因在于采用了不對(duì)稱高斯混合模型配準(zhǔn)的匹配跟蹤,在不對(duì)稱高斯混合模型配準(zhǔn)的同時(shí)考慮目標(biāo)的空間信息和特征信息,根據(jù)目標(biāo)尺度的變化調(diào)整特征權(quán)重的大小.選用尺度不變特征轉(zhuǎn)換點(diǎn)作為特征點(diǎn),主要原因是其具有尺度不變特性并且對(duì)光照旋轉(zhuǎn)等變化具有較強(qiáng)的抗干擾性.尺度不變特征轉(zhuǎn)換特征點(diǎn)集的元素個(gè)數(shù)比較多,這樣能夠更好地適應(yīng)目標(biāo)配準(zhǔn).在進(jìn)行仿射變換時(shí),點(diǎn)集中特征點(diǎn)主要分布在目標(biāo)的邊緣輪廓上,能夠充分反映目標(biāo)的外觀特征,點(diǎn)集之間的離散度之比正比于目標(biāo)外形輪廓的尺度之比.因此根據(jù)上一幀目標(biāo)的尺度及比例變化因子,利用仿射變換可以非常準(zhǔn)確地求解出目標(biāo)在當(dāng)前幀中的尺度.從圖3中可以看出,當(dāng)目標(biāo)的尺度不斷變大時(shí),即使受一些光照、復(fù)雜背景的干擾,筆者提出的算法也可以準(zhǔn)確地跟蹤目標(biāo).
圖2 不對(duì)稱高斯混合模型配準(zhǔn)的匹配映射
圖3 TLD算法和筆者提出的算法對(duì)‘CarScale’的跟蹤結(jié)果
圖4主要測(cè)試了目標(biāo)尺度變化時(shí),筆者提出的算法和比較算法對(duì)尺度變化的適應(yīng)性.從圖4中可見,雖然兩種算法得到的目標(biāo)尺度變化均反映了目標(biāo)的變化趨勢(shì),但筆者提出的算法得到的目標(biāo)尺度變化與目標(biāo)實(shí)際的尺度變化貼合較好,而TLD算法計(jì)算的尺度均低于目標(biāo)實(shí)際的尺度,且離實(shí)際尺度變化曲線較遠(yuǎn),在163~175幀和222~252幀處,由于光照變化導(dǎo)致光流無預(yù)測(cè)值.
圖4 目標(biāo)尺度變化對(duì)比
(2)‘Dog1’視頻序列.為測(cè)試筆者提出的算法對(duì)目標(biāo)尺度變化的自適應(yīng)性,采用的視頻序列為Bench Mark數(shù)據(jù)庫[15]中‘Dog1’視頻,序列長(zhǎng)度為1 350幀.同樣與TLD算法[11]進(jìn)行比較.實(shí)驗(yàn)測(cè)試了目標(biāo)由遠(yuǎn)及近逐漸變大的過程中,筆者提出的算法對(duì)目標(biāo)尺度變化的自適應(yīng)性,并與TLD算法中的尺度自適應(yīng)算法進(jìn)行了比較.分別挑選了#100、#494、#736、#1154、#1214和#1221等具有代表性的幾幀跟蹤結(jié)果圖.當(dāng)目標(biāo)的尺度和方向發(fā)生較大變化時(shí),TLD算法跟蹤效果并不好,跟蹤發(fā)生漂移并且不能適應(yīng)尺度變化,如圖5所示.同樣筆者提出的算法也在‘Dog1’序列上進(jìn)行測(cè)試,可以看出,筆者提出的算法能夠適應(yīng)目標(biāo)尺度由小變大、再由大變小的過程,并且當(dāng)目標(biāo)姿態(tài)發(fā)生變化時(shí),也會(huì)準(zhǔn)確地跟蹤目標(biāo).
圖5 TLD算法和筆者提出的算法對(duì)‘Dog1’的跟蹤結(jié)果
圖6為整個(gè)‘Dog1’視頻序列筆者提出的算法和TLD算法的跟蹤性能比較結(jié)果.從‘Overlap’和‘Localization Error’[16]曲線圖可以看出,在915~1 100幀,當(dāng)視頻尺度增大時(shí),TLD算法由于跟蹤模塊預(yù)測(cè)不準(zhǔn)并且模板更新不及時(shí),導(dǎo)致不能適應(yīng)目標(biāo)尺度的變化,而出現(xiàn)較大的誤差,主要體現(xiàn)在‘Overlap’變小、‘Localization Error’變大,即出現(xiàn)波谷和波峰的誤差.
圖6 視頻序列‘Dog1’的比較結(jié)果
筆者提出基于不對(duì)稱高斯混合模型配準(zhǔn)的尺度自適應(yīng)目標(biāo)跟蹤算法,在利用不對(duì)稱高斯混合模型算法進(jìn)行配準(zhǔn)的基礎(chǔ)上,計(jì)算出各個(gè)點(diǎn)集離散度,利用仿射變換對(duì)目標(biāo)進(jìn)行定位、尺度計(jì)算和方向計(jì)算.接著處理下一幀時(shí),同樣對(duì)相鄰兩幀之間的點(diǎn)集進(jìn)行配準(zhǔn),然后進(jìn)行幾何仿射變換.如此往復(fù)下去,便可自適應(yīng)地實(shí)現(xiàn)視頻序列目標(biāo)尺度和位置的定位跟蹤.通過實(shí)驗(yàn),驗(yàn)證了筆者提出的算法對(duì)目標(biāo)尺度變化的自適應(yīng)性,與目前優(yōu)秀的算法比較,可以發(fā)現(xiàn)筆者提出的算法具有良好的尺度處理能力,并且通過引入尺度不變特征轉(zhuǎn)換特征點(diǎn),點(diǎn)集配準(zhǔn)對(duì)光照具有較強(qiáng)的抗干擾性.點(diǎn)集之間離散度之比反映了相鄰兩幀之間目標(biāo)尺度之比,通過仿射變換,可以非常準(zhǔn)確地自適應(yīng)目標(biāo)尺度.
利用不對(duì)稱高斯混合模型配準(zhǔn)時(shí),筆者采用尺度不變特征轉(zhuǎn)換特征點(diǎn)集,可以考慮采用性能優(yōu)良且速度較快的特征信息:通過哈希投影將實(shí)值描述符轉(zhuǎn)化為二值描述子[17],一方面可以降低目標(biāo)匹配的運(yùn)算量,提高跟蹤速度;另一方面可以降低描述符所占存儲(chǔ)空間,提取更多的特征點(diǎn),從而提高配準(zhǔn)的精度.在下一步工作中,筆者將努力解決這個(gè)問題.
[1]Smeulders A W M,Chu D M,Cucchiara R,et al.Visual Tracking:an Experimental Survey[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(7):1442-1468.
[2]Zhong B,Yao H,Chen S,et al.Visual Tracking via Weakly Supervised Learning from Multiple Imperfect Oracles[J]. Pattern Recognition,2014,47(3):1395-1410.
[3]Li X,Hu W,Shen C,et al.A Survey of Appearance Models in Visual Object Tracking[J].ACM Transactions on Intelligent Systems and Technology,2013,4(4):58.
[4]Liu H,Yuan M,Sun F,et al.Spatial Neighborhood-constrained Linear Coding for Visual Object Tracking[J].IEEE Transactions on Industrial Informatics,2014,10(1):469-480.
[5]Collins R.Mean-shift Blob Tracking through Scale Space[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington:IEEE Computer Society,2003:234-240.
[6]彭寧嵩,楊杰,劉志,等.Mean-Shift跟蹤算法中核函數(shù)窗寬的自動(dòng)選取[J].軟件學(xué)報(bào),2005,16(9):1542-1550. Peng Ningsong,Yang Jie,Liu Zhi,et al.Automatic Selection of Kernel-bandwidth for Mean-shift Object Tracking[J]. Journal of Software,2005,16(9):1542-1550.
[7]Vojir T,Noskova J,Matas J.Robust Scale-Adaptive Mean-Shift for Tracking[C]//Lectures Notes in Computer Science:7944.Heidelberg:Springer Verlag,2013:652-663.
[8]Ross D,Lim J,Lin R S,et al.Incremental Learning for Robust Visual Tracking[J].International Journal of Computer Vision,2008,77(1):125-141.
[9]Naik N,Patil S,Joshi M.A Scale Adaptive Tracker Using Hybrid Color Histogram Matching Scheme[C]//Proceedings of the IEEE International Conference on Emerging Trends in Engineering and Technology.Piscataway:IEEE Computer Society,2009:279-284.
[10]Myronenko A,Song X B.Point-set Registration:Coherent Point Drift[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(12):2262-2275.
[11]Kalal Z,Mikolajczyk K,Matas J.Tracking Learning Detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,6(1):1-14.
[12]Jian B,Vemuri B.Robust Point Set Registration Using Gaussian Mixture Models[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(8):1633-1645.
[13]Mikolajczyk K,Schmid C.A Performance Evaluation of Local Descriptors[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(10):1615-1630.
[14]Lowe D G.Distinctive Image Features from Scale-invariant Keypoints[J].International Journal of Computer Vision, 2004,60(2):91-110.
[15]Wu Y,Lim J W,Yang M H.Online Object Tracking:a Benchmark[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Los Alamitos:IEEE Computer Society,2013:2411-2418.
[16]Everingham M,Van Gool L,Williams C K,et al.The Pascal Visual Object Classes(VOC)Challenge[J].Interational Journal of Computer Vision,2010,88(2):303-338.
[17]Li X,Shen C,Dick A,et al.Learning Compact Binary Codes for Visual Tracking[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington:IEEE Computer Society,2013: 2419-2426.
(編輯:郭 華)
Visual object tracking with the adaptive scale based on AGMM point sets matching
ZHANG Lichao1,BI Duyan1,YANG Yuan2,YU Wangsheng3,QIN Bing1
(1.School of Aeronautics and Astronautics Engineering,Air Force Engineering Univ,Xi’an 710038, China;2.School of ATC Pilot,Air Force Engineering Univ.,Xi’an 710051,China;3.School of Information and Astronautics Navigation,Air Force Engineering Univ.,Xi’an 710077,China)
A visual object tracking method with the adaptive scale based on AGMM(Asymmetrical Gauss Mixture Models)point sets matching is proposed aimed at adaptively following the object’s scale changes, which often cause tracking failure.As the feature point set in the last frame is considered as the GMM centroids and the feature point set in the current frame represents the data respectively,AGMM fuses the feature information and spatial information;by comparing the similarity between data and GMM centroids, we match the point sets between two adjacent frames and obtain the reliable feature points in the current frame;the degree of dispersion between points in the point set accurately reflects the size of the object scale and by using affine transformation,the proportion of the two point sets is computed to estimate the position and scale of the bounding box in the current frame accurately and effectively.Experimental results demonstrate that the method is adaptive to scale change and has advantage in illumination variation and color similar target tracking.
visual tracking;adaptive scale;asymmetrical Gauss mixture models alignment;affine transformation;feature point set
TP391
A
1001-2400(2015)05-0175-08
2014-05-08< class="emphasis_bold">網(wǎng)絡(luò)出版時(shí)間:
時(shí)間:2014-12-23
國(guó)家自然科學(xué)基金資助項(xiàng)目(61202339);博士后基金面上資金資助項(xiàng)目(2012M512144);陜西省自然科學(xué)基金資助項(xiàng)目(2012JQ8034)
張立朝(1990-),男,空軍工程大學(xué)碩士研究生,E-mail:zlichao2012@163.com.
楊 源(1981-),男,副教授,E-mail:yangyuan@126.com.
http://www.cnki.net/kcms/detail/61.1076.TN.20141223.0946.029.html
10.3969/j.issn.1001-2400.2015.05.029