項(xiàng)新建,胡海斌,姚佳娜,丁祎,鄭永平,金立
(1.浙江科技學(xué)院,自動(dòng)化與電氣工程學(xué)院,杭州 310023;2.浙江省交通運(yùn)輸科學(xué)研究院,杭州 310023;3.浙江小橋流水環(huán)境科技有限公司,杭州 310023)
隨著交通道路的快速發(fā)展,車流量增長(zhǎng)導(dǎo)致道路拋灑物事件激增。小型拋灑物,例如石塊、包裝袋等掉落與拋灑具有速度快、難以躲避的性質(zhì);會(huì)對(duì)行車造成視野遮擋與車輛破損,進(jìn)而引發(fā)嚴(yán)重的交通事故,對(duì)道路司乘人員造成極大的安全隱患[1]。復(fù)雜光照條件下,小目標(biāo)的檢測(cè)較為困難,傳統(tǒng)的目標(biāo)跟蹤算法難以勝任,因而在復(fù)雜道路環(huán)境下的小目標(biāo)拋灑物準(zhǔn)確檢測(cè)與跟蹤[2],成為智慧交通領(lǐng)域一個(gè)較為困難但十分有意義的問題。
田會(huì)娟等[3]和王瑞等[4]基于視頻感知道路信息,但視頻圖像受光線、天氣、復(fù)雜動(dòng)態(tài)背景、抖動(dòng)等因素影響,常見的檢測(cè)方式難以有效處理交通領(lǐng)域出現(xiàn)的各種情況。
目前主流的視頻檢測(cè)跟蹤方法采用目標(biāo)檢測(cè)與濾波跟蹤相結(jié)合的方式。Henriques 等[5]提出核相關(guān)濾波算法(KCF)視頻目標(biāo)跟蹤模型,該類方法一定程度上減少了模型計(jì)算量,KCF利用循環(huán)矩陣可以在傅里葉域?qū)腔男再|(zhì),大幅縮短了處理時(shí)間,但算法易產(chǎn)生邊界效應(yīng)導(dǎo)致跟蹤效率不高。Kiani 等[6]提出一種基于交替方向乘數(shù)法(ADMM)的方法使濾波器應(yīng)用多通道特征,擴(kuò)大搜索域的同時(shí)減少計(jì)算量。Danelljan等[7]提出一種精準(zhǔn)尺度估計(jì)的跟蹤算法(DSST),該類方法在跟蹤過程中實(shí)時(shí)對(duì)目標(biāo)進(jìn)行尺度預(yù)測(cè),可一定程度上提高算法跟蹤的精度和魯棒性,但對(duì)于變化較大的拋灑物目標(biāo),易出現(xiàn)尺度估計(jì)不準(zhǔn),且該算法對(duì)定位器精度要求較高。Pu 等[8]提出一種利用視覺注意的交互學(xué)習(xí)算法,在深度學(xué)習(xí)損失函數(shù)中引入注意力正則有效地消除了背景干擾。Sun等[9]提出一種感興趣判別區(qū)域(ROI)池化相關(guān)濾波(RPCF)算法,通過ROI 池化結(jié)果限制濾波器權(quán)重提升模型的性能。
Yan 等[10]通過Transformer 學(xué)習(xí)魯棒的時(shí)空聯(lián)合表示,將多張圖像的骨干網(wǎng)絡(luò)特征沿空間維度展開后拼接,得到一個(gè)同時(shí)包含空間與時(shí)序信息的特征序列作為編碼器的輸入,以學(xué)習(xí)一種強(qiáng)大的時(shí)空聯(lián)合表示。Lin等[11]對(duì)每個(gè)像素建立高學(xué)習(xí)率與低學(xué)習(xí)率雙混合高斯模型,利用前景中拋灑物的消散幀差來判斷拋灑物的靜止幀。Dwivedi等[12]采用幀差法提取前景,加入canny算子檢測(cè)前景目標(biāo)邊緣,比較連續(xù)幀邊緣質(zhì)心判別是否為丟棄物。該類方法可將復(fù)雜環(huán)境下的檢測(cè)問題轉(zhuǎn)化為簡(jiǎn)單前景檢測(cè)問題,一定程度上抑制了復(fù)雜光變化對(duì)檢測(cè)精度造成的影響。
根據(jù)道路拋灑物及其空中運(yùn)動(dòng)時(shí)產(chǎn)生獨(dú)立物影閉輪廓的特性,本文提出一種基于物影匹配算法的道路小目標(biāo)跟蹤方法。包括拋灑物首幀定位模塊與跟蹤模塊,使用混合高斯模型與物影匹配算法(OSMA),將復(fù)雜環(huán)境下的道路小目標(biāo)拋灑物的運(yùn)動(dòng)跟蹤,轉(zhuǎn)化為高斯域前景目標(biāo)跟蹤。通過大量自采數(shù)據(jù)集驗(yàn)證其算法的有效性。
使用具有M個(gè)分布的混合高斯分布模型確認(rèn)視頻圖像中每個(gè)像素點(diǎn)的前背景歸屬。
式中:時(shí)間t時(shí)的樣本集χT={x(t),…,x(t-T)}用于表示在時(shí)間窗口T內(nèi)不斷增加新樣本更新背景模型,以適應(yīng)復(fù)雜環(huán)境變化;x(t)為t時(shí)刻的樣本;x為像素值;m為像素點(diǎn)歸屬的子分布序號(hào);EBG與EFG分別為背景、前景分量;πm為M個(gè)混合模型的權(quán)重;η為高斯分布的概率密度函數(shù);μm與σmI分別為t時(shí)刻像素點(diǎn)的均值與協(xié)方差矩陣,其中,σm為高斯分布方差估計(jì)值,I為單位矩陣
模型更新方程為
式中:中心向量δm=x(t)-μm;α為指數(shù)級(jí)下降的包絡(luò)曲線,用以限制舊數(shù)據(jù)的影響;為像素x(t)符合分布模型的歸屬因子,最符合的分布模型歸屬為1,其余模型為0。像素x(t)馬氏距離是否小于3 倍的標(biāo)準(zhǔn)差用于判別該像素是否符合現(xiàn)有高斯分布,馬氏距離公式為
混合高斯模型背景分離具體流程如圖1所示,圖中ωM為混合高斯模型的M個(gè)子分布。
圖1 GMM算法流程Fig.1 GMM algorithm flow
為優(yōu)化混合高斯模型的背景更新模式,引入陰影檢測(cè)模塊。陰影檢測(cè)在色度分析上進(jìn)行,適用于移動(dòng)物體陰影檢測(cè),且對(duì)背景陰影具有抑制效果。陰影像素點(diǎn)St(x,y)的判別式為
式中:ρ,β,τH,τS為亮度與噪聲的敏感度調(diào)節(jié)參數(shù);It(x,y)為t時(shí)刻的圖像;Bt(x,y)為t時(shí)刻圖像的B分量;H,S,V為圖像RGB 轉(zhuǎn)換為HSV 空間的HSV分量。
強(qiáng)光下道路行車拋物會(huì)導(dǎo)致復(fù)雜光環(huán)境的產(chǎn)生,增加小目標(biāo)的定位與追蹤難度?;诘缆窉仦⑽镞\(yùn)動(dòng)過程中產(chǎn)生獨(dú)立閉環(huán)陰影的特性,OSMA首先對(duì)混合高斯背景分離模型進(jìn)行訓(xùn)練。訓(xùn)練完成后導(dǎo)入新幀對(duì)其參數(shù)更新,利用陰影檢測(cè)模塊配合前背景分離模型提取前景與陰影,對(duì)每幀導(dǎo)出的前景與陰影進(jìn)行膨脹腐蝕的形態(tài)學(xué)處理保持前景輪廓的完整性。然后通過三幀疑似拋灑物判定法定位疑似拋灑物,最后通過疑似拋灑物輪廓幀間匹配與運(yùn)動(dòng)軌跡計(jì)算對(duì)道路各類拋灑物進(jìn)行跟蹤。
OSMA 主要是利用道路拋灑物在運(yùn)動(dòng)中產(chǎn)生獨(dú)立物影輪廓的特性,對(duì)混合高斯模型產(chǎn)生的前景圖采用三幀疑似拋灑物判定法定位疑似拋灑物,通過疑似拋灑物輪廓幀間匹配與更新來跟蹤拋灑物的運(yùn)動(dòng)狀態(tài),具體步驟如圖2 所示,圖中n與J為匹配幀序號(hào)。
圖2 疑似拋灑物定位跟蹤算法Fig.2 Suspected projectile positioning tracking algorithm
主要步驟如下。
Step 1 利用已訓(xùn)練好的混合高斯模型提取視頻前景,將視頻從RGB彩色域轉(zhuǎn)換為高斯域,高斯域?qū)Ρ尘啊⑶熬芭c陰影分配的像素分別為0、127與255。對(duì)提取的前景進(jìn)行先腐蝕,后膨脹的形態(tài)學(xué)操作,獲取完整的前景目標(biāo)。
Step 2 提取當(dāng)前幀所有獨(dú)立閉環(huán)輪廓,并使用輪廓均值像素分割法判別輪廓類別(前景或陰影),判別式為
式中:P值用于分割當(dāng)前幀中前景與陰影輪廓;TAcc為當(dāng)前幀中最大輪廓前景點(diǎn)分割正確的概率(視頻最大輪廓都為車輛、行人等運(yùn)動(dòng)物體,理論輪廓像素均值應(yīng)為255);Fmin為分割臨界值,本文取127,用于保證分隔值P處于127~255;pcor為最大輪廓分類正確的點(diǎn);Vbig為最大輪廓的輪廓像素均值;U為目標(biāo)像素點(diǎn)集合;bw為目標(biāo)像素值;式(9)中64表示均值像素191(前景255 與陰影127 的平均值)與陰影像素127之差,根據(jù)單幀混合高斯模型對(duì)各輪廓判斷情況的相似性,將TAcc作為當(dāng)前幀正確分割概率在每幀中進(jìn)行自適應(yīng)更新;增益系數(shù)G用于放大自適應(yīng)值TAcc的影響,并將P至127~255 全范圍,用以適應(yīng)各種分割情況。
Step 3 引入Match算子,利用Hu矩平移、縮放、旋轉(zhuǎn)不變性,匹配目標(biāo)輪廓與陰影輪廓。對(duì)出現(xiàn)物影匹配成功的第j幀進(jìn)行物影輪廓預(yù)存,在第j+1,j+2 幀中進(jìn)行預(yù)存物影輪廓更新篩選,并將多幀匹配結(jié)果的高斯域疑似拋灑物前景輪廓模板與姿態(tài)初始化保存。
Step 4 疑似拋灑物定位完成后,利用式(9)對(duì)新進(jìn)幀前景做陰影剔除,獲取前景目標(biāo)。使用首幀疑似拋灑物輪廓模板對(duì)后續(xù)前景目標(biāo)做幀間輪廓匹配與姿態(tài)判定,完成疑似拋灑物的跟蹤。最后,根據(jù)疑似拋灑物多幀質(zhì)心變化確定靜止幀結(jié)束跟蹤。
本文算法對(duì)運(yùn)動(dòng)過程中的疑似拋灑物做軌跡偏移判定,實(shí)現(xiàn)對(duì)拋灑物的動(dòng)態(tài)跟蹤。由于噪聲與混合高斯存在,會(huì)對(duì)前景的部分誤判,跟蹤過程中易出現(xiàn)滿足幀間軌跡偏移判據(jù)的噪點(diǎn),導(dǎo)致跟蹤框偏移及算法失敗。因此引入影模板的更新匹配,用以限制噪點(diǎn)及高斯誤判前景對(duì)跟蹤造成的影響。拋灑物下落至道路后進(jìn)入靜止?fàn)顟B(tài),隨混合高斯模型背景模板的更新,多幀后會(huì)將拋灑物所處像素區(qū)域更新至背景模板,前景拋灑物隨著模板更新出現(xiàn)輪廓逐幀消散的情況,不完整的輪廓對(duì)跟蹤框尺度及跟蹤精度都造成了較大影響,因此對(duì)視頻幀采用多幀中心偏移判別拋灑物靜止幀獲取靜止時(shí)的質(zhì)心與外輪廓,降低前景消散造成的尺度與精度影響。算法步驟如圖3所示。
圖3 拋灑物跟蹤及靜止幀判別方法Fig.3 Method of scattering object tracking and static frame discrimination
主要步驟如下:
Step 1 通過聯(lián)合判據(jù)記錄每幀的拋灑物的質(zhì)心位置,設(shè)置多幀平均偏移來判斷拋灑物是否處于靜止?fàn)顟B(tài),對(duì)運(yùn)動(dòng)狀態(tài)的拋灑物在高斯域做外輪廓搜索與前景判定來確定為疑似拋灑物,通過幀間質(zhì)心偏移對(duì)疑似拋灑物進(jìn)行跟蹤,跟蹤過程中對(duì)拋灑物前景模板不斷更新,引入幀間模板與疑似拋灑物的外輪廓匹配方法增強(qiáng)跟蹤的可靠性。
Step 2 針對(duì)疑似拋灑物前景目標(biāo)靜止后在二值域前景像素消散造成外輪廓變化及輪廓缺失導(dǎo)致跟蹤尺度變化與跟蹤失敗的問題,對(duì)成功跟蹤幀的疑似拋灑物做質(zhì)心提取與預(yù)留,再下一幀開始前對(duì)已完成跟蹤的多幀進(jìn)行平均質(zhì)心偏移度計(jì)算,平均質(zhì)心偏移度小于閾值X,則判定為靜止?fàn)顟B(tài),閾值X由多個(gè)實(shí)驗(yàn)視頻結(jié)果分析得出,視混合高斯模型學(xué)習(xí)速率而定,本文取X=2。對(duì)判定為靜止幀的拋灑物,則對(duì)后續(xù)幀沿用靜止幀的跟蹤框與質(zhì)心,結(jié)束本次跟蹤。
本文提出物影匹配的道路小目標(biāo)拋灑物跟蹤的實(shí)驗(yàn)環(huán)境如表1所示。
表1 實(shí)驗(yàn)環(huán)境配置Table 1 Experimental environment configuration
3.2.1 數(shù)據(jù)集介紹
本文采用的視頻數(shù)據(jù)為某市道路不同時(shí)間段的自采數(shù)據(jù),拋灑物種類包括石塊、橘子皮、紙巾、水瓶、3D打印小圓柱與小紙箱等6類中小目標(biāo)拋灑物。為驗(yàn)證算法的實(shí)用性,視頻拍攝地點(diǎn)選取周邊具有泊車及外界環(huán)境樹蔭干擾的復(fù)雜交通路段。為驗(yàn)證算法在復(fù)雜道路下各類拋灑行為跟蹤的有效性,對(duì)視頻拍攝采用行車拋灑、騎車拋灑、行人拋灑等3種不同的拋灑行為。6條視頻(對(duì)應(yīng)6類拋灑物),每一條視頻時(shí)長(zhǎng)均約為45 s,幀率為30 frame·s-1,分辨率為1920×1080。其中,石塊、橘子皮、紙巾、水瓶、3D打印小圓柱與小紙箱等6類中小目標(biāo)拋灑物在前景中出現(xiàn)到消散的幀數(shù)分別為65,90,80,155,200,126 frame。
3.2.2 評(píng)價(jià)指標(biāo)
本文使用4種評(píng)價(jià)指標(biāo)評(píng)判算法的有效性。
(1)精確度指標(biāo)。計(jì)算每一幀標(biāo)注框中心點(diǎn)與算法輸出預(yù)測(cè)框中心點(diǎn)的歐氏距離,計(jì)算滿足中心誤差閾值T0的幀占總跟蹤幀數(shù)的比值。
(2)Accuracy指標(biāo)。計(jì)算每一幀標(biāo)注框與算法輸出預(yù)測(cè)框的交并比(IOU),對(duì)所有跟蹤幀的IOU取平均值作為Accuracy。
(3)AUC精準(zhǔn)度指標(biāo)。計(jì)算每一幀標(biāo)注框與算法輸出預(yù)測(cè)框的IOU,統(tǒng)計(jì)IOU大于給定閾值的視頻幀數(shù)占總幀數(shù)的百分比。
(4) 每秒處理幀數(shù)(FPS)指標(biāo)。算法對(duì)目標(biāo)存在期間跟蹤所用的時(shí)間與跟蹤幀數(shù)的比值,即每秒跟蹤的幀數(shù),值越大表示跟蹤的速度越快。
其中,精確度指標(biāo)能較好描述預(yù)測(cè)值與已知數(shù)據(jù)真值之間的差距(與理論值相符合的程度);準(zhǔn)確率與精準(zhǔn)度指標(biāo)可以總體上衡量一個(gè)跟蹤算法的準(zhǔn)確性,也可體現(xiàn)算法對(duì)跟蹤框漂移的抑制能力。FPS指標(biāo)則是衡量算法速度最適用的標(biāo)準(zhǔn)。
3.3.1 疑似拋灑物判定實(shí)驗(yàn)
本文將脫手、與車輛分離后的物體視為拋灑物,并于脫離幀采用三幀判定法進(jìn)行疑似拋灑物的判定與定位,圖4為stone序列為采用三幀判定法下匹配輪廓對(duì)的變化。
圖4 Napkin序列三幀判定結(jié)果圖Fig.4 Napkin sequence three frame decision result diagram
如圖5所示,三幀疑似拋灑物判定法依據(jù)道路脫手、脫離車輛的拋灑物存在獨(dú)立物影輪廓的特征,對(duì)其脫離后的前3 幀進(jìn)行物影對(duì)交叉匹配,逐幀更新匹配對(duì),將疑似拋灑物物影對(duì)從中判出。Napkin 序列在第813 幀存在多對(duì)成功匹配的物影對(duì),第814 幀隨著混合高斯的更新,去除了部分誤判為陰影的噪聲。因幀間質(zhì)心變化、交叉匹配等因素限制,最終在第815幀的高斯域中判出符合軌跡變化與獨(dú)立物影特征的物影對(duì),將其前景視為疑似拋灑物。
圖5 Napkin序列三幀判定結(jié)果圖Fig.5 Napkin sequence three frame decision result diagram
首幀目標(biāo)位置判定的精確程度直接影響跟蹤算法后續(xù)幀的跟蹤效果。依據(jù)標(biāo)注獲取首幀位置、人工框定的方式無法實(shí)現(xiàn)自動(dòng)化標(biāo)注,難以應(yīng)用于實(shí)際工程。相較于目標(biāo)檢測(cè)算法,本文提出適用于拋灑物的三幀物影匹配標(biāo)定法,能夠較好標(biāo)定首幀拋灑物的位置并降低算法對(duì)硬件平臺(tái)的要求。如圖5 所示,測(cè)試多人多次對(duì)首幀目標(biāo)進(jìn)行標(biāo)注,計(jì)算各視頻序列平均交并比,與三幀物影匹配初始化的結(jié)果進(jìn)行對(duì)比,結(jié)果顯示,本文提出的初始化標(biāo)定方法能夠較好替代人工標(biāo)注的方式,實(shí)現(xiàn)自動(dòng)化標(biāo)注的同時(shí)獲取到較高的首幀標(biāo)注精度。
3.3.2 疑似拋灑物輪廓模板更新實(shí)驗(yàn)
在三幀疑似拋灑物判定法對(duì)拋灑物進(jìn)行分割提取后,獲取到初始跟蹤幀的拋灑物位置、輪廓等信息,在后續(xù)幀中利用幀間疑似拋灑物輪廓模板匹配與軌跡判斷的方式進(jìn)行跟蹤。圖6 為Stone、Napkin、Orange等序列部分幀的疑似拋灑物輪廓模板更新圖。
圖6 疑似拋灑物幀間模板更新圖Fig.6 Inter-frame template update diagram of suspected dispersion
由圖6可知,空中運(yùn)動(dòng)的疑似拋灑物存在高速旋轉(zhuǎn)與位置角度變化的特點(diǎn),對(duì)其設(shè)置單一模板進(jìn)行匹配會(huì)存在多幀后輪廓變化過大導(dǎo)致匹配失敗的問題,本文采用疑似拋灑物幀間輪廓匹配的方式,在多個(gè)序列中可以觀察到幀拋灑物幀間變化較小,對(duì)疑似拋灑物輪廓進(jìn)行幀間更新能夠降低匹配失敗的概率,提高算法跟蹤能力。
3.3.3 物影匹配的小目標(biāo)跟蹤實(shí)驗(yàn)
為客觀驗(yàn)證OSMA算法及各模塊的有效性,對(duì)6類常見的小型、中小型道路拋灑物(水瓶、橘皮、紙巾、石塊、3D 打印物、紙箱等)視頻序列進(jìn)行測(cè)試,并與KCF、DSST、BACF、DAT、STARK 等算法在高斯域及彩色域上進(jìn)行跟蹤效果對(duì)比,并對(duì)高斯域中前景未消散幀與運(yùn)動(dòng)后200 frame 進(jìn)行對(duì)比,驗(yàn)證靜止幀檢測(cè)的有效性。實(shí)驗(yàn)結(jié)果如圖7~圖9、表2~表6所示。
圖7 是各算法在Bottle、Orange、Napkin 等6 個(gè)序列上的跟蹤結(jié)果。由于視頻中拋灑物快速移動(dòng)、旋轉(zhuǎn)等影響,KCF 與DSST 算法均出現(xiàn)了跟蹤失敗、跟蹤框漂移等現(xiàn)象;BACF 與DAT 算法能夠較好地跟蹤到Napkin、Box等幀間偏移較慢的中型拋灑物,但在Stone、Orange 等小型拋灑物中表現(xiàn)較差;STARK 算法對(duì)中小型拋灑物都有較好的適應(yīng)能力,但在Stone 序列中出現(xiàn)無法應(yīng)對(duì)拋灑物與背景過于相似,且存在復(fù)雜光變化的情況導(dǎo)致誤跟蹤;本文提出的OSMA 能夠較好地適應(yīng)快速移動(dòng)、旋轉(zhuǎn)、復(fù)雜光照、背景相似等問題,跟蹤尺度框基于輪廓獲取,具有較好的跟蹤效果。
圖7 各序列跟蹤結(jié)果對(duì)比圖Fig.7 Comparison of tracking results for sequences
為評(píng)估本文提出跟蹤方法的有效性與模型性能,在6 個(gè)視頻序列上進(jìn)行實(shí)驗(yàn)。將本文方法與5個(gè)最先進(jìn)的跟蹤器進(jìn)行比較,如圖8(a)彩色域跟蹤結(jié)果與圖8(c)高斯域跟蹤結(jié)果所示,本文所提出的高斯域下進(jìn)行目標(biāo)跟蹤對(duì)彩色域中背景前景相似、復(fù)雜光變化等因素具有一定抑制能力,各算法在高斯域中跟蹤成功幀數(shù)量有所提升。圖8(b)與圖8(c)均為高斯域中獲得的結(jié)果,其中,圖8(b)為起始幀至前景消散幀的跟蹤結(jié)果,圖8(c)為起始幀后200 frame 的跟蹤結(jié)果。由于前景消散融于背景后會(huì)出現(xiàn)目標(biāo)丟失導(dǎo)致跟蹤失敗的情況,本文提出的靜止幀判斷提前對(duì)靜止幀預(yù)測(cè)框留存,故在前景消散后未過多影響精度和成功率。
圖8 高斯域、彩色域下各算法跟蹤成功幀對(duì)比圖Fig.8 Successful frame contrast map tracked by algorithms in Gauss and color domains
圖9 為6 個(gè)序列上各算法的總體精度與成功率,其中,KCF、DSST 算法難以應(yīng)對(duì)本文數(shù)據(jù)存在的各類復(fù)雜問題,易出現(xiàn)跟蹤漂移與跟蹤失敗問題;BACF 與DAT 算法對(duì)Napkin、Box 等序列有較好的跟蹤性能,但難以處理小目標(biāo)、快速運(yùn)動(dòng)旋轉(zhuǎn)的情況,在小目標(biāo)拋灑物的跟蹤中效果較差;STARK 算法與本文OSMA 在6 個(gè)序列中有較相似的總體精度與成功率,但在Stone 序列中本文OSMA算法性能更優(yōu)于STARK算法。
表2~表6 為5 類對(duì)比算法在彩色域、高斯域下跟蹤各指標(biāo)的結(jié)果。其中,加粗一方為RGB 彩色域下的跟蹤結(jié)果(下同),OSMA 算法應(yīng)用于高斯域,故只取高斯域下的運(yùn)行結(jié)果作為對(duì)比。由表2可得,KCF、DSST、DAT 算法在高斯域下跟蹤效果均有提升,本文OSMA 算法各指標(biāo)均與STARK 算法相近,在Stone 序列中OSMA 表現(xiàn)更優(yōu)。OSMA在精確度、準(zhǔn)確率與精準(zhǔn)度上的平均表現(xiàn)均優(yōu)于各類算法,在速度上略低于對(duì)比的5類算法。這是由于本算法需要對(duì)前景物影輪廓進(jìn)行交叉匹配導(dǎo)致的,復(fù)雜前景會(huì)占用較多的匹配時(shí)間。因此當(dāng)?shù)缆翻h(huán)境復(fù)雜時(shí),會(huì)導(dǎo)致跟蹤時(shí)間延長(zhǎng),但仍能滿足正常道路拋灑物實(shí)時(shí)跟蹤的要求。
表2 各算法在6個(gè)視頻序列彩色域、高斯域的平均跟蹤結(jié)果對(duì)比Table 2 Comparison of average tracking results of each algorithm in six video sequences in Gaussian and color domains
表6 各算法在6個(gè)視頻序列速度指標(biāo)對(duì)比Table 6 Comparison of FPS indicators in six video sequences by different algorithms
表4 各算法在6個(gè)視頻序列彩色域、高斯域的準(zhǔn)確率結(jié)果對(duì)比Table 4 Comparison of accuracy results of each algorithm in six video sequences in Gaussian and color domains
表5 各算法在6個(gè)視頻序列彩色域、高斯域的精準(zhǔn)度結(jié)果對(duì)比Table 5 Comparison of AUC of each algorithm in six video sequences in Gaussian and color domains
表3~表6 列出了OSMA 與對(duì)比算法在6 個(gè)序列上的精確度、準(zhǔn)確率、精準(zhǔn)度和速度,OSMA 與STARK算法在精確度、準(zhǔn)確率與精準(zhǔn)度這3個(gè)指標(biāo)中表現(xiàn)均較好。對(duì)紙巾、橙子皮等運(yùn)動(dòng)產(chǎn)生復(fù)雜光變化的小目標(biāo)拋灑物進(jìn)行跟蹤時(shí),KCF、DSST、BACF、DAT 算法易產(chǎn)生跟蹤框漂移與誤跟蹤導(dǎo)致跟蹤失敗。OSMA通過混合高斯獲得前景,有效去除了復(fù)雜背景;在前景中進(jìn)行物影輪廓匹配判斷道路拋灑物能夠較好抑制復(fù)雜光變化導(dǎo)致的跟蹤失效;通過引入水瓶等中小型拋灑物,提高算法的魯棒性。因此,應(yīng)對(duì)復(fù)雜道路場(chǎng)景下,小目標(biāo)拋灑物的檢測(cè)跟蹤,OSMA 具有更好的跟蹤能力與魯棒性。
針對(duì)傳統(tǒng)依據(jù)標(biāo)注獲取首幀位置、人工框定獲取首幀位置,無法實(shí)現(xiàn)自動(dòng)化標(biāo)注,難以應(yīng)用于實(shí)際工程的問題,本文提出一種適用于道路拋灑物的三幀物影匹配標(biāo)定方法,實(shí)現(xiàn)自動(dòng)標(biāo)注獲取首幀目標(biāo)的同時(shí),精度可較好替代人工標(biāo)注精度。針對(duì)復(fù)雜道路環(huán)境下小目標(biāo)拋灑物難以被檢測(cè)跟蹤及拋灑物落地后靜止,前景像素消散導(dǎo)致目標(biāo)丟失與跟蹤框漂移的問題,本文提出一種幀間匹配的道路小目標(biāo)跟蹤方法。該算法將混合高斯模型獲得的前景目標(biāo)劃為疑似目標(biāo)、疑似陰影與無關(guān)目標(biāo),對(duì)疑似目標(biāo)與疑似陰影輪廓交叉匹配,實(shí)現(xiàn)疑似拋灑物判定,通過位置姿態(tài)變化對(duì)后續(xù)幀進(jìn)行跟蹤,引入幀間目標(biāo)輪廓比對(duì)提高跟蹤準(zhǔn)確性,最后判斷多幀拋灑物質(zhì)心變化來確定物體是否處于靜止?fàn)顟B(tài)。三幀物影匹配標(biāo)定與幀間拋灑物模板匹配方法構(gòu)成本文OSMA跟蹤算法。
實(shí)驗(yàn)結(jié)果表明,與KCF、DSST 算法相比,跟蹤精確度、準(zhǔn)確率與精準(zhǔn)率都有較高的提升;和BACF、DAT 算法相比,OSMA 能夠更好地跟蹤快速移動(dòng)變化的小目標(biāo)拋灑物;和STACK算法相比,OSMA在道路環(huán)境復(fù)雜,存在背景相似的小目標(biāo)拋灑物與復(fù)雜光變化時(shí),OSMA能夠更好地從復(fù)雜環(huán)境中區(qū)分出拋灑物目標(biāo),拋灑物目標(biāo)特征獲取更為準(zhǔn)確,不易產(chǎn)生跟蹤框漂移及誤判等問題,能夠在一般道路環(huán)境下實(shí)現(xiàn)實(shí)時(shí)檢測(cè)跟蹤。