鄺先驗(yàn) 李洪偉 楊柳
摘? 要: 針對(duì)城市道路交通視頻中兩輪車(chē)檢測(cè)經(jīng)常遇到的誤檢、漏檢頻繁,小尺度兩輪車(chē)檢測(cè)效果不佳等問(wèn)題,設(shè)計(jì)了一種基于改進(jìn)的Faster R?CNN算法的兩輪車(chē)視頻檢測(cè)模型。模型修改了錨點(diǎn)的參數(shù),并構(gòu)建了一種多尺度特征融合的區(qū)域建議網(wǎng)絡(luò)(RPN)結(jié)構(gòu),使得模型對(duì)小尺度目標(biāo)更加敏感。針對(duì)兩輪車(chē)數(shù)據(jù)集匱乏,采用遷移學(xué)習(xí)的方法進(jìn)行學(xué)習(xí)并獲得兩輪車(chē)檢測(cè)的最終模型。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的算法可以有效解決交通視頻中小尺度兩輪車(chē)的檢測(cè)問(wèn)題,在兩輪車(chē)數(shù)據(jù)集上獲得了98.94%的精確率。
關(guān)鍵詞: 兩輪車(chē)視頻檢測(cè); 兩輪車(chē)檢測(cè)模型; 改進(jìn)Faster R?CNN算法; RPN網(wǎng)絡(luò); 參數(shù)修改; 多尺度特征融合
中圖分類(lèi)號(hào): TN911.73?34; TP391.41? ? ? ? ? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼: A? ? ? ? ? ? ? ? ?文章編號(hào): 1004?373X(2020)09?0129?06
Two?wheeled vehicle video detection based on improved Faster R?CNN algorithm
KUANG Xianyan, LI Hongwei, YANG Liu
(College of Electrical Engineering and Automation, Jiangxi University of Science and Technology, Ganzhou 341000, China)
Abstract: For the frequent false and missing detection of two?wheeled vehicles in urban road traffic videos and the poor detection effect of small?scale two?wheeled vehicles, a two?wheeled vehicle video detection model is designed based on the improved Faster R?CNN algorithm. By the proposed model, the parameters of anchors are modified and structure of a multi?scale feature fusion RPN (region proposals network) is constructed, which makes the model more sensitive to small?scale targets. In view of the scarcity of data sets of the two?wheeled vehicles, the method of migration learning is used to learn and obtain the final model of two?wheeled vehicle detection. The experimental results show that the improved algorithm can effectively solve the problem of small?scale two?wheeled vehicle detection in traffic videos, and its accuracy reaches 98.94% on the data sets of two?wheeled vehicles.
Keywords: two?wheeled vehicle video detection; two?wheeled vehicle detection model; improved Faster R?CNN algorithm; RPN network; parameter modification; multi?scale feature fusion
0? 引? 言
車(chē)輛檢測(cè)技術(shù)是智能交通系統(tǒng)的重要組成部分,其對(duì)我國(guó)城市的發(fā)展有很大的促進(jìn)作用。兩輪車(chē)在交通流中越來(lái)越普及,又因其行駛路線比較靈活,易引起交通事故,所以對(duì)兩輪車(chē)的檢測(cè)變得非常重要。文獻(xiàn)[1]通過(guò)最小距離分類(lèi)器(KNN)設(shè)計(jì)了一種自動(dòng)檢測(cè)摩托車(chē)駕駛員是否佩戴頭盔的系統(tǒng)。文獻(xiàn)[2]通過(guò)提取摩托車(chē)的外形尺寸特征對(duì)摩托車(chē)進(jìn)行識(shí)別。文獻(xiàn)[3]通過(guò)檢測(cè)摩托車(chē)駕駛員的頭盔來(lái)識(shí)別摩托車(chē),此方法在駕駛員沒(méi)有配戴頭盔時(shí)檢測(cè)效果較差。文獻(xiàn)[4]通過(guò)車(chē)輪區(qū)域的特征來(lái)區(qū)分摩托車(chē)與自行車(chē)。文獻(xiàn)[5]采用壓電傳感器檢測(cè)車(chē)輪的數(shù)量來(lái)識(shí)別摩托車(chē),壓電傳感器容易受潮發(fā)生故障,故該方法對(duì)環(huán)境要求較高。文獻(xiàn)[6]采用GMM和BMM組合前景提取方法對(duì)交通流中的兩輪車(chē)進(jìn)行檢測(cè)與識(shí)別。由于傳統(tǒng)算法提取的特征比較單一,受環(huán)境影響較大,導(dǎo)致對(duì)兩輪車(chē)的識(shí)別效果不佳。近年來(lái),深度學(xué)習(xí)也被應(yīng)用到智能交通系統(tǒng)中。文獻(xiàn)[7?11]通過(guò)卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)車(chē)輛進(jìn)行識(shí)別,并取得了不錯(cuò)的效果。但當(dāng)目標(biāo)檢測(cè)物尺度較小或存在部分遮擋時(shí),現(xiàn)有的方法存在頻繁的誤檢、漏檢現(xiàn)象,檢測(cè)性能不高。而在實(shí)際的交通視頻中,兩輪車(chē)的尺度相對(duì)較小,針對(duì)這一問(wèn)題,本文構(gòu)建了一種基于改進(jìn)的Faster R?CNN算法的兩輪車(chē)視頻檢測(cè)模型,該模型對(duì)anchor框參數(shù)進(jìn)行了修改,并對(duì)RPN(Region Proposals Network)網(wǎng)絡(luò)進(jìn)行了改進(jìn),構(gòu)建了一種多尺度特征融合的RPN結(jié)構(gòu),從而提高模型對(duì)交通視頻中小尺度兩輪車(chē)的檢測(cè)。
1? 兩輪車(chē)檢測(cè)模型設(shè)計(jì)
Faster R?CNN[12]是目標(biāo)檢測(cè)算法中精度較高的算法,本文選用Faster R?CNN算法來(lái)檢測(cè)混合車(chē)流中的兩輪車(chē),設(shè)計(jì)的兩輪車(chē)檢測(cè)方案如圖1所示。其中,特征提取網(wǎng)絡(luò)指的是VGG16網(wǎng)絡(luò)結(jié)構(gòu),用來(lái)提取兩輪車(chē)的特征。從真實(shí)交通場(chǎng)景中制作兩輪車(chē)數(shù)據(jù)集,輸入到VGG16的卷積層中進(jìn)行兩輪車(chē)特征的提取并生成特征圖,將生成的特征圖送入到RPN網(wǎng)絡(luò),生成候選區(qū)域,再將提取的候選區(qū)域特征送入到ROI Pooling層,處理成固定大小的特征向量,最后送入全連接層,實(shí)現(xiàn)分類(lèi)和邊框的回歸。
1.1? 特征提取網(wǎng)絡(luò)VGG16
VGG16[13]網(wǎng)絡(luò)相比LeNet和ZF?Net[14]網(wǎng)絡(luò)更深,可以提取兩輪車(chē)更豐富的特征。本文選取VGG16網(wǎng)絡(luò)與Faster R?CNN模型相結(jié)合。本文用到的VGG16部分結(jié)構(gòu)如表1所示。
本文將VGG16結(jié)構(gòu)中輸出大小一致的卷積層歸為一類(lèi),共分為五類(lèi),如表1第一列所示。每一類(lèi)含有x卷積層,如Conv4_x/3,表示第四類(lèi)含有3個(gè)卷積層。整個(gè)特征提取網(wǎng)絡(luò)使用的均為3×3大小的卷積核。
1.2? RPN網(wǎng)絡(luò)及其改進(jìn)
1.2.1? RPN網(wǎng)絡(luò)
RPN網(wǎng)絡(luò)[15]和檢測(cè)網(wǎng)絡(luò)共享VGG16提取到的特征,使模型更加簡(jiǎn)化,提高了目標(biāo)檢測(cè)的速度,其結(jié)構(gòu)如圖2所示。VGG16提取的特征圖輸入到RPN網(wǎng)絡(luò),先經(jīng)過(guò)一個(gè)3×3的滑動(dòng)窗口在特征圖上滑動(dòng),每次滑動(dòng)都可以得到一個(gè)512維的特征向量,將這個(gè)512維的特征向量送入到兩個(gè)全連接層,通過(guò)[2k]個(gè)1×1的卷積核將512維的特征向量映射到分類(lèi)層,判別候選區(qū)域是前景還是背景。通過(guò)[4k]個(gè)1×1的卷積核將512維的特征向量映射到位置回歸層,用來(lái)輸出對(duì)候選區(qū)域坐標(biāo)位置的回歸。
圖2中的anchor(錨點(diǎn))位于3×3滑動(dòng)窗口的中心處,每個(gè)滑動(dòng)窗口可同時(shí)生成[k]個(gè)預(yù)測(cè)框,每個(gè)預(yù)測(cè)框都是固定大小且和錨點(diǎn)唯一確定。卷積特征圖經(jīng)過(guò)3×3大小的卷積核,卷積之后的每一個(gè)像素點(diǎn)映射回原圖對(duì)應(yīng)的坐標(biāo)位置,以此坐標(biāo)為中心生成[k]個(gè)不同大小的候選框,原始的RPN網(wǎng)絡(luò)中[k]=9。anchor的正負(fù)樣本規(guī)定如下:
1) 候選框與真實(shí)的標(biāo)注框(Ground Truth,GT框)交集最大的記為正樣本(確保每個(gè)真實(shí)的標(biāo)注框至少對(duì)應(yīng)一個(gè)正樣本);
2) 候選框與真實(shí)標(biāo)注框的交集與并集之比(IoU)大于0.7的候選框記為正樣本,小于0.3的記為負(fù)樣本,介于兩者之間的舍棄。
RPN網(wǎng)絡(luò)總的損失函數(shù)定義如下:
[Lpi,ti=1NclsiLclspi,p*i+λ1Nregip*iLregti,t*i] (1)
位置回歸損失函數(shù)定義如下:
[Lregti,t*i=Rti-t*i] (2)
式中[R]表示具有魯棒性的損失函數(shù),其定義式如下:
[Rx=0.5x2,? ? x<1x-0.5,? ? 其他] (3)
1.2.2? RPN網(wǎng)絡(luò)的改進(jìn)
RPN網(wǎng)絡(luò)中錨框的設(shè)置直接影響候選框的生成,是一個(gè)很重要的參數(shù)。原始的RPN網(wǎng)絡(luò)是針對(duì)PASCAL VOC 2007數(shù)據(jù)集設(shè)置的,此數(shù)據(jù)集包含24 640個(gè)物體,物體大小不同,形狀各異,具有普適性,故設(shè)置錨框時(shí),尺度設(shè)置為128,256,512,為了適應(yīng)不同形狀的物體,設(shè)置了三種尺度比,分別為1[∶]1,1[∶]2,2[∶]1,共生成9種不同的錨框。
每一個(gè)滑動(dòng)窗口可以產(chǎn)生9個(gè)不同規(guī)格的候選框,并通過(guò)非極大值抑制算法移除多余的候選框。但原始RPN網(wǎng)絡(luò)設(shè)置的錨點(diǎn)參數(shù)無(wú)法召回尺寸較小的檢測(cè)物。圖3為人工在本文兩輪車(chē)數(shù)據(jù)集上標(biāo)注的GT框面積分布直方圖,可以看出,交通視頻中兩輪車(chē)的尺寸相對(duì)偏小,GT框平均面積約為[3 865≈62×62],四分位數(shù)分別為[Q1=2 108≈45×45],[Q2=4 180≈65×65],[Q3=7 296≈][85×85],這些參數(shù)離原始RPN網(wǎng)絡(luò)設(shè)置的最小尺度128×128相差較大,所以,原始RPN網(wǎng)絡(luò)生成的錨框?qū)Ρ疚牡膬奢嗆?chē)數(shù)據(jù)集沒(méi)有針對(duì)性,適應(yīng)性較差。
四分位數(shù)間距不受兩端個(gè)別極大值或極小值的影響,對(duì)數(shù)據(jù)的擾動(dòng)具有一定的魯棒性,同時(shí),也可以在一定程度上避免因人工標(biāo)注帶來(lái)的誤差影響。因此,為了提高模型對(duì)小尺度兩輪車(chē)的檢測(cè)性能,針對(duì)本文的兩輪車(chē)數(shù)據(jù)集,將anchor框的尺度修改為45/65/85。
圖4為GT框長(zhǎng)寬比分布直方圖。從圖4可以看出,GT框的長(zhǎng)寬尺度比主要集中在0.5和0.8附近,故將原始RPN網(wǎng)絡(luò)中的比例改為1[∶]2和1[∶]1.25,可生成6種不同的候選框,總共生成的候選框個(gè)數(shù)為:
[Qanchor=Lconv5?Wconv5?6] (4)
式中:[Lconv5]和[Wconv5]分別為VGG16第5個(gè)卷積層輸出特征圖的長(zhǎng)和寬。
對(duì)于一幅分辨率為1 000×600的圖片,原始RPN網(wǎng)絡(luò)生成大約20[k]個(gè)候選框,而本文方法共生成約14[k]個(gè)候選框,減少了約6[k]。
由于生成了更少數(shù)量且對(duì)交通道路中兩輪車(chē)更有針對(duì)性的候選框,模型的性能得到了顯著提高。
在實(shí)際交通視頻中,由于攝像機(jī)是固定的,兩輪車(chē)在行駛的過(guò)程中,車(chē)輛與攝像機(jī)的距離不同,其在視頻圖像中的尺度也不同,距離攝像機(jī)較近的車(chē)尺度較大,較遠(yuǎn)的則更小。針對(duì)交通視頻中兩輪車(chē)存在多尺度問(wèn)題,認(rèn)為原始的RPN網(wǎng)絡(luò)只用一個(gè)3×3的卷積核對(duì)特征圖進(jìn)行卷積,感受野太過(guò)局限,并不能滿足需求。不同范圍的感受野可以獲得不同尺度的兩輪車(chē),故構(gòu)建一種多尺度特征融合的RPN結(jié)構(gòu),如圖5所示。當(dāng)VGG16網(wǎng)絡(luò)提取的特征圖輸送到該RPN網(wǎng)絡(luò)時(shí),會(huì)有三個(gè)分支:第一個(gè)分支采用一個(gè)1×1的卷積核對(duì)特征圖進(jìn)行卷積;第二個(gè)分支采用一個(gè)3×3的卷積核對(duì)特征圖進(jìn)行卷積;第三個(gè)分支采用將兩個(gè)3×3的卷積核串聯(lián)在一起的方式對(duì)特征圖進(jìn)行卷積,其感受野相當(dāng)于一個(gè)5×5的卷積核效果,但兩個(gè)串聯(lián)在一起的3×3卷積核可以提升網(wǎng)絡(luò)深度,在一定程度上可以提升網(wǎng)絡(luò)性能,同時(shí),還可以減少參數(shù)量。
實(shí)驗(yàn)證明,改進(jìn)后的RPN結(jié)構(gòu)可以增強(qiáng)模型對(duì)兩輪車(chē)多尺度的魯棒性,使模型對(duì)小目標(biāo)更加敏感,提高了模型對(duì)兩輪車(chē)的檢測(cè)性能。
1.3? 遷移學(xué)習(xí)
本文兩輪車(chē)數(shù)據(jù)集較小,為了避免模型出現(xiàn)收斂困難、精度低、過(guò)擬合等問(wèn)題,采用遷移學(xué)習(xí)的方法進(jìn)行學(xué)習(xí)。遷移學(xué)習(xí)是用已學(xué)的領(lǐng)域知識(shí)去解決與其不同但相關(guān)的領(lǐng)域問(wèn)題,可以很好地解決相關(guān)領(lǐng)域中數(shù)據(jù)集匱乏的學(xué)習(xí)問(wèn)題。遷移學(xué)習(xí)可以讓模型看到不同類(lèi)型的數(shù)據(jù),使模型學(xué)習(xí)到更出色的底層規(guī)則,獲得更高性能的模型。
本文采用模型遷移和微調(diào)的方法進(jìn)行學(xué)習(xí),使得只需少量的兩輪車(chē)數(shù)據(jù)集就可獲得很好的識(shí)別效果。遷移學(xué)習(xí)過(guò)程如圖6所示。
本文構(gòu)建的模型首先在ImageNet數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練,獲得初始模型,然后利用兩輪車(chē)數(shù)據(jù)集對(duì)初始模型進(jìn)行微調(diào)。由于采集的兩輪車(chē)數(shù)據(jù)集背景復(fù)雜多樣,光照強(qiáng)度也有很大的差異,而且兩輪車(chē)尺度相對(duì)偏小,ImageNet數(shù)據(jù)集中的物體則更加清晰,尺度相對(duì)較大,所以?xún)煞N數(shù)據(jù)集相似度一般,因此,本文將初始模型的參數(shù)遷移到本文數(shù)據(jù)集后重新進(jìn)行學(xué)習(xí)。
2? 實(shí)驗(yàn)研究
2.1? 實(shí)驗(yàn)環(huán)境
本文所采用的實(shí)驗(yàn)環(huán)境如下:計(jì)算機(jī)系統(tǒng)為Ubuntu 16.04;處理器為Inter i7?7700;內(nèi)存為16 GB;顯卡為Nvidia GeForce GTX1080Ti;編程語(yǔ)言為Python;深度學(xué)習(xí)框架為tensorflow。
2.2? 實(shí)驗(yàn)數(shù)據(jù)
本文數(shù)據(jù)集是在含有兩輪車(chē)的混合交通流路段進(jìn)行采集的,整個(gè)數(shù)據(jù)集共含有2 520幅圖片,均為城市交通路段的真實(shí)場(chǎng)景。隨機(jī)選取其中的80%作為訓(xùn)練集,剩余的20%作為測(cè)試集。每幅圖片中均包含1~10輛兩輪車(chē),尺度也各不相同。該數(shù)據(jù)集具有不同的背景和光照,還有目標(biāo)檢測(cè)物被遮擋的情況,種類(lèi)復(fù)雜多樣,具有代表性。
2.3? 模型訓(xùn)練
整個(gè)網(wǎng)絡(luò)訓(xùn)練過(guò)程參數(shù)設(shè)置如表2所示。
訓(xùn)練的loss曲線如圖7所示。其中,①和③對(duì)比可以得出,含遷移學(xué)習(xí)的本文算法收斂速度更快,所以遷移學(xué)習(xí)加快了模型的收斂速度;①和②對(duì)比可以看出,改進(jìn)后的本文算法在訓(xùn)練一開(kāi)始損失函數(shù)就比原始的Faster R?CNN算法值低,且收斂速度更快,并在迭代16 000次后趨于穩(wěn)定,這是由于本文改進(jìn)后的RPN網(wǎng)絡(luò)可以通過(guò)不同感受野的特征圖,定位到不同尺度的兩輪車(chē),且錨框的尺度和長(zhǎng)寬比是針對(duì)兩輪車(chē)數(shù)據(jù)集設(shè)置的,因此在訓(xùn)練階段,候選框回歸時(shí)可以更迅速地將候選區(qū)域調(diào)整到與GT框更相近的位置,所以改進(jìn)后的Faster R?CNN算法能夠獲得更小的loss值,并加快模型的收斂。
2.4? 實(shí)驗(yàn)檢測(cè)及結(jié)果分析
為了驗(yàn)證本文算法的優(yōu)越性,在本文數(shù)據(jù)集上分別采用改進(jìn)前和改進(jìn)后的Faster R?CNN算法對(duì)交通視頻中的兩輪車(chē)進(jìn)行檢測(cè)。
圖8為在某一交通視頻中兩輪車(chē)檢測(cè)效果圖,對(duì)最終置信度大于80%的檢測(cè)框用標(biāo)簽標(biāo)出。圖8b)為改進(jìn)前Faster R?CNN算法檢測(cè)效果圖,尺度較小的兩輪車(chē)存在頻繁的漏檢、誤檢現(xiàn)象,可見(jiàn)原始的Faster R?CNN算法對(duì)小尺度的兩輪車(chē)不敏感,對(duì)交通視頻中兩輪車(chē)的檢測(cè)并不適用。觀察圖8a)可以看出,改進(jìn)后的算法可以很精確地檢測(cè)出不同尺度的兩輪車(chē)位置,尺度較小的目標(biāo)也被精確的檢測(cè)出,對(duì)小目標(biāo)的檢測(cè)較為敏感,漏檢現(xiàn)象得到了明顯的改善,且置信度也相對(duì)較高。
圖9為本文算法在六種交通場(chǎng)景下的檢測(cè)效果圖。可以看出,在兩輪車(chē)不同的行駛角度、不同的光照強(qiáng)度、不同的交通路段以及部分被遮擋的情況下,改進(jìn)后的算法均可以很精確地檢測(cè)出不同尺度的兩輪車(chē)位置,尺度較小的目標(biāo)也被精確的檢測(cè)出。夜間情況下,本文算法也可以有效地檢測(cè)出道路上的兩輪車(chē),但輸出的置信度會(huì)有所下降。由此得出,改進(jìn)后的Faster R?CNN算法模型對(duì)不同的交通場(chǎng)景具有很強(qiáng)的適應(yīng)性。
為了評(píng)估本文算法對(duì)交通視頻中兩輪車(chē)檢測(cè)的有效性,采用精度([P])和召回率([R])[16]對(duì)算法進(jìn)行衡量。精度[P]和召回率[R]可按式(5)和式(6)計(jì)算:
[P=NTP(NTP+NFP)] (5)
[R=NTP(NTP+NFN)] (6)
式中:[NTP]為正檢數(shù),表示兩輪車(chē)中被正確檢測(cè)出來(lái)的數(shù)量;[NFP]為誤檢數(shù),表示把非兩輪車(chē)檢測(cè)為兩輪車(chē)的數(shù)量;[NFN]為漏檢數(shù),表示兩輪車(chē)中沒(méi)有被檢測(cè)出的兩輪車(chē)數(shù)量。
不同方法檢測(cè)結(jié)果如表3所示。實(shí)際兩輪車(chē)數(shù)共1 516輛,其中,有25輛被漏檢,原因是這25輛兩輪車(chē)在行駛過(guò)程中與其他車(chē)輛出現(xiàn)大幅度粘連或被嚴(yán)重遮擋的現(xiàn)象,這一問(wèn)題的解決方案將在下一步深入研究。誤檢數(shù)有16輛,其中,有2個(gè)行人和2輛小型汽車(chē)被檢測(cè)為兩輪車(chē);12輛三輪車(chē)被識(shí)別為兩輪車(chē),這12輛三輪車(chē)都沒(méi)有安裝車(chē)棚,且距離攝像機(jī)位置較遠(yuǎn),從外形看上去與兩輪車(chē)很相似,很容易被誤檢為兩輪車(chē)。表3將改進(jìn)前與改進(jìn)后的Faster R?CNN算法做了對(duì)比,結(jié)果表明,改進(jìn)后的Faster R?CNN算法檢測(cè)精度提高了1.38%,召回率提高了6.13%,具有明顯的優(yōu)勢(shì)。
總體上,本文算法在不同的交通背景、不同光照、兩輪車(chē)不同的行駛角度以及部分遮擋的條件下,具有較強(qiáng)的魯棒性,對(duì)小尺度目標(biāo)更加敏感,能夠精確地檢測(cè)出交通道路上的兩輪車(chē),漏檢率和誤檢率較低,對(duì)不同交通場(chǎng)景下兩輪車(chē)的檢測(cè)具有明顯的優(yōu)勢(shì)。本文算法的召回率為98.35%,檢測(cè)精度為98.94%,取得了較為滿意的結(jié)果。
2.5? 特征圖的可視化
最后本文通過(guò)訓(xùn)練好的模型對(duì)單幅圖片進(jìn)行特征圖可視化,部分特征圖如圖10所示。通過(guò)觀察發(fā)現(xiàn),特征圖各不相同,這是由于不同的卷積核提取的特征也不同。第一行為Conv1_1層輸出的特征圖,通過(guò)肉眼可以清晰地看到物體的輪廓,物體邊緣較為明顯,并知道這些物體是什么;第二行是Conv5_3層輸出的特征圖,看上去很模糊,已經(jīng)無(wú)法通過(guò)肉眼去理解這些特征的含義,這主要是因?yàn)闇\層的卷積層提取到的是一些比較低級(jí)的特征,而深層的卷積層提取到的是相對(duì)比較高級(jí)的語(yǔ)義特征;第三行是RPN分類(lèi)層輸出的特征圖,其每一幅特征圖亮度較高的激活部分與第一行特征圖中兩輪車(chē)的位置一一對(duì)應(yīng)。
由此得出,改進(jìn)后的RPN網(wǎng)絡(luò)可以很精確地定位出交通道路上兩輪車(chē)的位置,圖片其余的部分被判定為背景,進(jìn)一步驗(yàn)證了改進(jìn)后的本文算法對(duì)城市道路上兩輪車(chē)的檢測(cè)具有一定的應(yīng)用價(jià)值。
3? 結(jié)? 語(yǔ)
本文針對(duì)交通視頻中小尺度兩輪車(chē)檢測(cè)存在的誤檢、漏檢,檢測(cè)效果不佳等問(wèn)題,構(gòu)建了一種基于改進(jìn)的Faster R?CNN算法的兩輪車(chē)檢測(cè)模型,使得模型對(duì)小尺度目標(biāo)更加敏感。
通過(guò)實(shí)驗(yàn)證明,本文算法有助于提高對(duì)交通視頻中兩輪車(chē)檢測(cè)的精準(zhǔn)性和魯棒性,對(duì)小尺度目標(biāo)、光照強(qiáng)度、部分遮擋等方面具有較強(qiáng)的適應(yīng)性??傮w而言,本文算法在對(duì)交通流中兩輪車(chē)的檢測(cè)上取得了較為滿意的效果。下一步將圍繞兩輪車(chē)在大幅度粘連或遮擋較嚴(yán)重的條件下的檢測(cè)問(wèn)題做進(jìn)一步的深入研究,以期取得更好的檢測(cè)效果。
參考文獻(xiàn)
[1] WARANUSAST R, BUNDON N, TIMTONG V, et al. Machine vision techniques for motorcycle safety helmet detection [C]// 2013 28th International Conference on Image and Vision Computing. Wellington, New Zealand: IEEE, 2013: 35?40.
[2] CHIU C C, KU M Y, CHEN H T. Motorcycle detection and tracking system with occlusion segmentation [C]// Eighth International Workshop on Image Analysis for Multimedia Interactive Services. Santorini: IEEE, 2007: 32?33.
[3] KU M Y, HONG S H, CHIU C C, et al. Visual motorcycle detection and tracking algorithms [J]. WSEAS transactions on electronics, 2008, 5(4): 121?131.
[4] MESSELODI S, MODENA C M, CATTONI G. Vision?based bicycle/motorcycle classification [J]. Pattern recognition letters, 2007, 28(13): 1719?1726.
[5] RAJAB S A, OTHMAN A S, REFAI H H. Novel vehicle and motorcycle classification using single element piezoelectric sensor [C]// 2012 15th International IEEE Conference on Intelligent Transportation Systems. Anchorage, AK: IEEE, 2012: 496?501.
[6] 鄺先驗(yàn),王成坤,許倫輝.基于組合前景提取的混合交通兩輪車(chē)視頻檢測(cè)[J].交通運(yùn)輸系統(tǒng)工程與信息,2014,14(5):49?54.
[7] 甘凱今,蔡曉東,楊超,等.融合整體與局部特征的車(chē)輛型號(hào)識(shí)別方法[J].現(xiàn)代電子技術(shù),2017,40(7):134?130.
[8] SHI L, WANG Y M, CAO Y J, et al. Vehicle type recognition based on deep convolution neural network [C]// Third International Conference of Pioneering Computer Scientists, Engineers and Educators. Changsha, China: Springer, 2017: 492?502.
[9] WANG K C, PRANATA Y D, WANG J C. Automatic vehicle classification using center strengthened convolutional neural network [C]// 2017 Asia?pacific Signal and Information Proces?sing Association Annual Summit and Conference (APSIPA ASC). Kuala Lumpur, Malaysia: IEEE, 2017: 1075?1078.
[10] ZHUO L, JIANG L Y, ZHU Z Q, et al. Vehicle classification for large?scale traffic surveillance videos using convolutional neural networks [J]. Machine vision & applications, 2017, 28(7): 793?802.
[11] VISHNU C, SINGH D, MOHAN C K, et al. Detection of motorcyclists without helmet in videos using convolutional neural network [C]// 2017 International Joint Conference on Neural Networks. Anchorage, AK, USA: IEEE, 2017: 3036?3041.
[12] 程海燕,翟永杰,陳瑞.基于Faster R?CNN的航拍圖像中絕緣子識(shí)別[J].現(xiàn)代電子技術(shù),2019,42(2):98?102.
[13] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large?scale image recognition [EB/OL]. [2016?10?23]. http://www.docin.com/p?1763953557.html.
[14] ZEILER M D, FERGUS R. Visualizing and understanding convolutional networks [C]// European Conference on Computer Vision. Zurich, Switzerland: Springer, 2014: 818?833.
[15] REN S, HE K, GIRSHICK R, et al. Faster R?CNN: towards real?time object detection with region proposal networks [J]. IEEE transactions on pattern analysis & machine intelligence, 2017, 39(6): 1137?1149.
[16] BYEON Y H, KWAK K C. A performance comparison of pedestrian detection using faster RCNN and ACF [C]// 2017 6th IIAI International Congress on Advanced Applied Informatics (IIAI?AAI). Hamamatsu, Japan: IEEE, 2017: 858?863.