丁 冰,楊祖莨,丁 潔,劉晉峰,閆國亮
太原理工大學(xué) 電氣與動(dòng)力工程學(xué)院,太原 030024
隨著高速公路建設(shè)快速發(fā)展,高速公路隧道的運(yùn)營里程不斷增加,為人們帶來很多便利。然而,由于隧道內(nèi)空間狹小、具有一定密閉性、光照受限等特點(diǎn),發(fā)生于隧道的高速公路交通事故比例最高[1]。尤其是載有易燃易爆物品的車輛在隧道內(nèi)停車導(dǎo)致的問題將更為嚴(yán)重。例如2014年在晉濟(jì)高速巖后隧道“3·1”特別重大道路交通?;繁际鹿使苍斐?0人死亡、12人受傷和42輛車燒毀[2]。為有效地減少交通事故的發(fā)生,尤其是避免二次事故的發(fā)生,準(zhǔn)確快速的高速公路隧道內(nèi)停車檢測(cè)是十分必要的,對(duì)高速公路隧道管理系統(tǒng)的智能化發(fā)展意義重大。
在實(shí)際高速公路隧道中已經(jīng)部署安裝了大量的視頻監(jiān)控設(shè)備(包括高清網(wǎng)絡(luò)攝像機(jī)、光纖傳輸線路、高速交換機(jī)等),這些設(shè)備含有豐富的車輛信息?;诖?,越來越多的研究者將視頻數(shù)據(jù)作為切入點(diǎn)研究車輛的各種行為狀態(tài),逐步提升管理效率,緩解海量監(jiān)控?cái)z像頭與有限監(jiān)控能力之間的矛盾。在基于視頻圖像的停車檢測(cè)研究初期,研究主要集中于傳統(tǒng)圖像處理方向并且絕大多數(shù)是針對(duì)露天的場(chǎng)景,Guler等人[3]采用Peripheral多目標(biāo)跟蹤器從背景減法獲得的前景中確定每輛車的位置,但該方法會(huì)將快速變化的背景錯(cuò)誤地檢測(cè)為車輛。Porikli等人[4]提出基于雙背景的異常事件檢測(cè)方法,該方法中用于建立長、短背景的時(shí)間常數(shù)存在很大不確定性。趙敏等人[5]基于混合高斯模型檢測(cè)靜止目標(biāo),根據(jù)車輛的區(qū)域特征對(duì)靜止目標(biāo)中的停車車輛進(jìn)行識(shí)別,但仍然缺乏對(duì)車輛識(shí)別的魯棒性。隨著卷積神經(jīng)網(wǎng)絡(luò)在圖像檢測(cè)與識(shí)別領(lǐng)域的快速發(fā)展,在停車檢測(cè)中也引入了卷積神經(jīng)網(wǎng)絡(luò)。文獻(xiàn)[6]在傳統(tǒng)圖像處理方法基礎(chǔ)上引入了卷積神經(jīng)網(wǎng)絡(luò)模型識(shí)別車輛,這樣一定程度上克服了燈光干擾帶來的誤檢,但并不能從車輛檢測(cè)的根本上改進(jìn)。于青青等人[7]將實(shí)時(shí)壓縮跟蹤方法與經(jīng)典的KLT運(yùn)動(dòng)角點(diǎn)檢測(cè)方法相結(jié)合,提取視頻中車輛的運(yùn)動(dòng)軌跡,以檢測(cè)車輛的側(cè)路停車行為。姜明新等人[8]使用背景建模技術(shù),檢測(cè)監(jiān)控區(qū)域內(nèi)的運(yùn)動(dòng)目標(biāo),并通過計(jì)算聯(lián)通區(qū)域面積來過濾其他物體的干擾,最終檢測(cè)出違停車輛。石時(shí)需等人[9]利用混合差分技術(shù)提取視頻中的車輛目標(biāo),用粒子濾波算法跟蹤運(yùn)動(dòng)的車輛,實(shí)現(xiàn)車輛的停車檢測(cè)行為。杜金航等人[10]也對(duì)YOLOv3進(jìn)行改進(jìn),從而實(shí)現(xiàn)道路車輛目標(biāo)檢測(cè),但此算法受光照及目標(biāo)的快速運(yùn)動(dòng)影響較大,不適用于高速公路隧道內(nèi)。
目前,雖然基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型已經(jīng)有了廣泛應(yīng)用,但是這些模型對(duì)于高速公路隧道內(nèi)車輛的檢測(cè)并不適用,同時(shí)基于某省高速公路隧道管理的實(shí)際需求,利用真實(shí)的高速公路隧道內(nèi)監(jiān)測(cè)的視頻圖像來展開停車行為檢測(cè)的研究是有必要的。相比于露天環(huán)境,高速公路隧道所特有的性質(zhì)為停車檢測(cè)增加了諸多難度,其中包括:(1)距離攝像頭遠(yuǎn)近不同的車輛在畫面中的大小顯著不同,尤其是大型車在近距離和小型車在遠(yuǎn)距離的時(shí)候尺寸差異尤為明顯;(2)車燈、環(huán)境照明燈光及路面的反射光等干擾,影響檢測(cè)的準(zhǔn)確率。因此,在實(shí)際需求的驅(qū)動(dòng)下,開展了高速公路隧道中停車檢測(cè)技術(shù)的研究。研究中技術(shù)的創(chuàng)新性在于:(1)改進(jìn)了YOLOv3模型,使其更適用于車輛的檢測(cè),更適合于高速公路隧道內(nèi)的停車檢測(cè)任務(wù),提高了其在車輛檢測(cè)上的mAP;(2)在車輛檢測(cè)數(shù)據(jù)集方面,修改整理了公開的數(shù)據(jù)集,并且制作了高速公路隧道車輛數(shù)據(jù)集;(3)將Deep SORT跟蹤算法應(yīng)用于停車檢測(cè)中來,并提出根據(jù)雙重速度閾值來判別停車。
在停車檢測(cè)中首先需要建立車輛檢測(cè)模型,從視頻中檢測(cè)出車輛,然后再判斷是否發(fā)生停車。而對(duì)于深度學(xué)習(xí)車輛檢測(cè)模型來說,模型的網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練所用的數(shù)據(jù)集起到非常關(guān)鍵的作用。
YOLOv3[11]是YOLO系列深度學(xué)習(xí)目標(biāo)檢測(cè)模型的最新研究成果,其檢測(cè)精度和檢測(cè)速度在均衡性上更適宜作為車輛檢測(cè)的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)。相較于YOLOv1[12]和YOLOv2[13],YOLOv3特征圖的尺寸是不同的,且應(yīng)用在每一個(gè)特征圖上的候選框的大小也是不一樣的,這樣對(duì)于不同尺寸的目標(biāo)的適應(yīng)能力更強(qiáng)。但對(duì)于高速公路隧道場(chǎng)景中的車輛檢測(cè),YOLOv3檢測(cè)層的特征圖語義信息不夠豐富,缺少對(duì)低層深度特征的處理,尤其是低于36層的特征圖,這樣會(huì)導(dǎo)致在隧道內(nèi)的停車檢測(cè)中,遠(yuǎn)距離小型車輛的檢測(cè)效果不好。因此,在對(duì)YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn)中,通過上采樣、融合低層深度特征獲得更大的特征圖,提高了隧道內(nèi)小目標(biāo)車輛的檢測(cè)準(zhǔn)確率。
圖1所示為設(shè)計(jì)的車輛檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu),將其命名為YOLOv3-TunnelVehicle。YOLOv3-TunnelVehicle網(wǎng) 絡(luò)結(jié)構(gòu)的輸入是監(jiān)控視頻的整幅圖像,通過一系列不同的卷積層進(jìn)行運(yùn)算,輸出檢測(cè)到的所有車輛邊界框的位置及尺寸。詳細(xì)地來講,首先該網(wǎng)絡(luò)結(jié)構(gòu)采用深度殘差網(wǎng)絡(luò)提取車輛特征,在深度殘差網(wǎng)絡(luò)結(jié)構(gòu)的第11層、第36層、第61層和第79層分別獲得128×128×128、64×64×256、32×32×512和16×16×512的特征圖尺寸。其次,在殘差網(wǎng)絡(luò)之后添加多個(gè)卷積層,并將其分成4個(gè)分支,形成多尺度預(yù)測(cè)網(wǎng)絡(luò)。為了獲得更豐富的語義信息,YOLOv3-TunnelVehicle將預(yù)測(cè)網(wǎng)絡(luò)中的特征圖通過上采樣的方式提高特征圖的尺寸,與深度殘差網(wǎng)絡(luò)中相對(duì)應(yīng)的特征圖進(jìn)行融合(第85層32×32×256與第61層32×32×512融合獲得32×32×768的特征圖,第97層64×64×128與第36層64×64×256融合獲得64×64×384的特征圖,第109層128×128×128與第11層128×128×128融合獲得128×128×256的特征圖)。最后,利用非極大值抑制的方法剔除重復(fù)的邊界框,得到最終的車輛檢測(cè)結(jié)果。
圖1 YOLOv3-TunnelVehicle網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure of YOLOv3-TunnelVehicle
另外,值得一提的是車輛檢測(cè)模型中車輛邊界框的預(yù)測(cè)采用K-means聚類進(jìn)行邊界框的初始化。該方法基于Faster R-CNN[14]中的Anchor機(jī)制,但其區(qū)別在于默認(rèn)框的尺寸大小是采用K-means聚類確定的,而非人為設(shè)定。如圖2所示,tx、ty、tw、th為模型直接的預(yù)測(cè)輸出值。cx、cy為單元格相對(duì)于左上角的坐標(biāo),每個(gè)單元格的單位長度為1,圖中示例為cx=1,cy=1。tx、ty分別經(jīng)過Sigmoid函數(shù)后得到0至1之間的偏移量,該偏移量與cx、cy相加后得到邊界框中心點(diǎn)的位置(bx,by)。pw、ph是邊界框初始化后的寬和高(即默認(rèn)框的尺寸),tw、th分別與pw、ph作用后得到邊界框的寬和高bw、bh,在寬度和高度的計(jì)算中引入了對(duì)數(shù)空間的變化,以使計(jì)算出的寬度和高度始終不為負(fù),確保在訓(xùn)練過程中針對(duì)具有不等條件約束的優(yōu)化問題解決求梯度過程。(bx,by,bw,bh)即為預(yù)測(cè)邊界框的位置及尺寸。
圖2 車輛邊界框的預(yù)測(cè)Fig.2 Projections of vehicle boundary frames
由于當(dāng)前公開數(shù)據(jù)集沒有針對(duì)隧道內(nèi)車輛的圖片,針對(duì)數(shù)據(jù)集展開了兩項(xiàng)工作:(1)對(duì)公開數(shù)據(jù)集Pascal VOC[15]進(jìn)行修整,考慮車輛的類別和外形、位置、光照強(qiáng)度及場(chǎng)景等因素,篩選出與高速公路隧道內(nèi)車輛相似的數(shù)據(jù);(2)為了進(jìn)一步體現(xiàn)高速公路隧道內(nèi)車輛的特點(diǎn),制作了高速公路隧道車輛數(shù)據(jù)集。
在對(duì)VOC數(shù)據(jù)集的修整中,為了防止冗余數(shù)據(jù)拖慢網(wǎng)絡(luò)訓(xùn)練效率,開展了所做工作如下:(1)從原始VOC數(shù)據(jù)集的20類目標(biāo)中篩選出car、bus和train這三類。VOC數(shù)據(jù)集經(jīng)過篩選后,含有car、bus、train中一類或多類的樣本情況為:VOC2007為2 249個(gè)樣本,VOC2012為2 134個(gè)樣本。(2)將VOC數(shù)據(jù)集中car、bus和train這三類合并為一個(gè)類別并命名為vehicle。
圖3分別展示了VOC數(shù)據(jù)集和使用實(shí)際高速公路車輛圖片制作的數(shù)據(jù)集。從圖中可以看出,即使挑選出的VOC數(shù)據(jù)集中的車輛圖片與實(shí)際高速公路隧道內(nèi)的車輛圖片仍然存在較大差別,因此,制作高速公路隧道數(shù)據(jù)集是十分必要的。所制作的高速公路隧道數(shù)據(jù)集所有圖片均來源于實(shí)際的高速公路隧道監(jiān)控視頻,總共為1 599張。
圖3 車輛圖片F(xiàn)ig.3 Vehicle pictures
對(duì)于修整完的數(shù)據(jù)集xml標(biāo)簽文件,將其轉(zhuǎn)換為深度學(xué)習(xí)框架Darknet[16]所需的txt樣式標(biāo)簽文件。其中,各個(gè)目標(biāo)標(biāo)注框的坐標(biāo)做如下轉(zhuǎn)換:
其中,(xmin,ymin)、(xmax,ymax)分別為標(biāo)注框的左上角坐標(biāo)和右下角坐標(biāo),而width和height為圖像的寬和高。
在實(shí)驗(yàn)中,對(duì)改進(jìn)的車輛檢測(cè)模型進(jìn)行了對(duì)比,其中VOC-20類數(shù)據(jù)集訓(xùn)練YOLOv3模型的結(jié)果來自于文獻(xiàn)[17],其余結(jié)果均來自于本實(shí)驗(yàn)。實(shí)驗(yàn)分為:采用VOC-carbustrain三類目標(biāo)數(shù)據(jù)集訓(xùn)練YOLOv3模型;采用VOC-vehicle一類目標(biāo)數(shù)據(jù)集訓(xùn)練YOLOv3模型;采用VOC-vehicle一類目標(biāo)數(shù)據(jù)集分別訓(xùn)練YOLOv3模型和YOLOv3-TunnelVehicle模型;采用Tunnel-vehicle一類目標(biāo)數(shù)據(jù)集分別訓(xùn)練YOLOv3模型和YOLOv3-TunnelVehicle模型。本實(shí)驗(yàn)中采用輕型的深度學(xué)習(xí)框架Darknet進(jìn)行訓(xùn)練與測(cè)試。在整個(gè)訓(xùn)練過程中,進(jìn)行10 000輪次的迭代,其中動(dòng)量和權(quán)重衰減分別配置為0.9和0.000 5,批量大小設(shè)置為64,學(xué)習(xí)率初始為0.001。
在模型訓(xùn)練完成后,各個(gè)實(shí)驗(yàn)分別取得的mAP為85.06%、85.44%、86.50%、97.54%和98.19%,如表1所示。第一個(gè)對(duì)比實(shí)驗(yàn)針對(duì)原始YOLOv3,采用剔除無用目標(biāo)的VOC-carbustrain數(shù)據(jù)集來訓(xùn)練,車輛檢測(cè)的mAP提高了0.56個(gè)百分點(diǎn),表明VOC-carbustrain數(shù)據(jù)集對(duì)于提升車輛檢測(cè)的準(zhǔn)確率是有效的。第二個(gè)對(duì)比實(shí)驗(yàn)是為了驗(yàn)證將car、bus、train三類目標(biāo)變?yōu)関ehicle一類目標(biāo)的有效性,采用相同網(wǎng)絡(luò)結(jié)構(gòu)和先驗(yàn)框進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明:將car、bus、train三類目標(biāo)變?yōu)関ehicle一類目標(biāo)使得mAP提高了0.38個(gè)百分點(diǎn)。第三個(gè)對(duì)比實(shí)驗(yàn)是用來驗(yàn)證所設(shè)計(jì)的YOLOv3-TunnelVehicle網(wǎng)絡(luò)結(jié)構(gòu)的有效性,實(shí)驗(yàn)中采用相同的先驗(yàn)框和相同的數(shù)據(jù)集,結(jié)果表明YOLOv3-TunnelVehicle相比于YOLOv3在VOC-vehicle數(shù)據(jù)集和Tunnel-vehicle數(shù)據(jù)集上車輛檢測(cè)的mAP分別提升了1.06個(gè)百分點(diǎn)和0.65個(gè)百分點(diǎn)。最終,得到了在Tunnel-vehicle數(shù)據(jù)集上訓(xùn)練的mAP為98.19%的高速公路隧道車輛檢測(cè)模型。
表1 YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化實(shí)驗(yàn)結(jié)果Table 1 Results of YOLOv3 network structure optimization experiment %
圖4為提出的高速公路隧道內(nèi)停車檢測(cè)方法的結(jié)構(gòu)。首先,采用1.2節(jié)中所改進(jìn)的YOLOv3車輛檢測(cè)模型檢測(cè)出車輛的位置;其次,在獲得車輛的具體位置后,將其輸入給Deep SORT(Deep Simple Online and Realtime Tracking)[18]多目標(biāo)跟蹤算法來跟蹤車輛,進(jìn)而計(jì)算被跟蹤車輛的速度來判斷是否停車。
圖4 提出的高速公路隧道內(nèi)停車檢測(cè)方法結(jié)構(gòu)圖Fig.4 Structural diagram of proposed method for detecting vehicle stopping in highway tunnels
Deep SORT是基于SORT算法改進(jìn)的,利用運(yùn)動(dòng)信息和外觀信息進(jìn)行數(shù)據(jù)關(guān)聯(lián)。對(duì)于視頻輸入,通過車輛檢測(cè)模型可以得到車輛的邊界框,但是無法判斷每個(gè)邊界框?qū)儆谀膫€(gè)跟蹤目標(biāo),因此需要匹配算法將當(dāng)前幀中檢測(cè)到的車輛邊界框與上一幀的車輛跟蹤目標(biāo)進(jìn)行匹配。在匹配過程中,由于車輛跟蹤目標(biāo)常常是運(yùn)動(dòng)的,因此先采用卡爾曼濾波來估計(jì)車輛跟蹤目標(biāo)的狀態(tài)再完成匹配。車輛檢測(cè)目標(biāo)的跟蹤分配包括運(yùn)動(dòng)匹配、外觀匹配和級(jí)聯(lián)匹配。其中,運(yùn)動(dòng)匹配是通過平方馬氏距離來測(cè)量歷史幀中跟蹤目標(biāo)的卡爾曼狀態(tài)與當(dāng)前幀中車輛檢測(cè)邊界框之間的運(yùn)動(dòng)匹配程度。在外觀匹配中,采用余弦深度特征表示車輛檢測(cè)目標(biāo)和跟蹤目標(biāo)的外觀。在獲得外觀特征后,使用余弦深度特征之間的余弦距離測(cè)量?jī)烧叩耐庥^相似度,從而進(jìn)行外觀匹配。級(jí)聯(lián)匹配將運(yùn)動(dòng)匹配和外觀匹配結(jié)合在一起,實(shí)現(xiàn)車輛檢測(cè)邊界框與最近出現(xiàn)的跟蹤目標(biāo)相匹配。
綜上,提出新的停車檢測(cè)算法融合了深度學(xué)習(xí)車輛檢測(cè)模型YOLOv3-TunnelVehicle和Deep SORT跟蹤算法。首先,通過YOLOv3-TunnelVehicle模型進(jìn)行車輛檢測(cè),獲得車輛邊界框的位置坐標(biāo)和形狀參數(shù);其次,將車輛檢測(cè)的結(jié)果輸入Deep SORT跟蹤算法中得到當(dāng)前車輛跟蹤的情況,這些情況共分為新加入跟蹤序列的車輛、正在跟蹤序列中的車輛和離開跟蹤序列的車輛;最后,對(duì)于上一步中“正在跟蹤序列中的車輛”,在Deep SORT跟蹤算法后將獲得該類車輛在當(dāng)前幀中的質(zhì)心坐標(biāo)位置。因此采取了基于車輛在相鄰檢測(cè)幀中的質(zhì)心坐標(biāo)信息檢測(cè)停車方法,具體為:計(jì)算被跟蹤車輛的質(zhì)心移動(dòng)距離,如果該距離小于5個(gè)像素則判定該車輛區(qū)域?yàn)橐伤仆\嚨膮^(qū)域;之后對(duì)于被判定為疑似停車的車輛進(jìn)行“更嚴(yán)格”的判斷,即當(dāng)車輛的質(zhì)心移動(dòng)距離小于2個(gè)像素時(shí),判定該車輛區(qū)域?yàn)榇_認(rèn)停車的區(qū)域。
值得注意的是,上文中所提到的判定疑似停車的閾值“5”和判定確認(rèn)停車的閾值“2”是在實(shí)際高速公路隧道視頻的實(shí)驗(yàn)中獲得的經(jīng)驗(yàn)值。在此經(jīng)驗(yàn)值的基礎(chǔ)上,如果將第二個(gè)閾值設(shè)置得過于精確,那么本應(yīng)該被判為確認(rèn)停車的車輛,則有可能被漏檢。如果第一個(gè)閾值設(shè)置得不夠精確,則會(huì)造成較多未停車輛被判定為疑似停車,對(duì)第二次判別進(jìn)行干擾,增高誤檢率,為了更加直觀地說明此情況,增加以雙重閾值設(shè)置為“10”和“2”的實(shí)驗(yàn),將此實(shí)驗(yàn)結(jié)果與雙重閾值為“5”和“2”的結(jié)果進(jìn)行對(duì)比。
在本停車檢測(cè)實(shí)驗(yàn)中,改進(jìn)的YOLOv3車輛檢測(cè)模型是基于Darknet訓(xùn)練得到的,但是Darknet對(duì)于停車檢測(cè)算法的實(shí)現(xiàn)并不便捷,因此在停車檢測(cè)的部分采用Keras框架來構(gòu)建。Keras是用Python編寫的高級(jí)神經(jīng)網(wǎng)絡(luò)API,它具有模塊化和易擴(kuò)展性的優(yōu)點(diǎn),使得代碼緊湊,易于調(diào)試。經(jīng)過模型文件的轉(zhuǎn)換,將Darknet框架下的“.weights”文件轉(zhuǎn)換為Keras框架下的“.h5”文件。
在實(shí)驗(yàn)中,采用實(shí)際高速公路隧道場(chǎng)景下的視頻做測(cè)試,雙重閾值分別設(shè)置為上文提到的“5”和“2”,即相鄰檢測(cè)幀中的車輛質(zhì)心坐標(biāo)移動(dòng)距離小于5個(gè)像素時(shí),判定其疑似停車,接著當(dāng)疑似停車車輛的質(zhì)心移動(dòng)距離小于2個(gè)像素時(shí),判定其確定停車。圖5為本實(shí)驗(yàn)結(jié)果的展示,其中箭頭所指處即為檢測(cè)到的停車。為了驗(yàn)證此方法的廣泛適用性,所測(cè)試的視頻包括了高速公路隧道內(nèi)各種典型的車輛:近距離大型車、一般中型車和遠(yuǎn)距離小型車。詳細(xì)的實(shí)驗(yàn)統(tǒng)計(jì)結(jié)果如表2所示。
圖5 基于改進(jìn)YOLOv3車輛檢測(cè)的停車檢測(cè)結(jié)果示例Fig.5 Example of stopping detection results based on improved YOLOv3 vehicle identification
表2 基于改進(jìn)YOLOv3車輛檢測(cè)的停車檢測(cè)詳細(xì)實(shí)驗(yàn)結(jié)果Table 2 Detailed experimental results of stopping detection based on improved YOLOv3 vehicle identification
在19個(gè)高速公路隧道測(cè)試視頻的實(shí)驗(yàn)中,最終獲得的正檢率為95%,誤檢率為5%,漏檢率為0。實(shí)驗(yàn)結(jié)果表明基于改進(jìn)YOLOv3車輛檢測(cè)的停車檢測(cè)可以較好地在高速公路隧道中完成停車檢測(cè)的任務(wù),進(jìn)一步提高停車檢測(cè)的效率,為高速公路管理系統(tǒng)賦予更多的智能化與高效化。對(duì)于引起誤檢的情況進(jìn)行分析,發(fā)生誤檢的停車檢測(cè)如圖6所示,主要原因是:(1)該大型貨車行駛速度緩慢;(2)車身長度較長;(3)綠色的車篷布在一段時(shí)間內(nèi)表現(xiàn)出幾乎完全相同的特征。因此,停車檢測(cè)算法出現(xiàn)了誤判。
在此實(shí)驗(yàn)中,檢測(cè)結(jié)果的準(zhǔn)確性也受雙重閾值設(shè)定的影響。如果第一個(gè)閾值設(shè)定不夠精確,則同一段視頻中判定為疑似停車的數(shù)目會(huì)有所增加,對(duì)第二次判定進(jìn)行干擾,從而增大了誤檢率,為了更詳細(xì)地說明此情況,將車輛檢測(cè)模型的雙重閾值設(shè)為“10”和“2”進(jìn)行實(shí)驗(yàn),詳細(xì)的實(shí)驗(yàn)結(jié)果統(tǒng)計(jì)如表3所示。
圖6 發(fā)生誤檢的停車檢測(cè)Fig.6 Vehicle stopping with false detection
表3 基于改進(jìn)YOLOv3車輛檢測(cè)的停車檢測(cè)詳細(xì)實(shí)驗(yàn)結(jié)果(雙重閾值設(shè)定為“10”和“2”)Table 3 Detailed experimental results of stopping detection based on improved YOLOv3 vehicle identification(1st and 2nd thresholds are“10”and“2”separately)
由表3可知,當(dāng)雙重閾值分別設(shè)定為“10”和“2”時(shí),在19個(gè)高速公路隧道測(cè)試視頻的實(shí)驗(yàn)中,正檢率為95%,誤檢率為37%,漏檢率為0。此結(jié)果相較于雙重閾值為“5”和“2”的實(shí)驗(yàn)結(jié)果,雖然正檢率相同,漏檢率為0,但是誤檢率由5%增加為37%,相對(duì)地降低了停車檢測(cè)的準(zhǔn)確率,還會(huì)使執(zhí)行檢測(cè)任務(wù)的效率降低。通過對(duì)比可以得出,當(dāng)雙重閾值設(shè)定為“5”和“2”時(shí),基于改進(jìn)YOLOv3的車輛檢測(cè)模型可以較準(zhǔn)確、較高效地完成高速公路隧道內(nèi)停車檢測(cè)的任務(wù)。
本文提出了一種基于改進(jìn)YOLOv3車輛檢測(cè)模型的停車檢測(cè)方法。對(duì)于YOLOv3車輛檢測(cè)的改進(jìn),在VOC-vehicle數(shù)據(jù)集和Tunnel-vehicle數(shù)據(jù)集上的車輛檢測(cè)mAP分別提升了1.06個(gè)百分點(diǎn)和0.65個(gè)百分點(diǎn)。最終,訓(xùn)練得到了mAP為98.19%的高速公路隧道車輛檢測(cè)模型。獲得車輛檢測(cè)模型后,結(jié)合Deep SORT進(jìn)行車輛跟蹤并通過計(jì)算車輛速度來判斷停車。在高速公路隧道停車測(cè)試視頻上的正檢率達(dá)到95%。本文取得了一定成果,但仍然存在值得進(jìn)一步研究的地方,例如:可繼續(xù)擴(kuò)充訓(xùn)練數(shù)據(jù),提高模型的魯棒性,使其適用于更加復(fù)雜多變的場(chǎng)景[19];對(duì)于視頻畫面中由于煙霧導(dǎo)致的模糊問題,可采用暗通道去霧算法[20]進(jìn)行修正或研究其他方法。