陳瓊紅,冀 杰,種一帆,宮銘錢(qián)
(西南大學(xué) 工程技術(shù)學(xué)院,重慶 400715)
車(chē)輛和行人檢測(cè)是實(shí)現(xiàn)智能交通以及自動(dòng)駕駛的必經(jīng)之路。在霧霾天氣下,通過(guò)相機(jī)拍攝的圖片對(duì)比度下降、可辨識(shí)度較低[1],嚴(yán)重影響城市道路上車(chē)輛和行人的檢測(cè)。因此,利用霧天環(huán)境下的車(chē)輛和行人檢測(cè),精確感知道路前方的交通信息,對(duì)降低交通事故的發(fā)生率和保障駕乘人員的人身安全有重要意義。
霧天環(huán)境下的車(chē)輛與行人檢測(cè)分為2個(gè)階段,去霧階段和車(chē)輛與行人檢測(cè)階段[2]。目前,霧天圖片的去霧處理主要分為圖像增強(qiáng)[3]和圖像復(fù)原[4-8]兩大類(lèi)。He等[4]提出基于暗通道先驗(yàn)知識(shí)統(tǒng)計(jì)的去霧算法,該方法往往高估霧氣濃度,導(dǎo)致去霧過(guò)度;Tang等[9]利用隨機(jī)森林法對(duì)霧天圖片中的特征進(jìn)行學(xué)習(xí),從而得到最優(yōu)傳播圖;Cai等[10]提出DehazeNet,利用卷積網(wǎng)絡(luò)[11-12]提取圖片特征并得到圖片傳輸圖。該方法在某些特殊場(chǎng)景,會(huì)造成該環(huán)境下的傳播圖估計(jì)不準(zhǔn)確,導(dǎo)致去霧效果不理想。綜上所述,目前的去霧算法主要是根據(jù)大氣散射模型原理,分別對(duì)傳輸圖和全局大氣光值進(jìn)行估計(jì),最終得到恢復(fù)的真實(shí)圖片。本文選用AOD-Net(All-in-One Dehazing Network)算法[13],利用卷積網(wǎng)絡(luò)對(duì)全局大氣光值和傳輸圖進(jìn)行聯(lián)合估計(jì),從而得到恢復(fù)的真實(shí)場(chǎng)景圖片,使得重建誤差更?。?4]。
在圖像目標(biāo)檢測(cè)領(lǐng)域,利用深度學(xué)習(xí)進(jìn)行目標(biāo)檢測(cè)的算法主要分為雙階段[15-17]和單階段[18-19]兩大類(lèi)?!半p階段”是指先對(duì)圖片生成建議候選區(qū)域,再進(jìn)行預(yù)測(cè)識(shí)別,以Girshick R等提出的R-CNN系列為代表,其中Faster R-CNN對(duì)目標(biāo)檢測(cè)的影響較為深遠(yuǎn);“單階段”則不需要生成建議區(qū)域,直接進(jìn)行預(yù)測(cè)識(shí)別,以Redmon J提出的YOLO系列和Liu W等提出的SSD(Single Shot MultiBox Detector)[19]為代表。其中,SSD網(wǎng)絡(luò)延續(xù)了YOLOv1網(wǎng)絡(luò)直接對(duì)檢測(cè)對(duì)象回歸出預(yù)測(cè)框和分類(lèi)概率的特點(diǎn),又借鑒了Faster R-CNN網(wǎng)絡(luò)中利用RPN層產(chǎn)生大量的anchor的特點(diǎn)。除此之外,SSD的網(wǎng)絡(luò)訓(xùn)練框架相對(duì)簡(jiǎn)潔,因此SSD與Faster R-CNN相比檢測(cè)速度更快且檢測(cè)精度與Faster R-CNN相媲美;SSD框架與YOLOv1框架相比,其檢測(cè)精度和檢測(cè)速度更高。本文選用SSD網(wǎng)絡(luò)實(shí)現(xiàn)車(chē)輛和行人檢測(cè),其流程如圖1所示。
圖1 算法流程框圖
在霧霾天氣下,導(dǎo)致相機(jī)拍攝到的圖片質(zhì)量降低有2個(gè)方面,一方面是大氣中懸浮粒子對(duì)入射光的散射作用,造成入射光從景物點(diǎn)傳播到成像設(shè)備觀測(cè)點(diǎn)的過(guò)程中出現(xiàn)削弱衰減現(xiàn)象;另一方面是大氣中的大氣微粒偏離原來(lái)的傳播方向融入到成像光路中,并與目標(biāo)物體的反射光一起參與成像。
McCartney提出大氣散射模型理論[20]揭示霧天圖片顏色衰退以及對(duì)比度下降的原因。大氣散射模型由入射光衰減模型和大氣光成像模型兩部分組成。其中,入射光衰減模型描述場(chǎng)景反射光線傳播到觀測(cè)點(diǎn)的能量變化;大氣光主要由同樣直射光、天空散射光和地面反射光組成,因此傳播距離越大,大氣光在成像模型中的影響越大。
根據(jù)大氣散射模型理論,得到霧天圖像退化模型的公式如下所示。
式中:I(x)為帶霧圖片;J(x)為恢復(fù)的真實(shí)場(chǎng)景圖片;A為全局大氣光值,表示觀測(cè)方向上大氣環(huán)境中其他光路在觀測(cè)方向上的影響,一般為全局常量;t(x)為透射率,即傳輸圖,描述光線對(duì)霧氣的穿透能力,一般取值0~1之間。
當(dāng)大氣同質(zhì)時(shí),透射率可以表示為
式中:β為散射率,當(dāng)大氣均勻時(shí),在一定時(shí)刻對(duì)于整幅圖像來(lái)說(shuō)β是一個(gè)定值;d(x)為場(chǎng)景對(duì)象到傳感器的距離,即場(chǎng)景深度。
對(duì)式(1)進(jìn)行整理,得到恢復(fù)的真實(shí)場(chǎng)景圖片表達(dá)式為
AOD-Net算法由K值估計(jì)模型和清晰圖片生成模型2個(gè)部分組成,AOD-Net算法的模型如圖2所示。
圖2 AOD-Net模型
K值估計(jì)模型對(duì)輸入圖片的傳輸圖和全局大氣光值進(jìn)行聯(lián)合估計(jì),如式(4)所示。
式中,b為常數(shù)偏置,默認(rèn)值為1。
從式(4)可以看出,K(x)除了與透射率t(x)和全局大氣光值A(chǔ)有關(guān),還與輸入圖像I(x)有關(guān),K(x)隨著輸入圖像I(x)變化而變化,從而建立了一個(gè)輸入自適應(yīng)模型。通過(guò)最小化輸出圖像J(x)與清晰圖像之間的重構(gòu)誤差來(lái)訓(xùn)練模型,使輸出J(x)與清晰圖像的誤差最小,從而輸出恢復(fù)的真實(shí)場(chǎng)景圖片J(x)。
K值估計(jì)模型的結(jié)構(gòu)如圖3所示,由5個(gè)卷積層和3個(gè)連接層組成。卷積層分別采用不同大小的卷積核來(lái)提取不同尺度的特征,且每個(gè)卷積層僅使用3個(gè)卷積核。為了將不同卷積層提取到的特征相結(jié)合,在卷積層之間加入Concat層。其中Concat1將Conv1和Conv2提取到的特征連接在一起;Concat2將Conv2和Conv3提取到的特征連接在一起;Concat3將Conv1、Conv2、Conv3和Conv4提取到的特征連接在一起。利用Concat層既可以結(jié)合多種特征,實(shí)現(xiàn)從低層特征到高層特征的平滑轉(zhuǎn)換;又可以補(bǔ)償在卷積過(guò)程中的信息損失。
圖3 K值估計(jì)模型
根據(jù)大氣散射模型原理,將估計(jì)得到的K(x)代入式(3),得到清晰圖片生成模型的公式如下。
利用AOD-Net算法對(duì)圖片的透射率t(x)和全局大氣光值A(chǔ)進(jìn)行聯(lián)合估算,得到恢復(fù)的真實(shí)場(chǎng)景圖片J(x),為后續(xù)SSD網(wǎng)絡(luò)的模型訓(xùn)練奠定基礎(chǔ)。
本文采用SSD算法作為霧天車(chē)輛和行人的檢測(cè)網(wǎng)絡(luò)。在SSD網(wǎng)絡(luò)中將提取到的多級(jí)特征圖作為車(chē)輛和行人分類(lèi)及其預(yù)測(cè)框回歸的依據(jù),在SSD網(wǎng)絡(luò)中,靠前的卷積層提取到的特征圖(大特征圖)用于檢測(cè)圖片中遠(yuǎn)處的車(chē)輛和行人以及近處的小目標(biāo)行人;靠后卷積層提取到的特征圖(小特征圖)用于檢測(cè)近處的車(chē)輛和行人,從而達(dá)到多尺度特征的檢測(cè)效果。SSD網(wǎng)絡(luò)框架由基礎(chǔ)網(wǎng)絡(luò)層和輔助網(wǎng)絡(luò)層2個(gè)部分組成,如圖4所示。
1)基礎(chǔ)網(wǎng)絡(luò)層:本文選取VGG16作為車(chē)輛和行人檢測(cè)的基礎(chǔ)網(wǎng)絡(luò),將原VGG16中的FC6和FC7 2個(gè)全連接層分別改為卷積層Conv6和Conv7,然后去掉dropout層和FC8層。其中Conv6采用空洞卷積,使得網(wǎng)絡(luò)在不增加參數(shù)及模型復(fù)雜度的情況下卷積視野指數(shù)級(jí)擴(kuò)大。
2)輔助網(wǎng)絡(luò)層:由位于基礎(chǔ)網(wǎng)絡(luò)層之后的4個(gè)卷積層組成,分別提取不同的特征圖用于車(chē)輛和行人檢測(cè)的分類(lèi)和預(yù)測(cè)框回歸。
圖4 SSD網(wǎng)絡(luò)結(jié)構(gòu)圖
由圖4可知,最后用于車(chē)輛和行人目標(biāo)分類(lèi)及預(yù)測(cè)框坐標(biāo)回歸的特征圖由Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2和Conv11_2等提供,利用不同的特征圖進(jìn)行分類(lèi)回歸能夠提升模型對(duì)車(chē)輛和行人的檢測(cè)精度,且在每一層特征圖上的每一個(gè)單元產(chǎn)生先驗(yàn)框的過(guò)程如下。
式中:m為特征圖個(gè)數(shù);sk為第k個(gè)特征圖的尺度;smin為先驗(yàn)框的最小值,smin=0.2;smax為先驗(yàn)框的最大值,smax=0.9。
Conv4_3、Conv10_2、Conv11_2等卷積層提取特征圖的每一個(gè)單元產(chǎn)生4個(gè)先驗(yàn)框,其高寬比ar1有2種尺寸,一般取ar1={1,2,1/2};對(duì)于Conv7、Conv8_2、Conv9_2等卷積層則產(chǎn)生6個(gè)先驗(yàn)框,其高寬比ar2有3種尺寸,一般取ar2={1,2,3,1/2,1/3}。
在形成先驗(yàn)框時(shí),針對(duì)特定卷積層的特定高寬比,得到先驗(yàn)框的寬和高計(jì)算公式如下:
式中:ari取ar1或ar2內(nèi)的數(shù)值。
當(dāng)高寬比ari=1時(shí),除了特定尺寸sk的先驗(yàn)框外,還會(huì)另設(shè)一個(gè)先驗(yàn)框,其尺寸為:
圖片中生成的每個(gè)先驗(yàn)框都會(huì)預(yù)測(cè)一個(gè)邊界框,因此一張圖片共產(chǎn)生8 732個(gè)邊界框。遵循一個(gè)先驗(yàn)框只能與一個(gè)真實(shí)框匹配,一個(gè)真實(shí)框可以與多個(gè)先驗(yàn)框匹配的原則。首先對(duì)霧天城市道路圖片中每一個(gè)車(chē)輛和行人的真實(shí)框找到與其交并比(IOU)最大的先驗(yàn)框進(jìn)行匹配;對(duì)于未匹配的先驗(yàn)框,若存在真實(shí)框與某個(gè)先驗(yàn)框的交并比大于0.5,則該先驗(yàn)框與真實(shí)框匹配。若一個(gè)先驗(yàn)框與多個(gè)真實(shí)框的交并比均大于0.5,則選擇交并比最大的那個(gè)真實(shí)框與先驗(yàn)框進(jìn)行匹配。其中與真實(shí)框進(jìn)行匹配的先驗(yàn)框?yàn)檎龢颖?,反之為?fù)樣本。為了保證正負(fù)樣本相對(duì)均衡,故對(duì)負(fù)樣本進(jìn)行抽樣,并按照置信度誤差進(jìn)行降序排列,選取損失最大的前k個(gè)作為訓(xùn)練負(fù)樣本,使得正負(fù)樣本比例約為1∶3。根據(jù)SSD網(wǎng)絡(luò)的匹配原則,訓(xùn)練得到車(chē)輛和行人檢測(cè)模型的總損失(L)為位置損失(Lloc)和置信度損失(Lconf)的加權(quán)和,如式(10)所示。
式中:α為權(quán)重系數(shù),設(shè)置為1;N為邊界框的數(shù)量,當(dāng)N=0時(shí),總損失為零。
車(chē)輛和行人檢測(cè)的位置損失是預(yù)測(cè)框l和真實(shí)框g參數(shù)之間的Smooth L1損失,如式(11)所示。
真實(shí)預(yù)測(cè)值是先驗(yàn)框d的中心(cx,cy)、寬度w和高度h相對(duì)于真實(shí)框的轉(zhuǎn)換值,如下所示。
車(chē)輛和行人檢測(cè)模型的置信度損失為Softmax Loss,其定義如式(17)。
本文實(shí)驗(yàn)的操作系統(tǒng)為Ubuntu 18.04.2,運(yùn)行內(nèi)存為64 GB,雙NVIDIA RTX 2080Ti型GPU,Intel?Xeon(R)Gold 6242 CPU@2.80GHz處理器,并行計(jì)算框架版本為CUDA 10.1,深度神經(jīng)網(wǎng)絡(luò)加速庫(kù)為CUDNNv 7.6.1.34。采用Python編程語(yǔ)言在Pytorch 1.1.0深度學(xué)習(xí)框架上完成模型的訓(xùn)練與測(cè)試過(guò)程。
本文利用NYU2數(shù)據(jù)集[21]對(duì)AOD-Net網(wǎng)絡(luò)進(jìn)行訓(xùn)練,其中訓(xùn)練參數(shù)學(xué)習(xí)率為0.000 1,權(quán)重衰減為0.000 1,batch_size為8,epoch為10。利用訓(xùn)練好的去霧模型對(duì)真實(shí)場(chǎng)景下的霧天圖片數(shù)據(jù)集RTTS[22]進(jìn)行去霧處理,得到不同霧氣濃度下,去霧處理前后的圖片對(duì)比結(jié)果,如圖5~7所示,其中(a)為原始帶霧圖片,(b)為去霧處理后的圖片。
圖5 薄霧的處理結(jié)果
圖6 中霧的處理結(jié)果
圖7 濃霧的處理結(jié)果
對(duì)圖5~7中不同程度霧氣濃度的處理結(jié)果進(jìn)行對(duì)比分析知,霧天復(fù)雜交通環(huán)境下,經(jīng)過(guò)去霧處理后的圖片中被霧氣遮擋的車(chē)輛和行人輪廓能夠凸顯,細(xì)節(jié)信息都更為豐富,顏色更加飽和,目標(biāo)的可辨識(shí)度、對(duì)比度更高。
采用平均峰值信噪比(PSNR)和平均結(jié)構(gòu)相似度(SSIM)對(duì)去霧處理前后的圖片質(zhì)量進(jìn)行評(píng)價(jià)。其中PSNR為基于對(duì)應(yīng)像素點(diǎn)間的誤差,即基于誤差敏感的圖像質(zhì)量評(píng)價(jià),對(duì)一張H×W的圖片,其公式如下所示。
平均結(jié)構(gòu)相似度分別從亮度、對(duì)比度、結(jié)構(gòu)3個(gè)方面度量圖像的相似性,其表達(dá)式如下:
式中:uX、uY為圖像X和Y的均值;σX、σY分別為圖像X和Y的方差;σXY表示圖像X和Y的的協(xié)方差;C1、C2、C3為常數(shù)項(xiàng)。
PNSR和SSIM值越大,表示圖像失真越小。RTTS數(shù)據(jù)集去霧處理前后的PSNR和SSIM對(duì)比如表1所示。
表1 去霧處理前后的客觀評(píng)價(jià)
通過(guò)表1可知,經(jīng)過(guò)去霧處理后,圖片的平均峰值信噪比和平均結(jié)構(gòu)相似度分別提高了0.325 5、0.020 2。因此,去霧處理后的圖片失真更小,噪音更少,對(duì)比度更高,圖像更加明亮且目標(biāo)物體的邊緣信息更加豐富。
由于同時(shí)獲取霧天圖片和與之相對(duì)應(yīng)的清晰圖片在現(xiàn)實(shí)生活中較難,故在以往的去霧算法中均采用人工合成霧天圖片進(jìn)行模型訓(xùn)練。一般情況下,人工合成霧天圖片的霧氣濃度較低且分布相對(duì)均勻,與真實(shí)場(chǎng)景下的霧天圖片有較大差距,因此利用人工合成霧天圖片訓(xùn)練出的模型在真實(shí)霧天場(chǎng)景下的泛化能力和魯棒性較差,因此本文采用真實(shí)場(chǎng)景下的霧天城市道路數(shù)據(jù)集RTTS進(jìn)行模型訓(xùn)練。該數(shù)據(jù)集包含了不同場(chǎng)景和不同霧氣濃度下豐富的車(chē)輛和行人圖片,對(duì)RTTS數(shù)據(jù)集進(jìn)行修改,將圖片隨機(jī)分為訓(xùn)練集、驗(yàn)證集和測(cè)試集3個(gè)部分,且訓(xùn)練集、驗(yàn)證集和測(cè)試集的比值為6∶1∶1,得到訓(xùn)練集圖片共3 242張,驗(yàn)證集和測(cè)試集圖片分別540張。對(duì)訓(xùn)練集中的圖片分別進(jìn)行水平翻轉(zhuǎn)、旋轉(zhuǎn)、拉伸、明暗變化以及添加高斯噪聲等操作,得到更加豐富的數(shù)據(jù)集。訓(xùn)練的目標(biāo)有“汽車(chē)”“自行車(chē)”“摩托車(chē)”和“行人”4種,數(shù)據(jù)集的示例如圖8所示。
圖8 RTTS數(shù)據(jù)集圖片
為了驗(yàn)證將AOD-Net和SSD算法結(jié)合起來(lái)的優(yōu)越性,利用RTTS數(shù)據(jù)集的原始帶霧圖片和經(jīng)過(guò)AOD-Net去霧處理后的圖片訓(xùn)練了2種不同的模型[2]分別用于車(chē)輛和行人檢測(cè)。2種模型的基本訓(xùn)練參數(shù)均一致,batch_size設(shè)為64,學(xué)習(xí)率設(shè)為10-4,權(quán)重衰減設(shè)為5×10-4,betas設(shè)為(0.9,0.99),共訓(xùn)練560個(gè)epoch。采用Adam梯度優(yōu)化器使2種模型的總損失快速收斂,具體訓(xùn)練過(guò)程如下。
模型1:將RTTS訓(xùn)練集的帶霧圖片進(jìn)行AOD-Net去霧處理,然后將經(jīng)過(guò)去霧處理后的圖片作為目標(biāo)檢測(cè)網(wǎng)絡(luò)SSD的輸入,并依據(jù)上述的模型訓(xùn)練參數(shù)進(jìn)行訓(xùn)練,得到車(chē)輛和行人的檢測(cè)模型1,訓(xùn)練過(guò)程中的損失曲線如圖9所示。
圖9 模型1的訓(xùn)練損失曲線
模型2:將RTTS訓(xùn)練集的帶霧圖片直接作為目標(biāo)檢測(cè)網(wǎng)絡(luò)SSD的輸入圖片。并根據(jù)上述的訓(xùn)練模型參數(shù)進(jìn)行訓(xùn)練,得到車(chē)輛和行人的檢測(cè)模型2,其訓(xùn)練過(guò)程中的損失曲線如圖10所示。
圖10 模型2的訓(xùn)練損失曲線
由圖分析可知,模型1和模型2的總損失值分別由最初的21.34、21.75下降至1.42、1.56;置信度損失分別由最初的17.46、17.83下降至1.00、1.11;位置損失由最初的3.88、3.92下降至0.42、0.45。因此模型1和模型2的訓(xùn)練過(guò)程收斂均較好。
目前,主流的目標(biāo)檢測(cè)模型評(píng)價(jià)指標(biāo)有交并比(IOU)、精確率(precision)、召回率(recall)、AP(Average Precision)值和mAP(Mean Average Precision)值,其中精確率和召回率的公式如下。
式中:TP為正樣本被識(shí)別為正樣本;FP為負(fù)樣本被錯(cuò)誤識(shí)別為正樣本;FN為正樣本被識(shí)別為負(fù)樣本。
AP值為PR曲線(即以precision和recall分別作為橫坐標(biāo)和縱坐標(biāo)的二維曲線)下的面積,利用AP值可以對(duì)訓(xùn)練的模型在某個(gè)目標(biāo)類(lèi)別上的檢測(cè)結(jié)果進(jìn)行評(píng)價(jià)。mAP值則表示訓(xùn)練的模型對(duì)所有目標(biāo)類(lèi)別上的檢測(cè)結(jié)果進(jìn)行評(píng)價(jià),即所有類(lèi)別對(duì)應(yīng)AP值的均值,其表達(dá)式如下。
式中,N為目標(biāo)種類(lèi)數(shù)。
本文采用交并比、召回率、AP值和mAP值對(duì)訓(xùn)練得到的2個(gè)模型進(jìn)行全面評(píng)價(jià)。將RTTS測(cè)試集的帶霧圖片分別在模型1和模型2上測(cè)試,得到模型1和模型2的交并比、召回率、AP值及mAP值如表2~4所示。
表2 模型1和模型2的交并比 %
表3 模型1和模型2的召回率 %
表4 模型1和模型2的AP值及mAP值 %
由表2可知,模型1的交并比高于模型2,表明模型1的目標(biāo)框和標(biāo)定框相似度高于模型2,各類(lèi)目標(biāo)的交并比分別高7.44%、3.72%、4.66%和6.61%。由表3可知,模型1的召回率高于模型2,各類(lèi)目標(biāo)檢測(cè)的召回率分別高5.63%、11.83%、11.29%和10.47%,即模型1中被正確檢測(cè)識(shí)別的目標(biāo)高于模型2。由表4可知,模型1的mAP值比模型2高4.1%;在單個(gè)目標(biāo)檢測(cè)中,模型1中汽車(chē)的AP值比模型2高3.8%;自行車(chē)的AP值相比模型2高3.83%;行人的AP值相比模型2高3.17%;摩托車(chē)的AP值比模型2高5.57%。綜上所述,加入去霧處理的模型1對(duì)車(chē)輛和行人的檢測(cè)精度比模型2更高。
利用數(shù)據(jù)集RTTS測(cè)試集的帶霧圖片,分別在模型1和模型2上進(jìn)行測(cè)試,選取薄霧、中霧和濃霧3種不同等級(jí)的霧氣濃度圖片進(jìn)行車(chē)輛和行人的檢測(cè)精度分析,每個(gè)霧氣濃度等級(jí)選取4張作為示例,如圖11~13。
圖11 薄霧環(huán)境下的檢測(cè)結(jié)果
圖12 中霧環(huán)境下的檢測(cè)結(jié)果
圖13 濃霧環(huán)境下檢測(cè)結(jié)果
由圖11~13知,在薄霧、中霧及濃霧3種不同等級(jí)的霧濃度下,模型1對(duì)目標(biāo)漏檢及誤檢的情況明顯低于模型2;對(duì)車(chē)輛和行人的定位精度相比模型2較高且檢測(cè)到的目標(biāo)置信度更高。
將本文的霧天車(chē)輛和行人檢測(cè)算法與MSCNN+Faster R-CNN、DehazeNet+Faster R-CNN和DCP+Faster R-CNN等霧天目標(biāo)檢測(cè)算法進(jìn)行比較,得到各類(lèi)算法的mAP值如表5所示,表中“F”表示Faster R-CNN。
表5 各種霧天檢測(cè)算法的mAP值 %
從表5中得出,與其他算法相比,本文算法在霧天環(huán)境下檢測(cè)的mAP值最高,比MSCNN+F算法高12.3%;比DehazeNet+F算法高11.5%;比DCP+F算法高10.3%;綜上所述,AOD-Net網(wǎng)絡(luò)與SSD網(wǎng)絡(luò)相結(jié)合有效地提高了訓(xùn)練模型的mAP值,改善了霧天車(chē)輛和行人的檢測(cè)精度;除此之外,由于訓(xùn)練的數(shù)據(jù)集為真實(shí)霧天圖片,故本文的模型在真實(shí)霧天場(chǎng)景中相比其他算法泛化能力更好。
本文將AOD-Net去霧算法和SSD目標(biāo)檢測(cè)算法進(jìn)行結(jié)合,針對(duì)城市道路下,霧天的車(chē)輛和行人進(jìn)行檢測(cè)。該方法在真實(shí)帶霧圖片上進(jìn)行車(chē)輛和行人檢測(cè)的mAP值可達(dá)75.8%,相比其他算法,提高了霧天環(huán)境下的目標(biāo)檢測(cè)精度。當(dāng)霧天環(huán)境下的霧濃度發(fā)生變化時(shí),仍然能很好地對(duì)車(chē)輛和行人進(jìn)行檢測(cè),使得其泛化能力更好。由于本文的數(shù)據(jù)集圖片數(shù)量相對(duì)Pascal voc、COCO等大型數(shù)據(jù)集而言較少,學(xué)習(xí)到的霧天場(chǎng)景下車(chē)輛和行人的特征有限,下一步將繼續(xù)增加數(shù)據(jù)集的圖片數(shù)量和不同的霧天場(chǎng)景,從而為未來(lái)自動(dòng)駕駛和智能輔助駕駛感知霧天環(huán)境下的車(chē)輛和行人奠定環(huán)境感知基礎(chǔ)。