張峻祎,丁 冰,丁 潔
(1.太原理工大學(xué)電氣與動力工程學(xué)院,山西太原 030024;2.北京理工大學(xué)集成電路與電子學(xué)院,北京 100081)
隨著道路基建的完善與車輛保有量的提升,人們對于智能交通系統(tǒng)的需求日益增加。作為智能交通系統(tǒng)的基礎(chǔ),車輛檢測引起了研究人員的關(guān)注并逐漸成為相關(guān)領(lǐng)域研究的重點(diǎn)?;趫D像的車輛檢測算法可分為傳統(tǒng)檢測算法與基于深度學(xué)習(xí)的檢測算法。傳統(tǒng)檢測算法通?;谑止ぬ卣?,具有檢測精度差、檢測速度慢等問題;基于深度學(xué)習(xí)的車輛檢測算法因其檢測精度高、檢測速度快等優(yōu)勢,逐漸成為車輛檢測研究的主要研究方向。相較于正常光照環(huán)境下的車輛識別,弱光環(huán)境下的車輛識別更為復(fù)雜,在弱光條件下車輛往往會與背景融合導(dǎo)致神經(jīng)網(wǎng)絡(luò)難以提取車輛特征,進(jìn)而難以識別車輛。因此,研究如何在弱光環(huán)境下識別車輛具有重要的現(xiàn)實(shí)意義。
目前深度學(xué)習(xí)的檢測算法通?;谠缙谔岢龅慕?jīng)典神經(jīng)網(wǎng)絡(luò)——AlexNet。在此之后,深度學(xué)習(xí)逐漸廣泛用于目標(biāo)檢測領(lǐng)域,并提出了許多經(jīng)典的底層框架,如VGG、GoogleNet、MobileNet[1]等,同時(shí)也提出了許多經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu),如FPN、CSP[2]、SPP、殘差結(jié)構(gòu)等。相較于傳統(tǒng)檢測方法,2014 年Ross 等人提出的基于卷積神經(jīng)網(wǎng)絡(luò)的RCNN 網(wǎng)絡(luò)在檢測準(zhǔn)確率方面有了大幅提升,而RCNN 系列網(wǎng)絡(luò)也是two-stage 檢測的代表作之一。相較于two-stage 檢測,Girshick 等人于2016 年提出的one-stage 代表作YOLO 網(wǎng)絡(luò),以犧牲較小的準(zhǔn)確率,大幅提高了網(wǎng)絡(luò)的運(yùn)行速度,使之可以進(jìn)行實(shí)時(shí)檢測,并在之后以此為基礎(chǔ)陸續(xù)提出了多個(gè)YOLO[3-6]系列網(wǎng)絡(luò),在檢測速度、檢測精度上都有了顯著的提高。近年來,隨著transformer[7-8]在NLP 領(lǐng)域的興起,許多研究人員嘗試將其引入到計(jì)算機(jī)視覺領(lǐng)域并提出了各種注意力機(jī)制[9-11],這些注意力機(jī)制在圖像分類、目標(biāo)識別等傳統(tǒng)計(jì)算機(jī)視覺任務(wù)中可有效提高網(wǎng)絡(luò)的效果,同時(shí)也有著非??捎^的發(fā)展前景。
基于以上研究,可在正常光照條件下較好地完成各種車輛識別任務(wù)。但想要在弱光環(huán)境下完成車輛識別任務(wù)就需要進(jìn)一步的研究。文獻(xiàn)[12]通過融合來自CycleGAN的多尺度特征等方法提取弱光環(huán)境下的目標(biāo)車輛特征進(jìn)而進(jìn)行識別;文獻(xiàn)[13]基于全卷積網(wǎng)絡(luò)提出了一個(gè)端到端訓(xùn)練的低光圖像處理網(wǎng)絡(luò)以增強(qiáng)圖像在弱光環(huán)境下的特征;文獻(xiàn)[14]提出了一種改進(jìn)的BIMEF算法并將不同尺度的目標(biāo)車輛特征進(jìn)行融合以增強(qiáng)目標(biāo)車輛特征,進(jìn)而有效識別弱光環(huán)境下的車輛;文獻(xiàn)[15]提出了一種基于細(xì)粒度車輛識別的全局拓?fù)浼s束網(wǎng)絡(luò),采用全局拓?fù)浼s束的關(guān)系以集成目標(biāo)車輛各部分的特征進(jìn)而識別車輛。
目前基于深度學(xué)習(xí)的弱光環(huán)境車輛檢測網(wǎng)絡(luò)雖然可以完成檢測任務(wù),但仍有提升的空間,主要包括以下三點(diǎn):
1)雖然當(dāng)前弱光檢測神經(jīng)網(wǎng)絡(luò)可提取弱光環(huán)境下的目標(biāo)特征,但仍要考慮如何進(jìn)一步優(yōu)化網(wǎng)絡(luò)在弱光環(huán)境下的特征提取能力以提高網(wǎng)絡(luò)的檢測效果。
2)為了能更好地在弱光環(huán)境下進(jìn)行車輛識別,通常會在網(wǎng)絡(luò)中設(shè)計(jì)復(fù)雜的模塊以提取弱光環(huán)境下的車輛特征。雖然可以提高網(wǎng)絡(luò)的檢測效果,但是也會使網(wǎng)絡(luò)更為復(fù)雜、檢測時(shí)間更長,因此也要考慮如何在保證網(wǎng)絡(luò)檢測效果的同時(shí)提高網(wǎng)絡(luò)的檢測速度。
3)目前現(xiàn)有的方法雖然可以有效提取目標(biāo)車輛在弱光環(huán)境下的特征,但對訓(xùn)練數(shù)據(jù)集的要求較高,需要建立專門的對比數(shù)據(jù)集,即在相同背景環(huán)境、相同車輛、不同光照條件下的車輛圖片。
為了建立這樣的數(shù)據(jù)集,一種方法是在不同的光照條件下拍攝相同背景環(huán)境、相同車輛的真實(shí)圖片,但這種方法對現(xiàn)實(shí)條件要求較高,很難獲得大量有效的圖片;另一種方法是拍攝車輛圖片后用計(jì)算機(jī)隨機(jī)調(diào)整亮度,并加入人工模擬噪聲,雖然這種方法可以獲得大量不同光照條件下的圖片,但訓(xùn)練出的網(wǎng)絡(luò)在效果上不如使用真實(shí)圖片的效果好。為了解決上述問題,本文提出了一種弱光環(huán)境下的車輛識別網(wǎng)絡(luò),在該網(wǎng)絡(luò)中,通過提出的特征提取模塊以提取弱光環(huán)境下的目標(biāo)車輛特征;使用設(shè)計(jì)的特征融合模塊以提高網(wǎng)絡(luò)的檢測精度;最后在網(wǎng)絡(luò)中使用模型結(jié)構(gòu)重參數(shù)化的方法以提高網(wǎng)絡(luò)的檢測速度。在構(gòu)建訓(xùn)練網(wǎng)絡(luò)的數(shù)據(jù)集時(shí)不需要額外地對照圖片,僅使用弱光環(huán)境下的圖片就可訓(xùn)練網(wǎng)絡(luò)且取得較好的效果。
為了使網(wǎng)絡(luò)能在弱光環(huán)境下有效檢測目標(biāo)車輛,同時(shí)保證網(wǎng)絡(luò)檢測的實(shí)時(shí)性,本文基于YOLO-v7 網(wǎng)絡(luò),使用了PAN、SPP 等結(jié)構(gòu),提出了特征提取模塊、特征融合模塊,并使用模型結(jié)構(gòu)重參數(shù)化方法以優(yōu)化網(wǎng)絡(luò)。
網(wǎng)絡(luò)的整體架構(gòu)如圖1 所示。
圖1 網(wǎng)絡(luò)結(jié)構(gòu)
網(wǎng)絡(luò)可分為三個(gè)部分:特征提取部分、特征增強(qiáng)部分與檢測部分。
1)特征提取部分用以提取弱光圖像的特征,該部分由卷積模塊、ELAN 模塊、特征提取模塊等構(gòu)成,其核心是本文提出的特征提取模塊。
2)特征增強(qiáng)部分用以增強(qiáng)特征提取部分提取到的圖像特征,進(jìn)一步提高網(wǎng)絡(luò)的檢測精度。該模塊由卷積模塊、特征融合模塊等模塊構(gòu)成,其核心是本文提出的特征融合模塊。
3)檢測部分的核心是三個(gè)檢測輸出頭,用以輸出網(wǎng)絡(luò)在不同尺度上的預(yù)測結(jié)果,最后統(tǒng)一縮放映射到原圖片。
現(xiàn)有的目標(biāo)檢測網(wǎng)絡(luò)通常較為依賴輸入的圖像或視頻的質(zhì)量,即待檢測的圖片或視頻中目標(biāo)特征較為明顯時(shí)會有較好的效果。但在弱光環(huán)境下,目標(biāo)往往與背景相融合或被外界光源干擾,此時(shí)難以提取有效特征。為了解決該問題,本文提出了特征提取模塊,如圖2所示。
圖2 特征提取模塊結(jié)構(gòu)
考慮到弱光環(huán)境下圖像內(nèi)容較為復(fù)雜,如果使用簡單的網(wǎng)絡(luò)結(jié)構(gòu)難以提取有效的目標(biāo)特征,因此采用多分支的方式設(shè)計(jì)特征提取模塊,將弱光環(huán)境下的特征提取問題分解為不同維度下特征相關(guān)的子問題,最后將多分支的輸出進(jìn)行融合以實(shí)現(xiàn)對弱光環(huán)境下目標(biāo)特征的提取。在特征提取模塊的構(gòu)成上,首先輸入特征提取模塊的特征圖經(jīng)過5 個(gè)串聯(lián)的卷積層,用以提取不同維度的特征,其中每個(gè)卷積層的后面都接了一層BN(Batch Normalization)層與一層Mish 激活函數(shù)層,用以提高網(wǎng)絡(luò)的訓(xùn)練速度與收斂速度,同時(shí)也防止過擬合。同時(shí),在其中加入了SimAM 注意力機(jī)制以進(jìn)一步提高該模塊的特征提取能力,用以從通道維度與空間維度對特征進(jìn)一步細(xì)化增強(qiáng),SimAM 注意力機(jī)制將在1.2 節(jié)中闡述。其次給上述每一個(gè)串聯(lián)的卷積層都并聯(lián)了一個(gè)子網(wǎng)絡(luò),其中每個(gè)子網(wǎng)絡(luò)由一層卷積層與一層反卷積層組成,最后將每一個(gè)子網(wǎng)絡(luò)的反卷積層輸出在深度上進(jìn)行拼接,并通過一個(gè)卷積核為1×1 的卷積層進(jìn)行特征的融合。最后也對該模塊使用模塊結(jié)構(gòu)重參數(shù)化的方法進(jìn)行優(yōu)化,以提高其運(yùn)行速度,模塊結(jié)構(gòu)重參數(shù)化將在1.3 節(jié)中闡述。
圖3 為設(shè)計(jì)的特征提取模塊在對弱光環(huán)境下的圖像進(jìn)行增強(qiáng)后的效果圖,使用的圖片為訓(xùn)練集中的圖片。此時(shí)圖片成像效果更好,目標(biāo)車輛與背景環(huán)境有明顯的區(qū)分,目標(biāo)特征更為明顯,便于之后的檢測。
圖3 特征提取模塊效果圖
為了進(jìn)一步提高網(wǎng)絡(luò)的檢測效果,在特征提取模塊后,本文設(shè)計(jì)了相應(yīng)的特征融合模塊,以對提取到弱光環(huán)境下的目標(biāo)特征進(jìn)一步的增強(qiáng)。特征融合模塊的具體結(jié)構(gòu)如圖4 所示。該模塊采用自上而下的傳播路徑與橫向連接的方式將特征提取模塊中不同尺度的特征圖進(jìn)行融合。首先,在特征提取部分的三個(gè)指定層各引出一個(gè)分支作為特征融合模塊的輸入,此時(shí)這三個(gè)輸入的特征圖尺寸不同,以便之后網(wǎng)絡(luò)利用不同維度的特征識別原始輸入圖像上不同大小的目標(biāo);其次,當(dāng)最小尺寸的特征圖輸入到特征融合模塊時(shí),先經(jīng)過三層并聯(lián)的池化層與一層卷積層,將每個(gè)池化層的輸出特征圖在深度上進(jìn)行拼接,再將拼接后的特征圖與卷積層輸出的特征圖再次在深度上進(jìn)行拼接,這樣既初步實(shí)現(xiàn)了不同尺度的特征圖融合,也提高了網(wǎng)絡(luò)對小目標(biāo)的檢測能力;然后,將上述拼接后的特征圖依次通過卷積、池化、上采樣等操作進(jìn)行進(jìn)一步處理,并與特征提取部分剩下的兩個(gè)輸入特征圖在指定的位置于深度上進(jìn)行拼接,此時(shí)特征融合模塊將低分辨率和語義強(qiáng)的特征與高分辨率及語義弱的特征相結(jié)合,以提高網(wǎng)絡(luò)的特征提取能力與對不同大小目標(biāo)的檢測能力;最后,在特征融合模塊的指定層引出三個(gè)分支作為該模塊的輸出。
圖4 特征融合模塊結(jié)構(gòu)
同時(shí),本文在特征融合模塊中引入了SimAM 注意力機(jī)制,以進(jìn)一步提高網(wǎng)絡(luò)的檢測效果。在視覺神經(jīng)科學(xué)中,信息量最大的神經(jīng)元通常與其周圍神經(jīng)元的放電模式不同且活動的神經(jīng)元也會抑制其周圍神經(jīng)元的活動。基于這一理論,不同于傳統(tǒng)的注意力機(jī)制對一個(gè)通道或一個(gè)空間位置的所有神經(jīng)元進(jìn)行同等的處理,SimAM 注意力機(jī)制在一維通道維度上與二維空間維度上進(jìn)一步提出了一個(gè)三維權(quán)重,通過設(shè)計(jì)的能量函數(shù)對網(wǎng)絡(luò)中每一個(gè)神經(jīng)元的重要性進(jìn)行評估,以增強(qiáng)特征在通道維度與空間維度的聯(lián)系。
此時(shí)網(wǎng)絡(luò)的特征提取能力有了進(jìn)一步的增強(qiáng),同時(shí)也不會增加額外的參數(shù)以對網(wǎng)絡(luò)的運(yùn)行速度產(chǎn)生負(fù)面影響。
基于以上所提出的網(wǎng)絡(luò),雖然可以有效地提高網(wǎng)絡(luò)對弱光環(huán)境下目標(biāo)特征的提取能力,但不可避免地使網(wǎng)絡(luò)的結(jié)構(gòu)更復(fù)雜。而在實(shí)際應(yīng)用中,復(fù)雜的網(wǎng)絡(luò)不僅對硬件有一定的要求,也會影響網(wǎng)絡(luò)的推理速度。因此,本文采用結(jié)構(gòu)重參數(shù)化的方法簡化網(wǎng)絡(luò)模型,提高網(wǎng)絡(luò)運(yùn)行速度。
結(jié)構(gòu)重參數(shù)化的核心思想是保留多分支結(jié)構(gòu)優(yōu)點(diǎn)的同時(shí)將多分支結(jié)構(gòu)轉(zhuǎn)為單路模型,這樣可以使得網(wǎng)絡(luò)更快、更靈活且節(jié)約內(nèi)存。在多分支結(jié)構(gòu)中,網(wǎng)絡(luò)推理在每個(gè)分支的推理速度不同,此時(shí)往往要等待所有的分支計(jì)算完成后才會進(jìn)行下一層推理,這無疑增加了網(wǎng)絡(luò)運(yùn)行的時(shí)間成本,同時(shí)也要考慮內(nèi)存訪問成本(Memory Access Cost, MAC),即在計(jì)算機(jī)計(jì)算時(shí)每一次計(jì)算都要訪問內(nèi)存。
相較于單路模型,多分支結(jié)構(gòu)的訪問次數(shù)更多,消耗的時(shí)間也更多,因此結(jié)構(gòu)重參數(shù)化可提高網(wǎng)絡(luò)的運(yùn)行速度。同時(shí),相較于復(fù)雜的多分支結(jié)構(gòu),單路模型構(gòu)建的更簡單,也更容易修改,因此結(jié)構(gòu)重參數(shù)化使得網(wǎng)絡(luò)更靈活。最后,相較于復(fù)雜的多分支結(jié)構(gòu),單路模型由于只有一條通道,也可以節(jié)約內(nèi)存,降低網(wǎng)絡(luò)對硬件的要求。
模塊結(jié)構(gòu)重參數(shù)化的具體應(yīng)用如圖5 所示。
圖5 模塊結(jié)構(gòu)重參數(shù)化
最初設(shè)計(jì)的多分支結(jié)構(gòu)共有三個(gè)分支:第一個(gè)分支由一個(gè)卷積核為3×3的卷積層與一層BN 層組成;第二個(gè)分支由一個(gè)卷積核為1×1 的卷積層與一層BN 層組成;第三個(gè)分支只有一層BN 層。之后再將這三個(gè)分支的輸出在通道上拼接,最后輸入到激活函數(shù)中。為了進(jìn)一步優(yōu)化網(wǎng)絡(luò),首先是將卷積層與BN 層進(jìn)行融合,其中BN層的計(jì)算公式如下:
式中:i= 1,2,…,c(c為通道數(shù))為輸入BN 層的特征圖的第i個(gè)通道;μi=為沿著輸入特征圖的批次方向計(jì)算每個(gè)相同通道位置處所有像素值的均值;=為沿著輸入特征圖的批次方向計(jì)算每個(gè)相同通道位置處所有像素的方差;ε為一個(gè)無窮小的正數(shù),用以防止分母處為0;γi與βi為待學(xué)習(xí)的BN參數(shù),一開始訓(xùn)練時(shí)分別設(shè)為1與0,之后可通過反向傳播進(jìn)行學(xué)習(xí)。
對于方程(1),可以進(jìn)一步對其進(jìn)行變換,此時(shí)公式如下:
進(jìn)一步將方程(2)展開,此時(shí)公式如下:
此時(shí)將BN 層的計(jì)算公式轉(zhuǎn)換為y=WTx+b的形式,而在卷積神經(jīng)網(wǎng)絡(luò)中,其基礎(chǔ)卷積計(jì)算的形式也是y=WTx+b,也就是說,可以將相鄰的卷積層與BN 層融合為一層,此時(shí)公式如下:
而在程序編寫中,為了使得經(jīng)過該模塊的輸入特征圖與輸出特征圖尺寸相同,在第一個(gè)卷積核為3×3 的分支中將輸入的特征圖周圍填充了一圈0;在第二個(gè)卷積核為1×1 的分支中,原輸入的特征圖不變,將卷積核周圍填充了一圈0,使其尺寸由1×1 變?yōu)?×3,但輸出結(jié)果不變;在第三個(gè)只有BN 層的分支中,為了使其滿足y=WTx+b的形式,人為添加了一層卷積,在該卷積層中卷積核尺寸為3×3,其不同通道的卷積核中心處的值依次為1,其余值分別為0,以此保證不改變原輸出的前提下滿足形式要求。
本文采用的操作系統(tǒng)版本為Ubuntu 18.04;處理器為Intel@Xeon?Silver 4210R CPU @2.40 GHz*20;GPU 為NVIDIA GeForce RTX 3090/PCIe/SSE2;CUDA 版本為11.4;深度學(xué)習(xí)框架為PyTorch 1.13.1;編程語言為Python。
本文自制了訓(xùn)練數(shù)據(jù)集,為了使網(wǎng)絡(luò)可以在不同光照環(huán)境下都可有效地檢測車輛,在制作數(shù)據(jù)集時(shí)選擇了不同光照環(huán)境(即正常光照環(huán)境與弱光環(huán)境)、不同背景、不同視角的道路圖片共計(jì)18 000 張。在訓(xùn)練網(wǎng)絡(luò)時(shí)按照7∶3 的比例將其劃分為訓(xùn)練集與驗(yàn)證集。同時(shí),也額外建立了一個(gè)測試數(shù)據(jù)集,用以檢測訓(xùn)練好的網(wǎng)絡(luò)針對弱光環(huán)境下的檢測效果,該測試數(shù)據(jù)集包含200 張弱光環(huán)境下的道路圖片。本文提出的網(wǎng)絡(luò)與后面對比實(shí)驗(yàn)提到的網(wǎng)絡(luò)在訓(xùn)練時(shí)都使用自制的訓(xùn)練數(shù)據(jù)集。
本文使用的評價(jià)指標(biāo)為以下三種:準(zhǔn)確率P(Precision)、召回率R(Recall)與mAP(mean Average Precision),其計(jì)算公式如下:
式中:當(dāng)網(wǎng)絡(luò)預(yù)測框與GT(Ground Truth)的IoU 大于設(shè)定閾值時(shí)為TP(True Positive),表示網(wǎng)絡(luò)檢測結(jié)果為目標(biāo)的同時(shí)實(shí)際上也是目標(biāo);當(dāng)網(wǎng)絡(luò)預(yù)測框與GT 的IoU小于設(shè)定閾值時(shí)為FP(False Positive),表示網(wǎng)絡(luò)檢測結(jié)果為目標(biāo)但實(shí)際上不是目標(biāo);FN(False Negative)表示網(wǎng)絡(luò)檢測結(jié)果不是目標(biāo)但實(shí)際上是目標(biāo)。此外,將網(wǎng)絡(luò)預(yù)測框與GT 的IoU 閾值設(shè)置為0.5。
為了驗(yàn)證提出方法的有效性,本文采用Faster-RCNN 網(wǎng)絡(luò)、RetinaNet 網(wǎng)絡(luò)、SSD 網(wǎng)絡(luò)、YOLO-v3 網(wǎng)絡(luò)、YOLO-v5 網(wǎng)絡(luò)、YOLO-v7 網(wǎng)絡(luò)這些主流檢測網(wǎng)絡(luò)作為對比網(wǎng)絡(luò),并使用自制的數(shù)據(jù)集對本文提出的網(wǎng)絡(luò)與對比網(wǎng)絡(luò)進(jìn)行訓(xùn)練。同時(shí)也對對比網(wǎng)絡(luò)進(jìn)行一定的優(yōu)化:在Faster-RCNN、SSD、RetinaNet 網(wǎng)絡(luò)中將底層特征提取部分改為ResNet50 以進(jìn)行結(jié)構(gòu)優(yōu)化,同時(shí)在SSD 網(wǎng)絡(luò)中采用了混合精度訓(xùn)練的方法;在RetinaNet 網(wǎng)絡(luò)加入了FPN 結(jié)構(gòu);而在YOLO-v3 網(wǎng)絡(luò)中加入了SPP 結(jié)構(gòu)并使用了CIoU 損失。各網(wǎng)絡(luò)的訓(xùn)練結(jié)果如圖6 與表1 所示,從中可見,本文提出的網(wǎng)絡(luò)不僅在mAP 值上高于其他網(wǎng)絡(luò),提高了檢測的效果,同時(shí)檢測單張圖片僅需要5.2 ms,低于其他大部分網(wǎng)絡(luò)且與檢測速度最快的網(wǎng)絡(luò)僅差了0.4 ms,保證了檢測的速度,可進(jìn)行實(shí)時(shí)檢測。
表1 不同網(wǎng)絡(luò)檢測結(jié)果
圖6 不同網(wǎng)絡(luò)效果對比
本文也使用自制的測試數(shù)據(jù)集將提出的網(wǎng)絡(luò)與對比實(shí)驗(yàn)中檢測效果最好的網(wǎng)絡(luò)進(jìn)一步進(jìn)行測試,其結(jié)果如表2 所示。
表2 網(wǎng)絡(luò)檢測結(jié)果對比
由表2 可見,本文提出的網(wǎng)絡(luò)在檢測準(zhǔn)確率、召回率、mAP 上都有較好的表現(xiàn)。
圖7是本文提出的網(wǎng)絡(luò)與對比網(wǎng)絡(luò)的實(shí)際檢測效果圖。
圖7 實(shí)際檢測結(jié)果對比(漏檢)
由圖7 可見:在對比網(wǎng)絡(luò)檢測的圖像中,通常存在漏檢目標(biāo)車輛的情況,如在無燈光輔助照明的條件下車輛會與背景相融合,此時(shí)肉眼難以有效看出目標(biāo)車輛,對比網(wǎng)絡(luò)也無法有效地檢測出來,甚至無法檢測到任何車輛目標(biāo),在圖像中的車輛重疊部分,由于光照環(huán)境差導(dǎo)致車輛特征不明顯,此時(shí)對比網(wǎng)絡(luò)只能檢測到1 個(gè)或0 個(gè)目標(biāo)車輛;而本文提出的網(wǎng)絡(luò)則可有效檢測出目標(biāo)車輛,效果較好。
圖8 是本文提出的網(wǎng)絡(luò)與對比網(wǎng)絡(luò)的實(shí)際檢測效果圖。
圖8 實(shí)際檢測結(jié)果對比(誤檢)
由圖8 可見:在對比網(wǎng)絡(luò)檢測的圖像中,通常存在誤檢目標(biāo)車輛的情況,如圖中橋上的指示燈、車輛尾燈等也會被對比網(wǎng)絡(luò)誤檢測為車輛目標(biāo);而在本文提出的網(wǎng)絡(luò)中,不僅可以有效地檢測出目標(biāo)車輛,同時(shí)也不會將其他目標(biāo)誤檢為車輛,減少了誤檢問題的發(fā)生。
本文以one-stage 目標(biāo)檢測算法YOLO-v7 為基礎(chǔ),對弱光環(huán)境下的目標(biāo)車輛進(jìn)行檢測,提出了特征提取模塊與特征融合模塊以增強(qiáng)網(wǎng)絡(luò)的特征提取能力與目標(biāo)識別能力,并使用模型結(jié)構(gòu)重參數(shù)化的方法以提高網(wǎng)絡(luò)的檢測速度,使網(wǎng)絡(luò)可以在保證檢測速度的前提下有效檢測弱光環(huán)境下的目標(biāo)車輛。在使用相同的數(shù)據(jù)集進(jìn)行訓(xùn)練后,本文方法不僅在檢測指標(biāo)上有較理想的效果,同時(shí)在實(shí)際檢測結(jié)果上也有較好的表現(xiàn)。在實(shí)驗(yàn)中,本文方法對弱光環(huán)境下小目標(biāo)的檢測有一定效果,但仍有較大的提升空間,下一階段的工作將以小目標(biāo)檢測為核心進(jìn)行研究。
注:本文通訊作者為丁潔。