劉彥磊,李孟喆,王宣宣
(河南師范大學(xué) 物理學(xué)院, 河南省紅外材料光譜測量與應(yīng)用重點(diǎn)實(shí)驗(yàn)室, 河南 新鄉(xiāng) 453007)
隨著自動(dòng)駕駛技術(shù)的不斷發(fā)展,將其作為駕駛員輔助工具或者完全替代駕駛員,可以有效減少交通事故的發(fā)生[1]。目標(biāo)檢測技術(shù)能幫助駕駛員或者計(jì)算機(jī)了解道路情況[2],在自動(dòng)駕駛領(lǐng)域扮演著不可或缺的角色。紅外圖像目標(biāo)檢測以其探測距離遠(yuǎn)、抗干擾能力強(qiáng)、特征易于提取的優(yōu)點(diǎn),被廣泛應(yīng)用于自動(dòng)駕駛領(lǐng)域[3-4]。然而,受物體間紅外輻射的相互影響和紅外成像設(shè)備成本的限制,紅外圖像存在分辨率和對(duì)比度低、紋理特征少等缺陷,給紅外圖像目標(biāo)檢測帶來了挑戰(zhàn)。因此,在有限資源的硬件設(shè)備下,開發(fā)高效準(zhǔn)確的輕量型車載紅外圖像目標(biāo)檢測算法具有重要意義。
得益于人工智能技術(shù)的不斷突破,深度學(xué)習(xí)算法被應(yīng)用于車載紅外圖像目標(biāo)檢測任務(wù)中。不同于基于手工特征的傳統(tǒng)方法[5],深度學(xué)習(xí)算法有著更好的泛化性,主要分為兩階段方法和單階段方法。兩階段車載紅外圖像目標(biāo)檢測算法[6-8]分為兩個(gè)步驟,先選擇出幾個(gè)可能包含目標(biāo)的區(qū)域,再通過卷積神經(jīng)網(wǎng)絡(luò)獲得區(qū)域內(nèi)的目標(biāo)分類,但其存在檢測速度較慢的問題。單階段方法直接通過回歸來獲取圖像中目標(biāo)的位置和類別[9],因其優(yōu)異的檢測效率被應(yīng)用于車載紅外圖像目標(biāo)檢測的相關(guān)研究中。Gong 等人[10]針對(duì)紅外圖像檢測速度無法滿足實(shí)時(shí)性的問題,提出采用輕量型檢測網(wǎng)絡(luò)YOLOv3-tiny 作為紅外圖像車輛檢測算法,并通過深化網(wǎng)絡(luò)結(jié)構(gòu)和利用KMeans 聚類算法優(yōu)化先驗(yàn)框的方式提升檢測精度,但檢測網(wǎng)絡(luò)深度不夠,檢測精度有待進(jìn)一步提升。Sun 等人[11]改進(jìn)YOLOv3 的主干網(wǎng)絡(luò)為EfficientNet 來加強(qiáng)特征提取,并使用去噪器(DRUNet)來提高輸入圖像質(zhì)量,進(jìn)一步提升算法的檢測精度。之后,YOLOv4[12]和YOLOv5 相繼誕生[13],目標(biāo)檢測的準(zhǔn)確性和速度得到不斷提升。Jiang 等人[14]通過改進(jìn)YOLOv4-tiny 產(chǎn)生了一種三檢測頭輕型紅外環(huán)境感知實(shí)時(shí)檢測網(wǎng)絡(luò)模型(IEPet),改進(jìn)算法相比于YOLOv4-tiny 模型更小,檢測精度更高。Wu 等人[15]利用重參數(shù)網(wǎng)絡(luò)(RepVGG)重建YOLOv4 主干網(wǎng)絡(luò)和信道修剪壓縮的方法簡化模型,使用空間金字塔池化(SPP)獲得不同的感受野信息,以提高模型檢測的準(zhǔn)確性,以適應(yīng)功耗有限制的嵌入式平臺(tái)。Xin 等人[16]基于YOLOv5s算法增加了一層小目標(biāo)檢測層,并將卷積注意力模塊(Convolutional Block Attention Module,CBAM)插入主干網(wǎng)絡(luò),且用自注意力Swin Transfomer 編碼器替換C3 模塊,改善其在復(fù)雜環(huán)境下漏檢率高、誤報(bào)率高等問題,但增加了檢測網(wǎng)絡(luò)的復(fù)雜性。與此同時(shí),參考先進(jìn)算法SSD[17],Dai 等人[18]提出一種專用于自動(dòng)駕駛的輕量級(jí)紅外圖像卷積神經(jīng)網(wǎng)絡(luò)(TIRNet),以實(shí)現(xiàn)可靠和有效的目標(biāo)檢測。該方法主要由自定義SSD 和殘差分支(Residual Branch,RB)組成,解決道路目標(biāo)檢測中速度慢、計(jì)算成本高的問題。然而,上述單階段車載紅外圖像目標(biāo)檢測算法仍然存在檢測模型復(fù)雜度高和魯棒性差等問題,這是部署在內(nèi)存和計(jì)算資源有限的車載計(jì)算機(jī)上進(jìn)行紅外圖像目標(biāo)檢測的重大障礙,在低模型體積下獲得高模型檢測性能的問題仍有待解決。
針對(duì)車載紅外圖像目標(biāo)檢測存在的問題,本文提出了一種改進(jìn)YOLOv5s 的輕量型車載紅外目標(biāo)檢測算法,主要研究內(nèi)容如下:
(1)引入C3Ghost 和Ghost 模塊,實(shí)現(xiàn)檢測模型壓縮,以降低計(jì)算成本和參數(shù)量;
(2)采用αIoU_Loss 替換CIoU_Loss 作為預(yù)測框的回歸損失函數(shù),通過多個(gè)損失函數(shù)的對(duì)比實(shí)驗(yàn)驗(yàn)證其性能;
(3)改進(jìn)多尺度特征融合,降低網(wǎng)絡(luò)深度,減少紅外圖像的特征信息丟失;
(4)在主干網(wǎng)絡(luò)和頸部分別引入坐標(biāo)注意力(CA)和空間深度卷積模塊,并對(duì)比了融合不同注意力機(jī)制的檢測效果。
本文研究基于美國FLIR 公司發(fā)布的用于自動(dòng)駕駛環(huán)境感知的(Advanced Driver Assistance System,ADAS 2.0)紅外數(shù)據(jù)集[19],下文簡稱FLIR紅外數(shù)據(jù)集。關(guān)于汽車和行人的邊框面積比的統(tǒng)計(jì)數(shù)據(jù)表明,F(xiàn)LIR 紅外數(shù)據(jù)集主要由中等尺度(汽車)和小尺度(行人)目標(biāo)組成,這些目標(biāo)的檢出通常比大型對(duì)象更重要和困難。因此,本文選擇行人和車輛兩個(gè)類別進(jìn)行目標(biāo)檢測。
YOLOv5 是YOLO 系列目標(biāo)檢測算法的代表,且仍然在不斷地更新迭代。如圖1 所示,YOLOv5 v6.1 由主干網(wǎng)絡(luò)(Backbone)、頸部(Neck)和檢測頭(Head)3 個(gè)主要部分組成。YOLOv5的Backbone 部分是CSPDarknet53,它是受Darknet53 的跨階段局部網(wǎng)絡(luò)(Cross Stage Partial Network,CSPNet)的啟發(fā)而設(shè)計(jì)的。在Neck 部分,采用特征金字塔網(wǎng)絡(luò)(FPN)加上路徑聚合網(wǎng)絡(luò)(PAN)的雙結(jié)構(gòu)進(jìn)行多層特征融合。在Head 部分,YOLOv5 模型使用CIoU_Loss 作為預(yù)測框的損失函數(shù),并使用非極大值抑制方法(NMS)篩選得分高的預(yù)測框。最后,在3 個(gè)不同大小的特征圖上進(jìn)行多尺度預(yù)測,以檢測小、中、大對(duì)象。
圖1 YOLOv5s 算法結(jié)構(gòu)Fig.1 YOLOv5s algorithm structure
YOLOv5 算法以其性能和速度著稱,易于進(jìn)行部署,可以很好地滿足車載紅外圖像目標(biāo)檢測的要求。YOLOv5 有5 種不同的型號(hào),包括YOLOv5n, YOLOv5s, YOLOv5m, YOLOv5l 和YOLOv5x,它們的參數(shù)量、體積和檢測精度依次增加,檢測速度依次降低。YOLOv5n 提取的特征太淺,其他模型的檢測速度太慢,綜合考慮后,選擇YOLOv5s 作為基線算法,并對(duì)其進(jìn)行了改進(jìn),改進(jìn)后的算法結(jié)構(gòu)如圖2 所示。
圖2 改進(jìn)YOLOv5s 算法結(jié)構(gòu)Fig.2 Improved YOLOv5s algorithm structure
為了使紅外圖像目標(biāo)檢測網(wǎng)絡(luò)更加高效,減少模型的參數(shù)量和計(jì)算復(fù)雜度,突破車載計(jì)算機(jī)內(nèi)存和計(jì)算資源的限制。本文引入了輕量化卷積模塊Ghost 和C3Ghost[20],替換了原算法中的卷積模塊CBS 和C3 模塊,具體結(jié)構(gòu)如圖2 所示,其中C3Ghost 是用Ghost 模塊替換了C3 模塊瓶頸層Bottleneck 中的普通卷積而產(chǎn)生的。如圖3(a)所示,給定輸入,進(jìn)行普通卷積,將輸出固有特征圖,而Ghost 模塊將深度神經(jīng)網(wǎng)絡(luò)中的普通卷積分為兩部分,如圖3(b)所示。Ghost 模塊先對(duì)輸入特征圖進(jìn)行普通卷積輸出固有特征圖;然后,對(duì)得到的固有特征進(jìn)行線性分組卷積,最終的特征圖由固有特征和Ghost 特征拼接而成。
圖3 (a)普通卷積和(b)Ghost 卷積(Φ 為線性操作)Fig.3 (a) Ordinary convolution and (b) Ghost convolution(Φ is a linear operation)
損失函數(shù)反映了檢測算法性能的好壞,可以幫助神經(jīng)網(wǎng)絡(luò)快速收斂。由于紅外圖像具有信噪比低的特點(diǎn),而αIoU_Loss[21]對(duì)于噪聲又有很強(qiáng)的魯棒性,所以本文將CIoU_Loss 改進(jìn)為αIoU_Loss,使用功率參數(shù)α自適應(yīng)地調(diào)整IoU 目標(biāo)的損失和梯度,從而進(jìn)一步提升預(yù)測框和真實(shí)框的回歸精度。經(jīng)實(shí)驗(yàn)驗(yàn)證,α=3 時(shí)在大多數(shù)情況下表現(xiàn)良好,并且不會(huì)引入額外的參數(shù)或增加訓(xùn)練推斷時(shí)間。αIoU_Loss 表示為:
其中,IoU為預(yù)測框和真實(shí)框的交并比,b表示預(yù)測框中心點(diǎn),bgt表示真實(shí)框中心點(diǎn),ρ是歐幾里得距離,c是預(yù)測框和真實(shí)框最小矩形的對(duì)角線長度,v為縱橫比,β為正權(quán)衡參數(shù),ωgt和hgt是真實(shí)框的寬度和高度,ω和h是預(yù)測框的寬度與高度。
在車載紅外圖像目標(biāo)檢測過程中,更好的檢測小目標(biāo)意味著可以更早地探測遠(yuǎn)方的路況,從而提升行車安全性。YOLOv5s 原算法在Backbone部分進(jìn)行了5 次下采樣,分別為2×、4×、8×、16×和32×,如圖1 所示。當(dāng)輸入圖像為640×640 時(shí),Head 部分對(duì)應(yīng)小、中和大對(duì)象檢測層的特征圖大小分別為80×80、40×40 和20×20。由于紅外圖像相對(duì)于可見光圖像分辨率低,導(dǎo)致紅外圖像有更多的小目標(biāo)且特征信息較少。因此,考慮通過剔除32×下采樣,降低采樣率,以避免過深的卷積神經(jīng)網(wǎng)絡(luò)導(dǎo)致的紅外圖像細(xì)節(jié)丟失,并生成一層新的小目標(biāo)檢測層,新結(jié)構(gòu)如圖2 所示。最終,算法在Backbone 部分進(jìn)行了4 次下采樣,其中4×、8×和16×下采樣特征圖被送入Neck 部分進(jìn)行多尺度融合。當(dāng)輸入圖像為640×640 時(shí),Head 部分對(duì)應(yīng)于小、中和大對(duì)象檢測的特征圖大小分別為160×160、80×80 和40×40。相比于四檢測頭方法[16]通過增加上采樣獲得160×160 尺度的小目標(biāo)檢測層,本文方法避免了檢測網(wǎng)絡(luò)復(fù)雜度和推理時(shí)間的增加。
此外,由于數(shù)據(jù)集和尺度特征的改變,原有的先驗(yàn)框大小已經(jīng)不適合改進(jìn)后的算法。在本文算法中,將預(yù)測框中真實(shí)框的召回比例(Best Possible Recall,BPR)設(shè)置為0.99,當(dāng)BPR 值小于0.99時(shí),重新生成先驗(yàn)框,原算法BPR 限制值為0.98。此時(shí),基于KMeans 聚類算法[13]獲得了一組新先驗(yàn)框,如表1 所示,BPR 值高達(dá)0.999,優(yōu)于默認(rèn)先驗(yàn)框。
表1 優(yōu)化后先驗(yàn)框大小Tab.1 Optimized prior anchor size
當(dāng)神經(jīng)網(wǎng)絡(luò)處理大量的信息輸入時(shí),注意力機(jī)制會(huì)使網(wǎng)絡(luò)迅速集中在一些需要處理的關(guān)鍵信息上。坐標(biāo)注意力CA[22]兼顧了圖像的通道信息和空間信息。為了提升車載紅外圖像目標(biāo)檢測算法的特征提取能力,使模型能更準(zhǔn)確地定位和識(shí)別感興趣的對(duì)象,本文引入輕量化注意力機(jī)制CA,嵌入Backbone 部分,CA 的具體結(jié)構(gòu)如圖4所示?,F(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)中不可避免地要進(jìn)行跨步卷積和池化,這在一定程度上導(dǎo)致了紅外圖像特征信息的丟失。空間深度卷積(SPD-Conv)[23]由空間深度層和非跨步卷積層組成,有助于消除跨步卷積和池化引起的特征信息丟失問題。因此,本文在權(quán)衡運(yùn)算參數(shù)量和檢測精度的情況下,將Neck 部分PAN 結(jié)構(gòu)中的下采樣卷積更換為空間深度卷積。圖5 給出了當(dāng)比例因子scale=2 時(shí)的空間深度卷積示意圖,其中,S為圖像矩陣形狀參數(shù),s=1 中的s為卷積比。Backbone 和Neck 部分的改進(jìn)結(jié)構(gòu)如圖2 所示。
圖4 CA 結(jié)構(gòu)Fig.4 CA structure
圖5 空間深度卷積(Scale=2)Fig.5 SPD-Conv (Scale=2)
本文遍歷了整個(gè)FLIR 紅外數(shù)據(jù)集的對(duì)象,合并汽車類和其他小型商用車輛為汽車類,合并行人和騎自行車者為行人類,剔除其他類別標(biāo)簽。然后,將清洗后的FLIR 紅外圖像調(diào)整到相同的大小以進(jìn)行訓(xùn)練和驗(yàn)證,最終FLIR 紅外數(shù)據(jù)集總共包括10249/1097 張訓(xùn)練/驗(yàn)證紅外圖像。
模型訓(xùn)練的硬件環(huán)境為Intel(R) Core(TM)i7-12700KF CPU 和RTX 3060Ti GPU,軟件環(huán)境為Python3.6、CUDA11.0、Pytorch1.7.1。本文的檢測模型從零開始培訓(xùn),不使用遷移學(xué)習(xí),因此,可以檢驗(yàn)每個(gè)算法的真實(shí)學(xué)習(xí)能力,學(xué)習(xí)FLIR紅外數(shù)據(jù)集最真實(shí)的特征。與此相對(duì)應(yīng)的,增加訓(xùn)練輪次到400epoch。送入深度學(xué)習(xí)網(wǎng)絡(luò)訓(xùn)練的圖像大小設(shè)置為640×640,訓(xùn)練優(yōu)化器為隨機(jī)梯度優(yōu)化器 (SGD),IoU 閾值為0.5,動(dòng)量設(shè)為0.937,初始學(xué)習(xí)率為0.001,權(quán)重衰減設(shè)置為0.0005,批大小(Batch size)設(shè)置為16。此外,改進(jìn)算法Mosaic、MixUp 和Copy-Paste 數(shù)據(jù)增強(qiáng)[13]的權(quán)重分別設(shè)置為1.0、0.1 和0.1,來豐富數(shù)據(jù)集,提高模型的檢測精度和魯棒性,如圖6 所示,其他未提及的超參數(shù)與YOLOv5s 中的默認(rèn)參數(shù)相同。
圖6 數(shù)據(jù)增強(qiáng)結(jié)果。(a)Mosaic 增強(qiáng);(b)MixUp 增強(qiáng);(c)Copy-Paste 增強(qiáng)Fig.6 Data augmentation results.(a) Mosaic augmentation; (b) MixUp augmentation; (c) Copy-Paste augmentation
準(zhǔn)確率(Precision rate,P)表示檢測出的陽性樣本中真實(shí)陽性樣本的比例,用來評(píng)估車載紅外圖像目標(biāo)預(yù)測是否準(zhǔn)確。召回率(Recall rate,R)表示檢測出的真實(shí)陽性樣本在總的真實(shí)陽性樣本中的比例,反映目標(biāo)是否全部被發(fā)現(xiàn)。平均精度(Average Precision,AP)表示由P 和R 曲線和坐標(biāo)軸包圍的區(qū)域的面積。平均檢測精度(mean Average Precision,mAP)是所有類別計(jì)算的平均精度AP 的平均值,是用來評(píng)價(jià)模型精度的綜合性參數(shù)。具體如式(4)~式(7)所示,其中,tp為真陽性,fp為假陽性,fn為假陰性,N為類別數(shù)量。
此外,F(xiàn)PS 表示每秒檢測的圖像幀數(shù),用來衡量檢測速度;GFLOPs 和Params 分別表示每秒千兆浮點(diǎn)計(jì)算量和模型參數(shù)量,數(shù)值越小,模型或算法的復(fù)雜性越低;Size 表示模型所占的內(nèi)存大小,t表示模型訓(xùn)練完成所耗費(fèi)的時(shí)間。
為驗(yàn)證改進(jìn)后的YOLOv5s 在FLIR 紅外數(shù)據(jù)集上的綜合檢測能力,本文設(shè)計(jì)了6 個(gè)實(shí)驗(yàn)進(jìn)行對(duì)比討論,以驗(yàn)證所提出的各改進(jìn)方法對(duì)YOLOv5s 模型性能的影響。
實(shí)驗(yàn)1 比較了原始YOLOv5s 算法和輕量化后的YOLOv5s 算法的性能,對(duì)比結(jié)果在表2 中列出。如表2 所示,YOLOv5s 引入Ghost 模塊和C3Ghost 后,能夠達(dá)到使檢測網(wǎng)絡(luò)輕量化的目的。雖然改進(jìn)模型YOLOv5s-G 的平均檢測精度有略微下降,但是模型的參數(shù)量和計(jì)算量分別減少了47.6%和49.4%,模型大小壓縮了45.5%,算法的訓(xùn)練速度也提升了38.0%。
表2 YOLOv5s 和YOLOv5s-G 輕量化性能對(duì)比Tab.2 Performance comparison of lightweight for YOLOv5s and YOLOv5s-G
通過引入αIoU_Loss 作為改進(jìn)算法預(yù)測框的回歸損失函數(shù),加快檢測網(wǎng)絡(luò)的收斂速度,增強(qiáng)檢測網(wǎng)絡(luò)對(duì)有噪聲的紅外圖像的魯棒性。設(shè)計(jì)實(shí)驗(yàn)2 對(duì)當(dāng)前較先進(jìn)的回歸損失函數(shù)進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)對(duì)比結(jié)果如表3 所示。YOLOv5-G 算法默認(rèn)使用CIoU_Loss 作為回歸損失函數(shù),訓(xùn)練時(shí)間為30.25 h,訓(xùn)練后的平均檢測精度為77.5%。使用EIoU_Loss、SIoU_Loss 和αIoU_Loss 相 比使用CIoU_Loss,訓(xùn)練時(shí)間分別縮短了19.6%、18.6%和22.3%,平均檢測精度相比于CIoU_Loss分別提升1.4%、0.3%和2.3%。由此可見,YOLO v5s-G-αIoU 在FLIR 紅外數(shù)據(jù)集上有更好的表現(xiàn),能加速收斂,并提升檢測精度。
表3 不同損失函數(shù)性能對(duì)比Tab.3 Performance comparison of different loss functions
實(shí)驗(yàn)3 對(duì)本文設(shè)計(jì)的降低下采樣的YOLOv5s-G2-αIoU 算法和四檢測頭算法YOLOv5s-G1-αIoU進(jìn)行對(duì)比實(shí)驗(yàn),以驗(yàn)證改進(jìn)模型對(duì)小目標(biāo)的檢測能力,結(jié)果如表4 所示??梢钥吹?,四檢測頭算法YOLOv5s-G1-αIoU 檢測性能的增加是以增加參數(shù)量和計(jì)算復(fù)雜度為代價(jià)的,而YOLOv5s-G2-αIoU 則通過簡單的降低采樣率,進(jìn)一步對(duì)內(nèi)存壓縮了63.4%,參數(shù)量和計(jì)算量分別減少74.2%和10%,檢測速度和平均檢測精度也分別得到了4.8%和3.1%的提升。因此,本文選擇YOLOv5s-G2-αIoU 結(jié) 構(gòu)。此 外,KMeans 聚 類 算 法 針 對(duì)FLIR 紅外數(shù)據(jù)集生成的新先驗(yàn)框,與默認(rèn)先驗(yàn)框的實(shí)驗(yàn)效果相比,YOLOv5s-G2-αIoU-KMeans算法準(zhǔn)確率增加了1%,平均檢測精度增加了0.1%。
表4 多尺度融合性能對(duì)比Tab.4 Performance comparison of multi-scale fusion
為了進(jìn)一步提升算法的檢測精度,本文將注意力機(jī)制嵌入算法的Backbone 部分,以增強(qiáng)模型的特征提取能力。實(shí)驗(yàn)4 對(duì)比了主流的注意力機(jī)制嵌入算法的效果。如表5 所示,注意力CA 有著最好的檢測精度,YOLOv5s-G2-αIoU-KMeans-CA 以參數(shù)量和計(jì)算量的微量增加,獲得了平均檢測精度增加了1.3%。
表5 不同注意力機(jī)制性能對(duì)比Tab.5 Performance comparison of different attention mechanisms
通過將模型的Neck 部分PAN 結(jié)構(gòu)中的下采樣方式改進(jìn)為空間深度卷積,來避免跨步卷積和池化導(dǎo)致的紅外圖像不同程度的特征信息丟失問題,實(shí)驗(yàn)5 的對(duì)比結(jié)果如表6 所示??梢?,與普通的下采樣卷積相比,經(jīng)空間深度卷積改進(jìn)下采樣卷積的YOLOv5s-G2-αIoU-KMeans-CA-SPD 算法,準(zhǔn)確率增加了0.8%,召回率增加了1%,平均檢測精度增加了0.7%。
實(shí)驗(yàn)6 基于FLIR 紅外數(shù)據(jù)集對(duì)本文改進(jìn)算法與先進(jìn)算法SSD、EfficientDet、YOLOv4+GhostNet、YOLOv5-MobileNetV3、YOLOv3-tiny、YOlOv4-tiny、YOLOv5n、YOLOv6-N、YOLOv7-tiny 和原算法YOLOv5s 進(jìn)行比較,如表7 所示??梢钥吹?,本文提出的輕量型算法相對(duì)于原算法模型大小壓縮了78.1%,參數(shù)量減少了84.5%,平均檢測精度達(dá)到了85%,檢測速度為132 FPS;相對(duì)于其他輕量化算法更有利于移動(dòng)設(shè)備的模型移植。在模型體積最小和參數(shù)量最少的情況下,平均檢測精度最高,且檢測速度相對(duì)于原算法有進(jìn)一步提升,達(dá)到了檢測精度和檢測速度的均衡效果,可以保證優(yōu)越的車載檢測性能。
表7 與其他先進(jìn)算法對(duì)比Tab.7 Comparison with other advanced algorithms
圖7 顯示了本文改進(jìn)算法和YOLO 系列的輕量化版本在復(fù)雜場景(昏暗、強(qiáng)光、多目標(biāo)遮擋等)下的檢測效果。對(duì)比可發(fā)現(xiàn),紅外圖像目標(biāo)檢測抗干擾能力強(qiáng),不受復(fù)雜環(huán)境的影響。根據(jù)圖7 中昏暗和車燈眩光兩場景下各算法的對(duì)比效果可知,本文改進(jìn)算法目標(biāo)檢測的置信水平得分更高。而圖7 中強(qiáng)光和多目標(biāo)兩場景下的檢測效果表明,本文改進(jìn)算法相對(duì)于其他算法對(duì)小目標(biāo)檢測更準(zhǔn)確,不存在漏檢現(xiàn)象。因此,本文提出的改進(jìn)算法在同類算法中有一定的優(yōu)越性,能夠?yàn)樵撍惴ㄔ谲囕d終端設(shè)備中的應(yīng)用提供技術(shù)參考,促進(jìn)自動(dòng)駕駛的發(fā)展。
圖7 幾種不同算法的檢測效果。(a)YOLOv3-tiny;(b)YOLOv4-tiny;(c)YOLOv5n;(d)YOLOv6-N;(e)YOLO7-tiny;(f)YOLO5s;(g)本文算法Fig.7 Detection results of different algorithms.(a) YOLOv3-tiny; (b) YOLOv4-tiny; (c) YOLOv5n; (d) YOLOv6-N;(e) YOLO7-tiny; (f) YOLO5s; (g) proposed in this paper
本文提出了一種改進(jìn)YOLOv5s 的輕量型車載紅外圖像目標(biāo)檢測算法。該算法基于FLIR 紅外數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò)模型來檢測行人和車輛。對(duì)改進(jìn)算法和其他輕量化算法及原算法分別進(jìn)行了比較。實(shí)驗(yàn)結(jié)果表明:改進(jìn)算法相較于其它算法在模型結(jié)構(gòu)和檢測精度方面有明顯的優(yōu)勢。改進(jìn)后算法的模型體積僅3.0 MB,參數(shù)量僅1.09 M,平均檢測精度mAP 為85.0%,檢測速度高達(dá)132 FPS,有效解決了現(xiàn)有車載紅外圖像目標(biāo)檢測算法中內(nèi)存利用率低、計(jì)算復(fù)雜和檢測精度低的問題。本文研究工作能夠?qū)崿F(xiàn)車載紅外圖像的快速、準(zhǔn)確檢測,可以為自動(dòng)駕駛中的環(huán)境感知研究提供參考。