• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      改進(jìn)YOLOv8算法的交通標(biāo)志小目標(biāo)檢測(cè)

      2024-10-17 00:00:00趙會(huì)鵬曹景勝潘迪敬李剛
      現(xiàn)代電子技術(shù) 2024年20期
      關(guān)鍵詞:交通標(biāo)志

      摘" 要: 針對(duì)傳統(tǒng)網(wǎng)絡(luò)模型在交通標(biāo)志檢測(cè)方面存在的小目標(biāo)識(shí)別不準(zhǔn)確的問(wèn)題,提出一種改進(jìn)的Ghost?YOLOv8交通標(biāo)志檢測(cè)模型。首先,使用GhostConv代替了全部Conv,并設(shè)計(jì)全新的GhostC2f模塊來(lái)替代全部的C2f,使模型輕量化;其次,將上采樣算法替換為CARAFE,以更好地保留圖像的細(xì)節(jié)信息;然后,在Neck部分引入了GAM注意力機(jī)制模塊,以增強(qiáng)特征中的語(yǔ)義信息和位置信息;最后,為了解決檢測(cè)小目標(biāo)時(shí)尺度不一致導(dǎo)致的語(yǔ)義信息丟失問(wèn)題,添加了小目標(biāo)檢測(cè)層,以增強(qiáng)深層和淺層語(yǔ)義信息的融合。實(shí)驗(yàn)結(jié)果證明,該模型在中國(guó)交通標(biāo)志檢測(cè)數(shù)據(jù)集TT100K中的召回率、mAP@0.5、mAP@0.5:0.95指標(biāo)分別提高了6.8%、4.0%、3.6%,并且模型的參數(shù)量及模型大小分別降低了1.069×106、1.9 MB。綜合說(shuō)明,所提出的模型在精準(zhǔn)度不變的前提下,減少了模型的參數(shù)量及大小,并能更好地檢測(cè)到原模型檢測(cè)不到的小目標(biāo);同時(shí),比對(duì)比算法具有更好的性能表現(xiàn),并且適用于邊緣計(jì)算設(shè)備,具有實(shí)際應(yīng)用價(jià)值。

      關(guān)鍵詞: YOLOv8; 交通標(biāo)志; 小目標(biāo)檢測(cè); GhostNet; CARAFE; GhostC2f; GAM注意力機(jī)制

      中圖分類號(hào): TN911.23?34; TP3" " " " " " " " " " 文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " " 文章編號(hào): 1004?373X(2024)20?0141?07

      Traffic sign small target detection based on improved YOLOv8 algorithm

      ZHAO Huipeng, CAO Jingsheng, PAN Dijing, LI Gang

      (College of Automobile and Traffic Engineering, Liaoning University of Technology, Jinzhou 121011, China)

      Abstract: In allusion to the problem of inaccurate small target recognition in traditional network models for traffic sign detection, an improved Ghost?YOLOv8 traffic sign detection model is proposed. GhostConv is used to replace all Conv, and a novel GhostC2f module is used to replace all C2f, so as to make the model lightweight. The upsampling method is substituted with CARAFE to better retain the intricate details in the image. The GAM attention mechanism module is introduced in the Neck section to enhance the semantic information and location information in the features. In order address the issue of losing semantic information caused by scale inconsistency during the detection of small targets, a small target detection layer is incorporated to enhance the fusion of deep and shallow semantic information. The experimental results show that the model can enhance the Recall, mAP@0.5, and mAP@0.5:0.95 measures in the Chinese traffic sign identification dataset TT100K by 6.8%, 4.0%, and 3.6% respectively. It decreases the number of model parameters and the model size by 1.069×106 and 1.9 MB respectively. It is shown that the proposed model can reduce the number and size of parameters and can better detect small targets that cannot be detected by the original model under the premise of constant accuracy. In comparison with the comparison algorithm, it has better performance and is suitable for edge computing devices, and has practical application value.

      Keywords: YOLOv8; traffic sign; small target detection; GhostNet; CARAFE; GhostC2f; GAM attention mechanism

      0" 引" 言

      在自動(dòng)駕駛和智能輔助駕駛迅速發(fā)展的過(guò)程中,提高自動(dòng)駕駛的使用體驗(yàn)和確保乘車人安全成為了整個(gè)無(wú)人駕駛系統(tǒng)的重要關(guān)注點(diǎn),其中,精確地識(shí)別道路交通標(biāo)志和控制模型的大小成為了緊迫的需求。

      傳統(tǒng)目標(biāo)檢測(cè)是基于傳統(tǒng)的計(jì)算機(jī)視覺方法,主要依賴于手工設(shè)計(jì)的特征提取器和機(jī)器學(xué)習(xí)算法。傳統(tǒng)目標(biāo)檢測(cè)方法的主要優(yōu)點(diǎn)是算法輕巧、計(jì)算量較小、模型可解釋性強(qiáng),并且在小樣本數(shù)據(jù)上表現(xiàn)出良好的結(jié)果。然而,傳統(tǒng)方法在復(fù)雜場(chǎng)景和目標(biāo)變化較大的情況下表現(xiàn)較差,這是因?yàn)樗鼈冞^(guò)于依賴人工設(shè)計(jì)的方案?;谏疃葘W(xué)習(xí)的目標(biāo)檢測(cè)方法則是利用深度神經(jīng)網(wǎng)絡(luò)從原始圖像中自動(dòng)學(xué)習(xí)特征表示和目標(biāo)分類器。常見的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法包括R?CNN[1]、Fast R?CNN[2]、Faster R?CNN[3]和YOLO[4?6]、SSD[7?9]和OverFeat[10]等。相較于傳統(tǒng)方法,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法具有以下優(yōu)勢(shì):能夠處理復(fù)雜的場(chǎng)景和目標(biāo)變化較大的情況;準(zhǔn)確度高,特別是在大規(guī)模數(shù)據(jù)集上表現(xiàn)優(yōu)秀;具備端到端的訓(xùn)練和推理能力,簡(jiǎn)化了模型構(gòu)建的過(guò)程。

      近年來(lái),在交通標(biāo)志目標(biāo)檢測(cè)領(lǐng)域,田智慧等人通過(guò)在原有SSD特征層基礎(chǔ)上引入低層特征圖,并與鄰近特征圖融合,實(shí)現(xiàn)了多元信息的分類預(yù)測(cè)和位置回歸。同時(shí),通過(guò)對(duì)SSD默認(rèn)框大小進(jìn)行K?means聚類分析,改變默認(rèn)框的比例,以提高模型的收斂速度[11]。結(jié)果表明,改進(jìn)后的SSD模型在小目標(biāo)檢測(cè)方面具有更高的精度和效率。然而,該算法的網(wǎng)絡(luò)設(shè)計(jì)復(fù)雜,參數(shù)數(shù)量較大,不適合部署在移動(dòng)端。另一方面,郎斌柯等人提出了一種協(xié)調(diào)注意力?雙向特征金字塔網(wǎng)絡(luò)(CA?BIFPN)交通標(biāo)志檢測(cè)模型。結(jié)合YOLOv5模型和協(xié)調(diào)注意力機(jī)制[12],通過(guò)引入雙向特征金字塔網(wǎng)絡(luò)和跳躍連接的特征融合,有效提高了模型對(duì)多尺度語(yǔ)義特征的利用效率,從而提高了小目標(biāo)物體和交通標(biāo)志的檢測(cè)效率。與SSD模型和YOLOv5模型相比,該模型的準(zhǔn)確率分別提高了4.5%和1.3%。該模型提高了檢測(cè)精度,但運(yùn)行速率相對(duì)較慢。此外,薄景文等人提出一種改進(jìn)方法YOLO?Ore,該方法采用輕量級(jí)網(wǎng)絡(luò)MobileNetv2作為主干特征提取網(wǎng)絡(luò),并引入了深度可分離卷積、逆殘差結(jié)構(gòu)、金字塔池化模塊PPM和注意力機(jī)制CBAM等技術(shù)[13]。通過(guò)簡(jiǎn)化YOLOv3的FPN結(jié)構(gòu)和數(shù)據(jù)增廣技術(shù)構(gòu)建礦石雜物數(shù)據(jù)集,YOLO?Ore能快速檢測(cè)礦石輸送帶上的雜物。然而,所采用的CBAM注意力機(jī)制在通道和空間上獨(dú)立應(yīng)用,未考慮它們之間的相互作用,導(dǎo)致跨維度信息有所損失。此外,使用自建數(shù)據(jù)集也存在一定的局限性。

      為了實(shí)現(xiàn)模型輕量化和更好地檢測(cè)小目標(biāo),本文提出了一種基于Ghost?YOLOv8的交通標(biāo)志檢測(cè)模型。該模型的主要貢獻(xiàn)如下。

      1) 在YOLOv8網(wǎng)絡(luò)結(jié)構(gòu)中使用Ghost卷積來(lái)減少模型的參數(shù)量。Ghost卷積通過(guò)將輸入通道分為兩部分,并在每個(gè)分組中使用較少的卷積核,實(shí)現(xiàn)了參數(shù)的有效共享。這種方式大大減少了模型的參數(shù)量,使得模型更加輕量化。

      2) 引入模塊GhostC2f。這是專為輕量化網(wǎng)絡(luò)設(shè)計(jì)的模塊,將其作為網(wǎng)絡(luò)的一部分進(jìn)行訓(xùn)練和推理,從而實(shí)現(xiàn)更加高效和輕量化的模型設(shè)計(jì)。

      3) 替換上采樣模塊為CARAFE[14]。該模塊可以根據(jù)輸入特征圖的內(nèi)容動(dòng)態(tài)生成卷積核,能夠更好地適應(yīng)不同的圖像內(nèi)容,并且在保留細(xì)節(jié)信息方面表現(xiàn)出色。

      4) 為了增強(qiáng)網(wǎng)絡(luò)的特征提取和特征融合能力,將自適應(yīng)調(diào)整權(quán)重的融合注意力模塊GAM[15]融合到特征融合網(wǎng)絡(luò)(Neck)中。

      5) 添加一個(gè)小目標(biāo)檢測(cè)層,可以使網(wǎng)絡(luò)在不同尺度上獲得更豐富的語(yǔ)義信息。深層特征和淺層特征的結(jié)合可以充分利用網(wǎng)絡(luò)的多層次表示能力,并且通過(guò)對(duì)小目標(biāo)進(jìn)行特定尺度的處理,增強(qiáng)網(wǎng)絡(luò)對(duì)小目標(biāo)的感知能力。

      1" YOLOv8n網(wǎng)絡(luò)結(jié)構(gòu)介紹

      在對(duì)象檢測(cè)、圖像分類和實(shí)例分割任務(wù)中,YOLOv8n是一種最新的模型。為了進(jìn)行對(duì)象檢測(cè)任務(wù),YOLOv8n這一小且精的網(wǎng)絡(luò)更為適合。

      YOLOv8n的網(wǎng)絡(luò)結(jié)構(gòu)由Input、Backbone、Neck和Head組成,如圖1所示。

      Input部分是網(wǎng)絡(luò)的輸入層,用于接收和處理輸入圖像。Backbone部分使用EfficientNet[16]作為主干網(wǎng)絡(luò),它通過(guò)使用復(fù)合縮放方法,在不同的網(wǎng)絡(luò)深度和寬度之間實(shí)現(xiàn)了有效的特征提取,以此來(lái)增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力。Neck使用FPN[17]作為特征融合模塊,通過(guò)跨層連接和上采樣操作融合淺層和深層特征圖,使網(wǎng)絡(luò)能夠同時(shí)捕捉到細(xì)微的細(xì)節(jié)和更高級(jí)的語(yǔ)義信息。Head部分是網(wǎng)絡(luò)的輸出層,根據(jù)特征圖來(lái)預(yù)測(cè)目標(biāo)的位置、類別和置信度,使用Anchor?Free機(jī)制減少錨框預(yù)測(cè)的數(shù)量,加速非最大抑制[18](NMS)。

      總體來(lái)看,YOLOv8n是一種輕量級(jí)且高精度的對(duì)象檢測(cè)模型。本文選擇這個(gè)網(wǎng)絡(luò),并在此基礎(chǔ)上進(jìn)一步優(yōu)化和改進(jìn)。

      2" YOLOv8n算法改進(jìn)

      本文提出了一種基于Ghost?YOLOv8的交通標(biāo)志檢測(cè)模型,該模型旨在解決傳統(tǒng)網(wǎng)絡(luò)在交通標(biāo)志檢測(cè)中準(zhǔn)確性不高、參數(shù)量過(guò)大和模型大小過(guò)大等問(wèn)題。如圖2所示,該模型包含以下的改進(jìn)部分,以優(yōu)化性能。

      2.1" GhostNet模塊

      GhostNet[19]是一種輕量級(jí)網(wǎng)絡(luò),結(jié)構(gòu)如圖3所示。GhostNet通過(guò)引入一種稱為GhostConv(Ghost Module)的新式卷積模塊來(lái)實(shí)現(xiàn)這一目標(biāo)。

      GhostConv是一種替代普通卷積的卷積模塊,在保證輸出特征圖尺寸和通道大小的同時(shí),能夠顯著減少計(jì)算量和參數(shù)量。具體而言,GhostConv模塊采用了一種稱為Cheap operation的簡(jiǎn)單而成本低的運(yùn)算方式。該模塊首先生成特征圖的主要部分,然后使用卷積核和廉價(jià)的低成本計(jì)算獲得另一部分,最后合并起來(lái)。

      Ghost Bottleneck在第一個(gè)GhostConv生成兩個(gè)特征圖,然后是采用BN操作和SiLU激活函數(shù),隨后再在第二個(gè)GhostConv進(jìn)行卷積,最后通過(guò)ADD操作得到輸出特征圖。

      GhostC2f模塊全部用Ghost Bottleneck模塊來(lái)改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),如圖4所示,以此來(lái)提高學(xué)習(xí)效率。通過(guò)引入GhostConv和GhostC2f模塊,網(wǎng)絡(luò)能夠減少常見的3×3卷積操作。這一優(yōu)化使得網(wǎng)絡(luò)可以在移動(dòng)設(shè)備上高效部署,實(shí)現(xiàn)所需的目標(biāo)。

      2.2" 上采樣算法CARAFE

      CARAFE是輕量且高效的一種特征上采樣算法。在每個(gè)位置上,CARAFE都可以利用底層內(nèi)容信息來(lái)預(yù)測(cè)重組內(nèi)核并重新組裝預(yù)定義附近區(qū)域內(nèi)的特征。因此,CARAFE可以在不同方位使用自適應(yīng)和優(yōu)化的重組內(nèi)核,獲得比主流上采樣算子更好的功效。

      如圖5所示,CARAFE算法的全部流程可以分為以下環(huán)節(jié)。

      1) 輸入一個(gè)特征圖以及上采樣比例σ。

      2) 特征重組。將特征圖X上采樣到目標(biāo)尺寸,得到上采樣特征圖Fl,大小為C×(σH)×(σW);將上采樣特征圖Fl和原始特征圖X進(jìn)行拼接操作,形成一個(gè)新的特征張量。

      3) 在特征提取階段,使用1×1卷積核對(duì)拼接后的特征張量進(jìn)行卷積操作,得到更具表達(dá)能力的特征張量Fe。

      4) 通道重組。對(duì)特征張量Fe分別使用3×3卷積核進(jìn)行逐通道卷積與逐像素卷積操作,得到新的特征張量Fc與Fp。其中,F(xiàn)p用于產(chǎn)生注意力權(quán)重圖,在逐通道卷積操作中與特征張量Fc相乘,以實(shí)現(xiàn)通道間的自適應(yīng)加權(quán)。

      5) 特征重放。通過(guò)對(duì)通道重組后的特征張量Fc和上采樣特征圖Fl進(jìn)行點(diǎn)乘操作,得到最終的重組特征圖Fr,并將其作為輸出結(jié)果。

      2.3" GAM注意力機(jī)制

      GAM注意力模塊的結(jié)構(gòu)如圖6所示,它是一種通過(guò)全局觀察和建模來(lái)提取圖像特征中重要信息的機(jī)制,并增強(qiáng)不同通道和空間之間交互作用的方法。給定輸入特征圖F1、中間狀態(tài)特征圖F2和輸出特征圖F3,具體而言,F(xiàn)1會(huì)與通道注意力圖Mc進(jìn)行逐通道乘法運(yùn)算,以突出重要通道的特征;然后,得到的特征會(huì)與空間注意力圖Ms進(jìn)行逐元素乘法運(yùn)算。

      如圖7所示,通道注意力子模塊采用3D置換方法在三個(gè)維度上存儲(chǔ)信息;之后,使用一個(gè)兩層的多層感知機(jī)(MLP)來(lái)增強(qiáng)通道與空間的聯(lián)系。

      如圖8所示,空間注意力子模塊采用兩個(gè)7×7的Conv對(duì)輸入圖的空間信息進(jìn)行融合。為了確保與通道注意力子模塊的一致性,兩個(gè)模塊使用相同的縮小比率。

      2.4" 小目標(biāo)檢測(cè)層

      由于小目標(biāo)的樣本尺寸較小以及子采樣系數(shù)較大,導(dǎo)致YOLOv8難以通過(guò)更深的特征圖學(xué)習(xí)小目標(biāo)的特征。原始模型的輸入圖像大小為640×640,最小檢測(cè)尺度為80×80,每個(gè)網(wǎng)格的檢測(cè)圖像中目標(biāo)的高度和寬度都小于8×8,原始模型將無(wú)法檢測(cè)到這些小目標(biāo)。

      因此,本文添加一個(gè)小目標(biāo)檢測(cè)層,如圖2中黑虛線框所示,該小目標(biāo)檢測(cè)層尺寸為160×160,包含一個(gè)額外的融合特征和一個(gè)額外的檢測(cè)頭。具體地,首先將Backbone網(wǎng)絡(luò)中的第5層與Neck網(wǎng)絡(luò)的上采樣層進(jìn)行堆疊;然后經(jīng)過(guò)GhostC2f和上采樣后,得到包含小目標(biāo)特征信息的特征層;接著,將此特征層與Backbone網(wǎng)絡(luò)的第3層進(jìn)行堆疊;最后,特征層通過(guò)一個(gè)新增的解耦頭層進(jìn)行處理。隨著Head的增加,來(lái)自較小目標(biāo)的特征信息將被傳遞到其他3個(gè)尺度特征層中。通過(guò)此改進(jìn),網(wǎng)絡(luò)提高了檢測(cè)的精度并擴(kuò)大了范圍。

      3" 實(shí)驗(yàn)設(shè)計(jì)與結(jié)果分析

      3.1" TT100K數(shù)據(jù)集

      TT100K[20]圖標(biāo)是由清華與騰訊的聯(lián)合實(shí)驗(yàn)室整理并公布的,提供的100 000張圖像中包含30 000個(gè)交通標(biāo)。本實(shí)驗(yàn)從其中選取45類交通標(biāo)志,訓(xùn)練集與驗(yàn)證集的比例為7∶3。

      3.2" 實(shí)驗(yàn)準(zhǔn)備階段

      操作系統(tǒng)為Windows 10;硬件為GPU為NVIDIA RTX 3080,內(nèi)存為40 GB;環(huán)境配置為Python 3.8、 PyTorch 2.0.0、CUDA v11.8和CUDNN v8.9.5。訓(xùn)練參數(shù)設(shè)置如表1所示。

      3.3" 評(píng)價(jià)指標(biāo)

      本文使用精準(zhǔn)率(Precision)、召回率(Recall)、平均精度均值(mAP@0.5)、平均精度均值(mAP@0.5:0.95)對(duì)模型進(jìn)行評(píng)價(jià)。精準(zhǔn)率公式為:

      [Precision=TPTP+FP] (1)

      召回率公式為:

      [Recall=TPTP+FN] (2)

      mAP@0.5指IoU閾值為0.5時(shí),對(duì)每個(gè)種別的樣本計(jì)算精準(zhǔn)率,然后取這些精準(zhǔn)率的平均值。mAP@0.5:0.95表示在不同IoU閾值范圍(0.5~0.95,步長(zhǎng)為0.05),計(jì)算的是平均mAP值。對(duì)于每個(gè)IoU閾值,本文計(jì)算每個(gè)種別的精準(zhǔn)率?召回率曲線,并計(jì)算該曲線下的平均精度均值;然后將所有IoU閾值下的平均精度均值取平均得到mAP@0.5:0.95的值,具體公式如下:

      [AP@0.5=1ni=1nPi=1nP1+1nP2+…+1nPn] (3)

      [mAP@0.5=1ck=1cAP@0.5k] (4)

      [mAP@0.5:0.95=110mAP@0.5+" " " " 110mAP@0.55+…+110mAP@0.95] (5)

      3.4" 對(duì)比實(shí)驗(yàn)

      為驗(yàn)證本文模型與當(dāng)下其他模型的優(yōu)越性,以精準(zhǔn)率、召回率、平均精度均值、參數(shù)量(Parameters)、模型大?。∕odel size)作為評(píng)價(jià)指標(biāo),在相同環(huán)境下對(duì)比YOLOv5s、YOLOv8n、文獻(xiàn)[20]、文獻(xiàn)[21]、文獻(xiàn)[1]?GAM、文獻(xiàn)[2]?GAM,結(jié)果如表2所示。根據(jù)表2顯示:YOLOv5s的參數(shù)和模型大小實(shí)在太大,不易于移動(dòng)設(shè)備的部署;本文算法的FPS比原始YOLOv8n稍低一些,但具有更小的參數(shù)和規(guī)模大小,同時(shí)在精度基本不變的前提下其他指標(biāo)都優(yōu)于原始YOLOv8n算法;與近期文獻(xiàn)(如文獻(xiàn)[20]、文獻(xiàn)[21])和兩個(gè)優(yōu)化文獻(xiàn)(文獻(xiàn)[1]?GAM、文獻(xiàn)[2]?GAM)算法相比,本文提出的算法在大部分指標(biāo)上都表現(xiàn)更出色。

      3.5" 消融實(shí)驗(yàn)

      為驗(yàn)證本文算法改進(jìn)模塊是否合理,以原始模型開始,逐步增加模塊來(lái)進(jìn)行消融實(shí)驗(yàn),結(jié)果如表3所示。

      添加了輕量化模型GhostNet之后,精準(zhǔn)率 (Precision)提高了5.3%,召回率(Recall)提高了1.3%;添加了自行設(shè)計(jì)的GhostC2f模塊之后,參數(shù)量和模型大小明顯下降;添加CARAFE算法之后,精準(zhǔn)率(Precision)、召回率(Recall)、平均精度均值(mAP@0.5)、平均精度均值(mAP@0.5:0.95)分別提高了2.6%、0.8%、1.9%、1.6%;添加GAM注意力機(jī)制與小目標(biāo)檢測(cè)層之后,精準(zhǔn)率(Precision)、召回率(Recall)、mAP@0.5、mAP@0.5:0.95分別提高了1.8%、10.5%、10.5%、9.6%。由此說(shuō)明,本文算法具有更小的參數(shù)(下降1.069×106)和規(guī)模大?。ㄏ陆?.9 MB),同時(shí)在精度基本不變的前提下,其他指標(biāo)都優(yōu)于原始YOLOv8n算法,召回率(Recall)、mAP@0.5、mAP@0.5:0.95分別提高了6.8%、4.0%、3.6%,進(jìn)一步說(shuō)明了本文改進(jìn)模塊的合理性。

      3.6" 驗(yàn)證階段

      YOLOv8n和本文算法的檢測(cè)結(jié)果對(duì)比如圖9所示,根據(jù)上下兩行的圖像對(duì)比可以看出:本文算法在識(shí)別精度與YOLOv8n模型基本相同的前提下,還可以檢測(cè)到Y(jié)OLOv8n模型檢測(cè)不到的小目標(biāo),證明本文算法可以解決交通標(biāo)志小目標(biāo)檢測(cè)不完全的問(wèn)題。

      4" 結(jié)" 論

      本文提出了一種高效、輕量化的Ghost?YOLOv8網(wǎng)絡(luò)模型,用于檢測(cè)和識(shí)別交通標(biāo)志。該模型引入了GhostConv模塊和GhostC2f模塊,著重減少參數(shù)量和模型大小,使算法能夠更好地適應(yīng)移動(dòng)設(shè)備的部署。同時(shí),為了更好地保留圖像細(xì)節(jié),替換了CARAFE算法。另外,為了提高特征融合能力和對(duì)小目標(biāo)的興趣,引入了GAM模塊,并在頭部新增了一個(gè)小目標(biāo)檢測(cè)層。該算法在召回率(Recall)、平均精度均值mAP@0.5、平均精度均值mAP@0.5:0.95方面分別提高了6.8%、4.0%和3.6%。相對(duì)于YOLOv8n,參數(shù)量和模型大小分別減少了1.069×106和1.9 MB。

      本文將致力于優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)、改進(jìn)算法,并探索新的模型設(shè)計(jì)思路,目標(biāo)是在保持高精度的同時(shí),實(shí)現(xiàn)實(shí)時(shí)的交通標(biāo)志檢測(cè)和識(shí)別。后續(xù)會(huì)密切關(guān)注技術(shù)的前沿發(fā)展,并將其應(yīng)用于相關(guān)的研究中,期望為交通標(biāo)志領(lǐng)域的實(shí)際應(yīng)用帶來(lái)更多的可能性和解決方案;同時(shí)將其與其他領(lǐng)域的需求結(jié)合起來(lái),為交通標(biāo)志檢測(cè)和識(shí)別領(lǐng)域提供更優(yōu)異的模型。

      注:本文通訊作者為曹景勝。

      參考文獻(xiàn)

      [1] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2014: 580?587.

      [2] GIRSHICK R. Fast R?CNN [C]// Proceedings of the IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015: 1440?1448.

      [3] REN S Q, HE K M, GIRSHICK R, et al. Faster R?CNN: towards real?time object detection with region proposal networks [J]. Advances in neural information processing systems, 2015, 39(6): 1137?1149.

      [4] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real?time object detection [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2016: 779?788.

      [5] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. Yolov4: optimal speed and accuracy of object detection [EB/OL]. [2023?04?12]. https://doi.org/10.48550/arXiv.2004.10934.

      [6] MORE B, BHOSALE S. A comprehensive survey on object detection using deep learning [J]. Revue d'intelligence artificielle, 2023, 37(2): 407?414.

      [7] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector [C]// Computer Vision?ECCV 2016: 14th European Conference. Amsterdam: Springer, 2016: 21?37.

      [8] FU C Y, LIU W, RANGA A, et al. DSSD: deconvolutional single shot detector [EB/OL]. [2023?04?08]. https://arxiv.org/pdf/1701.06659.

      [9] LI Z, YANG L, ZHOU F. FSSD: feature fusion single shot multibox detector [EB/OL]. [2023?07?18]. https://arxiv.org/pdf/1712.00960.

      [10] SERMANET P, EIGEN D, ZHANG X, et al. Overfeat: integrated recognition, localization and detection using convolutional networks [EB/OL]. [2023?08?07]. https://arxiv.org/pdf/1312.6229.

      [11] 田智慧,孫鹽鹽,魏海濤.基于SSD模型的交通標(biāo)志檢測(cè)算法[J].計(jì)算機(jī)應(yīng)用與軟件,2021,38(12):201?206.

      [12] 郎斌柯,呂斌,吳建清,等.基于CA?BIFPN的交通標(biāo)志檢測(cè)模型[J].深圳大學(xué)學(xué)報(bào)(理工版),2023,40(3):335?343.

      [13] 薄景文,張春堂,樊春玲,等.改進(jìn)YOLOv3的礦石輸送帶雜物檢測(cè)方法[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(21):248?255.

      [14] WANG J Q, CHEN K, XU R, et al. CARAFE: content?aware reassembly of features [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. Seoul, South Korea: IEEE, 2019: 3007?3016.

      [15] LIU Y C, SHAO Z R, HOFFMANN N. Global attention mechanism: retain information to enhance channel?spatial interactions [EB/OL]. [2023?12?12]. https://doi.org/10.48550/arXiv.2112.05561.

      [16] TAN M, LE Q. Efficientnet: rethinking model scaling for convolutional neural networks [C]// International Conference on Machine Learning. [S.l.]: PMLR, 2019: 6105?6114.

      [17] LIN T Y, DOLLáR P, GIRSHICK R, et al. Feature pyramid networks for object detection [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2017: 2117?2125.

      [18] BODLA N, SINGH B, CHELLAPPA R, et al. Soft?NMS?improving object detection with one line of code [C]// Proceedings of the IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017: 5561?5569.

      [19] HAN K, WANG Y H, TIAN Q, et al. Ghostnet: more features from cheap operations [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, WA, USA: IEEE, 2020: 1580?1589.

      [20] ZHU Z, LIANG D, ZHANG S H, et al. Traffic?sign detection and classification in the wild [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 2110?2118.

      [21] TANG Y, HAN K, GUO J Y, et al. GhostNetv2: enhance cheap operation with long?range attention [J]. Advances in neural information processing systems, 2022, 35: 9969?9982.

      作者簡(jiǎn)介:趙會(huì)鵬(1998—),男,天津人,碩士研究生,研究方向?yàn)榄h(huán)境感知與汽車智能駕駛。

      曹景勝(1984—),男,山東陽(yáng)谷人,碩士研究生,副教授,碩士生導(dǎo)師,研究方向?yàn)橹悄芷囮P(guān)鍵技術(shù)、新能源汽車驅(qū)動(dòng)與控制。

      DOI:10.16652/j.issn.1004?373x.2024.20.022

      引用格式:趙會(huì)鵬,曹景勝,潘迪敬,等.改進(jìn)YOLOv8算法的交通標(biāo)志小目標(biāo)檢測(cè)[J].現(xiàn)代電子技術(shù),2024,47(20):141?147.

      收稿日期:2024?04?09" " " " " "修回日期:2024?05?13

      基金項(xiàng)目:國(guó)家自然科學(xué)基金項(xiàng)目(51675257);國(guó)家自然科學(xué)基金青年基金項(xiàng)目(51305190);遼寧省教育廳基本科研項(xiàng)目(面上項(xiàng)目)

      (LJKMZ20220976);遼寧省自然科學(xué)基金指導(dǎo)計(jì)劃項(xiàng)目(20180550020)

      猜你喜歡
      交通標(biāo)志
      交通標(biāo)志認(rèn)得清
      基于雙向特征融合的交通標(biāo)志識(shí)別
      交通安全伴我行
      基于機(jī)器學(xué)習(xí)算法的交通標(biāo)志圖像智能識(shí)別
      智能化交通標(biāo)志生命周期管理系統(tǒng)設(shè)計(jì)
      “老司機(jī)”的花樣告白
      基于形狀匹配和色彩分割的交通標(biāo)志檢測(cè)系統(tǒng)研究
      汽車文摘(2016年9期)2016-12-06 19:53:08
      交通標(biāo)志,我熟知
      交通標(biāo)志小課堂
      集 郵
      攀枝花市| 浦东新区| 通城县| 秦皇岛市| 上高县| 松溪县| 三江| 合水县| 道真| 唐河县| 固阳县| 安新县| 潞城市| 徐州市| 元江| 水富县| 兖州市| 灵璧县| 肃宁县| 高邑县| 平凉市| 三原县| 余姚市| 冷水江市| 中方县| 繁峙县| 杭锦后旗| 靖边县| 抚顺市| 镇原县| 桦南县| 临泉县| 通化市| 永丰县| 昆山市| 兴和县| 洮南市| 昌都县| 偏关县| 揭东县| 博乐市|