• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      改進YOLOv8的道路損傷檢測算法

      2023-12-11 07:11:28井方科
      計算機工程與應用 2023年23期
      關鍵詞:卷積精度道路

      李 松,史 濤,井方科

      1.華北理工大學 電氣工程學院,河北 唐山 063210

      2.天津理工大學 電氣工程與自動化學院,天津 300384

      道路網(wǎng)絡是經濟的支柱,交通系統(tǒng)和交通運輸系統(tǒng)能夠滿足人們的出行需求、商業(yè)和工業(yè)的發(fā)展。但這些公路面臨著來自人口增長、基礎設施惡化和道路建設成本迅速上升的挑戰(zhàn)。要保持國家的經濟發(fā)展勢頭,就需要顯著改善交通基礎設施。路面裂縫是路面常見病害,嚴重影響道路安全和行車安全,保持高質量的路面是維護道路安全的關鍵之一。道路損傷的及時檢測對預防道路損傷、維護交通道路安全具有重要意義。

      道路損傷目標檢測技術主要分為傳統(tǒng)的目標檢測算法和基于深度學習的目標檢測算法。傳統(tǒng)的裂縫檢測方法大多是基于人工檢測或提取特征識別路面病害的圖像分割技術,例如,初秀民等[1]利用路面破損圖像二值化方法設計基于閾值的裂縫分割技術,韓錕等[2]提出了一種基于區(qū)域生長的特征的路面裂縫檢測方法。然而,這些方法都嚴重依賴于人工特征提取,在復雜多變的道路環(huán)境中由于難以使用統(tǒng)一的特征模型來有效提取特征裂縫,導致檢測魯棒性較差。近年來,隨著深度學習技術的快速發(fā)展,目標檢測技術也取得了顯著的成就。目標檢測技術主要分為單階段算法和兩階段算法。常用的兩階段算法包括R-CNN、Fast R-CNN、Faster R-CNN、U-net 等。Kang 等[3]使用更快的區(qū)域卷積神經網(wǎng)絡(Faster R-CNN)算法的集成來檢測裂紋區(qū)域。Yamaguchi 等[4]使用U-Net 與數(shù)據(jù)增強和形態(tài)變換相結合,通過激光雷達開發(fā)一種完全自動、準確和定量評估道路裂縫的方法。另一類是單階段檢測方法,直接分離特定的類別并回歸邊界。常用的單階段目標檢測算法[5]包括You Only Look Once系列和Single Shot MultiBox Detector(SSD)等。兩階段算法相比單階段算法在檢測精度上有一定優(yōu)勢,但是檢測速度遠低于單階段算法。因此,在道路損傷檢測中單階段算法更受關注。黃凱楓等[6]在SSD 網(wǎng)絡結構的基礎上將其基礎網(wǎng)絡替換為Dense-net網(wǎng)絡,使得特征信息更加容易被獲取,并降低網(wǎng)絡參數(shù)數(shù)量,有效的提升病害識別的準確性。安學剛等[7]基于YOLOv4,通過引入自適應空間特征融合,改進Focal Loss損失函數(shù)等方法進行訓練,從而提高了路面病害的檢測精度。Yu 等[8]提出了基于YOLOv5 的道路裂縫檢測算法,并進行了輕量化改進,大幅度縮減了模型參數(shù)體量,提升了檢測速度到85 FPS。倪昌雙等[9]基于YOLOv7改進瀝青路面病害檢測算法,使用K-means++聚類算法和漏斗激活函數(shù)F-ReLU改善了傳統(tǒng)卷積網(wǎng)絡對瀝青路面病害檢測時存在的檢測精度低、定位不準等問題。

      單階段目標檢測算法YOLO自面世以來,就受到業(yè)界學者的廣泛關注,近年來,YOLO算法不斷優(yōu)化、更新版本,Ultralytics團隊在2023年提出了YOLOv8版本,算法在滿足實時性的同時,還具備了較高的檢測精度和較為輕量化的網(wǎng)絡結構,適合運用于對道路裂縫中目標的檢測進行針對性改進。因此,本文基于YOLOv8n 對模型進行優(yōu)化,提高模型的精度,首次提出了一種基于YOLOv8n的道路損傷檢測算法YOLOv8-RD,本文的主要貢獻如下:

      (1)引入Bottleneck Transformer[10],針對道路損傷圖像可以更好地捕獲遠程依賴,獲取更多全局信息。

      (2)添加坐標注意力(coordinate-attention,CA)[11]模塊,增強相關特征的提取,提高算法的檢測精度。

      (3)在YOLOv8 頸部網(wǎng)絡中,增加了C2fGhost[12]模塊,實現(xiàn)模型壓縮,保持檢測精度的同時減少模型參數(shù),加快特征融合。

      1 相關原理

      1.1 YOLOv8算法介紹

      You Only Look Once(YOLO)算法,將圖像分割成多個網(wǎng)格,預測每個網(wǎng)格內的邊界框和其所包含的物體類別,并使用非極大值抑制(NMS)算法消除重疊的邊界框。YOLOv1[13]的檢測速度相對較快,但對于彼此距離較近的物體和較小的目標,YOLOv1的檢測速度并不有效。YOLOv2[14]算法采用Darknet19 作為特征提取網(wǎng)絡,能夠適應不同尺寸的圖像,提高對小目標檢測精度。YOLOv3[15]增加了特征金字塔(FPN)和空間池化金字塔(SPP)模塊,以提高檢測不同尺度和語義信息的能力。YOLOv4[16]引入Mish 激活函數(shù),提高準確率。YOLOv5[17]引入C3 模塊和SPPF 模塊,改善特征擾動,提高檢測能力。YOLOv7[18]引進了可擴展的高效層聚合網(wǎng)絡E-ELAN、創(chuàng)新的過渡模塊和重參數(shù)化結構等策略,增強特征提取和語義信息表達的能力,進一步優(yōu)化目標檢測效果。

      YOLO算法作為經典的單階段檢測算法之一,已經升級到YOLOv8。本文提出了一種YOLOv8n的改進方法,不僅提高了檢測精度,而且實現(xiàn)了計算量、參數(shù)量和模型尺寸最小化。圖1 以YOLOv8n 為代表的結構為例,對網(wǎng)絡的各個組成部分進行了描述。骨干網(wǎng)由CBS模塊、C2f 模塊和SPPF 模塊組成,使用的依舊是CSP 的思想,不過骨干網(wǎng)絡頸部網(wǎng)絡參考了YOLOv7的ELAN結構設計思想,將YOLOv5 中的C3 模塊替換成了梯度流更豐富的C2f 結構,C2f 結構可以增強卷積神經網(wǎng)絡的特征融合能力,提高推理速度,實現(xiàn)了進一步的輕量化,同時YOLOv8 依舊使用了YOLOv5 架構中使用的SPPF 模塊,SPPF 模塊是一個空間金字塔池化層,可以擴展接受域,實現(xiàn)局部和全局特征融合,豐富特征信息。Head部分相比YOLOv5 改動較大,換成了目前主流的解耦頭結構,將分類和檢測頭分離,YOLOv8 改變了以往的Anchor-Base,使用了Anchor-Free 的思想;在損失函數(shù)上,YOLOv8 使用BCE Loss 作為分類損失,使用DFL Loss+CIOU Loss 作為回歸損失,在樣本匹配方面,YOLOv8 改變了以往的IOU 匹配或者單邊比例的分配方式,而是使用了Task-Aligned Assigner匹配方式。

      圖1 YOLOv8n網(wǎng)絡結構Fig.1 YOLOv8n network architecture

      1.2 算法存在的問題

      將YOLO 算法應用于道路損傷檢測任務時,需要考慮移動設備有限的硬件性能。不能簡單地選擇YOLOv8x 算法。該方法檢測效果最好,但對道路損傷檢測任務實時性要求較高。因此,本文選取了YOLOv8n算法的最小權值模型,但是在實際的檢測過程中,YOLOv8n算法存在一些問題。首先,YOLOv8n算法使用了大量的標準卷積和C2f 模塊,提高了算法的準確性,但降低了運行速度,增加了模型的參數(shù)。其次,場景在移動檢測中變化很快,需要足夠的檢測精度。但YOLOv8n 算法對于道路損傷的檢測處理并不理想,容易出現(xiàn)誤檢和漏檢的問題。

      2 算法改進

      為了改進道路損傷檢測的精度,提出了一種改進YOLOv8n 的檢測網(wǎng)絡模型YOLOv8-RD。圖2 為改進后的YOLOv8n結構示意圖,在YOLOv8n骨干網(wǎng)的SPPF模塊之后嵌入結合CNN 與Transformer 優(yōu)勢的BOT 模塊。YOLOv8n的頸部網(wǎng)絡采用了C2f Ghost模塊,并且在YOLOv8n 骨干的末尾和頸部的C2f Ghost 后面嵌入CA 模塊。BOT 模塊增強了特征信息處理能力。CA 模塊的目的是通過突出道路損傷檢測的關鍵信息來增強網(wǎng)絡的特征提取能力,從而提高在多場景下的準確率。C2fGhost 模塊的目的是進一步減少模型的參數(shù)和計算量。

      圖2 YOLOv8-RD網(wǎng)絡結構Fig.2 YOLOv8-RD network architecture

      2.1 BOT模塊

      CNN 的優(yōu)點是參數(shù)共享和高效的局部信息聚合,但裂縫檢測任務的目標通常是長而窄的,其長度遠大于寬度,在空間上呈現(xiàn)出細長的形狀,這種結構特征使得裂縫檢測任務需要更長的依賴關系來獲取上下文信息。為了集成全局信息,基于CNN 的模型需要疊加更多層3×3卷積,盡管堆疊更多層確實提高了這些主干的性能,但基于CNN的模型不易獲取全局信息,更關注局部信息的聚合,在特征提取時容易丟失部分特征,導致檢測精度下降,而Transformer 可以捕獲長距離依賴關系,更加注重全局信息。Vision Transformer(ViT)[19]是谷歌在2020年提出的直接將Transformer應用在圖像分類的模型,在ImageNet1K上能夠達到88.55%的準確率,此后很多優(yōu)秀算法都將CNN 和Transformer 結合起來,讓網(wǎng)絡繼承CNN 和Transformer 的優(yōu)勢,無需那么多卷積層也能保留全局特征和局部特征。

      BoTNet網(wǎng)絡是伯克利和谷歌的研究人員對卷積網(wǎng)絡和Transformer 結合的探索。它使用一種混合的方法,基于Transformer 的模型具有固有的全局信息獲取能力,在視覺任務中使用Transformer 中的多頭自注意(MHSA)層替換空間卷積層,同時利用CNN 的特征提取能力獲得了比單獨CNN 或Transformer 更好的性能,在ImageNet 中準確率為84.7%。CNN 和Transformer 的結合,達到了優(yōu)勢互補的效果。圖3顯示了多頭自注意層(MHSA),MHSA的具體實現(xiàn)可以類似于Transformer block或非局部塊(non-local block)。BoTNet中用MHSA塊代替了標準的3×3卷積模塊CBS。BoTNet(bottleneck Transformer)的結構如圖4所示。

      圖3 多頭自注意層(MHSA)Fig.3 Multi-head self attention layer(MHSA)

      圖4 BoTNet結構Fig.4 BoTNet structure

      目前大多數(shù)道路損傷檢測的深度學習檢測方法都是使用交替卷積層和池化層來實現(xiàn)的。卷積運算擅長于提取局部細節(jié),但在大規(guī)模道路損傷檢測任務中,卷積層難以掌握道路損傷的全局信息。相比之下,Transformer的自我注意能力擅長于掌握全局信息,但需要大量的數(shù)據(jù)進行訓練。本文利用BoTNet 網(wǎng)絡框架與C2f結構結合,提出的BOT 模塊如圖5 所示,它僅在主干末尾結構使用,實現(xiàn)僅以微弱的計算量提升提高了檢測的準確率。將CNN 和Transformer 的優(yōu)勢相結合,取長補短,實現(xiàn)了充分提取全局和局部特征,提高了模型檢測精度。

      圖5 BOT模塊Fig.5 BOT module

      2.2 CA模塊

      由于道路損傷所處的環(huán)境復雜多變,為了提高模型對道路損傷的特征表達能力,在YOLOv8骨干網(wǎng)末端和頸部每兩次特征融合之間增加了注意力機制進行局部特征增強,使網(wǎng)絡忽略無關信息干擾,使融合后的特征圖包含更多有效信息。注意機制一般可分為通道注意機制、空間注意機制和兩者的結合。傳統(tǒng)的注意機制squeeze and inspire attention(SE)和convolutional block attention module(CBAM)等存在很多不足,SE 注意力中只關注構建通道之間的相互依賴關系,忽略了空間特征。CBAM中引入了大尺度的卷積核提取空間特征,但忽略了長程依賴問題。雖然沒有這個問題的其他注意模塊也有很好的效果,但參數(shù)量太多,不適合應用程序部署。

      CA 模塊是針對通道注意提出的一種新的注意模塊,坐標注意機制不僅能捕獲跨通道信息,還能捕獲定向感知和位置感知,有助于模型更準確地定位和識別感興趣的目標。CA 模塊非常靈活,可以添加到現(xiàn)有模型的多個位置,且不會帶來過多的參數(shù)量和計算量。其結構如圖6 所示,輸入水平和垂直地匯集在一起,以保持兩個方向的長距離依賴關系。然后縫合兩個方向的信息。接下來,對特征圖進行分割和卷積,以同時關注水平和垂直方向。模塊輸出的兩部分特征圖可以精確指向感興趣目標對象的行和列。

      圖6 CA模塊Fig.6 CA module

      2.3 C2fGhost模塊

      在標準卷積中,許多特征通道的特征映射非常相似。從標準卷積中提取的特征在一定程度上是重復的。因此,不需要進行完整的卷積運算來獲得所需的feature map。Ghost 模塊(見圖7)使用標準卷積獲得部分特征圖,然后通過線性運算生成更多的特征圖。最后,將兩組特征映射拼接到指定的維數(shù)上,以較少的參數(shù)和計算量獲得更多的特征映射。

      圖7 Ghost模塊Fig.7 Ghost module

      在任何卷積層中生成n個特征圖的操作可以表示為:

      其中,X∈Rc×h×w表示卷積的輸入,c表示輸入通道數(shù),h和w分別表示輸入feature map 的高度和寬度,Y ∈Rh′×w′×n是有n個通道的輸出feature map,h′和w′是輸出feature map 的高度和寬度,f∈Rc×k×k×n是這一層的卷積濾波器,它的核大小是g·g,b是偏置項。在這個卷積中,計算的結果為:

      使用Ghost模塊的計算量為:

      Ghost模塊改進的標準卷積的計算量為:

      因此,Ghost模塊的計算量約為標準卷積的1/s。

      在主流的深度神經網(wǎng)絡中,提取的特征圖包含了豐富甚至冗余的信息,這有助于對輸入數(shù)據(jù)進行全面的理解。深度神經網(wǎng)絡中存在冗余特征映射的情況,而Ghost 模塊以一種低成本高效益的方式改進了這個問題,首先生成一些內在的特征映射,然后利用線性操作來增強特征圖,增加信道。這種方法既減少了模型體積,又能充分揭示內在特征背后的信息。

      圖8 中的Ghost Bottleneck 由兩個Ghost 模塊堆疊而成,用于網(wǎng)絡中的特征映射處理。第一個Ghost 模塊作為擴展層,用于增加通道數(shù)目,第二個Ghost模塊用于減少通道數(shù)目,使其與輸入通道數(shù)匹配,并實現(xiàn)shortcut功能。

      圖8 Ghost Bottleneck模塊Fig.8 Ghost Bottleneck module

      新的C2fGhost 如圖9 所示,使用Ghost Bottleneck替換網(wǎng)絡中C2f 模塊中的Bottleneck 模塊,使模型擁有足夠的信息來理解輸入數(shù)據(jù)。這種改進在不增加網(wǎng)絡參數(shù)的情況下減小了模型的總體尺寸,同時提升了對冗余信息的理解速度。在實現(xiàn)網(wǎng)絡輕量化的同時保證網(wǎng)絡的檢測精度。

      圖9 C2fGhost模塊Fig.9 C2fGhost module

      3 實驗與結果

      3.1 數(shù)據(jù)集

      RDD 2022[20]:本文使用開源的RDD 2022 數(shù)據(jù)集實現(xiàn)模型的訓練。RDD 2022由東京大學發(fā)布,其中包括來自日本、印度、捷克共和國、挪威、美國和中國6 個國家的47 420 幅道路圖像。這些圖像已經標注了55 000 多起道路損壞事件。數(shù)據(jù)集中捕捉到4 種類型的道路損壞,即D00(縱向裂縫)、D10(橫向裂縫)、D20(網(wǎng)狀裂縫)和D40(坑洞)。帶注釋的數(shù)據(jù)集旨在開發(fā)基于深度學習的方法,以自動檢測和分類道路損壞。該數(shù)據(jù)集已作為基于人群感應的道路損壞檢測挑戰(zhàn)賽(CRDDC’2022)的一部分發(fā)布。由于挪威的圖像尺寸過大,與其他國家相差過多,難以用于訓練。因此在RDD 2022 數(shù)據(jù)集其他國家中隨機選取10 000 張照片作為數(shù)據(jù)集。選擇了8 000張照片進行訓練,2 000張照片進行驗證。訓練集、驗證集的比值為8∶2。

      知識經濟時代強調創(chuàng)新精神,突出創(chuàng)新人才的培養(yǎng),要求建立系統(tǒng)性、開放性、創(chuàng)新性的高校教育管理體系。校友無疑是這一工作中的重要力量。校友與母校、與在校生之間結成的天然感情紐帶,是高校不同于其他地方的獨特魅力所在。在沈陽化工大學實施“113”人才培養(yǎng)戰(zhàn)略中,特別是合作化育人環(huán)節(jié)中,校友能很好的平衡高校教育中知識、能力和實踐的關系,是完善人才培養(yǎng)不可或缺的一環(huán)。校友在招生、就業(yè)以及品牌影響等諸多方面也起到了重要的作用。

      3.2 實驗設備及評價指標

      本模型的開發(fā)語言主要是Python,使用開源深度學習框架PyTorch 作為網(wǎng)絡框架,采用CUDA11.3 對訓練進行加速。本模型的硬件測試環(huán)境CPU 選用Intel?Xeon?Platinum 8255C CPU@2.50 GHz,GPU選用NVIDIA的RTX 3080,10 GB顯存。

      訓練時,將輸入圖像設置為640×640,使用SGD 作為優(yōu)化函數(shù)對模型進行訓練。模型訓練周期(epoch)為300,批量大小為32,初始學習速率為0.01。本實驗采用與原YOLOv8算法相同的數(shù)據(jù)增強算法。

      本文使用的評價指標有F1 分數(shù)、mean average precision(mAP)、number of parameters(Params)、Giga浮點運算每秒(GFLOPs)、frames per second(FPS)。其中,以正確率和查全率作為基本指標,以根據(jù)正確率和查全率計算的F1 分數(shù)和mAP 作為最終評價指標,衡量模型的識別正確率。GFLOPs 用于度量模型或算法的復雜性,而Params 表示模型的大小。通常,Params 和GFLOPs 越小,表示模型所需的計算能力就越小,對硬件的性能要求就越低,在低端設備中構建就越容易。FPS是指每秒檢測到的幀數(shù),其大小不僅與算法的權重有關,還與實驗設備的硬件配置有關。

      精確率為所有預測為正樣本的結果中,預測正確的比率。定義如下:

      召回率是根據(jù)正確預測的所有目標的比例來計算的。定義如下:

      其中,TP表示檢測結果中正確目標的個數(shù),F(xiàn)P表示檢測結果中錯誤目標的個數(shù),F(xiàn)N表示正確目標中缺失目標的個數(shù)。

      n個類別的平均準確率計算公式如下:

      F1-score 綜合考慮了準確率和召回率,較全面地反映網(wǎng)絡的整體性能。取兩個指標的諧波平均值計算,如式(9)所示:

      采用模型參數(shù)量(Params)和計算量(GFLOPs)度量模型復雜度,采用幀數(shù)每秒(FPS)度量推理速度。FPS是指每秒檢測到的幀數(shù),其大小不僅與算法的權重有關,還與實驗設備的硬件配置有關。

      3.3 不同注意力機制對網(wǎng)絡性能的影響

      實驗還使用了其他一些注意力機制模塊,如SE 注意力模塊和CBAM注意力模塊。實驗結果如表1所示。

      表1 多種注意力機制對比結果Table 1 Comparison results of multiple attention mechanisms

      從表1中可以看出,相比于其他被研究的注意機制模塊,如SE 和CBAM 模塊,CA 模塊的加入大大提高了網(wǎng)絡的檢測精度。

      3.4 C2fGhost模塊對網(wǎng)絡性能的影響

      為了驗證在不同位置引入C2fGhost 模塊與網(wǎng)絡性能的關系,設計如表2 所示消融實驗。Ghost-all 表示將骨干網(wǎng)絡和頸部網(wǎng)絡中的所有C2f模塊替換為C2fGhost模塊。Ghost-backbone 是指骨干網(wǎng)中的C2f 模塊被C2fGhost 模塊替代,而頸部網(wǎng)絡保持不變。Ghost-neck表示頸部網(wǎng)絡中的C2f模塊被C2fGhost模塊替換,骨干網(wǎng)中的C2f模塊保持不變。在YOLOv8n骨干網(wǎng)中引入Ghost模塊,這些改進降低了模型的計算成本,但模型的整體性能低于基準模型。原因是改進后的模型參數(shù)減少,導致骨干網(wǎng)特征提取性能不足,導致模型精度下降。將Ghost 模塊引入到YOLOv8n 的頸部網(wǎng)絡中,改進后的算法在檢測精度沒有顯著變化。這是因為骨干的特征提取性能沒有發(fā)生變化,而頸部網(wǎng)絡中的Ghost模塊允許特征層有足夠的信息來維持對輸入數(shù)據(jù)的理解。這種改進在不增加網(wǎng)絡參數(shù)的情況下減小了模型的總體尺寸,使得網(wǎng)絡對冗余信息的理解速度越來越快。實驗結果表明用頸部網(wǎng)絡中的C2fGhost 模塊替代C2f可以獲得最佳性能。

      表2 C2fGhost不同位置對比結果Table 2 Comparison results of different positions of C2fGhost

      3.5 消融實驗對比

      為了驗證本文改進算法的準確性,需要通過建立YOLOv8n、YOLOv8n-B、YOLOv8n-C、YOLOv8n-G、YOLOv8n-BC、YOLOv8n-BG、YOLOv8n-CG、YOLOv8-RD幾個模型進行實驗。其中,YOLOv8n-B是在YOLOv8n骨干網(wǎng)的SPPF模塊之后嵌入BOT模塊。YOLOv8n-C是在YOLOv8n 骨干的末尾和頸部的C2f 后面嵌入CA 模塊來實現(xiàn)的。YOLOv8n-G是將YOL-Ov8n的頸部網(wǎng)絡的C2f 模塊引入Ghost 結構。YOLOv8-RD 是本文提出的算法。

      如表3所示,改進算法采用了更高效的網(wǎng)絡結構對YOLOv8n的網(wǎng)絡結構進行了改進,提高了精度,降低了模型的參數(shù)量和計算量。同時也證明了C2fGhost 模塊并沒有降低算法的精度,反而降低了模型的參數(shù)量和計算量。引入BOT 結構和CA 注意力機制僅提高了少量參數(shù),有效地提高了檢測精度。將上述改進與YOLOv8n算法相結合,可以使模型體積最小化,模型參數(shù)量僅為2.8×106,計算量僅為7.3×109,分別降低了6.7%和8.5%,有效地降低模型在移動終端部署難度與成本,并且使得算法在滿足實時性的同時精度有了較大提升。

      表3 消融實驗結果Table 3 Results of ablation experiment

      3.6 實際應用檢測評價

      RDD2022 數(shù)據(jù)集中捕捉到四種類型的道路損壞,即D00(縱向裂縫)、D10(橫向裂縫)、D20(網(wǎng)狀裂縫)和D40(坑洞)。圖10顯示了YOLOv8-RD算法在RDD2022數(shù)據(jù)集上的檢測效果,改進后的算法相比原算法識別出來更多的裂縫目標,第一張圖中D20目標原算法檢測不完整,改進后算法的檢測更精準;第二張圖中改進算法比原算法檢測出更多的D10目標;第三張圖兩種算法均識別出了D40坑洞目標,但改進算法額外檢測出了D20網(wǎng)狀裂縫;第四張圖原算法錯誤地檢測出了D10 目標,但改進算法沒有出現(xiàn)失誤。結果表明,改進的YOLOv8-RD 算法能夠有效地檢測出道路損傷目標,并且準確地識別它們的位置和類別,表現(xiàn)出較強的魯棒性和準確性。

      圖10 檢測效果Fig.10 Detection effect

      為了進一步驗證模型對不同目標的檢測效果,表4展示了YOLOv8n 和改進模型YOLOv8-RD 在不同損壞情況下的性能。數(shù)據(jù)顯示,YOLOv8-RD 在4 個類別上的檢測精度均高于YOLOv8n,其中類別D20(網(wǎng)狀裂縫)的檢測效果提升最為明顯。與YOLOv8n 相比,mAP50和mAP50-90分別提升了3.8和2.3個百分點。需要注意的是,在所有道路裂縫目標中,D40(坑洞)的檢測精度最低,這是因為D40 目標較小且訓練樣本數(shù)量較少,模型難以學習到更多的特征。

      表4 RDD2022數(shù)據(jù)集各類型損傷的檢測結果對比Table 4 Comparison of detection results for various types of damage in RDD2022 dataset 單位:%

      為了評估本文所提出的YOLOv8-RD 在實際應用中的性能,還針對Road Damage 數(shù)據(jù)集進行了訓練和測試,同時也使用了原始的YOLOv8n 模型作為對比。Road Damage 數(shù)據(jù)集由3 321 張實際道路損傷圖像組成,這些圖像均是使用智能手機相機拍攝的,尺寸約為1080P。與之前的實驗設計類似,將道路損傷目標分為4 種分類:D00(縱向裂縫)、D10(橫向裂縫)、D20(網(wǎng)狀裂縫)和D40(坑洞),同時訓練集和驗證集的比例為8∶2。如表5 所示,YOLOv8-RD 在4 個類別上的檢測精度明顯優(yōu)于YOLOv8n。具體來說,在mAP50 方面,橫向裂縫(D10)的檢測效果提升最為明顯,增加了6 個百分點;而在mAP50-95 方面,網(wǎng)狀裂縫(D20)的檢測效果提升最明顯,增加了3.2 個百分點。此外,對于四種類型目標的整體檢測效果,相較于YOLOv8n,YOLOv8-RD 也有了顯著提升,mAP50 和mAP50-90 分別提高了3.7 和2.9 個百分點。這些實驗結果驗證了YOLOv8-RD 模型在常規(guī)道路損傷目標檢測方面的顯著能力提升。

      3.7 與不同算法的檢測結果的比較

      為了進一步驗證算法的性能,本研究使用RDD 數(shù)據(jù)集比較了YOLOv8-RD 和其他主流目標檢測算法的表現(xiàn),結果如表6 所示。與兩階段算法Faster-RCNN、Cascade-RCNN 和單階段算法Efficientnet、CenterNet 相比較,YOLOv8-RD 在mAP50 指標上分別提高了9.9、6.3、2.1和10.1個百分點,在mAP50-95指標上分別提高了8.4、5.9、2.7 和9.4 個百分點,F(xiàn)PS 也有顯著的提升。與最新的實時目標檢測算法RT-DETR 相比,YOLOv8-RD的F1和mAP50幾乎沒有下降,但其參數(shù)量和計算量僅為RT-DETR 的8.5%和6.8%,并且mAP50-95 和FPS均有顯著提升。

      表6 不同算法對比結果Table 6 Comparison results of different algorithms

      另外,為了驗證算法在YOLO 系列中的檢測性能,將YOLOv8-RD與YOLOv3tiny、YOLOv4tiny、YOLOv5s、YOLOv6n、YOLOv7tiny、YOLOv8n 等YOLO 系列輕量級網(wǎng)絡進行比較,從表6 中可以看出,與這些輕量級網(wǎng)絡相比,YOLOv8-RD在保證運行速度的前提下,不同程度地降低了計算量和參數(shù)量,且mAP50 分別提高了10.1、15.6、10.5、4.9、3.2和2.0個百分點,mAP50-95分別提高了8.2、13.1、5.4、3.9、5.3 和1.3 個百分點。并且在YOLOv7tiny 的基礎上,以YOLOv8-RD 同樣的改進方法設計了YOLOv7-RD,相較于YOLOv7tiny,檢測精度有所提升。然而,相比之下,在YOLOv8n 上的改進效果要明顯優(yōu)于在YOLOv7tiny 上的改進。原因在于YOLOv8具有更好的可擴展性,容易通過改進來提升性能,而YOLOv7 受到模型結構和超參數(shù)的限制,因此改進效果不太顯著。

      實驗結果表明,與其他主流目標檢測算法比較,YOLOv8-RD算法以最小的模型體積實現(xiàn)了極高的檢測精度,使用成本更低、檢測效率更高、部署更加簡單,具有高效性和優(yōu)越性。

      4 結語

      本文提出了一種改進YOLOv8n的道路損傷檢測算法,解決了傳統(tǒng)的YOLOv8n 應用于目標檢測的難題。提出BOT結構全面提取道路損傷圖像的全局特征信息和局部特征信息,提高道路裂縫檢測精度。CA 注意力機制可以明顯提高模型的檢測精度,而只增加少量的計算量。在YOLOv8n 網(wǎng)絡中引入了C2f Ghost 模塊,大大壓縮了模型參數(shù)量,保持了檢測精度和速度。與其他算法相比具有相當或更好的檢測性能。

      實驗表明,YOLOv8-RD具有參數(shù)量更少、計算量更低、檢測精度更高等優(yōu)點,滿足實時性要求。與現(xiàn)有模型相比,該方法具有較高的檢測精度的同時降低了對平臺計算和儲存能力的要求,易于部署在資源受限的設備上。未來的研究重點是將改進的模型部署到資源受限的嵌入式檢測設備上,在實際應用中完善所提出的算法。

      猜你喜歡
      卷積精度道路
      堅持中國道路——方向決定道路,道路決定命運
      當代陜西(2022年4期)2022-04-19 12:08:50
      道聽途說
      基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
      我們的道路更寬廣
      青年歌聲(2020年12期)2020-12-23 06:30:00
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于DSPIC33F微處理器的采集精度的提高
      電子制作(2018年11期)2018-08-04 03:25:38
      基于傅里葉域卷積表示的目標跟蹤算法
      GPS/GLONASS/BDS組合PPP精度分析
      一次騎行帶來的感悟
      改進的Goldschmidt雙精度浮點除法器
      缙云县| 长治县| 长沙市| 双柏县| 新巴尔虎右旗| 小金县| 平阴县| 澄江县| 桐梓县| 沾益县| 宁乡县| 麻阳| 水城县| 溆浦县| 广河县| 广丰县| 霍州市| 图木舒克市| 大理市| 青阳县| 石台县| 塔河县| 岱山县| 越西县| 神池县| 江安县| 广昌县| 陆良县| 香格里拉县| 凌源市| 石阡县| 三原县| 苏尼特右旗| 买车| 鹤山市| 阿拉善右旗| 丘北县| 黄龙县| 九寨沟县| 四子王旗| 平乡县|