• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進YOLOv8的路口多目標識別優(yōu)化方法

      2024-12-31 00:00:00唐繼杰歐曉放
      科技創(chuàng)新與應(yīng)用 2024年35期
      關(guān)鍵詞:交通安全優(yōu)化方法深度學(xué)習(xí)

      摘" 要:針對我國城市路口多目標識別效率不高,識別不夠精準的問題,該文提出一種基于改進YOLOv8s模型的檢測方法。對原始的YOLOv8s模型進行改進,增加了卷積分支,采用融合Diverse Branch Block模塊的特征提取方式。結(jié)合城市路口場景構(gòu)建數(shù)據(jù)集,實驗結(jié)果表明,改進模型在精確度、召回率和平均準確度的指標上較原模型分別提升4.2%、3.1%和3.08%。改進模型表現(xiàn)出良好的性能,能夠滿足實際城市路口的多目標檢測需求。

      關(guān)鍵詞:多目標檢測;深度學(xué)習(xí);YOLOv8;交通安全;優(yōu)化方法

      中圖分類號:TP391.4" " " 文獻標志碼:A" " " " " "文章編號:2095-2945(2024)35-0059-06

      Abstract: In view of the problem that the efficiency of multi-target recognition at urban intersections in China is not high and the recognition is not accurate enough. This paper proposes a detection method based on the improved YOLOv8s model. The original YOLOv8s model is improved, convolution branches are added, and feature extraction methods that incorporate the Diverse Branch Block module are adopted. Combining urban intersection scenarios to build a dataset, experimental results show that the improved model improves accuracy, recall rate and average accuracy by 4.2%, 3.1% and 3.08% respectively compared with the original model. The improved model shows good performance and can meet the multi-target detection needs of actual urban intersections.

      Keywords: multi-target detection; deep learning; YOLOv8; traffic safety; optimization method

      近年來,為了預(yù)防道路交通事故,公安部相關(guān)部門積極推進“減量控大”工作,強調(diào)“努力減少事故死亡總量,全力防控較大事故”[1]。在此背景下,交通安全研究的重點逐漸從事后分析轉(zhuǎn)向事前預(yù)防。為了有效降低事故發(fā)生率,預(yù)先識別潛在危險因素成為關(guān)鍵。目標檢測技術(shù)是智能交通領(lǐng)域的重要內(nèi)容,通過高效、準確地識別交通環(huán)境中的各種潛在危險,可以為交通的研究和管理提供關(guān)鍵數(shù)據(jù)支持[2],從而實現(xiàn)事故“減量控大”的目標。

      目標檢測技術(shù)為交通事故主動預(yù)防提供了技術(shù)支撐。在深度學(xué)習(xí)的目標檢測領(lǐng)域中,主流的方法分為兩類:雙階段方法和單階段方法。2016年,Ren等[3]引入了區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Region Proposal Network, RPN),通過與目標檢測網(wǎng)絡(luò)共享卷積特征,實現(xiàn)了高效、快速的目標檢測。隨后,為了解決Faster R-CNN 中像素對齊的問題,He等[4]對Faster R-CNN進行擴展,提出了一個兼顧目標檢測實現(xiàn)和實例分割的Mask R-CNN。然而,不同于傳統(tǒng)的基于回歸的方法,Lu等[5]提出的Grid R-CNN模型通過網(wǎng)格點的定位來捕捉空間信息,與Faster R-CNN相比,Grid R-CNN設(shè)計了信息融合策略,將相鄰網(wǎng)格點的特征進行融合,增強了定位的準確性。與之前的基于區(qū)域的檢測器不同,Dai等[6]提出了基于區(qū)域的全卷積網(wǎng)絡(luò),模型的大部分計算都在整個圖像上共享,從而降低了計算成本。除此之外,Singh等[7]通過將目標檢測和分類分離,提出了R-FCN-3000模型,利用共享特征和通用目標性來實現(xiàn)高效的目標檢測。與之相反,單階段的目標檢測算法在檢測流程和處理方式上追求一步到位和密集預(yù)測。由于省去了候選區(qū)域生成的步驟,直接在特征圖上進行密集預(yù)測,因此,單階段目標檢測方法具有更高的檢測速度,適合實時應(yīng)用。Redmon[8]在2016年提出了第一個成功的單階段目標檢測器。它的核心理念是將目標檢測視為一個回歸問題,將整個圖像劃分為S×S網(wǎng)格,每個網(wǎng)格預(yù)測固定數(shù)量的邊界框以及它們的類別。同年,Liu等[9]提出了SSD(Single Shot MultiBox Detector)單階段算法,SSD 將目標檢測任務(wù)視為一個回歸問題,并通過一個單一的深度神經(jīng)網(wǎng)絡(luò)直接對目標類別和邊界框進行預(yù)測。該方法不需要生成候選區(qū)域,也不需要重新采樣像素或特征圖,實現(xiàn)了更快的檢測速度。隨著YOLO系列的不斷發(fā)展,Liu等[10-11]在YOLOv5模型的基礎(chǔ)上,使用 K-means算法為數(shù)據(jù)集計算最合適的錨框(anchor boxes),以提高邊界框檢測的準確性。Wang等[12]提出了YOLOv7模型,通過引入一系列可訓(xùn)練的優(yōu)化模塊和方法,在不增加推理成本的情況下顯著提高了檢測精度。相比于YOLOv7,YOLOv8模型對錨框的尺寸和比例進行自適應(yīng)優(yōu)化,使得預(yù)測的邊界框能夠更好地適應(yīng)目標的形狀和大小[13]。減少了邊界框與目標真實位置之間的偏差,提高了模型定位的準確性。同時,YOLOv8使用了更先進的IoU損失函數(shù)(如CIoU、DIoU)來優(yōu)化邊界框的回歸[14]。

      盡管YOLOv8模型在許多方面表現(xiàn)出色,但在處理復(fù)雜背景下的多目標檢測任務(wù)時,還存在一定的局限性。以上提到的研究大多只針對某一類目標進行檢測,對于城市路口復(fù)雜背景下的多目標檢測應(yīng)用較少。因此,本文在YOLOv8s算法的基礎(chǔ)上,增加了額外的卷積分支,采用結(jié)合了Diverse Branch Block模塊的特征提取方式,以提高模型對路口監(jiān)控視頻下多目標的檢測精度、速度與結(jié)果的可靠性。

      1" YOLOv8s模型框架

      YOLO系列算法自2016年被Redmon等[6]首次提出后,短短幾年時間便從YOLOv1發(fā)展到Y(jié)OLOv8,由于其速度快、實時性好并且兼顧較高的準確率,在目標檢測領(lǐng)域占據(jù)了主導(dǎo)地位。

      該模型由4個主要部分組成:輸入端、主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)以及輸出端,圖1為YOLOv8s的網(wǎng)絡(luò)結(jié)構(gòu)示意圖。

      輸入端:這一部分的主要任務(wù)是對輸入圖像進行預(yù)處理。輸入端將圖像調(diào)整為固定尺寸(通常為 640×640或其他合適的尺寸)以適應(yīng)網(wǎng)絡(luò)的輸入大小。圖像預(yù)處理還包括歸一化和數(shù)據(jù)增強操作,如縮放、翻轉(zhuǎn)、裁剪等,以提高模型的泛化能力。相比于YOLO系列的前幾代,YOLOv8使用了改進的Focus模塊,通過切片和拼接操作將輸入圖像的空間信息集中到更深的特征中,從而減少特征丟失。

      主干網(wǎng)絡(luò)(Backbone):這一部分主要作用是特征提取。YOLOv8s主干網(wǎng)絡(luò)采用了改進的CSP結(jié)構(gòu)。CSP通過分離特征圖劃分為兩部分并在后續(xù)階段進行融合,實現(xiàn)了跨階段連接,增強了網(wǎng)絡(luò)的特征表達能力并減少了計算成本。如圖2所示,在主干網(wǎng)絡(luò)中,卷積操作是特征提取的核心。通過一系列卷積操作,主干網(wǎng)絡(luò)可以將輸入圖像轉(zhuǎn)換為一組多尺度的特征圖,這些特征圖包含了豐富的信息,為后續(xù)的目標檢測過程提供了基礎(chǔ)。

      頸部網(wǎng)絡(luò)(Neck):在YOLOv8s中,頸部網(wǎng)絡(luò)主要采用了FPN(Feature Pyramid Network)和PANet(Path Aggregation Network)結(jié)構(gòu)來進行多尺度特征融合。通過自頂向下和自下向上的路徑,將不同尺度的特征圖進行融合和傳遞,使得每一層特征圖都包含來自其他層的上下文信息。這樣,模型在預(yù)測時可以利用更豐富的特征,提高檢測的魯棒性。

      輸出端(Head):這個部分是目標檢測模型的最后一環(huán),它將網(wǎng)絡(luò)提取的特征轉(zhuǎn)換為人類可解釋的輸出。輸出端利用頸部網(wǎng)絡(luò)提供的多尺度特征圖,執(zhí)行具體的檢測任務(wù),并生成檢測結(jié)果,包括目標的位置(邊界框)、類別(分類)以及置信度(目標存在的概率)。

      2" YOLOv8s模型的改進與優(yōu)化

      2.1" 多目標檢測改進

      在城市道路交叉口監(jiān)控圖像中往往會出現(xiàn)大量的交通參與者,基于深度學(xué)習(xí)的檢測算法在處理多目標時檢測效果不太理想,因此針對YOLOv8s模型進行優(yōu)化,提升模型在路口多目標檢測上的性能。

      如圖3所示,本文加入了額外的卷積操作路徑(Extra)以豐富特征提取。通過多路徑處理、特征融合和額外路徑的使用,這個模塊可以更好地提取多尺度、多方向的特征,從而增強模型的表達能力和對復(fù)雜圖像的理解。

      2.2" 融合Diverse Branch Block

      DBB(Diverse Branch Block)是一種神經(jīng)網(wǎng)絡(luò)模塊,通過復(fù)雜化特征提取方式來增強卷積神經(jīng)網(wǎng)絡(luò)(CNN)的表達能力。DBB模塊引入多種不同的卷積和池化操作,提供了多樣化的特征提取路徑,并在網(wǎng)絡(luò)訓(xùn)練和推理過程中靈活地融合這些特征。

      如圖4所示,DBB模塊通過在一個模塊內(nèi)整合多種特征提取方式,顯著增加了網(wǎng)絡(luò)的表達能力,使其可以適應(yīng)更加復(fù)雜的模式和輸入數(shù)據(jù)。同時,多分支結(jié)構(gòu)可以在訓(xùn)練中提供更豐富的梯度流,從而加速模型的收斂。并且在推理階段,DBB 模塊可以被等效為單一卷積操作,從而提高推理效率。

      3" 實驗結(jié)果與分析

      3.1" 實驗數(shù)據(jù)集

      為了使實驗結(jié)果能真實反映模型在實際道路交通場景下的表現(xiàn),本文采用某城市道路監(jiān)控視頻來構(gòu)建數(shù)據(jù)集。如表1所示,本文從3個路口6段視頻中截取了共計13 884張圖像,并用人工標注的方式對數(shù)據(jù)集進行標注。其中,為了更好地提升模型對非機動車的檢測精度,在訓(xùn)練過程中將非機動車分為電動自行車和電動三輪車兩類,單獨標注分開訓(xùn)練。

      3.2" 實驗環(huán)境

      本文實驗環(huán)境配置見表2,改進的模型訓(xùn)練過程中參數(shù)的設(shè)置情況如下:迭代次數(shù)設(shè)置為300 epochs,每輪batch為32張,輸入圖像的大小為640×640。

      3.3" 評價指標

      本文采用準確率(precision, P)、召回率(recall, R)、平均精度(average precision, AP)、平均精確度(mean average precision, mAP)、每秒處理幀數(shù)(frames per second, FPS)以及參數(shù)數(shù)量作為模型檢測性能的評估標準。這些計算公式如下

      式中:P為所有被預(yù)測為正的樣本中,實際為正的比例;R為實際為正的樣本中,被正確預(yù)測為正的比例;AP為對于單個檢測類別的準確性;mAP為所有類別中AP的平均準確性;FPS為在道路目標測試集上的平均檢測速度;Fi為視頻總幀數(shù);Tn為檢測時間。

      3.4" 實驗結(jié)果

      本文將Faster R-CNN、YOLOv5s、YOLOv7和YOL

      Ov8s與本文改進的模型(Ours)進行對比實驗,準確率(P)、召回率(R)、平均精確度(mAP)、FPS及模型參數(shù)量(Params/M)均在表3中展示。

      通過表3可知,本文改進模型在路口監(jiān)控視頻中識別機動車、非機動車和行人方面表現(xiàn)良好,在準確率、平均精度、召回率方面都優(yōu)于其他模型,并且具有較低的參數(shù)數(shù)量。平均精確度(mAP)高于Faster R-CNN、YOLOv7、YOLOv5s和YOLOv8s,分別提高了22.7%、10.1%、10.9%和3.08%。改進模型在預(yù)測框的準確性上也超過了其他模型,有效降低了漏檢和誤檢的發(fā)生。FPS方面比YOLOv5s快3.2倍,比YOLOv8s快1.2倍,滿足對路口多目標實時檢測需求。

      圖5、圖6分別展示了本文模型與YOLOv5s、YOLOv8s的準確率曲線和召回率曲線的比較。從圖5中可以看到,改進模型準確率在較短的訓(xùn)練周期內(nèi)提升迅速,并在200輪訓(xùn)練后仍有提升。從圖6召回率曲線來看,DBB模塊的特征優(yōu)化使得模型能夠更快地學(xué)習(xí)到有關(guān)目標的有效信息,使得模型在訓(xùn)練的初期階段,召回率的提升非常迅速。這表明模型對于各類目標有著較好的識別能力,特別是在處理復(fù)雜或變化的場景時,能夠有效地減少漏檢數(shù)量。

      3.5" 消融實驗

      為了驗證新增卷積操作路徑和DBB模塊特征融合的改進效果,本文設(shè)計了消融實驗以分析并驗證每個改進模塊如何影響P、mAP和FPS值。實驗結(jié)果見表4,其中“√”表示對應(yīng)模塊的應(yīng)用。

      由表4可知,改進模型顯著提高了模型的檢測精度和平均精度,但會稍微降低處理速度。模型在引入額外卷積分支之后,P有所提高,但mAP提升幅度較小,F(xiàn)PS略有下降。而在繼續(xù)融合DBB模塊特征后,模型的P和mAP均有提高,相較于原模型提升了4.2%和3.08%,但FPS降低到64。

      3.6" 實際檢測目標可視化驗證與對比

      為了更直觀地進行展示模型的改進效果,本文將改進后的模型與YOLOv8s、YOLOv5s進行可視化對比,如圖7所示。

      圖7展示了城市交叉路口場景中目標檢測的結(jié)果對比。從圖7中可以看出,本文改進的模型在多目標檢測方面表現(xiàn)優(yōu)越。模型在檢測車輛、非機動車和行人方面表現(xiàn)出較高的置信度。相比于YOLOv8s和YOLOv5s,模型對非重合檢測對象的檢測準確性最好,且沒有存在漏檢和誤檢的情況。由圖7可知,本文改進的模型的表現(xiàn)更出色,證實了改進模型的有效性,對路口多目標識別起到了優(yōu)化效果。

      4" 結(jié)論

      針對城市路口多目標識別效率低、精度不足的問題,本文運用YOLO8s改進模型對路口多目標交通參與者進行了研究。通過引入額外的卷積分支和融合DBB模塊的特征提取方式,優(yōu)化了模型對多目標的檢測能力。此外,采用某城市道路監(jiān)控視頻和自行采集的圖像來構(gòu)建數(shù)據(jù)集,提高實驗結(jié)果的真實性。實驗結(jié)果表明:改進的模型的準確率、召回率和平均準確度分別提升了4.2%、3.1%和3.08%。相比原模型改進有效,為進一步研究路口事故預(yù)防提供了方法支撐。

      參考文獻:

      [1] 公安部部署2021年道路交通事故預(yù)防“減量控大”工作[J].道路交通管理,2021(3):6.

      [2] 王永崗,李曉坤,宋杰,等.車輛軌跡數(shù)據(jù)驅(qū)動的急彎路段追尾沖突風(fēng)險時空演化規(guī)律[J].哈爾濱工業(yè)大學(xué)學(xué)報,2024,56(3):38-45.

      [3] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE transactions on pattern analysis and machine intelligence, 2016,39(6):1137-1149.

      [4] HE K, GKIOXARI G, DOLLáR P, et al. Mask r-cnn[C]//Proceedings of the IEEE international conference on computer vision. 2017:2961-2969.

      [5] LU X, LI B, YUE Y, et al. Grid r-cnn[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2019:7363-7372.

      [6] DAI J, LI Y, HE K, et al. R-fcn: Object detection via region-based fully convolutional networks[J]. Advances in neural information processing systems, 2016,29.

      [7] SINGH B, LI H, SHARMA A, et al. R-FCN-3000 at 30fps: Decoupling detection and classification[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2018:1081-1090.

      [8] REDMON J. You only look once: Unified, real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.

      [9] LIU W, ANGUELOV D, ERHAN D, et al. Ssd: Single shot multibox detector[C]//Computer Vision-ECCV 2016: 14th European Conference, Amsterdam, The Netherlands, October 11-14, 2016, Proceedings, Part I 14. Springer International Publishing, 2016:21-37.

      [10] LIU Y, LU B H, PENG J, et al. Research on the use of YOLOv5 object detection algorithm in mask wearing recognition[J]. World Sci. Res. J, 2020,6(11):276-284.

      [11] ZHANG Y, GUO Z, WU J, et al. Real-time vehicle detection based on improved yolov5[J]. Sustainability, 2022,14(19):12274.

      [12] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2023:7464-7475.

      [13] WANG G, CHEN Y, AN P, et al. UAV-YOLOv8: A small-object-detection model based on improved YOLOv8 for UAV aerial photography scenarios[J]. Sensors, 2023,23(16):7190.

      [14] LOU H, DUAN X, GUO J, et al. DC-YOLOv8: small-size object detection algorithm based on camera sensor[J]. Electronics, 2023,12(10):2323.

      猜你喜歡
      交通安全優(yōu)化方法深度學(xué)習(xí)
      鄉(xiāng)鎮(zhèn)道路交通安全
      青春歲月(2016年22期)2016-12-23 16:34:20
      農(nóng)村道路交通安全問題
      青春歲月(2016年22期)2016-12-23 15:58:54
      基于交通安全的高速公路路線平縱組合設(shè)計
      MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
      公路設(shè)計應(yīng)考慮的交通安全因素研究
      計算機網(wǎng)絡(luò)服務(wù)質(zhì)量優(yōu)化方法
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      學(xué)生成績管理系統(tǒng)數(shù)據(jù)查詢優(yōu)化方法研究 
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      文安县| 宝坻区| 南通市| 中卫市| 中西区| 隆安县| 五家渠市| 郯城县| 甘德县| 长岭县| 姜堰市| 九龙县| 钦州市| 葵青区| 四平市| 陆丰市| 高雄市| 新绛县| 九江县| 全州县| 清镇市| 温泉县| 庄河市| 三明市| 松溪县| 弋阳县| 湘阴县| 屏山县| 三台县| 北流市| 增城市| 商水县| 清新县| 尉氏县| 芦溪县| 固始县| 普宁市| 西乡县| 珠海市| 平果县| 惠安县|