摘要:文章綜述了當(dāng)前頭盔佩戴檢測(cè)技術(shù)的發(fā)展現(xiàn)狀與挑戰(zhàn),重點(diǎn)探討了基于深度學(xué)習(xí)方法尤其是YOLO系列算法在頭盔佩戴識(shí)別領(lǐng)域的應(yīng)用潛力。文章將YOLOv8算法應(yīng)用于頭盔佩戴檢測(cè)領(lǐng)域,此方法克服了傳統(tǒng)監(jiān)控手段的局限性,實(shí)現(xiàn)了高效率、高準(zhǔn)確率的自動(dòng)檢測(cè),對(duì)于推動(dòng)“一盔一帶”安全守護(hù)行動(dòng)的實(shí)施和提升公共安全管理水平具有重要價(jià)值。
關(guān)鍵詞:深度學(xué)習(xí);頭盔檢測(cè);YOLOv8算法
中圖分類(lèi)號(hào):TP311 文獻(xiàn)標(biāo)志碼:A
0 引言
頭盔是國(guó)民經(jīng)濟(jì)建設(shè)或出行不可或缺的防護(hù)用具,在涉及電動(dòng)自行車(chē)的道路交通事故中,頭部受傷致死的比例占交通事故死亡總數(shù)的75%及以上,而正確佩戴安全頭盔可有效降低頭部受傷風(fēng)險(xiǎn)達(dá)60%~70%,是保護(hù)騎乘者頭部安全的關(guān)鍵措施?!耙豢粠А卑踩刈o(hù)行動(dòng)的推行,對(duì)提升公眾道路安全意識(shí)及預(yù)防交通事故傷亡具有深遠(yuǎn)意義。當(dāng)前,交通管理系統(tǒng)人工觀察未佩戴頭盔的電動(dòng)自行車(chē)騎行人,存在效率低下等問(wèn)題,因此需要一種以圖像為輸入、使用算法自動(dòng)判定未佩戴頭盔并給出預(yù)警的計(jì)算機(jī)視覺(jué)技術(shù)和系統(tǒng),以提供高效的頭盔佩戴識(shí)別解決方案[1]。
目前,國(guó)內(nèi)關(guān)于安全頭盔佩戴檢測(cè)方面的研究還不夠普遍,陳揚(yáng)等[2]提出HWD-YOLOv5s算法,以深度學(xué)習(xí)框架YOLOv5s為基礎(chǔ),改進(jìn)原始模型特征提取部分的下采樣方法和特征融合方法,并修改邊框損失函數(shù)GIOU的計(jì)算方法。朱碩等[3]利用機(jī)器視覺(jué)傳感器收集大量電動(dòng)車(chē)及駕駛?cè)四繕?biāo)數(shù)據(jù),制作相應(yīng)的數(shù)據(jù)集,將處理后的數(shù)據(jù)集在Pytorch框架上利用改進(jìn)的YOLOv5神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,獲得最優(yōu)權(quán)重參數(shù)。湯天培等[4]提出一種基于深度學(xué)習(xí)的安全頭盔佩戴行為檢測(cè)方法,基于EfficientNet目標(biāo)檢測(cè)框架,重新設(shè)計(jì)了主干網(wǎng)中特征圖的特征選取層,并提出像素級(jí)縮放模塊,構(gòu)建了一種新的用于電動(dòng)自行車(chē)騎乘人員安全頭盔佩戴行為檢測(cè)的PLS-Det模型。
國(guó)外的研究人員對(duì)安全頭盔佩戴檢測(cè)問(wèn)題展開(kāi)了深入的研究。Felix等[5]綜合比較RetinaNet與殘差神經(jīng)網(wǎng)絡(luò)50層主體結(jié)合的方案,該方案以其基于錨點(diǎn)的機(jī)制和用于多尺度對(duì)象檢測(cè)的特征金字塔網(wǎng)絡(luò)而聞名。此外,還探究了DEtection TRansformer(DETR)架構(gòu),這是一種基于變換器架構(gòu)的端到端對(duì)象檢測(cè)模型,融入了ResNet50特征提取功能及YOLO架構(gòu),對(duì)騎車(chē)人及其頭盔使用情況進(jìn)行檢測(cè)和訓(xùn)練,經(jīng)實(shí)驗(yàn),所開(kāi)發(fā)的模型在檢測(cè)活躍騎車(chē)人佩戴頭盔方面具有良好的準(zhǔn)確性。Li等[6]提出了一種基于深度學(xué)習(xí)的多任務(wù)框架,不僅能夠檢測(cè)頭盔佩戴狀態(tài),還能同時(shí)識(shí)別騎行者的其他安全行為(如是否穿反光衣),為交通安全監(jiān)管提供了更為全面的解決方案。
1 YOLOv8網(wǎng)絡(luò)
YOLO(You Only Look Once)是基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法,其核心在于將傳統(tǒng)的目標(biāo)檢測(cè)框架轉(zhuǎn)為單一階段的回歸任務(wù),通過(guò)單個(gè)的神經(jīng)網(wǎng)絡(luò)直接預(yù)測(cè)輸出物體的位置、類(lèi)別。該方法在神經(jīng)網(wǎng)絡(luò)中將輸入圖像劃分為S×S個(gè)網(wǎng)格,各網(wǎng)格負(fù)責(zé)識(shí)別圖像中的物體,每個(gè)單元進(jìn)而預(yù)測(cè)包含物體的類(lèi)別信息、邊界框坐標(biāo)及物體存在的置信度[7]。
YOLO算法只需單一神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)檢測(cè)流程的高效整合,實(shí)現(xiàn)了極高的處理速度,滿(mǎn)足實(shí)時(shí)目標(biāo)檢測(cè)的需求,特別是在對(duì)響應(yīng)時(shí)間有嚴(yán)格要求的場(chǎng)景。如在視頻監(jiān)控領(lǐng)域,特別是智能交通系統(tǒng)與公共安全監(jiān)控中,其高速處理能力為實(shí)時(shí)事件監(jiān)測(cè)與響應(yīng)提供了可能。在自動(dòng)駕駛技術(shù)中,該算法能夠滿(mǎn)足對(duì)環(huán)境動(dòng)態(tài)物體進(jìn)行即時(shí)檢測(cè)與追蹤的需求。而且,YOLO算法采用一階段檢測(cè)方法,簡(jiǎn)化了模型架構(gòu)與訓(xùn)練流程,促進(jìn)了算法的可實(shí)施性。在工業(yè)4.0背景下的自動(dòng)化生產(chǎn)流水線(xiàn),YOLO能有效應(yīng)用于產(chǎn)品質(zhì)量控制與分類(lèi),加速生產(chǎn)效率與智能化水平。綜上所述,YOLO系列算法不僅革新了目標(biāo)檢測(cè)的實(shí)現(xiàn)方式,也拓寬了計(jì)算機(jī)視覺(jué)技術(shù)在實(shí)際應(yīng)用中的邊界。
YOLOv8模型是在YOLOv5模型的基礎(chǔ)上提出的,針對(duì)不同計(jì)算資源需求分為YOLOv8m、YOLOv8s、YOLOv8l和YOLOv8n 4個(gè)模型。其中YOLOv8n以其優(yōu)化的復(fù)雜度、保有的高檢測(cè)準(zhǔn)確性和加速的推理速度,符合交通場(chǎng)景中對(duì)頭盔佩戴檢測(cè)應(yīng)用的輕量化與高精度雙重要求,因此本文選用YOLOv8n作為基準(zhǔn)模型應(yīng)用于盔佩戴檢測(cè)場(chǎng)景。
YOLOv8網(wǎng)絡(luò)架構(gòu)由Input層、Backbone、Neck和Prediction 4部分組成。其中,Backbone模塊在CSP思想進(jìn)行特征傳遞基礎(chǔ)上,引入C2f模塊替代YOLOv5模型中的C3模塊,旨在增強(qiáng)特征表達(dá)力與優(yōu)化計(jì)算效率。該算法引入SPPF(Spatial Pyramid Pooling Fast)模塊以豐富特征層次,促進(jìn)梯度流動(dòng)。YOLOv8添加了Bi-PAN-FPN結(jié)構(gòu),它引入了雙向連接和加權(quán)融合的L制,通過(guò)構(gòu)造雙向通道實(shí)現(xiàn)跨尺度連接,并將特征提取網(wǎng)絡(luò)中的特征與自下而上路徑中的相對(duì)大小特征融合,從而保留了更淺的語(yǔ)義信。通過(guò)添加Bi-PAN-FPN結(jié)構(gòu),YOLOv8可提高目標(biāo)檢測(cè)的準(zhǔn)確,并提高訓(xùn)練速度。算法的Prediction部分采取Decoupled Head設(shè)計(jì),將分類(lèi)與回歸任務(wù)解耦為獨(dú)立的子結(jié)構(gòu),提高了模型收斂能力。
2 實(shí)驗(yàn)分析
2.1 實(shí)驗(yàn)環(huán)境
實(shí)驗(yàn)平臺(tái)處理器為12th Gen Intel(R) Core(TM) i7-12700,32 GB運(yùn)行內(nèi)存,顯卡型號(hào)為NVIDIA GeForce MX450,操作系統(tǒng)為Win10 x64。編程語(yǔ)言是Python3.8.0,開(kāi)發(fā)環(huán)境為Anaconda。
2.2 數(shù)據(jù)集和評(píng)價(jià)指標(biāo)
本文通過(guò)攝像機(jī)拍攝的方法進(jìn)行數(shù)據(jù)的收集,運(yùn)用LabelImg工具執(zhí)行精細(xì)化手動(dòng)標(biāo)注過(guò)程,標(biāo)注內(nèi)容分為佩戴頭盔、未佩戴頭盔、騎行人員3個(gè)類(lèi)別。為增強(qiáng)模型的泛化性能,本文對(duì)采集的數(shù)據(jù)通過(guò)平移、水平翻轉(zhuǎn)、垂直旋轉(zhuǎn)、自適應(yīng)直方圖均衡化4種方法隨機(jī)組合的方式進(jìn)行數(shù)據(jù)增強(qiáng),最終生成了一個(gè)包含4382張多樣化且有效的圖像數(shù)據(jù)集。此數(shù)據(jù)集科學(xué)地分割為訓(xùn)練集、驗(yàn)證集和測(cè)試集,比例為8∶1∶1,旨在平衡模型的學(xué)習(xí)、調(diào)整與評(píng)估模型的有效性。
本文主要使用精度(Precision)、召回率(Recall)、平均精度均值(mAP)、mAP50和mAP50-95作為模型評(píng)估指標(biāo)。精度(Precision)指標(biāo)用來(lái)評(píng)估模型預(yù)測(cè)正確的正樣本的比例。在目標(biāo)檢測(cè)中,若模型預(yù)測(cè)的邊界框與真實(shí)的邊界框重合,則認(rèn)為預(yù)測(cè)正確。召回率(Recall)是評(píng)估模型能夠找出所有真實(shí)正樣本的比例。當(dāng)真實(shí)的邊界框與預(yù)測(cè)的邊界框重合,則該樣本被正確召回。mAP50表示在50%的loU閾值下的mAP值。mAP50-95指標(biāo)計(jì)算的loU閾值范圍在50%~95%內(nèi)的mAP均值,該指標(biāo)能夠更準(zhǔn)確地評(píng)估模型在不同loU閾值下的性能。Precision、Recall、mAP計(jì)算公示如下:
2.3 模型訓(xùn)練
本文設(shè)置輸入圖像大小為640×480 pixel,批量訓(xùn)練樣本數(shù)量(batchsize)分別為16,整個(gè)數(shù)據(jù)集訓(xùn)練次數(shù)(epochs)為100,初始學(xué)習(xí)率(learningrate)為0.001,采用余弦退火算法對(duì)學(xué)習(xí)率進(jìn)行動(dòng)態(tài)調(diào)整。訓(xùn)練過(guò)程中的模型性能和損失曲線(xiàn)如圖1所示。當(dāng)訓(xùn)練達(dá)到100輪次時(shí),性能和損失曲線(xiàn)均達(dá)到平衡,此時(shí)模型已收斂,最終模型的mAP為90.3%。
2.4 對(duì)比實(shí)驗(yàn)與分析
為了驗(yàn)證YOLOv8模型對(duì)頭盔檢測(cè)的有效性,與YOLOv5s進(jìn)行對(duì)比實(shí)驗(yàn)。YOLOv5算法對(duì)輸入的目標(biāo)圖像進(jìn)行預(yù)處理,以提取有用的信息。通過(guò)主干網(wǎng)絡(luò)進(jìn)行深度卷積操作,以獲取圖像的特征信息,多層次的預(yù)測(cè)策略可以適應(yīng)不同尺寸的目標(biāo),并提高目標(biāo)檢測(cè)的效果。選取精度(Precision)、召回率(Recall)、mAP50、mAP50-95作為各模型的評(píng)價(jià)指標(biāo),實(shí)驗(yàn)結(jié)果如表1所示。
YOLOv5模型輕量且資源高效,支持多種規(guī)模以適配不同硬件需求,加之代碼的易用性且結(jié)合多目標(biāo)跟蹤技術(shù),可精準(zhǔn)追蹤頭盔佩戴狀態(tài),尤其通過(guò)針對(duì)性微調(diào),能高度適應(yīng)各類(lèi)具體應(yīng)用場(chǎng)景,在之前研究中是較為理想的解決方案。由YOLOv8模型與YOLOv5模型的對(duì)比實(shí)驗(yàn)結(jié)果可見(jiàn),在對(duì)騎行人員頭盔數(shù)據(jù)集進(jìn)行訓(xùn)練時(shí),YOLOv8模型的mAP@0.5比YOLOv5s模型更高,性能提升4.6%。mAP@0.5∶0.9表示在不同IoU閾值上的平均mAP,從0.5到0.95,步長(zhǎng)0.05。該評(píng)價(jià)指標(biāo)能更準(zhǔn)確地評(píng)估模型在不同loU閾值下的性能,通過(guò)對(duì)比實(shí)驗(yàn)結(jié)果可以看出,YOLOv8提升了5.7%,說(shuō)明該模型在目標(biāo)檢測(cè)中,檢測(cè)精度更高,同時(shí)在多種難度條件下也具備更高的穩(wěn)定性和可靠性。
3 結(jié)語(yǔ)
本文提出了一種基于YOLOv8算法的頭盔佩戴檢測(cè)模型。針對(duì)實(shí)時(shí)性和高精度要求較高的頭盔佩戴檢測(cè)場(chǎng)景,存在算法參數(shù)量大、復(fù)雜度高和實(shí)時(shí)性差等問(wèn)題。YOLOv8n以其優(yōu)化的網(wǎng)絡(luò)結(jié)構(gòu)和輕量化設(shè)計(jì),通過(guò)改進(jìn)的CSP和C2f模塊加強(qiáng)特征提取,結(jié)合FPN+PAN結(jié)構(gòu)實(shí)現(xiàn)多尺度特征融合,并采用解耦頭設(shè)計(jì)提升模型收斂,以及AnchorFree機(jī)制優(yōu)化樣本分配,全面增強(qiáng)了檢測(cè)能力。實(shí)驗(yàn)結(jié)果顯示,與YOLOv5s相比,YOLOv8在頭盔檢測(cè)任務(wù)上不僅提升了mAP達(dá)4.6%,還在寬范圍IoU閾值下穩(wěn)定性提高了5.7%,驗(yàn)證了其在提高檢測(cè)精度和泛化能力方面的顯著效果。綜上,YOLOv8模型以其高效的檢測(cè)速度、簡(jiǎn)化的結(jié)構(gòu)設(shè)計(jì)及增強(qiáng)的檢測(cè)精度,可實(shí)時(shí)精準(zhǔn)識(shí)別駕駛者頭盔佩戴情況,強(qiáng)化了智慧交通的監(jiān)管效能。
參考文獻(xiàn)
[1]謝昊,賈小軍,喻擎蒼,等.基于改進(jìn)YOLOv5的騎行人員頭盔及車(chē)牌檢測(cè)[J].光電子·激光,2024(4):396-404.
[2]陳揚(yáng),呂艷輝.基于改進(jìn)YOLOv5s的頭盔佩戴檢測(cè)算法[J].沈陽(yáng)理工大學(xué)學(xué)報(bào),2023(5):11-17.
[3]朱碩,黃劍翔,汪宗洋,等.基于深度學(xué)習(xí)的非機(jī)動(dòng)車(chē)頭盔佩戴檢測(cè)方法研究[J].電子測(cè)量技術(shù),2022(22):120-127.
[4]湯天培,龔昊,李洪亮,等.電動(dòng)自行車(chē)騎乘人員安全頭盔佩戴行為檢測(cè)[J].南通大學(xué)學(xué)報(bào)(自然科學(xué)版),2023(2):12-19.
[5]FELIX W S,CHRISTOFFER R.Automated detection of bicycle helmets using deep learning[J].Journal of Cycling and Micromobility Research,2024(2):1-10.
[6]LI M,WANG D.Multi-task deep learning for rider safety behavior analysis including helmet usage[J].Pattern Recognition Letters,2023(159):91-99.
[7]謝嘉飛.目標(biāo)檢測(cè)算法優(yōu)化及在頭盔檢測(cè)系統(tǒng)中關(guān)鍵技術(shù)研究[D].太原:太原師范學(xué)院,2024.
Research on helmet-wearing detection methods based on deep learning
Abstract: This paper provides an overview of the current state and challenges in helmet-wearing detection technology, with a particular focus on the application potential of deep learning methodologies, notably the YOLO (You Only Look Once) series of algorithms, in the realm of helmet recognition. By implementing the YOLOv8 algorithm for helmet-wearing detection, this approach not only overcomes the limitations of conventional surveillance methods but also achieves highly efficient and accurate automated detection. It thereby significantly contributes to the implementation of the “One Helmet, One Belt” safety campaign and enhances public safety management capabilities.
Key words: deep learning; helmet detection; YOLOv8 algorithm
無(wú)線(xiàn)互聯(lián)科技2024年17期