◆朱夏 晗瀟
基于YOLO v4的校園環(huán)境安全帽檢測(cè)系統(tǒng)的研究
◆朱夏 晗瀟
(大連海事大學(xué) 信息科學(xué)技術(shù)學(xué)院 遼寧 116026)
在當(dāng)代校園環(huán)境下,某些實(shí)踐課的進(jìn)行必須佩戴安全帽來保證安全。為實(shí)現(xiàn)檢測(cè),提出一種基于YOLO v4的安全帽應(yīng)用檢測(cè)方法。通過機(jī)器人采集數(shù)據(jù)集,判斷頭部區(qū)域與安全帽區(qū)域的相交來判定佩戴情況,并通過對(duì)比實(shí)驗(yàn)來說明采用YOLO v4的原因。最后,提出遮擋方面的不足,并對(duì)研究方向進(jìn)行展望。
計(jì)算機(jī)視覺;YOLO v4;安全帽識(shí)別
隨著高等教育水平以及高校環(huán)境的發(fā)展,越來越多的高校將實(shí)踐課程列為必修的內(nèi)容之一。而在此過程中,安全問題也備受大家的關(guān)注。其中,安全帽是在某些場(chǎng)合下必須佩戴的物品,然而,很多學(xué)生不遵守規(guī)定,不能按照要求佩戴安全帽。本文需要一個(gè)實(shí)施監(jiān)督作用的技術(shù)來改善這種現(xiàn)象。
本文整個(gè)應(yīng)用檢測(cè)的流程如圖1所示,首先通過設(shè)計(jì)的機(jī)器人進(jìn)行視頻數(shù)據(jù)采集,再經(jīng)過訓(xùn)練好的YOLO v4[1]模型判斷頭部和安全帽的位置,之后判斷出行為人是否佩戴安全帽。管理員可以通過后臺(tái)對(duì)識(shí)別的結(jié)果進(jìn)行管理。
圖1 安全帽應(yīng)用檢測(cè)流程
本文選擇了SpotMini機(jī)械狗,結(jié)合現(xiàn)實(shí)地形以及社會(huì)因素的設(shè)計(jì),加以改進(jìn),通過Solidworks進(jìn)行建模,設(shè)計(jì)出以波士頓動(dòng)力為基礎(chǔ)的一款機(jī)械狗。本文使用單片機(jī)C語言編寫控制其行動(dòng)的程序,采用MG90S金屬舵機(jī)作為驅(qū)動(dòng)。本文將無線攝像頭固定在其頭部,進(jìn)行數(shù)據(jù)回傳。
YOLOv4在原先的Darknet53每一個(gè)殘差單元加入了Cross-Stage-Partial-connections(CSP),采用CSP[2]先將基礎(chǔ)層的特征映射劃為兩部分,之后通過跨階段的層次結(jié)構(gòu)將其合并,既減少了計(jì)算量,又可以保證準(zhǔn)確率。YOLOv4修改SPP以保證輸出為空間維度。最大池化的核大小為1*1,5*5,9*9,13*13不等,將來自不同核大小池化后的特征圖串聯(lián)在一起作為輸出。SPP 對(duì)于 YOLO v3 來說能夠極大地增加感受野,分離出最顯著的上下文特征,網(wǎng)絡(luò)運(yùn)行速度幾乎不受影響。YOLO v4的SPP與PANet[3]的特征預(yù)測(cè)網(wǎng)絡(luò)在之前YOLOv3基礎(chǔ)之上加深了多尺度優(yōu)化,通過自底向上和自頂向下縮短了底頂層特征之間的路徑,最終提高小目標(biāo)的檢測(cè)結(jié)果。YOLO v4的損失計(jì)算公式如下:
其中,是計(jì)算兩個(gè)中心點(diǎn)之間的歐氏距離,為最小包圍框的對(duì)角線距離。
圖2 安全帽佩戴檢測(cè)流程
本文將前方機(jī)器人采集到的數(shù)據(jù)每隔一段時(shí)間傳回一張圖片,保存到特定的緩存目錄中,系統(tǒng)將會(huì)使用采取人臉識(shí)別技術(shù),提取不規(guī)范行為人的信息,進(jìn)行留存。本文人臉識(shí)別方法基于卷積神經(jīng)網(wǎng)絡(luò)[4],針對(duì)小樣本的識(shí)別能夠達(dá)到一個(gè)理想的效果。管理平臺(tái)前端使用react技術(shù)開發(fā),后端使用Java開發(fā),整個(gè)系統(tǒng)采用傳統(tǒng)的MVC架構(gòu),堅(jiān)持“高內(nèi)聚,低耦合”原則,具有良好的實(shí)用性和可維護(hù)性。
實(shí)驗(yàn)的操作系統(tǒng)為Windows 10,Python版本為3.7.0,處理器為Intel Core i7-9750H,GPU為NVIDIA GeForceGTX1660 Ti,內(nèi)存7.9G。本文的數(shù)據(jù)集均為自主采集,本文在校園內(nèi)自主拍攝在公共場(chǎng)合下佩戴安全帽與未佩戴安全帽各種情況下的圖片以及視頻。運(yùn)用可視化圖像標(biāo)注工具,對(duì)人的頭部以及安全帽進(jìn)行標(biāo)注。80%的圖片作為訓(xùn)練集,20%的圖片作為測(cè)試集。訓(xùn)練當(dāng)中,epoch設(shè)置為300,batch_size設(shè)置為64,其他參數(shù)為默認(rèn)。
圖3 識(shí)別結(jié)果部分圖
從表1可以得出結(jié)論,對(duì)于本文挑選的數(shù)據(jù),YOLO v4網(wǎng)絡(luò)無論從精度還是從檢測(cè)的時(shí)間上都要明顯好于其他兩種。YOLO v4 作為一階目標(biāo)檢測(cè)網(wǎng)絡(luò)好于 Faster R-CNN,這方面本文可以從AP和mAP看出,YOLO v4 作為 YOLO 系列的最新檢測(cè)網(wǎng)絡(luò),在此方面表現(xiàn)得較為優(yōu)異,這也是本文選擇其為檢測(cè)網(wǎng)絡(luò)的原因。
表1 實(shí)驗(yàn)效果對(duì)比
本文首先通過機(jī)器人采集數(shù)據(jù),之后利用YOLOv4網(wǎng)絡(luò)進(jìn)行識(shí)別,本文通過訓(xùn)練好的模型來判斷頭部和安全帽的位置,并且判斷兩者是否相交來判斷行為人是否佩戴安全帽。另外,本文通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn)對(duì)于安全帽識(shí)別這一方向,YOLOv4表現(xiàn)得更為優(yōu)秀。然而,在某些遮擋的情況之下,該行為人會(huì)被漏檢。在今后的研究當(dāng)中,將會(huì)在這一方向進(jìn)行深入探討,以便于提升最終的效果。
[1] Chien-Yao Wang,Hong-Yuan Mark Liao. YOLO v4: Optimal Speed and Accuracy of Object Detection[C]// arXiv:2004.10934v1 [cs.CV] 23 Apr 2020.
[2] Chien-Yao Wang,Hong-Yuan Mark Liao,I-Hau Yeh,Yueh-Hua Wu,Ping-Yang Chen,Jun-Wei Hsieh. CSPNET:A NEW BACKBONE THAT CAN ENHANCE LEARNING CAPABILITY OF CNN[C]// arXiv:1911.11929v1 [cs.CV] 27 Nov 2019.
[3] Shu Liu,Lu Qi,Haifang Qin,Jianping Shi,Jiaya Jia. Path Aggregation Network for Instance Segmentation[C]// arXiv:1803.01534v4 [cs.CV] 18 Sep. 2018.
[4]陳耀丹,王連明.基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法[J].東北師大學(xué)報(bào)(自然科學(xué)版),2016,48(02):70-76.
網(wǎng)絡(luò)安全技術(shù)與應(yīng)用2021年10期