摘 要:食品安全與人民群眾的健康密切相關,保障食品安全已成為全世界最受關注的話題。如果沒有正確規(guī)范地佩戴口罩,就會造成飛沫途徑傳播,出現食品衛(wèi)生問題?;诖?,本文提出一種規(guī)范佩戴口罩的檢測方法,將YOLOv8模型進行佩戴口罩檢測,YCrCb模型形成灰度圖,進行規(guī)范佩戴口罩的檢測。最終,結合以上2種模型,提出復雜環(huán)境下關于人臉口罩規(guī)范佩戴的檢測方法,用于加強食品環(huán)境監(jiān)管,保障食品安全,具有重要使用價值和研究意義。
關鍵詞:食品安全;YOLOv8模型;YCrCb模型;規(guī)范佩戴檢測
中圖分類號:TS 207" " " " 文獻標志碼:A
餐飲行業(yè)的衛(wèi)生狀況是保障食品安全的重要環(huán)節(jié),食品加工人員通過規(guī)范佩戴口罩可以有效避免食品加工中通過飛沫傳播而造成的食品污染,保障食品加工過程中的衛(wèi)生安全。但是傳統的人工監(jiān)管方式不僅需要耗費大量的人力、物力,而且存在監(jiān)管不到位的問題。根據人工智能技術對食品加工人員進行監(jiān)管可以減少食品安全部門的工作量、提高監(jiān)管的全面性和有效性。YOLO系列是目標領域知名度最高的算法,也是國際領域較為前沿的算法之一。張麗艷[1](2022)運用與YOLO算法不同的SSD算法進行口罩檢測,為之后的2種算法的性能比對,提供了很好的研究成果。蔣紀威[2](2020)基于深度學習展開了對視頻人臉識別方法的研究,從人臉檢測和識別2個方面進行優(yōu)化。陳政生[3](2021)運用YCrCb閾值分割膚色模型,降低手和遮擋物的錯誤識別。為了提高在復雜情景下辨別是否佩戴口罩的準確率,本文在采用YOLOv8算法的基礎上,結合YCrCb橢圓膚色模型將人臉和口罩合并作為一個檢測目標,提出一種新的YOLOv8-YC模型,將規(guī)范佩戴、未規(guī)范佩戴口罩和未佩戴口罩3種狀態(tài)進行檢測,最終自制口罩識別系統對待測樣本進行研究。
1 算法模型選取
1.1 YOLOv8算法模型
YOLOv8是ultralytics公司在2023年1月10日改進的又一重大版本,它在YOLOv7的基礎上進行優(yōu)化。YOLOv8采用了更深的卷積神經網絡結構,是一種基于卷積神經網絡的目標檢測算法。它將整個圖像作為輸入,直接在圖像上進行目標檢測和定位,而不需要使用滑動窗口或區(qū)域提議,以提高檢測精度和速度。它還引入一些新的技術,例如多尺度訓練和測試、特征金字塔網絡等,以進一步提升檢測性能。同時,它也可以廣泛應用于各種場景,例如智能監(jiān)控、自動駕駛以及人臉識別等。
YOLO系列算法隨著版本的更新迭代,在精度mAP與幀率中均呈遞增式變化。與SSD算法相比,YOLOv8算法不僅精度提高了43.23%,而且?guī)侍岣吡?0.28倍,與之前的目標算法相比,很大程度地提升了性能和準確率,見表1。
綜上所述,通過比較可知,YOLOv8算法能更好地進行目標檢測分析,給本文改進的口罩規(guī)范佩戴檢測系統提供更好的精度和更快的幀率,因此選擇YOLOv8作為本試驗的網絡研究模型。
1.2 YCrCb色彩空間的橢圓膚色模型
1.2.1 YCrCb色彩空間
生活中最常見的色彩空間的是RGB色彩空間。RGB顏色空間又稱為紅綠藍顏色空間,即由紅色、綠色和藍色3種基色合成的所有顏色空間。但是這3種基色不僅表示色調,還受光線變化下亮度的影響。隨著亮度變化,R、G、B三個基色的值也會產生變化,因此,這種色彩空間并不適用于人體視覺感知對物體的判斷。YCrCb將RGB顏色模式分解成亮度(Y)和色度(Cr和Cb)分量,其中Cr和Cb分量代表紅色分量、藍色分量與亮度的差值。與RGB色彩空間相比,YCrCb色彩空間所占用的頻帶寬度也相對較小,可以廣泛應用于數字圖像和視頻的處理。同時,YCrCb色彩空間可以分離出亮度信息和色度信息的特點,具有運算簡便、不受亮度影響以及色彩聚類特性較好的優(yōu)勢。
1.2.2 YCrCb橢圓膚色模型
Hsu.R.L于2002年提出了YCrCb橢圓膚色模型,運用YCrYb色彩空間將亮度信息單獨處理的特點進行膚色檢測,通過將RGB色彩空間轉換為YCrCb色彩空間形成更好色彩聚類,從而進行膚色檢測,圖像模型也由之前的三維的顏色空間轉變成二維。具體轉換公式如公式(1)所示[4]。
(1)
完成了原始圖像在YCrCb色彩空間的映射后,對其中Cr和Cb色度進行一系列非線性變換后可以得到新的YCr'Cb'色彩空間。某個象素點在YCr'Cb'色彩空間中對應的坐標(x,y)如公式(2)所示。
(2)
式中:Cb=109.38,Cy=152.02,θ=2.53(弧度)。
膚色信息在YCr'Cb'色彩空間中會產生聚類現象,生成一個形狀似橢圓的分布模型,即橢圓膚色模型,其計算過程如公式(3)所示。
(3)
其中,ecx=1.60,ecy=2.41,a=25.39,b=14.03。
根據公式(2)求出原始圖片中某個像素點的坐標,將求得的x值和y值代入公式(3)中判斷該像素點是否落在橢圓的區(qū)域內。在橢圓內即為皮膚區(qū)域,不在橢圓內為非皮膚區(qū)域。
2 基于改進的YOLOv8-YC口罩檢測模型
本試驗運用目標檢測模型進行顏色識別的改進后,可以檢測3種佩戴狀態(tài),用于區(qū)分是否正確佩戴口罩。有效解決食品加工場所中人員口罩佩戴實時檢測的問題。在改進后的檢測任務里,口罩檢測任務的精度得到了明顯提升,且判斷依據也進行新的升級,將改進后的算法命名為YOLOv8-YC(YouOnlyLookOnce-YCrCb)。
2.1 口罩檢測數據集
2.1.1 數據集建立
劃分訓練集和測試集,分別將370份‘mask’與375份‘no_mask’共745份劃分為測試集,即“train”;將剩余數據集8420份劃分為訓練集,即“val”,共9165個目標群體進行系統的研究。
2.1.1.1 數據集的標注
使用Labelimg(版本:v1.8.6)標注圖像,生成適合YOLOv8訓練的txt格式的文件,txt文件中標注的‘mask’對應的類別為‘0’,‘no_mask’對應的類別為‘1’。
2.1.1.2 數據集標的物的處理
初步整理好試驗所需的數據集后,發(fā)現人臉數據集中的位置分布不位于圖像中心處,這給YOLOv8-YC模型的檢測增加了難度;因此,試驗選擇了聚類算法進行標的物聚類,這樣可以可視化解決標的物分布不均,導致結果不準確的問題。
2.2 模型的構建與評估
2.2.1 構建說明
目標檢測也稱為目標提取,是一種基于目標幾何和統計特征的圖像分割,輸出目標信息以及目標物體的具體定位。
YOLOv8-YC是一種基于卷積神經網絡的目標檢測算法,結合色彩空間和膚色模型,為圖像分割和圖像識別帶來了絕佳選擇。
YOLOv8-YC算法由以下3個部分組成。①Backbone(主干網絡)——特征提取。②neck——特征融合。③head——結果輸出。
2.2.2 模型評估
試驗采用目標檢測任務中的評價指標來測試整體性能:P(Positive)表示目前預測這個行為是佩戴口罩;N(Negative)表示目前預測這個行為是不佩戴口罩;T(True)表示預測正確;F()表示預測錯誤混淆矩陣見表2。
由表2可以計算的指標如公式(1)~公式(5)所示[5]。
(1)
(2)
(3)
Loss=λ1Lbox+λ1Lobj+λ1Lcls " (4)
(5)
式中:Recall表示正確類別并被正確預測的概率;Precision表示實際模型中正確樣本數的百分比;Accuracy表示預測結果正確的數量占樣本總數;Loss表示用來估量模型預測值與真實值不一致的程度。
3 模型運行實現
3.1 模型設計
將YOLOv8算法與YCrCb模型改進為YOLOv8-YC口罩檢測模型,通過Socket通信后,樹莓派4B與服務管理器實現了信息傳輸,符合要求的照片經攝像頭拍攝,運用YOLOv8-YC模型進行圖像預處理、特征提取、識別分類等檢測,對檢測通過的目標群體予以持續(xù)檢測或門口放行;對不佩戴口罩和不規(guī)范佩戴口罩的目標群體播報警報語音或進行放行攔截(舵機可用于隨時拆卸,試具體情況而定),如圖1所示。其次,在構建模型權重的基礎上制定初始化模型,并依據目標物體的距離,設定NMS偽距離閾值,為符合最小距離的目標物體進行拍照,記錄是否存在員工擅自離職的現象。本次試驗環(huán)境主要使用Windows為操作系統,使用Anaconda3 為PyCharm Version2019.3.3的安裝建立虛擬環(huán)境,同時并入SGD優(yōu)化算法,對樣本和標簽進行參數更新以及運行速度的迭代優(yōu)化,使用PyTorch框架用于儲存計算進行中的數據。最終實現在食品加工、生產、銷售環(huán)節(jié),員工實時按照規(guī)定規(guī)范佩戴口罩的目標,降低食品被污染的風險。
3.2 YOLOv8-YC模型檢測結果
基于改進的YOLOv8-YC模型在測試集上得到的結果,如圖2所示。
整體目標群體正臉及側臉的識別都較為準確,且精確值較高,對于目標群體3種口罩佩戴情況的識別效果理想。
4 結論
傳統YOLOV8模型只有“佩戴口罩”和“未佩戴口罩”兩種狀態(tài),本試驗基于YOLOv8目標檢測算法對食品加工人員是否佩戴口罩進行識別,結合YCrCb模型進行色度劃分來檢測對食品加工人員是否規(guī)范佩戴口罩,設計了一套新的YOLOv8-YC模型,從而得出“規(guī)范佩戴口罩”、“未規(guī)范佩戴口罩”和“未佩戴口罩”3種狀態(tài)。最終的試驗結果顯示:YOLOv8-YC能夠更精確地對口罩佩戴情況進行判斷,同時提高了人臉口罩檢測和人臉口罩規(guī)范佩戴檢測的速度和精確度,為檢測食品加工人員實時規(guī)范佩戴口罩提供了一種可行的方法,具有重要的現實參考意義。
參考文獻
[1]張麗艷,趙藝璇,李林.一種基于樹莓派的口罩自動檢測裝置[J].大連交通大學學報,2022(1):111-114.
[2]蔣紀威.基于深度學習的視頻人臉識別方法研究[D].青島:山東科技大學,2020.
[3]陳政生.基于深度學習的口罩佩戴檢測方法研究[D].武漢:華中師范大學,2021.
[4]邱鵬瑞.基于YCbCr膚色模型改進算法及區(qū)域特征的人臉檢測研究[J].計算機與現代化,2012(4):179-182,187.
[5]周志華.機器學習[M].北京:清華大學出版社,2018:28-35.