丁 玲,繆小然,胡建峰,趙作鵬,張新建
1.江蘇聯(lián)合職業(yè)技術(shù)學院徐州財經(jīng)分院,江蘇 徐州 221116
2.中國礦業(yè)大學計算機科學與技術(shù)學院,江蘇 徐州 221116
3.河南龍宇能源股份有限公司陳四樓煤礦,河南 永城 476600
根據(jù)相關技術(shù)標準和安全法規(guī),安全帽佩戴時必須按頭圍的大小調(diào)整帽箍并系緊帽帶,在監(jiān)督檢查中發(fā)現(xiàn)戴安全帽不系帽帶的行為時,可以責令立即消除隱患。這是因為不系帽帶,安全帽等于沒戴。在統(tǒng)計的多起死亡事故中,受害者雖戴了安全帽,但未系好帽帶,最終被物體打擊或頭部撞擊地面致死。安全帽是保護礦工免受墜物撞擊的有效個人防護用品之一,在井下規(guī)范佩戴安全帽也是企業(yè)進行安全生產(chǎn)的必然要求[1]。然而,由于佩戴安全帽的不適感和礦工薄弱的安全意識,經(jīng)常出現(xiàn)脫帽或不規(guī)范佩戴的情況,從而導致事故發(fā)生。此外,作為高危作業(yè)環(huán)境的煤礦井下,佩戴安全帽且是否系帽帶對其安全至關重要[2]。傳統(tǒng)的安全帽佩戴檢查主要包括人工巡視和對監(jiān)控圖像的檢查[3],需要耗費大量的時間和人力,效果不佳。近年來計算機視覺技術(shù)廣泛應用于諸多領域[4],基于AⅠ方法的安全帽帽帶檢測,是解決上述問題的有效方法[5-6]。
安全帽及帽帶檢測屬于目標檢測的范疇,目標檢測分為兩階段檢測和單階段檢測。在兩階段檢測系列中,Girshick等人[7-8]和Ren等人[9]提出區(qū)域卷積神經(jīng)網(wǎng)絡(RCNN)、快速區(qū)域卷積神經(jīng)網(wǎng)絡(Fast R-CNN)和超快區(qū)域卷積神經(jīng)網(wǎng)絡(Faster R-CNN)等一系列檢測器,在準確率和速度上均有極大提升。與此同時,以YOLO 系列[10]為代表的單階段檢測器雖然在準確率上不如兩階段檢測器,但在速度上有了很大提升。Tan 等人[11]在EfficientNet的基礎上提升了訓練速度,提出了參數(shù)量更少的卷積神經(jīng)網(wǎng)絡。由于Transformer在自然語言處理方向取得的成就,越來越多的學者將其應用到計算機視覺領域。Zhu等人[12]在DETR的基礎上提出了RT-DETR,做到了端到端的實時檢測。
基于卷積神經(jīng)網(wǎng)絡的檢測方法極大促進了安全帽佩戴檢測的發(fā)展,兩階段檢測首先被用于檢測安全帽的佩戴。Gu 等人[13]使用多尺度訓練、增加錨點等策略來改進Faster R-CNN,安全帽的檢測精度最終比原來的算法提高了7%,但卻需要大約0.2 s 的時間來檢測一個圖像,這無法滿足實時性要求。最近,越來越多的研究人員選擇單階段檢測來完成安全帽檢測任務。王建波等人[14]在YOLOv4 的基礎上提出了一種輕量級特征融合結(jié)構(gòu),緩解特征融合部分的語義混淆問題,有效地提升了模型提取特征的能力。宋曉鳳等人[15]提出了一種融合特征環(huán)境與改進YOLOv5的安全帽佩戴檢測方法,能較好的檢測到安全帽這一小目標。王玲敏等人[16]在YOLOv5的基礎上引入注意力機制,并將原始的FPN結(jié)構(gòu)更換為BiFPN,很好地提高了精度。Zhao 等人[17]在YOLOX的基礎上提出了一種新的標簽分配策略來有效地定義了正負樣本并設計了新的損失函數(shù),將精度提升了2.3%。
現(xiàn)有研究基本上都是面向安全帽檢測,缺乏對帽帶的規(guī)范性佩戴檢測研究。同時,由于礦井下低照度、高粉塵、強光擾,現(xiàn)有的檢測算法無法適用于煤礦井下特殊的檢測環(huán)境。智能化安全管控,需要跟蹤不佩戴或未規(guī)范佩戴安全帽的人員。針對上述問題,本文提出了一種結(jié)合了改進YOLOv8s 與DeepSORT 的礦工帽帶檢測及人員跟蹤的綜合解決方案。在YOLOv8s 的基礎上,通過引入高分辨率的特征圖和級聯(lián)查詢機制,能在不增加額外計算負擔的情況下,實現(xiàn)對安全帽及其帶子這類小物體的精準檢測,有效提高了模型對于井下工作人員頭部小區(qū)域特征的感知能力,極大地增強了算法在復雜背景下的識別準確性。同時,對DeepSORT算法的改進進一步增強了目標追蹤的穩(wěn)定性和準確性。通過在追蹤算法中集成更深層次的卷積網(wǎng)絡,以替代原有的小型殘差網(wǎng)絡,能夠更有效地提取和利用目標的外觀信息。這種深層特征的應用顯著提升了算法在面對人員快速移動、遮擋變化等挑戰(zhàn)時的追蹤連續(xù)性和魯棒性。實驗結(jié)果表明,改進后的模型不僅提高了對礦工安全帽帶是否規(guī)范佩戴的檢測能力,而且增強了對未規(guī)范佩戴人員的追蹤效率,顯著地提升了整個監(jiān)控系統(tǒng)的性能,為礦井安全管理提供了一個切實可行的技術(shù)支持,進而有助于更有效地預防安全事故的發(fā)生。
針對現(xiàn)有檢測方法通常無法更進一步地檢測安全帽是否佩戴規(guī)范等問題,設計了一個智能識別和跟蹤系統(tǒng)。整體框架圖如圖1所示。首先,使用改進YOLOv8s作為檢測器提取特征信息,得到每個目標幀的定位信息、分類信息和置信度。然后將檢測結(jié)果輸入DeepSORT,通過卡爾曼濾波預測模塊獲得先驗預測軌跡,再利用匈牙利算法計算當前幀的檢測結(jié)果和預測軌跡之間的匹配度。最后,錯誤的軌跡被刪除,修正后的軌跡由卡爾曼濾波更新模塊更新,實現(xiàn)對沒有規(guī)范佩戴安全帽人員的跟蹤。
圖1 整體流程圖Fig.1 Overall frame diagram
步驟1將視頻輸入改進YOLOv8s 檢測器,檢測后得到三種類型的檢測框:人、安全帽、帽帶。不戴安全帽與戴安全帽未系帽帶的檢測框是兩個不同的類別。然后計算檢測框的中心坐標、長寬比、高度以及它們各自在圖像坐標中的速度。
步驟2卡爾曼濾波將獲得的中心坐標、長寬比、高度和它們各自的速度作為對物體的直接觀察,并計算出預測的目標位置。若當前幀的檢測結(jié)果與卡爾曼濾波的預測結(jié)果相匹配,卡爾曼濾波器會更新軌跡,進入下一幀的目標跟蹤。
步驟3當檢測失敗時,會出現(xiàn)軌跡沒有匹配檢測結(jié)果的情況;當出現(xiàn)新目標時,會出現(xiàn)檢測結(jié)果沒有匹配軌跡的情況,這兩種情況都會導致匹配失敗。計算出的ⅠoU對預測框和檢測框進行第二次匹配,卡爾曼濾波器在第二次匹配成功后更新軌道。
步驟4為再次匹配失敗的檢測框建立新的軌道,并將其標記為未確認軌道。當未確認軌道能成功匹配三次時,就修改為確認軌道,并重復步驟2~3。對再次匹配失敗的預測框的狀態(tài)進行判斷,以確定該軌道是被保留還是被刪除。如果該軌道被標記為未確認的,它將被刪除。如果該軌道被標記為確認的,并且在有效期內(nèi)匹配失敗,它將被刪除。否則,該軌道將被保留,并重復步驟1~3。
在卷積神經(jīng)網(wǎng)絡中,高層次特征圖通常具有更加抽象的信息,對目標的位置信息更為敏感;低層次特征圖具有更高的空間分辨率,對細節(jié)信息表述得更為清晰。由于小物體通常在空間中分布稀疏,在高分辨率特征圖上的密集計算范式是非常低效的。因此借鑒級聯(lián)策略的思想,提出一種由高到低的方法來減少計算成本,首先在高層次特征圖上預測小物體的粗略位置,然后計算低層次特征圖上的具體位置。如圖2,首先找到高層次特征圖上的粗略位置,再自頂向下定位到高分辨率特征中的小物體。
圖2 小物體查詢機制Fig.2 Small object search mechanism
如圖3所示,在解耦頭部分新增一個與分類和回歸頭平行的查詢頭,用于預測小物體的粗略位置。查詢頭使用特征圖Pl作為輸入,并輸入熱力圖Vl∈?H′×W′,表示網(wǎng)格(i,j)中包含一個小物體的概率。在訓練過程中,預先設定閾值sl,每一層小于sl的目標被定義為小物體。對于小物體o,通過計算其中心位置(xo,yo)與特征圖各個位置之間的距離來編碼查詢頭的目標圖,并將距離小于sl的位置設置為1,否則為0。在推理過程中,只查詢預測分數(shù)大于閾值σ的位置,然后將映射到上四個鄰近位置作為關鍵位置,定義如下:
圖3 解耦頭部分新增查詢頭Fig.3 New search head in decoupled head
pl-1上的所有集合起來形成關鍵位置集,然后三個解耦頭只處理小物體的位置信息并用于下一級的查詢。具體來說,從pl-1中提取特征并構(gòu)建稀疏張量,然后利用稀疏卷積計算第l-1層的結(jié)果。從單一的Pl生成查詢{ql} 會導致在查詢過程中隨著l的減少,相應的關鍵位置kl的大小呈指數(shù)級增長。所以采用級聯(lián)的策略來查詢,能最大限度地提高推理速度。例如,Pl-2的查詢只會從{kl-1} 產(chǎn)生。
分類頭和回歸頭的訓練與原始YOLOv8s相同。使用FocalLoss 來訓練查詢頭:令在Pl上的小物體為,首先計算Pl上特征位置(x,y)與所有小物體中心點的最小距離Dl:
因此,查詢圖V*l:
對于每一層Pl,損失函數(shù)定義如下:
其中,Ul、Rl、Vl分別為分類、回歸和查詢的輸出,、為對應的真實值,LFL為focal loss,Lγ為邊界框回歸損失。
原始YOLOv8s 通過3 個不同尺度的檢測層可以針對性的預測大、中、小目標,但由于安全帽帽帶更加微小,YOLOv8s并不能滿足檢測需求。因此,有必要增加一個高分辨率檢測層來負責帽帶的檢測。如圖4所示,在CM-YOLOv8s模型中,640×640大小的輸入圖像分別經(jīng)過4 倍、8 倍、16 倍和32 倍的下采樣。在前向推斷的過程中,4個檢測層分別輸出預測信息,包括預測框的中心點坐標(x,y)、寬度w、高度h和置信度參數(shù)c,通過與標簽信息進行比對,計算預測值與真實值之間的損失,進而指導反向傳播中參數(shù)的調(diào)整,從而在反復訓練的過程中優(yōu)化模型性能,整個損失公式如下:
圖4 改進CM-YOLOv8框架圖Fig.4 Ⅰmproved CM-YOLOv8 framework
由于加入P2這樣的高分辨率特征,訓練樣本會發(fā)生明顯的變化,所以使用βl重新平衡每一層的損失。P2上訓練樣本的總數(shù)甚至比P3到P7的訓練樣本總數(shù)都要大,如果不降低高分辨率特征層的權(quán)重,訓練就會被小目標所主導。所以需要重新平衡不同層的損失,使模型同時從所有層學習。
用于提取外觀特征的方法通?;谝粋€簡單的網(wǎng)絡結(jié)構(gòu),該結(jié)構(gòu)由兩層卷積網(wǎng)絡和六個殘差單元組成的深度堆疊殘差網(wǎng)絡構(gòu)成。盡管在通用數(shù)據(jù)集上,這種網(wǎng)絡模型能夠取得優(yōu)異的效果,但在光照不均、煙塵較多的井下環(huán)境下,其在追蹤井下作業(yè)人員的能力就顯得有限。鑒于此,本文引入了一種新的特征提取架構(gòu),即一次性聚合架構(gòu)(OSA),以取代DeepSORT原有的深度堆疊殘差塊。這種新架構(gòu)旨在在增強特征提取效率的同時,減少了對重復特征處理和存儲的需求,從而提高了系統(tǒng)性能。相應的一次性聚合架構(gòu)的示意圖如圖5所示。
圖5 OSA結(jié)構(gòu)Fig5 OSA structure
在更新外觀狀態(tài)的過程中,采取了基于指數(shù)加權(quán)移動平均的策略來刷新第t幀中第i個目標軌跡的外觀特征。
其中,代表表示第t幀中第i個目標軌跡的外觀特征嵌入,α代表動量因子。
2.1.1 數(shù)據(jù)集
目前大多安全帽數(shù)據(jù)集場景為工地,煤礦井下工況的公開數(shù)據(jù)集不多。為了解決這一問題,利用Opencv從井下監(jiān)控視頻中截取圖像,得到10 885幅不同角度的圖像,并使用標注工具labelⅠmg 對每個圖像進行標注。將得到的數(shù)據(jù)集按照特定比例分為訓練集和測試集如表1所示。在最后的10 885幅圖像數(shù)據(jù)集中,訓練集中的樣樣本數(shù)為9 371,測試集中的樣本數(shù)為1 514。
表1 訓練集、測試集比例Table 1 Proportion of training set and test set
2.1.2 實驗環(huán)境
本文的實驗在Windows11上執(zhí)行,安裝了Pytorch1.10.2、Python3.9 和Cuda11.3,訓練和測試是在CPU:Ⅰntel?CoreTMi5-10600KF,4.10 GHz;GPU:NVⅠDⅠA RTX3090,24 GB 顯存上執(zhí)行的。所有程序都用Python3.9 實現(xiàn),CUDA 和CuDNN 被用于GPU 計算,OpenCV 被用于圖像顯示和處理。
2.1.3 評估指標
(1)目標檢測評價指標:
本研究通過計算模型的精度召回率、mAP、F1-score、和FPS 來評估系統(tǒng)性能,以分析模型性能。這些計算公式如下。
式(7)和(8)中,真陽性(TP)樣品的ⅠOU大于某個閾值,負樣本是ⅠOU 小于特定閾值的假陽性(FP)樣本,F(xiàn)N是假陰性示例,這意味著模型對負類的預測不準確。式(9)中,mAP 是所有類別中AP 的平均值,它表示模型在類檢測中的整體性能。式(10)中,F(xiàn)1 分數(shù)通過計算分類器的調(diào)和平均值來組合分類器的精度和召回率。
(2)跟蹤算法評價指標:
在多目標跟蹤系統(tǒng)中,編碼變換次數(shù)(ⅠDS)衡量的是跟蹤過程中目標的標識編號發(fā)生更改和遺失的頻率。該指標的數(shù)值較低意味著跟蹤的連續(xù)性和準確性較高。另一個關鍵指標是多目標跟蹤準確率(MOTA),它反映了系統(tǒng)在整個跟蹤周期內(nèi)對目標數(shù)量的識別準確性以及誤差的累積情況,該指標通過公式(11)進行定義:
其中,Mm代表漏檢率,Mf代表誤檢率,IDS 代表編碼轉(zhuǎn)換次數(shù),GTt代表目標數(shù)量。
多目標跟蹤精度(MOTP)是用來評估多目標跟蹤系統(tǒng)定位精度的指標。它計算的是系統(tǒng)跟蹤到的目標位置與實際目標位置之間的平均誤差,通常以像素為單位。這個度量標準關注的是目標位置預測的準確性,而不是識別目標的準確性。MOTP的值越高,說明跟蹤到的目標位置越接近于真實值,因此系統(tǒng)的定位能力越精確。
從數(shù)據(jù)集中共選取了1 082 張圖像進行測試,繪制了不同對比模型在不同類別下的P-R曲線,曲線與X軸(precision)和Y軸(recall)所圍成的面積記為平均精度,面積越大代表模型性能越好,具體指標結(jié)果如圖6 所示,并對性能指標值進行了比較,見表2。結(jié)合表2 和圖6分析得知,F(xiàn)aster R-CNN對井下安全帽佩戴情況有一定的檢測能力,相對于單階段檢測算法而言,雖然實時性遠不能達到工業(yè)需求,但在多數(shù)場景下各類預測框的定位和大小正確且類別判斷基本無誤。這證明了輸入端圖像分辨大小確實能影響模型的檢測性能,特征圖分辨率越大,檢測小物體的性能越強。YOLO系列算法相較于Faster R-CNN,各項指標均有一定程度的提升,其中檢測速度最為顯著,但漏檢與誤檢的情況嚴重,無法滿足對帽帶這一小目標在檢測中對準確率的要求。
表2 不同模型對比結(jié)果Table 2 Comparison results of different models
圖6 不同模型P-R的曲線Fig.6 Curves of Precision-Recall for different models
而本文提出的CM-YOLOv8s對安全帽有更好的檢測能力并能檢測出帽帶佩戴情況,相比于Faster R-CNN、YOLOv3_Wu[18]、YOLOv5_Song[19]、YOLOv7和YOLOv8s,mAP分別提升了17.3個百分點、13.5個百分點、6.7個百分點、5.8 個百分點和1.3 個百分點,且該算法預測框的大小和位置分布更加準確,對于其他算法均存在的漏檢和誤檢問題也能較好改善。由于引入了更高分辨的特征圖會消耗一定的計算時間,相較于YOLOv5s,模型檢測速度雖有所減慢,但仍是Faster R-CNN 的6 倍,YOLOv3的1.6倍,EfficientNetV2的1.4 倍,可以滿足實時性的需求。此外,模型參數(shù)量僅為Faster R-CNN的1/3,YOLOv3 的1/6,RT-DETR 的1/5,YOLOv5 的1/4,易嵌入巡檢機器人等小型設備。
對不同算法的檢測效果進行可視化分析,見圖7。前兩列為光線較好的場景,后面兩列分別為井下高粉塵、強光擾的情況。從圖7 可以看出:圖像質(zhì)量較好時,由于目標較小、目標與護欄之間邊緣細節(jié)特征的不準確,導致其他算法均存在漏檢與誤檢,只有CM-YOLOv8s算法能夠準確地檢測所有目標,且擁有更低的漏檢率。而當環(huán)境存在視覺干擾,如高濃度的粉塵、濃密的水霧或其他顆粒物時,其余算法的檢測效果急劇下降。只有CM-YOLOv8s 算法能憑借先進的特征學習技術(shù),準確地檢測出礦工與安全帽。綜合各項實驗指標來看,CMYOLOv8算法可以較好地平衡檢測速度與精度,略微降低檢測速度,但顯著地提升了檢測精度,并能夠滿足目標檢測的實時性需求,更加適用于井下安全帽規(guī)范佩戴的檢測任務。
圖7 不同模型檢測安全帽佩戴效果Fig.7 Different models to test effectiveness of helmet wear
進行消融實驗研究以分析并驗證每個改進模塊如何影響檢測精度和速度。如表3所示,當加入高分辨率特征圖P2(策略1)時,精度雖然得到了一定的提升,但是FPS卻降至23,這恰恰證明了引入高分辨率特征圖雖然能實現(xiàn)對小物體更好的檢測,但所帶來巨大的計算成本是不可避免的。在解耦頭新增一個并行的查詢頭(策略2)能顯著提高精度,驗證了額外目標監(jiān)督的有效性。最后,通過級聯(lián)查詢策略(策略3),檢測速度從23 FPS提升到93 FPS,顯著提高了檢測速度。
表3 消融實驗Table 3 Ablation experiment
為了驗證本文算法在井下人員多目標跟蹤方面的表現(xiàn),使用原算法的參數(shù)設置在自建數(shù)據(jù)集上進行驗證,對檢測及跟蹤進行組合消融實驗以驗證有效性,結(jié)果如表4所示。
表4 多目標跟蹤結(jié)果對比Table 4 Comparison of multi-target tracking results
表4展示了井下人員多目標跟蹤結(jié)果的比較。從表中可以看出,采用改進算法的YOLOv8s-DeepSORT 系統(tǒng)在多目標跟蹤準確率(MOTA)和多目標跟蹤精度(MOTP)上都有所提升。原始的YOLOv8s-DeepSORT算法MOTA為78.91%,而改進后最高可達85.37%,顯示出明顯的性能提高。同樣,MOTP從79.31%提升至84.94%。編碼變換次數(shù)(ⅠDS)也有顯著下降,從10次減少到5次,減少了一半,這表明跟蹤的穩(wěn)定性得到了增強。每秒處理幀數(shù)(FPS)的增加表明,改進后的算法在保持較高跟蹤準確率的同時,還提高了處理速度??偟膩碚f,改進措施顯著提高了井下多目標跟蹤的效率和準確性。
此外,為了進一步驗證上節(jié)所提目標檢測算法的有效性,使用不同的目標檢測算法結(jié)果作為DeepSORT的輸入,實驗結(jié)果如表5所示。
表5 不同檢測方法對多目標跟蹤效果的影響Table 5 Ⅰmpact of different detection methods on multi-target tracking performance
帽帶檢測方法的性能一定程度上決定了跟蹤任務的效果。如表5所示,各種檢測方法在多目標跟蹤準確率(MOTA)、多目標跟蹤精度(MOTP)、ⅠD 切換次數(shù)(ⅠDS)和每秒幀數(shù)(FPS)上的表現(xiàn)均有所不同。其中,CM-YOLOv8s在MOTA和MOTP上都展現(xiàn)了最高的精度,分別達到85.37%和84.94%,這意味著它在檢測和定位安全帽的準確性上都表現(xiàn)得非常出色。此外,CMYOLOv8s 的ⅠD 切換次數(shù)僅為5,是所有比較方法中最低的,說明其在跟蹤過程中的連續(xù)性和穩(wěn)定性都非常好。FPS 值為59,表明CM-YOLOv8s 在實時性上的表現(xiàn)也非常優(yōu)秀。綜上所述,CM-YOLOv8s 在安全帽帽帶檢測和對異常人員跟蹤任務上均展現(xiàn)出了明顯的優(yōu)越性。
為了更加直觀地展示本文跟蹤算法的效果,本文將算法應用到陳四樓煤礦實際場景中,并在自建井下安全帽數(shù)據(jù)集上對礦工的安全帽佩戴進行檢測。
如圖8 所示,主控界面采用BS 架構(gòu),由JAVA 語言編寫。監(jiān)測人員通過主控界面實時及歷史數(shù)據(jù)對工作面作業(yè)人數(shù)是否正確佩戴安全帽進行判斷。
圖8 主控界面檢測圖Fig.8 Main control interface detection diagram
圖9 展示了井下實際應用中的多目標跟蹤結(jié)果。從第一欄圖片可以觀察到,在井下光照良好的環(huán)境中,檢測出作業(yè)人員佩戴安全帽的情況,對于未規(guī)范佩戴安全帽人員,在其持續(xù)行走一段距離后,仍能準確匹配序號。從第二欄圖片可以觀察到,當圖像質(zhì)量不佳,本文所提出的算法仍可以較好地檢測出作業(yè)人員佩戴安全帽的情況,能夠進行穩(wěn)定的檢測跟蹤并且其編號沒有發(fā)生改變,也能夠證明本文改進的算法在復雜環(huán)境中具有良好的魯棒性。
圖9 多目標跟蹤效果Fig.9 Multi-target tracking effect
本文提出了一種改進YOLOv8s 和DeepSORT 的井下人員安全帽帽帶檢測及人員跟蹤算法。在YOLOv8s模型的基礎上,引入更高分辨率的特征圖并新增了一種級聯(lián)查詢機制,在不提高計算成本的前提下能完成對小目標更精準的檢測。跟蹤階段使用更深層卷積強化了DeepSORT 的外觀信息提取能力。利用自建安全帽檢測及跟蹤數(shù)據(jù)集對本文算法進行驗證。結(jié)果表明,本文安全帽規(guī)范佩戴檢測算法的準確率達到了96%,檢測速率達到每幀0.019 s。多目標跟蹤算法準確率提高到了85.37%,目標編號改變次數(shù)降低了50%,并且擁有良好的實時性。本文構(gòu)建的改進YOLOv8s 和DeepSORT 的安全帽佩戴檢測與跟蹤算法能夠?qū)崿F(xiàn)在井下復雜環(huán)境中對未規(guī)范佩戴安全帽作業(yè)人員的實時檢測及跟蹤,其參數(shù)量也縮減到原來的23%,不僅可以部署于煤礦監(jiān)控系統(tǒng),未來也可以部署在井下巡檢機器人等小型嵌入式設備上,可以為井下人員的安全生產(chǎn)提供良好的保障。