李春華,王玲玲,左 珺,付睿智
(1.河北科技大學(xué)文法學(xué)院,河北石家莊 050018; 2.河北科技大學(xué)信息科學(xué)與工程學(xué)院,河北石家莊 050018;3.河北工業(yè)職業(yè)大學(xué)工商管理系, 河北石家莊 050091)
隨著人口老齡化趨勢(shì)的日益加劇,老年群體的健康問題備受關(guān)注。跌倒是造成老年人傷害甚至死亡的重要原因,不僅會(huì)給老人自身帶來痛苦和困擾,還給家庭、社會(huì)和國(guó)家?guī)砹嗽S多影響[1]。為了應(yīng)對(duì)處置這些危險(xiǎn),需要進(jìn)行快速準(zhǔn)確的跌倒檢測(cè)。
近年來,隨著深度學(xué)習(xí)[2]的發(fā)展,目標(biāo)檢測(cè)算法取得了重大進(jìn)展?,F(xiàn)有算法可以分為二階段(two-stage)檢測(cè)算法和一階段(one-stage)檢測(cè)算法2類[3]。二階段檢測(cè)算法需要先通過CNN(convolutional neural networks)[4]網(wǎng)絡(luò)等方法錨定候選區(qū)域(region proposal)[5],再在候選區(qū)域上進(jìn)行分類與回歸。一階段檢測(cè)算法有SSD(single shot multibox detector)[6],YOLO(you only look once)[7]等,可以僅使用一個(gè)CNN網(wǎng)絡(luò)直接預(yù)測(cè)不同目標(biāo)的類別與位置,經(jīng)過單次檢測(cè)得到最終的檢測(cè)結(jié)果。其中YOLO算法提供end-to-end的檢測(cè),即一端輸入原始數(shù)據(jù)一端輸出最后的結(jié)果,檢測(cè)速度更快,能實(shí)時(shí)檢測(cè)跌倒行為,快速響應(yīng),降低跌倒帶來的損害。由于跌倒行為在不同的環(huán)境和姿勢(shì)下呈現(xiàn)出多樣性,YOLO算法可能會(huì)受到這些變化的影響,導(dǎo)致檢測(cè)結(jié)果的不穩(wěn)定性和不準(zhǔn)確性。
針對(duì)上述問題,提出一種實(shí)時(shí)準(zhǔn)確的跌倒檢測(cè)算法,在YOLOv5算法[8]基礎(chǔ)上引入改進(jìn)的RepVGG模塊,以提高檢測(cè)特征的可靠性,采用K-Means++算法聚類優(yōu)化訓(xùn)練數(shù)據(jù)集,以增強(qiáng)分類特征的顯著性。
YOLOv5網(wǎng)絡(luò)模仿人體大腦對(duì)數(shù)據(jù)進(jìn)行學(xué)習(xí)和分析的過程,通過人工智能網(wǎng)絡(luò)訓(xùn)練,自動(dòng)提取行為特征,得到模型分類最佳的權(quán)重,高效分類跌倒行為和非跌倒行為。在YOLOv5算法中,YOLOv5s模型相對(duì)較小,具有參數(shù)少和計(jì)算量低、檢測(cè)速度更快的優(yōu)勢(shì),所以能夠在資源受限的移動(dòng)設(shè)備上高效運(yùn)行,以高精度和低成本實(shí)現(xiàn)目標(biāo)檢測(cè)任務(wù)[9]。改進(jìn)算法以YOLOv5s為基礎(chǔ)模型并對(duì)其進(jìn)行改進(jìn),算法框架如圖1所示。首先,對(duì)原始圖像進(jìn)行填充、自適應(yīng)錨框預(yù)處理等;然后,經(jīng)過主干網(wǎng)絡(luò)的Focus結(jié)構(gòu)和C3卷積網(wǎng)絡(luò)進(jìn)行行為特征提取;再次,基于SPP結(jié)構(gòu)生成分類特征,將Neck頸部層PAN+ FPN[10]的網(wǎng)絡(luò)結(jié)構(gòu)與C3_1×N進(jìn)行特征融合后,在網(wǎng)絡(luò)輸出端預(yù)測(cè)跌倒行為是否發(fā)生;最后,篩選出目標(biāo)框,輸出跌倒檢測(cè)結(jié)果圖像。
YOLOv5s的網(wǎng)絡(luò)結(jié)構(gòu)主要分為輸入端、Backbone主干網(wǎng)絡(luò)、Neck頸部層、Prediction預(yù)測(cè)層4個(gè)部分。其中Backbone主干網(wǎng)絡(luò)又包括Focus,C3和SPP(spatial pyramid pooling)3個(gè)模塊[11]。Focus模塊實(shí)現(xiàn)了自我復(fù)制和切片操作,以減少計(jì)算量和加快特征提取的速度,它通過將輸入圖像分割成4個(gè)較小的圖像塊,并將它們連接在一起,形成了一個(gè)更深的特征圖。在C3模塊中,通過卷積、歸一化和激活操作對(duì)輸入圖像進(jìn)行處理,其中使用了CSP(cross stage partial)殘差結(jié)構(gòu)來優(yōu)化網(wǎng)絡(luò)中的梯度信息,并減少推理的計(jì)算量,從而加快網(wǎng)絡(luò)的計(jì)算速度[12]。CSP結(jié)構(gòu)將特征圖分成2部分,其中一部分進(jìn)行卷積操作,另一部分直接與卷積結(jié)果相加,以增強(qiáng)特征的表示能力。SPP模塊用于解決輸入圖像尺寸不統(tǒng)一的問題[13],通過對(duì)輸入特征圖進(jìn)行空間金字塔池化操作,將不同尺度的特征圖轉(zhuǎn)換為相同尺度的特征圖,增強(qiáng)目標(biāo)檢測(cè)的能力。頸部層位于主干網(wǎng)絡(luò)和預(yù)測(cè)層之間,主要負(fù)責(zé)特征融合。YOLOv5s使用了PAN(path aggregation network)和FPN(feature pyramid network)的結(jié)構(gòu)來融合不同層次的特征圖,這種融合方式有助于綜合不同層次的特征信息,提高目標(biāo)檢測(cè)的精度和魯棒性。預(yù)測(cè)層是YOLOv5s的最后一部分,它分別在網(wǎng)絡(luò)的第18層、21層和24層作為輸出端進(jìn)行預(yù)測(cè),這些預(yù)測(cè)層會(huì)產(chǎn)生大量的預(yù)測(cè)框,并通過非極大值抑制(NMS)[14]篩選目標(biāo)框。
復(fù)雜應(yīng)用場(chǎng)景下,傳統(tǒng)的YOLOv5模型易出現(xiàn)漏檢和錯(cuò)檢的問題,檢測(cè)精度不高。在YOLOv5s模型的基礎(chǔ)上,一方面在Backbone主干網(wǎng)絡(luò)添加RepVGGs模塊,以便增強(qiáng)目標(biāo)特征提取能力,降低復(fù)雜背景的干擾;另一方面改進(jìn)損失函數(shù),實(shí)現(xiàn)對(duì)High IoU(high intersection over union)目標(biāo)高精度的回歸。改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
圖2 改進(jìn)后的YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Improved YOLOv5s network architecture
1.2.1 引入RepVGGs模塊
RepVGGs[15]是一種簡(jiǎn)單而有效的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),RepVGG模塊如圖3所示。它的主要特點(diǎn)是采用了重復(fù)使用的塊結(jié)構(gòu),其中每塊由一個(gè)或多個(gè)3×3卷積層和ReLU激活函數(shù)組成。每個(gè)塊與一個(gè)1×1卷積層并行處理,用于調(diào)整通道數(shù)。通過這樣的設(shè)計(jì),RepVGG塊可以在保持較少參數(shù)的同時(shí),提供更豐富的特征表示能力。RepVGG還引入了一種與ResNet[16]類似的設(shè)計(jì)思想,即引入shortcut連接。這些shortcut連接通過跳躍連接的方式,將輸入直接連接到輸出,能夠捕獲更豐富的特征。這種設(shè)計(jì)使得RepVGG可以在更深的層次上學(xué)習(xí)和利用信息,增強(qiáng)了模型的表示能力,特別適用于在GPU和專用推理芯片上進(jìn)行高效的目標(biāo)識(shí)別和分類任務(wù)。
圖3 RepVGG模塊示意圖Fig.3 Schematic diagram of RepVGG module
RepVGG采用的ReLU激活函數(shù)可能出現(xiàn)梯度消失的問題,導(dǎo)致在訓(xùn)練過程中無法進(jìn)行有效的權(quán)重更新。因此提出的算法在RepVGG的基礎(chǔ)上進(jìn)行改進(jìn),使用SiLU激活函數(shù)代替ReLU函數(shù),如圖4所示。
圖4 改進(jìn)RepVGG模塊示意圖Fig.4 Schematic diagram of improved RepVGG module
相較于傳統(tǒng)的ReLU激活函數(shù),SiLU具有更加平滑的特性,在整個(gè)輸入范圍內(nèi)都具有連續(xù)的導(dǎo)數(shù),這有助于更好地傳播梯度和提高模型的訓(xùn)練效果,減輕梯度消失問題,并且SiLU的平滑特性有助于更好地保留和融合特征信息,提高了網(wǎng)絡(luò)的表示能力和學(xué)習(xí)能力[17]。這種改進(jìn)可以幫助模型更好地捕捉和利用特征之間的相關(guān)性,從而提高目標(biāo)檢測(cè)的準(zhǔn)確性和魯棒性。
改進(jìn)后的RepVGG模塊結(jié)合了多分支模型訓(xùn)練的優(yōu)勢(shì)和單路模型推理的高效。在模型訓(xùn)練階段,多分支殘差結(jié)構(gòu)使得網(wǎng)絡(luò)具有多條梯度流通路徑,從而提高訓(xùn)練的精度和速度,實(shí)驗(yàn)結(jié)果表明,精確率提高了0.83%。
1.2.2 改進(jìn)損失函數(shù)
損失函數(shù)是衡量模型預(yù)測(cè)結(jié)果準(zhǔn)確性的一種方法。早期損失函數(shù)主要用于邊界框回歸,然而隨著目標(biāo)檢測(cè)方法的發(fā)展,近年來更多地采用IoU作為定位損失。IoU損失是一種衡量預(yù)測(cè)框與真實(shí)框重疊程度的指標(biāo)。它通過計(jì)算預(yù)測(cè)框和真實(shí)框的交集面積與并集面積之比評(píng)估定位的準(zhǔn)確性。當(dāng)預(yù)測(cè)框與真實(shí)框不重疊時(shí),IoU損失梯度消失接近于0,無法提供足夠的更新信號(hào)來調(diào)整模型的參數(shù),導(dǎo)致模型收斂減慢。由此也就激發(fā)了幾種改進(jìn)的基于IoU的損失函數(shù),為了解決當(dāng)IoU Loss恒等于0時(shí),梯度恒為0,導(dǎo)致無法反向傳播的問題,REZATOFIGI等[18]提出了GIoU Loss。ZHENG等[19]認(rèn)為衡量預(yù)測(cè)框的好壞應(yīng)該考慮預(yù)測(cè)框與真實(shí)框的中心點(diǎn)距離以及長(zhǎng)寬比之間的差異等因素,于是提出了DIoU和CIoU。然而它們都無法對(duì)High IoU的目標(biāo)實(shí)現(xiàn)高精度的回歸,因此本文使用損失函數(shù)Alpha IoU Loss[20],通過引入power變換,將現(xiàn)有的基于IoU的損失函數(shù)(包括GIoU,DIoU和CIoU)綜合到一個(gè)新的power IoU損失函數(shù)中,以實(shí)現(xiàn)更準(zhǔn)確的邊界框回歸和目標(biāo)檢測(cè)效果。實(shí)驗(yàn)結(jié)果表明,通過調(diào)整損失函數(shù)中的超參數(shù)α,可以有針對(duì)性地增加High IoU目標(biāo)的損失和梯度,從而提高邊界框回歸精度。
Alpha IoU Loss的定義為
(1)
加入懲罰項(xiàng)時(shí),上述公式可以擴(kuò)展到更加一般的形式:
lα-IoU=1-IoUα1+pα2(B,Bgt) ,
(2)
式中:α-IoU可以通過壓縮表示出GIoU,DIoU,CIoU。實(shí)驗(yàn)結(jié)果表明,參數(shù)α(α>1)增加了High IoU目標(biāo)的損失和梯度,進(jìn)而提高了bbox回歸精度。為了提高High IoU 目標(biāo)的回歸精度,本文使用Alpha IoU Loss代替CIoU Loss,經(jīng)過實(shí)驗(yàn)測(cè)試表明,α參數(shù)為3取得的效果最好,并且精確率較改進(jìn)前提高了0.56%。
在訓(xùn)練時(shí),YOLOv5s采用K-means算法對(duì)COCO數(shù)據(jù)集進(jìn)行聚類預(yù)處理并生成目標(biāo)物體的錨框。K-means算法雖然簡(jiǎn)單,易于實(shí)現(xiàn),但在聚類之前需要自主選擇初始化的k個(gè)樣本作為初始聚類中心,這些初始中心是需要人為確定的,并且在實(shí)際應(yīng)用過程中不同的初始聚類中心可能導(dǎo)致完全不同的聚類結(jié)果。當(dāng)k值較小時(shí),K-means算法產(chǎn)生的錨框的值較大,容易導(dǎo)致模型無法定位較小的目標(biāo);當(dāng)k值較大時(shí),運(yùn)算量增大降低效率。
確定合適的錨框大小是實(shí)現(xiàn)高精度檢測(cè)的前提,由于K-means算法的初始化樣本數(shù)量難以預(yù)見,影響預(yù)測(cè)模型性能。因此,采用K-means++算法對(duì)所用數(shù)據(jù)集進(jìn)行聚類優(yōu)化,以獲取適合不同尺寸的目標(biāo)物體的錨框。K-means++算法的聚類中心通過“輪盤法”生成,輪盤法的基本思想是將一系列對(duì)象(通常是候選解或個(gè)體)與一個(gè)帶權(quán)重的輪盤相聯(lián)系,其中每個(gè)對(duì)象的權(quán)重與其被選擇的概率成正比,可以克服K-means的不足,更好地選擇初始化聚類中心,提高聚類的質(zhì)量和穩(wěn)定性。K-means++算法步驟如下。
1) 在數(shù)據(jù)點(diǎn)中隨機(jī)選擇一個(gè)中心點(diǎn)mi。
2) 使用歐式距離平方計(jì)算其余采樣點(diǎn)x與中心點(diǎn)mi的距離D(x):
(3)
3)分別計(jì)算每個(gè)采樣點(diǎn)成為新聚類中心點(diǎn)的概率,選取概率值最大的點(diǎn)成為新的聚類中心。
4)重復(fù)步驟2)和步驟3),直到選出k個(gè)初始聚類中心點(diǎn),對(duì)于每個(gè)初始聚類中心點(diǎn)i∈{1,2,…,k},定義最近點(diǎn)集M并更新M集的質(zhì)心。
K-means++聚類優(yōu)化算法對(duì)比實(shí)驗(yàn)結(jié)果,如圖5所示。圖5 a)為K-means算法檢測(cè)得到的目標(biāo)物體的錨框,尺寸為[23,22,17,27,32,23],[39,71,77,51,60,114],[129,93,197,244,403,239],相對(duì)于目標(biāo)對(duì)象偏大;圖5 b)為K-means++算法檢測(cè)得到的目標(biāo)物體的錨框,尺寸為[8,24,10,45,14,34],[20,55,23,80,26,38],[38,68,59,112,98,198],錨框縮小,較為準(zhǔn)確地框定目標(biāo)對(duì)象。
圖5 聚類對(duì)比結(jié)果圖Fig.5 Cluster comparison result graph
實(shí)驗(yàn)中使用的數(shù)據(jù)集分為2類,一類選取通用數(shù)據(jù)集UR-Fall-Detection和Le2i Fall Detection Dataset中的跌倒圖像,共3 500多張圖片;另一類為自建數(shù)據(jù)集,從網(wǎng)絡(luò)收集跌倒圖片進(jìn)行創(chuàng)建,共500多張圖片。圖片分為2個(gè)子集:訓(xùn)練集和測(cè)試集,其中訓(xùn)練集占總數(shù)的92%,測(cè)試集占總數(shù)的8%,數(shù)據(jù)標(biāo)注格式統(tǒng)一為VOC數(shù)據(jù)格式,標(biāo)注了人體框的3個(gè)姿態(tài):up(站立)、bending(彎腰,蹲下)和down(躺下)。
實(shí)驗(yàn)訓(xùn)練環(huán)境和框架等具體配置如表1所示。實(shí)驗(yàn)使用YOLOv5s優(yōu)化算法進(jìn)行訓(xùn)練,訓(xùn)練迭代輪數(shù)epochs=200,batchsize=4,輸入圖像大小為640×640。為了客觀評(píng)價(jià)提出網(wǎng)絡(luò)模型的性能,使用精確率(precision,P)、召回率(recall,R)、平均精度(average precision,AP)、平均精度均值(mAP),計(jì)算公式如下:
表1 實(shí)驗(yàn)環(huán)境配置Tab.1 Experimental environment configuration
(4)
(5)
式中:TP(true positives)表示正確識(shí)別為正樣本的正樣本數(shù)量;FP(false positives)表示錯(cuò)誤識(shí)別為正樣本的負(fù)樣本數(shù)量;FN(false negatives)表示錯(cuò)誤識(shí)別為負(fù)樣本的正樣本數(shù)量;N表示目標(biāo)類別的數(shù)量;AP表示IoU閾值為0.5情況下模型的檢測(cè)性能,代表P-R曲線與坐標(biāo)系圍成的面積,AP值越高,表明模型越準(zhǔn)確地檢測(cè)出目標(biāo);mAP表示各類別AP的平均值,該值越高網(wǎng)絡(luò)性能越好。
為了更充分地分析所提的K-means++聚類錨框、改進(jìn)RepVGG模塊、Alpha IoU Loss對(duì)最終模型檢測(cè)的貢獻(xiàn)度,設(shè)計(jì)了7組消融實(shí)驗(yàn),系統(tǒng)分析每個(gè)改進(jìn)部分對(duì)最終跌倒檢測(cè)算法的影響,從而更全面地評(píng)估優(yōu)化算法的有效性和優(yōu)勢(shì)。
為了驗(yàn)證所提方法的有效性和可靠性,本文將模型的檢測(cè)結(jié)果與目前一些主流的深度學(xué)習(xí)算法—YOLOv3算法、YOLOv4,YOLOv5s和CBAM-YOLOv5s算法[21]進(jìn)行對(duì)比分析。
實(shí)驗(yàn)結(jié)果如表2所示。由表2可知,基準(zhǔn)模型YOLOv5s添加RepVGGs模塊和K-means++聚類后,精確率提升了1.49%,mAP0.5值提升了1.57%,mAP(0.5~0.95)值提升了1.27%;基準(zhǔn)模型YOLOv5s添加RepVGGs模塊和Alpha IoU Loss后,精確率提升了1.02%,mAP0.5值提升了1.17%,mAP(0.5~0.95)值提升了1.08%。相較于基準(zhǔn)模型,本文算法精確率提升了2.36%,mAP0.5值提升了1.84%,mAP(0.5~0.95)值提升了4.68%。綜上可知,提出的3種改進(jìn)方式均能夠提升模型的性能,同時(shí)與基準(zhǔn)模型或者使用任一種以上模塊的模型相比,使用本文所提出的完整模型性能最優(yōu),檢測(cè)效果最好。
表2 消融實(shí)驗(yàn)結(jié)果Tab.2 Ablation experiment result table
對(duì)比結(jié)果如表3所示。由表3可知,所提YOLOv5s優(yōu)化模型相較于其他模型檢測(cè)效果最好。其中P比YOLOv3,YOLOv4,YOLOv5和CBAM-YOLOv5s分別提高了8.75%,8.02%,2.96%和1.12%;R比YOLOv3,YOLOv4,YOLOv5和CBAM-YOLOv5s分別提高了7.55%,7.31%,2.19%和1.60%;mAP0.5比YOLOv3,YOLOv4,YOLOv5和CBAM-YOLOv5s分別提高了8.07%,7.09%,1.84%和0.70%;mAP(0.5~0.95)比YOLOv3,YOLOv4,YOLOv5和CBAM-YOLOv5s分別提高了7.26%,6.40%,4.68%和3.15%,各項(xiàng)指標(biāo)顯著高于其他模型。優(yōu)化算法的訓(xùn)練時(shí)長(zhǎng)為10.5 h,模型大小為15.4 MB,由于引入新的網(wǎng)絡(luò)模塊,網(wǎng)絡(luò)變得更深且參數(shù)更多,相較于 YOLOv5s算法,訓(xùn)練時(shí)間和模型大小略微增加。
表3 不同模型實(shí)驗(yàn)結(jié)果對(duì)比表Tab.3 Comparison table of experimental results of different models
使用網(wǎng)上隨機(jī)選取場(chǎng)景下老人跌倒情況的視頻或者圖片作為測(cè)試樣本,分單目標(biāo)和多目標(biāo)2種情況測(cè)試檢測(cè)算法的性能,檢測(cè)結(jié)果分別如圖6和圖7所示。所提算法標(biāo)注了人體框的3個(gè)姿態(tài),其中跌倒?fàn)顟B(tài)單目標(biāo)和多目標(biāo)的平均置信度為92.2%,明顯優(yōu)于其余4類算法的80.4%,84.5%,88.2%,90.5%??梢?所提算法在不同場(chǎng)景下的檢測(cè)性能均得到改善,魯棒性得到提升。
圖6 家庭場(chǎng)景模型檢測(cè)結(jié)果Fig.6 Home scene model detection results
圖7 通用場(chǎng)景模型檢測(cè)結(jié)果Fig.7 Generic scenario model detection results
最終的模型評(píng)估結(jié)果如圖8所示。經(jīng)過200輪(epoch)的模型訓(xùn)練,模型精確率達(dá)到97%;整個(gè)訓(xùn)練過程中,R和mAP0.5持續(xù)提升,并逐漸接近于100%。在RTX 3090(24 GB) ×1上,識(shí)別速度達(dá)到30幀/s,能夠較好地滿足實(shí)時(shí)檢測(cè)的要求。
圖8 模型評(píng)估結(jié)果Fig.8 Model evaluation results
所提YOLOv5s改進(jìn)模型的P-R曲線如圖9所示。通過P-R曲線,可以得出以下結(jié)論。在大部分情況下,綠色曲線(down)更接近坐標(biāo)(1,1)的位置,相比于淺藍(lán)色曲線(up)和黃色曲線(bending),綠色曲線表示的類別更具準(zhǔn)確性。同時(shí),深藍(lán)色曲線表示的所有類別的mAP也高于up類別曲線和bending類別曲線,這表明改進(jìn)后的YOLOv5s模型顯著提升了檢測(cè)準(zhǔn)確性。圖10為改進(jìn)后的算法與其他4類算法在訓(xùn)練時(shí)的mAP對(duì)比。從圖10可以清楚看出,改進(jìn)后模型的檢測(cè)精度優(yōu)于其他4個(gè)模型,且有了顯著的提升,取得了更好的檢測(cè)效果。
圖9 改進(jìn)YOLOv5s算法的P-R曲線Fig.9 Improved the P-R curve of YOLOv5s algorithm
圖10 改進(jìn)YOLOv5s與其他算法訓(xùn)練時(shí)mAP對(duì)比圖Fig.10 Comparison of mAP during training between the improved algorithm and other algorithms
為了改善YOLOv5s算法在人體跌倒檢測(cè)方面仍存在實(shí)時(shí)性和準(zhǔn)確性較差,不同場(chǎng)景易出現(xiàn)誤判和漏檢的情況,所提算法針對(duì)YOLOv5s在特征提取等部分存在的不足進(jìn)行了改進(jìn),使用K-means++算法對(duì)所用數(shù)據(jù)集進(jìn)行聚類優(yōu)化,改進(jìn)損失函數(shù),使得模型更關(guān)注于高質(zhì)量的正樣本信息,因此提升了檢測(cè)精度和檢測(cè)速度。結(jié)果表明,所提算法的準(zhǔn)確率高于YOLOv5s算法,能夠滿足現(xiàn)實(shí)中不同場(chǎng)景對(duì)老人跌倒行為的檢測(cè)需求,可以應(yīng)用于移動(dòng)設(shè)備或者監(jiān)控設(shè)備中,完成跌倒檢測(cè)和報(bào)警工作。但所提算法在檢測(cè)人物出現(xiàn)遮擋或者光線較暗情況下的檢測(cè)效果還需進(jìn)一步研究。今后將致力于提升算法對(duì)遮擋人物和光線情況下的魯棒性研究,以便能夠適用更加復(fù)雜的檢測(cè)場(chǎng)景。