• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于Res2Net-YOLACT和融合特征的室內(nèi)跌倒檢測算法

    2022-04-12 09:24:24方春祝銘
    計算機(jī)應(yīng)用 2022年3期
    關(guān)鍵詞:姿勢人體分類

    張 璐,方春,祝銘

    (山東理工大學(xué)計算機(jī)科學(xué)與技術(shù)學(xué)院,山東淄博 255049)

    0 引言

    跌倒是指突然、無意發(fā)生的體位改變,普遍發(fā)生于老年群體,其后果可能嚴(yán)重影響老年人的身體和心理健康[1]。據(jù)統(tǒng)計,我國每年至少有2 000 萬老年人發(fā)生2 500 萬次跌倒,因受傷耗費(fèi)的醫(yī)療費(fèi)用達(dá)50 億元人民幣以上[2]。為了給獨(dú)居老人提供合格的醫(yī)療健康服務(wù),減輕跌倒帶來的負(fù)面影響,開發(fā)有效的跌倒檢測系統(tǒng)必不可少。

    近年來,關(guān)于跌倒檢測算法的研究工作主要分為3 種:基于可穿戴設(shè)備的方法[3]、基于場景傳感器的方法[4]和基于計算機(jī)視覺的方法[5]。相較于前兩種方法,基于視覺處理的方法有其獨(dú)特的優(yōu)勢,它們是非侵入式的(老年人無需佩戴特殊設(shè)備),用戶體驗(yàn)更好,并且監(jiān)控設(shè)備的成本也較低,通過監(jiān)控捕捉的視頻語義更豐富,方便后期的審查。

    基于計算機(jī)視覺的方法旨在從圖像和視頻中提取信息來檢測跌倒。隨著圖像處理技術(shù)的提高和機(jī)器學(xué)習(xí)算法的廣泛應(yīng)用,國內(nèi)外學(xué)者開展了諸多相關(guān)的跌倒檢測算法研究,其重點(diǎn)主要集中在如何精確提取到視頻中的前景運(yùn)動目標(biāo),如何提取人體行為的有效特征和如何設(shè)計區(qū)分跌倒與非跌倒的分類算法。在提取視頻中人體目標(biāo)方面,主要包含背景減除算法,如高斯混合模型(Gaussian Mixed Model,GMM)[6]、Codebook[7]和ViBe[8]等。跌倒相關(guān)特征主要包括幾何特征和運(yùn)動特征,Min 等[9]提出一種基于人體運(yùn)動軌跡和形狀縱橫比的方法,以實(shí)時檢測人體跌倒。Vaidehi 等[10]提取人體長寬比和傾斜角度等靜態(tài)特征來檢測跌倒。Lin 等[11]結(jié)合運(yùn)動歷史圖(Motion History Image,MHI)分析跌倒行為,并提出了加速度和角加速度兩個額外特征,以多種特征綜合判斷跌倒事件。常用的分類器模型包括支持向量機(jī)(Support Vector Machine,SVM)、隱馬爾可夫模型(Hidden Markov Model,HMM)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)等。Mirmahboub 等[12]通過從連續(xù)高斯平均背景差中提取的多個連續(xù)幀中獲取的輪廓區(qū)域作為特征,將其輸入到多類SVM 中,以對不同類型的正常活動進(jìn)行分類。Tra 等[13]采用橢圓模型擬合人體姿勢并從中提取出5 個特征,輸?shù)絻蓚€HMM 中,以對跌倒事件和正常事件進(jìn)行分類。Yu 等[14]對圖像序列預(yù)處理后,并結(jié)合CNN 模型判斷人體姿勢,以躺在地面區(qū)域視為跌倒。目前該領(lǐng)域的研究工作取得了一定成果,但仍需進(jìn)一步改進(jìn),主要有以下方面:

    1)目前視頻中前景目標(biāo)的提取主要依靠傳統(tǒng)的背景減除算法,而背景減除算法在復(fù)雜的背景設(shè)置下魯棒性較差,適用范圍有限,難以應(yīng)用在實(shí)際家庭環(huán)境下。如何在復(fù)雜環(huán)境下精準(zhǔn)且快速地提取視頻中的前景目標(biāo)仍值得研究。

    2)目前人體行為識別領(lǐng)域可識別諸多行為[15],但對應(yīng)的網(wǎng)絡(luò)結(jié)構(gòu)過于復(fù)雜,導(dǎo)致實(shí)時性差,而對于家庭行為來說,人體活動較為單一,如何設(shè)計出輕量級的網(wǎng)絡(luò)結(jié)構(gòu)應(yīng)用于家庭活動分類也值得探討。

    3)為準(zhǔn)確區(qū)分與跌倒行為相似的活動類型,如何提取有關(guān)跌倒的有效特征,提高檢測準(zhǔn)確率、降低誤判率也是重要研究內(nèi)容。

    本文針對上述情況,提出了一種基于Res2Net-YOLACT和融合特征的室內(nèi)跌倒檢測算法,主要內(nèi)容包括:1)將Res2Net 模塊融入傳統(tǒng)YOLACT 的骨干網(wǎng)絡(luò),增強(qiáng)骨干網(wǎng)絡(luò)各層的感受域,從而更精準(zhǔn)地完成人體實(shí)例的分割任務(wù);2)將CNN 深度特征和手工提取的跌倒特征進(jìn)行融合,增強(qiáng)了關(guān)于跌倒行為的特征表達(dá)力;3)先以豎直運(yùn)動速度閾值預(yù)判異常,再通過二次分類的方法區(qū)分跌倒與非跌倒行為,減少僅依靠網(wǎng)絡(luò)模型帶來的高運(yùn)算量。

    1 基于Res2Net-YOLACT網(wǎng)絡(luò)的人體輪廓提取

    1.1 Res2Net-YOLACT網(wǎng)絡(luò)

    YOLACT 網(wǎng)絡(luò)是由Bolya 等[16]基于一級(one-stage)目標(biāo)檢測器開發(fā)的一級實(shí)例分割模型。本文在YOLACT 網(wǎng)絡(luò)基礎(chǔ)上對骨干網(wǎng)絡(luò)部分進(jìn)行改進(jìn),提出一種用于人體分割的Res2Net-YOLACT 網(wǎng)絡(luò)結(jié)構(gòu),其結(jié)構(gòu)如圖1 所示。

    圖1 Res2Net-YOLACT的網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure of Res2Net-YOLACT

    實(shí)例分割大致步驟為:首先使用特征提取網(wǎng)絡(luò)提取多尺度特征圖(圖1 所示的C3~C5),原始的YOLACT 模型默認(rèn)骨干網(wǎng)絡(luò)為ResNet101,網(wǎng)絡(luò)層數(shù)深,內(nèi)部主要由Bottleneck 結(jié)構(gòu)塊[17]構(gòu)成。為提高網(wǎng)絡(luò)對多尺度特征的提取能力,實(shí)現(xiàn)快速且準(zhǔn)確的人體實(shí)例分割,本文將原骨干網(wǎng)絡(luò)ResNet 的Bottleneck 模塊都替換為Res2Net 模塊[18](圖1 左側(cè)),Res2Net結(jié)構(gòu)塊在保持原結(jié)構(gòu)中的卷積核大小和總數(shù)不變的情況下,對所有卷積核進(jìn)行分組,形成多個包含較少卷積核的分支,并以一種分層的類殘差的方式將不同的卷積核分支連接。這種方式增大了各層的感受域,并且不會增加網(wǎng)絡(luò)的參數(shù)??紤]到本文檢測的類別單一,最終本文采用尺度為4 的Res2Net-50 作為特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network,F(xiàn)PN)的骨干網(wǎng)絡(luò),在確保提取語義特征充足的同時降低網(wǎng)絡(luò)深度,提高人體分割的速度。改進(jìn)后的Res2Net-50 骨干網(wǎng)絡(luò)如表1 所示。

    表1 用于特征提取的Res2Net-50骨干網(wǎng)絡(luò)Tab.1 Res2Net-50 backbone network for feature extraction

    接著,基于FPN 生成P3、P4、P5,通過P5 生成P6 和P7。然后,將實(shí)例分割的復(fù)雜任務(wù)分解為兩個更簡單的并行任務(wù),這些任務(wù)可以組合以形成最終的掩模:第一個分支通過Protonet 結(jié)構(gòu)進(jìn)行不同位置和前景背景分割的預(yù)測,生成多個“原型掩模”(prototype masks);第二個向目標(biāo)檢測分支添加額外的head,以預(yù)測每個用于原型掩??臻g中實(shí)例表示的anchor 的“掩模系數(shù)”(mask coefficient)向量。兩分支任務(wù)可以獨(dú)立地計算。最后將經(jīng)過非極大值抑制(Non-Maximum Suppression,NMS)得到每個實(shí)例,以線性組合的方式生成每一個anchor 對應(yīng)的Mask 分割結(jié)果,詳細(xì)原理內(nèi)容可見文獻(xiàn)[16]。利用這種方式,既在特征空間上保持了空間一致性,也達(dá)到了一階段快速分割的目的。

    最后,YOLACT 的訓(xùn)練涉及到分類損失、邊界框損失和Mask 損失三部分,其中分類損失和邊界框損失同SSD(Single Shot MultiBox Detector)[19],Mask 損失為預(yù)測Mask 和真實(shí)Mask 的逐像素二進(jìn)制交叉熵。給定人體姿態(tài)的圖像和相關(guān)注釋(包含人體類別標(biāo)注和人體輪廓標(biāo)注)的訓(xùn)練數(shù)據(jù)集,則可以通過最小化損失函數(shù)來訓(xùn)練得到網(wǎng)絡(luò)的權(quán)重文件。經(jīng)過訓(xùn)練好的Res2Net-YOLACT 網(wǎng)絡(luò),可以完成視頻幀中人體輪廓的提取。

    1.2 人體輪廓提取評估

    本文選取精確率(Precision,P)、召回率(Recall,R)和F1三種評價指標(biāo)。精確率表示正確檢測到的前景像素數(shù)量與所有檢測為前景像素的數(shù)量之比,反映了丟失人體目標(biāo)內(nèi)部信息的相關(guān)性;召回率為正確檢測到的前景像素數(shù)量與總的前景像素的數(shù)量之比,反映丟失運(yùn)人體目標(biāo)以外信息的相關(guān)性;F1 兼顧了精確率和召回率,綜合衡量提取結(jié)果的好壞。

    其中:tp(true positive pixels)表示正確檢測出的前景像素數(shù);fn(false negative pixels)表示誤檢為背景的像素數(shù);fp(false positive pixels)誤檢為前景的像素數(shù)。

    2 室內(nèi)跌倒檢測算法

    本文提出的跌倒檢測算法總體流程結(jié)構(gòu)如圖2 所示。

    圖2 跌倒檢測總體流程Fig.2 Overall flowchart of fall detection

    2.1 基于人體運(yùn)動特征的一次分類

    2.1.1 人體輪廓的橢圓擬合

    橢圓擬合[20]對較差的分割結(jié)果具有一定魯棒性,相較于外接矩形擬合,更能有效描述人的姿勢,因?yàn)槭直鄣纳煺箷?dǎo)致矩形擬合發(fā)生較大的變化。人體擬合結(jié)果及參數(shù)如圖3 所示,可見橢圓擬合更加緊湊。

    圖3 跌倒人體的橢圓擬合及關(guān)鍵參數(shù)Fig.3 Ellipse fitting and key parameters of falling human body

    橢圓參數(shù)的計算過程如下:

    對于一張圖像f(x,y),矩特征為:

    根據(jù)中心矩,可通過式(6)計算出橢圓的方向角為:

    橢圓的長半軸a和短半軸b可以計算為:

    其中:Imax和Imin分別為式(9)特征矩陣J的最大和最小特征值。

    參數(shù)計算完后,可以將橢圓擬合到前景輪廓上。

    2.1.2 運(yùn)動特征提取

    當(dāng)人體在走路、躺臥和慢坐等日?;顒訒r,其垂直速度將不發(fā)生大幅度變化;而發(fā)生跌倒行為時,人體的豎直速度會突變。因此,本文采用橢圓輪廓來計算人體豎直方向的速度,并作為跌倒行為的第一次預(yù)判。具體來說,通過相鄰幀質(zhì)心位置的距離差值計算速度,當(dāng)多幀之間速度差超過閾值T,預(yù)判為跌倒。算法流程如下:

    算法1 基于人體質(zhì)心垂直速度預(yù)判跌倒。

    輸入 提取的人體輪廓圖像序列,初始值c=0。

    輸出 垂直速度超過閾值時的前一幀圖像,并進(jìn)入二次分類流程。

    經(jīng)過一次分類,如快速坐、快速下蹲等與跌倒近似的行為也可能會初步斷定為異常,接下來通過人體姿勢分類作出二次判斷,確認(rèn)是否發(fā)生跌倒。

    2.2 基于姿勢分類模型的二次分類

    本文利用融合雙路特征的模型算法對人體姿勢進(jìn)行分類。第一路利用CNN 提取圖像靜態(tài)特征,第二路先通過橢圓擬合人體;然后手動提取有關(guān)跌倒的幾何運(yùn)動特征并組合成特征向量;接著利用全連接層完成特征向量拼接;最后利用Softmax 函數(shù)進(jìn)行特征分類。雙路特征模型結(jié)構(gòu)如圖4 所示,圖中虛線框表示手工特征的提取。

    圖4 姿勢分類的模型結(jié)構(gòu)Fig.4 Model structure of behavior classification

    2.2.1 卷積神經(jīng)網(wǎng)絡(luò)提取的深度特征

    在計算機(jī)視覺研究領(lǐng)域,CNN 能夠直接從大量的標(biāo)注數(shù)據(jù)中逐層提取圖像的信息并對圖像進(jìn)行檢測與分類[21]。本文中人體目標(biāo)輪廓只占據(jù)原始圖像的小部分,而背景對于人體活動的識別不起作用,為了消除圖像冗余,減少計算量,本文對輸入圖片進(jìn)行預(yù)處理。首先提取每個輪廓的最小外接矩形,然后保持輪廓的長寬比并縮放到30×30 像素大小的圖像模板,最后對每個像素點(diǎn)作歸一化處理。本次所設(shè)計的CNN 結(jié)構(gòu)參數(shù)如表2 所示,共包含3 個卷積層(Conv)、3 個池化層(Pooling)和兩個全連接層(FC)。卷積池化之間利用ReLU(Rectified Linear Unit)激活函數(shù)來獲取固定神經(jīng)元輸出,輸出層之前利用Softmax 激活函數(shù)輸出人體行為類別的概率。為了訓(xùn)練網(wǎng)絡(luò),利用多類交叉熵?fù)p失函數(shù)(categorical_crossentropy),并采用能夠自動調(diào)節(jié)學(xué)習(xí)率的RMSProp 作為優(yōu)化函數(shù)來估計CNN 的權(quán)重參數(shù),批次大小設(shè)置為32。

    表2 卷積神經(jīng)網(wǎng)絡(luò)參數(shù)Tab.2 Convolutional neural network parameters

    2.2.2 手工提取的幾何運(yùn)動特征

    橢圓的參數(shù)(質(zhì)心坐標(biāo)(xˉ,yˉ)、方向角θ以及長半軸a、短半軸b)可以生成對定位區(qū)域內(nèi)目標(biāo)姿態(tài)粗略描述的指標(biāo)。人體在不同的運(yùn)動狀態(tài)下會有不同的幾何特性,為了能夠?qū)⒌剐袨榕c其他日常行為進(jìn)行區(qū)別,本文提取視頻幀中人體目標(biāo)的以下特征:

    1)質(zhì)心高度Hc。當(dāng)人體發(fā)生跌倒行為時,質(zhì)心Z在垂直方向上會發(fā)生位移變化,Hc的數(shù)值會下降。如圖3所示,質(zhì)心Z到直線L的距離Hc為質(zhì)心高度。

    2)縱橫比ρ。如果人體發(fā)生縱向跌倒時,縱橫比ρ會發(fā)生突變;而發(fā)生橫向跌倒時,基本不變。

    3)離心率e。離心率同樣包含了能夠描述跌倒行為的信息,其變化規(guī)律與縱橫比相同。

    4)跌倒傾斜角θ。人體逐漸跌倒的過程中,跌倒傾斜角θ會不斷變小,但縱向跌倒時,跌倒傾斜角θ的變化不太明顯,其大小為橢圓方向角。

    因此,一旦發(fā)生跌倒,以上特征可以表征人體姿態(tài)的變化。將這些特征表示為一個4 維特征向量F=[Hc,ρ,θ,e],來作為區(qū)分跌倒行為與其他日常行為的依據(jù)。為了獲得更好的融合效果,本文將提取的特征向量重復(fù)4 次變?yōu)?6 維特征,同時利用Sigmoid 激活函數(shù)對特征向量歸一化處理,使數(shù)值處于0~1,最終特征向量F′=σ([Hc,ρ,θ,e,…,,Hc,ρ,θ,e]),其中σ為Sigmoid 激活函數(shù)。

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 基于Res2Net-YOLACT的人體目標(biāo)提取實(shí)驗(yàn)

    3.1.1 Res2Net-YOLACT的人體目標(biāo)提取

    本節(jié)實(shí)驗(yàn)中的數(shù)據(jù)集由人工采集,包含2 400 幅包含站、坐、彎身和跌倒姿勢的圖像。實(shí)驗(yàn)利用labelme 工具手動標(biāo)注人體輪廓和person 類別,借助遷移學(xué)習(xí)[22]來微調(diào)訓(xùn)練新的人體分割模型。通過選取不同場景、不同姿勢的圖片來測試Res2Net-YOLACT 的提取效果,部分測試結(jié)果如圖5 所示。實(shí)驗(yàn)表明,訓(xùn)練的網(wǎng)絡(luò)模型可在不同場景下較好地提取各種人體姿勢的輪廓。

    圖5 不同人體姿勢的提取結(jié)果Fig.5 Extraction results of different human poses

    3.1.2 與其他人體目標(biāo)提取方法的對比實(shí)驗(yàn)

    為了驗(yàn)證Res2Net-YOLACT 網(wǎng)絡(luò)在人體目標(biāo)提取方面的優(yōu)勢,本文選取Le2i 公開跌倒數(shù)據(jù)集[23]的6 個片段,視頻片段的相關(guān)信息如表3 所示。

    表3 視頻信息的介紹Tab.3 Introduction of video information

    通過視覺提取效果對比(圖6 所示)和量化分析(表4 所示)兩種方式比較了幾種算法在不同環(huán)境下的人體提取效果。

    表4 不同人體輪廓提取算法的量化比較結(jié)果Tab.4 Quantitative comparison results of different human contour extraction algorithms

    圖6 不同人體輪廓提取算法的對比結(jié)果Fig.6 Comparison results of different human contour extraction algorithms

    從圖6 可以發(fā)現(xiàn),傳統(tǒng)的GMM 算法和Codebook 算法在不同環(huán)境下表現(xiàn)得不穩(wěn)定,可視化結(jié)果容易受燈光變化影響,且在有背景移動的情況下會產(chǎn)生噪聲;三種深度學(xué)習(xí)網(wǎng)絡(luò)模型可視化結(jié)果均較優(yōu)質(zhì),對光線變化不敏感。

    從表4中可以發(fā)現(xiàn),Codebook 和GMM算法Recall值 較高,最高達(dá)91.67%,但是Precision值低,F(xiàn)1值均值在50%左右,說明傳統(tǒng)背景減除算法對噪聲較為敏感,導(dǎo)致人體提取的穩(wěn)定性不高。而深度學(xué)習(xí)模型都獲得了很高的Recall、Precision 和F1值,說明深度學(xué)習(xí)算法對于人體提取的效果更好,且穩(wěn)定性較高。在速度方面,Mask RCNN 速度較慢、實(shí)時性差;而原始YOLACT 網(wǎng)絡(luò),Res2Net-YOLACT 的主干網(wǎng)絡(luò)的深度較淺,總體結(jié)構(gòu)更加輕量,其分割速度約28 fps(RTX2080Ti),在原有模型基礎(chǔ)上提升約4 fps,基本可滿足實(shí)時需求。

    3.2 人體活動分類實(shí)驗(yàn)對比

    本節(jié)實(shí)驗(yàn)使用的圖像數(shù)據(jù)是通過跌倒公開數(shù)據(jù)集以及自行采集的方式獲得的,共提取4 200 幅包含不同室內(nèi)場景下人體站立(1 050 幅)、坐立(1 050 幅)、彎身(1 050 幅)和跌倒(1 050 幅)姿勢的圖像。根據(jù)訓(xùn)練集∶測試集=7∶3 的比例方式劃分?jǐn)?shù)據(jù)集。為了驗(yàn)證融合深度特征和手工特征對人體姿勢分類的有效性,本文在構(gòu)建的數(shù)據(jù)集上將傳統(tǒng)的SVM算法和KNN 算法進(jìn)行對比。為了公平比較,所有分類算法分別在訓(xùn)練集上通過5 折交叉驗(yàn)證進(jìn)行參數(shù)選擇。具體地,借助sklearn 庫中的GridSearchCV 類,即網(wǎng)格搜索方法選取最優(yōu)參數(shù),使得驗(yàn)證數(shù)據(jù)集的準(zhǔn)確率最高。最后均在相同的測試集上比較各算法的準(zhǔn)確率,對比結(jié)果如圖7 所示。

    圖7 測試數(shù)據(jù)上準(zhǔn)確率的對比結(jié)果Fig.7 Accuracy comparison of three algorithms on test data

    由圖7 可以看出,與傳統(tǒng)的KNN 和SVM 分類算法相比,本文算法分類結(jié)果更優(yōu),其準(zhǔn)確率更高。相較于單一的手工特征和CNN 特征,以雙路融合特征作為輸入進(jìn)行分類,其結(jié)果均獲得了一定提升。在本文算法下,與單一的CNN 特征相比,在融入手工提取特征后,人體活動分類準(zhǔn)確率提升了1.03 個百分點(diǎn)??傮w表明,手工提取的跌倒特征有助于姿勢的識別。

    3.3 跌倒檢測算法實(shí)驗(yàn)對比與分析

    為了綜合驗(yàn)證本文算法的準(zhǔn)確性,采用分辨率1 920×1 080 的固定攝像頭拍攝10 段模擬人體跌倒的視頻,每段視頻包含150 左右?guī)瑘D像,白天正常光錄制5 段和晚上燈光照明(干擾光)錄制5 段。每段視頻均包含模擬者正常站立、坐、彎身和跌倒的行為。

    3.3.1 不同跌倒檢測方案測試

    實(shí)驗(yàn)結(jié)果如表5 所示,實(shí)驗(yàn)數(shù)據(jù)可觀察到:Codebook 和GMM 方法跌倒檢測幀數(shù)較低,原因是當(dāng)人體跌倒不動時背景減除算法容易造成目標(biāo)的丟失;閾值法指設(shè)置檢測閾值,當(dāng)其中一個指標(biāo)超過閾值時即判定為跌倒,此方法簡單但存在較高的誤判率。CNN 分類可以提取到圖像的深度特征信息,檢測效果優(yōu)于閾值法,但是缺少人體姿勢變化的相關(guān)特征,跌倒特征不夠充分。Mask RCNN、YOLACT和Res2Net-YOLACT這些深度學(xué)習(xí)算法的跌倒檢測準(zhǔn)確率高、誤判率低,優(yōu)于傳統(tǒng)的背景減除算法。經(jīng)3.1.2 節(jié)驗(yàn)證,Res2Net-YOLACT 網(wǎng)絡(luò)在速度上存在優(yōu)勢??傮w分析可得,基于Res2Net-YOLACT和融合特征CNN 方法的檢測準(zhǔn)確率可達(dá)97.14%,誤判率為1.43%,并且檢測速度快,可滿足實(shí)時性的要求。

    表5 不同跌倒檢測算法對比實(shí)驗(yàn)Tab.5 Comparison experiment of different fall detection algorithms

    3.3.2 不同光照干擾下對比實(shí)驗(yàn)

    上述實(shí)驗(yàn)表明了基于Res2Net-YOLACT 和雙路融合特征的在跌倒檢測應(yīng)用的優(yōu)勢,考慮到現(xiàn)實(shí)場景會受光線亮度的干擾,因此本文設(shè)置不同光照環(huán)境下的對比實(shí)驗(yàn)來驗(yàn)證光照對本文算法跌倒檢測的影響。錄制環(huán)境分為白天正常光照和晚上燈光照明(干擾光),相應(yīng)實(shí)驗(yàn)結(jié)果如表6 所示。從實(shí)驗(yàn)結(jié)果可知,在不同光照下,跌倒檢測的準(zhǔn)確率、誤判率并沒有發(fā)生很大的變化,表明本文提出的跌倒檢測算法對光照的干擾不敏感,魯棒性較高。

    表6 光照干擾對比實(shí)驗(yàn)結(jié)果Tab.6 Comparison result with light interference

    3.3.3 跌倒檢測算法的測試

    為了評估本文跌倒檢測算法在視頻片段上的檢測性能,邀請10 名志愿者分別模擬行走、坐起、下彎、躺和跌倒活動,總共記錄了500 個視頻片段。跌倒活動和非跌倒活動的檢測結(jié)果如表7 所示。

    表7 提出的跌倒檢測算法的檢測結(jié)果Tab.7 Detection results of the proposed fall detection algorithm

    從表7 中可以觀察到,在400 個非跌倒視頻中有8 段被誤檢為跌倒,而在100 個跌倒視頻片段中有3 段未被檢測到,總體上準(zhǔn)確率高且誤檢率低。分析結(jié)果:攝像機(jī)視角可能使質(zhì)心垂直速度的計算受到影響,造成漏檢;在姿勢分類階段可能出現(xiàn)單幀圖像的錯誤分類,最后造成個別視頻片段的誤檢。為解決該問題,可以采用多個攝像視角捕獲不同的姿勢來進(jìn)行改善最終結(jié)果。

    4 結(jié)語

    本文提出了一種新的基于計算機(jī)視覺的跌倒檢測算法。該算法主首先利用Res2Net-YOLACT 網(wǎng)絡(luò)提取人體區(qū)域,魯棒性比傳統(tǒng)背景減除算法更高,檢測速度比原始YOLACT 模型結(jié)構(gòu)更快;然后,通過兩級判斷流程來區(qū)分跌倒與正常行為,這樣可減少僅依靠網(wǎng)絡(luò)模型帶來的高運(yùn)算量,并且與單一的CNN 網(wǎng)絡(luò)相比,雙路融合特征的模型算法準(zhǔn)確率更高。綜合實(shí)驗(yàn)表明,本文提出的算法對單幀圖像的檢測率較高,誤報率較低,并且對光照的干擾具有魯棒性。今后的工作將充分考慮實(shí)際應(yīng)用中軟硬件、存儲及實(shí)現(xiàn)平臺的要求,在最少的資源消耗下高效地完成跌倒檢測。

    猜你喜歡
    姿勢人體分類
    人體“修補(bǔ)匠”
    人體冷知識(一)
    排便順暢,人體無毒一身輕
    分類算一算
    倒掛在樹上,我的主要姿勢
    文苑(2020年5期)2020-06-16 03:18:10
    看書的姿勢
    分類討論求坐標(biāo)
    解鎖咳嗽的正確姿勢
    奇妙的人體止咳點(diǎn)
    特別健康(2018年3期)2018-07-04 00:40:10
    數(shù)據(jù)分析中的分類討論
    长垣县| 乳源| 姚安县| 上思县| 虞城县| 怀宁县| 贺州市| 连平县| 神农架林区| 科尔| 广平县| 汉中市| 大渡口区| 志丹县| 伊川县| 江源县| 巴林左旗| 五指山市| 南靖县| 兰州市| 罗源县| 闸北区| 时尚| 韶山市| 大关县| 鸡西市| 刚察县| 乌拉特前旗| 沁水县| 东港市| 伊宁市| 宁远县| 丁青县| 金寨县| 基隆市| 射洪县| 沾益县| 南平市| 凤凰县| 通城县| 阜康市|