王召軍,許志猛,陳良琴
基于紅外陣列傳感器的人體行為識別系統(tǒng)研究
王召軍,許志猛,陳良琴
(福州大學(xué) 物理與信息工程學(xué)院,福建 福州 350108)
隨著人口老齡化的到來,為了避免發(fā)生意外事故,對老人日?;顒有袨檫M(jìn)行識別和監(jiān)測的安全監(jiān)護(hù)系統(tǒng)的需求不斷增長。傳統(tǒng)的基于攝像頭拍攝或者穿戴式傳感器的活動狀態(tài)監(jiān)測系統(tǒng)存在著隱私保護(hù)和使用不方便等不足。為此,本文設(shè)計(jì)一種基于紅外陣列傳感器的人體行為識別系統(tǒng)。該系統(tǒng)通過檢測環(huán)境中的溫度分布和變化情況識別人體行為,不需要在老人身上佩戴任何設(shè)備,尺寸小易于安裝,在黑暗環(huán)境中可正常工作,且由于采集到的是低分辨率信息,不會造成隱私泄露,對比傳統(tǒng)方案具有明顯優(yōu)勢。從采集到的溫度分布信息中提取特征并采用K最近鄰(K-Nearest Neighbor, KNN)算法實(shí)現(xiàn)了“走”、“坐”和“跌倒”3種狀態(tài)的識別。實(shí)驗(yàn)結(jié)果表明平均準(zhǔn)確率可達(dá)到95%,其中跌倒準(zhǔn)確率為97.5%,行走準(zhǔn)確率高達(dá)100%,坐下準(zhǔn)確率為92.5%。
行為識別;紅外陣列傳感器;多特征提?。籏-近鄰算法
隨著科學(xué)和醫(yī)療技術(shù)快速發(fā)展,人類的整體壽命逐漸延長,人口老齡化成了全球問題。隨著老人的身體機(jī)能慢慢減弱,跌倒及其引起的傷害已成為老年人健康和安全的重要威脅[1]。在中國有1.3億老年人,每年出現(xiàn)超過2500萬次跌倒事故[2]。如何保障老人的日常生活安全已成為家庭和社會必須面對的重大問題。因此,對于老人特別是獨(dú)居老人的健康狀態(tài)和行動安全提供監(jiān)測的系統(tǒng)得到了廣泛關(guān)注。
現(xiàn)階段,針對跌倒檢測國內(nèi)外主要有4類技術(shù)[3-6]:基于智能手機(jī)的跌倒檢測、基于可穿戴式設(shè)備的跌倒檢測、基于視頻的跌倒檢測以及基于聲學(xué)的跌倒檢測系統(tǒng)等。基于智能手機(jī)的檢測方案,利用手機(jī)內(nèi)置的加速度傳感器、陀螺儀等可以實(shí)時(shí)采集使用者的狀態(tài)并通過算法判斷是否跌倒,由于該方案需要受監(jiān)測對象一直攜帶手機(jī)才能正常工作的限制,使用上存在較大弊端;基于可穿戴式設(shè)備的方案與基于智能手機(jī)方案缺點(diǎn)類似,都要佩戴或者攜帶設(shè)備;基于視頻的檢測方案對使用者沒有太多的限制,但易受到光照影響且容易造成隱私泄露,在臥室、衛(wèi)生間等場合不適合使用;基于聲學(xué)的跌倒檢測方案通過分析跌倒時(shí)對地面的撞擊,提取聲音或者地板震動等特征,但由于其他外物造成聲音干擾的情況時(shí)常發(fā)生,準(zhǔn)確率較低。為此,日本的Jihoon Hong等人提出了使用松下Grid-eye的8×8紅外陣列傳感器設(shè)計(jì)一個跌倒檢測系統(tǒng)[7],通過監(jiān)測人體紅外輻射溫度分布情況識別跌倒動作。2017年,上海大學(xué)的楊任兵等人提出了基于同一款傳感器采集的紅外圖像的多特征提取的跌倒檢測算法[8]。傳統(tǒng)視頻監(jiān)控一方面會暴露隱私,另一方面容易受到光照條件的影響造成在黑暗環(huán)境中無法正常工作,尤其在易發(fā)生滑倒的浴室、衛(wèi)生間等環(huán)境中會被霧氣影響采集圖像困難無法達(dá)到監(jiān)測目的。與視頻監(jiān)測相比,紅外方案對物體紅外輻射溫度進(jìn)行檢測能夠解決隱私保護(hù)、光照變化、陰影和夜間可視性等問題,應(yīng)用場景更多;視頻圖像采用模糊化處理等技術(shù)避免隱私泄露,仍然存在硬件被破解的問題,而紅外熱電堆采集的是溫度點(diǎn)陣,硬件上無法獲得清晰圖像,隱私保護(hù)更安全可靠。考慮到對老人日?;顒有袨榈谋O(jiān)測具有防范發(fā)生意外的重要意義,雖然上述兩個基于紅外陣列傳感器的檢測系統(tǒng)對于意外摔倒有較好的監(jiān)測效果,但尚未實(shí)現(xiàn)對人體坐下、行走等其他動作的識別。
為了解決以上問題,本文基于德國海曼(HEIMANN Sensor)公司的HTPA 32×32紅外陣列傳感器設(shè)計(jì)了一個人體行為識別系統(tǒng)。
紅外傳感器如圖1(a)所示,其主要參數(shù)如表1所示。該傳感器內(nèi)含熱電堆元件,可采集被探測物體表面紅外輻射,不受光照因素影響,在黑暗狀況下也可以探測人體的溫度分布圖像。由于該傳感器分辨率低,即使將溫度值轉(zhuǎn)換成偽色彩圖像也可以確保隱私不被泄露,如圖1(b)所示為一個手掌的紅外溫度分布圖,從圖中僅能看清目標(biāo)輪廓,細(xì)節(jié)信息不會泄露。
人體活動識別系統(tǒng)整體結(jié)構(gòu)如圖2所示。系統(tǒng)主要由紅外陣列傳感器、基于樹莓派的溫度數(shù)據(jù)采集平臺和基于個人計(jì)算機(jī)(Personal Computer, PC)的動作識別平臺構(gòu)成。紅外陣列傳感器吊裝在天花板上,由樹莓派通過I2C接口實(shí)現(xiàn)控制,實(shí)現(xiàn)探測區(qū)域的溫度分布信息的采集;采集到的溫度數(shù)據(jù)通過樹莓派內(nèi)置的WiFi發(fā)送到PC端,PC端的識別程序從溫度分布數(shù)據(jù)中提取5種特征,分別經(jīng)過K最近鄰算法[9-10]、支持向量機(jī)(Support Vector Machine, SVM)算法[11-12]和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)算法[13-16]進(jìn)行分類,并與數(shù)據(jù)庫數(shù)據(jù)對比,判斷溫度分布數(shù)據(jù)對應(yīng)人體的動作類別,進(jìn)而完成人體動作的識別。
表1 傳感器的規(guī)格參數(shù)
圖1 紅外陣列傳感器
圖2 系統(tǒng)構(gòu)成設(shè)計(jì)
Fig.2 System composition design
動作識別算法流程圖如圖3所示,該算法分為3步:人體檢測,提取特征和分類。PC端接收到溫度分布數(shù)據(jù)后,計(jì)算前后兩幀或者兩幀以上的連續(xù)最大溫度分布方差:若前后連續(xù)兩幀或者兩幀以上的方差均小于溫度方差閾值,則視為此時(shí)無人;若前后連續(xù)兩幀或者兩幀以上的方差均大于設(shè)定溫度方差閾值,則此時(shí)探測區(qū)域有活動的人存在。若存在活動的人,提取數(shù)據(jù)特征與數(shù)據(jù)庫中的訓(xùn)練數(shù)據(jù)對比分類,進(jìn)而判斷出發(fā)生的動作。
圖3 行為識別算法流程圖
在室內(nèi)無人活動場景下,環(huán)境溫度分布數(shù)據(jù)均勻且變化小,但有人存在且發(fā)生動作時(shí),溫度分布數(shù)據(jù)就會發(fā)生波動,進(jìn)而提取特征。
海曼HTPA 32×32紅外傳感器發(fā)出的溫度分布第幀可以表示為:
式中:a是第幀的第(,)個溫度值。通過計(jì)算時(shí)間窗寬度為10幀內(nèi)的每個像素的方差判斷是否有人。
當(dāng)前幀的第(,)像素的溫度方差計(jì)算公式為:
當(dāng)前后連續(xù)兩幀或兩幀以上的溫度分布方差大于溫度方差閾值th時(shí),則認(rèn)為探測區(qū)域有活動的人存在并提取特征。
溫度方差閾值th的選擇會影響算法的準(zhǔn)確率,選取太大,漏檢率升高,選取太小,增加計(jì)算量,誤判率也會提高。因此,本文閾值th的確定方法為選擇室內(nèi)環(huán)境無人的情況下,運(yùn)行實(shí)驗(yàn)測試裝置5min,計(jì)算這段時(shí)長內(nèi)的最大溫度分布方差,重復(fù)測試5次,選擇5次實(shí)驗(yàn)中的最大值作為閾值th。通過實(shí)驗(yàn)測試閾值選取為2。本實(shí)驗(yàn)通過計(jì)算溫度方差來判斷檢測區(qū)域是否存在活動的人。溫度方差是由每幀內(nèi)像素點(diǎn)的溫度值與滑窗內(nèi)像素點(diǎn)平均值差值的平方和決定,因此當(dāng)室內(nèi)溫度升高或者降低時(shí),每幀中像素點(diǎn)溫度值會增加或者降低,滑窗內(nèi)像素點(diǎn)平均值也隨之升高或者降低,兩者的差值變化較小,溫度方差閾值受溫度值影響較小。
探測區(qū)域有活動的人存在時(shí),提取出5種關(guān)于人體姿態(tài)的特征。當(dāng)最大溫度分布方差大于溫差閾值時(shí),提取平均有效像素點(diǎn)數(shù)量、激活幀act、反應(yīng)像素的最大數(shù)量max、最大溫度分布方差max、有效動作面積real等5種特征,圖4中選取部分像素點(diǎn)方差圖像,具體方法如下:
1)平均有效像素點(diǎn)數(shù)量:根據(jù)紅外熱源的等效模型[17]可知,人體可近似等效于直立的圓柱體,高度影響紅外輻射強(qiáng)度,且人體的上半軀干部分比下半部分紅外輻射能力強(qiáng)。紅外傳感器對人體敏感程度還和運(yùn)動方向有關(guān),紅外傳感器對于徑向移動反應(yīng)不敏感,對于橫切方向移動最敏感。在室溫閾值為15℃的環(huán)境下,人體處于靜態(tài)時(shí),測量出超過室溫閾值的溫度像素點(diǎn)的總數(shù)量除以總幀數(shù),就是超過室溫閾值的單幀平均像素點(diǎn)數(shù)量,即為平均有效像素點(diǎn)數(shù)量,該特征可表示為:
靜態(tài)下,發(fā)生行走、坐下和跌倒時(shí),受高度影響,行走時(shí)的單幀內(nèi)平均有效像素點(diǎn)數(shù)量最多,跌倒時(shí)的單幀內(nèi)平均有效像素點(diǎn)數(shù)量最少。
2)激活幀act:當(dāng)前后連續(xù)兩幀或兩幀以上的最大溫度分布方差大于溫差閾值時(shí),則該幀為人體移動的開始幀,記為第1幀;當(dāng)前后連續(xù)兩幀或兩幀以上最大溫度分布方差小于溫差閾值時(shí),則該幀為人體移動的結(jié)束幀,記為第2幀。如圖4所示,該特征可表示為:
act=1-2+1 (5)
該特征表示發(fā)生動作所持續(xù)的時(shí)間,若室內(nèi)環(huán)境中沒有人,該特征值很小且基本不發(fā)生變化;但當(dāng)有人存在并發(fā)生運(yùn)動時(shí),該特征值會變大。在發(fā)生行走、坐下、跌倒動作時(shí),行走所花費(fèi)時(shí)間最長,因此行走的激活幀的值最大。
3)反應(yīng)像素的最大數(shù)量max:表示在第1幀到第2幀之間,每幀的1024個單像素點(diǎn)數(shù)的方差大于溫差閾值時(shí)的最大像素?cái)?shù)量。該特征表示紅外傳感器下發(fā)生相應(yīng)動作采集到的像素點(diǎn)的數(shù)量。在發(fā)生行走、坐下、跌倒動作時(shí),由于高度因素,行走時(shí)的反應(yīng)像素的數(shù)量最大,如圖4所示。
4)最大溫度分布方差max:表示在第1幀到第2幀之間的最大溫度分布方差。該特征表示運(yùn)動趨勢的變化程度。在發(fā)生行走、坐下、跌倒動作時(shí),跌倒屬于意外發(fā)生,運(yùn)動狀態(tài)從站立狀態(tài)急劇變化成平躺狀態(tài),運(yùn)動趨勢變化最大;其次,坐下的動作變化趨勢要比行走大,因此跌倒的溫度分布方差最大,如圖4所示。
5)有效動作面積real:把人體發(fā)生動作近似輪廓化成規(guī)則矩形,計(jì)算發(fā)生動作近似面積大小即為有效動作面積。通過測得超過激活幀中每一幀內(nèi)的活動像素點(diǎn)數(shù)量除以每平方的像素點(diǎn)數(shù)量即可得到該幀上采集到的實(shí)際動作發(fā)生的大致面積,該特征可表示為:
real=/(6)
有效動作面積real不僅可以作為訓(xùn)練特征,同時(shí)也可以作為校驗(yàn)數(shù)據(jù)驗(yàn)證算法判斷是否準(zhǔn)確,通過有效動作面積與實(shí)際估算動作面積相比較,即可判斷出發(fā)生哪種動作。
通過與SVM算法和CNN算法的分類效果對比,本文選擇融合多特征且識別率高的KNN算法進(jìn)行分類。在分類中,將測試數(shù)據(jù)與數(shù)據(jù)庫中的訓(xùn)練數(shù)據(jù)進(jìn)行比較,進(jìn)而判斷出發(fā)生的實(shí)際動作。KNN算法原理是如果一個樣本在特征空間中距離個最相鄰的樣本中的大多數(shù)屬于某一個類別,則該樣本也屬于這個類別,并具有這個類別上樣本的特性,一般距離用歐氏距離度量。K值的選擇會影響分類的準(zhǔn)確性,K值太大增加算法計(jì)算時(shí)間,K值太小容易過擬合,因此,使用交叉驗(yàn)證法[18]確定K值。
由公式(6)可知,動作識別所采用的特征涉及人體肢體在傳感器檢測數(shù)據(jù)中的面積計(jì)算。本系統(tǒng)采用的實(shí)驗(yàn)?zāi)P图跋袼匚恢萌鐖D5所示,從圖中可以看出,傳感器的安裝高度和角度會影響面積計(jì)算結(jié)果。為此,有必要根據(jù)傳感器的安裝高度和角度對采集到的數(shù)據(jù)進(jìn)行校準(zhǔn)。
圖4 提取的特征:Kact,Pmax和Vmax
圖5 實(shí)驗(yàn)?zāi)P图跋袼匚恢?/p>
已知紅外傳感器視野角度為33°×33°,假設(shè)紅外傳感器方向與垂直地面方向的夾角為,且0°<<57°,傳感器安裝存在夾角的情況下,特征值中使用到的探測面積有地面探測面積d和頭部高度探測面積head兩種。計(jì)算公式如下:
d=22tan33°[tan(+33°)-tan(-33°)] (7)
式中:表示紅外傳感器距離地面的垂直高度。
根據(jù)模型角度得出移動的人體頭部高度模型探測面積的計(jì)算公式如下:
head=2(-)2tan33°[tan(+33°)-tan(-33°)] (8)
式中:表示人的身高。
通過公式(6)計(jì)算有效動作面積real,可以得出:
式中:根據(jù)探測的是頭部還是地面的面積,分別為head和d。
將人體發(fā)生對應(yīng)動作占地面積矩形化可知跌倒估算面積大約為0.9~1.14m2,實(shí)際坐下估算面積大約為0.25~0.48m2,實(shí)際行走估算面積大約為0.04~0.1m2。通過將公式(7)、(8)代入公式(9)中,可以計(jì)算出發(fā)生動作的有效動作面積,將有效動作面積和實(shí)際估算面積對比,即可判斷出發(fā)生哪種動作。
在固定紅外傳感器高度時(shí)受到房間高度因素的影響,一般不超過3m,結(jié)合一般人體身高因素,選擇2m、2.5m和3m試驗(yàn)校正,人體身高選擇1.8m(人體身高的選擇按照一般情況計(jì)算)。
當(dāng)紅外傳感器方向與垂直地面方向的夾角為0°,紅外傳感器固定高度分別為3m、2.5m和2m時(shí):通過公式(7)和(8)計(jì)算可知探測的地面最大面積分別約為15.2m2、10.5m2和6.7m2,因此每平方米的像素點(diǎn)數(shù)量分別約為68、97和151個。同理可計(jì)算出人體頭頂高度平面上可探測的最大面積分別約為2.4m2、0.83m2和0.0675m2,計(jì)算出此時(shí)的每平方米的像素點(diǎn)數(shù)量大約為420、1238和15175個。通過測得在溫度方差超過方差閾值th的[1,2]區(qū)間內(nèi)像素點(diǎn)除以每平方的像素點(diǎn)數(shù)量即可得到該實(shí)際動作有效動作面積。由實(shí)驗(yàn)測得在紅外傳感器高度分別為3m、2.5m和2m時(shí)人行走時(shí)的像素點(diǎn)數(shù)量大約320~400、400~450和450~500個,跌倒時(shí)的像素點(diǎn)數(shù)量大約120~130、130~150和150~200個,因此可計(jì)算出實(shí)際行走時(shí)有效動作面積大小分別約為0.76~0.95m2、0.32~0.36m2和0.029~0.033m2,實(shí)際跌倒時(shí)的有效動作面積大小分別約為1.76~2.94m2、1.3~1.5m2和0.99~1.32m2。
綜上所述,當(dāng)紅外傳感器高度為2m時(shí)有效動作面積與實(shí)際估算面積最為符合,因此紅外傳感器安裝高度為2m。
紅外傳感器經(jīng)過安裝角度及高度的校準(zhǔn),將人體發(fā)生有效動作面積與實(shí)際估算面積對比,即可判斷出發(fā)生哪種動作。
實(shí)驗(yàn)使用德國海曼公司HTPA32×32紅外陣列傳感器;樹莓派使用3B型號,其系統(tǒng)基于Linux,有SD/MicroSD卡、內(nèi)存、硬盤,主板上有USB接口和以太網(wǎng)接口,HDMI高清視頻輸出接口、GPIO接口,WiFi通信模塊,實(shí)驗(yàn)裝置如圖6(a)所示。
圖6 實(shí)驗(yàn)?zāi)M圖
本實(shí)驗(yàn)的實(shí)驗(yàn)環(huán)境選擇室內(nèi)普通辦公房間,室溫15℃左右,實(shí)驗(yàn)測試場景如圖6(b)、(c)、(d)所示。實(shí)驗(yàn)裝置為一個傳感器垂直吊裝在天花板上,高度為2m。被測實(shí)驗(yàn)人員需要根據(jù)要求完成行走、坐下和跌倒3種動作。
本文使用KNN算法和SVM算法實(shí)驗(yàn)時(shí),測試8名人員(4男4女),要求被測人員在檢測區(qū)域依次完成行走、坐下和跌倒3種動作,每種動作重復(fù)10次,然后保存每次實(shí)驗(yàn)數(shù)據(jù),最后獲得240組數(shù)據(jù),其中SVM算法進(jìn)行分類時(shí),訓(xùn)練集為122組,測試集為118組,SVM模型含有兩個重要的參數(shù)和,其中為懲罰參數(shù)取值范圍為2-2~24,為選擇徑向基函數(shù)(Radial Basis Function, RBF)后自帶的參數(shù),取值范圍為2-4~24,調(diào)整和,當(dāng)準(zhǔn)確率最高時(shí)參數(shù)為5,參數(shù)為1.8。使用Keras和CNN構(gòu)建分類器,搭建的VGGNet結(jié)構(gòu)包括5層卷積層、3層池化層和1層全連接層,其中卷積層使用線性整流函數(shù)(Rectified Linear Unit, ReLU)為激活函數(shù),全連接層使用Softmax分類器,訓(xùn)練輪數(shù)與每次訓(xùn)練批次數(shù)量的乘積要大于圖片數(shù)量,所以網(wǎng)絡(luò)訓(xùn)練總次數(shù)設(shè)定為500輪,每個訓(xùn)練批次數(shù)量為32,依次改變學(xué)習(xí)率的大小0.1、0.05、0.01、0.005、0.001、0.0005以及0.0001,統(tǒng)計(jì)行為動作識別準(zhǔn)確率,最后選擇識別率最高時(shí)的學(xué)習(xí)率0.001。使用CNN算法識別姿體動作實(shí)驗(yàn)時(shí),測試6名人員(4男2女),總保存11420張圖片,其中訓(xùn)練集11120張,測試集300張,實(shí)驗(yàn)行為動作模擬結(jié)果如圖7所示。
圖7 姿態(tài)動作模擬圖
本文使用交叉驗(yàn)證法確定最優(yōu)值,一般值大小不超過10。將實(shí)驗(yàn)測得的240組數(shù)據(jù)集,按照不同比例分成訓(xùn)練集和測試集,以3為初始值,2為步長依次選取不同值進(jìn)行分類計(jì)算相對應(yīng)的準(zhǔn)確率,選擇準(zhǔn)確率最高的作為最優(yōu)值。如表格2所示,可得出最優(yōu)值為3。
表2 交叉驗(yàn)證結(jié)果
實(shí)驗(yàn)將KNN算法、SVM算法和CNN算法準(zhǔn)確率結(jié)果進(jìn)行對比,如表3所示。
表3 3種算法準(zhǔn)確率結(jié)果對比
由KNN算法、SVM算法和CNN算法的實(shí)驗(yàn)分類識別結(jié)果可知,KNN算法識別準(zhǔn)確率比SVM算法和CNN算法準(zhǔn)確率高。但KNN算法中坐下的識別率較行走和跌倒低,這是因?yàn)樽潞偷箖煞N動作易造成錯誤分類。
本文提出了一種基于紅外陣列傳感器的人體行為識別系統(tǒng),通過提取監(jiān)測區(qū)域溫度分布信息的特征,并使用KNN算法測得行走、坐下和跌倒的檢測準(zhǔn)確率分別為100%、92.5%和97.5%,3種人體行為的平均識別準(zhǔn)確率為95%。該系統(tǒng)在老年人生命健康安全監(jiān)護(hù)領(lǐng)域具有很高的應(yīng)用價(jià)值。未來,可進(jìn)一步結(jié)合步態(tài)識別技術(shù)分析檢測到的動作對應(yīng)的人員身份,以便在系統(tǒng)檢測到異常行為動作時(shí)可以做出更加準(zhǔn)確的處理方案。
[1] 蔡倫, 林岑, 周鼒, 等. 老年人跌倒的公共衛(wèi)生研究進(jìn)展[J]. 中國老年學(xué)雜志, 2018, 38(9): 222-225.
CAI Lun, LIN Cen,ZHOU Zi,et al. Advances in public health research on falls of the elderly[J]., 2018, 38(9): 222-225.
[2] 呂汶聰, 張志靜. 老年人跌倒現(xiàn)狀及護(hù)理對策[J]. 現(xiàn)代醫(yī)學(xué)與健康研究電子雜志, 2018: 119-119.
LV Wencong, ZHANG Zhijing. The current situation of elderly fall and nursing countermeasures[J]., 2018: 119-119.
[3] 吳志強(qiáng), 曹蕾, 王凱, 等. 基于智能手機(jī)的人體跌倒檢測系統(tǒng)設(shè)計(jì)[J]. 計(jì)算機(jī)工程與設(shè)計(jì), 2014, 35(4): 1465-1470.
WU Zhiqiang, CAO Lei, WANG Kai, et al. Design of human body fall detection system based on smart phone[J]., 2014, 35(4): 1465-1470.
[4] 左常玲. 基于視頻的自動摔倒檢測研究與實(shí)現(xiàn)[D]. 合肥: 安徽大學(xué), 2012.
ZUO Changling. Research and implementation of video-based automatic fall detection[D]. Hefei: Anhui University, 2012.
[5] 王剛. 基于多傳感器的可穿戴跌倒檢測系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D]. 北京: 北京工業(yè)大學(xué), 2015.
WANG Gang. Design and implementation of wearable fall detection system based on multi-sensor[D]. Beijing: Beijing University of Technology, 2015.
[6] 李仲華, 臧春華, 楊剛. 基于噪聲嵌入的跌倒檢測系統(tǒng)的設(shè)計(jì)[J].微機(jī)處理, 2017(2): 74-76.
LI Zhonghua, ZANG Chunhua, YANG Gang. Design of fall detection system based on noise embedding[J]., 2017(2): 74-76.
[7] Mashiyama S, Hong J, Ohtsuki T. A fall detection system using low resolution infrared array sensor[C]//, 2014: 2109-2113.
[8] 楊任兵, 程文播, 錢慶, 等. 紅外圖像中基于多特征提取的跌倒檢測算法研究[J]. 紅外技術(shù), 2017, 39(12): 1131-1138.
YANG Renbing, CHENG Wenbo, QIAN Qing, et al. Research on fall detection algorithm based on multi-feature extraction in infrared image[J]., 2017, 39(12): 1131-1138.
[9] LIU Chienliang, LEE Chiahoang, LIN Pingmin. A fall detection system using k-nearest neighbor classifier[J]., 2010(37): 7174-7181.
[10] 張舒雅, 吳科艷, 黃炎子, 等. 基于SVM_KNN的老人跌倒檢測算法[J]. 計(jì)算機(jī)與現(xiàn)代化, 2017(12):5 3-59.
ZHANG Shuya, WU Keyan, HUANG Yanzi, et al.Old man fall detection algorithm based on SVM_KNN[J]., 2017(12): 53-59.
[11] 陳瑋, 周晴, 曹桂濤. 基于SVM和閾值分析法的摔倒檢測系統(tǒng)[J].計(jì)算機(jī)應(yīng)用于軟件, 2017(7): 182-187.
CHEN Wei, ZHOU Qing, CAO Guitao. Fall detection system based on SVM and threshold analysis method[J]., 2017(7): 182-187.
[12] Nadi M, Elbendary N, Hassanien A E, et al. Falling Detection System Based on Machine Learning[C]//, 2016: 71-75.
[13] Adhikari K, Bouchachia H, Nait-Charif H. Activity recognition for indoor fall detection using convolutional neural network[C]//2017, 2017: 81-84.
[14] FENG P, YU M, Naqvi S M, et al. Deep learning for posture analysis in fall detection[C]//2014()., 2014: 12-17.
[15] Vidigal M, Lima M, Neto A D A. Elder Falls Detection Based on Artificial Neural Networks[C]//, 2015: 226-230.
[16] Kerdegari H, Mokaram S, Samsudin K, et al. A Pervasive Neural Network Based Fall Detection System on Smart Phone[J]., 2015, 7(2): 221-230.
[17] Linhong Wang. Human infrared signal recognition using single PIR detector[C]//2011 4th, 2011: 2664-2668.
[18] 李洪奇, 楊中國, 朱麗萍, 等. 基于數(shù)據(jù)集特征的KNN最優(yōu)K值預(yù)測方法[J]. 計(jì)算機(jī)應(yīng)用與軟件, 2013, 33(6): 54-58.
LI Hongqi, YANG Zhongguo, ZHU Liping, et al. KNN optimal K-value prediction method based on data set features[J]., 2013, 33(6): 54-58.
Human Behavior Recognition System Based on Infrared Array Sensors
WANG Zhaojun,XU Zhimeng,CHEN Liangqin
(College of Physics and Information Engineering, Fuzhou University, Fuzhou 350108, China)
With the increase in the aging population, the demand to identify and monitor the daily activities of the elderly is growing. A monitoring system can effectively prevent accidents of elderly people. The traditional activity monitoring system based on the use of camera or wearable sensors has issues, such as privacy violations and inconvenience of use. Therefore, this study designs a human behavior recognition system based on infrared array sensors. The system recognizes activities on different temperature distributions in the environment. There is no need for the sensor to be worn by the elderly. The sensor is small in size, easy to install indoors, and can work in the dark. In addition, the data acquired by the sensor have a low resolution; therefore, there is no privacy violation. The designed system has significant advantages over the traditional systems. The features are extracted from the obtained temperature data, and the K-nearest neighbors algorithm is used to identify the three poses of “walking,” “sitting,” and “falling.” The experimental results show that the average accuracy can reach 95%, of which the accuracies for falling, walking, and sitting are 97.5%, 100%, and 92.5%, respectively.
activity recognition, infrared array sensor, multi-feature extraction, KNN algorithm
TP391.4
A
1001-8891(2020)05-0231-07
2019-05-09;
2020-01-07 .
王召軍(1993-),男,碩士研究生,研究方向:無線感知。E-mail:1678022616@qq.com。
許志猛(1980-),男,副教授,主要從事無線感知、無線通信與網(wǎng)絡(luò)技術(shù)研究。E-mail:zhmxu@fzu.edu.cn。
國家自然科學(xué)基金資助項(xiàng)目(61401100);福建省自然科學(xué)基金資助項(xiàng)目(2018J01805);福州大學(xué)人才基金(GXRC-18083);福州大學(xué)科研啟動基金(GXRC-18074)。