中圖分類號:TP391.4 文獻(xiàn)標(biāo)志碼:A 文章編號:2095-2945(2025)18-0009-08
Abstract:Humanactionrecognition(HAR)basedonChannel State Information(CSI)hassignificantappicationprospectsin feldssuchashuman-computerinteraction,healthcare,andintrusiondetection.Althoughcurentresearchhasmadesubstantial progressinrecognizingvarioustypesofactivitesandimprovingrecognitionaccracy,challengesremainintheneedforalarge numberofactivitysamplestotrainmodels,andinimprovingthereal-timeperformaneoftherecognitionprocessToaddress theseissues,areal-time humanactionrecognition(HAR)system,CSI-FHAR,isdesignedbasedondataaugmentation.By augmentingasmallnumberofreal samples to generatesyntheticsamples,thesystemreduces thedemandforreal samples during modeltraning.Aditioallbysegmentingcompleteactivitysamples,therecogitionspeedisincreased,ehancingal-ie performance.Toincreasetheinter-classfeaturediferences,CSI-FHARaddstemporalencodingtotheactivitysamples,tereby improvingthemodelsrecognitionacuracy.Theconvolutionalblockatentionmodule(CBAM)isembeddedintheconvolutional neuralnetwork(CNN)tofurtherenhancethenetwork'sabilitytoextractefectivefeaturesfromactivitysamples.Experimental resultsemonstratetheefectivenessofCSI-FHAR:withonlyfivesamplesperactivityclassfor1typesofactites,the proposed model achieved recognition accuracies of 95.1% for gestures and 92.5% for full-body activities.
Keywords:humanactionrecognition(HAR);channelstateinformation;dataenhancement;temporalcoding;aention mechanism
人體動作識別(Human Activity Recognition,HAR)技術(shù)在人機(jī)交互、醫(yī)療健康、智能家居和日常行為檢測等領(lǐng)域獲得了廣闊的應(yīng)用。與基于計算機(jī)視覺、專用傳感器以及紅外感知的人體動作識別技術(shù)等相比,基于Wi-Fi信號的人體動作識別技術(shù)具有不侵犯隱私、不受光線影響、部署廣泛等優(yōu)勢。此技術(shù)所使用的信號主要包括接收信號強(qiáng)度指示(ReceivedSignalStrengthInformation,RSSI)和信道狀態(tài)信息(Channel
StateInformation,CSI)3-4。RSSI信號屬于無線連接層,它是來自不同信道子載波的總和。將所有子載波簡單疊加在一起的操作破壞了不同子載波各自攜帶的信息,導(dǎo)致RSSI信號無法提供細(xì)粒度的表示。相比于RSSI信號,CSI信號具有更細(xì)的粒度和敏感度,能夠感知到信道更微小的變化,因此它在呼吸-手勢[8-幅度較小的動作識別領(lǐng)域有更好的識別準(zhǔn)確率,使用CSI信號進(jìn)行人體動作識別逐漸成為學(xué)者們的研究熱點(diǎn)。
在早期的研究工作中,研究人員依靠機(jī)器學(xué)習(xí)方法人工提取信號中的特征,可使用的特征包括時域特征、頻域特征、統(tǒng)計特征和多普勒頻移特征等,以此訓(xùn)練識別模型。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,越來越多的神經(jīng)網(wǎng)絡(luò)被用于自動提取動作樣本蘊(yùn)含的顯式與隱式特征,大大解放了繁雜的人工提取特征過程。CLAR[應(yīng)用奇異譜分析(SSA)提取動作樣本的趨勢成分,并結(jié)合雙向長短期記憶網(wǎng)絡(luò)建立基于集成學(xué)習(xí)的模型,實現(xiàn)了房間尺度下無設(shè)備跨位置的活動識別。Sheng等使用2個卷積神經(jīng)網(wǎng)絡(luò)分別提取CSI信號振幅的時間和空間特征,實現(xiàn)了彎腰、拍手等6種動作的分類。雖然這些基于機(jī)器學(xué)習(xí)的方法在人體動作識別上取得了良好的效果,但是由于多徑效應(yīng)的影響,場景的變化可能會導(dǎo)致同一動作的CSI信號呈現(xiàn)較大的差異,在發(fā)生變化的場景或新場景中進(jìn)行動作識別,已有模型的識別精度可能會明顯下降甚至導(dǎo)致模型不能正常使用,需要重新采集CSI動作樣本來訓(xùn)練新模型。新場景下可提供的動作樣本數(shù)量無法得到保證,如何降低訓(xùn)練新模型所需的樣本數(shù)量是目前急需解決的問題,一些研究者使用遷移學(xué)習(xí)和少樣本學(xué)習(xí)方法在一定程度上提高了對已有動作樣本或模型的利用率。
遷移學(xué)習(xí)方法通常將已識別的場景稱為源域,未識別的場景稱為目標(biāo)域。Fang等12使用全卷積神經(jīng)網(wǎng)絡(luò)設(shè)計了可以跨場景的HAR系統(tǒng)WiTransfer,通過來自目標(biāo)域的CSI動作樣本微調(diào)源域訓(xùn)練的模型參數(shù),新模型對目標(biāo)域中動作的識別準(zhǔn)確率可以達(dá)到 90% 以上。TransferSense[13通過將CSI的幅度和相位信息相結(jié)合來增加特征數(shù)量,并融合從預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)中提取的低級和高級語義特征,在目標(biāo)域中應(yīng)用少量標(biāo)記樣本的遷移學(xué)習(xí)方法進(jìn)行跨域感知,可以降低目標(biāo)域的數(shù)據(jù)收集成本。Khan等4提出的一種基于遷移學(xué)習(xí)的活動識別模型,使用源域中的標(biāo)注樣本訓(xùn)練深度自動編碼器,通過使用未標(biāo)注的樣本進(jìn)行微調(diào)來減少域間差異,并采用結(jié)構(gòu)模式映射技術(shù)通過最大均值差異最小化過程優(yōu)化類內(nèi)-類間距離。該方法在目標(biāo)域中僅依賴有限的標(biāo)注樣本,并在3個真實數(shù)據(jù)集上驗證了該方法的有效性和適用性。
小樣本學(xué)習(xí)方法也可以緩解訓(xùn)練模型對新動作樣本數(shù)量的需求。Shi等15提出了增強(qiáng)信道狀態(tài)信息匹配網(wǎng)絡(luò)(MatNet-eCSI)來促進(jìn)HAR的few-shot學(xué)習(xí),他們的訓(xùn)練數(shù)據(jù)包括已有環(huán)境下一個動作數(shù)據(jù)集和新環(huán)境下7類動作、每類動作5個樣本,在辦公室和實驗室環(huán)境中的識別準(zhǔn)確率分別達(dá)到 88.1% 和92.3% 。ML-DFGR是一種基于度量元學(xué)習(xí)的手勢識別系統(tǒng),它使用少量的樣本就能夠識別新場景中的新手勢。ML-DFGR使用已有的手勢數(shù)據(jù)集來預(yù)訓(xùn)練模型。當(dāng)每個新手勢只提供1個樣本時,對于10類和50類新手勢的識別準(zhǔn)確率分別達(dá)到 97.6% 和 89.5% 。上述研究顯示了采用小樣本學(xué)習(xí)方法的HAR模型對于識別新動作的有效性,同時對新類別動作樣本需求量較少。但是新動作的種類數(shù)量增多導(dǎo)致識別率明顯降低,例如在ML-DFGR中,當(dāng)測試集的新動作種類從10類增加到50類,模型的識別準(zhǔn)確率從 97.6% 降低到 89.5% 。當(dāng)學(xué)習(xí)的動作種類從11類增加到20類,Zhang等的模型識別準(zhǔn)確率從 86.5% 下降到 72.2% 。
在人體動作識別技術(shù)的實際應(yīng)用中,除了需要應(yīng)對新場景中可提供的動作樣本數(shù)量不足的難題之外,還需要提高識別動作的實時性。在AR游戲,遠(yuǎn)程醫(yī)療等領(lǐng)域中,實時性能是評價動作識別系統(tǒng)的重要指標(biāo)之一。
為了解決上述問題,本文提出了一個基于數(shù)據(jù)增強(qiáng)且實時性較高的人體動作識別系統(tǒng)。通過設(shè)計的樣本增強(qiáng)方法,利用已有的真實樣本合成偽樣本以擴(kuò)大訓(xùn)練集的規(guī)模、減少對新樣本數(shù)量的需求。將完整的動作樣本劃分為幾個等長的片樣本,使用片樣本訓(xùn)練模型,在測試階段不需要識別整個動作樣本,每識別一個片樣本即可輸出結(jié)果,以此提高動作識別的實時性。通過人為給動作樣本添加時間編碼可以增加各動作之間的特征差異,從而提高模型的識別精度。不同動作存在相似的特征,對動作樣本進(jìn)行分片可能會導(dǎo)致系統(tǒng)誤分類的情況,添加時間編碼有助于減少這種情況的發(fā)生。此外,本文還給神經(jīng)網(wǎng)絡(luò)添加卷積注意力模塊CBAM,進(jìn)一步提升網(wǎng)絡(luò)的特征提取能力。為了驗證所提模型的有效性,在手勢數(shù)據(jù)集SignFi和自制的身體動作數(shù)據(jù)集上進(jìn)行了實驗。在學(xué)習(xí)10類動作,每類動作只提供5個樣本的條件下,所提模型對手勢和身體動作的識別精度分別達(dá)到了 95.1% 和 92.5% 。
1預(yù)備知識
1.1 CSI概述
IEEE 802.11ln 標(biāo)準(zhǔn)定義了在接收端和發(fā)送端之間傳遞信號的機(jī)制。CSI代表了信號在傳輸過程中所
產(chǎn)生的時延、幅度衰減以及相位偏移等變化。假設(shè)發(fā)送端信號為 x ,接收端信號為 y ,那么有
y=H.x+n
式中: n 為噪聲向量, ??H 為信道矩陣。信道狀態(tài)信息CSI就是對 H 的估計。對于單個子載波,CSI的形式如下
h=|h|ejsinβ
式中: |h| 和 β 分別代表了CSI信號的幅度和相位。
CSI的幅度和相位都包含了豐富的人體動作特征信息,它們各自都可以被用于人體動作識別。本文使用的是CSI的振幅信息。本文部署了1個發(fā)射天線和3個接收天線,因此可以采集3個信道上的CSI信號。此外,每個信道有30個子載波,所以CSI矩陣如下所示
式中: hi,j 表示第 i 個接收天線的第 j 個子載波。
1.2 卷積神經(jīng)網(wǎng)絡(luò)
第一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)誕生于1987年,由AlexanderWaibel等提出。隨著深度學(xué)習(xí)理論的不斷深入和硬件設(shè)備的迭代更新,CNN獲得了快速發(fā)展,并廣泛應(yīng)用在圖像處理和自然語言處理等領(lǐng)域。它和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)常用于深度學(xué)習(xí)領(lǐng)域中,二者擁有各自的優(yōu)點(diǎn),所以適用的領(lǐng)域也不相同。
CNN適合處理具有類似網(wǎng)格結(jié)構(gòu)的數(shù)據(jù),它通常至少在網(wǎng)絡(luò)的一層中使用卷積運(yùn)算來替代一般的矩陣乘法運(yùn)算。CNN的基本結(jié)構(gòu)一般包括以下幾個部分:卷積層、池化層、激活函數(shù)層和全連接層等。RNN適合處理時間序列數(shù)據(jù),它的輸出需要參考以前的信息。RNN網(wǎng)絡(luò)的輸出不僅取決于當(dāng)前時刻輸入的特征信息,而且還受到前一時刻隱藏層輸出的影響1,這種輸出模式雖然帶來了處理時序數(shù)據(jù)的優(yōu)勢,但是也導(dǎo)致當(dāng)前時刻的輸出必須在前一時刻運(yùn)算完畢后才能進(jìn)行。比如處理翻譯任務(wù),RNN嚴(yán)格按照順序進(jìn)行翻譯工作,每次只處理一個單詞,這種嚴(yán)格按照時序的工作模式無法充分發(fā)揮GPU的并行處理能力,導(dǎo)致運(yùn)行速度比CNN慢很多。雖然CSI是時間序列數(shù)據(jù),但是處理時間是人體動作識別任務(wù)中的一個重要評價指標(biāo),而且CNN通過權(quán)值共享運(yùn)行時不需要大量的存儲資源,所以本文使用能充分利用計算資源進(jìn)行高速運(yùn)算的CNN。
2 系統(tǒng)設(shè)計
2.1 系統(tǒng)結(jié)構(gòu)
圖1展示了本文設(shè)計的人體動作識別模型CSI-FHAR的系統(tǒng)結(jié)構(gòu)圖,其中包括采集樣本、數(shù)據(jù)增強(qiáng)和訓(xùn)練模型。首先,無線路由器和電腦分別作為發(fā)送(AP)和接收設(shè)備(RP)實現(xiàn)CSI動作樣本的采集任務(wù)。接著經(jīng)過濾波和采樣等預(yù)處理后樣本被送人數(shù)據(jù)增強(qiáng)模塊,通過設(shè)計的樣本增強(qiáng)方法合成偽樣本。為已有動作樣本添加時間編碼,以此提高不同動作之間的特征差異,同時也有利于降低樣本分片造成的相似片段的干擾。然后對當(dāng)前樣本進(jìn)行分片處理,每個完整的動作樣本被等分成若干個動作片段,這樣做不僅擴(kuò)大了訓(xùn)練集的樣本規(guī)模而且可以提高模型識別動作的實時性。最后將卷積注意力模塊CBAM嵌人CNN中,進(jìn)一步提升神經(jīng)網(wǎng)絡(luò)的特征提取能力。通過訓(xùn)練集中的動作片段和CNN進(jìn)行模型訓(xùn)練,實現(xiàn)對測試集中動作片段的分類。
2.2 數(shù)據(jù)增強(qiáng)
2.2.1 樣本增強(qiáng)
為了模型降低對真實樣本數(shù)量的需求,我們需要通過采集的真實樣本生成偽樣本來擴(kuò)充訓(xùn)練所需的樣本集。常規(guī)的樣本增強(qiáng)方法會對動作樣本進(jìn)行翻轉(zhuǎn)或者縮放等操作,但是翻轉(zhuǎn)或縮放CSI樣本在一定程度上會破壞樣本內(nèi)在的時空特征,進(jìn)而導(dǎo)致站立坐下和前進(jìn)后退這些在時序上相反的動作更難區(qū)分,因此這類樣本增強(qiáng)方法不適用于基于CSI的人體動作識別領(lǐng)域。也有研究使用圖像處理領(lǐng)域中常用的生成對抗網(wǎng)絡(luò)來合成偽樣本,但是這種網(wǎng)絡(luò)合成的偽樣本質(zhì)量非常依賴輸入的真實樣本數(shù)量,相比于圖像領(lǐng)域中每個類別可以提供成百上千張圖片,在基于CSI的人體動作識別領(lǐng)域中每類動作的樣本數(shù)量通常不超過20個,因此無法保證生成對抗網(wǎng)絡(luò)可以生成高質(zhì)量的偽樣本來訓(xùn)練模型?;谏鲜鲈?,本文設(shè)計了一種適用于CSI樣本的增強(qiáng)方法。假設(shè)某一類新動作可以提供 k 個真實樣本,任意選取其中2個樣本 A 和 B 并為它們各自附加隨機(jī)權(quán)重,最后添加高斯噪聲得到一個偽樣本 c 。如式(4)所示
C=αA+(1-α)B+nG,
式中:權(quán)重 α 和權(quán)重 n 的取值范圍分別為0到1和0到0.1,它們分別用于調(diào)整真實樣本和高斯噪聲的權(quán)重。添加高斯噪聲 G 可以提高模型的魯棒性。通過樣本增強(qiáng)方法,可以為每類動作生成 Ck2 個偽樣本。由于同類動作的真實樣本之間特征相似度較高,通過此方法獲得的偽樣本可以較好保留真實樣本的特征,生成過程如圖2所示。
2.2.2 時間編碼
為了充分利用CSI動作樣本中包含的時序特征,增加相似動作的類間特征差異,提高模型對動作識別準(zhǔn)確率,CSI-FHAR為CSI動作樣本設(shè)計了時間編碼??紤]到時間編碼需要隨時間在一定范圍內(nèi)上下波動,而不是隨時間線性增長。因此,CSI-FHAR設(shè)計的時間編碼采用了周期性的正弦函數(shù)和余弦函數(shù),具體方法如式(5)所示
式中: Ψt,w,c 分別為時間序數(shù)、子載波和信道序數(shù)。式(5)中正弦和余弦函數(shù)相加也是一種周期函數(shù),取值范圍從 到
,這樣可以避免時間編碼的數(shù)值過大。此外, c*w 變化會影響時間編碼的取值,以此提高網(wǎng)絡(luò)對于不同信道上子載波的區(qū)分度。
將動作樣本和相應(yīng)的時間編碼直接相加,作為新的動作樣本用于訓(xùn)練和測試識別模型。在被添加了時間編碼 P 后,CSI動作樣本的時域波形會發(fā)生一些細(xì)微的變化,然后引起局部時間特征的變化,進(jìn)而導(dǎo)致不同動作的類間特征差異增大,便于區(qū)分站立和坐下、前進(jìn)和后退這些在時間順序上相反的動作。此外,將時間編碼作為網(wǎng)絡(luò)的輸人可以使得神經(jīng)網(wǎng)絡(luò)在經(jīng)歷多次卷積后仍然能夠?qū)W習(xí)到初始的時間特征。
2.2.3 樣本切片
圖3展示了樣本切片的過程,使用滑動窗口將1
個完整的動作樣本分割成 k 個等長的樣本片段,然后這些樣本片段都被標(biāo)注同一個類別標(biāo)簽用于訓(xùn)練或測試。
式中: l1 為滑動步長, l2 為窗口長度。將 l1 設(shè)置的比 l2 小一些,相比于 l1=l2 ,這樣可以使得每個動作片段多出一段長為 l2-l1 的樣本部分,它和相鄰片段共有這部分。在不改變片段長度的條件下,這么做有利于增加每個動作片段所包含的特征信息,進(jìn)而優(yōu)化模型的識別性能。
2.2.4 注意力模塊
注意力模塊CBAM由Woo等8提出,它包括一個通道注意模塊和一個空間注意模塊。將CBAM嵌入CNN中,它可以根據(jù)通道和空間維度推斷注意力權(quán)重,并將注意力權(quán)重與輸入特征矩陣相乘進(jìn)行自適應(yīng)特征優(yōu)化,從而提高CNN的特征表達(dá)能力。圖4展示了注意力模塊CBAM的具體結(jié)構(gòu)。
動作樣本的CSI數(shù)據(jù) F 經(jīng)過多個卷積塊的處理后,生成通道注意力塊的輸入 F? 。分別通過平均池化和最大池化操作得到2個通道的特征向量,它們都被輸人到多層感知器(MLP)中。給對應(yīng)位置的特征向量添加MLP的輸出特征,并通過sigmoid函數(shù)激活它們以生成最終的通道注意力特征。對通道注意特征進(jìn)行以下處理以得到空間注意模塊所需的輸入特征,如式(7)如示
F′=MC(F)?F,
式中: MC(F) 表示在通道注意力模塊中的處理過程,式(8)展示了它的詳細(xì)過程。
式中 :σ.AvgPool.MaxPool 分別表示激活函數(shù)、平均池化和最大值池化。
空間注意力模塊通過平均池化和最大池化對輸人特征 F′ 沿著通道維度進(jìn)行壓縮,得到2個特征向量并進(jìn)行合并。對合并后的特征進(jìn)行卷積運(yùn)算生成空間注意力特征,該模塊的輸出 F′′ 可以表示為
F′′=Ms(F′)?F′
式中: Ms(F′) 為空間注意力層的操作,它可以被表示為式(10)
式中: conν 代表卷積層。經(jīng)過CBAM處理后的樣本特征矩陣 F 將會通過平均池化層與全連接層。
2.2.5 卷積神經(jīng)網(wǎng)絡(luò)
本文在卷積神經(jīng)網(wǎng)絡(luò)CNN中嵌人了注意力模塊CBAM,圖5展示了CNN的具體結(jié)構(gòu)。其中,我們將卷積層、激活層、批處理歸一化層和平均池化層作為一個卷積塊。本文的CNN由4個這樣的卷積塊和1個全連接層構(gòu)成。
式中: 為ReLu函數(shù)的輸出,經(jīng)過公式(12)的變換,它服從標(biāo)準(zhǔn)正態(tài)分布。
為了保證批處理歸一化過程的非線性,通過公式(13)中的2個參數(shù) γ 和 β 對 進(jìn)行平移和縮放得到y(tǒng)i° 在平均池化層,CNN選用 k×k 區(qū)域內(nèi)的均值作為輸出,池化處理可以壓縮特征,減少模型的參數(shù)規(guī)模,在一定程度上可以減少發(fā)生過擬合的概率。
CSI-FHAR的4個卷積塊的卷積層中分別包含4、8、16、32個大小為 3×3 的卷積核,這樣可以提高模型的特征提取能力。激活函數(shù)通過將網(wǎng)絡(luò)的輸出特征映射到一個新的特征空間,增加非線性因素,提高模型的表達(dá)能力。本文使用ReLu函數(shù)作為激活函數(shù),因為它相比于Sigmoid函數(shù)具有運(yùn)算量更小且解釋性良好的優(yōu)勢。
CSI數(shù)據(jù)經(jīng)過4個卷積塊后映射到特征空間。在網(wǎng)絡(luò)的最后,添加1個全連接層,用來輸出分類結(jié)果
ReLu(x)=Max(0,x),
式中: x 是激活層的輸入。由式(11)可知ReLu函數(shù)會將某些神經(jīng)元的輸出為0,這有利于緩解過擬合問題。批處理歸一化層的作用在于它可以提高網(wǎng)絡(luò)的泛化能力,起到正則化的作用,同時可以打亂訓(xùn)練集中的數(shù)據(jù)。其計算過程如下
3 實驗評估
3.1 實驗設(shè)置
為了評估CSI-FHAR的性能,我們在SignFi手勢數(shù)據(jù)集和自制身體動作數(shù)據(jù)集上進(jìn)行了實驗,實驗使用型號為TL-WDR6500的路由器作為發(fā)送端(AP),一臺裝有Intel5300網(wǎng)卡的計算機(jī)作為接收端(RP),計算機(jī)配置是Inteli7-10800型號CPU和NVIDIAGeForce RTX 2060 型號GPU。
圖6和圖7展示了自制數(shù)據(jù)集的實驗場景圖和平面圖,包括實驗室和大廳,面積分別為( 9×16 ) m2 和中 (10×10)m2 。在這2個場景中采集來自2個志愿者的前進(jìn)、坐下、擁抱等16類常見的動作(圖8),每類動作包含20個樣本。自制數(shù)據(jù)集中的動作樣本尺寸和SignFi手勢數(shù)據(jù)集一樣,都是 3×30×200 。
3.2 和其他識別模型的對比
為了驗證所提的人體動作識別模型CSI-FHAR的有效性,本文設(shè)計了以下對比實驗:使用SignFi手勢數(shù)據(jù)集和自制數(shù)據(jù)集中各10類動作,每類樣本分別提供5個和10個樣本以進(jìn)行對照實驗。選擇Mat-Net-eCSI[15]、AFSL-HAR和WiTransfer[]作為CSI-FHAR的對照組。4個人體動作識別模型所使用的預(yù)訓(xùn)練模型、訓(xùn)練和測試樣本等實驗條件保持一致,圖9展示了對比實驗的結(jié)果。
由圖9可知,在SignFi手勢數(shù)據(jù)集和自制數(shù)據(jù)集中所有模型都獲得了較好的識別表現(xiàn),CSI-FHAR獲得了最高的精度,這樣的結(jié)果證明了所采用方法的有效性。時間編碼增大了不同動作之間的特征差異,樣本增強(qiáng)方法提供了更多高質(zhì)量的偽動作樣本用于訓(xùn)練模型,CBAM模塊提高了網(wǎng)絡(luò)的特征提取能力,這些都有助于CSI-FHAR獲得更好的識別精度。此外,從實驗結(jié)果中還可以發(fā)現(xiàn)以下現(xiàn)象:以SignFi手勢數(shù)據(jù)集為例,當(dāng)每類動作使用5個樣本時CSI-FHAR的識別精度比第二名高 2.7% ,當(dāng)每類動作使用10個樣本時CSI-FHAR的識別精度比第二名高 1.2% 。這種現(xiàn)象表明當(dāng)每類動作可提供的樣本數(shù)量較少時,CSI-FHAR的優(yōu)勢更加明顯,本文使用的樣本增強(qiáng)方法可以一定程度降低對真實樣本的需求。
此外,為了進(jìn)一步驗證CSI-FHAR的有效性,我們在使用SignFi手勢數(shù)據(jù)集每類動作提供5個樣本的實驗條件下,計算了以下參考標(biāo)準(zhǔn):精度、召回率和F1分?jǐn)?shù)。具體的參數(shù)見表1。
通過表1中各項指標(biāo)可知,CSI-FHAR可以較好地識別不同的動作。
3.3選擇預(yù)訓(xùn)練模型
使用相似分布的數(shù)據(jù)預(yù)訓(xùn)練模型可以提前初始化參數(shù),并加速網(wǎng)絡(luò)的收斂,同時還可以降低訓(xùn)練階段需要的樣本數(shù)量。預(yù)訓(xùn)練模型所使用的動作種類數(shù)會影響其性能,為了得到合適的預(yù)訓(xùn)練模型來提高CSI-FHAR的識別表現(xiàn),我們設(shè)計了以下實驗。使用SignFi手勢數(shù)據(jù)集中的10、30、50和70類動作分別訓(xùn)練得到4個預(yù)訓(xùn)練模型,在這些模型基礎(chǔ)上訓(xùn)練4個新識別模型,測試結(jié)果取模型對測試集中所有動作的平均識別準(zhǔn)確率,見表2。
觀察表2中的數(shù)據(jù)可以發(fā)現(xiàn),相比于沒有動作樣本預(yù)訓(xùn)練的模型,使用了預(yù)訓(xùn)練模型的識別模型準(zhǔn)確率都最少提高了 4% 。以上結(jié)果表明預(yù)訓(xùn)練模型有利于提升模型性能,其中使用30類動作預(yù)訓(xùn)練模型的識別性能最好,對所有動作的平均識別準(zhǔn)確率達(dá)到 95.3% ??山忉尩脑颍河糜陬A(yù)訓(xùn)練的數(shù)據(jù)量應(yīng)該和模型參數(shù)規(guī)模相適配,僅僅增大數(shù)據(jù)量或者采用更大規(guī)模的模型對識別模型的性能并沒有顯著提升,甚至起到負(fù)面作用[]。隨著預(yù)訓(xùn)練數(shù)據(jù)量的增大,規(guī)模較大的模型精度將會提升,然而較小的模型精度會下降。綜上所述,CSI-FHAR使用30類動作來預(yù)訓(xùn)練識別模型。
3.4 時間編碼的影響
為了驗證時間編碼的作用以及頻率對時間編碼的影響,本文在SignFi手勢數(shù)據(jù)集和自制數(shù)據(jù)集上設(shè)計了以下實驗。CSI-FHAR學(xué)習(xí)8類動作(每類包含7個樣本),實驗一共分為6組,其中5個實驗組頻率分別為 1000.2000.3000.5000 和 10000Hz ,第6組是不添加時間編碼的對照組。實驗結(jié)果取對8類動作的平均準(zhǔn)確率,如圖10所示。
由圖10可知,當(dāng)時間編碼的頻率為 3000Hz 時模型的識別性能最佳。相比不添加時間編碼,模型在手勢數(shù)據(jù)集和身體動作數(shù)據(jù)集上的識別精度分別增加 6% 和 5% 左右。綜上所述,CSI-FHAR為動作樣本添加頻率為 3000Hz 的時間編碼。
3.5樣本切片數(shù)量的影響
樣本切片過程會將一個完整的動作樣本切分成等長的幾個片段,為了探究每個樣本切片數(shù)量對模型識別性能的影響,設(shè)計了以下實驗。一共設(shè)置了4個實驗組,各組分別將一個動作樣本切分成3、4、5和7個片段。還有一個對照組,采用沒有進(jìn)行樣本切片的完整樣本。用于訓(xùn)練和測試的動作樣本來自SignFi手勢數(shù)據(jù)集和自制數(shù)據(jù)集,在所有實驗組中所使用的滑動窗口長度 l2 比分片步長 l1 多20個數(shù)據(jù)包。實驗結(jié)果取對所有動作的平均識別精度,具體的精度和識別時間展示在表3中。
由表3中數(shù)據(jù)可知,隨著樣本切片數(shù)量的增加,模型的識別精度下降得越來越明顯,模型的識別速度在持續(xù)提升。因此對一個完整樣本設(shè)置切片的數(shù)量不宜過多。其中,當(dāng)把樣本分割成4個樣本片段時,雖然模型的識別精度下降了 1.5% 左右,但是模型的識別速度提升了接近 69% 。綜上所述,樣本切片方法在降低少量模型識別精度的條件下可以極大地優(yōu)化模型的識別實時性,本文將樣本的切片數(shù)量設(shè)置為4個。
4結(jié)束語
本文設(shè)計了一種基于數(shù)據(jù)增強(qiáng)和CSI的的實時人體動作識別系統(tǒng)CSI-FHAR。采用樣本切片方法提高了HAR的實時性,樣本增強(qiáng)方法減少了對真實動作樣本的需求。我們在SignFi手勢數(shù)據(jù)集和自制身體動作數(shù)據(jù)集上進(jìn)行了實驗,實驗結(jié)果表明,在真實樣本較少的情況下,該方法具有較高的準(zhǔn)確率和實時性。本文下一步的研究工作是進(jìn)一步優(yōu)化樣本增強(qiáng)方法,以減少對真實樣本的需求。此外還需要加強(qiáng)模型的抗干擾能力。
參考文獻(xiàn):
[1]SINGH R,KUSHWAHA A K S,SRIVASTAVA R.Recent trends in human activity recognition-A comparative study[J]. Cognitive Systems Research,2023(77):30-44.
[2] ZHANG Y,WANG X,WANG Y,et al. Human activity recognitionacross scenes and categories based on csi[C]// IEEE Transactions on Mobile Computing,2020.
[3] ZHANG Y,HE F,WANG Y,et al.CSI-based crossscene human activity recognition with incremental learning [J].Neural Computing and Applications,2023,35(17): 12415-12432.
[4] BUQ,YANG G,MING X,et al.Deep transfer learning forgesture recognition with WiFi signals [J]. Personal and Ubiquitous Computing,2020:1-12.
[5] FEI H,XIAO F,HAN J,et al.Multi-Variations Activity Based Gaits Recognition Using Com modity WiFi[J].IEEE Transactionson Vehicular Tech nology,2020,69(2):2263- 2273.
[6]ARMENTA-GARCIA J A,GONZALEZ-NAVARRO FF, CARO-GUTIERREZ J,et al. Mining Wi-Fi Channel State Information for breathing and heart rate classification[J]. Pervasive and Mobile Computing,2023,91:101768.
[7]代婉婉.基于WiFi-CSI的非接觸式人體呼吸檢測方法研究 [D].徐州:中國礦業(yè)大學(xué),2023.
[8]熊小樵,馮秀芳,丁一.基于CSI的手勢識別方法研究[J].計算 機(jī)應(yīng)用與軟件,2022,39(1):181-187.
[9]WANG Y,YAO L,WANG Y,et al. Robust CSI-Based Human Activity Recognition With Augment Few Shot Learming[J].IEEE Sensors Journal,2021,21(21):24297-24308.
[10] ZHOU R,GONG Z,TANG K,et al. Device-free cross locationactivityrecognitionvia semi -superviseddeep learning [J].Neural Computing and Applications,2022,34 (12):10189-10203.
[11] SHENG B,F(xiàn)ANG Y,XIAO F,et al. An accurate device-free action recognition system using two-stream network[J].IEEE TransVeh Technol,2020,69(7):7930-7939.
[12] FANG Y,SHENG B,WANG H,et al. Witransfer:A cross-scene transfer activity recognition system using wifi [C]//Proceedings of the ACM Turing Celebration Conference-China,2020:59-63.