摘 要:步態(tài)識(shí)別作為一種非侵入性的人體生物識(shí)別技術(shù),因其無(wú)須用戶主動(dòng)配合的特點(diǎn),被廣泛應(yīng)用于安防和智能家居等領(lǐng)域。然而,現(xiàn)實(shí)中步態(tài)識(shí)別系統(tǒng)面臨的一個(gè)重大挑戰(zhàn)是偽裝效應(yīng)。當(dāng)受試者改變著裝或攜帶物品時(shí),步態(tài)數(shù)據(jù)的可靠性往往受到影響,從而使步態(tài)識(shí)別變得困難。為解決這一問(wèn)題,該文提出一種基于Wi-Fi CSI的無(wú)監(jiān)督偽裝步態(tài)識(shí)別方法。該方法引入一種新的數(shù)據(jù)度量策略,通過(guò)預(yù)訓(xùn)練來(lái)獲取偽裝步態(tài)數(shù)據(jù)的偽標(biāo)簽,并利用匹配濾波技術(shù)生成高質(zhì)量的標(biāo)記訓(xùn)練數(shù)據(jù)對(duì)。最終,通過(guò)無(wú)監(jiān)督學(xué)習(xí)實(shí)現(xiàn)數(shù)據(jù)分布對(duì)齊,克服偽裝步態(tài)數(shù)據(jù)的分布偏移問(wèn)題。實(shí)驗(yàn)結(jié)果表明,該文的方法在偽裝步態(tài)識(shí)別方面顯著優(yōu)于現(xiàn)有最先進(jìn)的步態(tài)識(shí)別技術(shù)。
關(guān)鍵詞:步態(tài)識(shí)別;Wi-Fi CSI;偽裝;無(wú)監(jiān)督;數(shù)據(jù)分布偏移
中圖分類號(hào):TP391.4 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):2095-2945(2024)30-0016-04
Abstract: Gait recognition, as a non-intrusive biometric technology, is widely used in security and smart home applications due to its ability to function without active user cooperation. However, a significant challenge faced by gait recognition systems in practice is the effect of disguise. When subjects alter their clothing or carry objects, the reliability of gait data is often compromised, making gait recognition difficult. To address this issue, this dOnaTsiqizpe36IiTaUJyA==paper proposes a disguise gait recognition method based on Wi-Fi CSI (Channel State Information). The method introduces a novel data metric strategy, using pre-training to obtain pseudo-labels for disguised gait data, and employs matched filtering techniques to generate high-quality labeled training data pairs. Ultimately, it achieves data distribution alignment through unsupervised learning, overcoming the problem of distribution shift in disguised gait data. Experimental results show that the method significantly outperforms existing state-of-the-art gait recognition techniques in disguise scenarios.
Keywords: gait recognition; Wi-Fi CSI; disguise; unsupervised; data distribution shift
近年來(lái)隨著普適計(jì)算的廣泛應(yīng)用,不引人注目用戶識(shí)別[1]逐漸成為研究熱點(diǎn)。與基于人臉[2]、指紋[3]和虹膜[4]等生物識(shí)別技術(shù)相比,基于步態(tài)的識(shí)別技術(shù)由于其不需要用戶的主動(dòng)配合且具有唯一性和獨(dú)特性,更適合于此類用戶識(shí)別的任務(wù)。
目前,最廣泛使用的步態(tài)識(shí)別技術(shù)包括圖像、可穿戴傳感器和射頻信號(hào)。然而,基于圖像的步態(tài)識(shí)別受到環(huán)境因素(如光照和遮擋)的限制較大,并且容易引發(fā)隱私泄露的風(fēng)險(xiǎn)??纱┐鱾鞲衅鞔嬖诟叱杀?、舒適性差和不能用于非合作目標(biāo)等缺陷?;谏漕l的方法因?yàn)樯漕l信號(hào)可以穿過(guò)障礙物,不受光線明暗的影響且設(shè)備更具通用性等特點(diǎn)成為研究熱點(diǎn)。近年來(lái),許多研究探索了基于Wi-Fi CSI的身份識(shí)別方法。Zhang等[5]提出了Gate-ID,其是一種利用注意力加權(quán)融合先驗(yàn)特征的深度學(xué)習(xí)模型,實(shí)現(xiàn)了在6~20人的群體中分別以最高90.7%和平均75.7%的準(zhǔn)確度識(shí)別特定用戶。Pokkunuru等[6]提出的NeuralWave系統(tǒng),采用深度學(xué)習(xí)的方法在24人的數(shù)據(jù)集上實(shí)現(xiàn)了89.9%的身份識(shí)別準(zhǔn)確率。Wang等[7]提出的CSI-Net系統(tǒng),利用用戶靜止時(shí)的CSI數(shù)據(jù)進(jìn)行身份識(shí)別,最終在30人的數(shù)據(jù)集上實(shí)現(xiàn)了93%的身份識(shí)別準(zhǔn)確率。
然而,將Wi-Fi信號(hào)應(yīng)用于現(xiàn)實(shí)環(huán)境的識(shí)別面臨幾個(gè)挑戰(zhàn)。首先,對(duì)偽裝步態(tài)的準(zhǔn)確識(shí)別。在用戶偽裝(變換著裝或攜帶物體)時(shí),同一用戶對(duì)信號(hào)傳播的干擾會(huì)明顯不同,從而導(dǎo)致數(shù)據(jù)分布的偏移。其次,注釋數(shù)據(jù)集的限制。現(xiàn)有的基于Wi-Fi CSI的步態(tài)識(shí)別方法通常依賴于大量的有監(jiān)督注釋數(shù)據(jù),這不僅費(fèi)時(shí)費(fèi)力,而且注釋過(guò)程復(fù)雜。雖然Fan等[8]通過(guò)結(jié)合視頻進(jìn)行少樣本標(biāo)注,提供了一種解決方案,但這需要更高的部署成本,且存在泄露隱私的風(fēng)險(xiǎn),從而限制了系統(tǒng)的實(shí)際應(yīng)用。
為解決上述問(wèn)題,本文提出了一種新的數(shù)據(jù)分布度量方法。通過(guò)域自適應(yīng)技術(shù),模型同時(shí)學(xué)習(xí)偽裝前后的不變特征,從而實(shí)現(xiàn)偽裝步態(tài)的有效識(shí)別。針對(duì)新?tīng)顟B(tài)數(shù)據(jù)集注釋困難的問(wèn)題,本文利用偽裝前的數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,生成新?tīng)顟B(tài)數(shù)據(jù)集的偽標(biāo)簽,并結(jié)合匹配過(guò)濾技術(shù),獲得高質(zhì)量的帶標(biāo)簽訓(xùn)練數(shù)據(jù)對(duì),實(shí)現(xiàn)無(wú)監(jiān)督訓(xùn)練。
1 系統(tǒng)模型
本文提出的無(wú)監(jiān)督域自適應(yīng)偽裝步態(tài)識(shí)別框架如圖1所示,主要包括3個(gè)部分:數(shù)據(jù)采集、數(shù)據(jù)預(yù)處理和深度學(xué)習(xí)模型。
數(shù)據(jù)采集:本文使用了一對(duì)Wi-Fi收發(fā)設(shè)備進(jìn)行數(shù)據(jù)采集。發(fā)送端為普通的Wi-Fi路由器,接收端為安裝了Wi-Fi CSI TOOL的筆記本電腦。信號(hào)工作頻段為2.4 GHz,接收器的采樣率為1 kHz。
數(shù)據(jù)預(yù)處理:收集到Wi-Fi數(shù)據(jù)之后,通過(guò)以下步驟進(jìn)行預(yù)處理。
第一步:降噪濾波。首先,使用絕對(duì)中值差法去除噪聲,以獲得清晰的人體反射信號(hào)。其次,使用巴特沃茲低通濾波器去除高頻噪聲,僅保留與運(yùn)動(dòng)相關(guān)的數(shù)據(jù)。
第二步:選取步態(tài)數(shù)據(jù)。采用非重疊滑動(dòng)窗口法選取步態(tài)數(shù)據(jù)。通過(guò)計(jì)算窗口的方差并設(shè)定相應(yīng)的閾值來(lái)確定運(yùn)動(dòng)階段的起點(diǎn)和終點(diǎn),最終選擇信號(hào)幅值較大的部分。圖2展示了經(jīng)過(guò)上述處理步驟后的CSI數(shù)據(jù)。
深度學(xué)習(xí)模型:本文提出網(wǎng)絡(luò)模型如圖3所示。該模型通過(guò)偽標(biāo)簽匹配機(jī)制和交叉注意力度量,實(shí)現(xiàn)了源域和目標(biāo)域數(shù)據(jù)的對(duì)齊,從而提升了偽裝狀態(tài)下步態(tài)識(shí)別的精度。
模型輸入數(shù)據(jù)分為2個(gè)部分:源域和目標(biāo)域。源域數(shù)據(jù)是帶有類別標(biāo)簽的步態(tài)數(shù)據(jù),目標(biāo)域數(shù)據(jù)是偽裝狀態(tài)下沒(méi)有類別標(biāo)簽的步態(tài)數(shù)據(jù)。雖然源域和目標(biāo)域具有相同的特征空間和標(biāo)簽空間,但它們的數(shù)據(jù)概率分布不同。源域數(shù)據(jù)的樣本包括有輸入數(shù)據(jù)x和輸出標(biāo)簽y,數(shù)據(jù)概率分布為Ps,可以表示為Ds={Xs,Ys,Ps}。目標(biāo)域數(shù)據(jù)的樣本只包括輸入數(shù)據(jù)x,數(shù)據(jù)概率分布為Pt,可以表示為Dt={Xt,Pt}。無(wú)監(jiān)督域自適應(yīng)的目標(biāo)是利用源域數(shù)據(jù)學(xué)習(xí)一個(gè)在目標(biāo)域上預(yù)測(cè)誤差最小的函數(shù)f(x),目標(biāo)函數(shù)表示為
通過(guò)這種方式,模型在源域和目標(biāo)域間實(shí)現(xiàn)了有效的對(duì)齊和適應(yīng)。
1.1 目標(biāo)域偽標(biāo)簽和匹配過(guò)濾
偽標(biāo)簽:為了提升領(lǐng)域自適應(yīng)性能,采用預(yù)訓(xùn)練的特征提取器將目標(biāo)域數(shù)據(jù)映射為概率分布。這些分布用于加權(quán)k均值聚類,計(jì)算每個(gè)類別的初始質(zhì)心
式中:δ表示K類中第t個(gè)樣本的概率分布。偽標(biāo)簽通過(guò)最近鄰分類器產(chǎn)生
式中:d(ck,ft)是特征ck和ft的距離。偽標(biāo)簽的更新通過(guò)重復(fù)上述過(guò)程完成。
匹配過(guò)濾:偽標(biāo)簽生成過(guò)程中可能會(huì)引入噪聲,且由于目標(biāo)域偽標(biāo)簽的無(wú)監(jiān)督生成方式,可能會(huì)導(dǎo)致目標(biāo)域中的樣本數(shù)量與源域中的樣本數(shù)量不均衡。為了解決這個(gè)問(wèn)題,提出了基于特征匹配的方法來(lái)過(guò)濾偽標(biāo)簽。方法是將源域中的每個(gè)樣本與目標(biāo)域中相同類別的樣本進(jìn)行配對(duì),使用余弦相似度作為度量標(biāo)準(zhǔn)
式中: 分別表示源域和目標(biāo)域K類的樣本;d(fS_K,fT_K)表示樣本fS_K,fT_K之間的余弦距離。由于不限制目標(biāo)域樣本的匹配次數(shù),這可能會(huì)產(chǎn)生多對(duì)一的匹配,從而最大化高置信度偽標(biāo)簽的利用。
為擴(kuò)充訓(xùn)練的數(shù)據(jù),對(duì)目標(biāo)域樣本進(jìn)行同樣的操作。不同之處在于,匹配后使用源域的真實(shí)標(biāo)簽作為目標(biāo)域樣本的類別標(biāo)簽,而不是目標(biāo)域的偽標(biāo)簽。這樣可以確保標(biāo)簽的可靠性,因?yàn)樵从虻恼鎸?shí)標(biāo)簽比目標(biāo)域的偽標(biāo)簽更加準(zhǔn)確,從而提高訓(xùn)練數(shù)據(jù)的質(zhì)量。目標(biāo)域得到的數(shù)據(jù)對(duì)表示為
最終得到的訓(xùn)練數(shù)據(jù)對(duì)為 。
1.2 交叉注意力度量
注意力機(jī)制因其能夠有效整合序列中的時(shí)序信息而備受關(guān)注[9],尤其適用于從CSI序列中提取步態(tài)信息。本文采用交叉注意力機(jī)制來(lái)度量源域和目標(biāo)域之間的分布差異。交叉注意力機(jī)制可以表示為
式中: 為源域數(shù)據(jù)的查詢(query);KT,VT為來(lái)自于目標(biāo)域的鍵(key)和值(value)。通過(guò)匹配源域的 與目標(biāo)域的KT,計(jì)算樣本相似性的權(quán)重。最終,通過(guò)最小化 和 之間的距離,實(shí)現(xiàn)源域和目標(biāo)域的對(duì)齊。分布差異的量化公式為
。
最終損失函數(shù)定義為
,
式中: 為源域和目標(biāo)域的分類損失; 為交叉注意力度量損失。最終,通過(guò)目標(biāo)域分支即可完成偽裝步態(tài)識(shí)別。
2 實(shí)驗(yàn)結(jié)果與討論
收集30名測(cè)試者的Wi-Fi步態(tài)數(shù)據(jù),數(shù)據(jù)涵蓋了一個(gè)場(chǎng)景下的3種狀態(tài):正常著裝(H_n)、背包負(fù)重(H_p)、穿著長(zhǎng)風(fēng)衣覆蓋下半身(H_c),共計(jì)6 120條數(shù)據(jù)。
為了更客觀地評(píng)估所提方法的性能,將其與多種先進(jìn)的無(wú)監(jiān)督域自適應(yīng)算法進(jìn)行對(duì)比,包括BNM[10]、DAAN[11]、DAN[12]、DANN[13]、DSAN[14]和DTA[15]。為確保公平性,在所有對(duì)比實(shí)驗(yàn)中使用了相同的特征提取器和分類器。
2.1 整體性能
在驗(yàn)證偽裝步態(tài)識(shí)別性能時(shí),隨機(jī)選擇一種狀態(tài)作為源域,另一種狀態(tài)作為目標(biāo)域。實(shí)驗(yàn)結(jié)果見(jiàn)表1,本文提出的方法比不使用域自適應(yīng)的情況下準(zhǔn)確率至少提高了13.05%,偽裝步態(tài)識(shí)別的最高準(zhǔn)確率達(dá)到了94.61%。這表明本文的方法在偽裝步態(tài)識(shí)別中具備出色的魯棒性和競(jìng)爭(zhēng)力
2.2 消融實(shí)驗(yàn)
本節(jié)通過(guò)消融實(shí)驗(yàn)評(píng)估模型各組件的貢獻(xiàn),實(shí)驗(yàn)結(jié)果見(jiàn)表2。
為驗(yàn)證目標(biāo)域預(yù)訓(xùn)練和偽標(biāo)簽匹配的有效性,將源域和目標(biāo)域數(shù)據(jù)隨機(jī)組合生成訓(xùn)練對(duì),并取消了域自適應(yīng)和目標(biāo)域偽標(biāo)簽的監(jiān)督訓(xùn)練。實(shí)驗(yàn)結(jié)果顯示,性能顯著下降,證明了目標(biāo)域預(yù)訓(xùn)練和偽標(biāo)簽匹配在偽裝步態(tài)識(shí)別中的重要性。
評(píng)估交叉注意力度量的有效性時(shí),刪除模型中的交叉注意力模塊導(dǎo)致識(shí)別精度平均下降約10%。偽裝步態(tài)中,偽裝狀態(tài)會(huì)影響信號(hào)傳播并隱藏身份特征。實(shí)驗(yàn)結(jié)果表明,交叉注意力度量能有效應(yīng)對(duì)數(shù)據(jù)分布偏移,提取出與偽裝無(wú)關(guān)的身份特征,提升了識(shí)別效果。
3 結(jié)論
本文提出了一種基于Wi-Fi CSI的無(wú)監(jiān)督偽裝步態(tài)識(shí)別方法。通過(guò)創(chuàng)新性的數(shù)據(jù)分布度量方法,實(shí)現(xiàn)了數(shù)據(jù)分布差異度量和類感知對(duì)齊。通過(guò)預(yù)訓(xùn)練模型生成目標(biāo)域偽標(biāo)簽,并結(jié)合匹配過(guò)濾機(jī)制,構(gòu)建高質(zhì)量的帶標(biāo)簽訓(xùn)練數(shù)據(jù)對(duì),解決了新偽裝狀態(tài)步態(tài)數(shù)據(jù)難以標(biāo)注的問(wèn)題。實(shí)驗(yàn)結(jié)果表明,該方法在偽裝步態(tài)識(shí)別任務(wù)中表現(xiàn)優(yōu)異,顯著優(yōu)于現(xiàn)有方法,展現(xiàn)了良好的識(shí)別能力和魯棒性。
參考文獻(xiàn):
[1] ZHANG J, WEI B, HU W, et al. Wifi-id: Human identification using wifi signal[C]//2016 International Conference on Distributed Computing in Sensor Systems (DCOSS). IEEE, 2016: 75-82.
[2] 王東.基于神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別模型研究[J].科技創(chuàng)新與應(yīng)用,2024,14(22):5-8,13.
[3] 李碩,趙朝陽(yáng),屈音璇,等.深度學(xué)習(xí)技術(shù)在指紋識(shí)別中的應(yīng)用[J/OL].計(jì)算機(jī)工程,1-25[2024-09-23].https://doi.org/10.19678/j.issn.1000-3428.0068276.
[4] 周奧.基于深度學(xué)習(xí)的人臉虹膜雙特征融合識(shí)別算法研究與應(yīng)用[D].成都:西南交通大學(xué),2022.
[5] ZHANG J, WEI B, WU F, et al. Gate-ID: WiFi-based human identification irrespective of walking directions in smart home[J]. IEEE Internet of Things Journal, 2020, 8(9): 7610-7624.
[6] POKKUNURU A, JAKKALA K, BHUYAN A,et al. NeuralWave: gait-based user identification through commodity WiFi and deep learning[C]//IECON 2018-44th Annual Conference of the IEEE Industrial Electronics Society, 2018:758-765.
[7] WANG F , HAN J , ZHANG S , et al. CSI-Net: Unified Human Body Characterization and Pose Recognition[C]// arXiv e-prints, 2018.
[8] FAN J, ZHOU H, ZHOU F, et al. WiVi: WiFi-Video Cross-Modal Fusion based Multi-Path Gait Recognition System[C]//2022 IEEE/ACM 30th International Symposium on Quality of Service (IWQoS). IEEE, 2022: 1-10.
[9] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]// Advances in neural information processing systems, 2017:30.
[10] CUI S, WANG S, ZHUO J, et al. Towards discriminability and diversity: Batch nuclear-norm maximization under label insufficient situations[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020: 3941-3950.
[11] YU C, WANG J, CHEN Y, et al. Transfer learning with dynamic adversarial adaptation network[C]//2019 IEEE International Conference on Data Mining (ICDM). IEEE, 2019: 778-786.
[12] LONG M, CAO Y, WANG J, et al. Learning transferable features with deep adaptation networks[C]//International conference on machine learning. PMLR, 2015: 97-105.
[13] GANIN Y, LEMPITSKY V. Unsupervised domain adaptation by backpropagation[C]//International conference on machine learning. PMLR, 2015: 1180-1189.
[14] ZHU Y, ZHUANG F, WANG J, et al. Deep subdomain adaptation network for image classification[J]. IEEE transactions on neural networks and learning systems, 2020, 32(4):1713-1722.
[15] LEE S, KIM D, KIM N, et al. Drop to adapt: Learning discriminative features for unsupervised domain adaptation[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision,2019:91-100.
基金項(xiàng)目:國(guó)家自然科學(xué)基金(62373300)
第一作者簡(jiǎn)介:梁穎(1980-),女,碩士,講師。研究方向?yàn)樯疃葘W(xué)習(xí)、普適計(jì)算。