金瑜瑤,張曉梅,王亞杰
上海工程技術(shù)大學(xué) 電子電氣工程學(xué)院,上海 201620
根據(jù)Data.ai最新報(bào)告表明[1],2021年全球移動(dòng)設(shè)備使用量為3.8 萬(wàn)億小時(shí),可見(jiàn),移動(dòng)設(shè)備的需求量上升,也存儲(chǔ)了更多的敏感和隱私數(shù)據(jù),這些信息的丟失或者泄露必然會(huì)導(dǎo)致一定的安全隱患。為了保護(hù)這些私人數(shù)據(jù)不受未經(jīng)授權(quán)的訪(fǎng)問(wèn),移動(dòng)設(shè)備目前都采用傳統(tǒng)的顯式認(rèn)證方法(密碼、PIN、面部識(shí)別[2]、指紋識(shí)別[3]),然而,這些方法很容易受到猜測(cè)、肩窺和偽造攻擊[4-7],此外,用戶(hù)只需在初次使用時(shí)進(jìn)行認(rèn)證,無(wú)法阻止通過(guò)初始認(rèn)證的入侵者非法訪(fǎng)問(wèn)設(shè)備。為了克服這些問(wèn)題,持續(xù)身份認(rèn)證成為研究者關(guān)注的焦點(diǎn),其通過(guò)后臺(tái)采集用戶(hù)生物行為數(shù)據(jù),在用戶(hù)初次訪(fǎng)問(wèn)移動(dòng)設(shè)備后進(jìn)行持續(xù)監(jiān)控,以達(dá)到實(shí)時(shí)認(rèn)證的目的,保障了系統(tǒng)的安全性。
目前大多數(shù)研究更多地關(guān)注單一信息源的交互模式,然而,隨身攜帶移動(dòng)設(shè)備已成為大部分用戶(hù)的習(xí)慣,當(dāng)用戶(hù)轉(zhuǎn)換多個(gè)場(chǎng)景使用移動(dòng)設(shè)備時(shí),認(rèn)證系統(tǒng)的持續(xù)性就會(huì)受到限制,單個(gè)設(shè)備存儲(chǔ)多個(gè)認(rèn)證模型也會(huì)占用極大的資源。因此,本文考慮一種基于用戶(hù)與移動(dòng)設(shè)備交互間的移動(dòng)模式(movement patterns,MP),通過(guò)用戶(hù)特別的手部姿勢(shì)和手部運(yùn)動(dòng)的微變化實(shí)現(xiàn)。由于個(gè)體間的行為特征[8-9]和生理特征均存在顯著差異,用戶(hù)的慣用姿勢(shì)不同,會(huì)使用自己的方式來(lái)達(dá)到手持設(shè)備的穩(wěn)定性和觸摸屏幕的準(zhǔn)確性;同時(shí),手掌大小、手指長(zhǎng)度[10]和年齡差異[10-11]也會(huì)影響操作時(shí)的手指力量、滑動(dòng)位置和滑動(dòng)長(zhǎng)度;最后,設(shè)備的大小和重量不同也會(huì)對(duì)用戶(hù)的操作造成影響?;谏鲜鲈虬l(fā)現(xiàn),特性的差異會(huì)影響用戶(hù)的操作行為,從而導(dǎo)致獨(dú)特的MP 特征,因此該特征能夠識(shí)別合法用戶(hù)和非法用戶(hù)。此外,該特征不受限于特定操作場(chǎng)景均可提取,包括動(dòng)態(tài)場(chǎng)景,如步行和跑步,也包括靜態(tài)場(chǎng)景,如坐和站。
針對(duì)不同場(chǎng)景下數(shù)據(jù)差異大、特征提取繁瑣、用戶(hù)體驗(yàn)度差的問(wèn)題,本文提出了一種由注意力模塊和卷積神經(jīng)網(wǎng)絡(luò)融合(CNN-SACA)的深度學(xué)習(xí)模型。目前,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)憑借出色的特征提取能力被廣泛應(yīng)用在車(chē)輛檢測(cè)[12]、情感分析[13]、視頻編碼[14]、醫(yī)療保健[15]等領(lǐng)域,既無(wú)需人工提取,也使得網(wǎng)絡(luò)過(guò)擬合危險(xiǎn)降低,故本文以CNN 為基礎(chǔ)提取MP 特征進(jìn)行持續(xù)身份認(rèn)證。但是在多個(gè)場(chǎng)景轉(zhuǎn)換過(guò)程中,用戶(hù)的行為數(shù)據(jù)會(huì)產(chǎn)生偏移變化,導(dǎo)致簡(jiǎn)單的CNN會(huì)忽略關(guān)鍵特征,將合法用戶(hù)在不同場(chǎng)景下的MP特征誤認(rèn)為非法行為特征。由于多樣的注意力機(jī)制在融入不同網(wǎng)絡(luò)時(shí)會(huì)產(chǎn)生較優(yōu)結(jié)果,因此,本文融入了注意力模塊來(lái)抑制多場(chǎng)景下有效信息的冗余部分,先按序通過(guò)空間和通道注意力子模塊,再在多層卷積后進(jìn)行反序分配權(quán)重,使模型自適應(yīng)地關(guān)注預(yù)測(cè)中更重要的MP特征,從而加快模型的收斂速度。與僅基于CNN 的工作相比,該融合模型能將認(rèn)證精度提高1.5 個(gè)百分點(diǎn),并且運(yùn)算復(fù)雜度不高,也適用于硬件資源有限的移動(dòng)設(shè)備。而且目前沒(méi)有其他工作將注意力機(jī)制應(yīng)用于持續(xù)身份認(rèn)證的深度學(xué)習(xí)方法。本文的主要貢獻(xiàn)有三個(gè)方面:
(1)提出了一種基于移動(dòng)模式的多場(chǎng)景持續(xù)身份認(rèn)證方案,旨在集成動(dòng)態(tài)場(chǎng)景和靜態(tài)場(chǎng)景(即多場(chǎng)景)下的手部微運(yùn)動(dòng)特性,該MP特征通過(guò)用戶(hù)的手部運(yùn)動(dòng)和手部姿勢(shì)實(shí)現(xiàn)。通過(guò)大量實(shí)驗(yàn)評(píng)估,本文使用內(nèi)置傳感器的實(shí)時(shí)信息對(duì)行為特征MP進(jìn)行建模,在多場(chǎng)景的情況下,能以較低的錯(cuò)誤率驗(yàn)證用戶(hù)身份。
(2)通過(guò)融合卷積神經(jīng)網(wǎng)絡(luò)和注意力機(jī)制,提出了一種新的深度學(xué)習(xí)模型CNN-SACA。該模型以特定的SACA 注意力模塊結(jié)構(gòu),對(duì)預(yù)處理后的二維MP 特征進(jìn)行不同權(quán)重分配,能夠提高多場(chǎng)景下的身份認(rèn)證精度。
(3)本文在公開(kāi)數(shù)據(jù)集上實(shí)現(xiàn)并評(píng)估了該方案的認(rèn)證性能。實(shí)驗(yàn)結(jié)果表明,該算法的準(zhǔn)確率為99.6%,等錯(cuò)誤率僅為1.32%,能有效提高用戶(hù)在切換場(chǎng)景使用移動(dòng)設(shè)備時(shí)的安全性和體驗(yàn)感。
為了保障移動(dòng)設(shè)備的安全性,早期利用機(jī)器學(xué)習(xí)算法[16-17]進(jìn)行持續(xù)身份認(rèn)證成為研究的熱點(diǎn),但是傳統(tǒng)的機(jī)器學(xué)習(xí)算法在特征提取階段不僅需要人工參與,還需要充足的操作經(jīng)驗(yàn)。由于移動(dòng)設(shè)備在操作過(guò)程中會(huì)發(fā)生位置變化,傳感器自身也會(huì)產(chǎn)生噪聲和異常信息,所以人工提取的行為特征在一定程度上會(huì)導(dǎo)致辨識(shí)度不佳,并且存在過(guò)擬合等問(wèn)題,這都會(huì)影響身份認(rèn)證的準(zhǔn)確率。
近年來(lái),深度學(xué)習(xí)技術(shù)特別是基于CNN 的身份認(rèn)證技術(shù)因其強(qiáng)大的學(xué)習(xí)能力被廣泛應(yīng)用到持續(xù)身份認(rèn)證領(lǐng)域[18-21]。蘆效峰等人[18]結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural networks,RNN)對(duì)產(chǎn)生的擊鍵數(shù)據(jù)進(jìn)行特征提取,訓(xùn)練后的模型可以很好地體現(xiàn)個(gè)人擊鍵模式,擁有較好的準(zhǔn)確率,但是只使用了相同鍵盤(pán)輸入的數(shù)據(jù),并將行為限制在電腦端,無(wú)法實(shí)現(xiàn)移動(dòng)設(shè)備的身份認(rèn)證。Shiraga等人[19]提出了一種基于CNN的步態(tài)識(shí)別方法,引入步態(tài)能量圖像(GEI)作為模型的輸入,但是該方法必須擁有用戶(hù)的步態(tài)輪廓,即需要額外的攝像設(shè)備才能實(shí)現(xiàn)身份識(shí)別。Matteo 等人[20]和Zhao等人[21]以CNN 為特征提取網(wǎng)絡(luò),通過(guò)智能手機(jī)的加速度和陀螺儀信號(hào)來(lái)表征用戶(hù)獨(dú)特的身份信息,但必須將智能手機(jī)綁定在用戶(hù)褲子前袋或后腰處采集信息。然而,上述研究均未考慮到用戶(hù)操作場(chǎng)景的轉(zhuǎn)變以及與移動(dòng)設(shè)備交互的便捷性,使用淺層的CNN 缺乏識(shí)別類(lèi)間相似特征的能力,只能識(shí)別單一場(chǎng)景的特征,例如單獨(dú)使用行走時(shí)的步態(tài)信息認(rèn)證、使用坐姿狀態(tài)下的擊鍵數(shù)據(jù)認(rèn)證等。此外,雖然Tang 等人[22]找到了包括走路、上下樓和坐、站、臥以及轉(zhuǎn)換數(shù)據(jù)在內(nèi)的多場(chǎng)景數(shù)據(jù)集,但該實(shí)驗(yàn)仍然限制傳感器佩戴位置,并且使用繁瑣的人工提取方法,用戶(hù)無(wú)法真正實(shí)現(xiàn)與移動(dòng)設(shè)備交互。
實(shí)際應(yīng)用場(chǎng)景的復(fù)雜性對(duì)持續(xù)身份認(rèn)證方法的有效性帶來(lái)了挑戰(zhàn)。王欣等人[23]在MobileNetv2網(wǎng)絡(luò)中嵌入基于通道的注意力機(jī)制,王玲敏等人[24]將基于位置信息的通道注意力融入YOLOv5算法,Li等人[25]提出一種包含空間注意力模塊的網(wǎng)絡(luò)模型實(shí)現(xiàn)高光譜圖像分類(lèi)。由此可見(jiàn),通道或是空間注意力模塊融入不同網(wǎng)絡(luò)后可以讓模型從全局角度注意到關(guān)鍵目標(biāo),學(xué)習(xí)到目標(biāo)更精細(xì)的特征,證明了改進(jìn)網(wǎng)絡(luò)的有效性。此外,杜先君等人[26]和許文鑫等人[27]在模擬電路故障診斷和列車(chē)閘片偏磨狀態(tài)方面通過(guò)融入注意力機(jī)制CBAM改善了CNN無(wú)法自主分配關(guān)鍵特征的問(wèn)題。該機(jī)制包括了通道和空間注意力,可以沿著兩個(gè)獨(dú)立的維度推斷注意力特征,并且有研究表明CBAM[28]可以無(wú)縫集成到任何CNN體系結(jié)構(gòu)中。但是杜先君等人和許文鑫等人也僅將卷積神經(jīng)網(wǎng)絡(luò)和注意力機(jī)制進(jìn)行簡(jiǎn)單地串聯(lián)組合,無(wú)法針對(duì)本文多場(chǎng)景特征進(jìn)行自適應(yīng)識(shí)別。受以上研究啟發(fā),本文提出一種將改進(jìn)的空間注意力(spatial attention module,SAM)和通道注意力模塊(channel attention module,CAM)融合嵌入到CNN中的多場(chǎng)景身份認(rèn)證模型CNN-SACA,以克服蘆效峰、Shiraga、Matteo、Zhao、Tang等[18-22]工作的不足。
所提的持續(xù)身份認(rèn)證方案通過(guò)捕捉多場(chǎng)景下用戶(hù)與移動(dòng)設(shè)備間真正進(jìn)行交互時(shí)產(chǎn)生的MP特征,從而進(jìn)行持續(xù)身份認(rèn)證。CNN-SACA模型將注意力模塊按不同順序融入到CNN 模型中,能夠?qū)Σ煌瑘?chǎng)景下的類(lèi)內(nèi)特征進(jìn)行增強(qiáng),自動(dòng)獲取高相關(guān)性特征,并抑制其他低相關(guān)性特征,加強(qiáng)對(duì)多場(chǎng)景特征的檢測(cè)能力,使用戶(hù)與移動(dòng)設(shè)備進(jìn)行交互時(shí),無(wú)需考慮場(chǎng)景變化問(wèn)題,滿(mǎn)足了安全性的同時(shí)又兼顧了用戶(hù)體驗(yàn)度。
為實(shí)現(xiàn)用戶(hù)身份認(rèn)證,本文構(gòu)建基于深度學(xué)習(xí)和用戶(hù)移動(dòng)模式的身份認(rèn)證框架,包括訓(xùn)練模型、身份認(rèn)證、模型更新階段,流程如圖1所示。
身份認(rèn)證的具體流程如下:
(1)訓(xùn)練模型階段。先通過(guò)用戶(hù)與移動(dòng)設(shè)備進(jìn)行交互,在兩類(lèi)場(chǎng)景(動(dòng)態(tài)和靜態(tài))中收集傳感器數(shù)據(jù),本文選擇的三種傳感器是目前移動(dòng)設(shè)備中常見(jiàn)的內(nèi)置傳感器,無(wú)需外部傳感器的支持,并且分別提供不同維度的用戶(hù)行為信息。加速度計(jì)記錄用戶(hù)較大的運(yùn)動(dòng)模式,如手臂姿勢(shì)、走路姿勢(shì)等;陀螺儀記錄用戶(hù)細(xì)微的運(yùn)動(dòng)模式,如握持設(shè)備姿勢(shì);磁力計(jì)記錄方向信息,如設(shè)備旋轉(zhuǎn)方向和角度。然后經(jīng)過(guò)預(yù)處理,即特征轉(zhuǎn)換,對(duì)收集到的所有數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理,通過(guò)異常值處理、小波去噪、平均映射得到所需的二維圖像數(shù)據(jù),再輸入到網(wǎng)絡(luò)中。最后進(jìn)行模型訓(xùn)練,在訓(xùn)練過(guò)程中,調(diào)整不同的卷積神經(jīng)網(wǎng)絡(luò)(CNN)參數(shù),以達(dá)到最優(yōu)的效果。再在此基礎(chǔ)上融入注意力模塊,最終得到最優(yōu)參數(shù)的CNN-SACA深度學(xué)習(xí)網(wǎng)絡(luò)模型。
(2)身份認(rèn)證階段。在構(gòu)建好模型后,當(dāng)合法用戶(hù)首次使用移動(dòng)設(shè)備時(shí),系統(tǒng)將持續(xù)不斷地通過(guò)后臺(tái)傳感器實(shí)時(shí)采集場(chǎng)景行為數(shù)據(jù),這部分?jǐn)?shù)據(jù)不曾參加訓(xùn)練過(guò)程,再?gòu)脑夹盘?hào)中進(jìn)行預(yù)處理,以生成MP特征向量,并輸入已構(gòu)造的CNN-SACA 模型進(jìn)行用戶(hù)認(rèn)證,分析結(jié)果是否達(dá)到預(yù)期。
(3)模型更新階段。考慮到用戶(hù)行為會(huì)隨著時(shí)間、年齡、習(xí)慣的變化而改變,那么特征的認(rèn)證就會(huì)產(chǎn)生差異。當(dāng)合法用戶(hù)被錯(cuò)認(rèn)為非法用戶(hù)時(shí),系統(tǒng)會(huì)提醒用戶(hù)進(jìn)行顯示認(rèn)證,若顯示認(rèn)證通過(guò),系統(tǒng)則將錯(cuò)誤拒絕的用戶(hù)數(shù)據(jù)重新收集并訓(xùn)練新的模型,達(dá)到一定的持續(xù)更新認(rèn)證模型的作用。
在其他應(yīng)用中,注意力機(jī)制通常作為一個(gè)獨(dú)立的模塊嵌入到網(wǎng)絡(luò)中,通過(guò)對(duì)頻帶、像素或通道進(jìn)行不等量加權(quán)來(lái)細(xì)化特征圖。本文受Woo等人[28]啟發(fā),將通道注意力機(jī)制模塊(CAM)和改進(jìn)后的空間注意力機(jī)制模塊(SAM)以最佳組合方式應(yīng)用于CNN的模型中。
通道注意力模塊提取通道注意力的方式基本和SE-Net[29]類(lèi)似,但增加了并行全局最大池化(global max pooling,GMP)的特征提取方式,可以取得更好的效果。如圖2 所示,輸入特征圖為fn=(f1,f2,…,fn),n為提取到的特征圖數(shù),將特征圖fn通過(guò)最大池化層和平均池化層進(jìn)行并行池化輸入,再分別經(jīng)過(guò)多層感知器(multilayer perception,MLP),將MLP輸出的兩個(gè)特征向量進(jìn)行加和操作并通過(guò)Sigmoid 激活函數(shù)得到結(jié)果向量,將該向量與原先的特征圖fn相乘,得到新的特征圖。CAM的過(guò)程可以表示為公式(1):
圖2 通道注意力模塊結(jié)構(gòu)Fig.2 Structure of channel attention module
其中,σ表示sigmoid激活函數(shù),Avg和Max表示平均池化和最大池化操作,W1∈RC×C/r和W0∈RC/r×C表示MLP 的共享權(quán)重,是經(jīng)過(guò)平均池化和最大池化操作后的特征圖。
空間注意力模塊可以使神經(jīng)網(wǎng)絡(luò)更加關(guān)注移動(dòng)模式特征中對(duì)分類(lèi)起決定作用的像素區(qū)域而過(guò)濾無(wú)關(guān)緊要的信息。特征圖輸入到傳統(tǒng)的SAM會(huì)進(jìn)行基于通道維度的最大池化操作和平均池化操作,這種方式讓壓縮空間描述特征不夠充分。為了獲得空間上每個(gè)像素點(diǎn)的通道全局描述特征,本文在此基礎(chǔ)上添加了一個(gè)大小為1 的卷積操作,對(duì)特征序列逐個(gè)壓縮,充分表達(dá)第一特征圖的關(guān)鍵MP信息。如圖3所示,改進(jìn)后的SAM首先通過(guò)最大池化、平均池化和1×1 的卷積操作,將它們拼接成具有三個(gè)通道的特征圖,最后由單卷積核卷積降為空間權(quán)重為H×W×1 的特征圖,并通過(guò)激活操作后與輸入特征圖相乘,從而生成最終的特征圖。改進(jìn)的空間注意力模塊通過(guò)添加卷積操作更清晰地表達(dá)了特征圖空間位置的詳細(xì)權(quán)重,能有效提高對(duì)MP特征的辨別能力,其過(guò)程可以表示為公式(2):
其中,σ表示sigmoid激活函數(shù),O表示卷積操作,表示經(jīng)過(guò)均值池化、最大池化和卷積操作后的特征圖。
由于淺層的CNN 對(duì)行為特征提取不充分,認(rèn)證精度不高,深層的CNN雖然一定程度上提高了認(rèn)證精度,但是運(yùn)算復(fù)雜度更高、占用資源大,因此本文設(shè)計(jì)了一個(gè)包含五層卷積層的卷積神經(jīng)網(wǎng)絡(luò),對(duì)MP特征生成的RGB 圖進(jìn)行特征挖掘,以改善模型對(duì)多場(chǎng)景轉(zhuǎn)換下身份認(rèn)證的準(zhǔn)確率和檢測(cè)速度。而所提出的CNN-SACA模型是對(duì)該CNN的有效改進(jìn)。由于個(gè)體在不同場(chǎng)景下與移動(dòng)設(shè)備交互時(shí)具有不同的表現(xiàn),為了精準(zhǔn)提取和訓(xùn)練MP 特征,進(jìn)一步提高模型性能,本文設(shè)計(jì)并開(kāi)發(fā)了CNN-SACA 深度學(xué)習(xí)網(wǎng)絡(luò)模型,并加入線(xiàn)性修正單元和注意力模塊,增加網(wǎng)絡(luò)稀疏性,緩和過(guò)擬合,使得計(jì)算資源分配更加合理化。
Woo 等人[28]提出了CBAM 注意力機(jī)制模型,按通道-空間注意力模塊的標(biāo)準(zhǔn)串聯(lián)組合可達(dá)到模型最優(yōu)化,而在本文CNN 的結(jié)構(gòu)中卻表現(xiàn)不佳。CNN-Ⅴ模型在通過(guò)第一層卷積層后,由于卷積核尺寸和步長(zhǎng)較大,卷積過(guò)程中對(duì)空間信息的描述較多;而在最后一層卷積時(shí),模型已經(jīng)包含混合的空間及通道信息。因此,本文設(shè)計(jì)的CNN-SACA深度學(xué)習(xí)模型結(jié)構(gòu)如圖4所示,Acc是加速度計(jì),Gyro是陀螺儀,Mag是磁力計(jì),本文提取該三個(gè)傳感器的數(shù)據(jù),將其組合成專(zhuān)屬的MP特征作為模型的輸入。首先在模型的第一層卷積后嵌入SAM 和CAM的串聯(lián)組合,先對(duì)首次卷積后的MP特征圖分配空間注意力權(quán)重,再調(diào)整跨通道間的特征像素點(diǎn);而后將所獲得的特征圖按順序投入到四個(gè)卷積層中,并對(duì)其進(jìn)行快速抽象與匯總;最后在第五層卷積后按照標(biāo)準(zhǔn)模式依次嵌入CAM和SAM,對(duì)混合后的空間、通道MP特征信息進(jìn)行調(diào)整,再經(jīng)過(guò)Soft-max層完成對(duì)MP 特征的分類(lèi)。實(shí)驗(yàn)表明,以Conv-SACA-Conv-CASA為網(wǎng)絡(luò)結(jié)構(gòu)的模型性能優(yōu)于以標(biāo)準(zhǔn)串聯(lián)結(jié)構(gòu)嵌入的模型,能提高整個(gè)模型提取MP 特征的效率。本文提出基于卷積神經(jīng)網(wǎng)絡(luò)的注意力模塊算法如算法1所示。
圖4 CNN-SACA模型結(jié)構(gòu)圖Fig.4 Model structure of CNN-SACA
算法1 基于卷積神經(jīng)網(wǎng)絡(luò)的注意力模塊算法
CNN-SACA 模型算法中D表示包含實(shí)例E={e1,e2,…,en}的數(shù)據(jù)集,要規(guī)范化數(shù)據(jù),第一步是將原數(shù)據(jù)通過(guò)平均映射為D1,下一步是使用NumPy函數(shù)將數(shù)據(jù)轉(zhuǎn)換為2D 矩陣D2。第三步是將三個(gè)傳感器的數(shù)據(jù)轉(zhuǎn)換成多重矩陣,使用重塑函數(shù)轉(zhuǎn)換為圖像F以三維的形式作為CNN-SACA 模型的輸入。此外,在第一次池化后進(jìn)一步轉(zhuǎn)化為向量組V,作為注意力模塊的輸入,首先反序使用注意力模塊計(jì)算特征權(quán)重WS1,再通過(guò)多層快速卷積調(diào)整信息,最后按序通過(guò)注意力模塊接收該信息,分析數(shù)據(jù)序列之間的關(guān)聯(lián),這些輸出的向量組與不同的權(quán)重分?jǐn)?shù)WS3相乘,以預(yù)測(cè)目標(biāo)標(biāo)簽L。該過(guò)程根據(jù)數(shù)據(jù)的特殊性為數(shù)據(jù)分配分?jǐn)?shù),改進(jìn)了學(xué)習(xí)過(guò)程,有助于在持續(xù)身份認(rèn)證過(guò)程中實(shí)現(xiàn)更高的精度。
本文使用HMOG數(shù)據(jù)集研究本文移動(dòng)設(shè)備持續(xù)認(rèn)證方法。HMOG(hand movement,orientation,and grasp)數(shù)據(jù)集[30]。由威廉瑪麗學(xué)院(The College of William and Mary Hereby)的相關(guān)工作人員和學(xué)生團(tuán)隊(duì)收集,使用加速計(jì)、陀螺儀和磁強(qiáng)計(jì)讀數(shù),以不引人注目地捕捉用戶(hù)輕觸屏幕時(shí)產(chǎn)生的細(xì)微手部微動(dòng)作和方向模式,在本文中,稱(chēng)其為移動(dòng)模式(MP)特征。該研究開(kāi)發(fā)了一款數(shù)據(jù)采集工具,用于記錄用戶(hù)與手機(jī)交互調(diào)用的實(shí)時(shí)觸摸數(shù)據(jù)、傳感器數(shù)據(jù)和按鍵數(shù)據(jù),記錄了智能手機(jī)上兩種場(chǎng)景數(shù)據(jù)(坐姿和行走)以及不同行為數(shù)據(jù)。該實(shí)驗(yàn)招募了100 名志愿者進(jìn)行大規(guī)模數(shù)據(jù)收集。每位志愿者預(yù)計(jì)進(jìn)行24次會(huì)話(huà)(8次閱讀會(huì)話(huà)、8次寫(xiě)作會(huì)話(huà)和8次地圖導(dǎo)航會(huì)話(huà))這個(gè)數(shù)據(jù)集比任何現(xiàn)有的關(guān)于智能手機(jī)用戶(hù)交互的公共數(shù)據(jù)集具有更多的模式和更大的規(guī)模。
Holger[31]發(fā)現(xiàn)HMOG 數(shù)據(jù)集存在一些問(wèn)題。本文在使用和分析該數(shù)據(jù)集的過(guò)程中也發(fā)現(xiàn)了一些問(wèn)題:(1)用戶(hù)526 319和用戶(hù)796 581只有23次會(huì)話(huà)的數(shù)據(jù),而其他用戶(hù)均是24次的會(huì)話(huà)數(shù)據(jù);(2)數(shù)據(jù)文件夾名稱(chēng)與其包含的數(shù)據(jù)不一致;(3)每個(gè)用戶(hù)采集到的數(shù)據(jù)數(shù)量分布以及采集時(shí)間不均等,有4人僅貢獻(xiàn)了1.5 h的行為特征。這些問(wèn)題將導(dǎo)致MP特征缺失,從而使認(rèn)證結(jié)果出現(xiàn)偏差,因此在實(shí)驗(yàn)之前,將有缺失的用戶(hù)數(shù)據(jù)直接刪除,改正有微小錯(cuò)誤的用戶(hù)數(shù)據(jù),將剩余有效的用戶(hù)樣本構(gòu)成新的HMOG-N數(shù)據(jù)集。
本文使用了加速度計(jì)、陀螺儀和磁力計(jì)三個(gè)傳感器的數(shù)據(jù)。通過(guò)對(duì)原數(shù)據(jù)的觀(guān)察可知,首先,每個(gè)用戶(hù)在操作過(guò)程中會(huì)產(chǎn)生異常噪聲,這種出現(xiàn)在高頻或低頻的運(yùn)動(dòng)偽影,如圖5(a)所示,這是用戶(hù)在A(yíng)ccelerometer 中x軸的一段數(shù)據(jù),可以看到在實(shí)線(xiàn)框內(nèi)的第19 750個(gè)數(shù)據(jù)點(diǎn)左右出現(xiàn)了異常噪聲,對(duì)于這部分異常數(shù)據(jù)段直接剔除,而虛線(xiàn)框內(nèi)的數(shù)據(jù)則是正常操作智能手機(jī)后產(chǎn)生的數(shù)據(jù),如圖5(b)所示。本文利用小波去噪對(duì)數(shù)據(jù)進(jìn)行濾波處理,保證在消除噪聲的同時(shí),最大可能地保留原始數(shù)據(jù)信號(hào)形狀、寬度等分布特征,如圖5(b)中,濾波前的數(shù)據(jù)是原始數(shù)據(jù),而經(jīng)過(guò)小波去噪后,數(shù)據(jù)波形就會(huì)變得平滑,并且保留了用戶(hù)與智能手機(jī)進(jìn)行交互動(dòng)作時(shí)產(chǎn)生的有效數(shù)據(jù)??梢钥吹?,每200個(gè)數(shù)據(jù)點(diǎn)之間至少有一個(gè)交互動(dòng)作產(chǎn)生。
圖5 某用戶(hù)加速度計(jì)x 軸的數(shù)據(jù)Fig.5 Data from x-axis of one user’s accelerometer
現(xiàn)階段大部分的深度學(xué)習(xí)方法都建立在卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,由于其能在一定程度上實(shí)現(xiàn)對(duì)信息的區(qū)域感知和權(quán)重分享,因此在圖像識(shí)別領(lǐng)域中得到了廣泛運(yùn)用。然而,HMOG數(shù)據(jù)集所獲取的數(shù)據(jù)是一維信號(hào),為了充分發(fā)揮CNN的優(yōu)點(diǎn)和最大限度地發(fā)揮注意力模塊的作用,本文將不同場(chǎng)景下的三個(gè)傳感器數(shù)據(jù)轉(zhuǎn)化為二維RGB 圖像。在輸入到深度學(xué)習(xí)模型之前,先將處理過(guò)后的傳感器數(shù)據(jù)進(jìn)行平均映射,使其成為0~255范圍內(nèi)的像素點(diǎn),再將其排列組合成數(shù)據(jù)塊,最后轉(zhuǎn)成一定量的具有MP特征的RGB圖像,如圖6所示。
圖6 MP特征圖像Fig.6 MP feature image
在訓(xùn)練時(shí),選取除去合法用戶(hù)外的其余用戶(hù)的MP特征圖作為反例數(shù)據(jù)。每個(gè)用戶(hù)按照8∶1∶1 的比例獲得訓(xùn)練集、測(cè)試集和驗(yàn)證集,為了保持反例數(shù)據(jù)的有效性,則從其他所有用戶(hù)的數(shù)據(jù)集中分別等量抽取所需圖像數(shù),加入到該用戶(hù)的False數(shù)據(jù)子集中,形成新的用戶(hù)數(shù)據(jù)集。
模型實(shí)驗(yàn)選擇Adam優(yōu)化器,損失函數(shù)為分類(lèi)交叉熵?fù)p失函數(shù),batch_size 為32,學(xué)習(xí)率為0.000 06。本文選用以下常用評(píng)價(jià)指標(biāo)對(duì)實(shí)驗(yàn)各個(gè)環(huán)節(jié)進(jìn)行評(píng)估,分別是準(zhǔn)確率(Accuracy)、召回率(Recall)、F1 分?jǐn)?shù)(F1-socre)、錯(cuò)誤拒絕率(FRR)、錯(cuò)誤接受率(FAR)、等錯(cuò)誤率(EER)、AUC值。
3.3.1 CNN模型選擇
為了選擇在多場(chǎng)景下表現(xiàn)更好的網(wǎng)絡(luò)模型,實(shí)驗(yàn)中設(shè)計(jì)了多種不同參數(shù)的卷積神經(jīng)網(wǎng)絡(luò)分別對(duì)用戶(hù)多場(chǎng)景下的MP特征進(jìn)行分類(lèi)認(rèn)證,使用新數(shù)據(jù)集HMOG-N進(jìn)行測(cè)試。表1 顯示了不同參數(shù)結(jié)構(gòu)的CNN 模型在對(duì)靜態(tài)場(chǎng)景和動(dòng)態(tài)場(chǎng)景下訓(xùn)練后,其所需的訓(xùn)練時(shí)間和驗(yàn)證集所能達(dá)到的準(zhǔn)確率。
表1 單場(chǎng)景下不同CNN模型的準(zhǔn)確率和訓(xùn)練時(shí)間對(duì)比Table 1 Comparison of accuracy and training time of different CNN models in single scenario
由表1可知,本文設(shè)計(jì)的多種參數(shù)結(jié)構(gòu)的CNN模型在準(zhǔn)確率方面都取得了不錯(cuò)的結(jié)果,縱向?qū)Ρ?,在靜態(tài)場(chǎng)景下身份認(rèn)證的準(zhǔn)確率均在96%以上,動(dòng)態(tài)場(chǎng)景下的準(zhǔn)確率略低于靜態(tài)場(chǎng)景,但也都在93%以上;橫向?qū)Ρ?,在單?chǎng)景下,卷積層為5層的CNN耗費(fèi)的訓(xùn)練時(shí)間雖然比有些淺層的模型長(zhǎng),但在準(zhǔn)確率方面都表現(xiàn)得更好,且不同的卷積核大小和卷積核個(gè)數(shù)對(duì)結(jié)果并沒(méi)有很大的影響。對(duì)于更深層的模型來(lái)說(shuō),單場(chǎng)景下的準(zhǔn)確率有所下降,僅個(gè)別動(dòng)態(tài)場(chǎng)景達(dá)到了較高準(zhǔn)確率,但訓(xùn)練時(shí)間花費(fèi)太多,效率較差。
此外,本文使用分類(lèi)交叉熵?fù)p失函數(shù)來(lái)計(jì)算算法的損失值,從而評(píng)估單場(chǎng)景下不同網(wǎng)絡(luò)的性能,圖7 顯示了其收斂情況。圖7(a)是各模型在單場(chǎng)景-坐姿下的損失值,圖7(b)是各模型在單場(chǎng)景-步行下的損失值。由圖7(a)、(b)所示,在相同超參數(shù)下,模型Ⅴ、模型Ⅵ在單場(chǎng)景下的損失值明顯低于包含3層、4層以及6層卷積層的模型,并在同層數(shù)的模型中收斂更快、更平穩(wěn)。
圖7 不同CNN模型的損失值Fig.7 Loss values for different CNN models
為了測(cè)試所設(shè)計(jì)模型在多場(chǎng)景下的身份認(rèn)證性能,將混合后的多場(chǎng)景數(shù)據(jù)集輸入到網(wǎng)絡(luò)中。表2 是在多場(chǎng)景下不同結(jié)構(gòu)的CNN 進(jìn)行身份認(rèn)證的準(zhǔn)確率、召回率和F1 分?jǐn)?shù)。圖8 是多種模型分別在單場(chǎng)景和多場(chǎng)景下的準(zhǔn)確率對(duì)比,可以看到,模型Ⅴ、模型Ⅷ和模型Ⅸ在輸入多場(chǎng)景數(shù)據(jù)后,準(zhǔn)確率得到了提升,而其他模型的準(zhǔn)確率反而有所下降。由表2可知,較為深層的模型能更好地表達(dá)多場(chǎng)景下的MP 特征,相較于模型Ⅷ和模型Ⅸ,模型Ⅴ的召回率和F1-score 最高,達(dá)到了98%和0.98,證明模型Ⅴ能更好地識(shí)別多場(chǎng)景下的數(shù)據(jù)類(lèi)型。綜上所述,本文選擇模型Ⅴ作為本文深度學(xué)習(xí)模型基礎(chǔ)。
表2 多場(chǎng)景下不同模型的準(zhǔn)確率、召回率和F1分?jǐn)?shù)Table 2 Accuracy,Recall and F1 score of different models in multiple scenarios
圖8 單場(chǎng)景和多場(chǎng)景下的認(rèn)證準(zhǔn)確率對(duì)比Fig.8 Comparison of authentication accuracy in single and multiple scenarios
3.3.2 超參數(shù)比較
超參數(shù)的設(shè)置會(huì)對(duì)網(wǎng)絡(luò)帶來(lái)不一樣的影響,本小節(jié)將改變參數(shù)bs(batch_size)和lr(學(xué)習(xí)率)驗(yàn)證其對(duì)靜態(tài)場(chǎng)景和動(dòng)態(tài)場(chǎng)景性能的影響。保持其他參數(shù)不變的同時(shí),將bs從8 以2 的冪次方逐漸調(diào)整到256,將lr從0.01調(diào)整到0.000 001。結(jié)果如圖9所示,虛線(xiàn)代表的是準(zhǔn)確率曲線(xiàn),實(shí)線(xiàn)代表訓(xùn)練時(shí)間變化。圖9(a)中,隨著bs的增加,兩種場(chǎng)景的性能也隨之增加,認(rèn)證準(zhǔn)確率在bs=32 達(dá)到極值,而后開(kāi)始降低,模型泛化性下降。動(dòng)態(tài)場(chǎng)景的準(zhǔn)確率在bs=256 時(shí)得到細(xì)微提升,但還是低于bs=32 時(shí)的最佳值,且訓(xùn)練時(shí)間顯著增加,這會(huì)耗費(fèi)更多的計(jì)算資源。對(duì)于參數(shù)lr來(lái)說(shuō),在0.01 時(shí)損失值就急劇上升,導(dǎo)致模型無(wú)法完成正常訓(xùn)練,出現(xiàn)準(zhǔn)確率極低的現(xiàn)象。隨著lr逐漸減緩,如圖9(b)所示,兩種場(chǎng)景的認(rèn)證準(zhǔn)確率都在lr=0.000 06 時(shí)獲得優(yōu)勢(shì),而后又逐漸降低。另一方面,訓(xùn)練時(shí)間在兩種場(chǎng)景中上下波動(dòng)較大,但綜合來(lái)說(shuō),模型性能在lr=0.000 06時(shí)能達(dá)到最優(yōu)。
圖9 超參數(shù)比較Fig.9 Hyperparameter comparison
注意力機(jī)制模擬了人類(lèi)的視覺(jué),它能夠聚焦某些特定特征而不是整片區(qū)域,從而濾除大部分噪聲數(shù)據(jù),提取有效信息??紤]到本文設(shè)計(jì)的CNN模型各方面的性能,選取模型Ⅴ融合注意力模塊進(jìn)行實(shí)驗(yàn),以測(cè)試模型的認(rèn)證準(zhǔn)確性。由表3可知,在五層CNN模型中融入注意力模塊,并改變其排列方式可以得到不同的準(zhǔn)確率。本文所設(shè)計(jì)的CNN-SACA模型,即在模型Ⅴ第一層卷積層后按序通過(guò)改進(jìn)的空間注意力子模塊和通道注意力子模塊,再在第五層卷積層后按反序輸入注意力模塊時(shí),能達(dá)到最高的準(zhǔn)確率99.6%。因此,本文模型采用的順序融合方式優(yōu)于其他模型的組合方式,更能關(guān)注到多場(chǎng)景下的MP特征,達(dá)到高準(zhǔn)確率的身份識(shí)別。
表3 注意力模塊不同融合方式的認(rèn)證準(zhǔn)確率Table 3 Authentication accuracy of different fusion methods of attention module
3.5.1 多場(chǎng)景認(rèn)證性能評(píng)估
本小節(jié)對(duì)CNN-SACA 模型在單場(chǎng)景和多場(chǎng)景下的認(rèn)證性能以及不同行為下的認(rèn)證性能進(jìn)行評(píng)估。圖10 給出了CNN-SACA模型分別在靜態(tài)場(chǎng)景,動(dòng)態(tài)場(chǎng)景以及多場(chǎng)景下性能評(píng)估。可以看到,所提出的CNNSACA 模型在單個(gè)場(chǎng)景下的準(zhǔn)確率表現(xiàn)不錯(cuò),能達(dá)到98.1%(靜態(tài)場(chǎng)景)和97.7%(動(dòng)態(tài)場(chǎng)景)的準(zhǔn)確率,但是多場(chǎng)景下的認(rèn)證準(zhǔn)確率更高,能達(dá)到99.6%的準(zhǔn)確率,由圖10(b)可知,ROC 曲線(xiàn)表現(xiàn)也更好,多場(chǎng)景下的AUC值為0.997。結(jié)果表明,CNN-SACA模型具有強(qiáng)大的特征提取能力,能夠?qū)Σ煌脩?hù)的MP特征進(jìn)行準(zhǔn)確地識(shí)別,驗(yàn)證了本模型在多場(chǎng)景下進(jìn)行身份認(rèn)證的可行性。
圖10 CNN-SACA模型在不同場(chǎng)景下的性能Fig.10 Performance of CNN-SACA model in different scenarios
此外,針對(duì)多場(chǎng)景下不同行為特征的差異對(duì)CNNSACA 模型性能的影響,本文對(duì)數(shù)據(jù)集中的三種行為(reading、writing、map)進(jìn)行分類(lèi)。如圖11所示,不限場(chǎng)景的情況下,三種行為的身份認(rèn)證準(zhǔn)確率可以達(dá)到97.5%以上,特別地在writing 行為下,準(zhǔn)確率能達(dá)到99%以上,說(shuō)明用戶(hù)在輸入文本時(shí)產(chǎn)生的MP 特征具有更強(qiáng)地辨識(shí)性,也證明了本文所設(shè)計(jì)的模型在不同行為下仍具有較高的認(rèn)證準(zhǔn)確率。
圖11 CNN-SACA模型在不同行為下的準(zhǔn)確率曲線(xiàn)Fig.11 Accuracy curves of CNN-SACA model under different behaviours
3.5.2 CNN-Ⅴ與CNN-SACA對(duì)比分析
本小節(jié)將進(jìn)一步對(duì)所提出的兩種深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行實(shí)驗(yàn)分析。單獨(dú)的CNN 和CNN-SACA 在單場(chǎng)景和多場(chǎng)景下各自的ROC曲線(xiàn)如圖12、圖13所示。由圖可知,六種情況下的AUC值均在0.97以上,說(shuō)明提出的MP特征具有很強(qiáng)的辨識(shí)性,可以有效地鑒別出合法用戶(hù)或非法用戶(hù)。而當(dāng)單場(chǎng)景的真正率未達(dá)到0.6、多場(chǎng)景的真正率未達(dá)到0.8時(shí),真正率都快速提升,變化較為一致,說(shuō)明兩種模型響應(yīng)迅速,但在達(dá)到0.6 和0.8 以上時(shí),CNN模型的真正率開(kāi)始變化緩慢,表明其誤差分類(lèi)逐漸增加,模型性能開(kāi)始變差,不如融合了注意力模塊的CNN-SACA 模型。由此證明,無(wú)論是單場(chǎng)景還是多場(chǎng)景條件,CNN-SACA 模型的性能均比CNN 模型好,此外,CNN-SACA 的AUC 值也都高于單獨(dú)的CNN模型,多場(chǎng)景下幾乎達(dá)到1,證明了該模型的有效性和優(yōu)越性。
圖12 CNN-Ⅴ與CNN-SACA模型在單場(chǎng)景下的ROC曲線(xiàn)Fig.12 ROC curves of CNN-Ⅴand CNN-SACA models in single scenario
圖13 CNN-Ⅴ與CNN-SACA模型在多場(chǎng)景下的ROC曲線(xiàn)Fig.13 ROC curves of CNN-Ⅴand CNN-SACA models in multiple scenarios
同時(shí),如圖14所示,本文通過(guò)計(jì)算認(rèn)證結(jié)果的錯(cuò)誤接受率FAR、錯(cuò)誤拒絕率FRR、等錯(cuò)誤率EER證明,在多場(chǎng)景的驗(yàn)證下,本文設(shè)計(jì)的單獨(dú)的CNN 模型可以達(dá)到不錯(cuò)的認(rèn)證結(jié)果,F(xiàn)AR 為3.54%,F(xiàn)RR 為1.76%,EER 為2.65%,而融合了注意力模塊的CNN-SACA 模型三項(xiàng)指標(biāo)均低于單獨(dú)的CNN,且EER 降至1.32%。綜上所述,相比于單獨(dú)的CNN,所提CNN-SACA模型能更好地識(shí)別多場(chǎng)景下的MP特征,達(dá)到更好的認(rèn)證效率。
圖14 CNN-Ⅴ與CNN-SACA模型的FAR、FRR、EER對(duì)比Fig.14 Comparison of FAR,FRR and EER for CNN-Ⅴand CNN-SACA models
3.5.3 與其他算法的對(duì)比分析
本小節(jié)將證明所提出的CNN-SACA模型的有效性和合理性,表4 將本文算法與SVM、RF、CNN-Ⅴ、CNNLSTM、VGGNet、ResNet 和CNN-SE 進(jìn)行了性能比較。實(shí)驗(yàn)結(jié)果表明,SVM與RF在驗(yàn)證集上的認(rèn)證準(zhǔn)確率明顯比其他深度學(xué)習(xí)算法低,可見(jiàn)未通過(guò)手動(dòng)選擇特征的機(jī)器學(xué)習(xí)方法在認(rèn)證準(zhǔn)確率方面效果不佳。而在不同的深度學(xué)習(xí)算法中,本文所使用的MP特征基本能在多場(chǎng)景下達(dá)到準(zhǔn)確認(rèn)證的結(jié)果,準(zhǔn)確率可達(dá)到97%以上,并且認(rèn)證時(shí)間只需在2 s以?xún)?nèi)。而本文模型在驗(yàn)證集上的準(zhǔn)確率可達(dá)99.6%,比CNN-V 模型提高了1.5 個(gè)百分點(diǎn),證明模型泛化能力強(qiáng),能較好地識(shí)別多場(chǎng)景下的MP特征。
表4 不同算法的準(zhǔn)確率和單次訓(xùn)練時(shí)間Table 4 Accuracy and single training time of different algorithms
為了進(jìn)一步研究融入注意力模塊對(duì)網(wǎng)絡(luò)復(fù)雜度的影響,表5分別從模型的參數(shù)量、浮點(diǎn)運(yùn)算數(shù)GFLOPs等三個(gè)方面來(lái)評(píng)估該四種深度學(xué)習(xí)模型的復(fù)雜度。本文方法融入兩層注意力模塊后,使模型參數(shù)量比原設(shè)計(jì)的CNN 模型降低了4×106,加快了模型收斂;而在運(yùn)算復(fù)雜度方面也僅升高了0.3,但是相較于加了長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)的卷積神經(jīng)網(wǎng)絡(luò)、深層的VGG 和ResNet 來(lái)說(shuō)分別縮小了0.4、12.6 和1.3,說(shuō)明在硬件資源有限的情況下,本文方法也能滿(mǎn)足部署模型的要求;此外,VGG和ResNet網(wǎng)絡(luò)在MemR+W 方面比本文模型分別增加了近12 倍和4 倍。而融合了SE 注意力機(jī)制的CNN-SE 模型與本文模型在復(fù)雜度方面基本相當(dāng),但是在公開(kāi)數(shù)據(jù)集上的準(zhǔn)確率卻遠(yuǎn)不及本文模型。綜上所述,更深層的網(wǎng)絡(luò)以及單通道的注意力模型并不適用于MP特征的提取,而本文方法兼顧了模型運(yùn)算復(fù)雜度與認(rèn)證準(zhǔn)確率。
表5 不同算法的復(fù)雜度比較Table 5 Comparison of complexity of different algorithms
3.5.4 與其他相關(guān)研究對(duì)比
本節(jié)通過(guò)與其他采用同一數(shù)據(jù)集的不同類(lèi)型的模型進(jìn)行比較,以檢驗(yàn)本文研究模型的優(yōu)越性和有效性。表6 為各個(gè)網(wǎng)絡(luò)模型的性能評(píng)價(jià)結(jié)果。在文獻(xiàn)[32]中,作者利用Scaled Manhattan 分類(lèi)器,使EER 達(dá)到7.16%(步行)和10.05%(坐著),而本文在多場(chǎng)景下的EER 僅為1.32%。文獻(xiàn)[33]使用Siamese CNN 提取特征,再通過(guò)支持向量機(jī)進(jìn)行分類(lèi),其實(shí)驗(yàn)準(zhǔn)確率達(dá)到了97.8%。將本文所設(shè)計(jì)的CNN 模型與Siamese CNN+SVM 相比,準(zhǔn)確率會(huì)有0.3 個(gè)百分點(diǎn)的提升,而在融合了CNN和注意力模塊的情況下,認(rèn)證準(zhǔn)確率會(huì)再次提高1.5 個(gè)百分點(diǎn)。文獻(xiàn)[34]利用HMM(隱馬爾可夫模型)使FAR達(dá)到5.13%,F(xiàn)RR達(dá)到6.74%,而本文的FAR僅為1.99%,F(xiàn)RR 僅為1.32%。文獻(xiàn)[35]在KRR-TRBF6 分類(lèi)器下,Sensor CA 系統(tǒng)的中位等錯(cuò)誤率最低為3.0%;文獻(xiàn)[36]使用OCSVM,使EER 達(dá)到4.66%,而在本文中,CNNSACA 模型的EER 僅為1.32%。以上分析表明,基于CNN-SACA和移動(dòng)模式特征的持續(xù)身份認(rèn)證方法能達(dá)到更高的認(rèn)證準(zhǔn)確率,EER也達(dá)到了最優(yōu)。
表6 相關(guān)工作對(duì)比Table 6 Comparison of related work
本文提出基于移動(dòng)模式特征和深度學(xué)習(xí)的持續(xù)身份認(rèn)證方法,采集移動(dòng)設(shè)備多場(chǎng)景下的加速度傳感器、陀螺儀傳感器、磁場(chǎng)傳感器數(shù)據(jù),利用這些數(shù)據(jù)生成獨(dú)特的MP 特征,并通過(guò)CNN-SACA 模型進(jìn)行訓(xùn)練,實(shí)現(xiàn)在多場(chǎng)景下對(duì)用戶(hù)身份的持續(xù)認(rèn)證。實(shí)驗(yàn)結(jié)果表明,無(wú)論與單場(chǎng)景特征身份認(rèn)證,還是單獨(dú)的CNN模型相比,該方法可有效阻止非法訪(fǎng)問(wèn)者入侵移動(dòng)設(shè)備,認(rèn)證準(zhǔn)確率更高。但是目前工作仍有部分情況未考慮到,例如同一用戶(hù)可能持有多個(gè)移動(dòng)設(shè)備,在切換設(shè)備使用時(shí)會(huì)產(chǎn)生誤差。在今后的工作中,將優(yōu)化本文多場(chǎng)景模型并應(yīng)用在跨設(shè)備上。