許 凡, 程 華, 房一泉
(華東理工大學(xué)信息科學(xué)與工程學(xué)院,上海 200237)
基于CLSTM的步態(tài)分類方法
許 凡, 程 華, 房一泉
(華東理工大學(xué)信息科學(xué)與工程學(xué)院,上海 200237)
步態(tài)分類在人體運(yùn)動(dòng)能量消耗評(píng)估等應(yīng)用中具有重要意義,提高分類精度和降低對(duì)統(tǒng)計(jì)特征的依賴是步態(tài)分類的研究熱點(diǎn)。采用傳統(tǒng)的步態(tài)分類方法提取的步態(tài)特征用于細(xì)分化步態(tài)時(shí)不能得到較好的效果??紤]到步態(tài)的連續(xù)性和不同軸之間信號(hào)的相關(guān)性,本文提出了基于CLSTM的步態(tài)分類方法:采用卷積神經(jīng)網(wǎng)絡(luò)(CNN)操作,通過(guò)計(jì)算多軸步態(tài)數(shù)據(jù)提取步態(tài)特征;基于長(zhǎng)短期記憶(LSTM)構(gòu)建步態(tài)時(shí)間序列模型,學(xué)習(xí)步態(tài)特征圖時(shí)間維度上的長(zhǎng)期依賴性?;赨SC-HAD數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,用此方法提取了步態(tài)序列特征,很好地利用了步態(tài)時(shí)間序列特點(diǎn),提升了11種步態(tài)的分類精度。
步態(tài)分類; 信號(hào)相關(guān)性; 卷積神經(jīng)網(wǎng)絡(luò); LSTM
可穿戴智能設(shè)備很容易獲取步態(tài)數(shù)據(jù),而步態(tài)分類技術(shù)在人體健康監(jiān)控、人體運(yùn)動(dòng)能量消耗評(píng)估、跌倒檢測(cè)等方面應(yīng)用廣泛。顯然,步態(tài)模式的識(shí)別和分類具有重要的意義,而目前研究的步態(tài)模式很少[1-3],文獻(xiàn)[4]僅構(gòu)建了11種步態(tài),且未做識(shí)別分類。文獻(xiàn)[1,5]采用手動(dòng)方法提取步態(tài)統(tǒng)計(jì)特征,需要有步態(tài)信號(hào)的專業(yè)知識(shí)[6],應(yīng)用多種特征分類步態(tài),冗余的特征導(dǎo)致識(shí)別能力下降,計(jì)算量加大。文獻(xiàn)[7-8]采用隱馬爾科夫模型進(jìn)行長(zhǎng)期行為識(shí)別,但分類器的輸入仍然是步態(tài)統(tǒng)計(jì)特征,且步態(tài)的長(zhǎng)期行為只采樣前后一幀數(shù)據(jù),數(shù)據(jù)長(zhǎng)度有限,分類效果不佳。文獻(xiàn)[9]采用卷積神經(jīng)網(wǎng)絡(luò)識(shí)別步態(tài),全連接方式處理特征圖,輸入到輸出完全獨(dú)立,但未考慮步態(tài)序列時(shí)間關(guān)系。采用全連接結(jié)構(gòu)需要連接步態(tài)特征圖中的所有值,增加了大量的權(quán)值矩陣,影響了網(wǎng)絡(luò)的識(shí)別能力。
采用深度學(xué)習(xí)的方法處理時(shí)間序列數(shù)據(jù)已廣泛應(yīng)用于語(yǔ)音、視頻等領(lǐng)域中。文獻(xiàn)[8]在隱馬爾科夫模型基礎(chǔ)上采用深度神經(jīng)網(wǎng)絡(luò)(DNN)提取步態(tài)特征,分類效果優(yōu)于文獻(xiàn)[7]。文獻(xiàn)[10]建立了CNN和LSTM的組合模型,CNN提取語(yǔ)音的深度特征,LSTM建立特征的時(shí)間序列模型,取得了很好的分類效果。為此,本文提出了基于CLSTM的步態(tài)分類方法。
以往文獻(xiàn)中提取的傳感器步態(tài)時(shí)間序列信號(hào)特征均忽略不同軸之間信號(hào)的相關(guān)性,而本文將獲取的多軸步態(tài)數(shù)據(jù)按兩兩互鄰排列,CNN卷積計(jì)算相鄰軸數(shù)據(jù)間隱含的相關(guān)性,能提取步態(tài)本質(zhì)特征。CNN通過(guò)卷積操作、局部感受野和權(quán)值共享,逐層學(xué)習(xí)得到步態(tài)的深層特征,使原步態(tài)信號(hào)特征增強(qiáng),且降低噪聲,同時(shí)避免復(fù)雜的步態(tài)特征提取、選擇及數(shù)據(jù)重建過(guò)程。LSTM提供長(zhǎng)時(shí)記憶的功能,利用步態(tài)的時(shí)序關(guān)系,建立步態(tài)分類的時(shí)間序列模型,學(xué)習(xí)得到復(fù)雜的步態(tài)模式,提高步態(tài)模式分類精度。采用人體日常行為數(shù)據(jù)庫(kù)USC-HAD[4]評(píng)估本文方法的有效性,實(shí)驗(yàn)結(jié)果表明該方法能有效地分析步態(tài)的特性并分類步態(tài)模式,提高分類精度,滿足現(xiàn)有智能設(shè)備的步態(tài)識(shí)別。
1.1步態(tài)信號(hào)的表示
(1)
為利用不同軸間的信號(hào)相關(guān)性,增強(qiáng)對(duì)步態(tài)數(shù)據(jù)的描述,且不破壞步態(tài)原始數(shù)據(jù),將Z中兩兩非相鄰軸步態(tài)向量排列組合,構(gòu)成表示卷積層輸入數(shù)據(jù)的36×N矩陣:
(2)
使得不同軸步態(tài)數(shù)據(jù)在CNN卷積過(guò)程中能共同參與計(jì)算,提取到的特征更能表示原始步態(tài)信息。
1.2基于CNN卷積的步態(tài)特征提取
CNN提取步態(tài)原始信號(hào)特征用于步態(tài)分類取得了很好的效果[12]。由1.1節(jié)得到的36×N步態(tài)輸入數(shù)據(jù)作為CNN層級(jí)結(jié)構(gòu)的最底層輸入,每層輸出數(shù)據(jù)依次傳輸?shù)较乱粚?通過(guò)卷積操作計(jì)算每層相同輸入、不同步態(tài)區(qū)域數(shù)據(jù)與卷積核點(diǎn)乘值,再經(jīng)激活函數(shù)得到激活值,生成包含原始數(shù)據(jù)的部分特征的步態(tài)特征圖。增加更多的不同卷積核會(huì)獲得更多關(guān)于原始步態(tài)的特征,可用于分類模型的輸入并得到更精確的概率輸出。
(3)
圖1 步態(tài)特征提取過(guò)程Fig 1 Gait features extraction process
2.1概述
一般的模式識(shí)別方法,如HMM、SVM及傳統(tǒng)CNN模型,只獨(dú)立計(jì)算出不同傳感器數(shù)據(jù)的靜態(tài)特征和動(dòng)態(tài)特征,且只考慮當(dāng)前分割時(shí)間段內(nèi)的數(shù)據(jù),忽略步態(tài)序列的連續(xù)性。本文基于LSTM構(gòu)建步態(tài)序列特征模型,充分利用步態(tài)時(shí)間序列的時(shí)間信息,通過(guò)記憶單元存儲(chǔ)、修正并連接內(nèi)部狀態(tài)信息(Cell State),精確改變權(quán)值。
2.2基于LSTM的循環(huán)神經(jīng)網(wǎng)絡(luò)模型
文獻(xiàn)[1-2]采用傳統(tǒng)CNN分類步態(tài),全連接層每個(gè)神經(jīng)元都與特征圖的每個(gè)節(jié)點(diǎn)連接,無(wú)疑增加了權(quán)值矩陣,增大了計(jì)算量;且全連接方式未考慮步態(tài)在時(shí)間維度上的相關(guān)性,獨(dú)立計(jì)算每個(gè)特征值導(dǎo)致分類效果較差。本文提出采用LSTM處理步態(tài)時(shí)間序列特征圖,通過(guò)LSTM的輸入門、遺忘門、輸出門保護(hù)和控制每個(gè)記憶單元的激活情況,更好地學(xué)習(xí)步態(tài)時(shí)間信息,精確修正權(quán)值。
LSTM模型中,每一時(shí)刻的隱含層輸出都會(huì)作為下一時(shí)刻隱含層的輸入,即上一時(shí)刻的輸出值影響下一時(shí)刻的輸入值,建立步態(tài)時(shí)間序列模型,如圖2所示。
圖2 步態(tài)分類的LSTM模型示意圖Fig.2 Schematic diagram of LSTM model for gaits classification
LSTM的輸入為步態(tài)特征序列(a1,a2,…,aT)和t-1時(shí)刻隱藏層輸出ht-1,輸出步態(tài)概率分布為(h1,h2,…,hT)。LSTM模型完成步驟如下:
(1) 計(jì)算步態(tài)特征t時(shí)刻的“候選”輸入值cint和輸入門激活值it。
(4)
(5)
其中:gi,gc分別為sigmoid函數(shù)和tanh函數(shù);ct-1為t-1時(shí)刻步態(tài)狀態(tài)信息;Wai,Whi,Wci分別為輸入a、隱含層輸出h以及狀態(tài)c到輸入門i的權(quán)值矩陣;Wac,Whc為輸入a和隱含層輸出h到細(xì)胞狀態(tài)c的權(quán)值矩陣;bi,bcin分別為輸入門激活偏置向量和步態(tài)特征激活偏置向量。采用沿時(shí)間反向傳播方法(BPTT)[13]訓(xùn)練權(quán)值矩陣和偏置向量參數(shù)。it的取值為[0 1],數(shù)值越大說(shuō)明t時(shí)刻cint被寫進(jìn)t時(shí)刻步態(tài)狀態(tài)ct的概率越大。
(2) 計(jì)算遺忘門激活值ft。
(6)
其中:gf為sigmoid函數(shù);Waf,Whf,Wcf為輸入a、隱含層輸出h以及狀態(tài)c到輸入門f的權(quán)值矩陣;bf為遺忘門激活偏置向量。ft的取值為[0 1],數(shù)值越小,說(shuō)明遺忘程度越高,則t時(shí)刻步態(tài)狀態(tài)不會(huì)被t-1時(shí)刻步態(tài)狀態(tài)影響。
(3) 細(xì)胞狀態(tài)(Cellstate)更新。
通過(guò)ft和it更新ct值,
(7)
其中:ct是t時(shí)刻值cint和t-1時(shí)刻值ct-1的有效結(jié)合;ft·ct-1表示的是t時(shí)刻步態(tài)狀態(tài)ct受到ct-1的影響程度,ft取值越大,則ct-1值完全賦值給ct;it·cint表示t時(shí)刻允許當(dāng)前輸入步態(tài)信息cint決定當(dāng)前步態(tài)狀態(tài)ct的程度,it取值越大,則cint最大化地決定ct,沒有任何步態(tài)信息損失,全部傳入ct。
(4) 計(jì)算輸出門激活值ht、隱藏層輸出值ot。
(8)
(9)
其中:go是sigmoid函數(shù);Wao、Who、Wco分別為輸入a、隱含層輸出h、以及狀態(tài)c到輸出門o的權(quán)值矩陣;bo表示輸出門激活偏置向量;ht是由ot決定狀態(tài)ct中所有步態(tài)信息有效性的概率分布,決定t時(shí)刻步態(tài)信息所屬步態(tài)類別的概率。
2.3基于CLSTM的步態(tài)分類方法
基于CLSTM的步態(tài)分類方法如圖3所示,包括輸入層、CNN步態(tài)特征提取層、LSTM循環(huán)層以及Softmax分類層。算法步驟如下:
(1) 由1.1節(jié)提出的步態(tài)輸入數(shù)據(jù)表示方法,將2種原始步態(tài)信號(hào)擴(kuò)展為36×N的多軸步態(tài)數(shù)據(jù)相鄰的矩陣Y。
(2) 式(3)采用4層5×5的卷積核Pl作為特征提取器提取步態(tài)特征,卷積核個(gè)數(shù)為64個(gè),依據(jù)反向傳播[14]更新卷積核,得到表示原始步態(tài)信號(hào)的步態(tài)特征圖(a1,a2,…,aT)。
(3) 應(yīng)用LSTM學(xué)習(xí)步態(tài)特征,并建立步態(tài)時(shí)間模型;將時(shí)間序列數(shù)據(jù)(a1,a2,…,aT)輸入到LSTM模型(ht,ct)=LSTM(at,ht-1,ct-1),得到t
時(shí)刻輸出的步態(tài)模式向量ht和狀態(tài)向量ct,LSTM節(jié)點(diǎn)個(gè)數(shù)為128個(gè)。
圖3 基于CLSTM的步態(tài)模式分類方法Fig.3 CLSTM method for gait pattern classification
3.1實(shí)驗(yàn)數(shù)據(jù)
實(shí)驗(yàn)采用包含多種步態(tài)模式加速度數(shù)據(jù)的Southern California University人體日常行為數(shù)據(jù)庫(kù)USC-HAD[4]評(píng)估本文方法的有效性。USC-HAD是關(guān)于14名健康實(shí)驗(yàn)參與者基于加速度和陀螺儀傳感器獲取并整理的步態(tài)數(shù)據(jù)庫(kù),包含了11種步態(tài)模式,見表1。步態(tài)采樣頻率為100 Hz,步態(tài)長(zhǎng)度N為100。
3.2實(shí)驗(yàn)結(jié)果與分析
3.2.1 模型參數(shù)對(duì)分類的影響 卷積層數(shù)和卷積核大小對(duì)CLSTM方法分類結(jié)果的影響見圖4和表2。
圖4 卷積層數(shù)對(duì)F1值的影響趨勢(shì)圖Fig 4 Trend of the effect of number of convolution layers on F1
從圖4可以看出,當(dāng)卷積層數(shù)為4時(shí),對(duì)兩個(gè)數(shù)據(jù)集(USC-HAD和opportunity[15])分類獲得的結(jié)果最優(yōu),因?yàn)?層卷積網(wǎng)絡(luò)能很好地提取步態(tài)足夠的本質(zhì)特征,且無(wú)需進(jìn)行更多的冗余計(jì)算,不僅減少了運(yùn)行時(shí)間,也能得到較好的結(jié)果。
由表2可知,將2種原始步態(tài)信號(hào)擴(kuò)展為36×N的多軸步態(tài)數(shù)據(jù)相鄰的矩陣Y,F1值比輸入信號(hào)為Z(式(1))時(shí)高出7%;隨著輸入步態(tài)信號(hào)維度大小的不同,調(diào)整卷積核大小為5×5。因?yàn)椴煌S步態(tài)信號(hào)存在信息相關(guān)性,通過(guò)5×5的卷積運(yùn)算使得不同軸步態(tài)數(shù)據(jù)在CNN卷積過(guò)程中能共同參與計(jì)算,提取得到的特征更能表示原始步態(tài)信息,從而得到很好的結(jié)果。
表1 步態(tài)模式Table 1 Gaits pattern
表2 輸入數(shù)據(jù)和卷積核大小對(duì)F1值的影響Table 2 Effect of size of input data and convolution kernel on F1
3.2.2 與傳統(tǒng)方法的比較 將CLSTM方法與傳統(tǒng)模型方法SVM[1]、HMM[7]、CNN[3]應(yīng)用于USC-HAD數(shù)據(jù)上,結(jié)果如表3所示。其中,Subject 1、Subject 5、Subject 10表示3個(gè)實(shí)驗(yàn)參與者,結(jié)果用Accuracy參數(shù)[12]評(píng)估各種方法的性能。選取每個(gè)實(shí)驗(yàn)參與者每種步態(tài)10個(gè)樣本,每個(gè)樣本有100個(gè)數(shù)據(jù)點(diǎn)。
表3 步態(tài)分類方法的實(shí)驗(yàn)結(jié)果比較Table 3 Results comparison of the gait pattern classification methods
由表3可知,CLSTM方法應(yīng)用在不同實(shí)驗(yàn)參與者上的表現(xiàn)都非常好,說(shuō)明該方法適用于傳感器步態(tài)分類;CLSTM和CNN比傳統(tǒng)模型SVM和HMM識(shí)別精度高,說(shuō)明CNN提取特征對(duì)步態(tài)分類更加高效和精確,而統(tǒng)計(jì)特征越來(lái)越不適用于復(fù)雜的步態(tài)序列識(shí)別和分類。
CLSTM方法對(duì)Subject 1、Subject 5、Subject 10的分類精度比CNN高出3%以上,表明循環(huán)LSTM提供了步態(tài)間更清晰的分割特性,能更好地區(qū)分相似的步態(tài),得到了每種步態(tài)更好的分類結(jié)果,提升了整體的分類精度。
3.2.3 對(duì)5種和11種步態(tài)模式數(shù)據(jù)分類的實(shí)驗(yàn)結(jié)果與分析 細(xì)分的步態(tài)模式會(huì)有多種相似的步態(tài),如“向前走”、“向左走”和“向右走”,為驗(yàn)證本文方法對(duì)粗分步態(tài)模式和細(xì)分步態(tài)模式的分類效果,分別針對(duì)5種粗分步態(tài)模式(走、跑、上樓、下樓和跳躍)和11種細(xì)分步態(tài)模式(如表1)進(jìn)行實(shí)驗(yàn),結(jié)果如表4、表5所示。
表4 5種步態(tài)模式的分類結(jié)果比較Table 4 Results comparison of classifying 5 gaits pattern
由表4、5可知,無(wú)論對(duì)5種步態(tài)模式還是11種步態(tài)模式,CLSTM方法的分類效果比SVM、HMM、CNN方法更有效。SVM和HMM分類11種步態(tài)模式比分類5種步態(tài)模式時(shí)分類效果要差,而CNN和CLSTM對(duì)這兩類步態(tài)模式分類效果均有所提高,說(shuō)明深度學(xué)習(xí)方法更能區(qū)別相似步態(tài)模式,同時(shí)保持分類可靠性和高精度。CLSTM比CNN的精度提高了5%,表明LSTM處理步態(tài)特征序列更有利于分類。
表5 11種步態(tài)模式的識(shí)別結(jié)果比較Table 5 Results comparison of classifying 11 gaits pattern
3.2.4 CLSTM方法對(duì)11種步態(tài)模式的分類實(shí)驗(yàn) 為了驗(yàn)證本文方法分類多種模式步態(tài)的精確性,選取USC-HAD數(shù)據(jù)集中每種步態(tài)連續(xù)的300個(gè)樣本點(diǎn),分別用CLSTM和CNN分類11種步態(tài),其中CNN輸入步態(tài)數(shù)據(jù)沒有進(jìn)行不同軸組合排列,結(jié)果見表6。由表6可知,CLSTM方法分類每一種步態(tài)的結(jié)果都比CNN的分類結(jié)果高約3%~10%,說(shuō)明本文方法更加適用于識(shí)別多種細(xì)分化步態(tài)模式,采用基于步態(tài)時(shí)間相關(guān)性的LSTM替代全連接方式處理步態(tài)特征能得到更優(yōu)的識(shí)別結(jié)果;分類“向前走”,“向左走”和“向右走”3種極其相似的步態(tài)模式時(shí),CLSTM的分類結(jié)果比CNN的分類結(jié)果高出7%之多,因?yàn)槁?lián)合計(jì)算不同軸步態(tài)數(shù)據(jù)對(duì)提取步態(tài)更本質(zhì)特征是有利的,同時(shí)基于時(shí)間序列的LSTM模型學(xué)習(xí)步態(tài)長(zhǎng)期依賴性分類步態(tài)更好。
本文提出的CLSTM步態(tài)模式分類方法能夠很好地分類細(xì)分的步態(tài)模式,CNN提取步態(tài)時(shí)間序列特征方法替代手動(dòng)提取步態(tài)統(tǒng)計(jì)和時(shí)頻域特征,提取的特征經(jīng)LSTM記憶模型能學(xué)習(xí)到步態(tài)特征時(shí)間上的長(zhǎng)期依賴性。結(jié)果表明基于時(shí)間序列模型的步態(tài)模式分類方法對(duì)多模式步態(tài)分類效果很好。本文分割的數(shù)據(jù)長(zhǎng)度為傳感器采樣頻率(1 s),而不同人的各步態(tài)頻率存在差異,為更好地分析步態(tài)特性,提高步態(tài)分類精度,分割數(shù)據(jù)仍是未來(lái)工作的重點(diǎn)。分類更多人體行為將是研究的目標(biāo)。
表6 CNN和CLSTM分類11種步態(tài)結(jié)果比較Table 6 Results comparison of CNN and CLSTM in classifying 11 gaits pattern
[1] WU J,XU H.An advanced scheme of compressed sensing of acceleration data for telemonintoring of human gait[J].Biomedical Engineering Online,2016,15(1):1-15.
[2] RONAOO C A,CHO S B.Evaluation of deep convolutional neural network architectures for human activity recognition with smartphone sensors[C]//Proceedings of the KIISE Korea Computer Congress.Korea:[s.n.] ,2015:858-860.
[3] ZHENG Y,LIU Q,CHEN E,etal.Time series classification using multi-channels deep convolutional neural networks[C]//International Conference on Web-Age Information Management.USA:Springer International Publishing,2014:298-310.
[4] ZHANG M,SAWCHUK A A.USC-HAD:A daily activity dataset for ubiquitous activity recognition using wearable sensors[C]//Proceedings of the 2012 ACM Conference on Ubiquitous Computing.USA:ACM,2012:1036-1043.
[5] FIGO D,DINIZ P C,FERREIRA D R,etal.Preprocessing techniques for context recognition from accelerometer data[J].Personal and Ubiquitous Computing,2010,14(7):645-662.
[6] BULLING A,BLANKE U,SCHIELE B.A tutorial on human activity recognition using body-worn inertial sensors[J].ACM Computing Surveys (CSUR),2014,46(3):1- 33.
[7] ANGUITA D,GHIO A,ONETO L,etal.A public domain dataset for human activity recognition using smartphones[C]//21th European Symposium on Artificial Neural Networks,Computational Intelligence and Machine Learning (ESANN).Bruges,Belgium:[s.n.] ,2013:437-442.
[8] ZHANG L,WU X,LUO D.Human activity recognition with HMM-DNN model[C]//2015 IEEE 14th International Conference on Cognitive Informatics & Cognitive Computing (ICCI* CC).USA:IEEE,2015:192-197.
[9] ZENG M,NGUYEN L T,YU B,etal. Convolutional neural networks for human activity recognition using mobile sensors[C]//2014 6th International Conference on Mobile Computing,Applications and Services (MobiCASE).USA:IEEE,2014:197-205.
[10] SAINATH T N,VINYALS O,SENIOR A,etal.Convolutional,long short-term memory,fully connected deep neural networks[C]//2015 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP).USA: IEEE,2015:4580-4584.
[11] HA S,YUN J M,CHOI S.Multi-modal convolutional neural networks for activity recognition[C]//2015 IEEE International Conference on Systems,Man,and Cybernetics (SMC).USA:IEEE,2015:3017-3022.
[12] YANG J B,NGUYEN M N,SAN P P,etal.Deep convolutional neural networks on multichannel time series for human activity recognition[C]//Proceedings of the 24th International Joint Conference on Artificial Intelligence (IJCAI).Buenos Aires,Argentina:ACM ,2015:25-31.
[13] SAK H,SENIORi A W,BEAIFAYS F.Long short-term memory recurrent neural network architectures for large scale acoustic modeling[C]//International Speech Communication Association.USA:[s.n.] ,2014:338-342.
[14] ALSHEIKH M A,SELIM A,NIYATO D,etal.Deep activity recognition models with triaxial accelerometers[C]// Proceedings of the 23rd ACM International Conference on Multimedia.USA:ACM,2015:689-692.
AGaitPatternClassificationMethodBasedonCLSTM
XUFan,CHENGHua,FANGYi-quan
(SchoolofInformationScienceandEngineering,EastChinaUniversityofScienceandTechnology,Shanghai200237,China)
Gait classification is an effective method for the assessment of human motion energy consumption,in which the key issue is to improve its classification accuracy and decrease the dependence on statistic features.Aiming at the shortcoming of the traditional gait classification methods in classifying subdivided gaits,this paper proposes a CLSTM method by considering the continuity of the gait and the signal correlation among different axes.By means of CNN convolution operation,this proposed method can extract the gait features by calculating the gait data among multi-axis.Besides,the present method utilizes the LSTM-based gait time series model to learn long-term dependent relation on gait features in the time dimension.Finally,it is illustrated via experiment on USC-HAR datasets that the proposed method can extract gait sequence features and effectively utilize the characteristics of gait time-series to raise classification accuracy in11gaits pattern.
gait classification; signal correlation; convolution neural network; LSTM
1006-3080(2017)04-0553-06
10.14135/j.cnki.1006-3080.2017.04.015
2016-10-17
許 凡(1990-),男,安徽池州人,碩士生,主要研究方向?yàn)樾盘?hào)處理。E-mail:1005364989@qq.com
程 華,E-mail:hcheng@ecust.edu.cn
TP391.41
A