趙志杰,孫小英,金雪松,孫華東,盧 鑫
(1.哈爾濱商業(yè)大學(xué) 計(jì)算機(jī)與信息工程學(xué)院,150028哈爾濱;2. 哈爾濱工業(yè)大學(xué) 電子與信息工程學(xué)院 150001哈爾濱)
?
多重圖像輪廓特征結(jié)合的步態(tài)識(shí)別算法
趙志杰1,孫小英1,金雪松1,孫華東1,盧 鑫2
(1.哈爾濱商業(yè)大學(xué) 計(jì)算機(jī)與信息工程學(xué)院,150028哈爾濱;2. 哈爾濱工業(yè)大學(xué) 電子與信息工程學(xué)院 150001哈爾濱)
為提高圖像步態(tài)識(shí)別率,研究了一種基于圖像輪廓多特征的步態(tài)識(shí)別算法.該算法首先從圖像輪廓的基礎(chǔ)上選取了圖像步態(tài)的3個(gè)特征; 然后,通過(guò)建立不變矩、幀差百分比的動(dòng)態(tài)特征,并結(jié)合改進(jìn)的角度距離的靜態(tài)特征,實(shí)現(xiàn)了圖像輪廓特征的提取;最后,通過(guò)對(duì)傳統(tǒng)的K近鄰法改進(jìn),完成了圖像步態(tài)識(shí)別.實(shí)驗(yàn)結(jié)果表明:單用靜態(tài)特征的步態(tài)識(shí)別率最高為91.94%;結(jié)合動(dòng)態(tài)特征,并在改進(jìn)分類器下獲得最高為99.19%的識(shí)別率.
步態(tài)識(shí)別;輪廓;不變矩;幀差百分比;角度距離
近年來(lái),步態(tài)識(shí)別已是圖像處理領(lǐng)域一個(gè)熱點(diǎn)研究方向,卡內(nèi)基梅隆大學(xué)(Carnegie Mellon University,CMU)、麻省理工學(xué)院(MIT)、馬里蘭大學(xué)、英國(guó)的南安普頓大學(xué)為此做了眾多貢獻(xiàn).中科院自動(dòng)所是國(guó)內(nèi)較早開(kāi)始步態(tài)識(shí)別研究的研究單位之一, 并提出了一種基于身體結(jié)構(gòu)和運(yùn)動(dòng)行為的步態(tài)識(shí)別算法[1].
在步態(tài)識(shí)別研究中輪廓是關(guān)鍵的信息之一,文獻(xiàn)[2]提出一種基于輪廓分析的方法,利用輪廓線上的點(diǎn)到質(zhì)心的距離作為特征,該方法對(duì)外套等因素的影響比較敏感.文獻(xiàn)[3]在文獻(xiàn)[2]基礎(chǔ)上做了進(jìn)一步的提高,將輪廓線分為上、下、左、右4部分,將這4部分分別投影在一個(gè)邊界框來(lái)構(gòu)成4個(gè)距離向量,該方法所用數(shù)據(jù)庫(kù)大多樣本少,在累計(jì)匹配當(dāng)中第1次的識(shí)別率不高.文獻(xiàn)[4]運(yùn)用幾何學(xué)理論進(jìn)行識(shí)別.文獻(xiàn)[5]在文獻(xiàn)[4]基礎(chǔ)上通過(guò)改進(jìn),在同樣的數(shù)據(jù)庫(kù)上做了實(shí)驗(yàn),該方法并沒(méi)有與其他的方法進(jìn)行對(duì)比.文獻(xiàn)[6]采用幀插法將半個(gè)周期的長(zhǎng)度限制在固定的長(zhǎng)度,進(jìn)而求出邊界向量上每一個(gè)點(diǎn)在半個(gè)周期內(nèi)的變化曲線作為步態(tài)特征.由于該方法沒(méi)有考慮輪廓的預(yù)處理操作,對(duì)輪廓不完整的序列的識(shí)別率不高.文獻(xiàn)[7]結(jié)合了輪廓的時(shí)空相關(guān)特征和統(tǒng)計(jì)物理參數(shù),彌補(bǔ)了文獻(xiàn)[6]的輪廓不完整的影響.文獻(xiàn)[8]考慮的是輪廓外觀變化的影響.該文獻(xiàn)引用仿射不變矩(affine moment invariants, AMI)并采用最近鄰法來(lái)匹配識(shí)別.文獻(xiàn)[9-10]提出了基于關(guān)鍵幀的識(shí)別方法,這類方法會(huì)丟失序列中其他幀的信息,造成識(shí)別率的降低.文獻(xiàn)[11]通過(guò)分析人體運(yùn)動(dòng)的對(duì)稱性,采用廣義對(duì)稱性算子對(duì)人體的輪廓圖像和圖像序列的光流信息分別進(jìn)行對(duì)稱映射從而獲取步態(tài)特征.文獻(xiàn)[12]在輪廓的基礎(chǔ)上提取空間分量、時(shí)間分量和小波能量分量作為步態(tài)特征,用支持向量機(jī)(SVM)分類器識(shí)別.文獻(xiàn)[13]利用輪廓的寬高比、面積、縱坐標(biāo)變化、質(zhì)心變化曲線作為特征,獲得較高的識(shí)別率.文獻(xiàn)[14]采用輪廓的步態(tài)能量圖法進(jìn)行步態(tài)識(shí)別.文獻(xiàn)[15]提出的基于部分輪廓頻域步態(tài)熵特征的識(shí)別算法,通過(guò)分析輪廓不同區(qū)域單獨(dú)考慮的識(shí)別效果來(lái)定義有效部分,識(shí)別率有明顯的提高.
在上述算法中,針對(duì)輪廓不完整或者只考慮關(guān)鍵幀的情況,如文獻(xiàn)[15]考慮輪廓有效部分的情況,在提取特征的過(guò)程中,造成部分信息丟失從而導(dǎo)致識(shí)別率降低.在選取特征的過(guò)程中只考慮單一類型特征,如文獻(xiàn)[14]只是考慮輪廓在步態(tài)周期范圍內(nèi)的動(dòng)態(tài)特征,該選取方法是不夠完善的.基于此,本文通過(guò)提取輪廓兩個(gè)完整周期的較低維數(shù)的靜態(tài)特征和動(dòng)態(tài)特征,使得最終的特征更能反映不同個(gè)體之間的步態(tài)差異;同時(shí)動(dòng)態(tài)特征也避免了輪廓不完整造成的影響.為進(jìn)一步提高識(shí)別率,本文采用改進(jìn)的K近鄰法進(jìn)行分類識(shí)別.實(shí)驗(yàn)驗(yàn)證了該算法的有效性.
本文所提算法主要包括預(yù)處理、特征提取和分類識(shí)別3個(gè)模塊,具體流程如圖1所示.
圖1 步態(tài)識(shí)別算法框圖
為了便于后期特征提取,需將圖像尺寸歸一化.圖2為歸一化尺寸的二值圖像及邊緣檢測(cè)后的二值圖像.根據(jù)步態(tài)序列輪廓面積變化求出每個(gè)步態(tài)樣本的周期曲線,一個(gè)步態(tài)序列的周期曲線如圖3所示.圖3中空心圓代表極大值,即人在雙腿著地分開(kāi)最大時(shí)輪廓的面積,星號(hào)代表極小值,即雙腿并攏時(shí)輪廓的面積.連續(xù)3個(gè)極大值之間的幀為一個(gè)步態(tài)周期.
圖2 歸一化及輪廓
圖3 周期曲線
特征的獲取應(yīng)該既簡(jiǎn)單、有效,又能表示待識(shí)別的事物.首先,選取的角度距離特征作為本文步態(tài)特征的靜態(tài)特征,該特征是從輪廓內(nèi)考慮的幀內(nèi)信息;其次,選取的不變矩特征是從輪廓形狀的角度考慮,作為步態(tài)特征的第1個(gè)動(dòng)態(tài)特征;最后,選取的幀差百分比特征,作為另一個(gè)動(dòng)態(tài)特征,它是能夠反映整個(gè)周期內(nèi)輪廓的整體變化情況的,兩個(gè)動(dòng)態(tài)特征同時(shí)也是對(duì)角度距離特征的一個(gè)彌補(bǔ).
3.1 角度距離特征提取
文獻(xiàn)[16]是將輪廓線上一定間隔內(nèi)像素點(diǎn)個(gè)數(shù)作為特征,文獻(xiàn)[17]是將輪廓線采樣選取采樣點(diǎn)到質(zhì)心距離作為特征.對(duì)于輪廓不完整的步態(tài)序列,前者在表征步態(tài)時(shí)由于像素點(diǎn)缺失會(huì)有一定的誤差,后者在步態(tài)輪廓線的手臂和腿部的采樣點(diǎn)由于缺失而使特征曲線震蕩.本文在選取特征時(shí),與前兩者的特征是不同的物理量,通過(guò)一定的改進(jìn),將兩者結(jié)合起來(lái),既合理利用了一定角度下輪廓點(diǎn)的坐標(biāo)值,又更加準(zhǔn)確的表征了輪廓線的整體特征,使得特征曲線平滑.具體提取特征方法如下.
1)求取人體輪廓質(zhì)心(Xc,Yc)為:
(1)
式中:N為圖像輪廓的像素點(diǎn)個(gè)數(shù);xi為第i個(gè)像素的橫坐標(biāo);yi為對(duì)應(yīng)像素的縱坐標(biāo).
2)求取輪廓線上點(diǎn)到質(zhì)心方向與y坐標(biāo)軸的夾角, 如
(2)
3)計(jì)算像素坐標(biāo)到質(zhì)心的距離disth.選取num個(gè)間隔,每個(gè)間隔為(360/num)°,根據(jù)式(2),再結(jié)合間隔大小求出輪廓上第H個(gè)間隔里所有像素的坐標(biāo)到質(zhì)心的距離disth;
4)計(jì)算第H個(gè)間隔內(nèi)所有距離的均值,其表達(dá)式如
(3)
式中ω為每個(gè)區(qū)間內(nèi)不同的像素點(diǎn)數(shù).如圖4(a)所示,兩條線段所組成的區(qū)域?yàn)橐粋€(gè)間隔.
圖4(b)為一個(gè)樣本一個(gè)周期內(nèi)某一幀輪廓的角度距離特征向量曲線.將一個(gè)半步態(tài)周期中提取出的歸一化角度距離向量序列進(jìn)行疊加求平均得到,最后的步態(tài)特征記作F1=[f1i1,f1i2,…,f1inum],i表示第i個(gè)樣本序列,如圖4(c)所示.
圖4 角度距離特征曲線
3.2 圖像不變矩特征提取
文獻(xiàn)[18]中提到圖像的7個(gè)不變矩具有平移、旋轉(zhuǎn)、比例不變性,在目標(biāo)識(shí)別、圖像匹配、形狀分析等領(lǐng)域得到了廣泛的應(yīng)用.
對(duì)于任意非負(fù)整數(shù)p、q,二維圖像模式f(x,y),在平面R2上的p+q階矩定義為
(4)
式中:f(x,y)為圖像的灰度(密度),僅在有限R2平面上分段連續(xù);N為任意非負(fù)整數(shù).顯然,mpq由f(x,y)唯一確定,反之亦然.由于mpq不具有平移不變性,因此定義p+q階中心矩為
(5)
歸一化中心矩ηpq定義為:
(6)
以下只列出前3個(gè)不變矩為
(7)
在此將一定數(shù)目的圖像進(jìn)行疊加壓縮為一幀圖像,如圖5(a)~5(c)所示,分別為3個(gè)不同人的疊加圖.求該幀圖像的7個(gè)不變矩,則該圖像不變矩特征可記作F3=[f3i1,f3i2,…,f3i7],i表示第i個(gè)樣本序列.以此作為衡量人的輪廓在空間上的特征變化,從而區(qū)分不同的類.
圖5 不變矩特征
3.3 幀差百分比特征提取
個(gè)體的步態(tài)很難從單個(gè)圖片信息來(lái)確認(rèn)個(gè)體之間的區(qū)別,步態(tài)本身是一種時(shí)空相關(guān)的運(yùn)動(dòng),它的本質(zhì)特征是人體的姿勢(shì)隨著時(shí)間的變化而發(fā)生的有序變化序列.對(duì)于熟悉的人往往通過(guò)其走路的姿勢(shì)或者背影就能確定其身份,其中包含的有其平常走路的習(xí)慣速度和習(xí)慣姿勢(shì),因此容易判斷.但對(duì)于不熟悉且走路相似的人之間的區(qū)別卻難以判斷,這就需要從細(xì)微的差別來(lái)區(qū)別個(gè)體,人體走路的加速度就能區(qū)分此細(xì)微差別.
加速度是描述物體速度變化快慢的物理量,也即單位時(shí)間內(nèi)速度的改變量.文中考慮的是不同個(gè)體之間肢體運(yùn)動(dòng)的不同加速度,也即是人體抬腳走路的瞬間起步加速度的大小,加速度越大,幀間變化越明顯,反之不明顯.這樣從視頻幀的角度來(lái)看,相鄰兩幀之間在質(zhì)心重合的情況下重合面積就不一樣,也即是幀差百分比不同.因此,在一定程度上可以區(qū)別兩個(gè)不同個(gè)體.為了提高識(shí)別率,將幀間的不同變化信息作為整個(gè)步態(tài)識(shí)別的運(yùn)動(dòng)信息,也避免了只考慮幀內(nèi)信息的缺陷,因此,提出了幀差百分比的特征作為步態(tài)特征的一個(gè)動(dòng)態(tài)特征.
設(shè)圖像尺寸為M*L,每個(gè)樣本每個(gè)不同序列所選的幀數(shù)為n,用Ti,j(m,l)表示一個(gè)人的第i個(gè)序列的第j幀輪廓圖像對(duì)應(yīng)位置(m,l)像素值,則
(8)
式中Ei,n為第i個(gè)樣本序列的前n幀圖像的殘差百分比.為了便于分辨,加色顯示,如圖6(a)所示,為相鄰兩幀之間的步態(tài)差異.最終殘差幀在整幅圖的百分比情況,如圖6(b)所示.該特征維數(shù)為1,記作F2.
圖6 幀差百分比特征
4.1 相似性度量
常用的相似性度量的方式有歐式距離、曼哈頓距離、切比雪夫距離、漢明距離、信息熵等.在此,選取歐式距離(euclidean distance)作為度量?jī)蓚€(gè)樣本特征之間的相似性,公式如
(9)
式中:xiv為第i個(gè)樣本特征的第v個(gè)分量;yjv為第j個(gè)樣本特征的第v個(gè)分量;S為特征的維數(shù);Dij為兩個(gè)樣本特征之間的相似度,其值越小,表示二者越相似.
4.2 分類識(shí)別
通常所用的K近鄰分類器(theK-nearest neighbor classifier,KNN)忽略了相似度值所屬的權(quán)重大小,相當(dāng)于將K個(gè)最近鄰的值得權(quán)值平均化,使得在某些算法中的識(shí)別率不是太高.本文在相似性度量時(shí)將待測(cè)樣本與訓(xùn)練樣本之間歐式距離的權(quán)重問(wèn)題考慮在內(nèi),采用加權(quán)機(jī)制,距離越近的權(quán)重越大,反之,越小.為此,提出了一種改進(jìn)K近鄰分類器(the modifiedK-nearest neighbor classifier)來(lái)對(duì)最終的特征進(jìn)行分類識(shí)別.考慮到權(quán)重分配需要的是單調(diào)遞減的函數(shù).在此,選取反函數(shù)和指數(shù)函數(shù)的乘積作為權(quán)值函數(shù),如
(10)
式中:rN為權(quán)值歸一化系數(shù);b、x0分別為幅度調(diào)整參數(shù);Nx為歐式距離從小到大排序所對(duì)應(yīng)的序號(hào).根據(jù)權(quán)值分配的原則,即距離最近的權(quán)值最大,反之越小,但是各個(gè)權(quán)值之間的偏差不能太大,本文選取標(biāo)準(zhǔn)偏差(standard deviation,SD)和平均絕對(duì)偏差(mean absolute deviation, MAD)兩個(gè)指標(biāo)來(lái)進(jìn)行對(duì)權(quán)值的確定.其中一個(gè)較小的SD,代表大部分的數(shù)值和其平均值之間差異較小,而MAD由于差值被絕對(duì)值化,不會(huì)出現(xiàn)正負(fù)抵消的情況,因此也能更好的反映數(shù)值誤差的實(shí)際情況.標(biāo)準(zhǔn)偏差(SD)和平均絕對(duì)偏差(MAD)定義為:
(Nq=7)
(11)
式中:Nxi為對(duì)應(yīng)權(quán)值;Nq為權(quán)值的個(gè)數(shù).通過(guò)構(gòu)造以上兩個(gè)指標(biāo)與b、x0兩個(gè)不同參數(shù)的函數(shù)關(guān)系,得出兩個(gè)指標(biāo)的三維顯示圖如圖7,8所示.
再求出兩個(gè)指標(biāo)最小值所對(duì)應(yīng)的參數(shù)值,即為本文選定的參數(shù).由圖可知b=1,x0=1.圖9為所選參數(shù)對(duì)應(yīng)的歸一化權(quán)值針狀圖.
圖7 標(biāo)準(zhǔn)偏差三維顯示圖
圖8 平均絕對(duì)偏差三維顯示圖
圖9 權(quán)值針狀圖
本文實(shí)驗(yàn)是基于PC機(jī)Matlab7.12.0平臺(tái)完成
的.采用中科院自動(dòng)化所公開(kāi)的大型步態(tài)數(shù)據(jù)庫(kù)CASIA-B[14]和卡內(nèi)基梅隆大學(xué)提供的CMU Mobo步態(tài)數(shù)據(jù)庫(kù)[19]進(jìn)行實(shí)驗(yàn).CASIA-B數(shù)據(jù)庫(kù)包含124人(男93人,女31人),每人11個(gè)視角,每個(gè)視角下有3種行走狀態(tài)(普通條件、穿大衣、攜帶包裹條件).其中,正常狀態(tài)下有6個(gè)序列,其他各兩個(gè)序列.圖片尺寸大小為320×240,幀速率為25 幀/s.CMU Mobo步態(tài)數(shù)據(jù)庫(kù)在室內(nèi)跑步機(jī)上采集,共25人(男23人,女2人),每人6個(gè)視角,每個(gè)視角下有4種行走步態(tài)(慢走、快走、跑步機(jī)傾斜一定角度慢走、雙手拿球慢走),每人在每個(gè)狀態(tài)下記錄11 s,圖片尺寸為468×640,幀速率為30 幀/s.圖10為CMU Mobo步態(tài)數(shù)據(jù)庫(kù)中3個(gè)樣本圖片.本文實(shí)驗(yàn)圖片統(tǒng)一歸一化尺寸為165×110.
圖10 CMU Mobo步態(tài)數(shù)據(jù)庫(kù)樣本
在實(shí)驗(yàn)過(guò)程中,將CASIA-B數(shù)據(jù)庫(kù)中每個(gè)樣本90°視角的6個(gè)正常行走序列,分別選取其中3個(gè)序列作為訓(xùn)練序列,剩余3個(gè)作為識(shí)別序列,分別進(jìn)行以上所有處理,獲得最終的訓(xùn)練特征和測(cè)試特征,分別輸入不同的分類器進(jìn)行識(shí)別,進(jìn)行10次實(shí)驗(yàn),結(jié)果見(jiàn)表1.表2是本文算法與文獻(xiàn)中算法在CASIA-B數(shù)據(jù)庫(kù)上的對(duì)比.為證明本文算法在不同數(shù)據(jù)庫(kù)上的識(shí)別效果,在CMU Mobo步態(tài)數(shù)據(jù)上同樣選取側(cè)面視角的3種步態(tài)(慢走、快走、雙手拿球慢走)進(jìn)行了實(shí)驗(yàn).
表1 不同特征不同分類器的識(shí)別結(jié)果
表2 4種識(shí)別算法在CASIA-B上的識(shí)別率比較 %
表1選取CASIA-B數(shù)據(jù)庫(kù)中全部樣本,采用單一角度距離特征、靜態(tài)角度距離特征和幀差百分比特征兩者結(jié)合、靜態(tài)角度距離特征和幀差百分比特征以及不變矩特征三者結(jié)合的方法,分別用KNN和改進(jìn)KNN分別進(jìn)行分類識(shí)別.表1中KNN法最高識(shí)別率為93.55%,改進(jìn)KNN法最高識(shí)別率為99.19%.單一特征維數(shù)為60維,KNN法最高識(shí)別率為91.94%,改進(jìn)KNN法最高識(shí)別率為96.77%,提高接近5個(gè)百分點(diǎn).兩種特征結(jié)合后特征維數(shù)為61維,KNN法最高識(shí)別率為92.74%,改進(jìn)KNN法最高識(shí)別率為98.39%.3種特征結(jié)合后維數(shù)為68維,KNN法最高識(shí)別率為93.55%,改進(jìn)KNN法最高識(shí)別率為99.19%.顯然對(duì)于KNN法在特征維數(shù)增加的情況下,識(shí)別率的提高沒(méi)有改進(jìn)KNN法好.從特征上看,通過(guò)增加特征,在采用同一分類器的基礎(chǔ)上,識(shí)別率相對(duì)于單個(gè)特征都有所提高;從分類器上看,兩種分類器無(wú)論是單個(gè)特征還是多個(gè)特征,都是改進(jìn)KNN法識(shí)別率最高,而且特征維數(shù)越高,識(shí)別率越高.為了進(jìn)一步表明算法識(shí)別效果,通過(guò)增加不同特征維數(shù)對(duì)應(yīng)的ROC曲線來(lái)說(shuō)明算法的有效性.如圖11所示,橫坐標(biāo)是錯(cuò)誤接受率FAR(false acceptance rate),縱坐標(biāo)是錯(cuò)誤拒絕率FRR(false reject rate).由圖11可知,3種特征維數(shù)下,曲線都很接近坐標(biāo)軸,等錯(cuò)誤率都在0.25%之下.
表2中文獻(xiàn)[13]是將時(shí)空運(yùn)動(dòng)特征和輪廓的物理參數(shù)結(jié)合的并通過(guò)確定性學(xué)習(xí)理論的識(shí)別算法,采用SVM分類器和最小錯(cuò)誤準(zhǔn)則進(jìn)行分類,識(shí)別率為98.40%.文獻(xiàn)[14]是采用基于輪廓的步態(tài)能量圖法,并用最近鄰分類器進(jìn)行分類識(shí)別,在CASIA-B 數(shù)據(jù)庫(kù)中90°視角的正常步態(tài)實(shí)驗(yàn)識(shí)別率為97.60%.文獻(xiàn)[15]采用頻域步態(tài)能量熵的基于輪廓有效部分的識(shí)別算法,將有效部分之間的歐式距離作為相似性度量的標(biāo)準(zhǔn)進(jìn)行分類,識(shí)別率為98.56%.通過(guò)對(duì)比可知,本文算法對(duì)步態(tài)識(shí)別效果有一定的提高.本文算法和表2中其他3種算法都是在統(tǒng)一的步態(tài)數(shù)據(jù)庫(kù)上進(jìn)行實(shí)驗(yàn),該數(shù)據(jù)庫(kù)采集的步態(tài)序列的背景是比較單一的,在此條件下,其他3種算法識(shí)別率已很高,而本文算法識(shí)別率在此基礎(chǔ)上有一定的提高,在實(shí)際復(fù)雜背景的環(huán)境中,同樣會(huì)有提高,證明該算法有一定實(shí)用價(jià)值.另外,在CMU Mobo步態(tài)數(shù)據(jù)庫(kù)上也采用本文算法進(jìn)行實(shí)驗(yàn),盡管該數(shù)據(jù)庫(kù)提供的前景背景分割圖片有很大的噪聲,但并沒(méi)有影響本文算法識(shí)別效果,表明該算法具有較好的魯棒性.
圖11 ROC曲線
1)本文提出一種有效的步態(tài)識(shí)別算法,結(jié)合前人研究的基礎(chǔ)上,將兩種方法進(jìn)行結(jié)合,提出一種改進(jìn)的角度距離特征,作為步態(tài)序列圖象的靜態(tài)特征進(jìn)行步態(tài)識(shí)別.
2)為更加準(zhǔn)確的表征步態(tài),提取了幀差百分比特征作為步態(tài)序列的動(dòng)態(tài)特征進(jìn)行步態(tài)識(shí)別.在增加維數(shù)不多的動(dòng)態(tài)特征以后,識(shí)別率有了明顯提高.
3)為了進(jìn)一步提高識(shí)別率, 在分類識(shí)別的過(guò)程中,提出一種改進(jìn)的K近鄰法,采用中科院自動(dòng)化所提供的CASIA數(shù)據(jù)庫(kù)和卡內(nèi)基梅隆大學(xué)提供的CMU Mobo步態(tài)數(shù)據(jù)庫(kù)進(jìn)行的相關(guān)實(shí)驗(yàn),證明了算法的有效性.
[1] 中科院自動(dòng)化所生物特征認(rèn)證與測(cè)評(píng)中心.新興的步態(tài)識(shí)別技術(shù)[J].中國(guó)安防,2003(6):43-43.
[2] WANG Liang, TAN Tieniu, NING Huazhong, et al. Silhouette analysis-based gait recognition for human identification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003,25(12):1505-1518.
[3] EKINCI M. A new approach for human identification using gait recognition[J]. ICCSA, 2006,1216-1225.
[4] SINGH J P, AGRAWAL S. An approach for human gait identification based on area[J]. IOSR Journal of Computer Engineering, 2013,10(3):43-47.
[5] GANGOTIA P, SHRIVASTAVA G S, SINGH J P. An approach of human identification based on gait[J]. International Journal of Computer Applications, 2014,93(1): 33-36.[6] LEE C P, TAN A W C, TAN S C. Gait recognition via optimally interpolated deformable contours[J].Pattern Recognition Letters, 2013,34(6):663-669.[7] CHOUDHURY S D, TJAHJADI T. Silhouette-based gait recognition using procrustes shape analysis and elliptic fourier descriptors[J]. Pattern Recognition, 2012,45(9):3414-3426.
[8] IWASHITA Y, UCHINO K, KURAZUME R. Gait-based person identification robust to changes in appearance[J]. Sensors(Basel), INNS, 2013,13(6):7884-7901.
[9] ZHAO Guoying, CHEN Rui, LIU Guoyi, et al. Amplitude spectrum-based gait recognition[C]//Proceedings of the 10thIEEE International Conference and Workshops on Automatic Face and Gesture Recognition. Seoul, South Korea: IEEE Computer Society, 2004: 23-28. doi: http://doi.ieeecomputersociety.org/10.1109/AFGR.2004.1301504.
[10]COLLINS R T, GROSS R, SHI Jianbo. Silhouette-based Human identification from body shape and gait[C]//Proceedings of the fifth IEEE International Conference on Automatic Face and Gesture Recognition. Washington, DC: IEEE Computer Society, 2002: 351-356.
[11]HAYFRON-ACQUAH J B, NIXON M S,CATER J N.Automatic gait recognition by symmetry analysis[J]. Pattern Recognition Letters,2003, 24(13): 2175-2183. doi:10.1016/S0167-8655(03)00086-2.
[12]SUDHA L R, BHAVANI R. Biometric authorization system using gait biometry[J]. International Journal of Computer Science, Engineering and Applications, 2011,1(4):1-13. doi: 10.5121/ijcsea.2011.1401.
[13]ZENG Wei, WANG Cong, YANG Feifei. Silhouette-based gait recognition via deterministic learning[J].Pattern Recognition, 2014,47(11): 3568-3584.
[14]YU Shiqi,TAN Daoliang, TAN Tieniu. A framework for evaluating the effect of view angle, clothing and carrying condition on gait recognition[C]// Proceedings of the 18thInternational Conference on Pattern Recognition.Washington, DC: IEEE, 2006:441-444. doi:10.1109/ICPR.2006.67.
[15]ROKANUJJAMAN M, ISLAM M S, HOSSIAN M A, et al. Effective part-based gait identification using frequency-domain gait entropy features[J]. Multimedia Tools and Applications,2015,74(9):3099-3120. Doi:10.1007/s11042-013-1770-8.
[16]王亮,胡衛(wèi)明,譚鐵牛. 基于步態(tài)的身份識(shí)別[J]. 計(jì)算機(jī)學(xué)報(bào), 2003,26(3):353-360.
[17]趙子健,吳曉娟,劉允才.基于角度直方圖的步態(tài)識(shí)別算法[J]. 計(jì)算機(jī)工程與科學(xué),2006,28(6):73-76.
[18]BRGERON B P. Bioinformatics computing[M].Indianapolis, USA: Prentice Hall PTR, 2002.
[19]GROSS R, SHI J . The CMU motion of body (mobo) database[R]. technical report. Robotic Institute, Carnegie Mellon University, Pittsburgh, PA, CMU-RITR-01-18, 2001.
(編輯 張 紅)
Gait recognition based on multiple image silhouette feature combination
ZHAO Zhijie1,SUN Xiaoying1,JIN Xuesong1,SUN Huadong1,LU Xin2
(1.School of Computer and Information Engineering, Harbin University of Commerce, 150028 Harbin, China; 2.School of Electronics and Information Engineering, Harbin Institute of Technology, 150001 Harbin, China)
This paper proposes a gait recognition algorithm based on three kinds of features from the image′s silhouette. It extracts silhouette features by establishing dynamic information of invariant moment and percentage of frame difference, combining the modified angle distance of static information. It realizes the gait recognition via a modifiedKneighbor method. The experimental result shows that the recognition ratio achieves 91.94% with the static featureis only, and reaches 99.19% with the dynamic features under the improved classifier.
gait recognition; silhouette; invariant moment; percentage of frame difference; point distance
10.11918/j.issn.0367-6234.2016.04.031
2015-04-21.
國(guó)家自然科學(xué)基金(NSFC61401123);黑龍江省自然科學(xué)基金 (F201245).
趙志杰(1963—), 男, 教授,博士生導(dǎo)師.
趙志杰,zhijiezzz@aliyun.com.
TP391.4
A
0367-6234(2016)04-0182-07