田 廣 ,徐 奕,楊小康
(1.上海博康智能網(wǎng)絡(luò)科技有限公司,上海 200333;2.上海交通大學(xué) 電子工程系 圖像通信與信息處理研究所,上海 200240;3.上海市數(shù)字媒體處理與傳輸重點(diǎn)實(shí)驗(yàn)室,上海 200240)
步態(tài)識別是一種新興的生物特征識別技術(shù),旨在根據(jù)人們走路的姿勢進(jìn)行人的身份認(rèn)證。如果說人臉、指紋等靜態(tài)圖像的識別是第一代生物識別技術(shù),那么步態(tài)這種動態(tài)識別則是第二代生物識別技術(shù)。第一代生物特征識別技術(shù)通常要求近距離的或者接觸性的感知,如指紋需要接觸指紋掃描儀,眼虹膜需要近距離捕捉,而人臉圖像也需要近距離采集而提供足夠的分辨力等。另外,隨著犯罪手段的不斷智能化、科技化,第一代生物特征識別技術(shù)將面臨防偽、防盜的挑戰(zhàn)。研究顯示,用明膠制成的假手指就可以輕而易舉地騙過指紋識別系統(tǒng),在隱形眼鏡上蝕刻出的虛假眼虹膜特征也可以讓虹膜識別系統(tǒng)真假難辨,而人臉識別則易受化妝術(shù)、佩戴物的影響等[1]。步態(tài)識別可克服以上缺陷,在遠(yuǎn)距離非接觸的狀態(tài)下進(jìn)行,具有可遠(yuǎn)距離獲取,非接觸性和非侵犯性,以及難以隱藏、難以模仿或盜用等優(yōu)點(diǎn)[2]。從智能視頻監(jiān)控的未來發(fā)展來看,步態(tài)是遠(yuǎn)距離情況下最有潛力的生物特征,并且是進(jìn)一步精細(xì)化監(jiān)控功能的必要線索,在輔助身份識別的同時,還可實(shí)現(xiàn)目標(biāo)對象的年齡和性別判別,甚至可用于辨別目標(biāo)對象的種族類型[3-5]。
近年來,步態(tài)識別研究引起了各國學(xué)術(shù)科研機(jī)構(gòu)的重視,它在門禁系統(tǒng)、安全監(jiān)控、人機(jī)交互、醫(yī)療診斷等領(lǐng)域均具有廣泛的應(yīng)用前景和經(jīng)濟(jì)價值。美國國防高級研究項目署DARPA在2000年資助的HID(Human Identifi?cation at a Distance)計劃,它的任務(wù)就是開發(fā)多模態(tài)的、大范圍的視覺監(jiān)控技術(shù)以實(shí)現(xiàn)遠(yuǎn)距離情況下人的檢測、分類和識別,以增強(qiáng)國防、民用等場合免受恐怖襲擊的自動保護(hù)能力。在新興的智能家庭看護(hù)領(lǐng)域,步態(tài)分析可幫助及時發(fā)現(xiàn)老人和小孩的摔倒事件。在醫(yī)學(xué)研究中,通過步態(tài)分析可以評估患者是否存在異常步態(tài)以及異常的特性和程度,從而為研究步態(tài)異常原因、制定治療方案提供必要的依據(jù)[6]。步態(tài)識別的研究成果還可以擴(kuò)展到解決計算機(jī)視覺領(lǐng)域的其他問題,比如區(qū)分不同的行為(跑步、拳擊、打網(wǎng)球的擊球動作等)、手語的解釋等。因此,步態(tài)識別技術(shù)融合了計算機(jī)視覺、模式識別與視頻/圖像序列處理等多個領(lǐng)域的研究成果,將成為未來智能監(jiān)控領(lǐng)域備受關(guān)注的前沿研究方向。
步態(tài)識別系統(tǒng)具有視頻采集、視頻預(yù)處理、運(yùn)動目標(biāo)分割、目標(biāo)分類、步態(tài)特征提取與表達(dá)、步態(tài)特征分類和身份識別等7個基本模塊,其基本框架如圖1所示。
視頻預(yù)處理重點(diǎn)集中在背景模型的建立、陰影消除、尺度歸一化等環(huán)節(jié),為運(yùn)動目標(biāo)分割提供完整的背景圖像以及為步態(tài)標(biāo)志物的提取做好準(zhǔn)備工作[7]。目標(biāo)分類用于提取有效的行人區(qū)域,特征提取模塊將在步態(tài)周期計算基礎(chǔ)上形成步態(tài)特征,常用的步態(tài)特征包括行走速度、步長、步伐寬度、步伐頻率等。特征描述將在步態(tài)特征空間上進(jìn)行,常用的描述算子包括人體模型描述子(橢圓模型、鐘擺模型等)[8-9]、步態(tài)能量圖[10]、傅里葉描述子[11]。最后,將步態(tài)特征描述子送入步態(tài)分類器中,輸出對應(yīng)的身份識別結(jié)果。常用的步態(tài)分類器一般基于模板匹配法[12]或者統(tǒng)計方法而建立[13]。
目前,步態(tài)識別系統(tǒng)主要應(yīng)用于智能化監(jiān)控領(lǐng)域,對犯罪嫌疑分子進(jìn)行身份認(rèn)證。但步態(tài)計算較復(fù)雜,且易受情緒、穿戴物、走路角度的影響,識別準(zhǔn)確率為80%~90%,遠(yuǎn)低于第一代生物特征識別技術(shù)[1]。針對這一問題,將多種生物特征融合進(jìn)行身份識別是深度使用步態(tài)信息的有效手段,可充分發(fā)揮步態(tài)識別在一些特殊場合的重要作用。近年來,越來越多的專家學(xué)者展開了人臉和步態(tài)特征融合識別的研究[14],以及在進(jìn)行步態(tài)身份認(rèn)證的同時還提供興趣目標(biāo)的性別、年齡信息[4,15],有力推動了智能監(jiān)控系統(tǒng)的精細(xì)化發(fā)展。
目前的年齡估計方法主要是以人的面部特征為依據(jù)?,F(xiàn)有研究表明,步態(tài)特征在不同的年齡段會呈現(xiàn)出其規(guī)律特性:1)身形比例不同;2)步伐頻率、步長不同;3)行走速度不同;4)抬腳高度不同;5)關(guān)節(jié)的位置、角度、角加速度、對稱性等。
與傳統(tǒng)的基于人臉的年齡估計相比,用步態(tài)作為年齡特征具有以下互補(bǔ)優(yōu)勢:
1)數(shù)據(jù)采集方便。采集對象的近距離人臉圖片需要當(dāng)事人保持靜止并進(jìn)行配合,不易操作;而采集對象的步態(tài)數(shù)據(jù)可以不需要對象的配合,更適合戶外開放環(huán)境下、遠(yuǎn)距離的監(jiān)控任務(wù),且能節(jié)省時間。
2)檢測條件不同。利用人臉來估計,需要準(zhǔn)確拍攝到人的正面臉部圖像,這在開放環(huán)境下不易獲得,即使能拍到遠(yuǎn)距離的低分辨力圖片,其信息量也不足以保證識別質(zhì)量;而利用步態(tài)特征,即使沒有拍攝到人臉,僅憑對象行走的視頻序列即可作出判斷。
3)抗干擾能力不同。人臉圖像在有外部干擾條件下會降低判決力,比如在化妝、整容、遮擋情況下,僅憑人臉圖像幾乎無法正確判斷年齡,而人的步態(tài)是難以隱藏和偽裝的。
根據(jù)應(yīng)用場合的不同要求,目前有兩類年齡估計方法,或者估計一個人準(zhǔn)確的年齡值,或者推斷一個人所屬的年齡段區(qū)間。在已有的方法中,基于年齡段的分類是最常見的,一方面因?yàn)槊嫦蚓_年齡估計任務(wù)的數(shù)據(jù)庫難以采集,另一方面,在大多數(shù)應(yīng)用中并不需要估計出對象的精確年齡,而只需要粗略估算出對象屬于哪個年齡層。步態(tài)特征中所蘊(yùn)含的年齡信息非常適用于第二類年齡估計任務(wù)的高效實(shí)現(xiàn)。生物、醫(yī)學(xué)領(lǐng)域的一些研究工作表明,在人的不同年齡階段,人的步態(tài)特征(如行走速度、步長、步伐寬度、步伐頻率等)都會發(fā)生很大的變化。這為利用步態(tài)特征來實(shí)現(xiàn)年齡估計提供了科學(xué)依據(jù)。2010年,新加坡南洋理工大學(xué)的Lu等學(xué)者首次提出了一種基于步態(tài)的年齡估計方法[4]。該算法將每個年齡值編碼為8位的二進(jìn)制序列,并考慮到同齡的男女之間步態(tài)存在較大差異,用多標(biāo)注學(xué)習(xí)的方法得出性別和年齡編碼之間的相關(guān)性,最終采用多標(biāo)注KNN方法給出基于步態(tài)的年齡識別結(jié)果。該方法驗(yàn)證了步態(tài)特征用于年齡估計的可行性。
智能視頻監(jiān)控中年齡信息是很重要的一種身份屬性。如果獲得了監(jiān)控對象的年齡,就有望在此基礎(chǔ)上推出相關(guān)的新應(yīng)用:
1)協(xié)助公安部門抓捕通緝犯。通常,當(dāng)刑事案件發(fā)生后,即使監(jiān)控視頻沒有拍到犯罪嫌疑人的臉部圖像,也能通過其步態(tài)視頻獲取其大致的年齡區(qū)間,縮小對犯罪嫌疑人的搜尋范圍。
2)業(yè)務(wù)監(jiān)控環(huán)境下,年齡信息將增強(qiáng)人機(jī)交互和客戶體驗(yàn)。例如,在商場宣傳展柜中,當(dāng)監(jiān)控視頻系統(tǒng)遠(yuǎn)距離識別出消費(fèi)者的年齡段后,隨即播放該年齡段感興趣的宣傳片或者推送出合適的商品實(shí)物。除此之外,可以統(tǒng)計展柜前各個年齡段的人數(shù),反映展品對不同年齡層的吸引力。
3)提供新一代門禁系統(tǒng)。例如,在有年齡限制的區(qū)域(網(wǎng)吧、酒吧等)設(shè)置報警裝置,基于步態(tài)分析對出入人員作出年齡段鑒別,一旦不符合規(guī)定的人群進(jìn)入,便觸動報警設(shè)備。
現(xiàn)有研究工作表明,步態(tài)特征的引入可以有效輔助大尺度監(jiān)控范圍內(nèi)的性別識別任務(wù)。2002年,麻省理工學(xué)院人工智能實(shí)驗(yàn)室的學(xué)者L.Lee和W.E.L.Grimson提出了一種基于步態(tài)外觀表示的年齡估計方法,其工作機(jī)理是利用人體的質(zhì)心位置將行人二值輪廓圖劃分為7個部分,對每個部分用橢圓逼近并提取靜態(tài)特征,同時通過傅里葉變換得到步態(tài)序列的動態(tài)特征,將這兩種特征融合之后采用ANOVA方法進(jìn)行降維,送入SVM分類器輸出年齡分類結(jié)果。在不同光照環(huán)境下,該工作能夠獲得84%~90%的性別識別率。不足的是,所采用的實(shí)驗(yàn)數(shù)據(jù)庫較小,視頻中人的行走方向僅為水平方向[16]。
2007年,倫敦大學(xué)瑪麗皇后學(xué)院計算機(jī)系的Cai?feng Shan和Shaogang Gong等人基于人臉圖像和步態(tài)行為存在相關(guān)性的事實(shí),提出了一種基于典型相關(guān)分析(CCA)對步態(tài)特征和人臉特征進(jìn)行融合的方法。在CA?SIA數(shù)據(jù)庫上的實(shí)驗(yàn)表明,這種多模態(tài)特征融合的性別識別系統(tǒng)能夠取得高達(dá)97.2%的識別率。該工作的局限性在于提取特征的方法較復(fù)雜,受光照的影響較大[15]。
2008年,倫敦大學(xué)的Xuelong Li等學(xué)者通過大量實(shí)驗(yàn)研究了人體各個部位對步態(tài)性別識別的影響,該工作首先根據(jù)醫(yī)學(xué)原理將人體分為頭、肩、軀干、大腿、前小腿、后小腿和腳等7個部位,用歐氏距離來度量各部位平均步態(tài)圖像之間的相似性,用SVM分類器來識別。該方法在USF步態(tài)數(shù)據(jù)庫上進(jìn)行了數(shù)百次實(shí)驗(yàn),列出了每個身體部位在不同條件下對性別識別的貢獻(xiàn)作用,為后續(xù)的研究工作提供了很好的指導(dǎo)意義[17]。
2008年,北京航空航天大學(xué)智能識別與圖像處理實(shí)驗(yàn)室建立了具有7個視角、60個人的IRIP步態(tài)數(shù)據(jù)庫,首次開展了多視角的步態(tài)性別識別研究工作。該工作對二值輪廓圖的水平、垂直投影特征向量采用PCA方法進(jìn)行降維,然后通過SVM分類給出性別識別結(jié)果。另外,還采用了Fisher線性判決測試了不同視角下的類別可分度,實(shí)驗(yàn)結(jié)果表明各角度下的平均識別率達(dá)到了85%[18]。
2009年,中科院自動化所模式識別國家重點(diǎn)實(shí)驗(yàn)室的Shiqi Yu等學(xué)者提出了一種對不同人體區(qū)域的步態(tài)信息進(jìn)行加權(quán)的性別識別方法。該方法在步態(tài)能量圖的基礎(chǔ)上將人體分為5個區(qū)域,并賦予不同的權(quán)重,加權(quán)后的區(qū)域步態(tài)特征經(jīng)過ANOVA方法降維后送入SVM進(jìn)行分類。該方法易于操作,并在CASIA數(shù)據(jù)庫上取得了95.97%的識別率。另外,在跨種族的步態(tài)數(shù)據(jù)庫上進(jìn)行了性能測試實(shí)驗(yàn),取得了約87%的識別率[3]。
2009年,臺灣大學(xué)網(wǎng)絡(luò)與多媒體研究所的Ping-Chieh Chang等學(xué)者研究了實(shí)時約束條件下的多視角步態(tài)性別識別。該方法以步態(tài)能量圖作為特征,通過主成分分析和線性判決分析的方法、Fisher-boosting的方法來訓(xùn)練多個分類器,在多視角的情況下進(jìn)行了性別分類實(shí)驗(yàn)。同時,此方法還被應(yīng)用到真實(shí)場景中來測試其有效性,獲得了84%的識別率。這個方法較為全面地給出了多視角條件下步態(tài)性別識別的研究工作[19]。
迄今為止,大多數(shù)的步態(tài)識別工作都基于單一的視角,其中側(cè)視圖(視線與步行方向成90°角)用得最多,因?yàn)橐话阏J(rèn)為側(cè)視圖包含的信息量最大。在實(shí)際的應(yīng)用領(lǐng)域,多視角步態(tài)信息可提供更全面的對象步態(tài)特征,因?yàn)樵趩我坏溺R頭下,觀測對象一般可以自由地向各個方向走動,視角的改變會導(dǎo)致識別率的劇烈下降。
為了解決這個問題,研究者開始聯(lián)合使用多個視角來進(jìn)行步態(tài)識別,并引入主動視覺系統(tǒng)保證興趣目標(biāo)步態(tài)圖像的連續(xù)獲取[20]。在不同視角下,由于步態(tài)行為的觀測特征會產(chǎn)生差異,與姿態(tài)無關(guān)的步態(tài)特征提取和基于多視幾何的特征變換從而成為目前主流的兩類方法。
A.Y.Johnson等人在多視角步態(tài)識別過程中引入了與姿態(tài)無關(guān)的人體靜態(tài)特征,例如身高,身體各部分之間的距離等,在個體外觀特征具有一定變化的數(shù)據(jù)庫上仍能取得94%的識別率[21]。2002年,Ben Abdelkader等人提出一個與姿態(tài)無關(guān)的步態(tài)特征,他們對興趣目標(biāo)(已被成功檢測和跟蹤)的每一幀圖像均用給定模板提取運(yùn)動塊,這些運(yùn)動塊序列圖像之間的自相似特征則作為步態(tài)特征進(jìn)行識別,實(shí)驗(yàn)結(jié)果表明,在為期一周所采集的8視角的室內(nèi)步態(tài)圖像序列上,任意視角的平均步態(tài)識別率為65%[22]。Wang等人基于統(tǒng)計形狀分析建立步態(tài)特征,該工作將行人輪廓邊緣點(diǎn)與質(zhì)心之間的距離構(gòu)成一個二維時序矢量,該矢量可描述與姿態(tài)無關(guān)的行人輪廓的時變特性。CASIA-A數(shù)據(jù)庫的實(shí)驗(yàn)結(jié)果表明,此類步態(tài)特征在任意視角下的平均步態(tài)識別率為84.1%[23]。2007年,Hong等人提出一種新的步態(tài)描述模型-Mass vector,定義為行人輪廓圖像某給定行上的非零值像素數(shù),而多幀的Mass Vector構(gòu)成一個與姿態(tài)無關(guān)的矢量序列,CA?SIA-A數(shù)據(jù)庫的實(shí)驗(yàn)結(jié)果表明,Mass Vector步態(tài)特征的正確分類率超過95%[24]。
2001年,Shakhnarovich等人發(fā)明了基于圖像的可視外殼(Image Based Visual Hull),通過虛擬視生成技術(shù)對多視角的人臉和步態(tài)圖像序列進(jìn)行視角歸一化處理,如虛擬生成正面的人臉和側(cè)視的步態(tài)圖像序列,然后在同一視角下進(jìn)行身份識別,實(shí)驗(yàn)證明視角歸一化過程提高了身份識別率[25]。2009年,Bodor等人基于多視角步態(tài)圖像重構(gòu)出與訓(xùn)練集視角一致的步態(tài)特征來克服視角變化對識別率的影響[26]。2010年,Worapan Kusakunniran等人采用支持向量回歸法(SVR)建立出不同視角之間的步態(tài)特征轉(zhuǎn)換模型(VTM),從而將不同視角下的步態(tài)序列都轉(zhuǎn)換為同一視角,接下來即可使用現(xiàn)有的步態(tài)分析技術(shù)來完成身份識別。以上方法均采用計算機(jī)視覺中的多視幾何理論,在一定程度上克服了視角變化對步態(tài)識別的影響。考慮到多視幾何變換過程中步態(tài)信息會有一定損失,Xiaxi Huang等人基于各個視角下有效信息量的大小,定義了多視角步態(tài)信息的融合機(jī)制,充分利用了各個視角下步態(tài)行為的觀測特征,比單一視角的步態(tài)識別率提升了4%~18%[27]。
步態(tài)數(shù)據(jù)庫是評價和比較步態(tài)識別算法性能的重要工具。通常,一個步態(tài)數(shù)據(jù)庫包含了同一場景下多個對象的步態(tài)序列圖像,每個對象有一組視頻,而每一個視頻記錄的是這個對象在一段時間內(nèi)(幾秒或幾十秒)走過一段距離(幾米或幾十米)的步態(tài)序列圖像。根據(jù)不同的研究目的,每個數(shù)據(jù)庫具體的拍攝條件會有所不同。由于計算機(jī)的存儲和處理能力有限,早期的步態(tài)識別研究多是在較小的數(shù)據(jù)庫下進(jìn)行。隨著研究的深入,不少研究機(jī)構(gòu)(如參與HID計劃的大學(xué))都建立了大型的專用步態(tài)數(shù)據(jù)庫。下面詳細(xì)介紹5個最常用的步態(tài)數(shù)據(jù)庫:UC?SD,Soton,CMU Mobo,USF和CASIA。其中,UCSD和So?ton提供單一視角(與視線垂直)的對象步態(tài)圖像序列,CMU Mobo,USF和CASIA則提供了多個視角的對象步態(tài)圖像序列。
UCSD(University of California,San Diego)步態(tài)數(shù)據(jù)庫是一個在室外拍攝的小型數(shù)據(jù)庫,從網(wǎng)址http://www-mitpress.mit.edu/e-journals/Videre/001/articles/Lit?tle-Boyd/gait/gait.html可下載該數(shù)據(jù)庫。UCSD步態(tài)數(shù)據(jù)庫包含了6個對象,每個對象有7個步態(tài)序列,總共42個序列。步態(tài)數(shù)據(jù)的采集如圖2所示。所有對象沿著一個回路行走,攝像機(jī)的位置固定,每一時刻只有一個人出現(xiàn)在無反射的背景墻前,其行走方向與拍攝視線成90°角。所有對象都輪流出現(xiàn)在畫面中,經(jīng)過15 min后視頻拍攝完成,然后再分切為小段序列。
原始圖像是640×480像素的24位彩色圖,經(jīng)重采樣等處理后為320×160的黑白圖。
使用SPSS 13.0軟件對數(shù)據(jù)進(jìn)行分析,計量資料采用(±s)表示,并進(jìn)行t檢驗(yàn),計數(shù)資料采用χ2檢驗(yàn),P<0.05為差異有統(tǒng)計學(xué)意義。
Soton(Southampton Human ID at a Distance data?base)數(shù)據(jù)庫同時考慮了室內(nèi)和室外兩類拍攝場景。室內(nèi)場景數(shù)據(jù)又分為2種采集形式:人在跑步機(jī)行走和人在地面上行走。其中背景被布置為綠色的幕布。室外數(shù)據(jù)的采集條件則相對寬松,沒有對視頻背景進(jìn)行限制,某些序列會有少量人和車出現(xiàn)。Soton數(shù)據(jù)庫由1個約100人的大型數(shù)據(jù)庫和1個12人的小型數(shù)據(jù)庫組成。大型數(shù)據(jù)庫的內(nèi)容比較單一,目的是用來測試算法對正常行走步態(tài)序列的身份識別性能。小型數(shù)據(jù)庫考慮到了多種變化因素,比如攜帶物、衣著和鞋子等對步態(tài)的影響,目的是評估步態(tài)識別算法在各種變化條件下識別性能的穩(wěn)健性。與UCSD步態(tài)數(shù)據(jù)庫類似,Soton步態(tài)數(shù)據(jù)庫提供的是單一視角下不同對象的步態(tài)圖像序列。
CMU MoBo(Carnegie Mellon University Motion of Body)數(shù)據(jù)庫在室內(nèi)場景下拍攝,包含了25個對象在跑步機(jī)上行走的視頻。如圖3所示,數(shù)據(jù)分別從6個視角采集,每個對象有4種步態(tài)模式:慢速行走、快速行走、傾斜面上行走和攜帶球體行走(為了限制手臂擺動)。每個視頻長約11 s,圖像分辨力為640×480像素,包含10個步態(tài)周期。在步態(tài)數(shù)據(jù)庫建立的同時,還標(biāo)識了對象的年齡、性別和體重信息,因此該數(shù)據(jù)庫可為新興的步態(tài)年齡識別和步態(tài)性別識別研究提供算法的性能評估平臺。
USF(University of South Florida)步態(tài)數(shù)據(jù)庫是針對室外開放場景而建立的大型數(shù)據(jù)庫,由122個對象的1870個視頻序列所構(gòu)成,視頻的采集時間分為2次,總數(shù)據(jù)量達(dá)到了1.2 Tbyte。每個對象在攝像機(jī)前沿橢圓路線行走至少5圈,最后一圈的視頻被選為有效數(shù)據(jù)。對每個對象,有5種可變條件:
1)鞋的類型不同,分為A和B這2種;
2)攜帶狀態(tài)不同,根據(jù)手上是否提包分為NB和BF;
3)地表狀態(tài)不同,分為草地(Grass)和水泥地(Con?crete),記為G和C;
4)攝像機(jī)視角不同,分為左視角和右視角,記為L和R;
5)拍攝時間不同,在同一年的5月份和11月份分2次拍攝,記為t1和t2。
根據(jù)這些可變條件,數(shù)據(jù)庫分為了A~L等12個子集。在建立數(shù)據(jù)庫的同時,Sarkar等研究人員也提出了一種基于該數(shù)據(jù)庫的基線(Baseline)算法。該算法在實(shí)驗(yàn)中選取的訓(xùn)練集(Gallery)是(G,A,R,NB,t1),即從右方拍攝的人穿著A類的鞋子、沒有提包,在草地上行走的視頻集。選取B~L為測試集,這11個視頻集的采集條件與A視頻集都有區(qū)別并且彼此各不相同。在當(dāng)前所有步態(tài)數(shù)據(jù)庫中,USF步態(tài)數(shù)據(jù)庫的環(huán)境變化條件最多、最全面。對象與樣本數(shù)也非常豐富,是國外步態(tài)數(shù)據(jù)庫中規(guī)模最大的。由于步態(tài)數(shù)據(jù)在室外采集,增加了許多識別過程的復(fù)雜性,如需克服光照的變化,背景中云的運(yùn)動帶來的影響等。該數(shù)據(jù)庫目前廣泛應(yīng)用于步態(tài)識別算法的穩(wěn)健性評估。
CASIA(Institute of Automation,Chinese Academy of Sciences)步態(tài)數(shù)據(jù)庫由中國科學(xué)院自動化研究所創(chuàng)建,是國內(nèi)最完備的數(shù)據(jù)庫。該步態(tài)數(shù)據(jù)庫有3個數(shù)據(jù)集:Dataset A(小規(guī)模庫),Dataset B(多視角庫)和Dataset C(紅外庫)。Dataset A包含20個對象的步態(tài)數(shù)據(jù),每個對象有12個圖像序列,通過3個行走方向(與圖像平面分別成0°,45°,90°)采集獲得。整個數(shù)據(jù)庫包含13139幅圖像,大小約有2.2 Gbyte;Dataset B是一個大規(guī)模的,多視角的步態(tài)數(shù)據(jù)庫,該數(shù)據(jù)庫中共有124個對象,每個對象的步態(tài)序列包含11個拍攝視角(0°,18°,36°,…,180°)和3種行走條件(普通條件,穿大衣,攜帶包裹條件)。由于該集合所包含的對象數(shù)目眾多,且每個對象的步態(tài)數(shù)據(jù)量也很豐富,因此該數(shù)據(jù)集被廣泛應(yīng)用于評估步態(tài)識別算法。Dataset C是采用紅外(熱感)攝像機(jī)在夜間拍攝獲得的大規(guī)模數(shù)據(jù)庫。該集合包含153個對象,每個對象在4種條件下行走:正常行走,快走,慢走,帶包走。由于該數(shù)據(jù)集拍攝的是紅外圖片,所以較少應(yīng)用于步態(tài)識別方法的性能評估中。
此外,HID-UMD步態(tài)數(shù)據(jù)庫提供了開放場景下噪聲干擾最為顯著的多視角步態(tài)圖像序列。該數(shù)據(jù)庫可用于考察在圖像質(zhì)量較差情況下不精確的特征提取對步態(tài)識別的影響。
在未來的智能監(jiān)控系統(tǒng)中,步態(tài)識別技術(shù)在遠(yuǎn)程身份識別方面將發(fā)揮重大的作用,并且以下幾個研究工作將成為熱點(diǎn):
1)具有年齡和性別標(biāo)識的步態(tài)數(shù)據(jù)庫的建立,以及具備年齡識別和性別識別功能的步態(tài)識別技術(shù)。
2)多視角、多生物特征融合的步態(tài)識別技術(shù)是提升身份識別率的有效手段,有望推廣至公共安全、家庭看護(hù)以及醫(yī)療診斷等眾多領(lǐng)域,創(chuàng)造不菲的經(jīng)濟(jì)價值。
3)現(xiàn)有步態(tài)識別算法考慮的是簡單背景下的身份識別,未來步態(tài)識別技術(shù)的研究將集中于復(fù)雜場景下的身份識別。這些場景往往是社會安防重點(diǎn)關(guān)注的區(qū)域,如機(jī)場、廣場、重要政府部門等高人流量場合。
[1] 歐陽常青.步態(tài)識別技術(shù)在反恐等公共安全領(lǐng)域中的應(yīng)用[J].新疆警官高等??茖W(xué)校學(xué)報,2005(3):63-64.
[2]TISTARELLI M,LI S Z,CHELLAPPA R.Handbook of remote biometrics for surveillance and security[EB/OL].[2010-05-20].http://icast.icst.org/2010/06/handbook-remote-biometrics-surveillance-andsecurity.
[3]YU S Q,TAN T N,HUANG K Q,et al.A study on gait-based gender classification[J].IEEE Trans.Image Processing,2009,18(8):1905-1910.
[4]LU J W,TAN Y P.Gait-based human age estimation[J].IEEE Trans.Information Forensics and Security,2010,5(4):1718-1721.
[5]ZHANG D,WANG Y H,BHANU B.Ethnicity classification based on gait using multi-view fusion[C]//Proc.2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops.San Francisco,CA:IEEE Press,2010:108-115.
[6]KATIYAR R,PATHAK V K.Clinical gait data analysis based on spatio-temporal features[J].International Journal of Computer Science and Information Security,2010,2(2):174-183.
[7] 王克奇,郭軍波,朱莉.步態(tài)識別預(yù)處理算法的研究[J].模式識別與仿真,2009,28(12):108-115.
[8]XU J H,CONG W,LI J,et al.Gait recognition based on key frame and elliptical model[EB/OL].[2011-05-20].http://www.meeting.edu.cn/meeting/paper/paper!detail1.action?id=22645.
[9]ZHANG R,VOGLER C,METAXAS D.Human gait recognition[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/search/freesrchabstract.jsp?tp=&arnumber=1384807&queryText%3DHuman+gait+recognition%26openedRefinements%3D*%26searchField%3DSearch+All.
[10]HAN J,BHANU B.Individual recognition using gait energy image[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2006,28(2):316-322.
[11]YU S Q,WANG L,HU W M,et al.Gait analysis for human identification in frequency domain[EB/OL].[2011-05-20].http://www.computer.org/portal/web/csdl/doi/10.1109/ICIG.2004.72.
[12]WANG L,TAN T N.Automatic gait recognition based on statistical shape analysis[J].IEEE Trans.Image Processing,2003,12(9):1120-1131.
[13]KALE A,SUNDARESAN A,RAJAGOPALAN A N,et al.Identification of humans using gait[J].IEEE Trans.Image Processing,2004,13(9):1163-1173.
[14]ZHOU X L,BHANU B.Integrating face and gait for human recognition at a distance in video[J].IEEE Trans.Systems Man and Cybernetics-Part B,2007,37(5):1119-1137.
[15]SHAN C F,GONG S G,MCOWAN P W.Learning gender from human gaits and faces[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/search/freesrchabstract.jsp?tp=&arnumber=4425362&queryText%3DLearning+gender+from+human+gaits+and+faces%26openedRefinements%3D*%26searchField%3DSearch+All.
[16]LEE L,GRIMSON W E L.Gait analysis for recognition and classification[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/search/freesrchabstract.jsp?tp=&arnumber=1004148&queryText%3DGait+analysis+for+recognition+and+classification%26openedRefinements%3D*%26 searchField%3DSearch+All.
[17]LI X L,MAYBANK S J,YAN S C.Gait components and their application to gender recognition[J].IEEE Transactions on Systems,Man and Cybernetics-Part C,2008,38(2):145-155.
[18]ZHANG D,WANG Y H.Investigating the separability of features from different views for gait based gender classification[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/Xplore/login.jsp?url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4740202%2F4760915%2F04761872.pdf%3Farnumber%3D4761872&authDecision=-203.
[19]CHANG P C,TIEN M C,WU J L,et al.Real-time gender classification from Human gait for arbitrary view angles[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/search/freesrchabstract.jsp?tp=&arnumber=5364846&queryText%3DReal-time+gender+classification+from+Human+gait+for+arbitrary+view+angles%26openedRefinements%3D*%26searchField%3DSearch+All.
[20]COLLINS R T,AMIDI O,KANADE T.An active camera system for acquiring multi-view video[EB/OL].[2011-05-20].http://arnetminer.org/viewpub.do?pid=317059.
[21]JOHNSON A Y,BOBICK A F.A multi-view method for gait recognition using static body parameters[J].Lecture Notes in Computer Science,2011,2091:301-311.
[22]BEN ABDELKADER C,DAVIS L S,CUTLER R.Motion-based recognition of people in EigenGait space[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=1004165.
[23]WANG L,TAN T,NING H,et al.Silhouette analysis-based gait recognition for human identification[J].IEEE Trans.Pattern Anal.Mach.Intell.,2003,25(12):1505-1518.
[24]HONG S J,LEE H S,NIZAMI I F,et al.A new gait representation for human identification:mass vector[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/search/freesrchabstract.jsp?tp=&arnumber=4318491&queryText%3DA+new+gait+representation+for+human+identification%3A+mass+vector%26openedRefinements%3D*%26searchField%3D Search+All.
[25]SHAKHNAROVICH G,LEE L,DARRELL T.Integrated face and gait recognition from multiple views[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/search/freesrchabstract.jsp?tp=&arnumber=990508&query Text%3DIntegrated+face+and+gait+recognition+from+multiple+views%26openedRefinements%3D*%26searchField%3DSearch+All.
[26]BODOR R,DRENNER A,F(xiàn)EHR D,et al.View-independent human motion classif i cation using image-based reconstruction[J].Journal of Image and Vision Computing,2009,28(8):1194-1206.
[27]HUANG X X,BOULGOURIS N V.Human gait recognition based on multiview gait sequences[EB/OL].[2011-05-20].http://www.hindawi.com/journals/asp/2008/629102/.