• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于SWA—Gabor特征的步態(tài)識別

    2018-09-26 11:30:48鄭慧平李旭健張陽
    軟件導刊 2018年7期

    鄭慧平 李旭健 張陽

    摘要:針對背包、外套等干擾因素致使步態(tài)識別率降低的問題,提出一種分割加權(quán)的步態(tài)識別方法。首先通過幀差法與閾值分割相結(jié)合的方法得到動態(tài)信息更加豐富的幀差閾值能量圖(FTDEI),將該能量圖分割為3部分,并對每部分添加相應(yīng)權(quán)重,然后利用Gabor小波對分割加權(quán)后的FTDEI進行不同角度的特征提取,得到加權(quán)的濾波特征(SWA-Gabor),最后通過KNN分類器對SWA-Gabor特征進行分類和識別?;诜指罴訖?quán)的步態(tài)識別方法能夠很好地避免背包等干擾因素的影響。為了驗證該算法的識別效果,在中國科學院自動化研究所CASIA-B步態(tài)數(shù)據(jù)庫上進行實驗,結(jié)果表明,在攜帶背包和外套的情況下,該算法的識別率較其它算法提高了約5%,取得了很好的識別效果。

    關(guān)鍵詞:步態(tài)識別;步態(tài)能量圖;分割加權(quán);Gabor小波;SWA-Gabor

    DOI:10.11907/rjdk.181328

    中圖分類號:TP301

    文獻標識碼:A文章編號:1672-7800(2018)007-0040-04

    Abstract:Inordertosolvetheproblemthatthegaitrecognitionrateisdecreasedduetotheinterferencefactorssuchasbackpacksandjackets,asegmentationweightedgaitrecognitionmethodisproposed.Firstly,aframedifferencethresholdenergymap(FTDEI)isobtainedbycombiningframedifferencemethodwiththresholdsegmentation,whichobtainsricherdynamicinformationWedividetheenergymapintothreeparts,addcorrespondingweightstoeachpart,anduseGaborwavelettoextractthecharacteristicsofFTDEIfromdifferentangles.Weightedfilteringfeatures(SWA-Gabor)areobtained.Finally,SWA-GaborfeaturesareclassifiedandidentifiedbyKNNclassifier.Thegaitrecognitionmethodbasedonsegmentationweightingcanreducetheinfluenceofinterferencefactorssuchasbackpacksbyweighting.Inordertoverifytherecognitioneffectoftheproposedalgorithm,experimentsarecarriedoutonCASIA-Bgaitdatabase.Experimentalresultsshowthattherecognitionrateoftheproposedalgorithmisimprovedbyabout5%comparedwithotheralgorithmsinthecaseofcarryingbackpacksandouterwear.

    KeyWords:gaitrecognition;GEI;segmentationweighting;GaborWavelet;SWA-Gabor

    0引言

    步態(tài)識別作為人體重要的生物特征識別之一,因其具有遠距離、非接觸、可采集等優(yōu)點,相比傳統(tǒng)的生物特征識別方法能夠很好地解決視頻距離遠、人臉模糊以及其它無法進行身份識別的情況,在智能監(jiān)控、案件偵破等領(lǐng)域有著重要研究意義,成為身份識別的重要研究方向和研究熱點[1-2]。

    由于視頻采集時間間隔長,人體外觀可能會發(fā)生很大變化,例如外出攜帶背包,天氣寒冷時穿著大衣,這些明顯的外觀變化將直接改變?nèi)梭w輪廓,進而影響識別結(jié)果,成為步態(tài)識別的一大難題[3]。為了克服外套和背包的影響,李孟歆等[4]提出只保留腿部局部信息,通過腿部運動變化進行步態(tài)識別,該方法很好地避免了上身背包和穿大衣對步態(tài)識別的干擾,但因刪除了大量上身靜態(tài)信息,所以識別率沒有很大提升。

    對此,本文提出分割加權(quán)的思想,將人體的FTDEI能量圖劃分為3部分:頭部、上身及腿部,由于人體頭部和腿部含有非常重要的信息,所以增加頭部和腿部相應(yīng)的權(quán)重,為了降低人體上身著裝和攜帶物的影響,首先通過算法策略判斷人體是否背包,如有背包則減小其權(quán)重。該方法既保留了人體運動的大量信息,又避免了背包因素的影響,最后用Gabor小波進行特征提取,利用中科院自動化所CASIA-B步態(tài)數(shù)據(jù)集進行實驗,識別率較傳統(tǒng)方法提高了約5%。

    1算法實現(xiàn)

    1.1GEI生成策略

    GEI步態(tài)能量圖是將一個周期內(nèi)的步態(tài)幀經(jīng)過二值化處理后,按其質(zhì)心點疊加重合,得到一幅平均步態(tài)輪廓圖像[5],以此作為步態(tài)特征進行步態(tài)識別,該方法能夠簡化單幀圖像的復雜性,用一張步態(tài)能量圖代替一個周期的序列幀;忽略各幀之間的關(guān)聯(lián)性,更多地考慮步態(tài)幀的統(tǒng)計特性,在步態(tài)識別上取得了很好的識別效果[6]。步態(tài)能量圖定義如下:

    其中,N代表一個周期內(nèi)序列幀數(shù),t代表某一時刻的步態(tài)幀,x代表二維步態(tài)序列幀圖像中的橫坐標,y代表縱坐標,B代表二值輪廓圖,G代表最后得到的GEI灰度圖[7],圖1為90°視角下步態(tài)能量圖合成過程。

    1.2FTDEI能量圖獲取

    GEI圖像雖然相比于一些基于模型的特征提取方法具有易獲取、魯棒性強等優(yōu)點[8],但GEI圖像維數(shù)空間較高,含有較多冗余信息,為了突出關(guān)鍵動態(tài)信息,減小靜態(tài)信息的影響,本文提出結(jié)合幀差法與閾值分割法獲取動態(tài)能量圖。

    基于幀差法與閾值分割法相結(jié)合獲取步態(tài)能量圖的具體步驟如下:

    圖2中左側(cè)(a)為幀差圖像,(b)為一個步態(tài)周期內(nèi)幀差圖像的均值,(c)為幀差能量圖經(jīng)過閾值處理后的幀差閾值能量圖。

    1.3SWA分割加權(quán)算法

    為減少背包外套對于步態(tài)能量圖的影響,學者提出了不同的解決方法[10],文獻[4]提出將人體圖像進行分割,只保留人體運動的腿部信息,通過腿部運動信息進行識別,該方法避免了上身外觀改變對步態(tài)的影響,但相應(yīng)減少了頭部等重要信息,致使正常行走狀態(tài)下的識別率降低。

    對此,本文提出一種分割加權(quán)的思想,用來降低背包、外套等干擾因素的影響。通過分割加權(quán)算法將FTDEI能量圖劃分為3部分,分別為D1、D2、D3,如圖3所示:D1為人體頭部信息,特征較穩(wěn)定,區(qū)分度較高;D2部分為人體上身部分,易受背包、外套等因素干擾;D3部分為信息豐富的腿部運動部分,含有較多的動態(tài)信息。圖3為同一個人在不同狀態(tài)下的FTDEI能量圖,顯然,同一個人在不同狀態(tài)下獲得的能量圖在直觀上就有很大區(qū)別[11]。最后通過加權(quán)算法對每一部分進行加權(quán),以突出不同部分的貢獻。

    SWA分割加權(quán)算法中的分割算法如式(7)所示:

    其中L(n)表示圖像的分割線,通過該分割線將動態(tài)步態(tài)能量圖劃分為3部分。P表示幀差閾值能量圖中間黑色部分的點集,如圖4所示的中間黑色區(qū)域。公式中|x2-x1|表示點集P中同一水平線上x1與x2兩點的水平距離。Ymax表示集合P中y取得最大值。PYmin|x2-x1|表示x2與x1兩點之間水平距離最短時所對應(yīng)的y值,此時根據(jù)人體先驗模型比例圖可知,PY取值范圍為0.818Ymax

    根據(jù)分割算法求得分割線后,下一步將進行權(quán)重分配,SWA分割加權(quán)算法中的權(quán)重分配公式如下:

    2基于SWA-Gabor的特征提取

    FTDEI能量圖是通過幀差法與閾值分割相結(jié)合的方法獲得的動態(tài)步態(tài)能量圖,該能量圖去除了大量靜態(tài)信息,保留了人在走路過程中的動態(tài)信息。Gabor小波是描述圖像局部灰度分布的有力工具[12],并能在多尺度、角度和頻率域中有效地對圖像進行表述,所以本文采用Gabor小波變換完成步態(tài)特征的提取。

    鑒于Gabor濾波器參數(shù)的考慮,最終選用5個尺度和8個角度的Gabor小波[13]。將FTDEI能量圖與Gabor核函數(shù)進行卷積運算,取其幅值譜圖作為動態(tài)區(qū)域圖像的Gabor特征,形成5個尺度、8個角度的40張Gabor特征圖[14],這樣原來的1個FTDEI特征對于GaborFTDEI變?yōu)?0個,從GaborFTDEI到SWA-GaborFTDEI,需要引入權(quán)重向量,用W表示[15],如式(9)所示,w1、w2、w3分別代表了D1、D2、D3區(qū)域的權(quán)重,在后續(xù)分類的時候,會根據(jù)前文所提到的算法判斷是否含有背包,如果有就給W2一個比較小的權(quán)重。

    SWA-GaborFTDEI的度量方法如式(10)所示。計算兩個樣本相似度的算法是計算這兩個樣本的所有GaborFTDEI特征的距離,并乘以相應(yīng)的權(quán)重,然后將每一部分GaborFTDEI特征的距離加權(quán)求和后得到SWA-GaborFTDEI特征的相似度[16]。Sb代表有背包時的相似度,Sub代表沒有背包時的相似度,觀察式(10)和式(11)可發(fā)現(xiàn)在計算SWA-GaborFTDEI相似度時,唯一區(qū)別在于計算SWA-GaborFTDEI歐式距離時所乘的權(quán)重因子不同[17]。

    其中Wi為背包狀態(tài)下相應(yīng)權(quán)重,Wui為沒有背包狀態(tài)下權(quán)重,W不是一個常量,Wi和Wui的取值是根據(jù)i的取值決定[18]。為了簡化冗余的數(shù)據(jù),降低數(shù)據(jù)維度,方便后續(xù)分類操作,采用PCA對SWA-Gabor特征進行降維[19],得到最終的步態(tài)特征,在此基礎(chǔ)上進行分類識別。

    3實驗結(jié)果

    為了驗證基于SWA-Gabor特征提取算法的有效性,實驗在CASIA-B步態(tài)數(shù)據(jù)庫上進行,為了方便比較,這里統(tǒng)一采用了KNN分類器[20],GEI、AEI、FTDEI和SWA-Gabor特征對比如下:

    圖5為攜包狀態(tài)下各種算法在各個視角下的識別率。從圖中可以看出,本文算法在各個視角下的識別準確率比較穩(wěn)定,在攜帶背包的情況下平均識別率為73.1%,其它經(jīng)典算法的平均識別率為68.2%,相對于其它算法提高了約5%,有較明顯提高。衣著變化情況下各種方法在各個視角下的識別率如圖6所示。本文算法的平均識別率為77.2%,其它經(jīng)典算法平均識別率為73.7%,相對于其它算法在各個視角下均有明顯提高。

    4結(jié)語

    本文簡要介紹了GEI能量圖生成策略,在此基礎(chǔ)上對GEI進行優(yōu)化得到FTDEI能量圖,該能量圖去除了大量低頻信息,減少了信息冗余。為了降低背包、外套等干擾因素的影響,提出分割加權(quán)的思想,將FTDEI能量圖分為3部分,通過權(quán)重分配方法自適應(yīng)地得到每部分權(quán)重,并使用Gabor小波進行特征提取,得到豐富的SWA-Gabor特征。為了驗證本文特征提取算法的有效性,利用CASIA-B步態(tài)數(shù)據(jù)庫進行實驗。實驗表明,在有背包和外套干擾的情況下,本文提出的特征提取算法較傳統(tǒng)經(jīng)典算法在識別率上提高了約5%,取得了很好的識別效果。

    參考文獻:

    [1]盧官明,衣美佳.步態(tài)識別關(guān)鍵技術(shù)研究[J].計算機技術(shù)與發(fā)展,2015,25(7):100-106.

    [2]MURAYAMAJ.Identificationofapersonbasedongaitrecognition[A].TheSocietyofInstrumentandControlEngineers(SICE):2015:5.

    [3]孫卓.基于序列輪廓特征的步態(tài)識別研究[D].西安:西安科技大學,2017.

    [4]李孟歆,姜佳楠,賈燕雯.基于步態(tài)能量圖的特征提取新方法[J].科技與創(chuàng)新,2016(22):75-76.

    [5]王竣,王修暉.特征融合的多視角步態(tài)識別研究[J].中國計量大學學報,2017,28(2):234-240+268.

    [6]劉玉淑.基于時間保持能量圖和Radon變換的步態(tài)識別[J].計算機工程與應(yīng)用,2011,47(29):164-167.

    [7]史東承,賈令堯,梁超等.基于相位一致性改進的步態(tài)識別方法[J].計算機工程,2017,43(10):198-202+208.

    [8]李凱,王國超.融合腿部局部特征的步態(tài)識別方法[J].計算機工程與設(shè)計,2016,37(5):1340-1345.

    [9]XINGXL,WANGKJ,YANT,etal.Completecanonicalcorrelationanalysiswithapplicationtomulti-viewgaitrecognition[J].PatternRecognition,2016,50(C):107-117.

    [10]劉萍.與服飾、攜帶物無關(guān)的多視角下的步態(tài)識別[D].長沙:國防科學技術(shù)大學,2015.

    [11]涂潤.非模型步態(tài)識別的算法研究[D].武漢:華中科技大學,2015.

    [12]楊曉超,周越,署光,等.基于Gabor相位譜和流型學習的步態(tài)識別方法[J].電子學報,2009,37(4):753-757.

    [13]SHAOH,WANGY.GaitrecognitionmethodbasedonintegratedGaborfeature[J].JournalofElectronicMeasurement&Instrumentation;,2017(4):87-93.

    [14]王昳昀.基于集成Gabor特征的步態(tài)識別方法研究[D].沈陽:沈陽工業(yè)大學,2017.

    [15]ZORANZ,F(xiàn)ERDINANDVH.Efficientadaptivedensityestimationperimagepixelforthetaskofbackgroundsubtraction[J],PatternRecognitionLetters,2006,27(7):773-780.

    [16]任勝兵,李興超等.基于人體動靜態(tài)特征融合的步態(tài)識別算法研究[D].長沙:中南大學,2012.

    [17]王磊.基于步態(tài)能量圖和加權(quán)質(zhì)量向量的步態(tài)識別研究[D].長沙:湖南大學,2010.

    [18]肖德貴,王磊.基于加權(quán)行質(zhì)量向量的步態(tài)識別方法[J].計算機工程,2011,37(11):215-217.

    [19]EKINCIM,AYKUTM.HumangaitrecognitionbasedonkernelPCAusingprojections[J].JournalofComputerScience&Technology;,2007(6):867-876.

    [20]賈令堯.基于步態(tài)能量圖的身份識別算法研究[D].長春:長春工業(yè)大學,2017.

    (責任編輯:江艷)

    内黄县| 东台市| 富裕县| SHOW| 甘南县| 醴陵市| 冀州市| 札达县| 惠水县| 建瓯市| 营山县| 江源县| 彭阳县| 富蕴县| 怀仁县| 平凉市| 翁源县| 白沙| 富川| 灵寿县| 临澧县| 芒康县| 谷城县| 邳州市| 尼玛县| 江门市| 伊春市| 天柱县| 乌兰县| 无棣县| 桐庐县| 平定县| 农安县| 霍城县| 罗江县| 张北县| 金坛市| 河间市| 西乡县| 日喀则市| 堆龙德庆县|