• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于分類距離分?jǐn)?shù)的自適應(yīng)多模態(tài)生物特征融合

    2018-01-12 07:20:09王華彬
    關(guān)鍵詞:模態(tài)分類特征

    張 露 王華彬 陶 亮 周 健

    1(計(jì)算智能與信號(hào)處理教育部重點(diǎn)實(shí)驗(yàn)室(安徽大學(xué)) 合肥 230601)

    2(安徽大學(xué)媒體計(jì)算研究所 合肥 230601)

    (zldiol@163.com)

    傳統(tǒng)的單模態(tài)生物特征識(shí)別技術(shù)[1],如人臉識(shí)別[2]、虹膜識(shí)別[3]以及指靜脈識(shí)別[4]等,雖然取得了不錯(cuò)的成效,但由于其單一模態(tài)的固有限制,僅靠單模態(tài)的生物特征識(shí)別技術(shù)已不能滿足日益提高的安全性等要求.而多模態(tài)融合技術(shù)[5-6]是將同一個(gè)生物的多個(gè)不同的生物特征,按照某種融合規(guī)則融合成一個(gè)整體進(jìn)行識(shí)別,具有更強(qiáng)的區(qū)分性和安全性,可以做出更為精確的識(shí)別.因此多模態(tài)融合技術(shù)已成為近年來(lái)的研究熱點(diǎn).1998年,Hong等人[7]首次嘗試將指紋和人臉的生物特征融合規(guī)則融合成一個(gè)整體進(jìn)行識(shí)別,識(shí)別精確有了很大幅度的提高.Jain等人[8]提出了基于指紋人臉和手行的多生物特征識(shí)別技術(shù).Jing等人[9]首次嘗試了基于人臉和掌紋圖像的融合識(shí)別技術(shù).袁廣林等人[10]提出了基于自適應(yīng)多特征融合的目標(biāo)跟蹤算法.支力佳等人[11]融合多種特征點(diǎn)信息的最小生成樹(shù)應(yīng)用到醫(yī)學(xué)圖像上進(jìn)行配準(zhǔn).文獻(xiàn)[12-13]分別將層次特征信息、整體和局部信息進(jìn)行融合,提高了圖像的分類效果.

    多模態(tài)融合技術(shù)一般可以分為4個(gè)部分,分別為生物特征信號(hào)的獲取、特征提取、特征匹配和分類決策.根據(jù)融合信息的不同,可分為傳感器層融合[14]、特征層融合[15]、分?jǐn)?shù)層融合[16]、決策層融合[17].圖1為多模態(tài)融合技術(shù)的組成以及融合層次.其中,分?jǐn)?shù)層融合是最常用的融合方式,因其包含了類內(nèi)分?jǐn)?shù)值和類間分?jǐn)?shù)值,可通過(guò)某種融合規(guī)則增大類間距離、減小類內(nèi)距離,從而實(shí)現(xiàn)分?jǐn)?shù)層的融合識(shí)別.目前,對(duì)于多模態(tài)生物特征融合的研究,大部分文獻(xiàn)均采用分?jǐn)?shù)層進(jìn)行融合信息.Nandakumar等人[18]將分?jǐn)?shù)層融合分成3類:基于歸一化的融合、基于分類器的融合、基于密度的融合.

    Fig. 1 Composition of multimodal fusion technology and the levels of fusion圖1 多模態(tài)融合技術(shù)的組成以及融合層次

    基于歸一化的融合方法,首先將單模態(tài)獲取的匹配分?jǐn)?shù)進(jìn)行歸一化處理,通過(guò)某種轉(zhuǎn)換規(guī)則函數(shù)得到一個(gè)新的轉(zhuǎn)換分?jǐn)?shù),用轉(zhuǎn)換后的分?jǐn)?shù)作為分?jǐn)?shù)指標(biāo)進(jìn)行識(shí)別.常用的歸一化函數(shù)有Min-Max,Z-score,Tanh,Sigmoid[19].文獻(xiàn)[20]提出了一種新的分?jǐn)?shù)轉(zhuǎn)換函數(shù),得出特征的匹配分?jǐn)?shù)后將其分類,計(jì)算每個(gè)得分屬于某一類的概率,即分類置信度分?jǐn)?shù)(classification confidence score, CCS).由于CCS加入了類別信息,其分類性能要優(yōu)于常用的歸一化函數(shù),但CCS對(duì)某些特定數(shù)據(jù)卻沒(méi)有很好的分類效果.文獻(xiàn)[21] 提出了一種總錯(cuò)誤率(total error rate, TER)的概念,將TER代替匹配分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo)引入到融合識(shí)別中,此方法計(jì)算較為復(fù)雜繁瑣.

    基于分類器的融合方法,是將匹配分?jǐn)?shù)作為一個(gè)特征向量,對(duì)此特征向量進(jìn)行分類.文獻(xiàn)[18]首次提出了用分類器將多個(gè)生物特征進(jìn)行分類識(shí)別,從而推導(dǎo)出SUM,MAX等4種基本的融合規(guī)則,雖然效果要優(yōu)于單模態(tài)的識(shí)別效果,但融合規(guī)則過(guò)于簡(jiǎn)單,沒(méi)有考慮到樣本訓(xùn)練集和測(cè)試集的劃分的影響.文獻(xiàn)[21]在不確定度量的基礎(chǔ)上利用信息熵理論,提出基于特征關(guān)聯(lián)的多特征自適應(yīng)融合策略,獲得了較好的效果.文獻(xiàn)[22]采用Min-Max歸一化函數(shù)對(duì)匹配分?jǐn)?shù)進(jìn)行歸一化處理,融合規(guī)則采用加權(quán)和的方法,總權(quán)重限制為1,沒(méi)有考慮生物特征之間的關(guān)聯(lián)性質(zhì).文獻(xiàn)[23-24]采用匹配分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo),用SVM,KNN等分類器對(duì)其進(jìn)行訓(xùn)練,但由于SVM參數(shù)較多且其設(shè)定較困難,時(shí)間效率不高.文獻(xiàn)[25-26]利用三角范數(shù)公式將歸一化后的匹配分?jǐn)?shù)融合起來(lái),但是構(gòu)造一個(gè)合適的三角范數(shù)很困難.

    基于密度的融合方法是將匹配分?jǐn)?shù)轉(zhuǎn)換成后驗(yàn)概率,根據(jù)貝葉斯判決作出最終的決策.文獻(xiàn)[27-28]使用混合高斯模型求取匹配分?jǐn)?shù)的匹配分?jǐn)?shù)密度,將此匹配分?jǐn)?shù)密度用于融合識(shí)別,此方法需要準(zhǔn)確估計(jì)出匹配分?jǐn)?shù)的密度,實(shí)現(xiàn)代價(jià)較大.

    基于歸一化的融合方法只需將匹配分?jǐn)?shù)通過(guò)轉(zhuǎn)換函數(shù)轉(zhuǎn)換成某一分?jǐn)?shù),不需考慮匹配分?jǐn)?shù)服從某一分布,實(shí)現(xiàn)較為簡(jiǎn)單;采用SVM,KNN等分類器進(jìn)行融合,含有較多參數(shù),降低了識(shí)別算法的時(shí)間效率;基于密度的融合方法需要準(zhǔn)確估計(jì)出合法用戶和不合法用戶匹配分?jǐn)?shù)的密度,實(shí)現(xiàn)較復(fù)雜,由于多模態(tài)識(shí)別系統(tǒng)中合法用戶數(shù)目比不合法用戶數(shù)目少,其匹配分?jǐn)?shù)很難服從某一分布,因此,很難明確估計(jì)出匹配分?jǐn)?shù)的密度.基于此,本文提出了一種基于分類距離分?jǐn)?shù)(classification distance score, CDS )的自適應(yīng)融合識(shí)別算法.相對(duì)于分類置信度分?jǐn)?shù)[20],不僅攜帶有一級(jí)分類信息,也包含有匹配分?jǐn)?shù)與分類閾值之間的距離信息,可增大融合后類內(nèi)類間分?jǐn)?shù)之間的距離,便于設(shè)置閾值進(jìn)行識(shí)別;信息熵表示信息價(jià)值的多少,通過(guò)用信息熵定義關(guān)聯(lián)系數(shù)和特征權(quán)重系數(shù),可以讓樣本包含的信息更加集中突出,在不確定度量的融合框架[29]的基礎(chǔ)上,采用關(guān)聯(lián)系數(shù)和特征權(quán)重系數(shù),將加權(quán)融合和傳統(tǒng)SUM規(guī)則統(tǒng)一在同一個(gè)自適應(yīng)的算法框架中,提高了融合識(shí)別率.

    為了驗(yàn)證CDS和融合算法的有效性,在單模態(tài)數(shù)據(jù)庫(kù)、雙模態(tài)數(shù)據(jù)庫(kù)以及三模態(tài)數(shù)據(jù)庫(kù)上進(jìn)行大量實(shí)驗(yàn),將CDS與傳統(tǒng)的匹配分?jǐn)?shù)和文獻(xiàn)[20]提出的CCS對(duì)比,實(shí)驗(yàn)表明CDS取得更好的效果;將本文提出的融合算法和多個(gè)融合方法進(jìn)行比較,實(shí)驗(yàn)表明:本文方法可以取到更好的分類性能.

    1 分類距離分?jǐn)?shù)

    傳統(tǒng)的分?jǐn)?shù)層融合方法中,其融合分?jǐn)?shù)指標(biāo)一般為匹配分?jǐn)?shù),當(dāng)2類樣本非常相似的情況下,其與類模板的匹配分?jǐn)?shù)數(shù)值上很接近,即類內(nèi)距離和類間距離數(shù)值上很接近,不能很好地區(qū)分開(kāi)類內(nèi)類間的數(shù)據(jù).文獻(xiàn)[20]在傳統(tǒng)匹配分?jǐn)?shù)的基礎(chǔ)上,提出了分類置信度分?jǐn)?shù),該方法可以較好地分離開(kāi)類內(nèi)樣本和類間樣本.但是對(duì)于匹配分?jǐn)?shù)僅次于分類閾值的數(shù)據(jù),卻不能很好地分開(kāi).

    在文獻(xiàn)[20]的基礎(chǔ)上,本文提出了一種將匹配分?jǐn)?shù)與分類閾值之間的距離分?jǐn)?shù)作為融合的分?jǐn)?shù)指標(biāo).分類距離分?jǐn)?shù)不僅含有分類置信度分?jǐn)?shù)的類別信息,也包含匹配分?jǐn)?shù)與分類閾值之間的距離信息,因此,在融合階段采用分類距離分?jǐn)?shù)作為分?jǐn)?shù)指標(biāo),可以讓類內(nèi)類間融合后分?jǐn)?shù)之間的距離增大,提高融合識(shí)別率.圖2為距離信息分析圖,其中S為樣本的匹配分?jǐn)?shù),T為分類閾值,p為距離參數(shù),為保證CDS的取值范圍保持在[0,1],同時(shí)要求類內(nèi)樣本的分類距離分?jǐn)?shù)遠(yuǎn)大于類間樣本的分類距離分?jǐn)?shù),式(2)中的距離參數(shù)p=2較為合適.

    Fig. 2 The diagram of distance information analysis圖2 距離信息分析圖

    首先,在訓(xùn)練階段求出每個(gè)樣本的匹配分?jǐn)?shù)S,根據(jù)匹配分?jǐn)?shù)為每個(gè)模態(tài)特征訓(xùn)練一個(gè)分類閾值T,大于等于此閾值的為類內(nèi)樣本,否則為類間樣本;通過(guò)比較樣本的S與T的大小,對(duì)樣本進(jìn)行分類;然后再計(jì)算每個(gè)匹配分?jǐn)?shù)與分類閾值之間的距離和分類閾值的比值,這個(gè)比值即為分類距離分?jǐn)?shù).以下為具體實(shí)現(xiàn)的步驟:

    1) 用Imean,Omean分別表示生物特征類內(nèi)、類間的匹配分?jǐn)?shù)的平均值,則可以定義一個(gè)閾值T,閾值T是指某一類樣本區(qū)別于其他類樣本的一個(gè)閾值,可根據(jù)此閾值的大小判斷該樣本的類別,從而在融合分?jǐn)?shù)指標(biāo)中加入類別信息:

    (1)

    2) 根據(jù)求出的分類閾值T,對(duì)樣本求出的匹配分?jǐn)?shù)進(jìn)行分類,然后求出每個(gè)樣本的分類距離分?jǐn)?shù).在單模態(tài)下,比較樣本的匹配分?jǐn)?shù)S與分類閾值T的大小,當(dāng)S≥T時(shí),用式(2)求出該樣本的分類距離分?jǐn)?shù),否則用式(3)求出該樣本的分類距離分?jǐn)?shù).如果一個(gè)樣本屬于這一類,這個(gè)樣本對(duì)應(yīng)于某個(gè)類的分類距離分?jǐn)?shù)為正數(shù),否則為負(fù)數(shù),即可以很明顯將類內(nèi)類間樣本區(qū)分出來(lái),同時(shí)增大了類內(nèi)類間樣本的融合分?jǐn)?shù)之間的距離.

    (2)

    (3)

    假設(shè)有指靜脈匹配器和掌紋匹配器,且類內(nèi)的匹配分?jǐn)?shù)要高于類間的匹配分?jǐn)?shù).假設(shè)融合公式fusion=2Svein+Spalm,其中Svein,Spalm分別為靜脈和掌紋的匹配分?jǐn)?shù).對(duì)于某一類來(lái)說(shuō),根據(jù)指靜脈區(qū)分類內(nèi)類間的閾值為0.6,根據(jù)掌紋區(qū)分類內(nèi)類間的閾值為0.3,其樣本1的匹配分?jǐn)?shù)為(0.3,0.4),其中0.3,0.4分別為指靜脈、掌紋的匹配分?jǐn)?shù);樣本2的匹配分?jǐn)?shù)為(0.4,0.2) ,其中0.4,0.2分別為指靜脈、掌紋的匹配分?jǐn)?shù).由于分類距離分?jǐn)?shù)加入了類別信息,從圖3~圖4可見(jiàn),本文提出的方法可看出樣本2不屬于此用戶的概率明顯比樣本1大;采用式(2)(3)對(duì)不同類別的樣本求出分類距離分?jǐn)?shù),2個(gè)樣本融合分?jǐn)?shù)的距離為2/3,比采用分類置信度分?jǐn)?shù)得出的融合分?jǐn)?shù)之間的距離要大.因此,分類距離分?jǐn)?shù)加入了類別信息以及增大融合后類內(nèi)類間的距離,可以很好地判斷樣本的類別,便于融合分類.

    Fig. 3 The diagram of calculating the classification confidence score and the distance of fusion scores圖3 計(jì)算分類置信度分?jǐn)?shù)及其融合分?jǐn)?shù)間距離的示意圖

    Fig. 4 The diagram of calculating the classification distance score and the distance of fusion scores圖4 計(jì)算分類距離分?jǐn)?shù)及其融合分?jǐn)?shù)間距離的示意圖

    2 自適應(yīng)融合方法

    傳統(tǒng)的融合識(shí)別算法中,一般給生物特征賦一個(gè)全局權(quán)重,這種方法具有很大的局限性[20].由于每個(gè)生物特征包含的信息不一樣,對(duì)于不同的人,具有代表性的生物特征不同.例如:一類樣本的指靜脈信息具有很大的辨識(shí)度,而掌紋信息辨識(shí)度很低;另一類樣本的掌紋信息具有很大的辨識(shí)度,指靜脈信息辨識(shí)度很低,因此,對(duì)于不同類的樣本,應(yīng)根據(jù)其每個(gè)模態(tài)所含有效信息的多少賦予不同的權(quán)重.文獻(xiàn)[22]雖然考慮到權(quán)重的影響,但是僅僅通過(guò)簡(jiǎn)單加權(quán)和的方法對(duì)融合分?jǐn)?shù)指標(biāo)進(jìn)行融合,沒(méi)有考慮到特征與特征之間的相互關(guān)聯(lián)性.

    信息熵是用來(lái)衡量一個(gè)隨機(jī)變量出現(xiàn)的期望值,一個(gè)變量的信息熵越大,那么它出現(xiàn)的各種情況也就越多,也就是包含的信息多.本文通過(guò)利用信息熵的這一特性,定義每個(gè)樣本特征之間的關(guān)聯(lián)系數(shù)和權(quán)重系數(shù),利用這2個(gè)系數(shù)將加權(quán)融合和傳統(tǒng)SUM規(guī)則統(tǒng)一在同一個(gè)自適應(yīng)算法框架中,進(jìn)行融合識(shí)別.圖5表示多模態(tài)生物特征融合的算法流程.

    2.1 特征提取

    分?jǐn)?shù)層融合是在特征匹配與分類決策之間進(jìn)行的,因此需要對(duì)原始的生物特征進(jìn)行特征提取.

    1) 指靜脈特征是利用文獻(xiàn)[30]的方法,通過(guò)對(duì)歸一化后的圖像進(jìn)行增強(qiáng)、Niblack分割、細(xì)化以及加寬等處理來(lái)得到.

    2) 掌紋特征采用文獻(xiàn)[31]的方法,將Gabor和PCA結(jié)合起來(lái),對(duì)增強(qiáng)后掌紋圖像進(jìn)行特征提取,每個(gè)樣本均可得到一個(gè)320維的特征向量.

    3) 指形特征是通過(guò)檢測(cè)到指靜脈的輪廓圖像,通過(guò)分層梯度方向直方圖(PHOG)計(jì)算得到.

    2.2 類模板

    為了獲得每類中每個(gè)樣本的類間類內(nèi)的匹配分?jǐn)?shù),需要為每類訓(xùn)練一個(gè)類模板,這樣既可以減少計(jì)算量,也具有代表性.

    對(duì)于提取的圖像特征,某類的某個(gè)樣本圖像的特征向量用hk表示,每類中有M個(gè)樣本圖像,k表示第k個(gè)樣本圖像,將每類中的每個(gè)樣本圖像提取出的特征、對(duì)應(yīng)位置的特征加在一起,同時(shí)除以該類所含樣本的數(shù)目M,即為每類圖像的類模板.

    (4)

    其中,k=1,2,…,M.

    2.3 融合策略

    一個(gè)變量的信息熵越大,其含有信息價(jià)值越大,本文的融合方法利用信息熵的這一特性,通過(guò)求出關(guān)聯(lián)系數(shù)和特征權(quán)重系數(shù),關(guān)聯(lián)系數(shù)可以根據(jù)特征之間的關(guān)聯(lián)性,將傳統(tǒng)SUM規(guī)則和加權(quán)融合統(tǒng)一到一個(gè)自適應(yīng)框架中來(lái),特征權(quán)重系數(shù)可以根據(jù)特征信息動(dòng)態(tài)地調(diào)節(jié)加權(quán)的比重,將所含有的有效信息更突出地表現(xiàn)出來(lái),提高了融合識(shí)別率.

    2.3.1 特征權(quán)重系數(shù)

    假設(shè)每類均融合N個(gè)不同的生物特征,分別用F1,F2,…,FN表示每類不同模態(tài)的生物特征.在訓(xùn)練階段,已經(jīng)求出某類需要融合特征的分類距離分?jǐn)?shù)D_CDSt(Fi),其中i表示某類需要融合的第i個(gè)特征,共N個(gè)特征;t表示某類的第t個(gè)樣本.

    根據(jù)信息熵[32-33]理論,采用的信息熵為

    H=-pilbpi.

    (5)

    利用式(5)求出每個(gè)分類距離分?jǐn)?shù)對(duì)應(yīng)的信息熵:

    Ht(Fi)=-D_CDSt(Fi)×D_CDSt(Fi),

    (6)

    其中,Ht(Fi)表示某類里的第t個(gè)樣本分類距離分?jǐn)?shù)的信息熵,其物理意義表示為分類距離分?jǐn)?shù)含有的有效信息的多少.

    定義特征權(quán)重系數(shù)式(7).對(duì)于某類里的第t個(gè)樣本,先通過(guò)式(6)計(jì)算出其對(duì)應(yīng)的信息熵之后,然后由式(7) 求出一個(gè)匹配器相對(duì)于其他匹配器的特征權(quán)重系數(shù),特征權(quán)重系數(shù)為特征Fi的分類距離分?jǐn)?shù)的信息熵和其他特征的分類距離分?jǐn)?shù)的信息熵的比重,表明特征Fi在所有特征信息熵中所占的比重信息,比重越大,說(shuō)明特征Fi含有的有效信息越多,有利于融合后的識(shí)別.

    (7)

    2.3.2 關(guān)聯(lián)系數(shù)

    定義某一個(gè)特征Fi相對(duì)于另外一個(gè)特征Fj的偏熵[34]:

    HFi(Fj)=-D_CDSt(Fi)×D_CDSt(Fj).

    (8)

    Fig. 6 The flowchart of training and testing圖6 訓(xùn)練和測(cè)試階段流程

    通過(guò)定義特征Fi的偏關(guān)聯(lián)系數(shù)式(9),表示為特征Fi的分類距離分?jǐn)?shù)的信息熵和特征Fi相對(duì)于其他特征的分類距離分?jǐn)?shù)的偏熵之和的比值,表明特征Fi與其他模態(tài)的特征之間的相互關(guān)聯(lián)性:

    (9)

    對(duì)于某類的第t個(gè)樣本,先通過(guò)式(6)(8)計(jì)算出其對(duì)應(yīng)的信息熵和偏熵之后,然后由式(9) 求出某一個(gè)特征Fi相對(duì)于其他特征的偏關(guān)聯(lián)系數(shù).此時(shí),定義關(guān)聯(lián)系數(shù)為所有特征的偏關(guān)聯(lián)系數(shù)之和,如式(10),偏關(guān)聯(lián)系數(shù)是指所有模態(tài)特征之間的相互關(guān)聯(lián)性.

    (10)

    由實(shí)驗(yàn)可知,采用式(6)(8)直接計(jì)算出來(lái)的信息熵和偏熵的值為復(fù)數(shù),為了更簡(jiǎn)便地計(jì)算,將這2個(gè) 計(jì)算公式進(jìn)行了轉(zhuǎn)化[35],分別為

    2.3.3 融合算法

    不確定性度量融合方法[25,36]是利用圖像信息間的不確定性,將加權(quán)融合和乘性融合結(jié)合起來(lái),并將其放入一個(gè)自適應(yīng)框架中.文獻(xiàn)[21]考慮到圖像信息間的相關(guān)性,提出了一種基于特征關(guān)聯(lián)性的自適應(yīng)融合框架[37-38],將乘性規(guī)則和加性融合統(tǒng)一在一個(gè)框架中.由于乘性規(guī)則易受到樣本訓(xùn)練集和測(cè)試集劃分的影響,且沒(méi)有SUM規(guī)則的識(shí)別效果好,因此本文通過(guò)將傳統(tǒng)的SUM規(guī)則和加權(quán)融合統(tǒng)一在一個(gè)自適應(yīng)框架中,利用信息熵表示信息的價(jià)值,將某一個(gè)特征Fi的信息熵和其他所有特征的信息熵之和的比重作為特征權(quán)重系數(shù)rt,特征權(quán)重系數(shù)rt可以根據(jù)特征含有有效信息的多少賦予相應(yīng)的權(quán)重系數(shù),起到有效利用有效信息的作用;用某個(gè)樣本t的某個(gè)特征Fi和Fi與其他特征之間偏熵之和的比重表示關(guān)聯(lián)系數(shù)λt,λt表示不同模態(tài)特征之間的關(guān)聯(lián)性,可以根據(jù)特征與特征之間的聯(lián)系,動(dòng)態(tài)地調(diào)節(jié)2種基礎(chǔ)融合方法——SUM規(guī)則和加權(quán)融合的權(quán)重,即本算法通過(guò)2層權(quán)重,將含有有效信息多的特征作為融合識(shí)別算法中的重點(diǎn),實(shí)驗(yàn)證明取得了不錯(cuò)的識(shí)別效果:

    (13)

    由實(shí)驗(yàn)可知,λt的數(shù)值較高,且加權(quán)融合的識(shí)別效果比SUM規(guī)則要好,所以將λt作為加權(quán)融合的系數(shù),K為不為0的自然數(shù).

    2.4 訓(xùn)練和測(cè)試階段

    多模態(tài)生物特征融合的識(shí)別系統(tǒng)主要包括2個(gè)階段:訓(xùn)練階段和測(cè)試階段.

    1) 訓(xùn)練階段

    ① 對(duì)樣本圖像預(yù)處理,進(jìn)行特征提??;

    ② 根據(jù)2.2節(jié)求出每個(gè)類的均值模板,求出樣本與每個(gè)類模板的匹配分?jǐn)?shù);

    ③ 利用第1節(jié)的方法求出每類的閾值,并將匹配分?jǐn)?shù)轉(zhuǎn)化為分類距離分?jǐn)?shù);

    ④ 將分類距離分?jǐn)?shù)轉(zhuǎn)化為信息熵,并計(jì)算出每個(gè)樣本的特征權(quán)重系數(shù)和關(guān)聯(lián)系數(shù);

    ⑤ 根據(jù)2.3.3節(jié)的方法,求出2種生物特征融合后的分?jǐn)?shù)fusion,根據(jù)此融合分?jǐn)?shù)求出每個(gè)類的融合后的閾值,為后面測(cè)試階段提供 分類依據(jù).

    2) 測(cè)試階段

    求出測(cè)試樣本中某類的樣本與每類的類模板的匹配分?jǐn)?shù),同訓(xùn)練階段一樣,求出生物特征融合后的分?jǐn)?shù),與訓(xùn)練階段求出的融合閾值進(jìn)行比較,驗(yàn)證是否屬于同一類.詳細(xì)流程如圖6所示.

    3 實(shí)驗(yàn)與結(jié)果

    本文實(shí)驗(yàn)采用的是天津市智能信號(hào)與圖像處理重點(diǎn)實(shí)驗(yàn)室提供的指靜脈圖庫(kù)、香港理工大學(xué)的掌紋公開(kāi)數(shù)據(jù)庫(kù)和指形數(shù)據(jù)庫(kù),由于目前沒(méi)有來(lái)自同一個(gè)用戶的多個(gè)生物特征圖像的多模態(tài)數(shù)據(jù)庫(kù),且考慮到生物特征之間的無(wú)關(guān)性,因此,將多模態(tài)的圖像數(shù)據(jù)用人為的方式進(jìn)行1對(duì)1的匹配,確定為同一個(gè)用戶的生物特征圖像.因?yàn)椴煌瑏?lái)源的數(shù)據(jù)庫(kù)類別和數(shù)量上都會(huì)存在差異,所以針對(duì)每個(gè)用戶的單模態(tài)特征折中地進(jìn)行選取,共取64個(gè)用戶,每個(gè)用戶的單模態(tài)特征圖像有6個(gè)樣本,隨機(jī)選取2幅作為訓(xùn)練樣本,剩下的4幅作為測(cè)試樣本.為了驗(yàn)證本文提出分類距離分?jǐn)?shù)CDS和自適應(yīng)融合算法的有效性,共設(shè)計(jì)5個(gè)實(shí)驗(yàn):

    實(shí)驗(yàn)1. 為尋找到融合算法最佳的參數(shù),可以使本文提出的自適應(yīng)融合方法和分?jǐn)?shù)距離分?jǐn)?shù)相結(jié)合達(dá)到最優(yōu)的識(shí)別效果.

    實(shí)驗(yàn)2. 比較在不同模態(tài)下采用不同融合分?jǐn)?shù)指標(biāo)的性能,融合方法均選擇自適應(yīng)融合算法進(jìn)行識(shí)別,驗(yàn)證本文第1節(jié)提出的CDS的有效性.

    實(shí)驗(yàn)3. 分別將分類置信度分?jǐn)?shù)CCS和CDS作為分類指標(biāo),并與SVM分類器和本文提出自適應(yīng)融合識(shí)別相結(jié)合性能的比較,不僅進(jìn)一步驗(yàn)證了CDS的有效性,同時(shí)也驗(yàn)證了本文提出的自適應(yīng)融合算法的有效性.

    實(shí)驗(yàn)4. 將自適應(yīng)融合方法和常系數(shù)融合方法進(jìn)行比較,驗(yàn)證本文提出自適應(yīng)融合方法中自適應(yīng)參數(shù)λt,rt的有效性.

    實(shí)驗(yàn)5. 采用自適應(yīng)融合識(shí)別的方法,與其他融合識(shí)別方法的性能進(jìn)行比較,均采用CDS作為融合分?jǐn)?shù)指標(biāo),驗(yàn)證本文提出的自適應(yīng)融合算法的有效性,以及CDS與自適應(yīng)融合算法結(jié)合的合理性.

    本文實(shí)驗(yàn)采用錯(cuò)誤率(error rate,ER)來(lái)評(píng)價(jià)融合識(shí)別的性能.ER值越低,表示識(shí)別性能越好.其中,用FV表示單模態(tài)的指靜脈識(shí)別,用PP表示單模態(tài)的掌紋識(shí)別,用CT表示單模態(tài)的指形識(shí)別.

    3.1 實(shí)驗(yàn)1

    通過(guò)比較雙模態(tài)下、三模態(tài)下采用自適應(yīng)融合方法的識(shí)別性能,從而選取最優(yōu)的K值.其中,融合分?jǐn)?shù)指標(biāo)采用分類距離分?jǐn)?shù)CDS.

    通過(guò)圖7可以看出,在雙模態(tài)下,當(dāng)K≥2時(shí),識(shí)別性能已經(jīng)達(dá)到最優(yōu),其中指靜脈和掌紋的融合性能已經(jīng)穩(wěn)定,指靜脈和指形的融合性能ER隨著K的增大會(huì)逐漸增大;在三模態(tài)下,當(dāng)K≥3時(shí),識(shí)別性能已經(jīng)達(dá)到最優(yōu),趨于穩(wěn)定.因此,取雙模態(tài)和三模態(tài)的取值交集的最小值,最后K=3.

    Fig. 7 Recognition performance of adaptive fusion methods with different values of K圖7 不同K值對(duì)應(yīng)的自適應(yīng)融合方法的識(shí)別性能

    3.2 實(shí)驗(yàn)2

    通過(guò)分別比較單模態(tài)、雙模態(tài)和三模態(tài)下不同融合分?jǐn)?shù)指標(biāo)的識(shí)別性能,從而證明了采用分類距離分?jǐn)?shù)CDS作為融合分?jǐn)?shù)指標(biāo)的有效性,其融合方法采用本文提出的自適應(yīng)融合方法.

    從表1可以看出,單模態(tài)下將CDS作為融合分類指標(biāo),每個(gè)模態(tài)的ER都得到了一定程度的下降,其中指形在單模態(tài)下相對(duì)于傳統(tǒng)匹配分?jǐn)?shù),其ER下降了10.8154%,可見(jiàn)通過(guò)增大類內(nèi)類間距離以及把類別信息加入到CDS中,其分類效果要優(yōu)于傳統(tǒng)的匹配分?jǐn)?shù).從表2可知,無(wú)論是雙模態(tài)下還是三模態(tài)下,將分類置信度分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo)得到的識(shí)別效果還沒(méi)有將匹配分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo)的好,但是將CDS作為融合分?jǐn)?shù)指標(biāo)得到的識(shí)別效果ER遠(yuǎn)遠(yuǎn)低于匹配分?jǐn)?shù)和分類置信度分?jǐn)?shù),這是因?yàn)镃DS不僅增大了類內(nèi)類間的距離,還加入了類別信息,將匹配分?jǐn)?shù)含有的有效信息盡可能地利用起來(lái).由此可見(jiàn),將CDS作為融合指標(biāo)可以提高識(shí)別率,從而證明了第1節(jié)中提出的分類距離分?jǐn)?shù)CDS作為融合分?jǐn)?shù)指標(biāo)的合理性和有效性.

    Table1ERPerformancewithDifferentFusionScoreMetricsforSingleMode

    表1 單模態(tài)下采用不同融合分?jǐn)?shù)指標(biāo)的ER性能 %

    Table2ERPerformanceofDifferentFusionScoreMetricsforDifferentModes

    表2 不同模態(tài)下采用不同融合分?jǐn)?shù)指標(biāo)的ER性能 %

    3.3 實(shí)驗(yàn)3

    雙模態(tài)和三模態(tài)下,分別將分類置信度分?jǐn)?shù)CCS和分類距離分?jǐn)?shù)CDS作為分類指標(biāo),并分別與SVM分類器和本文提出自適應(yīng)融合算法相結(jié)合,對(duì)其識(shí)別性能進(jìn)行比較.

    為了進(jìn)一步說(shuō)明分類距離分?jǐn)?shù)CDS作為融合分?jǐn)?shù)指標(biāo)的優(yōu)越性,結(jié)合表3可以看出,當(dāng)均采用SVM進(jìn)行融合識(shí)別時(shí),明顯CDS作為融合分類指標(biāo)的ER要遠(yuǎn)低于CCS;當(dāng)均采用自適應(yīng)融合算法時(shí),將CDS作為融合指標(biāo)的ER相對(duì)于CCS,平均下降了1.796 454%,由此可見(jiàn),將分類距離分?jǐn)?shù)CDS作為融合分?jǐn)?shù)指標(biāo)的優(yōu)越性.

    Table 3 ER Performance of Uniting Different Fusion Score Metrics and Different Fusion Methods for Different Modes

    當(dāng)均采用分類置信度分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo)時(shí),明顯自適應(yīng)融合的識(shí)別性能ER低于SVM分類器的識(shí)別性能;當(dāng)均采用分類距離分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo)時(shí),SVM分類器的識(shí)別性能ER相對(duì)于自適應(yīng)融合的識(shí)別性能平均增大了0.22673%,可見(jiàn)自適應(yīng)融合的識(shí)別性能要高于SVM分類器的識(shí)別性能,驗(yàn)證了自適應(yīng)融合算法的有效性.

    當(dāng)采用分類距離分?jǐn)?shù)CDS和自適應(yīng)融合算法時(shí),對(duì)比其他3種相結(jié)合方法的識(shí)別效果,其效果識(shí)別要遠(yuǎn)好于其他3類算法,可見(jiàn)CDS與自適應(yīng)融合算法相結(jié)合的合理性.

    3.4 實(shí)驗(yàn)4

    通過(guò)比較常系數(shù)的融合方法和自適應(yīng)融合方法的性能,進(jìn)一步驗(yàn)證自適應(yīng)融合算法中參數(shù)λt,rt的有效性.由于單模態(tài)下指靜脈的識(shí)別效果要優(yōu)于掌紋和指形,所以雙模態(tài)融合時(shí),rvein=0.8,rpalm=0.2,λt取K值的一半,即λt=1.5;三模態(tài)融合時(shí),rvein=0.5,rpalm=0.25,rcoutour=0.25,λt=1.5.其中,以分類距離分?jǐn)?shù)CDS作為融合分?jǐn)?shù)指標(biāo).

    從表4可以看出,采用自適應(yīng)的融合識(shí)別方法比常系數(shù)的融合方法要好.由于本實(shí)驗(yàn)選取的常系數(shù)取值趨近于自適應(yīng)融合方法各系數(shù)的取值,且采取的是分類距離分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo),所以常系數(shù)的融合方法的識(shí)別率還是很高的,盡管如此,其識(shí)別效果還是低于自適應(yīng)融合方法.自適應(yīng)參數(shù)可以根據(jù)CDS的信息熵的大小來(lái)判斷每個(gè)CDS帶有有效信息的多少,參數(shù)可以根據(jù)有效信息動(dòng)態(tài)地調(diào)整融合算法的權(quán)重,達(dá)到充分利用有效信息的目的.

    Table4ERPerformanceofAdaptiveFusionMethodandtheConstantCoefficientFusionMethod

    表4 自適應(yīng)融合方法和常系數(shù)融合方法的ER性能 %

    3.5 實(shí)驗(yàn)5

    通過(guò)比較雙模態(tài)、三模態(tài)下采用分類距離分?jǐn)?shù)CDS作為融合指標(biāo),分別與現(xiàn)有的融合方法相結(jié)合,對(duì)其識(shí)別性能進(jìn)行比較.

    表5可以看出,無(wú)論是雙模態(tài)還是三模態(tài),將分類距離分?jǐn)?shù)與自適應(yīng)融合算法結(jié)合起來(lái)的識(shí)別ER是最低的,識(shí)別效果是最好的,其中掌紋和指靜脈的融合性能ER最低為0.012207%,指靜脈和指形的融合性能ER最低為0.061035%,掌紋、指靜脈和指形的融合性能為0.012207%.

    為了進(jìn)一步說(shuō)明自適應(yīng)融合方法的有效性,圖8~10給出了不同模態(tài)下不同融合方法的ROC曲線圖.

    Table5ERPerformanceofUnitingDifferentFusionScoreMetricsandCDSforDifferentModes

    表5 不同模態(tài)下CDS結(jié)合不同融合方法的ER性能 %

    Fig. 8 The ROC curves of the fusion of PP and FV圖8 掌紋和指靜脈融合的ROC曲線圖

    Fig. 9 The ROC curves of the fusion of CT and FV圖9 指形和指靜脈融合的ROC曲線圖

    Fig. 10 The ROC curves of the fusion of CT,FV and PP圖10 指形、指靜脈和掌紋融合的ROC曲線圖

    先看圖8,其為掌紋和指靜脈的不同融合性能的比較,可以看出MAX規(guī)則的融合方法性能是最差的,自適應(yīng)融合方法、SVM分類器以及MIN規(guī)則的性能相對(duì)來(lái)說(shuō)很好,雖然圖8中的這3條線看起來(lái)幾乎是重合的,但SVM分類器和MIN規(guī)則仍在自適應(yīng)融合方法的曲線內(nèi),說(shuō)明自適應(yīng)融合方法的性能是最好的.圖9和圖10很明顯可以看出,自適應(yīng)融合的識(shí)別性能遠(yuǎn)優(yōu)于其他的融合方法,從而驗(yàn)證自適應(yīng)融合算法的有效性.

    實(shí)驗(yàn)5均采用分類距離分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo),表5可以看出,將分類距離分?jǐn)?shù)和SVM、三角范數(shù)等融合算法結(jié)合進(jìn)行識(shí)別時(shí),識(shí)別效果并沒(méi)有和本文提出的自適應(yīng)融合算法相結(jié)合的識(shí)別效果好.首先因?yàn)榉诸惥嚯x分?jǐn)?shù)相對(duì)于傳統(tǒng)的融合分?jǐn)?shù)指標(biāo)攜帶有更多的有效信息,本文提出的基于信息熵的自適應(yīng)融合算法,可以通過(guò)信息熵有效利用分類距離分?jǐn)?shù)含有的有效信息,同時(shí)參數(shù)λt,rt可根據(jù)每個(gè)模態(tài)特征含有有效信息的比重信息動(dòng)態(tài)調(diào)整自適應(yīng)算法的框架結(jié)構(gòu),所以分類距離分?jǐn)?shù)和自適應(yīng)融合算法的結(jié)合具有合理性.

    3.6 時(shí)間效率分析

    通過(guò)實(shí)驗(yàn)1~實(shí)驗(yàn)5的分析,可知本文提出的算法在識(shí)別率是優(yōu)于對(duì)比算法的.由表6可知,本文提出的方法在所用時(shí)間上僅略高于MAX方法,但是由于MAX融合規(guī)則較簡(jiǎn)單,沒(méi)有考慮到訓(xùn)練集和測(cè)試集劃分的影響,其融合識(shí)別效果低于本文提出的方法.由于指靜脈特征集采用的是原始圖像的信息,不是對(duì)原始圖像提取特征之后的信息,這在特征集與特征集比較的過(guò)程中需要消耗大量的時(shí)間.為了提高本文算法的時(shí)間效率,可考慮對(duì)樣本進(jìn)行特征提取,將對(duì)整幅圖像信息的操作轉(zhuǎn)換為低維數(shù)據(jù)的處理.

    Table 6 The Recognition Time of One Class in Testing Process

    4 總 結(jié)

    本文提取了一種基于分類距離分?jǐn)?shù)的自適應(yīng)融合識(shí)別方法.實(shí)驗(yàn)表明分類距離分?jǐn)?shù)不僅在一定程度上反映了特征的性能,也可預(yù)分類樣本特征,為融合算法提供了一個(gè)具有有效判別信息的特征融合集,大大提高了融合指標(biāo)的利用率;其次利用信息熵的自適應(yīng)融合算法既可以有效利用分類距離分?jǐn)?shù)的判別信息,也可利用雙層權(quán)重系數(shù)根據(jù)有效信息動(dòng)態(tài)地調(diào)整融合算法的權(quán)重,達(dá)到充分利用有效信息的目的,從而提高融合識(shí)別率.

    圖像的特征是其固有的屬性,如何有效地利用這些固有的屬性特征進(jìn)行融合分類是一個(gè)有意義的研究課題.本文改進(jìn)了融合分?jǐn)?shù)指標(biāo)以及特征融合算法,為解決多模態(tài)特征間的融合問(wèn)題提供了一個(gè)新的思想.

    [1] Zheng Fang, Rozi A, Wang Renyu, et al. Overview of biometric recognition technology[J]. Journal of Information Security Research, 2016, 2(1): 12-26

    [2] Zhang Shiqing, Zhao Xiaoming. Locality-sensitive kernel sparse representation classification for face recognition[J]. Journal of Visual Communication and Image Representation, 2014, 25(8): 1878-1885

    [3] Sun Zhenan, Zhang Hui, Tan Tieniu, et al. Iris image classification based on hierarchical visual codebook[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2014, 36(6): 1120-1133

    [4] Yang Jinfeng, Shi Yihua. Finger-vein network enhancement and segmentation[J]. Pattern Analysis and Applications, 2014, 17(4): 783-797

    [5] Sanjekar P S, Patil J B. An overview on multimodal biometrics[J]. Signal and Image Processing, 2013, 4(1): 57-64

    [6] Gudavalli M, Raju S V, Babu A V, et al. Multimodal biometrics—sources, architecture and fusion techniques: An overview[C] //Proc of Int Symp on Biometrics and Security Technologies. Los Alamitos, CA: IEEE Computer Society, 2012: 27-34

    [7] Hong Lin, Jain A K. Integrating faces and fingerprints for personal identification[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 1998, 20(12): 1295-1307

    [8] Jain A K, Ross A. Learning user-specific parameters in a multibiometric system[C] //Proc of the 9th Int Conf on Image Processing. Piscataway, NJ: IEEE, 2002: 57-60

    [9] Jing Xiaoyuan, Yao Yongfang, Zhang D, et al. Face and palmprint pixel level fusion and kernel DCV-RBF classifier for small sample biometric recognition[J]. Pattern Recognition, 2007, 40(11): 3209-3224

    [10] Yuan Guanglin, Xue Mogen, Han Yusheng, et al. Mean shift object tracking based on adaptive multi-features fusion[J]. Journal of Computer Research and Development, 2010, 47(9): 1663-1671 (in Chinese)

    (袁廣林, 薛模根, 韓裕生, 等. 基于自適應(yīng)多特征融合的mean shift目標(biāo)跟蹤[J]. 計(jì)算機(jī)研究與發(fā)展, 2010, 47(9): 1663-1671 )

    [11] Zhi Lijia, Zhang Shaomin, Zhao Dazhe, et al. Minimum spanning tree fusing multi-feature point information for medical image registration[J]. Journal of Computer Research and Development, 2011, 48(3): 501-507 (in Chinese)

    (支力佳, 張少敏, 趙大哲, 等. 融合多種特征點(diǎn)信息的最小生成樹(shù)醫(yī)學(xué)圖像配準(zhǔn)[J]. 計(jì)算機(jī)研究與發(fā)展, 2011, 48(3): 501-507)

    [12] Zhu Jun, Zhao Jieyu, Dong Zhenyu. Image classification using hierarchical feature learning method combined with image saliency[J]. Journal of Computer Research and Development, 2014, 51(9): 1919-1928 (in Chinese)

    (祝軍, 趙杰煜, 董振宇. 融合顯著信息的層次特征學(xué)習(xí)圖像分類[J]. 計(jì)算機(jī)研究與發(fā)展, 2014, 51(9): 1919-1928)

    [13] Zhang Pan, Lian Qiusheng. Low-Rank relaxed collaborative representation combined with global and local features for face recognition[J]. Journal of Computer Research and Development, 2014, 51(12): 2663-2670 (in Chinese)

    (張盼, 練秋生. 融合整體與局部特征的低秩松弛協(xié)作表示[J]. 計(jì)算機(jī)研究與發(fā)展, 2014, 51(12): 2663-2670)

    [14] Meng Weizhi, Wong D S, Furnell S, et al. Surveying the development of biometric user authentication on mobile phones[J]. IEEE Communications Surveys and Tutorials, 2015, 17(3): 1268-1293

    [15] Haghighat M, Abdel-Mottaleb M, Alhalabi W. Discriminant correlation analysis: Real-time feature level fusion for multimodal biometric recognition[J]. IEEE Trans on Information Forensics and Security, 2016, 11(9): 1984-1996

    [16] He Mingxing, Horng S J, Fan Pingzhi, et al. Performance evaluation of score level fusion in multimodal biometric systems[J]. Pattern Recognition, 2010, 43(5): 1789-1800

    [17] Liu Haicang, Li Shutao. Decision fusion of sparse representation and support vector machine for SAR image target recognition[J]. Neurocomputing, 2013, 113: 97-104

    [18] Nandakumar K, Chen Yi, Dass S C, et al. Likelihood ratio-based biometric score fusion[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2008, 30(2): 342-347

    [19] Ross A A, Nandakumar K, Jain A K. Handbook of Multibiometrics[M]. Berlin: Springer, 2006

    [20] Xi Xiaoming, Yin Yilong, Yang Gongping, et al. Personalized fusion method based on finger vein and finger contour[J]. Journal of Computer Research and Development, 2013, 50(9): 1914-1923 (in Chinese)

    (襲肖明, 尹義龍, 楊公平, 等. 基于手指靜脈和手指輪廓的個(gè)性化融合方法[J]. 計(jì)算機(jī)研究與發(fā)展, 2013, 50(9): 1914-1923)

    [21] Wu Di, Tang Yongqi, Lin Guohan, et al. Multibiometric recognition based on total error rate and feature correlation adaptive fusion[J]. Journal of Optoelectronics·Laser, 2016, 27(1): 67-76 (in Chinese)

    (吳迪, 唐勇奇, 林國(guó)漢, 等. 基于總錯(cuò)誤率和特征關(guān)聯(lián)的自適應(yīng)融合多模態(tài)生物特征識(shí)別[J]. 光電子·激光, 2016, 27(1): 67-76)

    [22] Cui Feifei, Yang Gongping. Score level fusion of fingerprint and finger vein recognition[J]. Journal of Computational Information Systems, 2011, 7(16): 5723-5731

    [23] Yuan Chenhu, Liu Tiegen, Li Xiuyan. Identification algorithm for fusion of hand vein iris and fingerprint based on kNN-SVM[J]. Opto-Electronic Engineering, 2013, 40(4): 101-105 (in Chinese)

    (袁臣虎, 劉鐵根, 李秀艷. 基于kNN-SVM的手背靜脈虹膜和指紋融合身份識(shí)別[J]. 光電工程, 2013, 40(4): 101-105)

    [24] Gawande U, Zaveri M, Kapur A. A novel algorithm for feature level fusion using SVM classifier for multibiometrics-based person identification[J]. Applied Computational Intelligence and Soft Computing, 2013, 2013: 1155-1166

    [25] Wu Di, Cao Jie. Multimodel biometrics fusion based on FAR and FRR using triangular norm[J]. International Journal of Computational Intelligence Systems, 2015, 8(4): 779-786

    [26] Peng Jialiang, Li Qiong, Niu Xiamu. Finger multimodal biometric verification based on score-level fusion[J]. Intelligent Computer and Applications, 2014, 4(2): 36-44 (in Chinese)

    (彭加亮, 李瓊, 牛夏牧. 基于三角范數(shù)的多模態(tài)手指生物特征的分?jǐn)?shù)層融合方法[J]. 智能計(jì)算機(jī)與應(yīng)用, 2014, 4(2): 36-44)

    [27] Tran Q D, Liatsis P, Zhu Bing, et al. Using density based score fusion for multimodal identification systems under the missing data scenario[C] //Proc of Developments in E-systems Engineering. Los Alamitos, CA: IEEE Computer Society, 2011: 238-242

    [28] Aravinth M J, Valarmathy D S. A novel feature extraction techniques for multimodal score fusion using density based gaussian mixture model approach[J]. International Journal of Emerging Technology and Advanced Engineering, 2012, 2(1): 189-197

    [29] Gu Xin, Wang Haitao, Wang Lingfeng, et al. Fusing multiple features for object tracking based on uncertainty measurement[J]. ACTA Automatica Sinica, 2011, 37(5): 550-559 (in Chinese)

    (顧鑫, 王海濤, 汪凌峰, 等. 基于不確定性度量的多特征融合跟蹤[J]. 自動(dòng)化學(xué)報(bào), 2011, 37(5): 550-559)

    [30] Zhao Dandan. Novel algorithm for finger-vein image enhancement and thinning and its application in recognition[D]. Hefei: Anhui University, 2015 (in Chinese)

    (趙丹丹. 手指靜脈圖像的增強(qiáng)和細(xì)化算法及其在身份識(shí)別中的應(yīng)用[D]. 合肥: 安徽大學(xué), 2015)

    [31] Guo Jingyu. The research of palmprint identification algorithm[D]. Hefei: Anhui University, 2015 (in Chinese)

    (郭婧宇. 基于掌紋的身份識(shí)別算法研究[D]. 合肥: 安徽大學(xué), 2015)

    [32] Shannon C E. A mathematical theory of communication[J]. The Bell System Technical Journal, 1948, 27(3): 379-423

    [33] Omari A, Figueiras-Vidal A R. Feature combiners with gate-generated weights for classification[J]. IEEE Trans on Neural Networks and Learning Systems, 2013, 24(1): 158-163

    [34] Jiang R M, Crookes D, Luo Nie. Face recognition in global harmonic subspace[J]. IEEE Trans on Information Forensics and Security, 2010, 5(3): 416-424

    [35] Feng Shikun, Lei Zhen, Yi Dong, et al. Online content-aware video condensation[C] //Proc of IEEE Int Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2012: 2082-2087

    [36] Wu Di. Audio-visual person recognition based on rank level fusion and Gaussian mixture model[J]. International Journal of Control and Automation, 2015, 8(4): 313-332

    [37] Lin Sen, Xu Tianyang, Tang Yonghua, et al. Palm vein identity recognition based on improved S-transform[J]. Journal of Optoelectronics·Laser, 2015, 26(9): 1776-1782 (in Chinese)

    (林森, 徐天揚(yáng), 湯永華, 等. 基于改進(jìn)S變換的手掌靜脈身份識(shí)別[J]. 光電子·激光, 2015, 26(9): 1776-1782)

    [38] Wang Feng, Jin Xiaobo, Yu Junwei, et al. A positive recognition algorithm for fake plate vehicles based on fusion strategy[J]. Journal of Optoelectronics·Laser, 2015, 26(11): 2209-2216 (in Chinese)

    (王峰, 靳小波, 于俊偉, 等. 基于融合策略的套牌車主動(dòng)識(shí)別算法[J]. 光電子·激光, 2015, 26(11): 2209-2216)ZhangLu, born in 1991. Master. Her main research interests include pattern recognition and information processing.

    猜你喜歡
    模態(tài)分類特征
    分類算一算
    如何表達(dá)“特征”
    不忠誠(chéng)的四個(gè)特征
    分類討論求坐標(biāo)
    數(shù)據(jù)分析中的分類討論
    教你一招:數(shù)的分類
    抓住特征巧觀察
    國(guó)內(nèi)多模態(tài)教學(xué)研究回顧與展望
    基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識(shí)別
    由單個(gè)模態(tài)構(gòu)造對(duì)稱簡(jiǎn)支梁的抗彎剛度
    国产精品野战在线观看| 日韩大尺度精品在线看网址| 亚洲免费av在线视频| 亚洲av电影不卡..在线观看| 成人18禁高潮啪啪吃奶动态图| 久久国产亚洲av麻豆专区| 手机成人av网站| 免费在线观看影片大全网站| 色哟哟哟哟哟哟| 国产伦一二天堂av在线观看| 欧美乱码精品一区二区三区| 国产激情欧美一区二区| 老司机深夜福利视频在线观看| 久久久久久免费高清国产稀缺| 亚洲真实伦在线观看| 黄色女人牲交| 一个人免费在线观看的高清视频| 日本a在线网址| 制服诱惑二区| 国产区一区二久久| 正在播放国产对白刺激| 色播在线永久视频| 亚洲va日本ⅴa欧美va伊人久久| 日韩中文字幕欧美一区二区| 少妇粗大呻吟视频| 日韩 欧美 亚洲 中文字幕| 亚洲av成人av| 成人午夜高清在线视频 | 日日摸夜夜添夜夜添小说| 欧美日韩瑟瑟在线播放| 免费在线观看影片大全网站| 无遮挡黄片免费观看| 日韩欧美三级三区| 国产精品精品国产色婷婷| a在线观看视频网站| 桃色一区二区三区在线观看| 色av中文字幕| 日日夜夜操网爽| 亚洲精品一卡2卡三卡4卡5卡| 久久欧美精品欧美久久欧美| 国产欧美日韩一区二区三| 日韩欧美免费精品| 视频在线观看一区二区三区| 亚洲人成伊人成综合网2020| 一本精品99久久精品77| 香蕉久久夜色| 欧美日韩黄片免| 午夜影院日韩av| 巨乳人妻的诱惑在线观看| 午夜福利欧美成人| 久久99热这里只有精品18| 最好的美女福利视频网| 国产在线观看jvid| а√天堂www在线а√下载| 在线av久久热| 激情在线观看视频在线高清| 国产私拍福利视频在线观看| 久久久国产成人免费| 91老司机精品| 日本免费一区二区三区高清不卡| 午夜福利免费观看在线| 女人被狂操c到高潮| 搡老熟女国产l中国老女人| 嫩草影视91久久| 国产精品九九99| 国产真实乱freesex| 免费在线观看日本一区| 日韩欧美国产一区二区入口| 国产亚洲精品久久久久5区| 成年免费大片在线观看| 国产精品国产高清国产av| 国产高清激情床上av| 免费搜索国产男女视频| 最近最新中文字幕大全电影3 | 国内毛片毛片毛片毛片毛片| 99热这里只有精品一区 | 美女扒开内裤让男人捅视频| 熟女电影av网| 免费高清视频大片| xxxwww97欧美| 老司机在亚洲福利影院| 亚洲精品色激情综合| 亚洲成av人片免费观看| 中文字幕高清在线视频| 婷婷色综合大香蕉| 欧美成人a在线观看| 又爽又黄a免费视频| 亚洲中文字幕日韩| 露出奶头的视频| 麻豆精品久久久久久蜜桃| 欧美激情国产日韩精品一区| 国产蜜桃级精品一区二区三区| 亚洲高清免费不卡视频| 人妻丰满熟妇av一区二区三区| 99久久久亚洲精品蜜臀av| 床上黄色一级片| 美女 人体艺术 gogo| 午夜日韩欧美国产| 国产高清激情床上av| 日韩高清综合在线| a级一级毛片免费在线观看| 日韩av不卡免费在线播放| 露出奶头的视频| 成年免费大片在线观看| 女同久久另类99精品国产91| 男女边吃奶边做爰视频| 成年女人毛片免费观看观看9| 成人高潮视频无遮挡免费网站| 少妇被粗大猛烈的视频| 亚洲五月天丁香| 老师上课跳d突然被开到最大视频| av.在线天堂| 国产一区亚洲一区在线观看| 在线看三级毛片| 亚洲最大成人中文| 国产男人的电影天堂91| 国产69精品久久久久777片| 一个人看视频在线观看www免费| 黄片wwwwww| 亚洲精品影视一区二区三区av| 国产 一区 欧美 日韩| 成人av一区二区三区在线看| 一个人免费在线观看电影| 国产淫片久久久久久久久| 欧美潮喷喷水| 日本 av在线| 一级毛片我不卡| 美女被艹到高潮喷水动态| 此物有八面人人有两片| 少妇猛男粗大的猛烈进出视频 | 国产精品久久久久久久电影| 有码 亚洲区| 秋霞在线观看毛片| 人人妻人人澡人人爽人人夜夜 | 内地一区二区视频在线| 国产高潮美女av| av在线天堂中文字幕| 女的被弄到高潮叫床怎么办| 欧美三级亚洲精品| 久久久精品94久久精品| 内地一区二区视频在线| 又粗又爽又猛毛片免费看| 18禁在线播放成人免费| 丝袜喷水一区| 亚洲美女黄片视频| 久久久久九九精品影院| 久久久久免费精品人妻一区二区| 在线免费观看的www视频| 在线免费十八禁| 中国美白少妇内射xxxbb| 欧美日韩精品成人综合77777| 亚洲精品影视一区二区三区av| 国内精品久久久久精免费| 亚洲精品在线观看二区| 一区二区三区免费毛片| 搡老熟女国产l中国老女人| 一区福利在线观看| 国产麻豆成人av免费视频| 国产精品99久久久久久久久| 国产精品人妻久久久影院| 国产成人aa在线观看| 国产成人一区二区在线| 日本 av在线| 1024手机看黄色片| 国产亚洲精品av在线| 男女下面进入的视频免费午夜| 给我免费播放毛片高清在线观看| 内射极品少妇av片p| 菩萨蛮人人尽说江南好唐韦庄 | 色哟哟·www| 国产69精品久久久久777片| 国产精品1区2区在线观看.| 长腿黑丝高跟| 精品99又大又爽又粗少妇毛片| 成人特级黄色片久久久久久久| 国国产精品蜜臀av免费| 国产久久久一区二区三区| 1000部很黄的大片| 嫩草影院入口| 日韩成人伦理影院| 黑人高潮一二区| 韩国av在线不卡| .国产精品久久| 国产一区二区亚洲精品在线观看| av黄色大香蕉| 97人妻精品一区二区三区麻豆| 午夜福利在线观看吧| 99热精品在线国产| 欧美日韩精品成人综合77777| 久久国内精品自在自线图片| 免费看光身美女| 国产精品人妻久久久影院| 麻豆av噜噜一区二区三区| 人人妻人人澡人人爽人人夜夜 | 精品久久久久久久久久免费视频| 欧美日本亚洲视频在线播放| 久久久色成人| 国产白丝娇喘喷水9色精品| 十八禁网站免费在线| 亚洲欧美精品综合久久99| 日本-黄色视频高清免费观看| 久久久精品欧美日韩精品| 精品久久久久久成人av| 午夜影院日韩av| 一本久久中文字幕| 国产精品国产高清国产av| 国产国拍精品亚洲av在线观看| 干丝袜人妻中文字幕| 欧美区成人在线视频| 亚洲精品国产成人久久av| 日本三级黄在线观看| 中文字幕av成人在线电影| 99久久无色码亚洲精品果冻| 成人欧美大片| 日日撸夜夜添| 亚洲久久久久久中文字幕| 麻豆久久精品国产亚洲av| 一个人免费在线观看电影| 欧美一级a爱片免费观看看| 村上凉子中文字幕在线| 成人av在线播放网站| 欧美激情国产日韩精品一区| 欧美性猛交黑人性爽| 久久精品国产亚洲av天美| 大型黄色视频在线免费观看| 午夜精品在线福利| 三级经典国产精品| 欧美一区二区国产精品久久精品| 国产在视频线在精品| 99国产极品粉嫩在线观看| videossex国产| 成人精品一区二区免费| 亚洲自偷自拍三级| 日本三级黄在线观看| av中文乱码字幕在线| 免费观看的影片在线观看| 国产午夜精品论理片| 精品午夜福利在线看| 男人狂女人下面高潮的视频| 国产女主播在线喷水免费视频网站 | 久久九九热精品免费| 欧美激情国产日韩精品一区| 露出奶头的视频| 久久久a久久爽久久v久久| 91av网一区二区| 国产成人aa在线观看| 一级黄色大片毛片| 亚洲七黄色美女视频| 联通29元200g的流量卡| 香蕉av资源在线| 国产中年淑女户外野战色| 国产老妇女一区| 欧美一区二区亚洲| 人妻丰满熟妇av一区二区三区| 国内揄拍国产精品人妻在线| 亚洲一区高清亚洲精品| 久久精品人妻少妇| 日本欧美国产在线视频| 在线观看免费视频日本深夜| 卡戴珊不雅视频在线播放| 亚洲av中文字字幕乱码综合| 亚洲精品色激情综合| 99热这里只有精品一区| av国产免费在线观看| 简卡轻食公司| 日本-黄色视频高清免费观看| 成人午夜高清在线视频| 久久精品国产亚洲av涩爱 | 欧美xxxx性猛交bbbb| 春色校园在线视频观看| 看免费成人av毛片| 深爱激情五月婷婷| 久久久欧美国产精品| 亚洲精品色激情综合| 亚洲久久久久久中文字幕| 亚洲真实伦在线观看| 老司机影院成人| 亚洲av五月六月丁香网| 一个人免费在线观看电影| 真人做人爱边吃奶动态| 国产av不卡久久| 别揉我奶头 嗯啊视频| 国产男靠女视频免费网站| 亚洲欧美清纯卡通| 国产白丝娇喘喷水9色精品| 美女xxoo啪啪120秒动态图| 亚洲三级黄色毛片| 国产精品国产三级国产av玫瑰| 精品日产1卡2卡| 亚洲激情五月婷婷啪啪| 精品一区二区三区视频在线| 欧美日韩一区二区视频在线观看视频在线 | 亚洲18禁久久av| 人妻久久中文字幕网| 男人舔奶头视频| 日韩亚洲欧美综合| 亚洲中文字幕日韩| 一本久久中文字幕| 中文亚洲av片在线观看爽| 亚洲av第一区精品v没综合| 国产精品野战在线观看| 麻豆国产97在线/欧美| av在线老鸭窝| av免费在线看不卡| 老师上课跳d突然被开到最大视频| 欧美日韩精品成人综合77777| 97超级碰碰碰精品色视频在线观看| 国产女主播在线喷水免费视频网站 | 男女做爰动态图高潮gif福利片| 亚洲成a人片在线一区二区| 色哟哟哟哟哟哟| 性色avwww在线观看| 成年版毛片免费区| 久久6这里有精品| 国产精品不卡视频一区二区| 亚洲性夜色夜夜综合| 啦啦啦观看免费观看视频高清| 国产私拍福利视频在线观看| 老师上课跳d突然被开到最大视频| 日韩精品有码人妻一区| 蜜桃久久精品国产亚洲av| 日本色播在线视频| 成人二区视频| 国产精品无大码| 免费在线观看成人毛片| 亚洲av中文av极速乱| 国产精品一区www在线观看| 国产亚洲精品久久久久久毛片| 日韩av在线大香蕉| 看免费成人av毛片| 日本免费a在线| 国产伦精品一区二区三区四那| 天堂动漫精品| 精品国内亚洲2022精品成人| 亚洲av成人av| 欧美潮喷喷水| 九九热线精品视视频播放| 黄色欧美视频在线观看| 久久人人爽人人爽人人片va| 一级毛片aaaaaa免费看小| 国产精品一区二区三区四区久久| 一本精品99久久精品77| 亚洲一级一片aⅴ在线观看| 精品久久久久久久久久久久久| 日本 av在线| 一卡2卡三卡四卡精品乱码亚洲| 无遮挡黄片免费观看| 久久99热6这里只有精品| 欧美又色又爽又黄视频| 亚洲人与动物交配视频| 亚洲av中文av极速乱| 一进一出抽搐动态| 国产爱豆传媒在线观看| 午夜激情欧美在线| 嫩草影视91久久| 欧美xxxx性猛交bbbb| 天天躁夜夜躁狠狠久久av| 成人av在线播放网站| 成人av一区二区三区在线看| 亚洲人与动物交配视频| 蜜臀久久99精品久久宅男| 亚洲成人久久爱视频| 国内精品美女久久久久久| 高清毛片免费观看视频网站| 亚洲一区二区三区色噜噜| 日本一二三区视频观看| 不卡一级毛片| 国产美女午夜福利| 97碰自拍视频| 女人被狂操c到高潮| 欧美一区二区精品小视频在线| 亚洲精品影视一区二区三区av| 尤物成人国产欧美一区二区三区| 免费看av在线观看网站| 日日摸夜夜添夜夜添av毛片| 欧美bdsm另类| 久久精品夜色国产| 国产成人精品久久久久久| 欧美xxxx黑人xx丫x性爽| 赤兔流量卡办理| 国产 一区精品| 国产成人aa在线观看| 欧美三级亚洲精品| 日韩成人av中文字幕在线观看 | 国产亚洲精品久久久久久毛片| 女生性感内裤真人,穿戴方法视频| 老司机午夜福利在线观看视频| 成年女人看的毛片在线观看| 偷拍熟女少妇极品色| 精品久久久久久久久久久久久| 国产午夜福利久久久久久| 日本爱情动作片www.在线观看 | 国产伦精品一区二区三区视频9| 熟女人妻精品中文字幕| 伊人久久精品亚洲午夜| 国产高清视频在线观看网站| 免费在线观看成人毛片| 国产精品1区2区在线观看.| 亚洲性夜色夜夜综合| 久久久久久久亚洲中文字幕| 看非洲黑人一级黄片| 亚洲国产精品成人久久小说 | 啦啦啦韩国在线观看视频| 白带黄色成豆腐渣| 国产高清视频在线观看网站| 如何舔出高潮| 亚洲一区二区三区色噜噜| 亚洲av熟女| 午夜精品一区二区三区免费看| 男人舔女人下体高潮全视频| 99热这里只有是精品在线观看| 日韩一本色道免费dvd| 久久6这里有精品| 中文字幕久久专区| 精华霜和精华液先用哪个| 男插女下体视频免费在线播放| 国产亚洲精品综合一区在线观看| 精品一区二区免费观看| 免费在线观看成人毛片| 日本黄色视频三级网站网址| 美女xxoo啪啪120秒动态图| 观看免费一级毛片| 人人妻人人澡欧美一区二区| 午夜精品在线福利| 天天一区二区日本电影三级| 久久午夜福利片| 久久精品91蜜桃| 简卡轻食公司| 日韩欧美精品v在线| 欧美另类亚洲清纯唯美| 热99在线观看视频| av在线老鸭窝| 淫秽高清视频在线观看| 亚洲国产精品合色在线| 午夜福利视频1000在线观看| 两个人的视频大全免费| 在线看三级毛片| 日韩中字成人| 五月伊人婷婷丁香| 国产单亲对白刺激| 久久这里只有精品中国| 青春草视频在线免费观看| 露出奶头的视频| 亚洲欧美日韩东京热| 毛片一级片免费看久久久久| 全区人妻精品视频| 久99久视频精品免费| 欧美又色又爽又黄视频| 精品久久久久久成人av| 国产男人的电影天堂91| 尾随美女入室| 99久久无色码亚洲精品果冻| 精品一区二区三区人妻视频| 非洲黑人性xxxx精品又粗又长| 小蜜桃在线观看免费完整版高清| 深夜精品福利| 在线播放无遮挡| 日韩成人av中文字幕在线观看 | 午夜爱爱视频在线播放| 深夜a级毛片| 国产精品久久电影中文字幕| 亚洲熟妇中文字幕五十中出| 成人精品一区二区免费| 99国产精品一区二区蜜桃av| 精品不卡国产一区二区三区| 简卡轻食公司| 婷婷色综合大香蕉| 亚洲av成人精品一区久久| 国产精品三级大全| 少妇熟女aⅴ在线视频| 午夜老司机福利剧场| 国产高清视频在线播放一区| 桃色一区二区三区在线观看| 久久久成人免费电影| 国产探花在线观看一区二区| 欧美性感艳星| 一个人看的www免费观看视频| 亚洲精品国产av成人精品 | 校园春色视频在线观看| 十八禁网站免费在线| 久久亚洲国产成人精品v| av在线播放精品| 欧美三级亚洲精品| 久久99热6这里只有精品| 亚洲欧美成人综合另类久久久 | 亚洲av电影不卡..在线观看| 亚洲国产欧洲综合997久久,| 欧美激情国产日韩精品一区| 最近手机中文字幕大全| 国产av在哪里看| 欧美国产日韩亚洲一区| 九色成人免费人妻av| 久久精品国产亚洲av涩爱 | 淫妇啪啪啪对白视频| 亚洲性夜色夜夜综合| 婷婷精品国产亚洲av| 别揉我奶头~嗯~啊~动态视频| 最好的美女福利视频网| 国产在视频线在精品| a级毛片免费高清观看在线播放| 国产探花极品一区二区| 国产亚洲精品久久久com| 亚洲精品一区av在线观看| 成年av动漫网址| 变态另类丝袜制服| 亚洲性久久影院| 99riav亚洲国产免费| 国内少妇人妻偷人精品xxx网站| 极品教师在线视频| 亚洲av美国av| 久久久久久久久久成人| 国模一区二区三区四区视频| 久久久午夜欧美精品| 校园春色视频在线观看| 亚洲精品粉嫩美女一区| 内射极品少妇av片p| 禁无遮挡网站| 日韩av不卡免费在线播放| 精品久久久久久成人av| 亚洲国产欧美人成| 人妻制服诱惑在线中文字幕| 精品一区二区三区视频在线| 黄片wwwwww| 精品国内亚洲2022精品成人| 99国产精品一区二区蜜桃av| 欧美一区二区精品小视频在线| 特大巨黑吊av在线直播| 日韩欧美三级三区| 特级一级黄色大片| 日本欧美国产在线视频| 18禁黄网站禁片免费观看直播| 久久久久久久久久久丰满| 淫秽高清视频在线观看| 国产老妇女一区| 日本撒尿小便嘘嘘汇集6| 男女做爰动态图高潮gif福利片| 麻豆一二三区av精品| 女人十人毛片免费观看3o分钟| 精品熟女少妇av免费看| 蜜桃亚洲精品一区二区三区| www.色视频.com| 国产精品一区二区免费欧美| 午夜亚洲福利在线播放| 人妻夜夜爽99麻豆av| 晚上一个人看的免费电影| 久久精品影院6| 又黄又爽又免费观看的视频| 精品一区二区三区视频在线| avwww免费| 少妇的逼水好多| 一边摸一边抽搐一进一小说| 日日啪夜夜撸| 久久人妻av系列| 99九九线精品视频在线观看视频| 精品熟女少妇av免费看| 如何舔出高潮| 精品久久国产蜜桃| 网址你懂的国产日韩在线| 午夜激情福利司机影院| 99久久精品热视频| 中国美白少妇内射xxxbb| 一本久久中文字幕| 国产真实伦视频高清在线观看| 国产大屁股一区二区在线视频| 激情 狠狠 欧美| 精品不卡国产一区二区三区| 免费看av在线观看网站| 久久精品影院6| 网址你懂的国产日韩在线| 韩国av在线不卡| 久久久久久久久久黄片| 少妇熟女aⅴ在线视频| 熟女人妻精品中文字幕| 一进一出好大好爽视频| 国产免费男女视频| 成人性生交大片免费视频hd| 日韩制服骚丝袜av| 国产伦一二天堂av在线观看| 99在线视频只有这里精品首页| 午夜a级毛片| 免费av观看视频| 国产成人影院久久av| 久久人人精品亚洲av| 亚洲人成网站高清观看| 日本a在线网址| 大型黄色视频在线免费观看| 中文字幕人妻熟人妻熟丝袜美| av在线天堂中文字幕| 国产精品一区二区性色av| 亚洲精品乱码久久久v下载方式| 亚洲无线在线观看| 女同久久另类99精品国产91| 男人狂女人下面高潮的视频| 日韩欧美一区二区三区在线观看| 精品久久久久久久久久免费视频| 露出奶头的视频| 人妻制服诱惑在线中文字幕| 一边摸一边抽搐一进一小说| 免费在线观看影片大全网站| 国产成人aa在线观看| 村上凉子中文字幕在线| 蜜桃久久精品国产亚洲av| 免费不卡的大黄色大毛片视频在线观看 | 99热精品在线国产| 偷拍熟女少妇极品色| 免费av不卡在线播放| 亚洲欧美日韩高清专用| 国产男靠女视频免费网站| 精品久久久久久成人av| 国产欧美日韩精品亚洲av| 日韩,欧美,国产一区二区三区 | 色噜噜av男人的天堂激情| 又黄又爽又刺激的免费视频.| 国产精品爽爽va在线观看网站| 色综合色国产|