張 露 王華彬 陶 亮 周 健
1(計(jì)算智能與信號(hào)處理教育部重點(diǎn)實(shí)驗(yàn)室(安徽大學(xué)) 合肥 230601)
2(安徽大學(xué)媒體計(jì)算研究所 合肥 230601)
(zldiol@163.com)
傳統(tǒng)的單模態(tài)生物特征識(shí)別技術(shù)[1],如人臉識(shí)別[2]、虹膜識(shí)別[3]以及指靜脈識(shí)別[4]等,雖然取得了不錯(cuò)的成效,但由于其單一模態(tài)的固有限制,僅靠單模態(tài)的生物特征識(shí)別技術(shù)已不能滿足日益提高的安全性等要求.而多模態(tài)融合技術(shù)[5-6]是將同一個(gè)生物的多個(gè)不同的生物特征,按照某種融合規(guī)則融合成一個(gè)整體進(jìn)行識(shí)別,具有更強(qiáng)的區(qū)分性和安全性,可以做出更為精確的識(shí)別.因此多模態(tài)融合技術(shù)已成為近年來(lái)的研究熱點(diǎn).1998年,Hong等人[7]首次嘗試將指紋和人臉的生物特征融合規(guī)則融合成一個(gè)整體進(jìn)行識(shí)別,識(shí)別精確有了很大幅度的提高.Jain等人[8]提出了基于指紋人臉和手行的多生物特征識(shí)別技術(shù).Jing等人[9]首次嘗試了基于人臉和掌紋圖像的融合識(shí)別技術(shù).袁廣林等人[10]提出了基于自適應(yīng)多特征融合的目標(biāo)跟蹤算法.支力佳等人[11]融合多種特征點(diǎn)信息的最小生成樹(shù)應(yīng)用到醫(yī)學(xué)圖像上進(jìn)行配準(zhǔn).文獻(xiàn)[12-13]分別將層次特征信息、整體和局部信息進(jìn)行融合,提高了圖像的分類效果.
多模態(tài)融合技術(shù)一般可以分為4個(gè)部分,分別為生物特征信號(hào)的獲取、特征提取、特征匹配和分類決策.根據(jù)融合信息的不同,可分為傳感器層融合[14]、特征層融合[15]、分?jǐn)?shù)層融合[16]、決策層融合[17].圖1為多模態(tài)融合技術(shù)的組成以及融合層次.其中,分?jǐn)?shù)層融合是最常用的融合方式,因其包含了類內(nèi)分?jǐn)?shù)值和類間分?jǐn)?shù)值,可通過(guò)某種融合規(guī)則增大類間距離、減小類內(nèi)距離,從而實(shí)現(xiàn)分?jǐn)?shù)層的融合識(shí)別.目前,對(duì)于多模態(tài)生物特征融合的研究,大部分文獻(xiàn)均采用分?jǐn)?shù)層進(jìn)行融合信息.Nandakumar等人[18]將分?jǐn)?shù)層融合分成3類:基于歸一化的融合、基于分類器的融合、基于密度的融合.
Fig. 1 Composition of multimodal fusion technology and the levels of fusion圖1 多模態(tài)融合技術(shù)的組成以及融合層次
基于歸一化的融合方法,首先將單模態(tài)獲取的匹配分?jǐn)?shù)進(jìn)行歸一化處理,通過(guò)某種轉(zhuǎn)換規(guī)則函數(shù)得到一個(gè)新的轉(zhuǎn)換分?jǐn)?shù),用轉(zhuǎn)換后的分?jǐn)?shù)作為分?jǐn)?shù)指標(biāo)進(jìn)行識(shí)別.常用的歸一化函數(shù)有Min-Max,Z-score,Tanh,Sigmoid[19].文獻(xiàn)[20]提出了一種新的分?jǐn)?shù)轉(zhuǎn)換函數(shù),得出特征的匹配分?jǐn)?shù)后將其分類,計(jì)算每個(gè)得分屬于某一類的概率,即分類置信度分?jǐn)?shù)(classification confidence score, CCS).由于CCS加入了類別信息,其分類性能要優(yōu)于常用的歸一化函數(shù),但CCS對(duì)某些特定數(shù)據(jù)卻沒(méi)有很好的分類效果.文獻(xiàn)[21] 提出了一種總錯(cuò)誤率(total error rate, TER)的概念,將TER代替匹配分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo)引入到融合識(shí)別中,此方法計(jì)算較為復(fù)雜繁瑣.
基于分類器的融合方法,是將匹配分?jǐn)?shù)作為一個(gè)特征向量,對(duì)此特征向量進(jìn)行分類.文獻(xiàn)[18]首次提出了用分類器將多個(gè)生物特征進(jìn)行分類識(shí)別,從而推導(dǎo)出SUM,MAX等4種基本的融合規(guī)則,雖然效果要優(yōu)于單模態(tài)的識(shí)別效果,但融合規(guī)則過(guò)于簡(jiǎn)單,沒(méi)有考慮到樣本訓(xùn)練集和測(cè)試集的劃分的影響.文獻(xiàn)[21]在不確定度量的基礎(chǔ)上利用信息熵理論,提出基于特征關(guān)聯(lián)的多特征自適應(yīng)融合策略,獲得了較好的效果.文獻(xiàn)[22]采用Min-Max歸一化函數(shù)對(duì)匹配分?jǐn)?shù)進(jìn)行歸一化處理,融合規(guī)則采用加權(quán)和的方法,總權(quán)重限制為1,沒(méi)有考慮生物特征之間的關(guān)聯(lián)性質(zhì).文獻(xiàn)[23-24]采用匹配分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo),用SVM,KNN等分類器對(duì)其進(jìn)行訓(xùn)練,但由于SVM參數(shù)較多且其設(shè)定較困難,時(shí)間效率不高.文獻(xiàn)[25-26]利用三角范數(shù)公式將歸一化后的匹配分?jǐn)?shù)融合起來(lái),但是構(gòu)造一個(gè)合適的三角范數(shù)很困難.
基于密度的融合方法是將匹配分?jǐn)?shù)轉(zhuǎn)換成后驗(yàn)概率,根據(jù)貝葉斯判決作出最終的決策.文獻(xiàn)[27-28]使用混合高斯模型求取匹配分?jǐn)?shù)的匹配分?jǐn)?shù)密度,將此匹配分?jǐn)?shù)密度用于融合識(shí)別,此方法需要準(zhǔn)確估計(jì)出匹配分?jǐn)?shù)的密度,實(shí)現(xiàn)代價(jià)較大.
基于歸一化的融合方法只需將匹配分?jǐn)?shù)通過(guò)轉(zhuǎn)換函數(shù)轉(zhuǎn)換成某一分?jǐn)?shù),不需考慮匹配分?jǐn)?shù)服從某一分布,實(shí)現(xiàn)較為簡(jiǎn)單;采用SVM,KNN等分類器進(jìn)行融合,含有較多參數(shù),降低了識(shí)別算法的時(shí)間效率;基于密度的融合方法需要準(zhǔn)確估計(jì)出合法用戶和不合法用戶匹配分?jǐn)?shù)的密度,實(shí)現(xiàn)較復(fù)雜,由于多模態(tài)識(shí)別系統(tǒng)中合法用戶數(shù)目比不合法用戶數(shù)目少,其匹配分?jǐn)?shù)很難服從某一分布,因此,很難明確估計(jì)出匹配分?jǐn)?shù)的密度.基于此,本文提出了一種基于分類距離分?jǐn)?shù)(classification distance score, CDS )的自適應(yīng)融合識(shí)別算法.相對(duì)于分類置信度分?jǐn)?shù)[20],不僅攜帶有一級(jí)分類信息,也包含有匹配分?jǐn)?shù)與分類閾值之間的距離信息,可增大融合后類內(nèi)類間分?jǐn)?shù)之間的距離,便于設(shè)置閾值進(jìn)行識(shí)別;信息熵表示信息價(jià)值的多少,通過(guò)用信息熵定義關(guān)聯(lián)系數(shù)和特征權(quán)重系數(shù),可以讓樣本包含的信息更加集中突出,在不確定度量的融合框架[29]的基礎(chǔ)上,采用關(guān)聯(lián)系數(shù)和特征權(quán)重系數(shù),將加權(quán)融合和傳統(tǒng)SUM規(guī)則統(tǒng)一在同一個(gè)自適應(yīng)的算法框架中,提高了融合識(shí)別率.
為了驗(yàn)證CDS和融合算法的有效性,在單模態(tài)數(shù)據(jù)庫(kù)、雙模態(tài)數(shù)據(jù)庫(kù)以及三模態(tài)數(shù)據(jù)庫(kù)上進(jìn)行大量實(shí)驗(yàn),將CDS與傳統(tǒng)的匹配分?jǐn)?shù)和文獻(xiàn)[20]提出的CCS對(duì)比,實(shí)驗(yàn)表明CDS取得更好的效果;將本文提出的融合算法和多個(gè)融合方法進(jìn)行比較,實(shí)驗(yàn)表明:本文方法可以取到更好的分類性能.
傳統(tǒng)的分?jǐn)?shù)層融合方法中,其融合分?jǐn)?shù)指標(biāo)一般為匹配分?jǐn)?shù),當(dāng)2類樣本非常相似的情況下,其與類模板的匹配分?jǐn)?shù)數(shù)值上很接近,即類內(nèi)距離和類間距離數(shù)值上很接近,不能很好地區(qū)分開(kāi)類內(nèi)類間的數(shù)據(jù).文獻(xiàn)[20]在傳統(tǒng)匹配分?jǐn)?shù)的基礎(chǔ)上,提出了分類置信度分?jǐn)?shù),該方法可以較好地分離開(kāi)類內(nèi)樣本和類間樣本.但是對(duì)于匹配分?jǐn)?shù)僅次于分類閾值的數(shù)據(jù),卻不能很好地分開(kāi).
在文獻(xiàn)[20]的基礎(chǔ)上,本文提出了一種將匹配分?jǐn)?shù)與分類閾值之間的距離分?jǐn)?shù)作為融合的分?jǐn)?shù)指標(biāo).分類距離分?jǐn)?shù)不僅含有分類置信度分?jǐn)?shù)的類別信息,也包含匹配分?jǐn)?shù)與分類閾值之間的距離信息,因此,在融合階段采用分類距離分?jǐn)?shù)作為分?jǐn)?shù)指標(biāo),可以讓類內(nèi)類間融合后分?jǐn)?shù)之間的距離增大,提高融合識(shí)別率.圖2為距離信息分析圖,其中S為樣本的匹配分?jǐn)?shù),T為分類閾值,p為距離參數(shù),為保證CDS的取值范圍保持在[0,1],同時(shí)要求類內(nèi)樣本的分類距離分?jǐn)?shù)遠(yuǎn)大于類間樣本的分類距離分?jǐn)?shù),式(2)中的距離參數(shù)p=2較為合適.
Fig. 2 The diagram of distance information analysis圖2 距離信息分析圖
首先,在訓(xùn)練階段求出每個(gè)樣本的匹配分?jǐn)?shù)S,根據(jù)匹配分?jǐn)?shù)為每個(gè)模態(tài)特征訓(xùn)練一個(gè)分類閾值T,大于等于此閾值的為類內(nèi)樣本,否則為類間樣本;通過(guò)比較樣本的S與T的大小,對(duì)樣本進(jìn)行分類;然后再計(jì)算每個(gè)匹配分?jǐn)?shù)與分類閾值之間的距離和分類閾值的比值,這個(gè)比值即為分類距離分?jǐn)?shù).以下為具體實(shí)現(xiàn)的步驟:
1) 用Imean,Omean分別表示生物特征類內(nèi)、類間的匹配分?jǐn)?shù)的平均值,則可以定義一個(gè)閾值T,閾值T是指某一類樣本區(qū)別于其他類樣本的一個(gè)閾值,可根據(jù)此閾值的大小判斷該樣本的類別,從而在融合分?jǐn)?shù)指標(biāo)中加入類別信息:
(1)
2) 根據(jù)求出的分類閾值T,對(duì)樣本求出的匹配分?jǐn)?shù)進(jìn)行分類,然后求出每個(gè)樣本的分類距離分?jǐn)?shù).在單模態(tài)下,比較樣本的匹配分?jǐn)?shù)S與分類閾值T的大小,當(dāng)S≥T時(shí),用式(2)求出該樣本的分類距離分?jǐn)?shù),否則用式(3)求出該樣本的分類距離分?jǐn)?shù).如果一個(gè)樣本屬于這一類,這個(gè)樣本對(duì)應(yīng)于某個(gè)類的分類距離分?jǐn)?shù)為正數(shù),否則為負(fù)數(shù),即可以很明顯將類內(nèi)類間樣本區(qū)分出來(lái),同時(shí)增大了類內(nèi)類間樣本的融合分?jǐn)?shù)之間的距離.
(2)
(3)
假設(shè)有指靜脈匹配器和掌紋匹配器,且類內(nèi)的匹配分?jǐn)?shù)要高于類間的匹配分?jǐn)?shù).假設(shè)融合公式fusion=2Svein+Spalm,其中Svein,Spalm分別為靜脈和掌紋的匹配分?jǐn)?shù).對(duì)于某一類來(lái)說(shuō),根據(jù)指靜脈區(qū)分類內(nèi)類間的閾值為0.6,根據(jù)掌紋區(qū)分類內(nèi)類間的閾值為0.3,其樣本1的匹配分?jǐn)?shù)為(0.3,0.4),其中0.3,0.4分別為指靜脈、掌紋的匹配分?jǐn)?shù);樣本2的匹配分?jǐn)?shù)為(0.4,0.2) ,其中0.4,0.2分別為指靜脈、掌紋的匹配分?jǐn)?shù).由于分類距離分?jǐn)?shù)加入了類別信息,從圖3~圖4可見(jiàn),本文提出的方法可看出樣本2不屬于此用戶的概率明顯比樣本1大;采用式(2)(3)對(duì)不同類別的樣本求出分類距離分?jǐn)?shù),2個(gè)樣本融合分?jǐn)?shù)的距離為2/3,比采用分類置信度分?jǐn)?shù)得出的融合分?jǐn)?shù)之間的距離要大.因此,分類距離分?jǐn)?shù)加入了類別信息以及增大融合后類內(nèi)類間的距離,可以很好地判斷樣本的類別,便于融合分類.
Fig. 3 The diagram of calculating the classification confidence score and the distance of fusion scores圖3 計(jì)算分類置信度分?jǐn)?shù)及其融合分?jǐn)?shù)間距離的示意圖
Fig. 4 The diagram of calculating the classification distance score and the distance of fusion scores圖4 計(jì)算分類距離分?jǐn)?shù)及其融合分?jǐn)?shù)間距離的示意圖
傳統(tǒng)的融合識(shí)別算法中,一般給生物特征賦一個(gè)全局權(quán)重,這種方法具有很大的局限性[20].由于每個(gè)生物特征包含的信息不一樣,對(duì)于不同的人,具有代表性的生物特征不同.例如:一類樣本的指靜脈信息具有很大的辨識(shí)度,而掌紋信息辨識(shí)度很低;另一類樣本的掌紋信息具有很大的辨識(shí)度,指靜脈信息辨識(shí)度很低,因此,對(duì)于不同類的樣本,應(yīng)根據(jù)其每個(gè)模態(tài)所含有效信息的多少賦予不同的權(quán)重.文獻(xiàn)[22]雖然考慮到權(quán)重的影響,但是僅僅通過(guò)簡(jiǎn)單加權(quán)和的方法對(duì)融合分?jǐn)?shù)指標(biāo)進(jìn)行融合,沒(méi)有考慮到特征與特征之間的相互關(guān)聯(lián)性.
信息熵是用來(lái)衡量一個(gè)隨機(jī)變量出現(xiàn)的期望值,一個(gè)變量的信息熵越大,那么它出現(xiàn)的各種情況也就越多,也就是包含的信息多.本文通過(guò)利用信息熵的這一特性,定義每個(gè)樣本特征之間的關(guān)聯(lián)系數(shù)和權(quán)重系數(shù),利用這2個(gè)系數(shù)將加權(quán)融合和傳統(tǒng)SUM規(guī)則統(tǒng)一在同一個(gè)自適應(yīng)算法框架中,進(jìn)行融合識(shí)別.圖5表示多模態(tài)生物特征融合的算法流程.
分?jǐn)?shù)層融合是在特征匹配與分類決策之間進(jìn)行的,因此需要對(duì)原始的生物特征進(jìn)行特征提取.
1) 指靜脈特征是利用文獻(xiàn)[30]的方法,通過(guò)對(duì)歸一化后的圖像進(jìn)行增強(qiáng)、Niblack分割、細(xì)化以及加寬等處理來(lái)得到.
2) 掌紋特征采用文獻(xiàn)[31]的方法,將Gabor和PCA結(jié)合起來(lái),對(duì)增強(qiáng)后掌紋圖像進(jìn)行特征提取,每個(gè)樣本均可得到一個(gè)320維的特征向量.
3) 指形特征是通過(guò)檢測(cè)到指靜脈的輪廓圖像,通過(guò)分層梯度方向直方圖(PHOG)計(jì)算得到.
為了獲得每類中每個(gè)樣本的類間類內(nèi)的匹配分?jǐn)?shù),需要為每類訓(xùn)練一個(gè)類模板,這樣既可以減少計(jì)算量,也具有代表性.
對(duì)于提取的圖像特征,某類的某個(gè)樣本圖像的特征向量用hk表示,每類中有M個(gè)樣本圖像,k表示第k個(gè)樣本圖像,將每類中的每個(gè)樣本圖像提取出的特征、對(duì)應(yīng)位置的特征加在一起,同時(shí)除以該類所含樣本的數(shù)目M,即為每類圖像的類模板.
(4)
其中,k=1,2,…,M.
一個(gè)變量的信息熵越大,其含有信息價(jià)值越大,本文的融合方法利用信息熵的這一特性,通過(guò)求出關(guān)聯(lián)系數(shù)和特征權(quán)重系數(shù),關(guān)聯(lián)系數(shù)可以根據(jù)特征之間的關(guān)聯(lián)性,將傳統(tǒng)SUM規(guī)則和加權(quán)融合統(tǒng)一到一個(gè)自適應(yīng)框架中來(lái),特征權(quán)重系數(shù)可以根據(jù)特征信息動(dòng)態(tài)地調(diào)節(jié)加權(quán)的比重,將所含有的有效信息更突出地表現(xiàn)出來(lái),提高了融合識(shí)別率.
2.3.1 特征權(quán)重系數(shù)
假設(shè)每類均融合N個(gè)不同的生物特征,分別用F1,F2,…,FN表示每類不同模態(tài)的生物特征.在訓(xùn)練階段,已經(jīng)求出某類需要融合特征的分類距離分?jǐn)?shù)D_CDSt(Fi),其中i表示某類需要融合的第i個(gè)特征,共N個(gè)特征;t表示某類的第t個(gè)樣本.
根據(jù)信息熵[32-33]理論,采用的信息熵為
H=-pilbpi.
(5)
利用式(5)求出每個(gè)分類距離分?jǐn)?shù)對(duì)應(yīng)的信息熵:
Ht(Fi)=-D_CDSt(Fi)×D_CDSt(Fi),
(6)
其中,Ht(Fi)表示某類里的第t個(gè)樣本分類距離分?jǐn)?shù)的信息熵,其物理意義表示為分類距離分?jǐn)?shù)含有的有效信息的多少.
定義特征權(quán)重系數(shù)式(7).對(duì)于某類里的第t個(gè)樣本,先通過(guò)式(6)計(jì)算出其對(duì)應(yīng)的信息熵之后,然后由式(7) 求出一個(gè)匹配器相對(duì)于其他匹配器的特征權(quán)重系數(shù),特征權(quán)重系數(shù)為特征Fi的分類距離分?jǐn)?shù)的信息熵和其他特征的分類距離分?jǐn)?shù)的信息熵的比重,表明特征Fi在所有特征信息熵中所占的比重信息,比重越大,說(shuō)明特征Fi含有的有效信息越多,有利于融合后的識(shí)別.
(7)
2.3.2 關(guān)聯(lián)系數(shù)
定義某一個(gè)特征Fi相對(duì)于另外一個(gè)特征Fj的偏熵[34]:
HFi(Fj)=-D_CDSt(Fi)×D_CDSt(Fj).
(8)
Fig. 6 The flowchart of training and testing圖6 訓(xùn)練和測(cè)試階段流程
通過(guò)定義特征Fi的偏關(guān)聯(lián)系數(shù)式(9),表示為特征Fi的分類距離分?jǐn)?shù)的信息熵和特征Fi相對(duì)于其他特征的分類距離分?jǐn)?shù)的偏熵之和的比值,表明特征Fi與其他模態(tài)的特征之間的相互關(guān)聯(lián)性:
(9)
對(duì)于某類的第t個(gè)樣本,先通過(guò)式(6)(8)計(jì)算出其對(duì)應(yīng)的信息熵和偏熵之后,然后由式(9) 求出某一個(gè)特征Fi相對(duì)于其他特征的偏關(guān)聯(lián)系數(shù).此時(shí),定義關(guān)聯(lián)系數(shù)為所有特征的偏關(guān)聯(lián)系數(shù)之和,如式(10),偏關(guān)聯(lián)系數(shù)是指所有模態(tài)特征之間的相互關(guān)聯(lián)性.
(10)
由實(shí)驗(yàn)可知,采用式(6)(8)直接計(jì)算出來(lái)的信息熵和偏熵的值為復(fù)數(shù),為了更簡(jiǎn)便地計(jì)算,將這2個(gè) 計(jì)算公式進(jìn)行了轉(zhuǎn)化[35],分別為
2.3.3 融合算法
不確定性度量融合方法[25,36]是利用圖像信息間的不確定性,將加權(quán)融合和乘性融合結(jié)合起來(lái),并將其放入一個(gè)自適應(yīng)框架中.文獻(xiàn)[21]考慮到圖像信息間的相關(guān)性,提出了一種基于特征關(guān)聯(lián)性的自適應(yīng)融合框架[37-38],將乘性規(guī)則和加性融合統(tǒng)一在一個(gè)框架中.由于乘性規(guī)則易受到樣本訓(xùn)練集和測(cè)試集劃分的影響,且沒(méi)有SUM規(guī)則的識(shí)別效果好,因此本文通過(guò)將傳統(tǒng)的SUM規(guī)則和加權(quán)融合統(tǒng)一在一個(gè)自適應(yīng)框架中,利用信息熵表示信息的價(jià)值,將某一個(gè)特征Fi的信息熵和其他所有特征的信息熵之和的比重作為特征權(quán)重系數(shù)rt,特征權(quán)重系數(shù)rt可以根據(jù)特征含有有效信息的多少賦予相應(yīng)的權(quán)重系數(shù),起到有效利用有效信息的作用;用某個(gè)樣本t的某個(gè)特征Fi和Fi與其他特征之間偏熵之和的比重表示關(guān)聯(lián)系數(shù)λt,λt表示不同模態(tài)特征之間的關(guān)聯(lián)性,可以根據(jù)特征與特征之間的聯(lián)系,動(dòng)態(tài)地調(diào)節(jié)2種基礎(chǔ)融合方法——SUM規(guī)則和加權(quán)融合的權(quán)重,即本算法通過(guò)2層權(quán)重,將含有有效信息多的特征作為融合識(shí)別算法中的重點(diǎn),實(shí)驗(yàn)證明取得了不錯(cuò)的識(shí)別效果:
(13)
由實(shí)驗(yàn)可知,λt的數(shù)值較高,且加權(quán)融合的識(shí)別效果比SUM規(guī)則要好,所以將λt作為加權(quán)融合的系數(shù),K為不為0的自然數(shù).
多模態(tài)生物特征融合的識(shí)別系統(tǒng)主要包括2個(gè)階段:訓(xùn)練階段和測(cè)試階段.
1) 訓(xùn)練階段
① 對(duì)樣本圖像預(yù)處理,進(jìn)行特征提??;
② 根據(jù)2.2節(jié)求出每個(gè)類的均值模板,求出樣本與每個(gè)類模板的匹配分?jǐn)?shù);
③ 利用第1節(jié)的方法求出每類的閾值,并將匹配分?jǐn)?shù)轉(zhuǎn)化為分類距離分?jǐn)?shù);
④ 將分類距離分?jǐn)?shù)轉(zhuǎn)化為信息熵,并計(jì)算出每個(gè)樣本的特征權(quán)重系數(shù)和關(guān)聯(lián)系數(shù);
⑤ 根據(jù)2.3.3節(jié)的方法,求出2種生物特征融合后的分?jǐn)?shù)fusion,根據(jù)此融合分?jǐn)?shù)求出每個(gè)類的融合后的閾值,為后面測(cè)試階段提供 分類依據(jù).
2) 測(cè)試階段
求出測(cè)試樣本中某類的樣本與每類的類模板的匹配分?jǐn)?shù),同訓(xùn)練階段一樣,求出生物特征融合后的分?jǐn)?shù),與訓(xùn)練階段求出的融合閾值進(jìn)行比較,驗(yàn)證是否屬于同一類.詳細(xì)流程如圖6所示.
本文實(shí)驗(yàn)采用的是天津市智能信號(hào)與圖像處理重點(diǎn)實(shí)驗(yàn)室提供的指靜脈圖庫(kù)、香港理工大學(xué)的掌紋公開(kāi)數(shù)據(jù)庫(kù)和指形數(shù)據(jù)庫(kù),由于目前沒(méi)有來(lái)自同一個(gè)用戶的多個(gè)生物特征圖像的多模態(tài)數(shù)據(jù)庫(kù),且考慮到生物特征之間的無(wú)關(guān)性,因此,將多模態(tài)的圖像數(shù)據(jù)用人為的方式進(jìn)行1對(duì)1的匹配,確定為同一個(gè)用戶的生物特征圖像.因?yàn)椴煌瑏?lái)源的數(shù)據(jù)庫(kù)類別和數(shù)量上都會(huì)存在差異,所以針對(duì)每個(gè)用戶的單模態(tài)特征折中地進(jìn)行選取,共取64個(gè)用戶,每個(gè)用戶的單模態(tài)特征圖像有6個(gè)樣本,隨機(jī)選取2幅作為訓(xùn)練樣本,剩下的4幅作為測(cè)試樣本.為了驗(yàn)證本文提出分類距離分?jǐn)?shù)CDS和自適應(yīng)融合算法的有效性,共設(shè)計(jì)5個(gè)實(shí)驗(yàn):
實(shí)驗(yàn)1. 為尋找到融合算法最佳的參數(shù),可以使本文提出的自適應(yīng)融合方法和分?jǐn)?shù)距離分?jǐn)?shù)相結(jié)合達(dá)到最優(yōu)的識(shí)別效果.
實(shí)驗(yàn)2. 比較在不同模態(tài)下采用不同融合分?jǐn)?shù)指標(biāo)的性能,融合方法均選擇自適應(yīng)融合算法進(jìn)行識(shí)別,驗(yàn)證本文第1節(jié)提出的CDS的有效性.
實(shí)驗(yàn)3. 分別將分類置信度分?jǐn)?shù)CCS和CDS作為分類指標(biāo),并與SVM分類器和本文提出自適應(yīng)融合識(shí)別相結(jié)合性能的比較,不僅進(jìn)一步驗(yàn)證了CDS的有效性,同時(shí)也驗(yàn)證了本文提出的自適應(yīng)融合算法的有效性.
實(shí)驗(yàn)4. 將自適應(yīng)融合方法和常系數(shù)融合方法進(jìn)行比較,驗(yàn)證本文提出自適應(yīng)融合方法中自適應(yīng)參數(shù)λt,rt的有效性.
實(shí)驗(yàn)5. 采用自適應(yīng)融合識(shí)別的方法,與其他融合識(shí)別方法的性能進(jìn)行比較,均采用CDS作為融合分?jǐn)?shù)指標(biāo),驗(yàn)證本文提出的自適應(yīng)融合算法的有效性,以及CDS與自適應(yīng)融合算法結(jié)合的合理性.
本文實(shí)驗(yàn)采用錯(cuò)誤率(error rate,ER)來(lái)評(píng)價(jià)融合識(shí)別的性能.ER值越低,表示識(shí)別性能越好.其中,用FV表示單模態(tài)的指靜脈識(shí)別,用PP表示單模態(tài)的掌紋識(shí)別,用CT表示單模態(tài)的指形識(shí)別.
通過(guò)比較雙模態(tài)下、三模態(tài)下采用自適應(yīng)融合方法的識(shí)別性能,從而選取最優(yōu)的K值.其中,融合分?jǐn)?shù)指標(biāo)采用分類距離分?jǐn)?shù)CDS.
通過(guò)圖7可以看出,在雙模態(tài)下,當(dāng)K≥2時(shí),識(shí)別性能已經(jīng)達(dá)到最優(yōu),其中指靜脈和掌紋的融合性能已經(jīng)穩(wěn)定,指靜脈和指形的融合性能ER隨著K的增大會(huì)逐漸增大;在三模態(tài)下,當(dāng)K≥3時(shí),識(shí)別性能已經(jīng)達(dá)到最優(yōu),趨于穩(wěn)定.因此,取雙模態(tài)和三模態(tài)的取值交集的最小值,最后K=3.
Fig. 7 Recognition performance of adaptive fusion methods with different values of K圖7 不同K值對(duì)應(yīng)的自適應(yīng)融合方法的識(shí)別性能
通過(guò)分別比較單模態(tài)、雙模態(tài)和三模態(tài)下不同融合分?jǐn)?shù)指標(biāo)的識(shí)別性能,從而證明了采用分類距離分?jǐn)?shù)CDS作為融合分?jǐn)?shù)指標(biāo)的有效性,其融合方法采用本文提出的自適應(yīng)融合方法.
從表1可以看出,單模態(tài)下將CDS作為融合分類指標(biāo),每個(gè)模態(tài)的ER都得到了一定程度的下降,其中指形在單模態(tài)下相對(duì)于傳統(tǒng)匹配分?jǐn)?shù),其ER下降了10.8154%,可見(jiàn)通過(guò)增大類內(nèi)類間距離以及把類別信息加入到CDS中,其分類效果要優(yōu)于傳統(tǒng)的匹配分?jǐn)?shù).從表2可知,無(wú)論是雙模態(tài)下還是三模態(tài)下,將分類置信度分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo)得到的識(shí)別效果還沒(méi)有將匹配分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo)的好,但是將CDS作為融合分?jǐn)?shù)指標(biāo)得到的識(shí)別效果ER遠(yuǎn)遠(yuǎn)低于匹配分?jǐn)?shù)和分類置信度分?jǐn)?shù),這是因?yàn)镃DS不僅增大了類內(nèi)類間的距離,還加入了類別信息,將匹配分?jǐn)?shù)含有的有效信息盡可能地利用起來(lái).由此可見(jiàn),將CDS作為融合指標(biāo)可以提高識(shí)別率,從而證明了第1節(jié)中提出的分類距離分?jǐn)?shù)CDS作為融合分?jǐn)?shù)指標(biāo)的合理性和有效性.
Table1ERPerformancewithDifferentFusionScoreMetricsforSingleMode
表1 單模態(tài)下采用不同融合分?jǐn)?shù)指標(biāo)的ER性能 %
Table2ERPerformanceofDifferentFusionScoreMetricsforDifferentModes
表2 不同模態(tài)下采用不同融合分?jǐn)?shù)指標(biāo)的ER性能 %
雙模態(tài)和三模態(tài)下,分別將分類置信度分?jǐn)?shù)CCS和分類距離分?jǐn)?shù)CDS作為分類指標(biāo),并分別與SVM分類器和本文提出自適應(yīng)融合算法相結(jié)合,對(duì)其識(shí)別性能進(jìn)行比較.
為了進(jìn)一步說(shuō)明分類距離分?jǐn)?shù)CDS作為融合分?jǐn)?shù)指標(biāo)的優(yōu)越性,結(jié)合表3可以看出,當(dāng)均采用SVM進(jìn)行融合識(shí)別時(shí),明顯CDS作為融合分類指標(biāo)的ER要遠(yuǎn)低于CCS;當(dāng)均采用自適應(yīng)融合算法時(shí),將CDS作為融合指標(biāo)的ER相對(duì)于CCS,平均下降了1.796 454%,由此可見(jiàn),將分類距離分?jǐn)?shù)CDS作為融合分?jǐn)?shù)指標(biāo)的優(yōu)越性.
Table 3 ER Performance of Uniting Different Fusion Score Metrics and Different Fusion Methods for Different Modes
當(dāng)均采用分類置信度分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo)時(shí),明顯自適應(yīng)融合的識(shí)別性能ER低于SVM分類器的識(shí)別性能;當(dāng)均采用分類距離分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo)時(shí),SVM分類器的識(shí)別性能ER相對(duì)于自適應(yīng)融合的識(shí)別性能平均增大了0.22673%,可見(jiàn)自適應(yīng)融合的識(shí)別性能要高于SVM分類器的識(shí)別性能,驗(yàn)證了自適應(yīng)融合算法的有效性.
當(dāng)采用分類距離分?jǐn)?shù)CDS和自適應(yīng)融合算法時(shí),對(duì)比其他3種相結(jié)合方法的識(shí)別效果,其效果識(shí)別要遠(yuǎn)好于其他3類算法,可見(jiàn)CDS與自適應(yīng)融合算法相結(jié)合的合理性.
通過(guò)比較常系數(shù)的融合方法和自適應(yīng)融合方法的性能,進(jìn)一步驗(yàn)證自適應(yīng)融合算法中參數(shù)λt,rt的有效性.由于單模態(tài)下指靜脈的識(shí)別效果要優(yōu)于掌紋和指形,所以雙模態(tài)融合時(shí),rvein=0.8,rpalm=0.2,λt取K值的一半,即λt=1.5;三模態(tài)融合時(shí),rvein=0.5,rpalm=0.25,rcoutour=0.25,λt=1.5.其中,以分類距離分?jǐn)?shù)CDS作為融合分?jǐn)?shù)指標(biāo).
從表4可以看出,采用自適應(yīng)的融合識(shí)別方法比常系數(shù)的融合方法要好.由于本實(shí)驗(yàn)選取的常系數(shù)取值趨近于自適應(yīng)融合方法各系數(shù)的取值,且采取的是分類距離分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo),所以常系數(shù)的融合方法的識(shí)別率還是很高的,盡管如此,其識(shí)別效果還是低于自適應(yīng)融合方法.自適應(yīng)參數(shù)可以根據(jù)CDS的信息熵的大小來(lái)判斷每個(gè)CDS帶有有效信息的多少,參數(shù)可以根據(jù)有效信息動(dòng)態(tài)地調(diào)整融合算法的權(quán)重,達(dá)到充分利用有效信息的目的.
Table4ERPerformanceofAdaptiveFusionMethodandtheConstantCoefficientFusionMethod
表4 自適應(yīng)融合方法和常系數(shù)融合方法的ER性能 %
通過(guò)比較雙模態(tài)、三模態(tài)下采用分類距離分?jǐn)?shù)CDS作為融合指標(biāo),分別與現(xiàn)有的融合方法相結(jié)合,對(duì)其識(shí)別性能進(jìn)行比較.
表5可以看出,無(wú)論是雙模態(tài)還是三模態(tài),將分類距離分?jǐn)?shù)與自適應(yīng)融合算法結(jié)合起來(lái)的識(shí)別ER是最低的,識(shí)別效果是最好的,其中掌紋和指靜脈的融合性能ER最低為0.012207%,指靜脈和指形的融合性能ER最低為0.061035%,掌紋、指靜脈和指形的融合性能為0.012207%.
為了進(jìn)一步說(shuō)明自適應(yīng)融合方法的有效性,圖8~10給出了不同模態(tài)下不同融合方法的ROC曲線圖.
Table5ERPerformanceofUnitingDifferentFusionScoreMetricsandCDSforDifferentModes
表5 不同模態(tài)下CDS結(jié)合不同融合方法的ER性能 %
Fig. 8 The ROC curves of the fusion of PP and FV圖8 掌紋和指靜脈融合的ROC曲線圖
Fig. 9 The ROC curves of the fusion of CT and FV圖9 指形和指靜脈融合的ROC曲線圖
Fig. 10 The ROC curves of the fusion of CT,FV and PP圖10 指形、指靜脈和掌紋融合的ROC曲線圖
先看圖8,其為掌紋和指靜脈的不同融合性能的比較,可以看出MAX規(guī)則的融合方法性能是最差的,自適應(yīng)融合方法、SVM分類器以及MIN規(guī)則的性能相對(duì)來(lái)說(shuō)很好,雖然圖8中的這3條線看起來(lái)幾乎是重合的,但SVM分類器和MIN規(guī)則仍在自適應(yīng)融合方法的曲線內(nèi),說(shuō)明自適應(yīng)融合方法的性能是最好的.圖9和圖10很明顯可以看出,自適應(yīng)融合的識(shí)別性能遠(yuǎn)優(yōu)于其他的融合方法,從而驗(yàn)證自適應(yīng)融合算法的有效性.
實(shí)驗(yàn)5均采用分類距離分?jǐn)?shù)作為融合分?jǐn)?shù)指標(biāo),表5可以看出,將分類距離分?jǐn)?shù)和SVM、三角范數(shù)等融合算法結(jié)合進(jìn)行識(shí)別時(shí),識(shí)別效果并沒(méi)有和本文提出的自適應(yīng)融合算法相結(jié)合的識(shí)別效果好.首先因?yàn)榉诸惥嚯x分?jǐn)?shù)相對(duì)于傳統(tǒng)的融合分?jǐn)?shù)指標(biāo)攜帶有更多的有效信息,本文提出的基于信息熵的自適應(yīng)融合算法,可以通過(guò)信息熵有效利用分類距離分?jǐn)?shù)含有的有效信息,同時(shí)參數(shù)λt,rt可根據(jù)每個(gè)模態(tài)特征含有有效信息的比重信息動(dòng)態(tài)調(diào)整自適應(yīng)算法的框架結(jié)構(gòu),所以分類距離分?jǐn)?shù)和自適應(yīng)融合算法的結(jié)合具有合理性.
通過(guò)實(shí)驗(yàn)1~實(shí)驗(yàn)5的分析,可知本文提出的算法在識(shí)別率是優(yōu)于對(duì)比算法的.由表6可知,本文提出的方法在所用時(shí)間上僅略高于MAX方法,但是由于MAX融合規(guī)則較簡(jiǎn)單,沒(méi)有考慮到訓(xùn)練集和測(cè)試集劃分的影響,其融合識(shí)別效果低于本文提出的方法.由于指靜脈特征集采用的是原始圖像的信息,不是對(duì)原始圖像提取特征之后的信息,這在特征集與特征集比較的過(guò)程中需要消耗大量的時(shí)間.為了提高本文算法的時(shí)間效率,可考慮對(duì)樣本進(jìn)行特征提取,將對(duì)整幅圖像信息的操作轉(zhuǎn)換為低維數(shù)據(jù)的處理.
Table 6 The Recognition Time of One Class in Testing Process
本文提取了一種基于分類距離分?jǐn)?shù)的自適應(yīng)融合識(shí)別方法.實(shí)驗(yàn)表明分類距離分?jǐn)?shù)不僅在一定程度上反映了特征的性能,也可預(yù)分類樣本特征,為融合算法提供了一個(gè)具有有效判別信息的特征融合集,大大提高了融合指標(biāo)的利用率;其次利用信息熵的自適應(yīng)融合算法既可以有效利用分類距離分?jǐn)?shù)的判別信息,也可利用雙層權(quán)重系數(shù)根據(jù)有效信息動(dòng)態(tài)地調(diào)整融合算法的權(quán)重,達(dá)到充分利用有效信息的目的,從而提高融合識(shí)別率.
圖像的特征是其固有的屬性,如何有效地利用這些固有的屬性特征進(jìn)行融合分類是一個(gè)有意義的研究課題.本文改進(jìn)了融合分?jǐn)?shù)指標(biāo)以及特征融合算法,為解決多模態(tài)特征間的融合問(wèn)題提供了一個(gè)新的思想.
[1] Zheng Fang, Rozi A, Wang Renyu, et al. Overview of biometric recognition technology[J]. Journal of Information Security Research, 2016, 2(1): 12-26
[2] Zhang Shiqing, Zhao Xiaoming. Locality-sensitive kernel sparse representation classification for face recognition[J]. Journal of Visual Communication and Image Representation, 2014, 25(8): 1878-1885
[3] Sun Zhenan, Zhang Hui, Tan Tieniu, et al. Iris image classification based on hierarchical visual codebook[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2014, 36(6): 1120-1133
[4] Yang Jinfeng, Shi Yihua. Finger-vein network enhancement and segmentation[J]. Pattern Analysis and Applications, 2014, 17(4): 783-797
[5] Sanjekar P S, Patil J B. An overview on multimodal biometrics[J]. Signal and Image Processing, 2013, 4(1): 57-64
[6] Gudavalli M, Raju S V, Babu A V, et al. Multimodal biometrics—sources, architecture and fusion techniques: An overview[C] //Proc of Int Symp on Biometrics and Security Technologies. Los Alamitos, CA: IEEE Computer Society, 2012: 27-34
[7] Hong Lin, Jain A K. Integrating faces and fingerprints for personal identification[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 1998, 20(12): 1295-1307
[8] Jain A K, Ross A. Learning user-specific parameters in a multibiometric system[C] //Proc of the 9th Int Conf on Image Processing. Piscataway, NJ: IEEE, 2002: 57-60
[9] Jing Xiaoyuan, Yao Yongfang, Zhang D, et al. Face and palmprint pixel level fusion and kernel DCV-RBF classifier for small sample biometric recognition[J]. Pattern Recognition, 2007, 40(11): 3209-3224
[10] Yuan Guanglin, Xue Mogen, Han Yusheng, et al. Mean shift object tracking based on adaptive multi-features fusion[J]. Journal of Computer Research and Development, 2010, 47(9): 1663-1671 (in Chinese)
(袁廣林, 薛模根, 韓裕生, 等. 基于自適應(yīng)多特征融合的mean shift目標(biāo)跟蹤[J]. 計(jì)算機(jī)研究與發(fā)展, 2010, 47(9): 1663-1671 )
[11] Zhi Lijia, Zhang Shaomin, Zhao Dazhe, et al. Minimum spanning tree fusing multi-feature point information for medical image registration[J]. Journal of Computer Research and Development, 2011, 48(3): 501-507 (in Chinese)
(支力佳, 張少敏, 趙大哲, 等. 融合多種特征點(diǎn)信息的最小生成樹(shù)醫(yī)學(xué)圖像配準(zhǔn)[J]. 計(jì)算機(jī)研究與發(fā)展, 2011, 48(3): 501-507)
[12] Zhu Jun, Zhao Jieyu, Dong Zhenyu. Image classification using hierarchical feature learning method combined with image saliency[J]. Journal of Computer Research and Development, 2014, 51(9): 1919-1928 (in Chinese)
(祝軍, 趙杰煜, 董振宇. 融合顯著信息的層次特征學(xué)習(xí)圖像分類[J]. 計(jì)算機(jī)研究與發(fā)展, 2014, 51(9): 1919-1928)
[13] Zhang Pan, Lian Qiusheng. Low-Rank relaxed collaborative representation combined with global and local features for face recognition[J]. Journal of Computer Research and Development, 2014, 51(12): 2663-2670 (in Chinese)
(張盼, 練秋生. 融合整體與局部特征的低秩松弛協(xié)作表示[J]. 計(jì)算機(jī)研究與發(fā)展, 2014, 51(12): 2663-2670)
[14] Meng Weizhi, Wong D S, Furnell S, et al. Surveying the development of biometric user authentication on mobile phones[J]. IEEE Communications Surveys and Tutorials, 2015, 17(3): 1268-1293
[15] Haghighat M, Abdel-Mottaleb M, Alhalabi W. Discriminant correlation analysis: Real-time feature level fusion for multimodal biometric recognition[J]. IEEE Trans on Information Forensics and Security, 2016, 11(9): 1984-1996
[16] He Mingxing, Horng S J, Fan Pingzhi, et al. Performance evaluation of score level fusion in multimodal biometric systems[J]. Pattern Recognition, 2010, 43(5): 1789-1800
[17] Liu Haicang, Li Shutao. Decision fusion of sparse representation and support vector machine for SAR image target recognition[J]. Neurocomputing, 2013, 113: 97-104
[18] Nandakumar K, Chen Yi, Dass S C, et al. Likelihood ratio-based biometric score fusion[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2008, 30(2): 342-347
[19] Ross A A, Nandakumar K, Jain A K. Handbook of Multibiometrics[M]. Berlin: Springer, 2006
[20] Xi Xiaoming, Yin Yilong, Yang Gongping, et al. Personalized fusion method based on finger vein and finger contour[J]. Journal of Computer Research and Development, 2013, 50(9): 1914-1923 (in Chinese)
(襲肖明, 尹義龍, 楊公平, 等. 基于手指靜脈和手指輪廓的個(gè)性化融合方法[J]. 計(jì)算機(jī)研究與發(fā)展, 2013, 50(9): 1914-1923)
[21] Wu Di, Tang Yongqi, Lin Guohan, et al. Multibiometric recognition based on total error rate and feature correlation adaptive fusion[J]. Journal of Optoelectronics·Laser, 2016, 27(1): 67-76 (in Chinese)
(吳迪, 唐勇奇, 林國(guó)漢, 等. 基于總錯(cuò)誤率和特征關(guān)聯(lián)的自適應(yīng)融合多模態(tài)生物特征識(shí)別[J]. 光電子·激光, 2016, 27(1): 67-76)
[22] Cui Feifei, Yang Gongping. Score level fusion of fingerprint and finger vein recognition[J]. Journal of Computational Information Systems, 2011, 7(16): 5723-5731
[23] Yuan Chenhu, Liu Tiegen, Li Xiuyan. Identification algorithm for fusion of hand vein iris and fingerprint based on kNN-SVM[J]. Opto-Electronic Engineering, 2013, 40(4): 101-105 (in Chinese)
(袁臣虎, 劉鐵根, 李秀艷. 基于kNN-SVM的手背靜脈虹膜和指紋融合身份識(shí)別[J]. 光電工程, 2013, 40(4): 101-105)
[24] Gawande U, Zaveri M, Kapur A. A novel algorithm for feature level fusion using SVM classifier for multibiometrics-based person identification[J]. Applied Computational Intelligence and Soft Computing, 2013, 2013: 1155-1166
[25] Wu Di, Cao Jie. Multimodel biometrics fusion based on FAR and FRR using triangular norm[J]. International Journal of Computational Intelligence Systems, 2015, 8(4): 779-786
[26] Peng Jialiang, Li Qiong, Niu Xiamu. Finger multimodal biometric verification based on score-level fusion[J]. Intelligent Computer and Applications, 2014, 4(2): 36-44 (in Chinese)
(彭加亮, 李瓊, 牛夏牧. 基于三角范數(shù)的多模態(tài)手指生物特征的分?jǐn)?shù)層融合方法[J]. 智能計(jì)算機(jī)與應(yīng)用, 2014, 4(2): 36-44)
[27] Tran Q D, Liatsis P, Zhu Bing, et al. Using density based score fusion for multimodal identification systems under the missing data scenario[C] //Proc of Developments in E-systems Engineering. Los Alamitos, CA: IEEE Computer Society, 2011: 238-242
[28] Aravinth M J, Valarmathy D S. A novel feature extraction techniques for multimodal score fusion using density based gaussian mixture model approach[J]. International Journal of Emerging Technology and Advanced Engineering, 2012, 2(1): 189-197
[29] Gu Xin, Wang Haitao, Wang Lingfeng, et al. Fusing multiple features for object tracking based on uncertainty measurement[J]. ACTA Automatica Sinica, 2011, 37(5): 550-559 (in Chinese)
(顧鑫, 王海濤, 汪凌峰, 等. 基于不確定性度量的多特征融合跟蹤[J]. 自動(dòng)化學(xué)報(bào), 2011, 37(5): 550-559)
[30] Zhao Dandan. Novel algorithm for finger-vein image enhancement and thinning and its application in recognition[D]. Hefei: Anhui University, 2015 (in Chinese)
(趙丹丹. 手指靜脈圖像的增強(qiáng)和細(xì)化算法及其在身份識(shí)別中的應(yīng)用[D]. 合肥: 安徽大學(xué), 2015)
[31] Guo Jingyu. The research of palmprint identification algorithm[D]. Hefei: Anhui University, 2015 (in Chinese)
(郭婧宇. 基于掌紋的身份識(shí)別算法研究[D]. 合肥: 安徽大學(xué), 2015)
[32] Shannon C E. A mathematical theory of communication[J]. The Bell System Technical Journal, 1948, 27(3): 379-423
[33] Omari A, Figueiras-Vidal A R. Feature combiners with gate-generated weights for classification[J]. IEEE Trans on Neural Networks and Learning Systems, 2013, 24(1): 158-163
[34] Jiang R M, Crookes D, Luo Nie. Face recognition in global harmonic subspace[J]. IEEE Trans on Information Forensics and Security, 2010, 5(3): 416-424
[35] Feng Shikun, Lei Zhen, Yi Dong, et al. Online content-aware video condensation[C] //Proc of IEEE Int Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2012: 2082-2087
[36] Wu Di. Audio-visual person recognition based on rank level fusion and Gaussian mixture model[J]. International Journal of Control and Automation, 2015, 8(4): 313-332
[37] Lin Sen, Xu Tianyang, Tang Yonghua, et al. Palm vein identity recognition based on improved S-transform[J]. Journal of Optoelectronics·Laser, 2015, 26(9): 1776-1782 (in Chinese)
(林森, 徐天揚(yáng), 湯永華, 等. 基于改進(jìn)S變換的手掌靜脈身份識(shí)別[J]. 光電子·激光, 2015, 26(9): 1776-1782)
[38] Wang Feng, Jin Xiaobo, Yu Junwei, et al. A positive recognition algorithm for fake plate vehicles based on fusion strategy[J]. Journal of Optoelectronics·Laser, 2015, 26(11): 2209-2216 (in Chinese)
(王峰, 靳小波, 于俊偉, 等. 基于融合策略的套牌車主動(dòng)識(shí)別算法[J]. 光電子·激光, 2015, 26(11): 2209-2216)ZhangLu, born in 1991. Master. Her main research interests include pattern recognition and information processing.