黃 喆 郭成安
指靜脈識(shí)別[1-2]采用手指表皮下的靜脈結(jié)構(gòu)作為主要判別特征,是一種新興的基于生物特征的身份識(shí)別技術(shù).相比人臉[3]、指紋[4]等基于外部特征的身份識(shí)別模式,手指靜脈識(shí)別具有活體檢測、安全性高、特征穩(wěn)定等特點(diǎn)[5].
隨著人們對身份安全需求的不斷增加,指靜脈識(shí)別技術(shù)得到廣泛的關(guān)注和探索,并已在諸如門禁系統(tǒng)、銀行系統(tǒng)(Automated Teller Machine, ATM)、員工考勤系統(tǒng)和汽車安全系統(tǒng)等基礎(chǔ)設(shè)施上得到廣泛應(yīng)用[2].
近年來,隨著深度學(xué)習(xí)技術(shù)的推廣,指靜脈識(shí)別得到長足發(fā)展,識(shí)別精度大幅提升[5-10].然而,這些成果通常是在訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)來自于同一數(shù)據(jù)集的條件下評估的.實(shí)際應(yīng)用場景難以滿足此條件,因?yàn)檫@些精心訓(xùn)練的識(shí)別系統(tǒng)需要被應(yīng)用到不同的使用群體和采集設(shè)備,這被認(rèn)為是一個(gè)跨數(shù)據(jù)集識(shí)別任務(wù),即用于訓(xùn)練深度模型的數(shù)據(jù)(源數(shù)據(jù))與目標(biāo)數(shù)據(jù)來自于不同的數(shù)據(jù)集.受采集設(shè)備、環(huán)境條件和使用群體變更的影響,在不同場景下采集的數(shù)據(jù)可能存在明顯差異(包括類別差異及潛在數(shù)據(jù)分布差異[11]),導(dǎo)致在某些數(shù)據(jù)集上表現(xiàn)良好的模型可能無法直接應(yīng)用到新數(shù)據(jù)(目標(biāo)數(shù)據(jù))或者在新數(shù)據(jù)上表現(xiàn)不佳.
盡管在目標(biāo)數(shù)據(jù)上對深度模型進(jìn)行重新調(diào)整和訓(xùn)練可以緩解上述問題,但此方案可能并不適用于大部分指靜脈識(shí)別場景.因?yàn)樵趯?shí)際應(yīng)用中,目標(biāo)任務(wù)的數(shù)據(jù)通常是預(yù)先不可知的,需要在應(yīng)用階段隨著用戶的注冊不斷獲取,這導(dǎo)致微調(diào)模型需要在新數(shù)據(jù)采集后現(xiàn)場執(zhí)行.然而,受限于模型巨量的訓(xùn)練開銷,對深度模型進(jìn)行現(xiàn)場調(diào)試需要花費(fèi)大量時(shí)間以及人力計(jì)算資源,這對于許多應(yīng)用場景而言是難以接受的[12].并且,對于應(yīng)用中新增加的數(shù)據(jù),該方案也會(huì)大幅增加模型的學(xué)習(xí)時(shí)間,導(dǎo)致其難以高效適應(yīng)數(shù)據(jù)的變化.
此外,對于指靜脈識(shí)別問題,鑒于身份信息安全以及隱私問題,通常難以收集大量的樣本用于訓(xùn)練,并且現(xiàn)場采集大量數(shù)據(jù)通常也十分困難.因此,模型的訓(xùn)練常常面臨小樣本問題,這增加模型過擬合的風(fēng)險(xiǎn).同時(shí),針對不同的使用群體和場景重新調(diào)整模型意味著需要為每個(gè)目標(biāo)任務(wù)單獨(dú)維護(hù)一套參數(shù),增加模型升級和更新的困難.因此,迫切需要尋求一套切實(shí)有效的解決方案,可以實(shí)現(xiàn)深度模型在跨數(shù)據(jù)集指靜脈識(shí)別任務(wù)中的快速遷移應(yīng)用,并能夠在小樣本訓(xùn)練情況下保持一致的優(yōu)良性能.在此基礎(chǔ)上,應(yīng)使模型在不同數(shù)據(jù)集上保留更多的一致結(jié)構(gòu)和參數(shù),以便系統(tǒng)的升級和更新.
為了使模型能夠在新數(shù)據(jù)集上取得一致的表現(xiàn),一個(gè)可行的方案是采用領(lǐng)域適應(yīng)技術(shù).該技術(shù)旨在在預(yù)訓(xùn)練數(shù)據(jù)(源數(shù)據(jù))上學(xué)習(xí)一個(gè)可以在許多未見數(shù)據(jù)上表現(xiàn)良好的模型[13].在這類研究中,領(lǐng)域不變特征方法[14-15]取得較大成功.此方法對齊來自不同領(lǐng)域的特征,提取對數(shù)據(jù)集差異魯棒的不變表達(dá).
然而,盡管已有研究在許多應(yīng)用中已被證實(shí)是有效的,但通常需要在訓(xùn)練過程中使用目標(biāo)任務(wù)的數(shù)據(jù)[14-16].對于指靜脈識(shí)別任務(wù),目標(biāo)數(shù)據(jù)通常難以提前預(yù)知,這增加方法在跨數(shù)據(jù)集指靜脈識(shí)別中的應(yīng)用困難.此外,由于難以采集大量的樣本,如何學(xué)習(xí)魯棒特征將面臨更嚴(yán)峻的考驗(yàn).盡管不同設(shè)備采集的圖像存在差異,但它們通常具有相近的分布,并且造成不同數(shù)據(jù)集分布差異的主要因素是由于環(huán)境條件和采集設(shè)備變更引起的有差異偏差場.因此,可以通過消除圖像偏差場以減小數(shù)據(jù)集間的差異[8].
盡管應(yīng)用數(shù)據(jù)預(yù)先并不可知,但隨著系統(tǒng)投入使用,它的模板圖像(即訓(xùn)練樣本)也隨之可用.此時(shí),對訓(xùn)練圖像進(jìn)行學(xué)習(xí)有助于提升模型在新數(shù)據(jù)上的表現(xiàn).然而,受訓(xùn)練效率、數(shù)據(jù)規(guī)模以及模型更新等制約,現(xiàn)場調(diào)試模型以適應(yīng)新數(shù)據(jù)通常是困難的.
為了能夠利用模板圖像的信息并滿足使用需求,一個(gè)簡單有效的方案是在利用模型提取深度特征后,設(shè)計(jì)并訓(xùn)練一個(gè)面向目標(biāo)任務(wù)的分類器[17-18].該方案由于不更新模型參數(shù),僅調(diào)整分類器,因此,訓(xùn)練速度較快,便于維護(hù)和更新.鑒于深度模型,尤其是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)可以分解為基于卷積結(jié)構(gòu)的特征提取器以及基于全連接結(jié)構(gòu)的分類器,可以調(diào)整全連接層結(jié)構(gòu)和參數(shù),實(shí)現(xiàn)模型在新數(shù)據(jù)上的快速遷移學(xué)習(xí).但是,基于梯度下降法的迭代優(yōu)化策略調(diào)整全連接層依然需要較多的計(jì)算和時(shí)間,并且在小樣本條件下同樣容易發(fā)生過擬合問題.
基于上述分析,本文提出面向跨數(shù)據(jù)集指靜脈識(shí)別的可快速遷移模型,包含兩個(gè)學(xué)習(xí)階段的解決方案.首先,為了得到一個(gè)可以較好泛化到未見目標(biāo)數(shù)據(jù)的深度模型,在第一階段提出基于特征對齊和聚類的領(lǐng)域適應(yīng)算法,引導(dǎo)網(wǎng)絡(luò)提取有判別力且魯棒的特征.然后,為了減小圖像中由偏差場引起的數(shù)據(jù)集差異,提出一個(gè)偏差場校正網(wǎng)絡(luò),消除偏差,并調(diào)整潛在分布,使其更相似.最后,為了將模型高效遷移到目標(biāo)數(shù)據(jù)并充分利用新數(shù)據(jù)的模版信息,在執(zhí)行快速遷移的第二階段中,設(shè)計(jì)具有更快學(xué)習(xí)速度的基于改進(jìn)極限學(xué)習(xí)機(jī)(Extreme Learning Ma-chine, ELM)[19]的分類器,利用它的學(xué)習(xí)算法,加速模型的遷移訓(xùn)練.在四個(gè)公開指靜脈數(shù)據(jù)庫上的實(shí)驗(yàn)表明,本文模型能夠在實(shí)現(xiàn)高效遷移的同時(shí),取得與在目標(biāo)任務(wù)上進(jìn)行充分端到端訓(xùn)練的最佳方法同等的識(shí)別性能.對于常見的應(yīng)用場景,能滿足實(shí)時(shí)部署的需求,從而為深度學(xué)習(xí)技術(shù)在跨數(shù)據(jù)集指靜脈識(shí)別應(yīng)用上提供一套可行的解決方案.
本節(jié)旨在探索如何實(shí)現(xiàn)深度模型在跨數(shù)據(jù)集指靜脈識(shí)別中的應(yīng)用并滿足使用場景對應(yīng)用效率、識(shí)別性能以及升級更新等的需求.為此,首先簡略介紹基于深度學(xué)習(xí)的指靜脈識(shí)別方法.然后,結(jié)合已有方法在跨數(shù)據(jù)集應(yīng)用的不足,詳細(xì)闡述本文的解決方案.
隨著人們對身份信息安全需求的不斷增長,指靜脈識(shí)別技術(shù)得到長足發(fā)展.特別是近年來,深度學(xué)習(xí)的成功推動(dòng)該領(lǐng)域的顯著進(jìn)展.對于基于深度學(xué)習(xí)的指靜脈識(shí)別方法,可以根據(jù)它們實(shí)施指靜脈識(shí)別的方式不同,將其粗略劃分為兩類:基于驗(yàn)證的方法[5-7,20-25]和基于分類的方法[8-10,26-29].
基于驗(yàn)證的方法將待檢測圖像與每個(gè)候選類別圖像進(jìn)行逐一對比,獲得識(shí)別結(jié)果.Tang等[21]使用孿生網(wǎng)絡(luò)判別輸入的兩幅圖像是否屬于同一類別,并根據(jù)與所有候選類別的相似度得分獲得最終的判別結(jié)果.
基于分類的方法將指靜脈識(shí)別問題視為圖像分類問題,使用精心設(shè)計(jì)的分類模型識(shí)別它們.Boucherit等[29]提出Merge CNN,融合多個(gè)CNN提取的特征后輸出分類得分.
盡管現(xiàn)有基于深度學(xué)習(xí)的方法在指靜脈識(shí)別任務(wù)中取得優(yōu)異表現(xiàn),但它們通常要求訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)來自同一數(shù)據(jù)集.目前的研究尚未考慮實(shí)際應(yīng)用中更一般的跨數(shù)據(jù)集識(shí)別場景,當(dāng)這些方法應(yīng)用到跨數(shù)據(jù)集指靜脈識(shí)別任務(wù)中時(shí),存在一些不足之處.基于分類的方法通常使用帶有全連接結(jié)構(gòu)的輸出層輸出樣本屬于每個(gè)可能類別的得分,這要求輸出層的每個(gè)節(jié)點(diǎn)與某個(gè)特定的類別對應(yīng).在將該模型應(yīng)用到新任務(wù)時(shí),由于使用群體(類別)發(fā)生改變,基于全連接結(jié)構(gòu)的輸出層導(dǎo)致模型無法直接應(yīng)用到新數(shù)據(jù),僅能在重新調(diào)整輸出層并重新訓(xùn)練模型后識(shí)別它們.鑒于深度模型過高的訓(xùn)練開銷,基于分類的方法不僅難以高效遷移到目標(biāo)任務(wù),并且無法快速適應(yīng)應(yīng)用中的新用戶.基于驗(yàn)證的方法盡管可以直接使用預(yù)訓(xùn)練的模型識(shí)別目標(biāo)數(shù)據(jù),但由于不同數(shù)據(jù)集的分布差異,難以在新數(shù)據(jù)上保持一致的性能.此外,這類方法在訓(xùn)練和識(shí)別過程中往往需要將數(shù)據(jù)兩兩組合,導(dǎo)致數(shù)據(jù)規(guī)模增加若干個(gè)數(shù)量級,增加識(shí)別和訓(xùn)練的計(jì)算開銷.
現(xiàn)有的指靜脈識(shí)別方法需要在應(yīng)用數(shù)據(jù)上對模型進(jìn)行微調(diào)以適應(yīng)新數(shù)據(jù)并保持穩(wěn)定性能,而這在實(shí)際應(yīng)用中通常是困難的.
限制深度學(xué)習(xí)方法在跨數(shù)據(jù)集指靜脈識(shí)別應(yīng)用的原因可以概括為兩點(diǎn).1)由于數(shù)據(jù)集差異的存在,精心設(shè)計(jì)和訓(xùn)練的深度模型難以直接應(yīng)用到新數(shù)據(jù)并保持優(yōu)良的性能.2)由于深度模型昂貴的訓(xùn)練開銷,針對目標(biāo)任務(wù)重新調(diào)試模型既需要花費(fèi)大量的時(shí)間,又增加模型升級和維護(hù)困難,這對于許多場景而言是難以接受的.
為了克服這些問題,本文從改善模型泛化性能以及提升模型遷移效率兩方面入手,提出面向跨數(shù)據(jù)集指靜脈識(shí)別的可快速遷移模型.在改善模型泛化性能方面,提出基于U-Net[30]的偏差場矯正網(wǎng)絡(luò),旨在消除預(yù)訓(xùn)練數(shù)據(jù)(源數(shù)據(jù))和應(yīng)用數(shù)據(jù)(目標(biāo)數(shù)據(jù))之間存在的有差異偏差場,并生成具有更高一致性和分辨率的增強(qiáng)圖像,進(jìn)而降低由偏差場引起的數(shù)據(jù)差異對模型性能的影響.這里所指的偏差場,即圖像中亮度的不均勻分布,通常是由光照條件、相機(jī)規(guī)格和傳感器靈敏度的差異引起的.偏差場的存在可能會(huì)對圖像質(zhì)量產(chǎn)生不利影響,并加大不同數(shù)據(jù)集之間的差異.在此基礎(chǔ)上,設(shè)計(jì)用于改善模型泛化性能的學(xué)習(xí)算法,引導(dǎo)模型提取對擾動(dòng)不變的特征表達(dá),約束特征靠近對應(yīng)類別中心并遠(yuǎn)離其它類別中心,實(shí)現(xiàn)基于類別的緊密聚類分布 (即簇分布),提升模型的判別力和魯棒性.值得注意的是,上述對深度模型的訓(xùn)練過程均在源數(shù)據(jù)上執(zhí)行,不會(huì)增加模型在目標(biāo)任務(wù)上的學(xué)習(xí)成本.
在提升模型遷移效率方面,設(shè)計(jì)改進(jìn)ELM分類器以及基于該分類器的遷移學(xué)習(xí)方法,在保持CNN參數(shù)不變的前提下,訓(xùn)練針對特定目標(biāo)任務(wù)的分類器,實(shí)現(xiàn)模型向目標(biāo)數(shù)據(jù)的高效遷移.在此基礎(chǔ)上,為了進(jìn)一步提升分類器的訓(xùn)練效率,采用基于ELM的求解算法,解析確定分類器參數(shù),避免迭代求解的優(yōu)化過程,學(xué)習(xí)速度較快.
基于上述設(shè)計(jì),本文模型的整體訓(xùn)練流程如圖1所示.訓(xùn)練過程由兩個(gè)階段組成,分別為在預(yù)訓(xùn)練數(shù)據(jù)上進(jìn)行的用于改善CNN組件泛化能力的第一階段,以及針對最終應(yīng)用數(shù)據(jù)進(jìn)行的用于實(shí)現(xiàn)CNN在新數(shù)據(jù)上快速遷移的第二階段.
在第一階段,給定源數(shù)據(jù)集Is和對應(yīng)的標(biāo)簽Ds,首先使用文獻(xiàn)[8]中提出的偏差場矯正算法(Bias Field Correction Algorithm)估計(jì)圖像中的偏差場,并在原始圖像中移除它們,改善圖像質(zhì)量.偏差場矯正算法[8]使用一個(gè)二維多項(xiàng)式,估計(jì)圖像中存在的亮度不均勻分布(即偏差場).使用此算法,能夠較好地估計(jì)和移除圖像中的偏差場,從而在改善圖像質(zhì)量的同時(shí),降低不同數(shù)據(jù)集間的差異.在此基礎(chǔ)上,還對處理結(jié)果進(jìn)行分布調(diào)整,使其具有更相近的均值和標(biāo)準(zhǔn)差,使生成的圖像具有更高的一致性,從而得到增強(qiáng)圖像Bs.
再以Bs作為像素級標(biāo)簽,隨機(jī)擾動(dòng)后的原始圖像I′s作為偏差場矯正網(wǎng)絡(luò)的輸入,使用重構(gòu)損失函數(shù)Lres約束該網(wǎng)絡(luò)的輸出G(I′s),逼近理想標(biāo)簽Bs.由于Bs為Is移除偏差場且經(jīng)過圖像分布調(diào)整后的結(jié)果,因此,使用偏差場矯正網(wǎng)絡(luò),從原始圖像I′s重構(gòu)增強(qiáng)圖像Bs,引導(dǎo)模型學(xué)習(xí)對應(yīng)的偏差場矯正變換,進(jìn)而利用該網(wǎng)絡(luò)自動(dòng)消除源數(shù)據(jù)和未知目標(biāo)數(shù)據(jù)的偏差場,降低由偏差場引起的分布差異.此外,將同一圖像的不同擾動(dòng)副本映射為相同的增強(qiáng)圖像,也能夠提升偏差場矯正網(wǎng)絡(luò)對擾動(dòng)的魯棒性.
最后,使用特征對齊損失函數(shù)Linv最小化特征對之間的距離,引導(dǎo)特征提取網(wǎng)絡(luò)提取對擾動(dòng)魯棒的不變特征.同時(shí),使用損失函數(shù)Lclu約束特征對到每個(gè)類別中心的距離,使特征呈現(xiàn)緊密的基于類別的聚類分布.
在第二階段,為了實(shí)現(xiàn)模型在新數(shù)據(jù)上的高效應(yīng)用,不更新特征提取器(包括偏差場矯正網(wǎng)絡(luò)和特征提取網(wǎng)絡(luò))的參數(shù).使用該特征提取器提取目標(biāo)數(shù)據(jù)It的深度特征zt.然后,利用ELM的學(xué)習(xí)算法以及zt對應(yīng)的類別標(biāo)簽Dt,訓(xùn)練改進(jìn)ELM分類器.最后,組合特征提取器和分類器,獲得面向應(yīng)用數(shù)據(jù)使用的最終模型.
圖1 本文模型整體流程圖
源數(shù)據(jù)執(zhí)行第一階段旨在獲得一個(gè)可以較好泛化到不同目標(biāo)任務(wù)的特征提取器,為此,本文設(shè)計(jì)用于模型優(yōu)化的融合損失函數(shù):
Ls=Lrec+Linv+Lclu.
其中:Lrec表示重構(gòu)損失函數(shù),用于引導(dǎo)偏差場矯正網(wǎng)絡(luò)學(xué)習(xí)偏差場矯正算法[8];Linv表示特征對齊損失,用于學(xué)習(xí)對擾動(dòng)魯棒的特征表達(dá);Lclu表示聚類損失,用于約束特征呈現(xiàn)基于類別的簇分布.
1.3.1 偏差場矯正
對于指靜脈識(shí)別任務(wù),數(shù)據(jù)集之間的潛在分布差異主要由偏差場引起.因此,為了改善模型的遷移性能,本文采用偏差場矯正算法[8],消除不同數(shù)據(jù)集之間存在的差異性偏差場.然而,雖然偏差場矯正算法[8]可以估計(jì)并消除圖像偏差場,但通常需要預(yù)先定義算法參數(shù).對于跨數(shù)據(jù)集識(shí)別任務(wù),預(yù)先定義的參數(shù)可能難以適用于新的數(shù)據(jù),并且限制算法進(jìn)一步調(diào)整的潛力.
針對該問題,本文在偏差場矯正算法[8]處理結(jié)果的基礎(chǔ)上,首先進(jìn)行進(jìn)一步對齊,確保增強(qiáng)后的圖像具有更加一致的分布.然后,使用基于U-Net結(jié)構(gòu)[30]的偏差場矯正網(wǎng)絡(luò)學(xué)習(xí)該圖像變換,利用該組件實(shí)現(xiàn)對未知目標(biāo)數(shù)據(jù)偏差場的自動(dòng)消除,克服傳統(tǒng)方法在跨數(shù)據(jù)集任務(wù)中的限制.并且,利用深度模型強(qiáng)大的學(xué)習(xí)能力,偏差場矯正網(wǎng)絡(luò)可以在學(xué)習(xí)傳統(tǒng)方法的同時(shí),根據(jù)后端分類器的識(shí)別結(jié)果,對生成的圖像進(jìn)行適應(yīng)調(diào)整,使其在分類器端取得更高得分,從而改善識(shí)別性能.
偏差場矯正網(wǎng)絡(luò)由兩條路徑組成:收縮路徑和擴(kuò)展路徑.收縮路徑采用ResNet-18結(jié)構(gòu)[32],提取圖像特征.擴(kuò)展路徑通過融合收縮路徑提供的信息,重構(gòu)經(jīng)過偏差場矯正算法[8]處理后的增強(qiáng)圖像Bs,進(jìn)而學(xué)習(xí)對應(yīng)的圖像變換.
對于不同的數(shù)據(jù)集,存在的潛在偏差場并不相同.為了使模型能夠在僅使用源數(shù)據(jù)集的情況下適用于不同的應(yīng)用數(shù)據(jù),采用多種數(shù)據(jù)增強(qiáng)變換增加樣本量,更好地模擬未知的目標(biāo)數(shù)據(jù).給定源數(shù)據(jù)集
接下來,使用偏差場矯正算法[8]處理Is,獲得處理后的圖像Bs.為了能夠引導(dǎo)模型對不同的擾動(dòng)結(jié)果均能輸出相近的處理結(jié)果,對同幅圖像的不同擾動(dòng)版本采用相同的標(biāo)簽.
最后,使用重構(gòu)損失Lrec度量G(I′s)與Bs之間的差異,并最小化該損失,引導(dǎo)模型學(xué)習(xí)該圖像操作.損失函數(shù)Lrec定義為
(1)
(2)
根據(jù)式(1)和式(2)可知,偏差場矯正網(wǎng)絡(luò)不僅需要學(xué)習(xí)偏差場矯正算法[8]對應(yīng)的圖像變換,生成的圖像也具備更加相近的均值和標(biāo)準(zhǔn)差,即更好的一致性.此外,由于深度模型具有強(qiáng)大的學(xué)習(xí)能力,在使用偏差場矯正網(wǎng)絡(luò)學(xué)習(xí)該圖像變換的同時(shí),模型可以進(jìn)行自適應(yīng)調(diào)整,使生成的圖像更容易被正確識(shí)別.
1.3.2 特征對齊
盡管在經(jīng)過偏差場校正后,來自不同數(shù)據(jù)集的圖像具有更小的數(shù)據(jù)集差異,但也很難完全消除這些差異.為了進(jìn)一步提高模型的泛化能力,降低它們對遷移性能的影響,本文將同一圖像產(chǎn)生的不同擾動(dòng)圖像映射到特征空間(即樣本經(jīng)過深度網(wǎng)絡(luò)提取特征后,將原始數(shù)據(jù)映射為高維矢量,這些矢量構(gòu)成的空間為特征空間)的相同位置,引導(dǎo)模型提取對圖像位移、縮放、旋轉(zhuǎn)以及亮度對比度變化魯棒的不變特征.為此,首先使用圖像變換T對圖像進(jìn)行調(diào)整,生成具有不同擾動(dòng)的圖像副本.然后,使用損失函數(shù)Linv對齊由它們產(chǎn)生的特征.基于歐氏距離,Linv定義為
1.3.3 特征聚類
Linv損失約束網(wǎng)絡(luò)提取對擾動(dòng)魯棒的特征,但可能會(huì)造成模型對所有樣本均輸出相同結(jié)果,從而使特征失去判別力[33].
為了防止這種“崩潰”,需要在引導(dǎo)模型提取不變特征的同時(shí),確保不同類別的特征是可區(qū)分的,并應(yīng)盡可能增大決策邊界之間的距離(即裕度)以提升特征的判別力和魯棒性.
樣本在特征空間中的距離通常情況下能夠反映它們的相似度關(guān)系,即兩個(gè)特征的距離越近,它們屬于同一類別的概率越大.基于該簇分布假設(shè),本文設(shè)計(jì)如下的損失函數(shù):
由于模型在更新的過程中,
會(huì)隨著模型參數(shù)的更新不斷變化,為了確保在優(yōu)化過程中,μs能夠始終較準(zhǔn)確地指向每個(gè)類別的中心,采用指數(shù)滑動(dòng)平均的方式更新該參數(shù),表示為
第二階段旨在利用目標(biāo)任務(wù)提供的模板圖像(該圖像通常在用戶注冊時(shí)采集,用于匹配或訓(xùn)練)更好地遷移模型,并滿足應(yīng)用場景對遷移效率以及升級更新的需求.雖然本階段提供模板圖像,但受CNN的計(jì)算開銷、數(shù)據(jù)規(guī)模以及升級更新等制約,現(xiàn)場調(diào)試CNN以適應(yīng)目標(biāo)數(shù)據(jù)是不可行的.為了更好地利用目標(biāo)數(shù)據(jù)模板(訓(xùn)練數(shù)據(jù))的信息,并避免現(xiàn)場訓(xùn)練CNN,本文使用針對目標(biāo)任務(wù)設(shè)計(jì)和訓(xùn)練的分類器識(shí)別特征提取器提取的特征.為了進(jìn)一步提升分類器的訓(xùn)練效率,并利用特征的簇分布特點(diǎn),設(shè)計(jì)由基于高斯核函數(shù)隱層以及線性輸出層構(gòu)成的改進(jìn)ELM分類器[19].
給定包含N個(gè)樣本和n個(gè)類別的訓(xùn)練集
以及對應(yīng)的標(biāo)簽
表示對應(yīng)的標(biāo)簽.將It送入特征提取器,得到對應(yīng)的特征
(3)
(4)
其中,N(k)表示It中屬于第k類的個(gè)數(shù).方差
(5)
高斯函數(shù)具有局部響應(yīng)的特點(diǎn),在式(3)中引入基于類別的方差項(xiàng),旨在自適應(yīng)調(diào)整函數(shù)的響應(yīng)范圍.
改進(jìn)ELM的輸出層采用線性全連接結(jié)構(gòu),表示為
Y=Φβ,
(6)
其中:
β∈Rn×n表示輸出層的權(quán)重矩陣.
根據(jù)文獻(xiàn)[19],改進(jìn)ELM分類器的輸出層參數(shù)為:
(7)
其中,
T=[d(1),d(2),…,d(N)]T∈RN×n,
Φ+表示Φ的Moore-Penrose廣義逆[34].
(8)
本文模型由于不需要在目標(biāo)任務(wù)上調(diào)整特征提取器的參數(shù)和結(jié)構(gòu),可以在不同目標(biāo)任務(wù)上使用相同參數(shù)的CNN組件.當(dāng)系統(tǒng)需要升級更新時(shí),僅需要在源數(shù)據(jù)集上重新優(yōu)化特征提取器后,用其替換原模型并重新訓(xùn)練改進(jìn)ELM分類器,即可實(shí)現(xiàn)對不同目標(biāo)任務(wù)的統(tǒng)一調(diào)整.
此外,由于本文模型并不在應(yīng)用數(shù)據(jù)上更新CNN參數(shù),性能存在進(jìn)一步改善的空間.在后臺(tái)維護(hù)或允許模型進(jìn)行長時(shí)間訓(xùn)練的情況下,可以進(jìn)一步調(diào)整CNN組件,更好地適應(yīng)目標(biāo)任務(wù).
為此,本文設(shè)計(jì)用于模型端到端訓(xùn)練的基于softmax的Lcla損失:
(9)
其中,τ表示人工設(shè)定的超參數(shù),避免在實(shí)際輸出逼近理想輸出T時(shí),損失值過大.根據(jù)式(9)可知,當(dāng)目標(biāo)類別對應(yīng)節(jié)點(diǎn)的輸出遠(yuǎn)大于其它節(jié)點(diǎn)時(shí),Lcla趨近于0,從而保障模型能夠取得正確的識(shí)別結(jié)果.
鑒于分類器的優(yōu)化方式與特征提取器基于反向傳播(Back Propagation, BP)算法的迭代優(yōu)化策略不同,為了利用分類器的識(shí)別結(jié)果,端到端優(yōu)化模型,并保持改進(jìn)ELM解析解算法的優(yōu)點(diǎn),在使用BP算法最小化損失Lcla的過程中,不調(diào)整分類器參數(shù),待模型收斂后,重新計(jì)算分類器的參數(shù),進(jìn)行進(jìn)一步優(yōu)化.
本節(jié)在如下4個(gè)公開指靜脈數(shù)據(jù)庫上驗(yàn)證本文模型的有效性.
1)山東大學(xué)機(jī)器學(xué)習(xí)與應(yīng)用同源多模態(tài)數(shù)據(jù)庫中指靜脈數(shù)據(jù)庫(簡稱為SDU-MLA)[36].數(shù)據(jù)庫包含從106名志愿者采集的636個(gè)指靜脈類別.每個(gè)手指類別包含6幅圖像,共計(jì)3 816幅大小為320×240的指靜脈圖像.
2)清華大學(xué)指靜脈和手指背紋理數(shù)據(jù)庫(簡稱為THU)[37].數(shù)據(jù)庫由610名志愿者提供的610個(gè)指靜脈類別組成.每個(gè)手指類別包含分2次采集的2幅圖像,共計(jì)1 220幅大小為720×576的圖像.在實(shí)驗(yàn)中,使用數(shù)據(jù)集提供的ROI(Region of Internet)圖像作為模型輸入.
3)馬來西亞理工大學(xué)指靜脈數(shù)據(jù)庫(簡稱為FV-USM)[38].數(shù)據(jù)庫由123名志愿者采集的492個(gè)指靜脈類別組成.每個(gè)手指類別包含12幅圖像,這些圖像同樣分2次采集,每次每個(gè)類別采集6幅圖像,因此共計(jì)5 904幅大小為640×480的圖像.在實(shí)驗(yàn)中,同樣使用數(shù)據(jù)集提供的ROI圖像作為模型輸入.
4)香港理工大學(xué)手指圖像數(shù)據(jù)庫(簡稱為PolyU)[39].數(shù)據(jù)庫包括從156名志愿者獲得的312個(gè)指靜脈類別.圖像分2次采集,第1次采集包含312個(gè)類別的1 872幅圖像,第2次采集包含210個(gè)類別的1 260幅圖像.在實(shí)驗(yàn)中,僅使用第1次采集的1 872幅大小為513×256的圖像進(jìn)行實(shí)驗(yàn).
按照表1所示的劃分,將每個(gè)數(shù)據(jù)集劃分為一個(gè)訓(xùn)練集和一個(gè)測試集,同時(shí),在每個(gè)數(shù)據(jù)集內(nèi)部,將其劃分為兩組.在后續(xù)實(shí)驗(yàn)中,對于SDU-MLA、PolyU數(shù)據(jù)集,均采用6折交叉驗(yàn)證獲得實(shí)驗(yàn)結(jié)果,即依次選擇每個(gè)類別6幅圖像中的5幅訓(xùn)練圖像,剩余1幅測試圖像.對于其余2個(gè)數(shù)據(jù)集,按照表1中的劃分方案重復(fù)進(jìn)行3次訓(xùn)練,并將平均結(jié)果作為最終結(jié)果.
表1 4個(gè)指靜脈數(shù)據(jù)集的劃分方案
實(shí)驗(yàn)采用PyTorch在CPU+GPU平臺(tái)上實(shí)現(xiàn),該平臺(tái)配備Intel?CoreTMi7-7700@3.60 GHz 中央處理器和NVIDIA GeForce GTX 1080Ti 圖形處理器.在實(shí)驗(yàn)中,設(shè)置γ=30,λ=0.5,α=9,τ=10.
使用的圖像擾動(dòng)設(shè)置如下.
1)圖像遮擋.每個(gè)像素值有0.1的概率被遮擋,被遮擋像素采用其周圍3×3范圍內(nèi)的像素值均值進(jìn)行填充.
2)圖像縮放與裁剪.原始圖像隨機(jī)縮放至高為110≤H≤130,寬為260≤W≤280,并隨機(jī)從縮放的圖像中裁剪100×240的圖像塊用于訓(xùn)練.
3)亮度對比度變換.對圖像的亮度和對比度進(jìn)行隨機(jī)調(diào)整,亮度和對比度將在當(dāng)前圖像亮度對比度的0.7倍到1.3倍之間進(jìn)行隨機(jī)變化.
圖像旋轉(zhuǎn)設(shè)置如下:順時(shí)針或逆時(shí)針隨機(jī)旋轉(zhuǎn)0°~3°,采用最近鄰進(jìn)行補(bǔ)邊.
本節(jié)旨在實(shí)現(xiàn)CNN在跨數(shù)據(jù)集條件下的快速遷移應(yīng)用并取得滿足需求的優(yōu)良性能.
為了評估模型的有效性,選擇如下對比模型:文獻(xiàn)[8]模型,MSFBF-Net(Multi-scale Feature Bili-near Fusion Network)[9],文獻(xiàn)[20]模型,文獻(xiàn)[21]模型,FV-GAN(Finger Vein Representation Using Generative Adversarial Networks)[22],LCNN(Light CNN)[23],CNN-CO(CNN Competitive Order)[24],文獻(xiàn)[27]模型,HGAN(Hierarchical Generative Adver-sarial Network)[28],Merge CNN[29],VGG-16[31],文獻(xiàn)[39]模型,文獻(xiàn)[40]算法,文獻(xiàn)[41]算法,文獻(xiàn)[42]算法,SRLRR(Sparse Reconstruction Error Con-strained Low-Rank Representation)[43],文獻(xiàn)[44]模型.
首先,對比分析本文模型在跨數(shù)據(jù)集實(shí)驗(yàn)設(shè)置下的性能(包括識(shí)別性能和遷移學(xué)習(xí)效率),結(jié)果如表2所示,表中黑體數(shù)字表示最優(yōu)值.實(shí)驗(yàn)中根據(jù)表1的劃分,選擇B0作為源數(shù)據(jù)集.對于本文模型,首先在源數(shù)據(jù)集上執(zhí)行第一階段的訓(xùn)練,獲得可泛化到不同任務(wù)的CNN組件.然后,在應(yīng)用數(shù)據(jù)集上實(shí)施第二階段遷移,即使用應(yīng)用數(shù)據(jù)的模板圖像訓(xùn)練改進(jìn)ELM分類器并與CNN組件相連,構(gòu)成最終模型.
為了公平對比,部分典型模型(未標(biāo)記*)同樣采用兩階段學(xué)習(xí)策略進(jìn)行訓(xùn)練和測試.具體而言,首先在預(yù)訓(xùn)練數(shù)據(jù)上訓(xùn)練模型,然后在工作數(shù)據(jù)上對其所有參數(shù)進(jìn)行微調(diào).
此外,為了確保結(jié)果更加真實(shí)可靠,表2同時(shí)對比與本文實(shí)驗(yàn)方案一致的最新模型(標(biāo)記為*),它們在表中的結(jié)果均來自原文獻(xiàn).表2中所有模型的訓(xùn)練時(shí)間均不包括在源數(shù)據(jù)集上對模型進(jìn)行充分訓(xùn)練的時(shí)間,僅為在目標(biāo)任務(wù)上微調(diào)模型的時(shí)間,并且均為在4個(gè)數(shù)據(jù)集上訓(xùn)練的平均時(shí)間.
由表2中結(jié)果可以看到,本文模型在3個(gè)數(shù)據(jù)集上均取得最高的識(shí)別精度,并在SDU-MLA數(shù)據(jù)集上,取得與最佳模型基本同等的性能.并且由于本文模型不需要在目標(biāo)任務(wù)上訓(xùn)練CNN組件,遷移訓(xùn)練速度遠(yuǎn)優(yōu)于其它模型.盡管部分基于CNN的對比模型沒有給出學(xué)習(xí)時(shí)間,但由于它們都需要在目標(biāo)數(shù)據(jù)上訓(xùn)練CNN組件,且學(xué)習(xí)方案十分復(fù)雜,因此它們的訓(xùn)練時(shí)間不可避免地遠(yuǎn)超本文模型.
表2 各模型在目標(biāo)數(shù)據(jù)上的性能評估
在不調(diào)整CNN參數(shù)情況下,本文模型與典型指靜脈識(shí)別模型在跨數(shù)據(jù)集應(yīng)用條件下的性能對比結(jié)果如表3所示,表中黑體數(shù)字表示最優(yōu)值.
與表2實(shí)驗(yàn)不同,表3中模型均僅在源數(shù)據(jù)集D0上訓(xùn)練CNN.之所以選擇D0作為源數(shù)據(jù)集進(jìn)行后續(xù)的遷移實(shí)驗(yàn),是因?yàn)镻olyU數(shù)據(jù)集與其它數(shù)據(jù)集間的差異更大,圖像的姿態(tài)更多變,遷移性能面臨的考驗(yàn)更嚴(yán)峻.由于基于全連接結(jié)構(gòu)的分類模型無法直接識(shí)別新類別,為此采用在目標(biāo)任務(wù)上調(diào)整分類器(全連接層)的方式進(jìn)行模型遷移.對于基于驗(yàn)證的方法,直接使用在源數(shù)據(jù)集上訓(xùn)練的模型識(shí)別目標(biāo)數(shù)據(jù).
為了確保實(shí)驗(yàn)的公平性,采用先提取所有訓(xùn)練樣本深度特征,再使用這些特征優(yōu)化分類器的方案.因此,表3中所示的時(shí)間由兩部分組成,分別為提取所有樣本特征的時(shí)間和使用這些特征訓(xùn)練分類器的時(shí)間.基于驗(yàn)證的方法可以直接應(yīng)用到目標(biāo)任務(wù),訓(xùn)練時(shí)間為0 s.基于分類的方法需要采用基于梯度下降的迭代策略訓(xùn)練分類器.相比本文模型,在訓(xùn)練時(shí)間上有較明顯的增加.
在精度上,由于數(shù)據(jù)集的潛在分布差異,對比模型在目標(biāo)數(shù)據(jù)集上發(fā)生顯著的性能下降.本文模型由于采用改進(jìn)ELM分類器對應(yīng)用數(shù)據(jù)進(jìn)行快速學(xué)習(xí),且CNN組件在預(yù)訓(xùn)練階段對遷移應(yīng)用進(jìn)行針對性設(shè)計(jì),因此在不同數(shù)據(jù)集上均取得最佳結(jié)果.此外,由于單幅圖像的特征提取時(shí)間很短,在實(shí)際應(yīng)用中可以在采集的同時(shí)進(jìn)行,因此本文模型實(shí)際所需的訓(xùn)練時(shí)間僅為改進(jìn)ELM分類器的學(xué)習(xí)時(shí)間,而這部分時(shí)間約為2 s.
表3 各模型跨數(shù)據(jù)集的性能評估
此外,在允許后臺(tái)維護(hù)或者進(jìn)行長時(shí)間訓(xùn)練的情況下,可以在執(zhí)行第二階段遷移后,對模型的所有參數(shù)進(jìn)行微調(diào)以更好地適應(yīng)目標(biāo)任務(wù).為此,本文提出結(jié)合ELM和CNN的端到端優(yōu)化算法.
為了考察該優(yōu)化算法的性能,進(jìn)行如下實(shí)驗(yàn).在實(shí)驗(yàn)中,本文模型在表2對應(yīng)的模型基礎(chǔ)上,采用式(9)中的目標(biāo)函數(shù)進(jìn)行進(jìn)一步優(yōu)化,并與在每個(gè)數(shù)據(jù)集上取得最佳結(jié)果的模型進(jìn)行對比.具體結(jié)果如表4所示,表中黑體數(shù)字表示最優(yōu)值.由表可以看到,本文模型在對CNN組件進(jìn)行調(diào)整后,除了SDU-MLA數(shù)據(jù)集以外,均取得最佳的識(shí)別結(jié)果.值得注意的是,對比表2的結(jié)果可以看到,本文模型在進(jìn)行端到端學(xué)習(xí)后,在SDU-MLA數(shù)據(jù)集上取得次高的識(shí)別精度,但本文模型為6折交叉驗(yàn)證的平均結(jié)果,更可靠.
此外,對比表2和表4的結(jié)果不難發(fā)現(xiàn),為了保障模型在應(yīng)用階段的遷移效率,不可避免地降低識(shí)別性能,但對于本文模型,識(shí)別性能損失很小,在可以接受的范圍內(nèi).
表4 在目標(biāo)數(shù)據(jù)上調(diào)整CNN參數(shù)后的跨數(shù)據(jù)集的性能評估
為了提升模型的泛化性能以及遷移效率,設(shè)計(jì)兩階段學(xué)習(xí)策略,并針對每個(gè)階段提出相應(yīng)的優(yōu)化算法.本節(jié)將分別考察這些設(shè)計(jì)的有效性.
2.4.1 階段1算法的有效性評估
第一階段旨在獲得一個(gè)可以較好泛化到不同目標(biāo)任務(wù)的特征提取器,為此,設(shè)計(jì)偏差場矯正網(wǎng)絡(luò)以及引導(dǎo)CNN提取魯棒特征的學(xué)習(xí)算法.為了評估這些設(shè)計(jì)的有效性,設(shè)置如下對比實(shí)驗(yàn).
1)Lclu.僅使用Lclu訓(xùn)練VGG-16,作為基準(zhǔn)模型.
2)Lclu+Linv.使用Lclu和Linv訓(xùn)練VGG-16.
3)Lclu+Lrec.使用Lclu訓(xùn)練VGG-16,并添加偏差場矯正網(wǎng)絡(luò).
4)Lclu+Linv+Lrec.使用本文設(shè)計(jì)的損失函數(shù)完成第一階段的訓(xùn)練.
在實(shí)驗(yàn)中,選擇D0作為源數(shù)據(jù)集,并在第一階段分別執(zhí)行上述實(shí)驗(yàn)設(shè)置后,考察模型遷移到應(yīng)用數(shù)據(jù)后的表現(xiàn).所有模型在第二階段均采用相同的方式,即在第二階段訓(xùn)練改進(jìn)ELM分類器,并與第一階段獲得的CNN組件組合,得到遷移后的模型.
第一階段訓(xùn)練的有效性評估結(jié)果如表5所示.對比Lclu和Lclu+Linv的結(jié)果可以發(fā)現(xiàn),在添加Linv損失后,模型性能得到一定提升,這說明設(shè)計(jì)的Linv損失能夠提高模型對擾動(dòng)的魯棒性,改善模型遷移后的表現(xiàn).在基準(zhǔn)網(wǎng)絡(luò)上添加Lrec后,模型在目標(biāo)任務(wù)上的性能得到大幅提升,該結(jié)果表明偏差場矯正網(wǎng)絡(luò)能夠大幅消除數(shù)據(jù)集間的差異,提升模型遷移后的識(shí)別性能.在Lclu+Linv+Lrec的設(shè)置下,模型在4個(gè)數(shù)據(jù)集上均取得最優(yōu)值,表明各項(xiàng)措施均是有效的.
表5 第一階段訓(xùn)練的有效性評估
此外,從表5中結(jié)果可以看到,在使用偏差場矯正網(wǎng)絡(luò)后,模型性能得到顯著提升,這表明該網(wǎng)絡(luò)能夠降低不同數(shù)據(jù)集間的分布差異.為了更好地驗(yàn)證此結(jié)論,給出僅在D0上訓(xùn)練的偏差場矯正網(wǎng)絡(luò)在不同目標(biāo)數(shù)據(jù)集上的表現(xiàn),結(jié)果如圖2所示.
在圖2中,每組結(jié)果的第2行為偏差場矯正網(wǎng)絡(luò)的輸出,第3行為采用偏差場矯正算法[8]處理后的輸出結(jié)果.從圖中結(jié)果可以看到,偏差場矯正能夠消除圖像偏差場并生成具有更高一致性和分辨力的增強(qiáng)圖像.
(a1)原始圖像
(a2)偏差場矯正網(wǎng)絡(luò)
(a3)偏差場矯正算法
(b1)原始圖像
(b2)偏差場矯正網(wǎng)絡(luò)
(b3)偏差場矯正算法
(c1)原始圖像
(c2)偏差場矯正網(wǎng)絡(luò)
(c3)偏差場矯正算法
(d1)原始圖像
(d2)偏差場矯正網(wǎng)絡(luò)
(d3)偏差場矯正算法
2.4.2 改進(jìn)ELM的有效性評估
為了考察改進(jìn)ELM分類器的有效性,分別使用ELM分類器[19]、TransM-RKELM(Transfer Learning Mixed and Reduced Kernel Extreme Learning Ma-chine)[45]、SLFN(Single-Hidden Layer Feedforward Network)替換本文的改進(jìn)ELM分類器(簡記為Modified ELM).
在實(shí)驗(yàn)中,首先,使用D0作為源數(shù)據(jù),并采用第一階段的學(xué)習(xí)算法獲得特征提取組件.然后,在第二階段訓(xùn)練的過程中分別使用不同的分類器以及對應(yīng)的訓(xùn)練策略進(jìn)行模型遷移,并測試它們在目標(biāo)任務(wù)上的遷移學(xué)習(xí)效率和識(shí)別精度.
由于THU數(shù)據(jù)集僅提供1幅圖像用于訓(xùn)練,不利于分類器參數(shù)的求取,為此,將1幅原始圖像隨機(jī)裁剪成6幅子圖像用于訓(xùn)練.進(jìn)一步地,考慮到特征提取通??梢栽诓杉瘓D像的過程中執(zhí)行,因此僅計(jì)算訓(xùn)練分類器的時(shí)間.
各對比模型在SDU-MLA、THU、FV-USM、PolyU數(shù)據(jù)集上的識(shí)別精度和訓(xùn)練時(shí)間如表6所示,表中黑體數(shù)字表示最優(yōu)值.
從表6中結(jié)果可以看到,在識(shí)別性能上,ELM和TransM-RKELM憑借其獨(dú)特的求解算法取得略優(yōu)于200個(gè)迭代周期的SLFN的性能,且TransM-RKELM由于使用核函數(shù)并進(jìn)行融合,取得優(yōu)于ELM的結(jié)果.將ELM的隱層替換為基于高斯核函數(shù)的Modi- fied ELM,利用特征基于簇分布的特點(diǎn),在實(shí)驗(yàn)中取得最佳的識(shí)別性能,這驗(yàn)證改進(jìn)措施在改善分類器性能的有效性.
在遷移學(xué)習(xí)效率上,基于ELM的分類器(ELM、TransM-RKELM、Modified ELM)均遠(yuǎn)快于SLFN.盡管ELM訓(xùn)練時(shí)間快于本文使用的分類器,但它們均能滿足實(shí)時(shí)應(yīng)用的需求.綜合考慮遷移效率和識(shí)別性能,本文模型具備更優(yōu)的表現(xiàn).
表6 不同分類器用于第二階段遷移時(shí)的性能評估
在上述實(shí)驗(yàn)中,需要選擇一個(gè)數(shù)據(jù)集作為源數(shù)據(jù),并通過在該數(shù)據(jù)集的訓(xùn)練,獲得一個(gè)可以泛化到不同目標(biāo)任務(wù)的模型.由于不同數(shù)據(jù)集的規(guī)模不同、圖像的多樣性不同,選擇不同的源數(shù)據(jù)集將對模型的泛化能力造成影響.為了評估影響的程度,分別選擇4個(gè)數(shù)據(jù)集中的一個(gè)作為源數(shù)據(jù)集,并評估模型在其余3個(gè)數(shù)據(jù)集上的表現(xiàn),識(shí)別精度如表7所示.根據(jù)表中結(jié)果不難發(fā)現(xiàn),選擇不同的源數(shù)據(jù)集,模型在目標(biāo)任務(wù)上的性能會(huì)發(fā)生改變.對于本文模型,由源數(shù)據(jù)不同而引起的性能波動(dòng)很小,這表明本文模型對源數(shù)據(jù)的規(guī)模和多樣性具有很低的依賴性.
表7 跨數(shù)據(jù)集交叉驗(yàn)證實(shí)驗(yàn)結(jié)果
受深度模型巨量計(jì)算開銷以及不同數(shù)據(jù)集間數(shù)據(jù)差異的影響,預(yù)訓(xùn)練的CNN難以高效應(yīng)用到新數(shù)據(jù)集并取得滿足使用需求的優(yōu)良性能,限制其在跨數(shù)據(jù)集指靜脈識(shí)別中的應(yīng)用.為了克服該問題,本文從提升模型泛化性能和遷移學(xué)習(xí)效率兩方面出發(fā),提出面向跨數(shù)據(jù)集指靜脈識(shí)別的可快速遷移模型.在階段一中,旨在提升模型的泛化性能,使用偏差場矯正網(wǎng)絡(luò)消除圖像偏差場,生成具有更高一致性的增強(qiáng)圖像,降低不同數(shù)據(jù)集分布差異對識(shí)別性能的影響.在此基礎(chǔ)上,在特征空間中對齊同一圖像的不同擾動(dòng)結(jié)果,提取對擾動(dòng)不變的魯棒特征.同時(shí),基于特征的簇分布假設(shè),將特征按照類別信息進(jìn)行聚類,增加不同類別之間的裕度,提升特征的判別力和魯棒性.在階段二中,旨在利用目標(biāo)任務(wù)的模板圖像更好地遷移模型,并滿足應(yīng)用場景對遷移效率的需求,對ELM進(jìn)行適當(dāng)改進(jìn),同時(shí)改進(jìn)分類器,完成模型從源數(shù)據(jù)集向目標(biāo)數(shù)據(jù)的快速遷移.在四個(gè)公開指靜脈數(shù)據(jù)集上的實(shí)驗(yàn)表明,在不考慮特征提取時(shí)間的前提下,本文模型可以在不到2 s的時(shí)間內(nèi),將在源數(shù)據(jù)集訓(xùn)練的模型遷移應(yīng)用到新數(shù)據(jù)集,并取得與在應(yīng)用數(shù)據(jù)上進(jìn)行充分端到端訓(xùn)練的先進(jìn)模型同等的識(shí)別性能.
在研究中,僅針對指靜脈識(shí)別任務(wù)對算法的有效性進(jìn)行評估.考慮到不同的應(yīng)用領(lǐng)域,數(shù)據(jù)分布以及數(shù)據(jù)漂移產(chǎn)生的機(jī)理可能不同,值得進(jìn)一步研究算法是否有效.同時(shí),考慮到特征提取組件使用VGG-16結(jié)構(gòu),偏差場矯正網(wǎng)絡(luò)使用U-Net結(jié)構(gòu),模型結(jié)構(gòu)較復(fù)雜,對于邊緣設(shè)備,模型部署存在困難,因此,設(shè)計(jì)更通用、輕量級的模型同樣值得研究.