• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向跨數(shù)據(jù)集指靜脈識(shí)別的可快速遷移模型

    2023-09-28 02:32:28郭成安
    模式識(shí)別與人工智能 2023年8期
    關(guān)鍵詞:模型

    黃 喆 郭成安

    指靜脈識(shí)別[1-2]采用手指表皮下的靜脈結(jié)構(gòu)作為主要判別特征,是一種新興的基于生物特征的身份識(shí)別技術(shù).相比人臉[3]、指紋[4]等基于外部特征的身份識(shí)別模式,手指靜脈識(shí)別具有活體檢測、安全性高、特征穩(wěn)定等特點(diǎn)[5].

    隨著人們對身份安全需求的不斷增加,指靜脈識(shí)別技術(shù)得到廣泛的關(guān)注和探索,并已在諸如門禁系統(tǒng)、銀行系統(tǒng)(Automated Teller Machine, ATM)、員工考勤系統(tǒng)和汽車安全系統(tǒng)等基礎(chǔ)設(shè)施上得到廣泛應(yīng)用[2].

    近年來,隨著深度學(xué)習(xí)技術(shù)的推廣,指靜脈識(shí)別得到長足發(fā)展,識(shí)別精度大幅提升[5-10].然而,這些成果通常是在訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)來自于同一數(shù)據(jù)集的條件下評估的.實(shí)際應(yīng)用場景難以滿足此條件,因?yàn)檫@些精心訓(xùn)練的識(shí)別系統(tǒng)需要被應(yīng)用到不同的使用群體和采集設(shè)備,這被認(rèn)為是一個(gè)跨數(shù)據(jù)集識(shí)別任務(wù),即用于訓(xùn)練深度模型的數(shù)據(jù)(源數(shù)據(jù))與目標(biāo)數(shù)據(jù)來自于不同的數(shù)據(jù)集.受采集設(shè)備、環(huán)境條件和使用群體變更的影響,在不同場景下采集的數(shù)據(jù)可能存在明顯差異(包括類別差異及潛在數(shù)據(jù)分布差異[11]),導(dǎo)致在某些數(shù)據(jù)集上表現(xiàn)良好的模型可能無法直接應(yīng)用到新數(shù)據(jù)(目標(biāo)數(shù)據(jù))或者在新數(shù)據(jù)上表現(xiàn)不佳.

    盡管在目標(biāo)數(shù)據(jù)上對深度模型進(jìn)行重新調(diào)整和訓(xùn)練可以緩解上述問題,但此方案可能并不適用于大部分指靜脈識(shí)別場景.因?yàn)樵趯?shí)際應(yīng)用中,目標(biāo)任務(wù)的數(shù)據(jù)通常是預(yù)先不可知的,需要在應(yīng)用階段隨著用戶的注冊不斷獲取,這導(dǎo)致微調(diào)模型需要在新數(shù)據(jù)采集后現(xiàn)場執(zhí)行.然而,受限于模型巨量的訓(xùn)練開銷,對深度模型進(jìn)行現(xiàn)場調(diào)試需要花費(fèi)大量時(shí)間以及人力計(jì)算資源,這對于許多應(yīng)用場景而言是難以接受的[12].并且,對于應(yīng)用中新增加的數(shù)據(jù),該方案也會(huì)大幅增加模型的學(xué)習(xí)時(shí)間,導(dǎo)致其難以高效適應(yīng)數(shù)據(jù)的變化.

    此外,對于指靜脈識(shí)別問題,鑒于身份信息安全以及隱私問題,通常難以收集大量的樣本用于訓(xùn)練,并且現(xiàn)場采集大量數(shù)據(jù)通常也十分困難.因此,模型的訓(xùn)練常常面臨小樣本問題,這增加模型過擬合的風(fēng)險(xiǎn).同時(shí),針對不同的使用群體和場景重新調(diào)整模型意味著需要為每個(gè)目標(biāo)任務(wù)單獨(dú)維護(hù)一套參數(shù),增加模型升級和更新的困難.因此,迫切需要尋求一套切實(shí)有效的解決方案,可以實(shí)現(xiàn)深度模型在跨數(shù)據(jù)集指靜脈識(shí)別任務(wù)中的快速遷移應(yīng)用,并能夠在小樣本訓(xùn)練情況下保持一致的優(yōu)良性能.在此基礎(chǔ)上,應(yīng)使模型在不同數(shù)據(jù)集上保留更多的一致結(jié)構(gòu)和參數(shù),以便系統(tǒng)的升級和更新.

    為了使模型能夠在新數(shù)據(jù)集上取得一致的表現(xiàn),一個(gè)可行的方案是采用領(lǐng)域適應(yīng)技術(shù).該技術(shù)旨在在預(yù)訓(xùn)練數(shù)據(jù)(源數(shù)據(jù))上學(xué)習(xí)一個(gè)可以在許多未見數(shù)據(jù)上表現(xiàn)良好的模型[13].在這類研究中,領(lǐng)域不變特征方法[14-15]取得較大成功.此方法對齊來自不同領(lǐng)域的特征,提取對數(shù)據(jù)集差異魯棒的不變表達(dá).

    然而,盡管已有研究在許多應(yīng)用中已被證實(shí)是有效的,但通常需要在訓(xùn)練過程中使用目標(biāo)任務(wù)的數(shù)據(jù)[14-16].對于指靜脈識(shí)別任務(wù),目標(biāo)數(shù)據(jù)通常難以提前預(yù)知,這增加方法在跨數(shù)據(jù)集指靜脈識(shí)別中的應(yīng)用困難.此外,由于難以采集大量的樣本,如何學(xué)習(xí)魯棒特征將面臨更嚴(yán)峻的考驗(yàn).盡管不同設(shè)備采集的圖像存在差異,但它們通常具有相近的分布,并且造成不同數(shù)據(jù)集分布差異的主要因素是由于環(huán)境條件和采集設(shè)備變更引起的有差異偏差場.因此,可以通過消除圖像偏差場以減小數(shù)據(jù)集間的差異[8].

    盡管應(yīng)用數(shù)據(jù)預(yù)先并不可知,但隨著系統(tǒng)投入使用,它的模板圖像(即訓(xùn)練樣本)也隨之可用.此時(shí),對訓(xùn)練圖像進(jìn)行學(xué)習(xí)有助于提升模型在新數(shù)據(jù)上的表現(xiàn).然而,受訓(xùn)練效率、數(shù)據(jù)規(guī)模以及模型更新等制約,現(xiàn)場調(diào)試模型以適應(yīng)新數(shù)據(jù)通常是困難的.

    為了能夠利用模板圖像的信息并滿足使用需求,一個(gè)簡單有效的方案是在利用模型提取深度特征后,設(shè)計(jì)并訓(xùn)練一個(gè)面向目標(biāo)任務(wù)的分類器[17-18].該方案由于不更新模型參數(shù),僅調(diào)整分類器,因此,訓(xùn)練速度較快,便于維護(hù)和更新.鑒于深度模型,尤其是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)可以分解為基于卷積結(jié)構(gòu)的特征提取器以及基于全連接結(jié)構(gòu)的分類器,可以調(diào)整全連接層結(jié)構(gòu)和參數(shù),實(shí)現(xiàn)模型在新數(shù)據(jù)上的快速遷移學(xué)習(xí).但是,基于梯度下降法的迭代優(yōu)化策略調(diào)整全連接層依然需要較多的計(jì)算和時(shí)間,并且在小樣本條件下同樣容易發(fā)生過擬合問題.

    基于上述分析,本文提出面向跨數(shù)據(jù)集指靜脈識(shí)別的可快速遷移模型,包含兩個(gè)學(xué)習(xí)階段的解決方案.首先,為了得到一個(gè)可以較好泛化到未見目標(biāo)數(shù)據(jù)的深度模型,在第一階段提出基于特征對齊和聚類的領(lǐng)域適應(yīng)算法,引導(dǎo)網(wǎng)絡(luò)提取有判別力且魯棒的特征.然后,為了減小圖像中由偏差場引起的數(shù)據(jù)集差異,提出一個(gè)偏差場校正網(wǎng)絡(luò),消除偏差,并調(diào)整潛在分布,使其更相似.最后,為了將模型高效遷移到目標(biāo)數(shù)據(jù)并充分利用新數(shù)據(jù)的模版信息,在執(zhí)行快速遷移的第二階段中,設(shè)計(jì)具有更快學(xué)習(xí)速度的基于改進(jìn)極限學(xué)習(xí)機(jī)(Extreme Learning Ma-chine, ELM)[19]的分類器,利用它的學(xué)習(xí)算法,加速模型的遷移訓(xùn)練.在四個(gè)公開指靜脈數(shù)據(jù)庫上的實(shí)驗(yàn)表明,本文模型能夠在實(shí)現(xiàn)高效遷移的同時(shí),取得與在目標(biāo)任務(wù)上進(jìn)行充分端到端訓(xùn)練的最佳方法同等的識(shí)別性能.對于常見的應(yīng)用場景,能滿足實(shí)時(shí)部署的需求,從而為深度學(xué)習(xí)技術(shù)在跨數(shù)據(jù)集指靜脈識(shí)別應(yīng)用上提供一套可行的解決方案.

    1 面向跨數(shù)據(jù)集指靜脈識(shí)別的可快速遷移模型

    本節(jié)旨在探索如何實(shí)現(xiàn)深度模型在跨數(shù)據(jù)集指靜脈識(shí)別中的應(yīng)用并滿足使用場景對應(yīng)用效率、識(shí)別性能以及升級更新等的需求.為此,首先簡略介紹基于深度學(xué)習(xí)的指靜脈識(shí)別方法.然后,結(jié)合已有方法在跨數(shù)據(jù)集應(yīng)用的不足,詳細(xì)闡述本文的解決方案.

    1.1 基于深度學(xué)習(xí)的指靜脈識(shí)別方法概述

    隨著人們對身份信息安全需求的不斷增長,指靜脈識(shí)別技術(shù)得到長足發(fā)展.特別是近年來,深度學(xué)習(xí)的成功推動(dòng)該領(lǐng)域的顯著進(jìn)展.對于基于深度學(xué)習(xí)的指靜脈識(shí)別方法,可以根據(jù)它們實(shí)施指靜脈識(shí)別的方式不同,將其粗略劃分為兩類:基于驗(yàn)證的方法[5-7,20-25]和基于分類的方法[8-10,26-29].

    基于驗(yàn)證的方法將待檢測圖像與每個(gè)候選類別圖像進(jìn)行逐一對比,獲得識(shí)別結(jié)果.Tang等[21]使用孿生網(wǎng)絡(luò)判別輸入的兩幅圖像是否屬于同一類別,并根據(jù)與所有候選類別的相似度得分獲得最終的判別結(jié)果.

    基于分類的方法將指靜脈識(shí)別問題視為圖像分類問題,使用精心設(shè)計(jì)的分類模型識(shí)別它們.Boucherit等[29]提出Merge CNN,融合多個(gè)CNN提取的特征后輸出分類得分.

    盡管現(xiàn)有基于深度學(xué)習(xí)的方法在指靜脈識(shí)別任務(wù)中取得優(yōu)異表現(xiàn),但它們通常要求訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)來自同一數(shù)據(jù)集.目前的研究尚未考慮實(shí)際應(yīng)用中更一般的跨數(shù)據(jù)集識(shí)別場景,當(dāng)這些方法應(yīng)用到跨數(shù)據(jù)集指靜脈識(shí)別任務(wù)中時(shí),存在一些不足之處.基于分類的方法通常使用帶有全連接結(jié)構(gòu)的輸出層輸出樣本屬于每個(gè)可能類別的得分,這要求輸出層的每個(gè)節(jié)點(diǎn)與某個(gè)特定的類別對應(yīng).在將該模型應(yīng)用到新任務(wù)時(shí),由于使用群體(類別)發(fā)生改變,基于全連接結(jié)構(gòu)的輸出層導(dǎo)致模型無法直接應(yīng)用到新數(shù)據(jù),僅能在重新調(diào)整輸出層并重新訓(xùn)練模型后識(shí)別它們.鑒于深度模型過高的訓(xùn)練開銷,基于分類的方法不僅難以高效遷移到目標(biāo)任務(wù),并且無法快速適應(yīng)應(yīng)用中的新用戶.基于驗(yàn)證的方法盡管可以直接使用預(yù)訓(xùn)練的模型識(shí)別目標(biāo)數(shù)據(jù),但由于不同數(shù)據(jù)集的分布差異,難以在新數(shù)據(jù)上保持一致的性能.此外,這類方法在訓(xùn)練和識(shí)別過程中往往需要將數(shù)據(jù)兩兩組合,導(dǎo)致數(shù)據(jù)規(guī)模增加若干個(gè)數(shù)量級,增加識(shí)別和訓(xùn)練的計(jì)算開銷.

    現(xiàn)有的指靜脈識(shí)別方法需要在應(yīng)用數(shù)據(jù)上對模型進(jìn)行微調(diào)以適應(yīng)新數(shù)據(jù)并保持穩(wěn)定性能,而這在實(shí)際應(yīng)用中通常是困難的.

    1.2 總體方案

    限制深度學(xué)習(xí)方法在跨數(shù)據(jù)集指靜脈識(shí)別應(yīng)用的原因可以概括為兩點(diǎn).1)由于數(shù)據(jù)集差異的存在,精心設(shè)計(jì)和訓(xùn)練的深度模型難以直接應(yīng)用到新數(shù)據(jù)并保持優(yōu)良的性能.2)由于深度模型昂貴的訓(xùn)練開銷,針對目標(biāo)任務(wù)重新調(diào)試模型既需要花費(fèi)大量的時(shí)間,又增加模型升級和維護(hù)困難,這對于許多場景而言是難以接受的.

    為了克服這些問題,本文從改善模型泛化性能以及提升模型遷移效率兩方面入手,提出面向跨數(shù)據(jù)集指靜脈識(shí)別的可快速遷移模型.在改善模型泛化性能方面,提出基于U-Net[30]的偏差場矯正網(wǎng)絡(luò),旨在消除預(yù)訓(xùn)練數(shù)據(jù)(源數(shù)據(jù))和應(yīng)用數(shù)據(jù)(目標(biāo)數(shù)據(jù))之間存在的有差異偏差場,并生成具有更高一致性和分辨率的增強(qiáng)圖像,進(jìn)而降低由偏差場引起的數(shù)據(jù)差異對模型性能的影響.這里所指的偏差場,即圖像中亮度的不均勻分布,通常是由光照條件、相機(jī)規(guī)格和傳感器靈敏度的差異引起的.偏差場的存在可能會(huì)對圖像質(zhì)量產(chǎn)生不利影響,并加大不同數(shù)據(jù)集之間的差異.在此基礎(chǔ)上,設(shè)計(jì)用于改善模型泛化性能的學(xué)習(xí)算法,引導(dǎo)模型提取對擾動(dòng)不變的特征表達(dá),約束特征靠近對應(yīng)類別中心并遠(yuǎn)離其它類別中心,實(shí)現(xiàn)基于類別的緊密聚類分布 (即簇分布),提升模型的判別力和魯棒性.值得注意的是,上述對深度模型的訓(xùn)練過程均在源數(shù)據(jù)上執(zhí)行,不會(huì)增加模型在目標(biāo)任務(wù)上的學(xué)習(xí)成本.

    在提升模型遷移效率方面,設(shè)計(jì)改進(jìn)ELM分類器以及基于該分類器的遷移學(xué)習(xí)方法,在保持CNN參數(shù)不變的前提下,訓(xùn)練針對特定目標(biāo)任務(wù)的分類器,實(shí)現(xiàn)模型向目標(biāo)數(shù)據(jù)的高效遷移.在此基礎(chǔ)上,為了進(jìn)一步提升分類器的訓(xùn)練效率,采用基于ELM的求解算法,解析確定分類器參數(shù),避免迭代求解的優(yōu)化過程,學(xué)習(xí)速度較快.

    基于上述設(shè)計(jì),本文模型的整體訓(xùn)練流程如圖1所示.訓(xùn)練過程由兩個(gè)階段組成,分別為在預(yù)訓(xùn)練數(shù)據(jù)上進(jìn)行的用于改善CNN組件泛化能力的第一階段,以及針對最終應(yīng)用數(shù)據(jù)進(jìn)行的用于實(shí)現(xiàn)CNN在新數(shù)據(jù)上快速遷移的第二階段.

    在第一階段,給定源數(shù)據(jù)集Is和對應(yīng)的標(biāo)簽Ds,首先使用文獻(xiàn)[8]中提出的偏差場矯正算法(Bias Field Correction Algorithm)估計(jì)圖像中的偏差場,并在原始圖像中移除它們,改善圖像質(zhì)量.偏差場矯正算法[8]使用一個(gè)二維多項(xiàng)式,估計(jì)圖像中存在的亮度不均勻分布(即偏差場).使用此算法,能夠較好地估計(jì)和移除圖像中的偏差場,從而在改善圖像質(zhì)量的同時(shí),降低不同數(shù)據(jù)集間的差異.在此基礎(chǔ)上,還對處理結(jié)果進(jìn)行分布調(diào)整,使其具有更相近的均值和標(biāo)準(zhǔn)差,使生成的圖像具有更高的一致性,從而得到增強(qiáng)圖像Bs.

    再以Bs作為像素級標(biāo)簽,隨機(jī)擾動(dòng)后的原始圖像I′s作為偏差場矯正網(wǎng)絡(luò)的輸入,使用重構(gòu)損失函數(shù)Lres約束該網(wǎng)絡(luò)的輸出G(I′s),逼近理想標(biāo)簽Bs.由于Bs為Is移除偏差場且經(jīng)過圖像分布調(diào)整后的結(jié)果,因此,使用偏差場矯正網(wǎng)絡(luò),從原始圖像I′s重構(gòu)增強(qiáng)圖像Bs,引導(dǎo)模型學(xué)習(xí)對應(yīng)的偏差場矯正變換,進(jìn)而利用該網(wǎng)絡(luò)自動(dòng)消除源數(shù)據(jù)和未知目標(biāo)數(shù)據(jù)的偏差場,降低由偏差場引起的分布差異.此外,將同一圖像的不同擾動(dòng)副本映射為相同的增強(qiáng)圖像,也能夠提升偏差場矯正網(wǎng)絡(luò)對擾動(dòng)的魯棒性.

    最后,使用特征對齊損失函數(shù)Linv最小化特征對之間的距離,引導(dǎo)特征提取網(wǎng)絡(luò)提取對擾動(dòng)魯棒的不變特征.同時(shí),使用損失函數(shù)Lclu約束特征對到每個(gè)類別中心的距離,使特征呈現(xiàn)緊密的基于類別的聚類分布.

    在第二階段,為了實(shí)現(xiàn)模型在新數(shù)據(jù)上的高效應(yīng)用,不更新特征提取器(包括偏差場矯正網(wǎng)絡(luò)和特征提取網(wǎng)絡(luò))的參數(shù).使用該特征提取器提取目標(biāo)數(shù)據(jù)It的深度特征zt.然后,利用ELM的學(xué)習(xí)算法以及zt對應(yīng)的類別標(biāo)簽Dt,訓(xùn)練改進(jìn)ELM分類器.最后,組合特征提取器和分類器,獲得面向應(yīng)用數(shù)據(jù)使用的最終模型.

    圖1 本文模型整體流程圖

    1.3 第一階段

    源數(shù)據(jù)執(zhí)行第一階段旨在獲得一個(gè)可以較好泛化到不同目標(biāo)任務(wù)的特征提取器,為此,本文設(shè)計(jì)用于模型優(yōu)化的融合損失函數(shù):

    Ls=Lrec+Linv+Lclu.

    其中:Lrec表示重構(gòu)損失函數(shù),用于引導(dǎo)偏差場矯正網(wǎng)絡(luò)學(xué)習(xí)偏差場矯正算法[8];Linv表示特征對齊損失,用于學(xué)習(xí)對擾動(dòng)魯棒的特征表達(dá);Lclu表示聚類損失,用于約束特征呈現(xiàn)基于類別的簇分布.

    1.3.1 偏差場矯正

    對于指靜脈識(shí)別任務(wù),數(shù)據(jù)集之間的潛在分布差異主要由偏差場引起.因此,為了改善模型的遷移性能,本文采用偏差場矯正算法[8],消除不同數(shù)據(jù)集之間存在的差異性偏差場.然而,雖然偏差場矯正算法[8]可以估計(jì)并消除圖像偏差場,但通常需要預(yù)先定義算法參數(shù).對于跨數(shù)據(jù)集識(shí)別任務(wù),預(yù)先定義的參數(shù)可能難以適用于新的數(shù)據(jù),并且限制算法進(jìn)一步調(diào)整的潛力.

    針對該問題,本文在偏差場矯正算法[8]處理結(jié)果的基礎(chǔ)上,首先進(jìn)行進(jìn)一步對齊,確保增強(qiáng)后的圖像具有更加一致的分布.然后,使用基于U-Net結(jié)構(gòu)[30]的偏差場矯正網(wǎng)絡(luò)學(xué)習(xí)該圖像變換,利用該組件實(shí)現(xiàn)對未知目標(biāo)數(shù)據(jù)偏差場的自動(dòng)消除,克服傳統(tǒng)方法在跨數(shù)據(jù)集任務(wù)中的限制.并且,利用深度模型強(qiáng)大的學(xué)習(xí)能力,偏差場矯正網(wǎng)絡(luò)可以在學(xué)習(xí)傳統(tǒng)方法的同時(shí),根據(jù)后端分類器的識(shí)別結(jié)果,對生成的圖像進(jìn)行適應(yīng)調(diào)整,使其在分類器端取得更高得分,從而改善識(shí)別性能.

    偏差場矯正網(wǎng)絡(luò)由兩條路徑組成:收縮路徑和擴(kuò)展路徑.收縮路徑采用ResNet-18結(jié)構(gòu)[32],提取圖像特征.擴(kuò)展路徑通過融合收縮路徑提供的信息,重構(gòu)經(jīng)過偏差場矯正算法[8]處理后的增強(qiáng)圖像Bs,進(jìn)而學(xué)習(xí)對應(yīng)的圖像變換.

    對于不同的數(shù)據(jù)集,存在的潛在偏差場并不相同.為了使模型能夠在僅使用源數(shù)據(jù)集的情況下適用于不同的應(yīng)用數(shù)據(jù),采用多種數(shù)據(jù)增強(qiáng)變換增加樣本量,更好地模擬未知的目標(biāo)數(shù)據(jù).給定源數(shù)據(jù)集

    接下來,使用偏差場矯正算法[8]處理Is,獲得處理后的圖像Bs.為了能夠引導(dǎo)模型對不同的擾動(dòng)結(jié)果均能輸出相近的處理結(jié)果,對同幅圖像的不同擾動(dòng)版本采用相同的標(biāo)簽.

    最后,使用重構(gòu)損失Lrec度量G(I′s)與Bs之間的差異,并最小化該損失,引導(dǎo)模型學(xué)習(xí)該圖像操作.損失函數(shù)Lrec定義為

    (1)

    (2)

    根據(jù)式(1)和式(2)可知,偏差場矯正網(wǎng)絡(luò)不僅需要學(xué)習(xí)偏差場矯正算法[8]對應(yīng)的圖像變換,生成的圖像也具備更加相近的均值和標(biāo)準(zhǔn)差,即更好的一致性.此外,由于深度模型具有強(qiáng)大的學(xué)習(xí)能力,在使用偏差場矯正網(wǎng)絡(luò)學(xué)習(xí)該圖像變換的同時(shí),模型可以進(jìn)行自適應(yīng)調(diào)整,使生成的圖像更容易被正確識(shí)別.

    1.3.2 特征對齊

    盡管在經(jīng)過偏差場校正后,來自不同數(shù)據(jù)集的圖像具有更小的數(shù)據(jù)集差異,但也很難完全消除這些差異.為了進(jìn)一步提高模型的泛化能力,降低它們對遷移性能的影響,本文將同一圖像產(chǎn)生的不同擾動(dòng)圖像映射到特征空間(即樣本經(jīng)過深度網(wǎng)絡(luò)提取特征后,將原始數(shù)據(jù)映射為高維矢量,這些矢量構(gòu)成的空間為特征空間)的相同位置,引導(dǎo)模型提取對圖像位移、縮放、旋轉(zhuǎn)以及亮度對比度變化魯棒的不變特征.為此,首先使用圖像變換T對圖像進(jìn)行調(diào)整,生成具有不同擾動(dòng)的圖像副本.然后,使用損失函數(shù)Linv對齊由它們產(chǎn)生的特征.基于歐氏距離,Linv定義為

    1.3.3 特征聚類

    Linv損失約束網(wǎng)絡(luò)提取對擾動(dòng)魯棒的特征,但可能會(huì)造成模型對所有樣本均輸出相同結(jié)果,從而使特征失去判別力[33].

    為了防止這種“崩潰”,需要在引導(dǎo)模型提取不變特征的同時(shí),確保不同類別的特征是可區(qū)分的,并應(yīng)盡可能增大決策邊界之間的距離(即裕度)以提升特征的判別力和魯棒性.

    樣本在特征空間中的距離通常情況下能夠反映它們的相似度關(guān)系,即兩個(gè)特征的距離越近,它們屬于同一類別的概率越大.基于該簇分布假設(shè),本文設(shè)計(jì)如下的損失函數(shù):

    由于模型在更新的過程中,

    會(huì)隨著模型參數(shù)的更新不斷變化,為了確保在優(yōu)化過程中,μs能夠始終較準(zhǔn)確地指向每個(gè)類別的中心,采用指數(shù)滑動(dòng)平均的方式更新該參數(shù),表示為

    1.4 第二階段

    第二階段旨在利用目標(biāo)任務(wù)提供的模板圖像(該圖像通常在用戶注冊時(shí)采集,用于匹配或訓(xùn)練)更好地遷移模型,并滿足應(yīng)用場景對遷移效率以及升級更新的需求.雖然本階段提供模板圖像,但受CNN的計(jì)算開銷、數(shù)據(jù)規(guī)模以及升級更新等制約,現(xiàn)場調(diào)試CNN以適應(yīng)目標(biāo)數(shù)據(jù)是不可行的.為了更好地利用目標(biāo)數(shù)據(jù)模板(訓(xùn)練數(shù)據(jù))的信息,并避免現(xiàn)場訓(xùn)練CNN,本文使用針對目標(biāo)任務(wù)設(shè)計(jì)和訓(xùn)練的分類器識(shí)別特征提取器提取的特征.為了進(jìn)一步提升分類器的訓(xùn)練效率,并利用特征的簇分布特點(diǎn),設(shè)計(jì)由基于高斯核函數(shù)隱層以及線性輸出層構(gòu)成的改進(jìn)ELM分類器[19].

    給定包含N個(gè)樣本和n個(gè)類別的訓(xùn)練集

    以及對應(yīng)的標(biāo)簽

    表示對應(yīng)的標(biāo)簽.將It送入特征提取器,得到對應(yīng)的特征

    (3)

    (4)

    其中,N(k)表示It中屬于第k類的個(gè)數(shù).方差

    (5)

    高斯函數(shù)具有局部響應(yīng)的特點(diǎn),在式(3)中引入基于類別的方差項(xiàng),旨在自適應(yīng)調(diào)整函數(shù)的響應(yīng)范圍.

    改進(jìn)ELM的輸出層采用線性全連接結(jié)構(gòu),表示為

    Y=Φβ,

    (6)

    其中:

    β∈Rn×n表示輸出層的權(quán)重矩陣.

    根據(jù)文獻(xiàn)[19],改進(jìn)ELM分類器的輸出層參數(shù)為:

    (7)

    其中,

    T=[d(1),d(2),…,d(N)]T∈RN×n,

    Φ+表示Φ的Moore-Penrose廣義逆[34].

    (8)

    1.5 模型的升級更新

    本文模型由于不需要在目標(biāo)任務(wù)上調(diào)整特征提取器的參數(shù)和結(jié)構(gòu),可以在不同目標(biāo)任務(wù)上使用相同參數(shù)的CNN組件.當(dāng)系統(tǒng)需要升級更新時(shí),僅需要在源數(shù)據(jù)集上重新優(yōu)化特征提取器后,用其替換原模型并重新訓(xùn)練改進(jìn)ELM分類器,即可實(shí)現(xiàn)對不同目標(biāo)任務(wù)的統(tǒng)一調(diào)整.

    此外,由于本文模型并不在應(yīng)用數(shù)據(jù)上更新CNN參數(shù),性能存在進(jìn)一步改善的空間.在后臺(tái)維護(hù)或允許模型進(jìn)行長時(shí)間訓(xùn)練的情況下,可以進(jìn)一步調(diào)整CNN組件,更好地適應(yīng)目標(biāo)任務(wù).

    為此,本文設(shè)計(jì)用于模型端到端訓(xùn)練的基于softmax的Lcla損失:

    (9)

    其中,τ表示人工設(shè)定的超參數(shù),避免在實(shí)際輸出逼近理想輸出T時(shí),損失值過大.根據(jù)式(9)可知,當(dāng)目標(biāo)類別對應(yīng)節(jié)點(diǎn)的輸出遠(yuǎn)大于其它節(jié)點(diǎn)時(shí),Lcla趨近于0,從而保障模型能夠取得正確的識(shí)別結(jié)果.

    鑒于分類器的優(yōu)化方式與特征提取器基于反向傳播(Back Propagation, BP)算法的迭代優(yōu)化策略不同,為了利用分類器的識(shí)別結(jié)果,端到端優(yōu)化模型,并保持改進(jìn)ELM解析解算法的優(yōu)點(diǎn),在使用BP算法最小化損失Lcla的過程中,不調(diào)整分類器參數(shù),待模型收斂后,重新計(jì)算分類器的參數(shù),進(jìn)行進(jìn)一步優(yōu)化.

    2 實(shí)驗(yàn)及結(jié)果分析

    2.1 指靜脈數(shù)據(jù)集

    本節(jié)在如下4個(gè)公開指靜脈數(shù)據(jù)庫上驗(yàn)證本文模型的有效性.

    1)山東大學(xué)機(jī)器學(xué)習(xí)與應(yīng)用同源多模態(tài)數(shù)據(jù)庫中指靜脈數(shù)據(jù)庫(簡稱為SDU-MLA)[36].數(shù)據(jù)庫包含從106名志愿者采集的636個(gè)指靜脈類別.每個(gè)手指類別包含6幅圖像,共計(jì)3 816幅大小為320×240的指靜脈圖像.

    2)清華大學(xué)指靜脈和手指背紋理數(shù)據(jù)庫(簡稱為THU)[37].數(shù)據(jù)庫由610名志愿者提供的610個(gè)指靜脈類別組成.每個(gè)手指類別包含分2次采集的2幅圖像,共計(jì)1 220幅大小為720×576的圖像.在實(shí)驗(yàn)中,使用數(shù)據(jù)集提供的ROI(Region of Internet)圖像作為模型輸入.

    3)馬來西亞理工大學(xué)指靜脈數(shù)據(jù)庫(簡稱為FV-USM)[38].數(shù)據(jù)庫由123名志愿者采集的492個(gè)指靜脈類別組成.每個(gè)手指類別包含12幅圖像,這些圖像同樣分2次采集,每次每個(gè)類別采集6幅圖像,因此共計(jì)5 904幅大小為640×480的圖像.在實(shí)驗(yàn)中,同樣使用數(shù)據(jù)集提供的ROI圖像作為模型輸入.

    4)香港理工大學(xué)手指圖像數(shù)據(jù)庫(簡稱為PolyU)[39].數(shù)據(jù)庫包括從156名志愿者獲得的312個(gè)指靜脈類別.圖像分2次采集,第1次采集包含312個(gè)類別的1 872幅圖像,第2次采集包含210個(gè)類別的1 260幅圖像.在實(shí)驗(yàn)中,僅使用第1次采集的1 872幅大小為513×256的圖像進(jìn)行實(shí)驗(yàn).

    2.2 實(shí)驗(yàn)設(shè)置

    按照表1所示的劃分,將每個(gè)數(shù)據(jù)集劃分為一個(gè)訓(xùn)練集和一個(gè)測試集,同時(shí),在每個(gè)數(shù)據(jù)集內(nèi)部,將其劃分為兩組.在后續(xù)實(shí)驗(yàn)中,對于SDU-MLA、PolyU數(shù)據(jù)集,均采用6折交叉驗(yàn)證獲得實(shí)驗(yàn)結(jié)果,即依次選擇每個(gè)類別6幅圖像中的5幅訓(xùn)練圖像,剩余1幅測試圖像.對于其余2個(gè)數(shù)據(jù)集,按照表1中的劃分方案重復(fù)進(jìn)行3次訓(xùn)練,并將平均結(jié)果作為最終結(jié)果.

    表1 4個(gè)指靜脈數(shù)據(jù)集的劃分方案

    實(shí)驗(yàn)采用PyTorch在CPU+GPU平臺(tái)上實(shí)現(xiàn),該平臺(tái)配備Intel?CoreTMi7-7700@3.60 GHz 中央處理器和NVIDIA GeForce GTX 1080Ti 圖形處理器.在實(shí)驗(yàn)中,設(shè)置γ=30,λ=0.5,α=9,τ=10.

    使用的圖像擾動(dòng)設(shè)置如下.

    1)圖像遮擋.每個(gè)像素值有0.1的概率被遮擋,被遮擋像素采用其周圍3×3范圍內(nèi)的像素值均值進(jìn)行填充.

    2)圖像縮放與裁剪.原始圖像隨機(jī)縮放至高為110≤H≤130,寬為260≤W≤280,并隨機(jī)從縮放的圖像中裁剪100×240的圖像塊用于訓(xùn)練.

    3)亮度對比度變換.對圖像的亮度和對比度進(jìn)行隨機(jī)調(diào)整,亮度和對比度將在當(dāng)前圖像亮度對比度的0.7倍到1.3倍之間進(jìn)行隨機(jī)變化.

    圖像旋轉(zhuǎn)設(shè)置如下:順時(shí)針或逆時(shí)針隨機(jī)旋轉(zhuǎn)0°~3°,采用最近鄰進(jìn)行補(bǔ)邊.

    2.3 算法性能測評

    本節(jié)旨在實(shí)現(xiàn)CNN在跨數(shù)據(jù)集條件下的快速遷移應(yīng)用并取得滿足需求的優(yōu)良性能.

    為了評估模型的有效性,選擇如下對比模型:文獻(xiàn)[8]模型,MSFBF-Net(Multi-scale Feature Bili-near Fusion Network)[9],文獻(xiàn)[20]模型,文獻(xiàn)[21]模型,FV-GAN(Finger Vein Representation Using Generative Adversarial Networks)[22],LCNN(Light CNN)[23],CNN-CO(CNN Competitive Order)[24],文獻(xiàn)[27]模型,HGAN(Hierarchical Generative Adver-sarial Network)[28],Merge CNN[29],VGG-16[31],文獻(xiàn)[39]模型,文獻(xiàn)[40]算法,文獻(xiàn)[41]算法,文獻(xiàn)[42]算法,SRLRR(Sparse Reconstruction Error Con-strained Low-Rank Representation)[43],文獻(xiàn)[44]模型.

    首先,對比分析本文模型在跨數(shù)據(jù)集實(shí)驗(yàn)設(shè)置下的性能(包括識(shí)別性能和遷移學(xué)習(xí)效率),結(jié)果如表2所示,表中黑體數(shù)字表示最優(yōu)值.實(shí)驗(yàn)中根據(jù)表1的劃分,選擇B0作為源數(shù)據(jù)集.對于本文模型,首先在源數(shù)據(jù)集上執(zhí)行第一階段的訓(xùn)練,獲得可泛化到不同任務(wù)的CNN組件.然后,在應(yīng)用數(shù)據(jù)集上實(shí)施第二階段遷移,即使用應(yīng)用數(shù)據(jù)的模板圖像訓(xùn)練改進(jìn)ELM分類器并與CNN組件相連,構(gòu)成最終模型.

    為了公平對比,部分典型模型(未標(biāo)記*)同樣采用兩階段學(xué)習(xí)策略進(jìn)行訓(xùn)練和測試.具體而言,首先在預(yù)訓(xùn)練數(shù)據(jù)上訓(xùn)練模型,然后在工作數(shù)據(jù)上對其所有參數(shù)進(jìn)行微調(diào).

    此外,為了確保結(jié)果更加真實(shí)可靠,表2同時(shí)對比與本文實(shí)驗(yàn)方案一致的最新模型(標(biāo)記為*),它們在表中的結(jié)果均來自原文獻(xiàn).表2中所有模型的訓(xùn)練時(shí)間均不包括在源數(shù)據(jù)集上對模型進(jìn)行充分訓(xùn)練的時(shí)間,僅為在目標(biāo)任務(wù)上微調(diào)模型的時(shí)間,并且均為在4個(gè)數(shù)據(jù)集上訓(xùn)練的平均時(shí)間.

    由表2中結(jié)果可以看到,本文模型在3個(gè)數(shù)據(jù)集上均取得最高的識(shí)別精度,并在SDU-MLA數(shù)據(jù)集上,取得與最佳模型基本同等的性能.并且由于本文模型不需要在目標(biāo)任務(wù)上訓(xùn)練CNN組件,遷移訓(xùn)練速度遠(yuǎn)優(yōu)于其它模型.盡管部分基于CNN的對比模型沒有給出學(xué)習(xí)時(shí)間,但由于它們都需要在目標(biāo)數(shù)據(jù)上訓(xùn)練CNN組件,且學(xué)習(xí)方案十分復(fù)雜,因此它們的訓(xùn)練時(shí)間不可避免地遠(yuǎn)超本文模型.

    表2 各模型在目標(biāo)數(shù)據(jù)上的性能評估

    在不調(diào)整CNN參數(shù)情況下,本文模型與典型指靜脈識(shí)別模型在跨數(shù)據(jù)集應(yīng)用條件下的性能對比結(jié)果如表3所示,表中黑體數(shù)字表示最優(yōu)值.

    與表2實(shí)驗(yàn)不同,表3中模型均僅在源數(shù)據(jù)集D0上訓(xùn)練CNN.之所以選擇D0作為源數(shù)據(jù)集進(jìn)行后續(xù)的遷移實(shí)驗(yàn),是因?yàn)镻olyU數(shù)據(jù)集與其它數(shù)據(jù)集間的差異更大,圖像的姿態(tài)更多變,遷移性能面臨的考驗(yàn)更嚴(yán)峻.由于基于全連接結(jié)構(gòu)的分類模型無法直接識(shí)別新類別,為此采用在目標(biāo)任務(wù)上調(diào)整分類器(全連接層)的方式進(jìn)行模型遷移.對于基于驗(yàn)證的方法,直接使用在源數(shù)據(jù)集上訓(xùn)練的模型識(shí)別目標(biāo)數(shù)據(jù).

    為了確保實(shí)驗(yàn)的公平性,采用先提取所有訓(xùn)練樣本深度特征,再使用這些特征優(yōu)化分類器的方案.因此,表3中所示的時(shí)間由兩部分組成,分別為提取所有樣本特征的時(shí)間和使用這些特征訓(xùn)練分類器的時(shí)間.基于驗(yàn)證的方法可以直接應(yīng)用到目標(biāo)任務(wù),訓(xùn)練時(shí)間為0 s.基于分類的方法需要采用基于梯度下降的迭代策略訓(xùn)練分類器.相比本文模型,在訓(xùn)練時(shí)間上有較明顯的增加.

    在精度上,由于數(shù)據(jù)集的潛在分布差異,對比模型在目標(biāo)數(shù)據(jù)集上發(fā)生顯著的性能下降.本文模型由于采用改進(jìn)ELM分類器對應(yīng)用數(shù)據(jù)進(jìn)行快速學(xué)習(xí),且CNN組件在預(yù)訓(xùn)練階段對遷移應(yīng)用進(jìn)行針對性設(shè)計(jì),因此在不同數(shù)據(jù)集上均取得最佳結(jié)果.此外,由于單幅圖像的特征提取時(shí)間很短,在實(shí)際應(yīng)用中可以在采集的同時(shí)進(jìn)行,因此本文模型實(shí)際所需的訓(xùn)練時(shí)間僅為改進(jìn)ELM分類器的學(xué)習(xí)時(shí)間,而這部分時(shí)間約為2 s.

    表3 各模型跨數(shù)據(jù)集的性能評估

    此外,在允許后臺(tái)維護(hù)或者進(jìn)行長時(shí)間訓(xùn)練的情況下,可以在執(zhí)行第二階段遷移后,對模型的所有參數(shù)進(jìn)行微調(diào)以更好地適應(yīng)目標(biāo)任務(wù).為此,本文提出結(jié)合ELM和CNN的端到端優(yōu)化算法.

    為了考察該優(yōu)化算法的性能,進(jìn)行如下實(shí)驗(yàn).在實(shí)驗(yàn)中,本文模型在表2對應(yīng)的模型基礎(chǔ)上,采用式(9)中的目標(biāo)函數(shù)進(jìn)行進(jìn)一步優(yōu)化,并與在每個(gè)數(shù)據(jù)集上取得最佳結(jié)果的模型進(jìn)行對比.具體結(jié)果如表4所示,表中黑體數(shù)字表示最優(yōu)值.由表可以看到,本文模型在對CNN組件進(jìn)行調(diào)整后,除了SDU-MLA數(shù)據(jù)集以外,均取得最佳的識(shí)別結(jié)果.值得注意的是,對比表2的結(jié)果可以看到,本文模型在進(jìn)行端到端學(xué)習(xí)后,在SDU-MLA數(shù)據(jù)集上取得次高的識(shí)別精度,但本文模型為6折交叉驗(yàn)證的平均結(jié)果,更可靠.

    此外,對比表2和表4的結(jié)果不難發(fā)現(xiàn),為了保障模型在應(yīng)用階段的遷移效率,不可避免地降低識(shí)別性能,但對于本文模型,識(shí)別性能損失很小,在可以接受的范圍內(nèi).

    表4 在目標(biāo)數(shù)據(jù)上調(diào)整CNN參數(shù)后的跨數(shù)據(jù)集的性能評估

    2.4 算法有效性測評

    為了提升模型的泛化性能以及遷移效率,設(shè)計(jì)兩階段學(xué)習(xí)策略,并針對每個(gè)階段提出相應(yīng)的優(yōu)化算法.本節(jié)將分別考察這些設(shè)計(jì)的有效性.

    2.4.1 階段1算法的有效性評估

    第一階段旨在獲得一個(gè)可以較好泛化到不同目標(biāo)任務(wù)的特征提取器,為此,設(shè)計(jì)偏差場矯正網(wǎng)絡(luò)以及引導(dǎo)CNN提取魯棒特征的學(xué)習(xí)算法.為了評估這些設(shè)計(jì)的有效性,設(shè)置如下對比實(shí)驗(yàn).

    1)Lclu.僅使用Lclu訓(xùn)練VGG-16,作為基準(zhǔn)模型.

    2)Lclu+Linv.使用Lclu和Linv訓(xùn)練VGG-16.

    3)Lclu+Lrec.使用Lclu訓(xùn)練VGG-16,并添加偏差場矯正網(wǎng)絡(luò).

    4)Lclu+Linv+Lrec.使用本文設(shè)計(jì)的損失函數(shù)完成第一階段的訓(xùn)練.

    在實(shí)驗(yàn)中,選擇D0作為源數(shù)據(jù)集,并在第一階段分別執(zhí)行上述實(shí)驗(yàn)設(shè)置后,考察模型遷移到應(yīng)用數(shù)據(jù)后的表現(xiàn).所有模型在第二階段均采用相同的方式,即在第二階段訓(xùn)練改進(jìn)ELM分類器,并與第一階段獲得的CNN組件組合,得到遷移后的模型.

    第一階段訓(xùn)練的有效性評估結(jié)果如表5所示.對比Lclu和Lclu+Linv的結(jié)果可以發(fā)現(xiàn),在添加Linv損失后,模型性能得到一定提升,這說明設(shè)計(jì)的Linv損失能夠提高模型對擾動(dòng)的魯棒性,改善模型遷移后的表現(xiàn).在基準(zhǔn)網(wǎng)絡(luò)上添加Lrec后,模型在目標(biāo)任務(wù)上的性能得到大幅提升,該結(jié)果表明偏差場矯正網(wǎng)絡(luò)能夠大幅消除數(shù)據(jù)集間的差異,提升模型遷移后的識(shí)別性能.在Lclu+Linv+Lrec的設(shè)置下,模型在4個(gè)數(shù)據(jù)集上均取得最優(yōu)值,表明各項(xiàng)措施均是有效的.

    表5 第一階段訓(xùn)練的有效性評估

    此外,從表5中結(jié)果可以看到,在使用偏差場矯正網(wǎng)絡(luò)后,模型性能得到顯著提升,這表明該網(wǎng)絡(luò)能夠降低不同數(shù)據(jù)集間的分布差異.為了更好地驗(yàn)證此結(jié)論,給出僅在D0上訓(xùn)練的偏差場矯正網(wǎng)絡(luò)在不同目標(biāo)數(shù)據(jù)集上的表現(xiàn),結(jié)果如圖2所示.

    在圖2中,每組結(jié)果的第2行為偏差場矯正網(wǎng)絡(luò)的輸出,第3行為采用偏差場矯正算法[8]處理后的輸出結(jié)果.從圖中結(jié)果可以看到,偏差場矯正能夠消除圖像偏差場并生成具有更高一致性和分辨力的增強(qiáng)圖像.

    (a1)原始圖像

    (a2)偏差場矯正網(wǎng)絡(luò)

    (a3)偏差場矯正算法

    (b1)原始圖像

    (b2)偏差場矯正網(wǎng)絡(luò)

    (b3)偏差場矯正算法

    (c1)原始圖像

    (c2)偏差場矯正網(wǎng)絡(luò)

    (c3)偏差場矯正算法

    (d1)原始圖像

    (d2)偏差場矯正網(wǎng)絡(luò)

    (d3)偏差場矯正算法

    2.4.2 改進(jìn)ELM的有效性評估

    為了考察改進(jìn)ELM分類器的有效性,分別使用ELM分類器[19]、TransM-RKELM(Transfer Learning Mixed and Reduced Kernel Extreme Learning Ma-chine)[45]、SLFN(Single-Hidden Layer Feedforward Network)替換本文的改進(jìn)ELM分類器(簡記為Modified ELM).

    在實(shí)驗(yàn)中,首先,使用D0作為源數(shù)據(jù),并采用第一階段的學(xué)習(xí)算法獲得特征提取組件.然后,在第二階段訓(xùn)練的過程中分別使用不同的分類器以及對應(yīng)的訓(xùn)練策略進(jìn)行模型遷移,并測試它們在目標(biāo)任務(wù)上的遷移學(xué)習(xí)效率和識(shí)別精度.

    由于THU數(shù)據(jù)集僅提供1幅圖像用于訓(xùn)練,不利于分類器參數(shù)的求取,為此,將1幅原始圖像隨機(jī)裁剪成6幅子圖像用于訓(xùn)練.進(jìn)一步地,考慮到特征提取通??梢栽诓杉瘓D像的過程中執(zhí)行,因此僅計(jì)算訓(xùn)練分類器的時(shí)間.

    各對比模型在SDU-MLA、THU、FV-USM、PolyU數(shù)據(jù)集上的識(shí)別精度和訓(xùn)練時(shí)間如表6所示,表中黑體數(shù)字表示最優(yōu)值.

    從表6中結(jié)果可以看到,在識(shí)別性能上,ELM和TransM-RKELM憑借其獨(dú)特的求解算法取得略優(yōu)于200個(gè)迭代周期的SLFN的性能,且TransM-RKELM由于使用核函數(shù)并進(jìn)行融合,取得優(yōu)于ELM的結(jié)果.將ELM的隱層替換為基于高斯核函數(shù)的Modi- fied ELM,利用特征基于簇分布的特點(diǎn),在實(shí)驗(yàn)中取得最佳的識(shí)別性能,這驗(yàn)證改進(jìn)措施在改善分類器性能的有效性.

    在遷移學(xué)習(xí)效率上,基于ELM的分類器(ELM、TransM-RKELM、Modified ELM)均遠(yuǎn)快于SLFN.盡管ELM訓(xùn)練時(shí)間快于本文使用的分類器,但它們均能滿足實(shí)時(shí)應(yīng)用的需求.綜合考慮遷移效率和識(shí)別性能,本文模型具備更優(yōu)的表現(xiàn).

    表6 不同分類器用于第二階段遷移時(shí)的性能評估

    2.5 源數(shù)據(jù)集對遷移性能的影響

    在上述實(shí)驗(yàn)中,需要選擇一個(gè)數(shù)據(jù)集作為源數(shù)據(jù),并通過在該數(shù)據(jù)集的訓(xùn)練,獲得一個(gè)可以泛化到不同目標(biāo)任務(wù)的模型.由于不同數(shù)據(jù)集的規(guī)模不同、圖像的多樣性不同,選擇不同的源數(shù)據(jù)集將對模型的泛化能力造成影響.為了評估影響的程度,分別選擇4個(gè)數(shù)據(jù)集中的一個(gè)作為源數(shù)據(jù)集,并評估模型在其余3個(gè)數(shù)據(jù)集上的表現(xiàn),識(shí)別精度如表7所示.根據(jù)表中結(jié)果不難發(fā)現(xiàn),選擇不同的源數(shù)據(jù)集,模型在目標(biāo)任務(wù)上的性能會(huì)發(fā)生改變.對于本文模型,由源數(shù)據(jù)不同而引起的性能波動(dòng)很小,這表明本文模型對源數(shù)據(jù)的規(guī)模和多樣性具有很低的依賴性.

    表7 跨數(shù)據(jù)集交叉驗(yàn)證實(shí)驗(yàn)結(jié)果

    3 結(jié) 束 語

    受深度模型巨量計(jì)算開銷以及不同數(shù)據(jù)集間數(shù)據(jù)差異的影響,預(yù)訓(xùn)練的CNN難以高效應(yīng)用到新數(shù)據(jù)集并取得滿足使用需求的優(yōu)良性能,限制其在跨數(shù)據(jù)集指靜脈識(shí)別中的應(yīng)用.為了克服該問題,本文從提升模型泛化性能和遷移學(xué)習(xí)效率兩方面出發(fā),提出面向跨數(shù)據(jù)集指靜脈識(shí)別的可快速遷移模型.在階段一中,旨在提升模型的泛化性能,使用偏差場矯正網(wǎng)絡(luò)消除圖像偏差場,生成具有更高一致性的增強(qiáng)圖像,降低不同數(shù)據(jù)集分布差異對識(shí)別性能的影響.在此基礎(chǔ)上,在特征空間中對齊同一圖像的不同擾動(dòng)結(jié)果,提取對擾動(dòng)不變的魯棒特征.同時(shí),基于特征的簇分布假設(shè),將特征按照類別信息進(jìn)行聚類,增加不同類別之間的裕度,提升特征的判別力和魯棒性.在階段二中,旨在利用目標(biāo)任務(wù)的模板圖像更好地遷移模型,并滿足應(yīng)用場景對遷移效率的需求,對ELM進(jìn)行適當(dāng)改進(jìn),同時(shí)改進(jìn)分類器,完成模型從源數(shù)據(jù)集向目標(biāo)數(shù)據(jù)的快速遷移.在四個(gè)公開指靜脈數(shù)據(jù)集上的實(shí)驗(yàn)表明,在不考慮特征提取時(shí)間的前提下,本文模型可以在不到2 s的時(shí)間內(nèi),將在源數(shù)據(jù)集訓(xùn)練的模型遷移應(yīng)用到新數(shù)據(jù)集,并取得與在應(yīng)用數(shù)據(jù)上進(jìn)行充分端到端訓(xùn)練的先進(jìn)模型同等的識(shí)別性能.

    在研究中,僅針對指靜脈識(shí)別任務(wù)對算法的有效性進(jìn)行評估.考慮到不同的應(yīng)用領(lǐng)域,數(shù)據(jù)分布以及數(shù)據(jù)漂移產(chǎn)生的機(jī)理可能不同,值得進(jìn)一步研究算法是否有效.同時(shí),考慮到特征提取組件使用VGG-16結(jié)構(gòu),偏差場矯正網(wǎng)絡(luò)使用U-Net結(jié)構(gòu),模型結(jié)構(gòu)較復(fù)雜,對于邊緣設(shè)備,模型部署存在困難,因此,設(shè)計(jì)更通用、輕量級的模型同樣值得研究.

    猜你喜歡
    模型
    一半模型
    一種去中心化的域名服務(wù)本地化模型
    適用于BDS-3 PPP的隨機(jī)模型
    提煉模型 突破難點(diǎn)
    函數(shù)模型及應(yīng)用
    p150Glued在帕金森病模型中的表達(dá)及分布
    函數(shù)模型及應(yīng)用
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    3D打印中的模型分割與打包
    不卡av一区二区三区| 亚洲七黄色美女视频| 黄频高清免费视频| 女警被强在线播放| 欧美国产精品一级二级三级| 手机成人av网站| 亚洲国产精品sss在线观看 | av不卡在线播放| 在线十欧美十亚洲十日本专区| 亚洲欧美激情在线| 女性被躁到高潮视频| 日韩中文字幕欧美一区二区| 亚洲第一av免费看| 少妇 在线观看| 悠悠久久av| videos熟女内射| 另类亚洲欧美激情| 欧美日韩乱码在线| 中文字幕人妻熟女乱码| 制服人妻中文乱码| 看免费av毛片| 午夜两性在线视频| 一级a爱片免费观看的视频| 午夜福利,免费看| 国产精品av久久久久免费| 国产精品久久视频播放| 国产国语露脸激情在线看| 老司机午夜福利在线观看视频| 久久久久精品国产欧美久久久| 色综合婷婷激情| 侵犯人妻中文字幕一二三四区| 久久久久久久国产电影| av视频免费观看在线观看| 大陆偷拍与自拍| 丝袜人妻中文字幕| 一级片'在线观看视频| 亚洲 欧美一区二区三区| 色婷婷久久久亚洲欧美| 老熟女久久久| 精品人妻熟女毛片av久久网站| 一夜夜www| 欧美日韩福利视频一区二区| 免费久久久久久久精品成人欧美视频| 色综合婷婷激情| 在线观看免费视频日本深夜| 一a级毛片在线观看| 国产精品香港三级国产av潘金莲| 欧美激情极品国产一区二区三区| 亚洲一区二区三区欧美精品| 18禁裸乳无遮挡动漫免费视频| 女人爽到高潮嗷嗷叫在线视频| 国产欧美日韩一区二区精品| av有码第一页| 国产男靠女视频免费网站| 黄片小视频在线播放| 成人免费观看视频高清| 中文字幕人妻熟女乱码| 日日爽夜夜爽网站| ponron亚洲| 久久久精品免费免费高清| 日韩视频一区二区在线观看| 久久香蕉激情| 一级毛片高清免费大全| 伊人久久大香线蕉亚洲五| 热99久久久久精品小说推荐| 黄片大片在线免费观看| 两个人看的免费小视频| 9热在线视频观看99| 亚洲成人免费av在线播放| 日韩三级视频一区二区三区| 亚洲五月天丁香| 校园春色视频在线观看| 国产精品免费视频内射| 午夜免费观看网址| 欧美日韩视频精品一区| 亚洲色图综合在线观看| 国产欧美日韩一区二区三区在线| 色94色欧美一区二区| 国产成人av教育| 免费一级毛片在线播放高清视频 | 美女国产高潮福利片在线看| 午夜福利乱码中文字幕| 久久久久国内视频| av国产精品久久久久影院| 身体一侧抽搐| 成人亚洲精品一区在线观看| 狂野欧美激情性xxxx| 91九色精品人成在线观看| 日韩制服丝袜自拍偷拍| 香蕉丝袜av| 国产97色在线日韩免费| 欧美日韩av久久| 一区二区日韩欧美中文字幕| 十八禁人妻一区二区| 国产精品免费大片| 热re99久久精品国产66热6| 欧美激情 高清一区二区三区| 一边摸一边抽搐一进一小说 | 岛国毛片在线播放| e午夜精品久久久久久久| 咕卡用的链子| 两个人免费观看高清视频| 亚洲国产欧美一区二区综合| 精品第一国产精品| 欧美+亚洲+日韩+国产| 成人免费观看视频高清| 亚洲综合色网址| 欧美不卡视频在线免费观看 | 中亚洲国语对白在线视频| 高清在线国产一区| videos熟女内射| 美女午夜性视频免费| 午夜精品国产一区二区电影| 国内毛片毛片毛片毛片毛片| 日韩欧美在线二视频 | av网站免费在线观看视频| 成人三级做爰电影| 侵犯人妻中文字幕一二三四区| 他把我摸到了高潮在线观看| 在线观看免费午夜福利视频| 免费在线观看视频国产中文字幕亚洲| 午夜福利一区二区在线看| 免费看十八禁软件| 丁香六月欧美| 国产在线观看jvid| 18在线观看网站| 亚洲情色 制服丝袜| 身体一侧抽搐| 性色av乱码一区二区三区2| 一区在线观看完整版| 色婷婷av一区二区三区视频| 国产亚洲精品久久久久5区| 欧美日韩av久久| 欧美不卡视频在线免费观看 | 国产色视频综合| 国产欧美日韩一区二区精品| 操出白浆在线播放| 三级毛片av免费| 亚洲avbb在线观看| 黄片播放在线免费| 手机成人av网站| 99国产综合亚洲精品| 欧美乱妇无乱码| 自拍欧美九色日韩亚洲蝌蚪91| 午夜91福利影院| 精品人妻1区二区| 欧美日本中文国产一区发布| 狠狠狠狠99中文字幕| 欧美中文综合在线视频| 一进一出抽搐gif免费好疼 | 午夜成年电影在线免费观看| 男人舔女人的私密视频| 夜夜爽天天搞| 一级毛片高清免费大全| 国产蜜桃级精品一区二区三区 | 无遮挡黄片免费观看| 99国产精品一区二区蜜桃av | 五月开心婷婷网| 狂野欧美激情性xxxx| 国产精品99久久99久久久不卡| 亚洲男人天堂网一区| 18禁黄网站禁片午夜丰满| 国产成+人综合+亚洲专区| 国产主播在线观看一区二区| 国产麻豆69| 色婷婷久久久亚洲欧美| 天堂动漫精品| 自拍欧美九色日韩亚洲蝌蚪91| 侵犯人妻中文字幕一二三四区| 十八禁网站免费在线| 女人精品久久久久毛片| 丰满饥渴人妻一区二区三| 国产三级黄色录像| 一级片'在线观看视频| 国产精品1区2区在线观看. | 成人18禁高潮啪啪吃奶动态图| 女人被躁到高潮嗷嗷叫费观| 男女下面插进去视频免费观看| 国产精品一区二区在线不卡| 精品人妻1区二区| 交换朋友夫妻互换小说| 少妇猛男粗大的猛烈进出视频| 精品亚洲成国产av| 成年人黄色毛片网站| 9191精品国产免费久久| 丰满的人妻完整版| 三级毛片av免费| 曰老女人黄片| 亚洲av电影在线进入| 校园春色视频在线观看| 亚洲全国av大片| 高清黄色对白视频在线免费看| 久久久久精品国产欧美久久久| 国产精品久久久久久精品古装| 丝袜美腿诱惑在线| 制服人妻中文乱码| 精品久久久久久,| 又大又爽又粗| 香蕉久久夜色| 天堂动漫精品| 男女高潮啪啪啪动态图| 精品电影一区二区在线| 男女之事视频高清在线观看| 91精品国产国语对白视频| 亚洲国产精品sss在线观看 | 狂野欧美激情性xxxx| 成人特级黄色片久久久久久久| 老司机影院毛片| 成熟少妇高潮喷水视频| 999精品在线视频| 在线看a的网站| 久久人人爽av亚洲精品天堂| 99国产极品粉嫩在线观看| 亚洲精华国产精华精| 久久国产亚洲av麻豆专区| 日韩 欧美 亚洲 中文字幕| 中文欧美无线码| 久久精品国产综合久久久| 一进一出好大好爽视频| 热99re8久久精品国产| 又黄又爽又免费观看的视频| 一个人免费在线观看的高清视频| 黑人猛操日本美女一级片| 亚洲国产欧美日韩在线播放| 免费人成视频x8x8入口观看| 亚洲 欧美一区二区三区| 国产一区在线观看成人免费| 午夜老司机福利片| 亚洲色图av天堂| 视频区欧美日本亚洲| 亚洲avbb在线观看| 免费看a级黄色片| a级毛片在线看网站| 99久久99久久久精品蜜桃| 国产不卡一卡二| 国产欧美日韩综合在线一区二区| 久久香蕉精品热| 少妇裸体淫交视频免费看高清 | 亚洲欧洲精品一区二区精品久久久| 飞空精品影院首页| 色精品久久人妻99蜜桃| 又黄又粗又硬又大视频| 在线天堂中文资源库| 自拍欧美九色日韩亚洲蝌蚪91| 久久婷婷成人综合色麻豆| 国产成人精品久久二区二区91| 高潮久久久久久久久久久不卡| 丁香欧美五月| 性少妇av在线| 精品国产亚洲在线| 免费看十八禁软件| 午夜福利影视在线免费观看| 99国产精品免费福利视频| 久久精品国产99精品国产亚洲性色 | 天天添夜夜摸| 人人妻人人添人人爽欧美一区卜| 丁香欧美五月| 99热网站在线观看| 欧美日韩亚洲高清精品| 亚洲黑人精品在线| 国产亚洲精品一区二区www | 精品福利观看| 国产一区二区三区在线臀色熟女 | 夫妻午夜视频| 欧美日韩瑟瑟在线播放| 少妇粗大呻吟视频| 欧美午夜高清在线| 亚洲性夜色夜夜综合| 午夜精品久久久久久毛片777| 亚洲欧洲精品一区二区精品久久久| 一二三四在线观看免费中文在| 在线观看一区二区三区激情| 狠狠婷婷综合久久久久久88av| 日本vs欧美在线观看视频| 国产1区2区3区精品| 自线自在国产av| 日韩熟女老妇一区二区性免费视频| 国产精品秋霞免费鲁丝片| 看片在线看免费视频| 波多野结衣av一区二区av| 精品免费久久久久久久清纯 | 黄片大片在线免费观看| 又黄又爽又免费观看的视频| 极品教师在线免费播放| 在线国产一区二区在线| 亚洲精品粉嫩美女一区| 久久午夜综合久久蜜桃| 一区福利在线观看| 欧美日韩福利视频一区二区| 亚洲精品中文字幕在线视频| 在线观看免费日韩欧美大片| 亚洲三区欧美一区| 中亚洲国语对白在线视频| 两性午夜刺激爽爽歪歪视频在线观看 | 国产亚洲欧美在线一区二区| 国产精品一区二区在线不卡| 午夜福利一区二区在线看| 久久久国产成人精品二区 | 成人亚洲精品一区在线观看| 窝窝影院91人妻| 午夜免费观看网址| 美女扒开内裤让男人捅视频| 久久国产精品男人的天堂亚洲| 国产国语露脸激情在线看| 精品少妇一区二区三区视频日本电影| av网站免费在线观看视频| 午夜91福利影院| 久久久水蜜桃国产精品网| 精品第一国产精品| 91麻豆精品激情在线观看国产 | 国产精品国产高清国产av | 亚洲精品成人av观看孕妇| 欧美日韩乱码在线| 亚洲一区二区三区不卡视频| 亚洲人成77777在线视频| 两个人看的免费小视频| 国产av一区二区精品久久| 婷婷丁香在线五月| 久久国产乱子伦精品免费另类| 三级毛片av免费| 国产一区二区三区视频了| 母亲3免费完整高清在线观看| 欧美乱色亚洲激情| 免费高清在线观看日韩| 色播在线永久视频| 欧美日韩中文字幕国产精品一区二区三区 | 五月开心婷婷网| 精品一区二区三区av网在线观看| 80岁老熟妇乱子伦牲交| 亚洲精品国产一区二区精华液| 国产在线观看jvid| 久久久久国产一级毛片高清牌| 亚洲av成人不卡在线观看播放网| 日韩有码中文字幕| 大型黄色视频在线免费观看| bbb黄色大片| 免费在线观看影片大全网站| 欧美人与性动交α欧美精品济南到| 亚洲欧美激情在线| 亚洲一区二区三区欧美精品| 欧美精品亚洲一区二区| 国产黄色免费在线视频| 久久国产精品影院| a在线观看视频网站| 成年版毛片免费区| 老鸭窝网址在线观看| 在线十欧美十亚洲十日本专区| 亚洲av电影在线进入| 一区二区三区国产精品乱码| 久久久久久久午夜电影 | 99国产极品粉嫩在线观看| 日韩有码中文字幕| 好男人电影高清在线观看| 一级作爱视频免费观看| 男人舔女人的私密视频| 午夜老司机福利片| 婷婷精品国产亚洲av在线 | 国产高清激情床上av| 亚洲综合色网址| 欧美av亚洲av综合av国产av| 亚洲免费av在线视频| 韩国精品一区二区三区| 99精品久久久久人妻精品| 老汉色∧v一级毛片| 亚洲一区二区三区欧美精品| 日韩中文字幕欧美一区二区| 超色免费av| 一级黄色大片毛片| 桃红色精品国产亚洲av| 美女视频免费永久观看网站| 后天国语完整版免费观看| 精品国产超薄肉色丝袜足j| 在线观看午夜福利视频| 一区二区三区激情视频| 午夜精品在线福利| 午夜视频精品福利| 午夜老司机福利片| 午夜福利视频在线观看免费| 亚洲成国产人片在线观看| 新久久久久国产一级毛片| 免费在线观看亚洲国产| 新久久久久国产一级毛片| 日本vs欧美在线观看视频| 日韩欧美国产一区二区入口| 两人在一起打扑克的视频| 极品少妇高潮喷水抽搐| 精品无人区乱码1区二区| 黑人巨大精品欧美一区二区蜜桃| 首页视频小说图片口味搜索| 丁香欧美五月| 校园春色视频在线观看| 国产一卡二卡三卡精品| xxx96com| 午夜免费观看网址| 人人妻人人添人人爽欧美一区卜| 黄色视频不卡| 中文字幕av电影在线播放| 国产精品九九99| 在线国产一区二区在线| 成在线人永久免费视频| netflix在线观看网站| 国产精品一区二区在线观看99| 91九色精品人成在线观看| 黄色视频,在线免费观看| 国产成+人综合+亚洲专区| 国产精品自产拍在线观看55亚洲 | 老鸭窝网址在线观看| 国产精品98久久久久久宅男小说| 成人手机av| 麻豆成人av在线观看| 欧美乱妇无乱码| 国产精品国产高清国产av | 黄色怎么调成土黄色| 老熟女久久久| 欧美日韩亚洲高清精品| videosex国产| 欧美中文综合在线视频| 丝瓜视频免费看黄片| 中国美女看黄片| 热re99久久国产66热| 亚洲精品一二三| 亚洲欧美激情综合另类| 一本综合久久免费| 久久久久久人人人人人| 久久亚洲精品不卡| 亚洲av第一区精品v没综合| 99国产精品99久久久久| 深夜精品福利| 久久九九热精品免费| 九色亚洲精品在线播放| 亚洲精品一卡2卡三卡4卡5卡| 99在线人妻在线中文字幕 | 一进一出抽搐gif免费好疼 | 国产97色在线日韩免费| 午夜激情av网站| 国产午夜精品久久久久久| 成人影院久久| 欧美av亚洲av综合av国产av| 午夜精品在线福利| 丝袜美足系列| 国产成人欧美| 人人妻人人爽人人添夜夜欢视频| 国产97色在线日韩免费| 91成人精品电影| 国产麻豆69| 欧美亚洲日本最大视频资源| 黄频高清免费视频| 两人在一起打扑克的视频| 亚洲午夜理论影院| a级片在线免费高清观看视频| 熟女少妇亚洲综合色aaa.| 十八禁网站免费在线| 成年动漫av网址| 在线观看一区二区三区激情| 一进一出好大好爽视频| 精品国产乱子伦一区二区三区| 亚洲中文av在线| 亚洲成人手机| 91av网站免费观看| 午夜激情av网站| 一区二区三区精品91| 每晚都被弄得嗷嗷叫到高潮| 精品国产一区二区久久| tube8黄色片| 欧洲精品卡2卡3卡4卡5卡区| 久久中文看片网| 亚洲精品av麻豆狂野| 90打野战视频偷拍视频| 欧美 亚洲 国产 日韩一| 亚洲av第一区精品v没综合| 亚洲精品一卡2卡三卡4卡5卡| 中文欧美无线码| 亚洲全国av大片| 日本vs欧美在线观看视频| 欧美在线黄色| 丰满迷人的少妇在线观看| 一二三四社区在线视频社区8| 啦啦啦视频在线资源免费观看| 久久国产精品大桥未久av| 国产免费男女视频| 亚洲国产欧美一区二区综合| 亚洲精品在线美女| 日本一区二区免费在线视频| 午夜福利视频在线观看免费| 伦理电影免费视频| 欧美日韩中文字幕国产精品一区二区三区 | 婷婷精品国产亚洲av在线 | 欧美黄色片欧美黄色片| 99国产精品99久久久久| 性色av乱码一区二区三区2| 国产精品免费视频内射| 视频区图区小说| 搡老岳熟女国产| 久久热在线av| 国产成人精品在线电影| 午夜激情av网站| 波多野结衣一区麻豆| 午夜影院日韩av| 夫妻午夜视频| 成人免费观看视频高清| 成年人午夜在线观看视频| 亚洲五月婷婷丁香| www.自偷自拍.com| 亚洲国产中文字幕在线视频| 两个人免费观看高清视频| 国产精品欧美亚洲77777| 国产又色又爽无遮挡免费看| 国产精品 欧美亚洲| 国产蜜桃级精品一区二区三区 | 99热只有精品国产| 午夜免费鲁丝| 亚洲人成77777在线视频| 久久精品国产综合久久久| 一个人免费在线观看的高清视频| 国产99久久九九免费精品| 啦啦啦 在线观看视频| 精品国内亚洲2022精品成人 | 狂野欧美激情性xxxx| 丁香欧美五月| 亚洲avbb在线观看| 国产又爽黄色视频| 国产男女内射视频| 18禁国产床啪视频网站| 久久午夜综合久久蜜桃| 亚洲精品一二三| 人妻丰满熟妇av一区二区三区 | 久99久视频精品免费| 久久久久久久国产电影| 久久午夜亚洲精品久久| 女人被躁到高潮嗷嗷叫费观| 国产成人一区二区三区免费视频网站| 国产精品影院久久| 国产97色在线日韩免费| 亚洲片人在线观看| 国产男女内射视频| 亚洲视频免费观看视频| √禁漫天堂资源中文www| 久久精品aⅴ一区二区三区四区| 日韩欧美在线二视频 | 久久久国产一区二区| 国产又爽黄色视频| 欧洲精品卡2卡3卡4卡5卡区| 久久精品熟女亚洲av麻豆精品| 自拍欧美九色日韩亚洲蝌蚪91| 亚洲片人在线观看| 正在播放国产对白刺激| 少妇被粗大的猛进出69影院| 欧美国产精品一级二级三级| a级片在线免费高清观看视频| 国产精品一区二区免费欧美| 亚洲成av片中文字幕在线观看| 夜夜躁狠狠躁天天躁| 女性生殖器流出的白浆| 老司机深夜福利视频在线观看| 天堂动漫精品| 精品国内亚洲2022精品成人 | 亚洲人成伊人成综合网2020| 男女午夜视频在线观看| 两人在一起打扑克的视频| 国产一区在线观看成人免费| 成人三级做爰电影| 国产真人三级小视频在线观看| 高清在线国产一区| 色94色欧美一区二区| 亚洲色图av天堂| 亚洲七黄色美女视频| 免费日韩欧美在线观看| 电影成人av| 亚洲成人免费电影在线观看| 在线观看免费日韩欧美大片| 国产一区二区三区视频了| 中文欧美无线码| 伊人久久大香线蕉亚洲五| 在线av久久热| 精品久久久久久,| www.精华液| 国产欧美日韩一区二区三| 最新美女视频免费是黄的| 欧美日本中文国产一区发布| 日日爽夜夜爽网站| 成人免费观看视频高清| 亚洲一区二区三区不卡视频| 亚洲一码二码三码区别大吗| 在线观看66精品国产| 国产精品偷伦视频观看了| 国产一区二区三区视频了| 精品一区二区三区四区五区乱码| 极品少妇高潮喷水抽搐| av网站在线播放免费| 18禁国产床啪视频网站| 脱女人内裤的视频| 免费观看人在逋| 欧美激情久久久久久爽电影 | 亚洲成人免费av在线播放| www.精华液| 高清视频免费观看一区二区| 在线国产一区二区在线| 久久精品国产亚洲av高清一级| 中文亚洲av片在线观看爽 | 久久精品国产a三级三级三级| 亚洲avbb在线观看| 成在线人永久免费视频| 999久久久精品免费观看国产| 国产男女内射视频| 精品久久久久久久毛片微露脸| 欧美日韩黄片免| 欧洲精品卡2卡3卡4卡5卡区| 日韩视频一区二区在线观看| 老司机靠b影院| 高清av免费在线| 亚洲九九香蕉| 热re99久久精品国产66热6| 国产精品免费大片| 国产精品自产拍在线观看55亚洲 | 最新在线观看一区二区三区|