劉潤基 王一丁
摘 要:
基于深度學(xué)習(xí)的指靜脈識別方法通常需要大量的計(jì)算資源,限制了其在嵌入設(shè)備上的推廣和普及,采用輕量級網(wǎng)絡(luò)又面臨模型參數(shù)減少導(dǎo)致準(zhǔn)確率下降的問題,為此提出一種基于指靜脈關(guān)鍵特征和AdaFace損失的輕量級識別算法。在MicroNet框架中,首先提出一種FMixconv卷積來替代原網(wǎng)絡(luò)中的深度卷積,減少參數(shù)的同時可以獲得靜脈特征的多尺度信息;其次引入輕量級注意力模塊CA模塊,從空間和通道上聚焦于靜脈特征的關(guān)鍵信息;最后在損失函數(shù)中加入AdaFace損失,通過特征范數(shù)對圖像質(zhì)量進(jìn)行評價,以減少圖像質(zhì)量下降對訓(xùn)練的影響。該算法在SDUMLA-HMT、FV-USM和自建數(shù)據(jù)集上的識別準(zhǔn)確率達(dá)到99.84%、99.39%和99.42%,而參數(shù)量僅有0.82 M。實(shí)驗(yàn)結(jié)果表明,該算法在準(zhǔn)確率和參數(shù)量大小上均領(lǐng)先于其他方法。
關(guān)鍵詞:指靜脈識別;輕量級網(wǎng)絡(luò);MicroNet;AdaFace損失
中圖分類號:TP391.41?? 文獻(xiàn)標(biāo)志碼:A??? 文章編號:1001-3695(2024)03-044-0933-06doi: 10.19734/j.issn.1001-3695.2023.06.0304
Research on lightweight recognition algorithm based on key features of finger vein and AdaFace loss
Liu Runji, Wang Yiding
(School of Information, North China University of Technology, Beijing 100144, China)
Abstract:
Finger vein recognition methods based on deep learning usually require a large amount of computing resources, it limits their promotion and popularization on embedded devices. The adoption of lightweight network faces the problem of decreasing accuracy due to the reduction of model parameters. Therefore, this paper proposed a lightweight recognition algorithm based on key features of finger vein and AdaFace loss. In the MicroNet network framework, firstly, this paper proposed FMixconv convolution to replace the deep convolution in the original network, which could obtain multi-scale information of vein features while reducing parameters. Secondly, the method used a lightweight attention module, CA module, to focus on key information of venous characteristics from space and channel. Finally, the algorithm added AdaFace loss into the loss function, through the characteristics of the norm to evaluate image quality, to reduce the impact of image quality degradation on training. The recognition accuracy of the proposed algorithm on SDUMLA-HMT, FV-USM and self-built datasets reached 99.84%, 99.39% and 99.42%, while the number of parameters was only 0.82 M. Experimental results show that the proposed network is ahead of other methods in accuracy and parameter size. Key words:finger vein recognition; lightweight network; MicroNet; AdaFace loss
0 引言
隨著現(xiàn)代科技的不斷發(fā)展,人們對身份安全信息愈發(fā)看重。生物特征識別作為身份認(rèn)證技術(shù)的一種解決方案,典型代表有人臉識別、指紋識別、虹膜識別和靜脈識別等。而指靜脈識別作為新一代的生物特征識別技術(shù),與人臉、指紋等其他生物特征相比,具有活體識別、皮下特征不可復(fù)制、特征唯一、識別穩(wěn)定、無法造假等優(yōu)勢,是人工智能時代十分安全精確的生物識別技術(shù)之一。
日本科研者Kono在2000年首次成功地將指靜脈識別用于身份認(rèn)證[1]。自此,指靜脈識別技術(shù)迅速發(fā)展,取得了大量的成果。對于指靜脈識別來說,提取準(zhǔn)確魯棒的特征是指靜脈識別的關(guān)鍵。2015年之前,指靜脈識別的方法被稱之為傳統(tǒng)方法。傳統(tǒng)方法主要以圖像處理、統(tǒng)計(jì)學(xué)等方法來提取指靜脈特征,并與分類方法相結(jié)合,進(jìn)行識別。這些方法大多都存在著計(jì)算復(fù)雜、識別效率較低、識別不夠魯棒等問題。
2015年之后,隨著深度學(xué)習(xí)的發(fā)展,以及其在計(jì)算機(jī)視覺領(lǐng)域取得的成果,大量學(xué)者開始將深度學(xué)習(xí)用于指靜脈識別之中,依靠傳統(tǒng)方法提取指靜脈特征的方法被深度學(xué)習(xí)方法所取代。Yeh等人[2]使用Cutout方法進(jìn)行數(shù)據(jù)增廣,將處理后的圖片送入ResNeXt-101中。Huang等人[3]在ResNet-50的基礎(chǔ)上,與基于U-Net的空間注意機(jī)制相結(jié)合,改進(jìn)設(shè)計(jì)了一種指靜脈分類CNN模型。Li等人[4]為了讓網(wǎng)絡(luò)更加注重指靜脈的紋理特征,先將指靜脈圖像分塊,再送入ViT模型與膠囊網(wǎng)絡(luò)相結(jié)合的網(wǎng)絡(luò)之中。戴坤龍[5]在ResNet的基礎(chǔ)上加入注意力機(jī)制,并與度量學(xué)習(xí)相結(jié)合,有效地提高了識別性能。
基于深度學(xué)習(xí)的方法基本都是以追求提升識別精確率為主要目的,采用的技術(shù)手段主要包括加深網(wǎng)絡(luò)結(jié)構(gòu)和增強(qiáng)卷積模塊特征提取功能等,這通常需要復(fù)雜的網(wǎng)絡(luò)模型結(jié)構(gòu),對硬件設(shè)備的計(jì)算能力要求較高,需要的內(nèi)存也大大增加。為解決這個問題,許多學(xué)者提出了不同的輕量級網(wǎng)絡(luò)。2016年,Iandola等人[6]提出了SqueezeNet,采用1×1卷積對上一層特征圖進(jìn)行降維,在準(zhǔn)確度幾乎與AlexNet一樣的情況下,參數(shù)量少。2017年谷歌提出了MobileNet[7], 將普通卷積分解成Deepthwise(DW卷積)和Pointwise(PW),兩者組合成深度可分離卷積,極大地減少了網(wǎng)絡(luò)的參數(shù)量。同年,ShuffleNet[8]使用逐點(diǎn)組卷積降低逐點(diǎn)卷積的復(fù)雜度,同時通過channle shuffle改善跨通道卷積的信息流通。2020年,華為設(shè)計(jì)了Ghost模塊,通過cheap operation以較小的計(jì)算量生成了更多的特征圖,并以此為基礎(chǔ)提出了GhostNet[9]。2021年,微軟設(shè)計(jì)了micro-factorized convolution和dynamic shift max激活函數(shù),并基于這兩個操作,提出了MicroNet[10],以極低的計(jì)算成本解決了當(dāng)參數(shù)極小時,網(wǎng)絡(luò)性能大幅下降的問題。
受到上述工作的啟發(fā),許多工作者開始研究如何在保持較高指靜脈識別準(zhǔn)確率的前提下精簡網(wǎng)絡(luò)結(jié)構(gòu),使其能夠部署到嵌入式開發(fā)板上。Shaheed等人[11]提出了一種基于深度可分離卷積的神經(jīng)網(wǎng)絡(luò)的預(yù)訓(xùn)練Xception模型用于指靜脈識別。Ren等人[12]基于MobileNetV3,將深度可分離卷積、倒殘差結(jié)構(gòu)和網(wǎng)絡(luò)搜索技術(shù)相結(jié)合,設(shè)計(jì)了一個輕量級的多模態(tài)特征融合網(wǎng)絡(luò) FPV-Net。牟家樂等人[13]在網(wǎng)絡(luò)中引用教師-學(xué)生網(wǎng)絡(luò)模式,對網(wǎng)絡(luò)進(jìn)行知識蒸餾,在保持較少參數(shù)量的情況下提高了識別的準(zhǔn)確率。Zhao等人[14]提出了一個輕量級的CNN, 全連接層輸出的特征向量長度為200,將softmax 損失與中心損失相結(jié)合。
以上方法大多都是結(jié)合指靜脈數(shù)據(jù)集樣本數(shù)量較少的特點(diǎn),自己搭建小型網(wǎng)絡(luò)或者對經(jīng)典網(wǎng)絡(luò)進(jìn)行壓縮,難以保證較高的識別準(zhǔn)確率。因此,設(shè)計(jì)一種能夠平衡識別準(zhǔn)確率和網(wǎng)絡(luò)大小的指靜脈識別網(wǎng)絡(luò)至關(guān)重要。為此,本文提出一種基于指靜脈關(guān)鍵特征和AdaFace損失的輕量級識別算法,相關(guān)工作包括:a)指靜脈感興趣區(qū)域提取;b)以MicroNet-M0作為基礎(chǔ)網(wǎng)絡(luò),使用低秩分解后的MixConv[15]代替深度卷積,使網(wǎng)絡(luò)能夠提取到靜脈圖像的多尺度特征;c)引入輕量級注意力模塊CA模塊[16],在幾乎可以忽略參數(shù)量的情況下,提高網(wǎng)絡(luò)在跨空間和跨通道上對指靜脈紋理的注意力;d)采用AdaFace損失與SoftTargetCrossEntropy損失相結(jié)合的方法,在減少靜脈缺失圖像對訓(xùn)練影響的同時,減少類內(nèi)距離,增大類間距離;e)將本文算法部署在嵌入式平臺,并與其他模型相比較。
1 MicroNet
在指靜脈圖像采集時,由于手指錯位、光線變換等影響,采取到的圖片質(zhì)量參差不齊,指靜脈血管與背景噪聲區(qū)分不明顯,需要選擇提取特征能力較強(qiáng)的神經(jīng)網(wǎng)絡(luò)。同時考慮到指靜脈數(shù)據(jù)集圖像數(shù)量較少的情況,采用復(fù)雜網(wǎng)絡(luò)雖然提取特征能力較強(qiáng),但是參數(shù)量較大,容易過擬合,而且后續(xù)的模型部署較為困難。MicroNet結(jié)構(gòu)簡單,特征提取能力較強(qiáng),解決了當(dāng)參數(shù)量極少時,網(wǎng)絡(luò)性能大幅下降的問題,適合部署在嵌入式開發(fā)板上。因此,本文采用MicroNet作為基礎(chǔ)網(wǎng)絡(luò)。
MicroNet作為一種輕量級網(wǎng)絡(luò),其使用micro-factorized convolution(MF-Dconv),通過低秩分解將深度卷積分解成數(shù)個小卷積,在減少網(wǎng)絡(luò)通道數(shù)的同時,使輸入輸出中特征圖包含的信息損失較小,并使用dynamic shift-max(DY-Shift-Max)作為激活函數(shù)。DY-Shift-Max是一種動態(tài)激活函數(shù),它可以在提升非線性表達(dá)的同時,使用動態(tài)的組間特征融合增加節(jié)點(diǎn)的連接性,盡量降低網(wǎng)絡(luò)深度減少對性能產(chǎn)生的影響。
MicroNet是由多個micro-block組成的,里面均包含了DY-Shift-Max作為激活函數(shù)。micro-block又分為block-A、block-B、block-C,結(jié)構(gòu)如圖1所示。
MicroNet-M0的網(wǎng)絡(luò)框架分為8個模塊。第1個模塊是stem層,用于縮小圖片尺寸,由兩個卷積層構(gòu)成,其大小分別為3×1和1×3。第2和第3個模塊是由block-A構(gòu)成。第4個模塊由block-B構(gòu)成。第5~7個模塊是由block-C構(gòu)成。而第8個模塊是由平均池化層和全連接層組成。MicroNet-M1~M3的網(wǎng)絡(luò)結(jié)構(gòu)是在三種micro-block的基礎(chǔ)上設(shè)計(jì),并修改特征層通道數(shù)、卷積分組數(shù)。由于MicroNet具有四種結(jié)構(gòu),為了選取最優(yōu)結(jié)構(gòu)作為指靜脈識別的基礎(chǔ)網(wǎng)絡(luò),將提取的ROI圖像原圖作為網(wǎng)絡(luò)的輸入圖像進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如表1所示。經(jīng)過對比,M0參數(shù)量最小,而準(zhǔn)確率最高,因此選擇M0作為基礎(chǔ)網(wǎng)絡(luò)。
2 MicroNet-M0基礎(chǔ)網(wǎng)絡(luò)的改進(jìn)
本文旨在保證網(wǎng)絡(luò)模型輕量的前提下,加強(qiáng)網(wǎng)絡(luò)對于指靜脈特征的提取能力,保證指靜脈識別的準(zhǔn)確率。首先,將數(shù)據(jù)集圖像經(jīng)過感興趣區(qū)域提取,分為訓(xùn)練集和測試集,并進(jìn)行數(shù)據(jù)增強(qiáng)。然后,使用低秩分解后的MixConv卷積替代原網(wǎng)絡(luò)中的深度卷積。同時,在每個block末端加入CA模塊以提高網(wǎng)絡(luò)在跨空間和跨通道上對指靜脈紋理的注意力。兩者均為獲取指靜脈的關(guān)鍵特征,并與MicroNet組成新的block,即MicroMix-Block,如圖2所示。
以此為基礎(chǔ)設(shè)計(jì)了一種改進(jìn)的MicroNet-M0網(wǎng)絡(luò),即MicroMixNet,如圖3所示。將訓(xùn)練集送入MicroMixNet中訓(xùn)練,得到512維的特征向量,將其送入AdaFace損失函數(shù)中優(yōu)化特征向量之間的距離,最后計(jì)算特征向量之間的距離,進(jìn)行分類匹配。區(qū)別于其他的目標(biāo)識別,MicroMixnet在新增類別時,只需要采集新圖像送入網(wǎng)絡(luò)進(jìn)行特征提取后存入庫中,而不需要重新訓(xùn)練,極大滿足了實(shí)際運(yùn)用場景的需要。
2.1 指靜脈感興趣區(qū)域提取
指靜脈圖像蘊(yùn)涵著大量的背景噪聲,而且手指位置存在平移或旋轉(zhuǎn)的情況。根據(jù)圖3,第一部分需要完成指靜脈感興趣區(qū)域的提取,以保留指靜脈血管特征較豐富的區(qū)域。a)得到手指輪廓,通過對原圖4(a)進(jìn)行Canny邊緣檢測實(shí)現(xiàn),如圖4(b)所示;b)計(jì)算出手指中線,將檢測到的上下手指邊緣作差,得到手指中線,如圖4(c)所示;c)圖像角度旋轉(zhuǎn),將指靜脈圖像根據(jù)手指中線進(jìn)行旋轉(zhuǎn),旋轉(zhuǎn)角度則是手指中線與水平方向的夾角,如圖4(d)所示;d)圖像剪裁,旋轉(zhuǎn)后為了防止提取的區(qū)域混有背景噪聲,采用最小內(nèi)接矩形法對其進(jìn)行裁切,得到圖4(e)所示;e)圖像增強(qiáng),將得到的圖片進(jìn)行限制對比度自適應(yīng)直方圖均衡,使指靜脈血管與非血管部分區(qū)別更加明顯,并將圖片尺寸歸一化到224×224,同時對像素進(jìn)行歸一化。此時圖4(f)即是所要的感興趣區(qū)域。
3 實(shí)驗(yàn)與部署
3.1 實(shí)驗(yàn)環(huán)境和評價指標(biāo)
實(shí)驗(yàn)平臺為PC平臺和嵌入式平臺。
PC平臺系統(tǒng)為Windows11,CPU型號為Intel i7-11700 @ 2.50 GHz,32 GB內(nèi)存,GPU為NVIDIA GTX3080Ti顯卡。開發(fā)環(huán)境配置為PyCharm、PyTorch1.11.0、CUDA11.3、 Python3.8。
嵌入式平臺為NVIDIA Jetson Nano開發(fā)板,嵌入式平臺環(huán)境配置設(shè)為Jetpack4.4、 PyTorch1.8.0、Python3.6。
本文指靜脈圖像采集裝置為微盾WDH-1101指靜脈采集儀。圖10右側(cè)為WDH-1101指靜脈采集儀,左側(cè)為NVIDIA Jetson Nano開發(fā)板。指靜脈采集界面如圖11所示。
本文采用識別準(zhǔn)確率(accuracy)和ROC曲線作為評價指標(biāo)。
accuracy 代表所有測試樣本中,能夠正確識別的樣本所占的百分比。
ROC曲線是誤識率false accept rate (FAR)、拒識率false reject rate (FRR)和閾值之間的一種關(guān)系,反映了識別算法在不同閾值上,F(xiàn)RR和FAR的平衡關(guān)系。ROC曲線的橫坐標(biāo)為誤識率FAR,縱坐標(biāo)為拒識率FRR。當(dāng)曲線越靠近右下角坐標(biāo)原點(diǎn)時,識別性能越好。
3.2 數(shù)據(jù)集和實(shí)驗(yàn)設(shè)置
本文采用山東大學(xué)機(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘?qū)嶒?yàn)指靜脈數(shù)據(jù)集SDUMLA-HMT(SDU)[20]、馬來西亞理工大學(xué)手指靜脈數(shù)據(jù)集FV-USM(FVM)[21]和自建數(shù)據(jù)集(SF)。
SDU中的指靜脈圖像為320×240 像素的灰度圖像,共3 816張,沒有提供ROI圖像,都為原始圖像。其來自106個志愿者,共636類,每人采集了左右手的食指、中指和小拇指共6個手指,每個手指采集了6幅圖像。
FVM中的指靜脈圖像為640×480像素的灰度圖像,共采集了5 904幅圖像,提供了每幅圖像的ROI圖像。其來自123個志愿者,共492類,每個人采集了4個手指,分別是左手和右手的食指和中指。采集分為兩個階段,每個階段每個手指采集6幅圖像。在兩個數(shù)據(jù)集上每類都隨機(jī)選取5張作為訓(xùn)練集,1張作為驗(yàn)證集。
SF數(shù)據(jù)集來自微盾WDH-1101采集儀采集的35位志愿者右手的食指,共35類,每類20張圖片,一共采集了700張圖片。每類選擇10張作為訓(xùn)練集,10張作為驗(yàn)證集。
本文在訓(xùn)練前將提取的ROI圖像尺寸統(tǒng)一到224×224,并將像素歸一化到0~1,然后對訓(xùn)練集的圖片進(jìn)行隨機(jī)剪裁、-45°~45°的隨機(jī)角度旋轉(zhuǎn)、隨機(jī)翻轉(zhuǎn)、仿射變換。在訓(xùn)練時每個epoch隨機(jī)對10%的圖片進(jìn)行MixUp、Cutmix處理。梯度優(yōu)化器使用Adam優(yōu)化器,初始學(xué)習(xí)率設(shè)為0.001,學(xué)習(xí)率的更新采用余弦退火方法,每20個epoch為一個周期。每一個批次訓(xùn)練32張圖片,損失函數(shù)在訓(xùn)練集上使用AdaFace損失與SoftTargetCrossEntropy損失函數(shù)相結(jié)合的方法,驗(yàn)證集上使用AdaFace與CrossEntropy損失函數(shù)相結(jié)合的方法。
3.3 網(wǎng)絡(luò)實(shí)驗(yàn)及分析
由于注意力模塊放置位置不同,對網(wǎng)絡(luò)的性能會有影響,本文為了探究注意力模塊的最佳位置,只在原網(wǎng)絡(luò)中加入FMixconv和通道壓縮比系數(shù)r=16的情況下,對比了三種不同位置的準(zhǔn)確率,如表2所示。top代表放置在block的最前端,mid代表放置在MixConv后,bot代表放置在block外,將輸出結(jié)果進(jìn)行殘差連接。實(shí)驗(yàn)結(jié)果表明,把CA模塊放置在bot處準(zhǔn)確率達(dá)到99.69%,效果最好。
同時,為了探究CA模塊中通道壓縮比系數(shù)r的最佳值,本文在bot位置對r=8、r=16、r=32三種情況進(jìn)行對比實(shí)驗(yàn),如表3所示,最后發(fā)現(xiàn)r=16時準(zhǔn)確率達(dá)到99.69%,識別準(zhǔn)確率最高。因此本文將CA模塊置于bot位置,取r=16。
最后為了驗(yàn)證本文方法的有效性,與原網(wǎng)絡(luò)進(jìn)行對比實(shí)驗(yàn),本文方法相比MicroNet-M0網(wǎng)絡(luò)的準(zhǔn)確率提高了2.51%,如表4所示。
3.4 與輕量級網(wǎng)絡(luò)在嵌入式平臺的對比實(shí)驗(yàn)及分析
3.4.1 識別性能對比
將其他輕量級網(wǎng)絡(luò)和本文方法在不同閾值下得到的FRR和FAR繪制ROC曲線,如圖12所示。
可以看到,本文方法的曲線在三個數(shù)據(jù)集上都更加靠近左下角,且在SDU數(shù)據(jù)集上表現(xiàn)最好,當(dāng)FAR為0時,F(xiàn)RR不到0.04,領(lǐng)先于其他網(wǎng)絡(luò)超過0.08。因此,本文方法具有較高的通過率和安全性,識別性能在三個訓(xùn)練集上均領(lǐng)先于其他網(wǎng)絡(luò)。
3.4.2 識別準(zhǔn)確率與模型參數(shù)對比
為了驗(yàn)證本文方法的有效性,將訓(xùn)練好的模型在Jetson Nano開發(fā)板上進(jìn)行對比實(shí)驗(yàn)。在上述三個數(shù)據(jù)集上,將本文方法與近年來常用的輕量級分類模型進(jìn)行對比實(shí)驗(yàn),輸入均為經(jīng)過預(yù)處理的ROI圖像,模型訓(xùn)練方法均與3.2節(jié)所描述的相同,實(shí)驗(yàn)結(jié)果如表5所示。
在SDU數(shù)據(jù)集上,本文方法相比準(zhǔn)確率第2的MobileNetV2有1.43%的提高,在FVM數(shù)據(jù)集上比準(zhǔn)確率第2的ShuffleNetV2-0.5有1.20%的提高,在SF數(shù)據(jù)集上比準(zhǔn)確率第2的MobileVit-xxs和MobileNetV2有1.14%的提高。而在SDU數(shù)據(jù)集上,本文方法的網(wǎng)絡(luò)參數(shù)僅有0.82 M,F(xiàn)lops為6.11 M。本文方法在參數(shù)量最少的情況下,識別準(zhǔn)確率仍然領(lǐng)先于其他網(wǎng)絡(luò),證明了本文方法的有效性,如表6所示。
3.4.3 推理時間對比
為了證明本文方法的實(shí)時性,在沒有預(yù)熱的情況下,選取20張圖片進(jìn)行測試,實(shí)驗(yàn)結(jié)果如表7所示。
本文方法的運(yùn)行時間僅有706.25 ms,低于其他方法,比位于第2的MobileNetV2網(wǎng)絡(luò)的運(yùn)行時間少47.64 ms,同時模型大小不到其1/3,證明本文方法更適合部署于嵌入式開發(fā)板上。
3.4.4 類激活熱力圖對比
為了觀察網(wǎng)絡(luò)是否注意到指靜脈的關(guān)鍵特征,本文對網(wǎng)絡(luò)提取的特征進(jìn)行了可視化,類激活熱力圖如圖13所示??梢钥吹?,本文方法所關(guān)注的靜脈區(qū)域更加全面,更加注重邊緣的靜脈紋理,并減少關(guān)注因外部條件影響而出現(xiàn)的陰影區(qū)域,因此本文方法能在與其他方法的對比實(shí)驗(yàn)中取得更好的效果。
3.5 與其他方法的對比實(shí)驗(yàn)及分析
本文還與其他方法在SDU和FVM兩個公共數(shù)據(jù)集上進(jìn)行比較,如表8與9所示。在SDU數(shù)據(jù)集上,相比準(zhǔn)確率第2的Merge CNN,本文方法準(zhǔn)確率提高了0.36%。在FVM數(shù)據(jù)集上,本文方法準(zhǔn)確率領(lǐng)先于輕量級CNN 0.81%。進(jìn)一步證明了本文方法相比于其他方法更具有優(yōu)勢。
4 結(jié)束語
針對指靜脈識別網(wǎng)絡(luò)部署在移動端和嵌入式平臺困難的問題,本文提出了一種基于靜脈關(guān)鍵特征和AdaFace損失的輕量級指靜脈識別算法。首先在MicroNet-M0的基礎(chǔ)上進(jìn)行改進(jìn),對MixConv進(jìn)行低秩分解,替代原網(wǎng)絡(luò)中的深度卷積,獲得靜脈圖像不同尺度的信息。其次,使用CA模塊提高網(wǎng)絡(luò)在跨空間和跨通道上對指靜脈紋理的注意力,最后加入AdaFace損失減少低質(zhì)量圖像對訓(xùn)練的影響,并增大類間距離,減少類內(nèi)距離。經(jīng)實(shí)驗(yàn)證明,本文方法在SDUMLA-HMT、FV-USM和SF數(shù)據(jù)集上的識別準(zhǔn)確率達(dá)到99.84%、99.39%和99.42%,而參數(shù)量只有0.82 M,同時推理時間也僅有706.25 ms,更容易部署在嵌入式平臺上。
參考文獻(xiàn):
[1]譚營,王軍. 手指靜脈身份識別技術(shù)最新進(jìn)展 [J]. 智能系統(tǒng)學(xué)報,2011,6(6): 471-482. (Tan Ying,Wang Jun. The latest deve-lopment of finger vein identification technology [J]. CAAI Trans on Intelligent Systems,2011,6(6): 471-482.)
[2]Yeh J,Chan H T,Hsia C H. ResNext with cutout for finger vein ana-lysis [C]// Proc of International Symposium on Intelligent Signal Processing and Communication Systems. Piscataway,NJ:IEEE Press,2021: 1-2.
[3]Huang Zhe,Guo Chengan. Robust finger vein recognition based on deep CNN with spatial attention and bias field correction [J]. International Journal on Artificial Intelligence Tools,2021,30(1): 2140005.
[4]Li Yupeng,Lu Huimin,Wang Yifan,et al. ViT-Cap: a novel vision transformer-based capsule network model for finger vein recognition [J]. Applied Sciences,2022,12(20): 10364.
[5]戴坤龍. 基于深度度量學(xué)習(xí)的指靜脈識別研究及應(yīng)用 [D]. 成都: 電子科技大學(xué),2022. (Dai Kunlong. Research and application of finger vein recognition based on deep metric learning[D]. Chengdu: University of Electronic Science and Technology of China,2022.)
[6]Iandola F N,Han S,Moskewicz M W,et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and<0.5 MB model size [EB/OL].(2016).https://doi.org/10.48550/arXiv.1602.07360.
[7]Howard A G,Zhu Menglong,Chen Bo,et al. MobileNets: efficient convolutional neural networks for mobile vision applications [EB/OL]. (2017). https://do iorg/10. 48550/arXiv. 1704. 04861.
[8]Zhang Xiangyu,Zhou Xinyu,Lin Mengxiao,et al. ShuffleNet: an extremely efficient convolutional neural network for mobile devices [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2018: 6848-6856.
[9]Han Kai,Wang Yunhe,Tian Qi,et al. GhostNet: more features from cheap operations [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:1577-1586.
[10]Li Yunsheng,Chen Yinpeng,Dai Xiyang,et al. MicroNet: improving image recognition with extremely low flops [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2021: 458-467.
[11]Shaheed K,Mao Aihua,Qureshi I,et al. DS-CNN: a pre-trained Xception model based on depth-wise separable convolutional neural network for finger vein recognition [J]. Expert Systems with Applications,2022,191: 116288.
[12]Ren Hengyi,Sun Lijuan,Guo Jian,et al. A dataset and benchmark for multimodal biometric recognition based on fingerprint and finger vein [J]. IEEE Trans on Information Forensics and Security,2022,17: 2030-2043.
[13]牟家樂,沈雷,劉浩,等. 基于深度殘差網(wǎng)絡(luò)的輕量級指靜脈識別算法 [J]. 杭州電子科技大學(xué)學(xué)報:自然科學(xué)版,2023,43(2): 35-40,46. (Mu Jiale,Shen Lei,Liu Hao,et al. Lightweight finger vein recognition algorithm based on deep residual network [J]. Journal of Hangzhou Dianzi University:Natural Sciences,2023,43(2): 35-40,46.)
[14]Zhao Dongdong,Ma Hui,Yang Zedong,et al. Finger vein recognition based on lightweight CNN combining center loss and dynamic regularization [J]. Infrared Physics & Technology,2020,105: 103221.
[15]Tan Mingxing,Le Q V. MixConv: mixed depthwise convolutional kernels [EB/OL].(2019).https://doi.org/10.48550/arXiv.1907.09595.
[16]Hou Qibin,Zhou Daquan,F(xiàn)eng Jiashi. Coordinate attention for efficient mobile network design [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2021: 13708-13717.
[17]Hu Jie,Shen Li,Sun Gang. Squeeze-and-excitation networks [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2018: 7132-7141.
[18]Park J,Woo S,Lee J Y,et al. BAM: bottleneck attention module [EB/OL].(2018).https://doi.org/10.48550/arXiv.1807.06514.
[19]Woo S,Park J,Lee J Y,et al. CBAM: convolutional block attention module [C]// Proc of European Conference on Computer Vision. 2018: 3-19.
[20]Yin Yilong,Liu Lili,Sun Xiwei. SDUMLA-HMT: a multimodal biometric database [C]// Proc of the 6th Chinese Conference on Biometric Recognition. Berlin: Springer,2011: 260-268.
[21]Asaari M S M,Suandi S A,Rosdi B A. Fusion of band limited phase only correlation and width centroid contour distance for finger based biometrics [J]. Expert Systems with Applications,2014,41(7): 3367-3382.
[22]Zhong Yiqi,Li Jiahui,Chai Tingting,et al. Different dimension issues in deep feature space for finger-vein recognition [C]// Proc of the 15th Chinese Conference on Biometric Recognition. Berlin: Springer,2021: 295-303.
[23]Hou Borui,Yan Ruqiang. ArcVein-arccosine center loss for finger vein verification [J]. IEEE Trans on Instrumentation and Mea-surement,2021,70: 1-11.
[24]Tao Zhiyong,Wang Haotong,Hu Yalei,et al. DGLFV: deep genera-lized label algorithm for finger-vein recognition [J]. IEEE Access,2021,9: 78594-78
[25]Li Shuyi,Ma Ruijun,F(xiàn)ei Lunke,et al. Learning compact multi-representation feature descriptor for finger-vein recognition [J]. IEEE Trans on Information Forensics and Security,2022,17:1946-1958.
[26]Boucherit I,Zmirli M O,Hentabli H,et al. Finger vein identification using deeply-fused convolutional neural network [J]. Journal of King Saud University-Computer and Information Sciences,2022,34(3): 646-656.
[27]Li Jun,Yang Luokun,Ye Mingquan,et al. Finger vein verification on different datasets based on deep learning with triplet loss [J]. Computational and Mathematical Methods in Medicine,2022,2022: article ID 4868435.