錢 鵬 劉滿華,2*
1(上海交通大學(xué)儀器科學(xué)與工程系 上海 200240) 2(上海交通大學(xué)人工智能研究院 上海 200240)
生物特征識(shí)別是如今進(jìn)行身份識(shí)別的重要手段,相較于其他身份識(shí)別技術(shù),生物特征識(shí)別不易被篡改、偽造,并且具有唯一不變性[1]。指紋識(shí)別作為生物特征識(shí)別的重要組成部分,研究起步早,發(fā)展迅速,現(xiàn)在已經(jīng)得到了廣泛的研究和應(yīng)用。盡管如此,指紋識(shí)別技術(shù)仍然存在許多挑戰(zhàn)性問(wèn)題,比如現(xiàn)有的自動(dòng)指紋識(shí)別系統(tǒng)對(duì)多種低質(zhì)量和低分辨率的指紋并不能很好地完成識(shí)別。雖然現(xiàn)在已有許多針對(duì)低質(zhì)量指紋進(jìn)行增強(qiáng)的算法被提出[2-6],但針對(duì)低分辨率指紋的研究并不常見(jiàn)[7]。目前針對(duì)低分辨率或者嬰幼兒指紋,自動(dòng)指紋識(shí)別系統(tǒng)仍然采用上采樣的方式提高圖像分辨率,圖像在上采樣過(guò)程中會(huì)出現(xiàn)明顯的信息不足和模糊,影響識(shí)別精度。如何在提高指紋圖像分辨率的同時(shí)不丟失指紋細(xì)節(jié)信息是解決該問(wèn)題的關(guān)鍵。
超分辨率任務(wù)主要是通過(guò)計(jì)算機(jī)圖像處理技術(shù),將一幅低分辨率圖像轉(zhuǎn)換成一幅高分辨率圖像。超分辨率算法目前廣泛應(yīng)用于醫(yī)療圖像和遙感圖像等領(lǐng)域[8-9]。該任務(wù)最具挑戰(zhàn)性的問(wèn)題是如何重建在低分辨率圖像中丟失的細(xì)節(jié)。傳統(tǒng)的圖像插值上采樣算法(如最近鄰插值、雙線性插值和雙三次插值)無(wú)法重建細(xì)節(jié),放大的圖像通常比較模糊。目前已經(jīng)有大量經(jīng)典的超分辨率算法被提出[10],主要有基于預(yù)測(cè)的方法[20]、基于邊緣的方法[21]、基于統(tǒng)計(jì)的方法[22]、基于圖像塊的方法[23]和稀疏表示方法[8,24]等。
隨著深度學(xué)習(xí)算法的快速發(fā)展,已經(jīng)有多種基于深度學(xué)習(xí)的超分辨率方法被提出。SRCNN[11]首次將深度卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于超分辨率任務(wù)。近幾年,大量基于卷積神經(jīng)網(wǎng)絡(luò)的超分辨率算法被提出。文獻(xiàn)[12]提出了一種改進(jìn)的FSRCNN,它可以將圖像從低分辨率直接轉(zhuǎn)換為高分辨率。文獻(xiàn)[13]提出使用PixelShuffle層代替反卷積作為上采樣層以提高效率。文獻(xiàn)[14]將ResNet[15]結(jié)構(gòu)引入了超分辨率網(wǎng)絡(luò),并提出了VDSR。他們認(rèn)為低分辨率圖像和高分辨率圖像在很大程度上共享相同的信息,因此使用殘差網(wǎng)絡(luò)可以更充分地利用低分辨率圖像信息以提高超分辨率重建效果。除此之外,文獻(xiàn)[19]提出將條件生成式對(duì)抗網(wǎng)絡(luò)引入圖像超分辨率任務(wù)。
指紋超分辨率任務(wù)相關(guān)研究仍然較少,文獻(xiàn)[7]和文獻(xiàn)[16]提出了基于字典學(xué)習(xí)的指紋超分辨率重建算法,該方法使用高分辨率指紋圖像塊作為基本特征構(gòu)建字典,通過(guò)字典稀疏表示重建指紋高分辨率特征,效率和效果并不是特別理想。
本文參考其他領(lǐng)域基于深度學(xué)習(xí)的圖像超分辨率算法,提出了一種基于密集連接卷積神經(jīng)網(wǎng)絡(luò)(SRDenseNet)的指紋超分辨率重建方法。首先采集大量高分辨率指紋圖像作為訓(xùn)練數(shù)據(jù),然后搭建SRDenseNet學(xué)習(xí)指紋低分辨率到高分辨率的重建,最后將低分辨率指紋圖像輸入已訓(xùn)練好的SRDenseNet,從而完成端到端的指紋圖像超分辨率重建。
基于SRDenseNet的指紋超分辨率重建是將低分辨率指紋圖像輸入經(jīng)過(guò)訓(xùn)練的SRDenseNet,輸出重建后的高分辨率指紋圖像。圖1展示了基于SRDenseNet的指紋超分辨率重建算法的具體流程,主要分為離線訓(xùn)練和在線測(cè)試部分。離線訓(xùn)練部分使用低分辨率和高分辨率圖像對(duì)訓(xùn)練SRDenseNet,訓(xùn)練過(guò)程網(wǎng)絡(luò)將學(xué)習(xí)如何從低分辨率圖像中重建高分辨率特征。在線測(cè)試部分使用訓(xùn)練好的SRDenseNet,將待測(cè)試數(shù)據(jù)庫(kù)低分辨率圖像作為輸入,輸出對(duì)應(yīng)高分辨率圖像。
圖1 基于SRDenseNet的指紋超分辨率重建流程
作為有監(jiān)督學(xué)習(xí)算法的一種,SRDenseNet的訓(xùn)練需要大量訓(xùn)練數(shù)據(jù)。為保證訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)保持獨(dú)立,本文采集了大量高分辨率指紋圖像用于訓(xùn)練,測(cè)試數(shù)據(jù)采用國(guó)際公開FVC指紋數(shù)據(jù)庫(kù)[25]。圖2展示了部分采集的高分辨率指紋圖像,為保證神經(jīng)網(wǎng)絡(luò)能夠充分學(xué)習(xí)到各種指紋圖像的高分辨率特征,采集過(guò)程中對(duì)重壓、輕壓、干濕狀態(tài)等情況進(jìn)行了模仿。由圖1可知,網(wǎng)絡(luò)訓(xùn)練所需的低分辨率輸入圖像由高分辨率圖像下采樣獲得,與原始高分辨率圖像組成訓(xùn)練數(shù)據(jù)對(duì)。為增加訓(xùn)練數(shù)據(jù)量,對(duì)采集的指紋圖像進(jìn)行了裁剪、平移和灰度變換等數(shù)據(jù)增強(qiáng)操作。
圖2 訓(xùn)練用高分辨率指紋圖像
SRDenseNet參考了DenseNet[17]結(jié)構(gòu),網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,其中圖3(a)展示了基礎(chǔ)的SRCNN[11]基本結(jié)構(gòu),圖3(b)展示了本文改進(jìn)的SRDenseNet結(jié)構(gòu)。表1展示了Dense塊內(nèi)部網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)。
表1 Dense塊內(nèi)部網(wǎng)絡(luò)結(jié)構(gòu)
圖3 SRDenseNet指紋超分辨率網(wǎng)絡(luò)結(jié)構(gòu)圖
SRCNN中卷積層采用3×3卷積核。本文所提出的SRDenseNet將SRCNN中卷積層替換成Dense塊并在Dense塊外部加入Dense跳連接。Dense塊結(jié)構(gòu)如表1所示,每個(gè)Dense塊中含有6個(gè)卷積層,Dense塊中每個(gè)卷積層的輸入是該Dense塊中該層前序所有卷積層輸出的級(jí)聯(lián)。例如第6個(gè)卷積層的輸入為該Dense塊中前序所有卷積層輸出在第3維度的級(jí)聯(lián),前序總計(jì)6個(gè)128×128×32輸出層,因此輸入尺寸為128×128×192。多層跳連接的加入可以充分利用各層級(jí)提取出的特征信息,同時(shí)減輕深度網(wǎng)絡(luò)所產(chǎn)生的梯度消失和過(guò)擬合現(xiàn)象。每個(gè)卷積層包含了一組卷積核大小為1×1的卷積和一組卷積核大小為3×3的卷積,每組含有32個(gè)卷積核。由于Dense塊中每個(gè)卷積層的輸入為前序所有卷積層輸出的級(jí)聯(lián),1×1卷積層可以在融合各層信息的同時(shí)減少計(jì)算量,之后通過(guò)3×3卷積層進(jìn)一步提取特征信息。激活函數(shù)使用LeakyReLU,并且在激活函數(shù)前使用批歸一化以加快收斂速度。另外,本文在每個(gè)Dense塊外部加入了跳連接,與Dense塊內(nèi)部相似,每個(gè)Dense塊的輸入由之前所有Dense塊輸出的級(jí)聯(lián),同樣起到了與Dense塊類似的作用。
網(wǎng)絡(luò)經(jīng)過(guò)3個(gè)Dense塊后,經(jīng)過(guò)一組上采樣卷積層擴(kuò)大圖像尺寸。上采樣卷積層包含了一組3×3的卷積層和PixelShuffle層[13],PixelShuffle層通過(guò)將卷積輸出的特征圖矩陣進(jìn)行重新排布,擴(kuò)大輸出尺寸。例如一個(gè)尺寸為32×32×4的特征圖可以通過(guò)PixelShuffle層轉(zhuǎn)換為一個(gè)64×64×1的特征圖。相較于反卷積層,PixelShuffle層計(jì)算量更小,同時(shí)可以避免生成圖像產(chǎn)生棋盤效應(yīng)。最后經(jīng)過(guò)Sigmoid激活層輸出最終超分辨率圖像。
損失函數(shù)用于計(jì)算當(dāng)前網(wǎng)絡(luò)輸出與目標(biāo)之間的差異,通過(guò)損失函數(shù)值計(jì)算更新網(wǎng)絡(luò)參數(shù)以達(dá)到訓(xùn)練網(wǎng)絡(luò)目的。作為回歸任務(wù)的一種,超分辨率任務(wù)常用損失函數(shù)為均方差損失(MSE),其計(jì)算公式如下:
(1)
式中:(x,y)為像素坐標(biāo),S為生成網(wǎng)絡(luò)生成圖像,H為真實(shí)高分辨率圖像;w和h分別為圖像的寬和高。
均方誤差損失函數(shù)將生成圖像與真實(shí)圖像按像素逐一計(jì)算誤差,最終計(jì)算全圖的方差均值。均方差損失關(guān)注生成圖像與真實(shí)圖像之間全局灰度值之間的差異。
除均方誤差外,指紋圖像還需要關(guān)注圖像脊線結(jié)構(gòu)和局部細(xì)節(jié)之間的差異。因此,本文將平均結(jié)構(gòu)相似度損失(MSSIM)[26]引入SRDenseNet的訓(xùn)練。平均結(jié)構(gòu)相似度損失公式如下:
(2)
(3)
最后圖像損失函數(shù)線性組合均方誤差損失和平均結(jié)構(gòu)相似度損失,計(jì)算如下:
loss=λ1MSE(S,H)+λ2[1-MSSIM(S,H)]
(4)
式中:λ1和λ2為MSE和MSSIM權(quán)重。需要注意的是,式(3)計(jì)算獲得的局部結(jié)構(gòu)相似度范圍為[0,1],數(shù)值越大,圖像結(jié)構(gòu)越相似,因此在計(jì)算損失函數(shù)時(shí)需要將其反轉(zhuǎn),保證圖像越相似損失函數(shù)值越小且接近0。平均結(jié)構(gòu)相似度損失的加入可以使SRDenseNet在訓(xùn)練過(guò)程中學(xué)習(xí)如何重建圖像灰度信息的同時(shí)學(xué)習(xí)如何重建指紋紋理結(jié)構(gòu)信息,保證指紋最重要的紋理結(jié)構(gòu)和特征點(diǎn)信息不丟失。
SRDenseNet訓(xùn)練主要包含數(shù)據(jù)生成、前向傳播和反向傳播,步驟如下。
步驟1加載高分辨率指紋訓(xùn)練數(shù)據(jù)作為目標(biāo),對(duì)該數(shù)據(jù)進(jìn)行下采樣作為輸入,并對(duì)輸入和輸出圖像做歸一化處理;
步驟2輸入數(shù)據(jù)經(jīng)過(guò)神經(jīng)網(wǎng)絡(luò)計(jì)算超分辨率輸出圖像,根據(jù)式(4)計(jì)算輸出超分辨率圖像與真實(shí)高分辨率圖像之間的損失函數(shù)值;
步驟3由損失函數(shù)值計(jì)算神經(jīng)網(wǎng)絡(luò)參數(shù)梯度,更新神經(jīng)網(wǎng)絡(luò)參數(shù);
步驟4重復(fù)上述步驟,直至損失函數(shù)值收斂至穩(wěn)定。
SRDenseNet采用PyTorch神經(jīng)網(wǎng)絡(luò)架構(gòu)進(jìn)行搭建和訓(xùn)練,采用Adam優(yōu)化器,初始學(xué)習(xí)率設(shè)置為0.001,訓(xùn)練塊大小設(shè)置為8,總共迭代50次,采用NVIDIA RTX 2080Ti GPU進(jìn)行訓(xùn)練,大約6個(gè)小時(shí)完成訓(xùn)練。
在SRDenseNet模型訓(xùn)練后,為對(duì)比驗(yàn)證所提出超分辨率算法的有效性,本文對(duì)算法進(jìn)行了相關(guān)實(shí)驗(yàn)。實(shí)驗(yàn)內(nèi)容主要包含網(wǎng)絡(luò)結(jié)構(gòu)消融實(shí)驗(yàn)和指紋匹配準(zhǔn)確率比較實(shí)驗(yàn)。
實(shí)驗(yàn)數(shù)據(jù)選取FVC公開指紋數(shù)據(jù)庫(kù)[25],該數(shù)據(jù)庫(kù)包含大量子數(shù)據(jù)庫(kù),為方便與其他文獻(xiàn)進(jìn)行對(duì)比,本文選取了文獻(xiàn)[16]中使用的FVC2004DB3進(jìn)行對(duì)比實(shí)驗(yàn)。該數(shù)據(jù)庫(kù)包含10個(gè)不同的手指,每個(gè)手指采集8幅圖像,總計(jì)80幅指紋圖像。
為驗(yàn)證網(wǎng)絡(luò)結(jié)構(gòu)有效性,采用對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行消融裁剪的方式進(jìn)行對(duì)比實(shí)驗(yàn)。消融實(shí)驗(yàn)采用圖像相似度作為評(píng)價(jià)指標(biāo),主要包含結(jié)構(gòu)相似度(SSIM)和峰值信噪比(PSNR)。結(jié)構(gòu)相似度和峰值信噪比廣泛應(yīng)用于圖像超分辨率任務(wù),反映了超分辨率重建圖像與真實(shí)高分辨率圖像之間的相似度。其中結(jié)構(gòu)相似度由式(2)計(jì)算獲得,峰值信噪比計(jì)算公式如下:
(5)
式中:MAX為圖像灰度值最大值,本文中該值為255;MSE(S,H)由式(1)計(jì)算得到。為保證消融實(shí)驗(yàn)公平性,除對(duì)比所改變的網(wǎng)絡(luò)結(jié)構(gòu)外,其余數(shù)據(jù)和參數(shù)均保持一致。結(jié)構(gòu)相似度范圍為[0,1];峰值信噪比范圍為[0,+∞),均為值越大相似度越高。
網(wǎng)絡(luò)結(jié)構(gòu)消融實(shí)驗(yàn)部分主要對(duì)比三種不同的網(wǎng)絡(luò)參數(shù)結(jié)構(gòu)對(duì)生成圖像效果的影響,其中結(jié)構(gòu)1采用圖3(a)所示的SRCNN結(jié)構(gòu),損失函數(shù)采用式(1)的均方差損失;結(jié)構(gòu)2如圖3(b)所示,在結(jié)構(gòu)1的基礎(chǔ)上將卷積層替換為Dense塊,Dense塊的內(nèi)部和外部均加入大量Dense跳連接,損失函數(shù)相較于結(jié)構(gòu)1不變;結(jié)構(gòu)3在結(jié)構(gòu)2的基礎(chǔ)上將損失函數(shù)修改為式(4),將平均結(jié)構(gòu)相似度損失引入損失函數(shù),該結(jié)構(gòu)為本文所提出的最終結(jié)構(gòu)。圖4展示了不同結(jié)構(gòu)超分辨率圖像的結(jié)果,并展示了真實(shí)高分辨率指紋圖像作為對(duì)比參考。表2展示了不同結(jié)構(gòu)超分辨率結(jié)果的圖像相似度指標(biāo),其中包含了相似度指標(biāo)的絕對(duì)數(shù)值和相較于上一個(gè)結(jié)構(gòu)的相對(duì)提升。
表2 不同網(wǎng)絡(luò)結(jié)構(gòu)的圖像相似度和峰值信噪比性能比較
圖4 基于不同網(wǎng)絡(luò)結(jié)構(gòu)的指紋超分辨率結(jié)果比較
從圖4可以看出,圖4(b)由結(jié)構(gòu)1生成的圖像擁有一定的超分辨率重建能力,對(duì)于指紋脊線清晰的部分能夠成功提高分辨率并重建紋理,但對(duì)于脊線密集部分并不能很好地重建,甚至出現(xiàn)了嚴(yán)重的紋理結(jié)構(gòu)錯(cuò)誤。圖4(c)由結(jié)構(gòu)2生成的圖像相較于結(jié)構(gòu)1有著更強(qiáng)的重建能力,圖像大部分區(qū)域能夠正確地重建,由此證明Dense塊的加入可以很好地提升網(wǎng)絡(luò)的抗噪和重建能力,但圖中框選區(qū)域仍出現(xiàn)了紋理結(jié)構(gòu)錯(cuò)誤的情況。圖4(d)由結(jié)構(gòu)3生成的圖像相較于結(jié)構(gòu)2擁有了更強(qiáng)的超分辨率重建能力,圖像框選區(qū)域紋理結(jié)構(gòu)走向沒(méi)有出現(xiàn)錯(cuò)誤,能夠很好地完成超分辨率重建,由此證明平均局部結(jié)構(gòu)損失的加入能夠提高網(wǎng)絡(luò)對(duì)于圖像結(jié)構(gòu)的重建能力。
從表2中可以看到結(jié)構(gòu)2相較于結(jié)構(gòu)1,結(jié)構(gòu)相似度和峰值信噪比均有明顯提升,證明了Dense塊的加入能夠在整體上很好地提升網(wǎng)絡(luò)超分辨率重建能力。結(jié)構(gòu)3相較于結(jié)構(gòu)2,結(jié)構(gòu)相似度和峰值信噪比均有一定的提升,其中結(jié)構(gòu)相似度的相對(duì)提升比峰值信噪比更大,證明平均局部結(jié)構(gòu)損失的加入能夠提升網(wǎng)絡(luò)超分辨率重建的能力,并且對(duì)圖像結(jié)構(gòu)重建能力的提升更明顯。
除網(wǎng)絡(luò)結(jié)構(gòu)消融實(shí)驗(yàn)外,本文還通過(guò)實(shí)驗(yàn)測(cè)試了指紋匹配準(zhǔn)確率,并與其他文獻(xiàn)進(jìn)行了比較。為與其他文獻(xiàn)保持相同的實(shí)驗(yàn)環(huán)境,本文采用開源的指紋匹配算法架構(gòu)(http://www.codeproject.com)進(jìn)行指紋匹配,指紋匹配算法采用由文獻(xiàn)[18]提出的M3gl指紋匹配算法。由于該算法只能處理500 dpi的指紋圖像,因此本文采用文獻(xiàn)[16]中提出的先下采樣降低分辨率,然后使用超分辨率算法將分辨率重新提升至500 dpi的方式進(jìn)行匹配測(cè)試。匹配方案與其他文獻(xiàn)保持一致:相同手指之間匹配,總計(jì)280對(duì)匹配指紋;不同手指之間同一編號(hào)匹配,總計(jì)360對(duì)不匹配指紋。
指紋自動(dòng)匹配系統(tǒng)將輸入兩幅待匹配指紋,輸出對(duì)應(yīng)匹配分?jǐn)?shù),通過(guò)設(shè)定匹配閾值確定待匹配指紋是否匹配。指紋匹配算法性能一般通過(guò)檢測(cè)誤差曲線(DET)和等錯(cuò)誤率(EER)評(píng)判。DET曲線橫坐標(biāo)為錯(cuò)誤接受率(FMR),縱坐標(biāo)為錯(cuò)誤拒絕率(FNMR)。
DET曲線展示了當(dāng)匹配閾值變化時(shí),錯(cuò)誤接受率和錯(cuò)誤拒絕率之間的變化關(guān)系。當(dāng)錯(cuò)誤接受率等于錯(cuò)誤拒絕率時(shí),此時(shí)的值稱為等錯(cuò)誤率。實(shí)驗(yàn)過(guò)程中,本文使用不同的超分辨率算法對(duì)相同數(shù)據(jù)庫(kù)進(jìn)行超分辨率,并使用相同的指紋匹配算法進(jìn)行性能驗(yàn)證。最終不同超分辨率算法之間的性能將通過(guò)匹配錯(cuò)誤率進(jìn)行評(píng)價(jià),匹配錯(cuò)誤率越低,超分辨率算法效果越好。
本文使用雙三次插值上采樣算法作為對(duì)比的基準(zhǔn)方法,并選取了來(lái)自文獻(xiàn)[7-8,16]的指紋超分辨率算法進(jìn)行對(duì)比。圖5展示了低分辨率圖像和不同算法超分辨率之后的圖像,圖6展示了FVC2004DB3中使用不同超分辨率算法放大不同倍率的DET曲線,表3展示了圖6中DET曲線不同放大倍率對(duì)應(yīng)的EER相關(guān)結(jié)果。
表3 不同方法在不同放大倍率下EER結(jié)果(%)
圖5 不同超分辨率算法結(jié)果比較
圖6 不同倍率超分辨率DET曲線
從圖5中可以看出,雙三次插值上采樣獲得的圖像模糊,細(xì)節(jié)點(diǎn)區(qū)分困難。文獻(xiàn)[7-8]提出的方法生成的圖像相較于雙三次插值上采樣圖像有明顯的清晰度提升,但白框中細(xì)節(jié)點(diǎn)仍然存在模糊的情況。文獻(xiàn)[16]方法生成的圖像脊線更加清晰,但脊線灰度值平滑嚴(yán)重,且白框中細(xì)節(jié)點(diǎn)仍然無(wú)法還原。本文提出的基于SRDenseNet的指紋超分辨率重建算法生成的圖像更加清晰,保留了指紋脊線的灰度信息,白框中細(xì)節(jié)點(diǎn)能夠很好地還原,圖像整體效果和細(xì)節(jié)點(diǎn)還原都更好。由圖6可以看出,SRDenseNet生成的高分辨率圖像在后續(xù)指紋匹配結(jié)果錯(cuò)誤率明顯低于其他算法,DET曲線更低。從表3中可以看到,SRDenseNet在2、3、4倍率下的匹配等錯(cuò)誤率從相較于目前最好的文獻(xiàn)[16]的5.456%、8.730%和16.091%下降至4.762%、7.500%和12.540%,并且放大倍率越高,優(yōu)勢(shì)越明顯。實(shí)驗(yàn)證明,本文提出的基于SRDenseNet的指紋超分辨率算法能夠有效地提升圖像質(zhì)量以及指紋匹配準(zhǔn)確率。
本文提出了一種基于SRDenseNet的超分辨率算法,該算法通過(guò)對(duì)大量高分辨率指紋圖像進(jìn)行學(xué)習(xí),重建低分辨率指紋圖像紋理結(jié)構(gòu)。網(wǎng)絡(luò)結(jié)構(gòu)中加入Dense塊和Dense跳連接以充分利用卷積網(wǎng)絡(luò)各層級(jí)信息,并在損失函數(shù)中加入平均局部結(jié)構(gòu)相似度。該網(wǎng)絡(luò)結(jié)構(gòu)能夠在提升指紋圖像分辨率的同時(shí),重建指紋紋理脊線,保留指紋特征點(diǎn)信息。實(shí)驗(yàn)結(jié)果表明,本文方法生成的超分辨率指紋圖像更加清晰,細(xì)節(jié)更完整。Dense塊和平均局部結(jié)構(gòu)相似度的加入能夠有效提升網(wǎng)絡(luò)超分辨率重建和抗噪能力。相較于其他超分辨率算法,后續(xù)匹配錯(cuò)誤率更低,且放大倍數(shù)越大,優(yōu)勢(shì)越明顯。下一步的工作將在本文工作基礎(chǔ)上,進(jìn)一步提高指紋圖像質(zhì)量,以提高指紋匹配準(zhǔn)確率。