• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于特征融合的雙模態(tài)生物識別方法

      2022-08-30 06:43:12周衛(wèi)斌吉書林
      天津科技大學學報 2022年4期
      關(guān)鍵詞:人臉特征提取準確率

      周衛(wèi)斌,王 陽,吉書林

      (天津科技大學電子信息與自動化學院,天津 300222)

      近年來,信息技術(shù)飛速發(fā)展、智能設(shè)備不斷普及,指紋識別[1]、人臉識別[2]、虹膜識別[3]、語音識別[4]等身份識別技術(shù)早已應用于日常生活中的各個方面.然而,單模態(tài)生物特征識別技術(shù)在實際應用中不僅受外部環(huán)境的影響,還受自身局限性的影響,極大地限制了其應用場景,降低了身份識別的準確率.例如,指紋破損或者沾水會降低指紋識別的準確率;佩戴口罩會降低人臉識別的準確率;佩戴眼鏡會降低虹膜識別的準確率.因此,雙模態(tài)融合識別對于彌補單一生物特征識別的缺陷、提高身份識別的準確率、增強信息的安全性具有重要意義.相比于三模態(tài)、四模態(tài)等多模態(tài)的生物識別方法[5],指靜脈和人臉的雙模態(tài)識別不僅減少了計算量、降低了算法復雜度,還使體內(nèi)生物特征(指靜脈)與體外生物特征(人臉)的優(yōu)勢得以互補,打破了單一生物特征識別的應用局限,提高了身份信息的安全性和身份識別的準確率.

      雙模態(tài)生物特征識別技術(shù)是融合兩種單一生物特征作為新的特征進行識別的方法[6].指靜脈和人臉屬于兩種不同的生物特征,根據(jù)融合發(fā)生的位置不同,可分為數(shù)據(jù)層融合、特征層融合、匹配層融合和決策層融合,如圖1所示.

      圖1 雙模態(tài)生物特征融合框圖 Fig. 1 Block diagram of bimodal biological feature fusion

      數(shù)據(jù)層融合屬于最低層次的融合[7];匹配層融合又稱分數(shù)層融合,不同樣本經(jīng)匹配層得到與模板庫的匹配分數(shù),經(jīng)過歸一化處理后進行匹配分數(shù)融合[8];決策層融合類似投票表決機制,對不同樣本的決策結(jié)果(接受/拒絕)進行融合[9];特征層融合發(fā)生在特征提取模塊,不同樣本經(jīng)過特征提取獲得各自的特征向量,然后將特征向量通過特征串聯(lián)、級聯(lián)等方式拼接成一個新的特征向量,將新的特征向量作為生物識別系統(tǒng)的輸入進行匹配和決策[10].特征層具有豐富的有效特征信息,是眾多學者研究的熱點.例如,Yang等[11]利用統(tǒng)一的Gabor濾波器框架提取指紋和指靜脈特征,提出一種新的監(jiān)督局部保持典型相關(guān)分析方法(SLPCCAM),用于生成特征層融合的指紋指靜脈特征向量(FPVFVs);只使用一個數(shù)據(jù)庫對該方法的性能進行評估,在實際應用中具有很大的局限性. Veluchamy等[12]提出將指關(guān)節(jié)和手指靜脈進行特征層融合,并采用支持向量機(SVM)分類器進行多模態(tài)生物識別,但是該方法在特征融合后產(chǎn)出的新特征向量的維數(shù)過高.Pan等[13]提出一種基于核Fisher判別分析(KFDA)方法,并結(jié)合平均規(guī)則、加權(quán)求和規(guī)則和乘法規(guī)則實現(xiàn)人臉和人耳的特征層融合,但是該方法同樣也出現(xiàn)了“維度災難”現(xiàn)象.

      近年來,卷積神經(jīng)網(wǎng)絡(luò)(CNN)的發(fā)展在生物識別系統(tǒng)中產(chǎn)生了非常大的影響,并取得了優(yōu)異的成 果[14].傳統(tǒng)算法提取圖像特征需要大量手工標注,而卷積神經(jīng)網(wǎng)絡(luò)對圖像逐像素卷積的方式,能夠快速、高效地提取到圖像多尺度特征.

      1 本文方法的實現(xiàn)

      在眾多的生物特征中,人臉圖像是最自然、最明顯的個人識別特征;指靜脈是體內(nèi)生物特征,不易被損壞、偽造和復制,并且每個人、每個手指之間指靜脈特征都具有差異,具有極高的安全特性[15].鑒于卷積神經(jīng)網(wǎng)絡(luò)在圖像識別和圖像特征提取任務(wù)中的出色表現(xiàn),本文融合指靜脈和人臉特征,提出一種高效的雙模態(tài)生物識別方法.首先獲取指靜脈圖像和人臉圖像的感興趣區(qū)域(ROI),并針對指靜脈圖像數(shù)據(jù)規(guī)模較小的問題,采用數(shù)據(jù)增強方法用于擴充數(shù)據(jù).然后將指靜脈和人臉ROI圖像輸入到雙通道卷積神經(jīng)網(wǎng)絡(luò)中提取圖像特征.在全連接層之前,根據(jù)各特征的置信度分配權(quán)重,并進行特征融合,形成新的特征用于身份識別.該方法的實現(xiàn)過程如圖2所示.

      圖2 雙通道卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖 Fig. 2 Structure diagram of two-channel convolutional neural network

      1.1 特征提取網(wǎng)絡(luò)

      在圖像分類識別領(lǐng)域,特征提取網(wǎng)絡(luò)的好壞直接決定著識別結(jié)果的準確率.AlexNet網(wǎng)絡(luò)是一種簡單的卷積神經(jīng)網(wǎng)絡(luò),共有8層,其中前5層用于特征提取[16].相對較淺的網(wǎng)絡(luò)層數(shù)決定了AlexNet網(wǎng)絡(luò)的準確率較低.VGG網(wǎng)絡(luò)通過堆疊多個尺寸為3×3的卷積核來代替大尺度卷積核,并且與大尺度卷積核擁有相同的感受野.VGG-19網(wǎng)絡(luò)有19層,前16層用于特征提取[17].相比于前兩種傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò),MobileNet網(wǎng)絡(luò)內(nèi)存需求小、運算量小,可以部署到移動設(shè)備以及嵌入式設(shè)備上.MobileNetV2網(wǎng)絡(luò)引入深度可分離卷積,由逐通道卷積和逐點卷積組成,減少了模型參數(shù)和運算成本[18].此外,MobileNetV2網(wǎng)絡(luò)使用反向殘差結(jié)構(gòu),在增加網(wǎng)絡(luò)層數(shù)的同時,也使特征表達能力得到增強.

      1.2 特征融合方法

      本文提出的雙模態(tài)特征融合方法在特征層采用雙通道卷積神經(jīng)網(wǎng)絡(luò)模型實現(xiàn)特征融合,其實現(xiàn)過程如圖3所示.

      圖3 雙模態(tài)特征融合框架 Fig. 3 Framework of bimodal feature fusion

      整體框架分3個模塊:特征提取模塊、特征融合模塊和分類識別模塊.在特征提取模塊之前,對指靜脈圖像和人臉圖像進行預處理,預處理過程包括對指靜脈圖像感興趣區(qū)域進行截取、數(shù)據(jù)增強和數(shù)據(jù)擴容.每個生物特征都被輸入到卷積神經(jīng)網(wǎng)絡(luò)模型中,經(jīng)過多層卷積層和池化層,提取圖像的特征信息,得到指靜脈特征(Fv_feature)和人臉特征(Face_feature). 特征融合模塊是該框架的核心模塊.將經(jīng)過特征提取模塊后的指靜脈特征和人臉特征進行卷積操作降維,再經(jīng)過Softmax層,分別得到自注意力權(quán)重,并與特征提取所得到的特征相乘;將兩特征融合到一起,得到指靜脈與人臉的融合特征(Fv+Face_feature);經(jīng)過特征提取后得到更深層的融合特征(Fusion_feature).為防止在特征融合時出現(xiàn)部分特征信息丟失的情況,將特征提取后的指靜脈特征、人臉特征、融合特征三者再次融合到一起.兩次融合保證了特征信息最大化.最后經(jīng)過全連接層進行分類識別.

      本文分別選擇AlexNet網(wǎng)絡(luò)、VGG-19網(wǎng)絡(luò)和MobileNetV2網(wǎng)絡(luò)的特征層,用于提取指靜脈和人臉圖像特征,作為特征融合模塊的輸入.為避免在融合模塊出現(xiàn)過擬合現(xiàn)象和減少融合后的運算量,本文采用自適應均值池化的方法和Dropout技術(shù).

      2 數(shù)據(jù)處理及實驗

      實驗軟件環(huán)境:Python3.8、CUDA11.0、cuDNN 8.0、Pytorch1.7.1、Ubuntu18.04;硬件平臺:NVIDIA GeForce RTX 2080 Ti GPU.

      2.1 公開數(shù)據(jù)集

      為了驗證本文所提出的雙模態(tài)特征融合方法的有效性,同時表明它與單模態(tài)生物特征識別的優(yōu)勢,實驗過程選用指靜脈公開數(shù)據(jù)集SDUMLA-FV[19]和Finger Vein USM(FV-USM)[20]、人臉公開數(shù)據(jù)集CASIA-WebFace[21],對本文提出的雙模態(tài)特征融合方法的有效性進行測試,并與單模態(tài)生物特征識別方法進行對比.

      SDUMLA-FV數(shù)據(jù)集是由山東大學機器學習與數(shù)據(jù)挖掘?qū)嶒炇覄?chuàng)建,包含106人的左、右手的食指、中指和無名指中每根手指的6張指靜脈圖像,共636類手指圖像,總計3816張.FV-USM數(shù)據(jù)集是馬來西亞理工大學創(chuàng)建,包含123人的左、右手的食指和中指中每根手指的6張圖像,共492類手指圖像,總計2952張.FV-USM數(shù)據(jù)集提供了已經(jīng)截取好的ROI圖像,為后續(xù)指靜脈圖像的預處理提供了方便.CASIA-WebFace數(shù)據(jù)集是應用于人臉識別領(lǐng)域最廣泛的公開數(shù)據(jù)集之一,該數(shù)據(jù)集收集了網(wǎng)絡(luò)上的人臉圖像,共10575類,494414張圖像.在實驗中,根據(jù)指靜脈圖像的類別數(shù),隨機從人臉數(shù)據(jù)集中選擇相同的類別數(shù).

      2.2 圖像預處理

      由于SDUMLA-FV數(shù)據(jù)集沒有提供指靜脈的ROI圖像,所以需要對該數(shù)據(jù)集中圖像進行ROI的截取,以去除過多的背景無用信息.采用Prewitt邊緣檢測算子對指靜脈原圖垂直方向上的上下邊緣進行邊緣檢測,對于存在偽邊緣的現(xiàn)象,通過設(shè)置連通域閾值去除偽邊緣.使用最小二乘法線性回歸擬合手指的中軸線,根據(jù)擬合直線與水平線的夾角將圖像旋轉(zhuǎn)矯正;擬合手指上下邊緣的內(nèi)切線;根據(jù)圖像水平方向上的亮度變化趨勢,選擇指關(guān)節(jié)處(即亮度峰值處);最后截取手指靜脈ROI圖像.

      為了獲得清晰的指靜脈紋路,還需要對截取的ROI圖像進行對比度受限自適應直方圖均衡化(contrast limited adaptive histogram equalization,CLAHE),并在CLAHE圖像增強之后添加Gabor濾波器,用于去除圖像增強后的噪聲.SDUMLA-FV數(shù)據(jù)集圖像的預處理過程如圖4所示,ROI原圖經(jīng)過CLAHE圖像增強、Gabor濾波去噪后,相比于原圖可以得到清晰的靜脈紋路.SDUMLA-FV和FV-USM數(shù)據(jù)集只提供了每根手指6張靜脈圖像,為防止卷積神經(jīng)網(wǎng)絡(luò)模型訓練過程中出現(xiàn)過擬合現(xiàn)象,對每一類指靜脈進行數(shù)據(jù)擴增,其中包括對圖像隨機平移、旋轉(zhuǎn)、裁剪、亮度調(diào)節(jié)、對比度調(diào)節(jié),將原本每類6張圖像擴充至每類36張圖像.FV-USM數(shù)據(jù)集提供了ROI圖像,因此只需要對該數(shù)據(jù)集進行圖像增強和 擴充.

      圖4 SDUMLA-FV數(shù)據(jù)集圖像的預處理 Fig. 4 Image preprocessing of SDUMLA-FV datasets

      2.3 實驗結(jié)果與分析

      實驗中將每一類別中的數(shù)據(jù)(36張)按照7∶3的比例劃分訓練集和測試集.為了提高網(wǎng)絡(luò)的泛化能力,在融合模塊中,每張指靜脈圖像與每張人臉圖像一一對應.單模態(tài)實驗和雙模態(tài)特征融合實驗數(shù)據(jù)分布結(jié)構(gòu)見表1.

      表1 實驗數(shù)據(jù)分布 Tab. 1 Experimental data distribution

      實驗中,所有的模型輸入尺寸均為224像素×224像素,激活函數(shù)為ReLU,優(yōu)化器選用Adam,學習率設(shè)置為0.0001.分別對不同數(shù)據(jù)集、不同特征提取網(wǎng)絡(luò)進行對比實驗,識別準確率的實驗結(jié)果見表2.

      表2 不同數(shù)據(jù)集、不同特征提取網(wǎng)絡(luò)的識別準確率 Tab. 2 Recognition accuracy of different datasets and different feature extraction networks

      由表2可知:在單模態(tài)識別實驗中,只有VGG-19模型對SDUMLA-FV數(shù)據(jù)集的識別準確率較高,為94.36%,其他單模態(tài)識別實驗的識別準確率均處于較低水平.在雙模態(tài)特征融合實驗中,VGG-19融合模型對SDUMLA-FV+CASIA-WebFace數(shù)據(jù)集的識別準確率為99.95%,對FV-USM+CASIAWebFace數(shù)據(jù)集的識別準確率為99.94%.其他雙模態(tài)特征融合實驗的識別準確率均高于98.80%,相比單模態(tài)下的識別準確率均得到了很大提升.對比Alay等[22]使用VGG-16基礎(chǔ)網(wǎng)絡(luò)進行的虹膜、人臉和指靜脈三模態(tài)特征融合方法,本文所提出的方法在只使用兩種生物特征融合的情況下,識別準確率相比于三種生物特征融合均有所提升.為了進一步驗證所提出的雙模態(tài)特征融合方法的有效性,將融合模態(tài)與MobileNetV2輕量級網(wǎng)絡(luò)結(jié)合并考察其識別準確率.由表2可知:輕量級網(wǎng)絡(luò)模型(MobileNetV2)相比于AlexNet、VGG-19網(wǎng)絡(luò)模型,參數(shù)量大幅減少,并且單模態(tài)識別準確率也大幅降低,但雙模態(tài)特征融合識別實驗可以達到與AlexNet、VGG-19網(wǎng)絡(luò)相當?shù)淖R別準確率.

      每個模型識別一張圖像(融合模型為識別指靜脈和人臉兩張圖像)的時間性能對比見表3.從表3中可以看出,融合模型的耗時與單模態(tài)識別的耗時差異不明顯.

      表3 時間性能 Tab. 3 Time performance

      3 結(jié) 語

      本研究提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)模型的指靜脈和人臉特征融合識別方法,解決了實際應用場景中單一生物特征識別準確率低、安全性差的問題.對比實驗結(jié)果表明本文提出的方法可以有效提高生物特征識別的準確率.此外,本文所提出的AlexNet融合模型和VGG-19融合模型,參數(shù)量均少于AlexNet、VGG-19網(wǎng)絡(luò),但是輕量級網(wǎng)絡(luò)MobileNetV2上參數(shù)量并沒有減少.對于這一問題,下一步還需要繼續(xù)對網(wǎng)絡(luò)結(jié)構(gòu)進行優(yōu)化.同時,本研究還需要進一步在實際復雜場景的數(shù)據(jù)集上進行對比實驗.

      猜你喜歡
      人臉特征提取準確率
      有特點的人臉
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
      2015—2017 年寧夏各天氣預報參考產(chǎn)品質(zhì)量檢驗分析
      基于Daubechies(dbN)的飛行器音頻特征提取
      電子制作(2018年19期)2018-11-14 02:37:08
      三國漫——人臉解鎖
      動漫星空(2018年9期)2018-10-26 01:17:14
      高速公路車牌識別標識站準確率驗證法
      Bagging RCSP腦電特征提取算法
      馬面部與人臉相似度驚人
      基于MED和循環(huán)域解調(diào)的多故障特征提取
      新化县| 东光县| 黑龙江省| 汤原县| 宁晋县| 小金县| 合山市| 溧阳市| 呼图壁县| 苗栗市| 祁阳县| 军事| 嵊州市| 临潭县| 宿松县| 昂仁县| 铁岭市| 商丘市| 广安市| 曲阳县| 东阳市| 刚察县| 山东| 香港 | 浏阳市| 隆林| 白山市| 望城县| 商都县| 彰武县| 锡林郭勒盟| 陆川县| 油尖旺区| 平遥县| 方正县| 苏州市| 阳西县| 新郑市| 上饶县| 锡林郭勒盟| 湖北省|