中圖分類號:TB9;TP391.4 文獻標志碼:A 文章編號:1674-5124(2025)06-0031-09
Face anti-spoofing based on improved Swin Transformer
WANG Xuguang12,BU Chenyu12, SHI Zeyu1.2
(1.Departmentof Automation,North China Electric Power University,Baoding 07103,China; 2.Hebei Technology Innovation Centerof Simulation amp; Optimized Control for Power Generation,North China Electric Power University, Baoding , China)
Abstract: With the development of facial recognition technology, face anti-spoofing as the security guarantee of facial recognition system becomes more and more important. However, the majority of existing face antispoofing models tend to concentrate on specific detection scenarios and atack methods,and have limited robustness and generalization capabilities when they face unknown atacks.For this reason, this paper proposes an improved Swin Transformer model, called CDCSwin-T(Central diference convolution Swin Transformer). This model chooses Swin Transformer as the backbone to extract global facial information by using its shifted window atention.And it introduces the central difference convolution (CDC) module to extract local facial information. These enhance the model's ability to capture the diference between real and fake faces in this paper,thereby strengthening its robustness against unknown attacks; Additionally,the bottleneck attention module is introduced in the backbone model to guide the model to focus on the key information of faces and accelerate the training process.Finaly,the multi-scale information from different stages of the backbone model is fused byan adaptive fusion module,which improves the generalizability of the model proposed in this paper. The CDCSwin-T model achieves average classification error rates (ACER) of 0.2% , 1.1%. (1.1±0.6)% , and (2.8±1.4)% on the four protocols of the OULU-NPU dataset and the Half Total Error Rate (HTER) of 14.1% and 22.9% in cross-database evaluations on the CASIA-MFSD and REPLAY-ATTACK dataset, which both surpass the current mainstream models. It shows that its robustness and generalization capability when it face unknown attacks have been improved.
Keywords: face anti-spoofing; Swin Transformer; bottleneck atention module; feature fusion
0 引言
近年來,人臉識別系統(tǒng)性能不斷提升,其應用范圍也逐漸擴大,例如人臉門禁、人臉支付、考勤打卡、登機安檢等場景,但其帶來便利的同時也造成了一些問題。由于人臉圖像極易被獲取,非法用戶可通過偽造人臉來欺騙人臉識別系統(tǒng)。常見的欺詐攻擊為打印攻擊和重放攻擊,打印攻擊即將人臉照片打印出來并欺騙人臉識別系統(tǒng);重放攻擊即采用電子屏幕重放人臉照片來欺騙人臉識別系統(tǒng)。由于人臉欺詐技術逐漸豐富,欺詐攻擊質量不斷增強,對人臉識別系統(tǒng)造成一定的威脅,給個人財產安全造成了極大的隱患,給公共安全管理帶來了較大的挑戰(zhàn)。因此人臉活體檢測任務(又稱人臉防偽)應運而生,如何建立可靠的人臉活體檢測模型逐漸成為了研究熱點。
面對人臉識別系統(tǒng),欺詐攻擊圖像和真實人臉圖像存在一定的差別。真實人臉圖像具備豐富的紋理細節(jié),如局部皮膚紋理、五官紋理、面部光照差異等,而偽造圖像無法復現部分細節(jié),例如打印攻擊圖像無法復現真實人臉的光照差異、重放攻擊圖像丟失了人臉局部紋理細節(jié)并存在大量摩爾紋。上述偽造圖像的特點也成為了人臉活體檢測模型的重要檢測依據。目前主流的人臉活體檢測模型分為兩類,即基于手工特征提取的模型和基于深度學習的模型?;谑止ぬ卣魈崛〉哪P?,依據真假人臉圖像的顏色、紋理、材質、圖像質量、運動變化等差異手動設計特征算子。但隨著欺詐人臉圖像質量逐漸提升,特征算子的提取性能明顯不足,造成此類人臉活體檢測模型性能下降。YANGJ等[1]認為基于手工特征提取的模型無法提取真實人臉與欺詐人臉之間的決定性判別因素,并于2014年首次將卷積神經網絡應用于人臉活體檢測領域,從此人臉活體檢測進人新的發(fā)展階段。YUZ等[2]在2020年提出了基于中心差分卷積的檢測模型,該模型將普通卷積修改為中心差分卷積,提取欺詐攻擊內在特征,降低環(huán)境對模型干擾。
隨著人臉欺詐攻擊種類的不斷增加,卷積神經網絡模型也暴露了一些問題。由于卷積神經網絡模型在提取人臉全局信息方面存在局限性,導致該類人臉活體檢測模型性能下降。因此,研究員將自光聚焦在具有全局信息提取能力的Transformer模型上。GEORGEA等[3]于2020年首次將具有自注意力機制的VisionTransformer(ViT)模型引人人臉活體檢測領域。ViT模型將圖像分割成小塊作為輸入,其自注意力機制可以關注到人臉圖像各個位置,有效地提取了人臉的全局信息。QIAOT等于2022年提出將Transformer模型的自注意力機制線性映射修改為卷積操作,減少了運算量和計算成本,同時提高了模型性能。
然而,面對未知的欺詐攻擊,當前的人臉活體檢測模型存在兩點不足:1)當欺詐攻擊的場景和方式發(fā)生變化時,人臉活體檢測模型提取的欺詐人臉細粒度信息會隨之發(fā)生改變,使得模型無法捕捉真假人臉的差異,導致人臉活體檢測模型檢測性能下降。2)人臉活體檢測模型對淺層人臉特征圖語義特征描述能力較差,對深層特征圖細節(jié)感知不足,造成人臉細節(jié)信息丟失,導致其泛化能力較差。
為解決這些問題,本文提出了一種基于CDCSwin-T的人臉活體檢測模型,主要貢獻如下:1)本文模型采用SwinTransformer模型作為主干,利用其滑動窗口注意力機制提取人臉全局信息,同時引入中心差分卷積模塊,提取人臉局部信息,并將提取的人臉全局信息與局部信息充分結合。面對未知欺詐攻擊時,本文模型仍可以捕獲真假人臉的差異,提高了其面對未知攻擊的魯棒性。2)引入瓶頸注意力模塊[5],引導模型關注人臉的關鍵信息,增強模型對人臉特征的提取能力。3)引入自適應特征融合模塊,將模型提取的淺層細節(jié)信息和深層語義信息自適應融合,減少細節(jié)信息丟失,提高了模型的泛化能力。
1Swin Transformer模型
對于人臉活體檢測任務,Transformer模型采用逐像素計算的方法,導致訓練過程中模型計算負荷較大。為解決該問題,本文選用具有分層結構和滑動窗口注意力機制的SwinTransformer為主干模型,其結構如圖1所示。首先,圖像分割模塊(patchpartition)將大小為 (H,W) 的RGB人臉圖像進行分塊操作,得到大小為(4,4)的圖像塊,并在通道方向展平為48;其次,線性嵌入模塊(linearembedding)對圖像的像素通道進行線性變換,將特征圖通道數從48映射為 c ;隨后將大小為 (H/4,W/4) 、通道數為 c 的特征圖輸入SwinTransformer模塊。
SwinTransformer模塊如圖2(a)所示,包含窗口多頭自注意力層(W-MSA)、滑動窗口多頭自注意力層(SW-MSA)、標準化層(LN)和多層感知機(MLP)四部分。其中窗口多頭自注意力層將特征圖分割成大小為 N×N 的不重疊窗口,如圖2(b)所示,并在每個窗口中執(zhí)行注意力計算,但不同的窗口信息無法進行跨窗交流,為此引入滑動窗口多頭自注意力層?;瑒哟翱诙囝^自注意力層通過將常規(guī)窗口循環(huán)上移和左移 (N/2,N/2) 距離,實現不同窗口的信息交互,從而保持全局信息,具體操作如圖2(c)和(d)所示,滑動窗口分割后得到的初始圖像塊進行移位拼接,得到最終的實際窗口分割方式,例如圖2(c)、(d)中的SW-MSA窗口數從9減少為4,以此來減少計算量。
面對未知場景的人臉攻擊,SwinTransformer模型可以有效地提取人臉全局信息,相比于傳統(tǒng)卷積神經網絡方法具有一定的優(yōu)勢,但因其無法捕捉真假人臉的局部差異,導致其檢測精度與魯棒性不能達到最先進水平,具體驗證可見后續(xù)消融實驗。
2 改進的SwinTransformer模型
為提高模型面對未知攻擊的魯棒性,本文提出一種改進的SwinTransformer人臉活體檢測模型,即CDCSwin-T模型,其具體結構如圖3所示。該模型將SwinTransformer提取的人臉全局信息和中心差分卷積模塊提取的人臉局部信息相融合,更好地捕獲真假人臉的差異,提高其面對未知攻擊的魯棒性;同時引入瓶頸注意力模塊引導模型關注人臉關鍵信息,加速模型訓練;最后引入自適應特征融合模塊,將模型不同尺度信息融合,提高模型泛化能力。
2.1中心差分卷積模塊
為了加強SwinTransformer模型對人臉局部細微紋理信息的提取能力,本文引入中心差分卷積模塊,將其加入到每個SwinTransformer模塊前。相比于普通卷積,中心差分算子可以利用人臉圖像的梯度信息,有效地提取真假人臉的差異。如圖4所示,該算子的采樣操作與普通卷積一致,但聚合階段更側重于采樣值的中心向梯度,具體公式如下:
式中: ?x,y (204號 中心差分卷積的輸入與輸出特征圖;p0 輸入特征圖的當前位置;pn 中心區(qū)域 R 中的位置;ω 卷積核;θ? 超參數。
對于整個中心差分卷積模塊,其結構如圖5所示,由于SwinTransformer模型中輸人的數據維度與卷積神經網絡中的不同,因此將輸入中心差分卷積模塊的數據維度從 (B,H×W,C) 變換為 (B,C,H,W) :隨后將得到數據輸入 1×1 的卷積層,使通道數減少為 C/4 ,再通過 3×3 的中心差分卷積提取局部特征;最后經過 1×1 的卷積層恢復其維度;同時加人殘差連接防止模型退化,并且在每個卷積層后加入歸一化層和ReLU激活函數以提高模型的穩(wěn)定性。
2.2 瓶頸注意力模塊
為減少人臉圖像冗余特征的干擾,本文引入空間-通道混合的瓶頸注意力模塊,引導模型關注人臉的關鍵特征,提高模型的運算速度。如圖6所示,瓶頸注意力模塊由通道注意力機制 MC(?) 和空間注意力機制 MS(?) 并行組成。輸入特征圖 F∈RC/r×H×W 經過瓶頸注意力機制產生對應的三維特征響應M(F)∈RC×H×W ,并與原輸入逐元素相乘后再相加,得到輸出特征圖 F′ ,具體公式如下:
F′=F+F?M(F)
其中 M(F) 由 MC(?) 和 MS(?) 相加后通過Swish非線性激函數得到,具體公式如下:
M(F)=σ(MC(F)+MS(F))
下面將分別介紹通道注意力分支和空間注意力分支:
1)通道注意力分支:該分支旨在減少與真假人臉辨識無關的雜散信號,增強關鍵通道的權重。輸人特征圖 F∈RC/r×H×W 首先進行全局平均池化,再通過帶隱藏層的多層感知機(MLP)來估計各個通道的注意力權值,其中,隱藏層的神經元尺寸設為RC/r×H×W , r 代表壓縮比;最后通過批歸一化操作將輸出尺寸重調至輸入大小,具體公式如下:
其中 W0∈RC/r×C b0∈RC/r , W1∈RC×C/r b1∈RC 0
2)空間注意力分支:該分支旨在定向增強人臉關鍵位置特征的權重,采用可擴大感受野的空洞卷積,從圖像上下文信息中捕獲具有高辨別力的區(qū)域,進而增強特征提取能力。具體來說,輸入特征圖F∈RC×H×W 先經過 1×1 的卷積調整為 F∈RC/r×H×W 再通過兩層 3×3 的空洞卷積提取上下文信息,最后通過 1×1 的卷積和批歸一化操作將尺寸恢復至輸入大小,具體公式如下:
MS(F)=BN(f1×13(f3×32(f3×31(f1×10(F)))))
式中:fx 卷積操作;(204號 i? ——第i層;j×j. 二 —卷積核尺寸。
2.3 自適應特征融合模塊
SwinTransformer人臉活體檢測模型在淺層人臉特征圖語義描述和深層人臉特征圖細節(jié)感知方面存在不足,造成人臉細節(jié)信息丟失,導致其泛化能力較差。為解決這一問題,本文將SwinTransformer模型不同階段的特征圖進行自適應加權融合,充分利用不同尺度的人臉語義信息,減少細節(jié)信息丟失。如圖3所示,自適應特征融合模塊將主干模型不同階段輸出的特征信息先進行全局平均池化,再將得到的4個不同尺度的特征信息 F1 , F2 , F3 , F4 融合為 Ff ,計算公式如下:
Ff=α1?F1+α2?F2+α3?F3+α4?F4
式中: α1、α2、α3、α4 特征信息對應的權重;(204號 wi 初始化權重系數。
3實驗結果與分析
3.1 數據集
本文選用OULU-NPU[、CASIA-MFSD[7](CM)和REPLAY-ATTACK[8(RA)數據集評估所提模型性能。其中OULU-NPU為大型高分辨率數據集,包含4950段真實和欺詐視頻,幀率為 30Hz 、分辨率為 1920×1080 像素,由55位志愿者在3種不同場景下的6種不同手機采集。另外該數據集具有4個測試協議,協議1、2、3分別測試不同數據采集環(huán)境、欺詐媒介、數據集采集設備對模型的影響,協議4即考慮以上所有因素。由于該數據集具備多種未知的攻擊類型,因此其成為用于評估模型面對未知攻擊性能的常用數據集。
CM數據集包括600段視頻,由50位志愿者在三個攝像頭下采集,其分辨率分別為 480×640 、640×480 、 720×1080 像素,其中欺詐攻擊類型包括三種:彎曲打印攻擊、剪切打印攻擊和重放攻擊。RA數據集包括1300段視頻,由50位志愿者在兩種不同光照的場景下錄制,其分辨率為 320×240 像素,欺詐攻擊類型包括打印攻擊和重放攻擊。
3.2 評價指標
OULU-NPU數據集庫內測試采用攻擊分類錯誤率(APCER)、真實表示分類錯誤率(BPCER)和平均分類錯誤率(ACER)。ACER即BPCER和APCER的平均值,其計算公式如下:
CM和RA數據集跨庫測試采用拒絕率(FRR)、錯誤接受率(FAR)和半錯誤率(HTER)。HTER即FRR和FAR的均值,計算公式如下:
3.3實驗環(huán)境及參數設置
本文所有實驗采用Windows1064位的操作系統(tǒng),在型號為RTX-2080的GPU上使用Pytorch框架完成。實驗中采用MTCNN算法[9]檢測人臉區(qū)域,并截取大小為 224×224 的RGB人臉圖像作為輸入。訓練過程中,模型初始學習率設為0.0001,優(yōu)化器采用Adam,迭代次數為200輪,batchsize設為4,同時為避免過擬合現象,對輸入圖像進行隨機翻轉與裁剪的預處理。
3.4 對比實驗
本文在OULU-NPU數據集進行庫內測試和在CM與RA數據集進行跨庫測試,通過與當前主流的模型對比,以此來驗證本文模型的檢測效果。
表1\~表4展示了該模型及當前主流模型在OULU-NPU數據集4個協議下的實驗結果,其中ACER越小,表示模型性能越好。本文模型在4個測試協議下的ACER分別為 0.2% , 1.1% (1.1±0.6)% , (2.8±1.4)% ,在各個協議均達到最佳。相比于采用輔助監(jiān)督信息rPPG的Auxiliary方法和采用時間維度信息為輸人的STASN方法,本文方法采用單幀圖像進行檢測,降低模型復雜度。相比于采用卷積神經網絡的BCN和CDCN方法,本文模型利用SwinTransformer模型提取人臉全局信息,提供先驗知識,并采用中心差分卷積提取人臉局部信息,二者相結合,提高模型性能。Disentangled方法通過對圖片解糾纏,分離圖像人臉內容和無關內容,來應對未知攻擊,但目前并不能完全分離人臉內容與無關內容,導致檢測精度低。本文方法則采用中心差分算子和SwinTransformer共同提取人臉特征,其中提取到的真假人臉固有差異,不隨環(huán)境背景改變而發(fā)生變化,因此檢測性能更佳。AISL方法在CDCN網絡的基礎上引入自適應索引平滑損失,解決了難樣本的檢測問題,但面對不同環(huán)境檢測效果仍然不佳。對此本文方法引入瓶頸注意力模塊,使得模型更加關注人臉關鍵信息,去除冗余信息干擾。ASMN方法采用雙流網絡,以空間信息為輔助,將人臉全局特征和多尺度信息相結合,但由于模型復雜,導致檢測誤差較大。相比于此,本文利用自適應加權模塊,將不同尺度的特征信息相融合,提高特征利用率,充分捕捉真假人臉的差異。從表1\~表4可以看出,與現有方法相比,本文方法在4個協議的表現均具有一定的優(yōu)勢,證明該方法面對未知攻擊具有一定的魯棒性。
本文模型在庫內測試取得較好效果的同時,需要進一步驗證其泛化能力,因此選擇在CM和RA兩個數據集之間進行跨庫測試。由于這兩種數據集具備不同的人臉身份、環(huán)境、設備、欺詐介質等因素,因此可以較好地模擬出模型面對實際場景的檢測過程。測試結果如表5所示,當采用CM數據集訓練時,本文模型HTER為 14.1% ,采用RA數據集訓練時,HTER為 22.9% ,均優(yōu)于當前主流最優(yōu)模型,相比于次優(yōu)的CDCN和ASMN模型其HTER分別降低 1.4% 和 1.1% ,證明了本文模型具有良好的泛化能力。
3.5 消融實驗
本文在OULU-NPU數據集協議1上設計主干模型選擇、瓶頸注意力模塊組合方式和位置以及驗證各模塊作用的消融實驗。
首先,本文從具有全局信息提取能力的Transformer類模型中選取最適合人臉活體檢測任務的模型作為主干。本文選取適合圖像任務的ViT、LeViT、MobileViT和SwinTransformer模型在相同的條件下進行訓練。其中ViT是最先應用于圖像領域的Transformer模型,具有提取全局信息的能力;LeViT在ViT的基礎上引入卷積層,并重新設計了自注意力模塊,提高特征提取能力;MobileViT將MobileNet與ViT相結合,具備全局信息提取能力的同時,提高了模型運算速度;SwimTransformer設計滑動窗口自注意力機制,提高特征提取能力的同時減少模型計算量。各模型的ACER如表6所示,其中SwinTransformer的ACER為 1.5% ,優(yōu)于其他模型,表明其更適合人臉活體檢測任務。
其次驗證瓶頸注意力模塊組合方式對模型的影響,分別設計先通道-后空間和先空間-后通道的注意力分支串行方式,以及通道和空間注意力分支并行的方式。該實驗中模型僅改變瓶頸注意力模塊,其結果如表7所示,并行注意力模塊的ACER最低為 0.2% ,因此本文選擇并行的通道空間注意力為瓶頸注意力模塊。
由于SwinTransformer模型不同階段的輸出特征尺寸及信息均有所不同,對最終的檢測結果也起到一定的影響,因此本文設計瓶頸注意力模塊放置位置的實驗。表8顯示了瓶頸注意力模塊在不同放置位置的檢測效果,其中放在階段2后的ACER最低,為 0.2% ,表明此時模型性能最佳。
為驗證各模塊的作用,本文進行中心差分卷積模塊(CDCM)、瓶頸注意力模塊(BAM)和自適應特征融合模塊(AFF)的消融實驗。實驗結果如表9所示,“√\"表示在模型中使用該模塊。當CDCSwin-T模型依次僅去除CDCM、BAM和AFF模塊時,ACER分別上升 0.7% 0.3% 0.4% 。由此可以看出CDCM模塊對模型最重要,同時BAM和AFF均起到了一定的作用。相比于SwimTransformer,CDCSwim-T模型面對未知攻擊的檢測精度得到提升,也證明了其魯棒性與泛化能力的提升。
3.6 可視化分析
為更好地驗證本文所提模型及其模塊面對未知欺詐攻擊的作用,分別繪制baseline、模型1(baseline+CDCM模塊)、模型2(模型1+BAM模塊)、CDCSwin-T等4個模型在3個場景下的熱力圖(Grad-Cam)[16]。
如圖7所示,隨著baseline逐步加入不同模塊,各模型關注的真實人臉關鍵區(qū)域和假臉欺詐線索區(qū)域均逐漸增大。其中CDCSwin-T模型面對三個場景下的真實人臉均關注在人臉面部區(qū)域,如眼睛、嘴巴和鼻子,而不是特定的背景、光照等。對于打印攻擊,CDCSwin-T模型隨機關注于光反射造成的亮度差異區(qū)域;對于重放攻擊,CDCSwin-T模型側重于關注摩爾紋相似區(qū)域,而并不局限于人臉面部區(qū)域。由此可以看出CDCSwin-T模型面對未知場景及欺詐類型的攻擊具有一定的魯棒性與泛化能力。
3.7 實時測試結果
為進一步驗證所提模型的性能,本文設計實時人臉活體檢測實驗,首先通過MTCNN算法裁剪人臉并輸人本文模型,其次進行人臉活體檢測并顯示檢測結果。實驗選取兩位志愿者,在兩種光照下,進行測試。結果如圖8所示,real和spoof分別代表真實人臉和欺詐人臉,其中志愿者1和2所在場景分別為白天自然光和夜間燈光,欺詐攻擊類型分別為:手機重放攻擊、打印攻擊、裁剪打印攻擊。如圖8所示,本文模型對兩種場景下的真實人臉和三種不同類型的欺詐攻擊均能正確識別,證明了該模型的實際應用價值。
4結束語
針對目前多數人臉活體檢測模型面對未知攻擊魯棒性和泛化能力較差的問題,本文提出一種基于CDCSwin-T的人臉活體檢測模型。該模型以SwinTransformer為主干來提取人臉全局信息,其次引入中心差分卷積模塊提取人臉局部信息,二者相結合,使得主干模型充分捕獲真假人臉差異;隨后引入瓶頸注意力模塊引導主干模型關注人臉關鍵信息;最終將主干模型不同階段特征進行融合,減少人臉細節(jié)信息丟失,提高本文模型泛化能力。CDCSwin-T模型在OULU-NPU數據集的庫內測試和CASIA-MFSD與REPLAY-ATTACK數據集的跨庫測試均取得了優(yōu)異的表現,也證明了該模型面對未知攻擊的魯棒性與泛化能力。后續(xù)工作將考慮收集更多實際場景中的欺詐攻擊用于本文模型訓練,同時輕量化該模型使其部署到移動設備。
參考文獻
[1] YANGJ,LEI Z,LI SZ.Learnconvolutional neural network forface anti-spoofing[J].arXiv preprint arXiv:1408.5601, 2014.
[2] YU Z,ZHAO C,WANG Z,etal. Searching central difference convolutional networks for face antispoofing[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattem Recognition.2020:5295-5305.
[3]GEORGEA,MARCEL S.On the effectiveness of vision transformers for zero-shot face anti-spoofing[C]//2021 IEEE International Joint Conference on Biometrics (IJCB). IEEE, 2021:1-8.
[4]QIAO T,WUJ,ZHENG N,et al.Fgdnet:Fine-grained detection network towards face anti-spoofing[J].IEEE TransactionsonMultimedia,2023,25:7350-7363.
[5]張青春,吳崢,周玲,等.基于改進YOLOv5的車輛與行人目 標識別方法[J].中國測試,2023,49(7):82-88. ZHANGQC,WU Z,ZHOU L,et al.Vehicleand pedestrian target detection method based on improved YOLOv[J].ChinaMeasurement amp; Test,2023,49(7):82- 88.
[6]BOULKENAFETZ,KOMULAINENJ,LIL,etal.OULUNPU:A mobile face presentation attack database with realworld variationslC」//201712th IEEE international conference on automatic face amp; gesture recognition (FG 2017).IEEE, 2017: 612-618.
[7]ZHANG Z,YANJ,LIU S,etal.A face antispoofing database withdiverseattacks[C]//2012 5th IAPR international conference on Biometrics (ICB).IEEE,2012:26-31.
[8]CHINGOVSKA I,ANJOS A,MARCEL S.On the effectivenessof local binarypatternsinfaceantispoofing[C]/2012 BIOSIG-proceedings of the international conference of biometrics special interest group (BIOSIG). IEEE,2012:1-7.
[9]朱建秋,華陽,宋曉寧,等.結合面部紋理和前/背景差異的人 臉活體檢測[J].中國圖象圖形學報,2023,28(3):789-803. ZHUJQ,HUAY,SONGXN,etal.Facial livenessdetection combiningfacialtextureandforeground/background differences[J]. Journal of Image and Graphics,2023,28(3): 789-803.
[10]YANGX,LUOW,BAOL,etal. Faceanti-spoofing:Model matters,so does data[C]//Proceedingsof the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019:3507-3516.
[11] ZHENG W,YUE M,ZHAO S,etal.Attention-based spatialtemporal multi-scale network for face anti-spoofing[J].IEEE Transactionson Biometrics,Behavior,and IdentityScience, 2021,3(3): 296-307.
[12] LIU Y,JOURABLOO A,LIU X.Learming deep models for faceanti-spoofing:Binary orauxiliarysupervision[C] //Proceedings of the IEEE conference on computer vision and pattern recognition.2018:389-398.
[13] ZHANG KY,YAOT,ZHANG J,etal.Face anti-spoofing Via disentangled representation learning[C]//Computer Vision-ECCV 2020:16th European Conference,Glasgow, UK,August 23-28,2020,Proceedings,Part XIX16.Springer International Publishing,2020:641-657.
[14]WANGC,ZHOUJ.An adaptive index smoothing loss for face anti-spoofing[J].Pattern Recognition Letters,2022,153: 168-175.
[15]YU Z,LI X,NIUX,et al.Face anti-spoofing with human material perception[C]//Computer Vision-ECCV 2020:16th European Conference,Glasgow,UK,August 23-28,2020, Proceedings,Part VII16.Springer International Publishing, 2020:557-575.
[16]陳海秀,陸康,何珊珊,等.改進生成對抗網絡水下圖像增強方 法[J].中國測試,2024,50(1):54-61. CHEN H X,LU K,HE S S,et al.Underwater image enhancement based on improved generative adversarial network[J].China Measurement amp; Test,2024,50(1):54-61.
(編輯:劉楊)