• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    分層蒸餾解耦網(wǎng)絡(luò)的低分辨率人臉識別算法

    2025-08-03 00:00:00鐘銳宋亞鋒周曉康
    計算機應(yīng)用研究 2025年6期
    關(guān)鍵詞:識別率人臉分層

    Hierarchical knowledge distillation decoupling network for low-resolution face recognition algorithm

    Zhong Rui?, Song Yafeng, Zhou Xiaokang (SchoolofMathematicsamp;Computer Science,GannanNormal University,Ganzhou Jiangxi341ooo,China)

    Abstract:Alargenumberoffacial detail features arelostinlow-resolutionface images,which makes therecognitionrateof manyclassical facerecognition models with goodperformancedecrease sharplyToaddressthisproblem,thispaperproposed ahierarchicalknowledgedistilationdecoupling(HKDD)network.Firstly,theconvolutionallayersoftheteachernetworkand thestudentnetworkperformed hierarchicalfeaturedistilltiontoenhancethestudentnetwork’sfeaturedescriptionabilityfor low-resolutionsamples.Thisdistilltionensuredthatthelow-resolutionfacefeatures extractedbytheintermediatelayersof the studentnetworkcloselyapproximatedthehigh-resolutionfacefeatures extractedbytheintermediatelayersof theteachernetwork,effectivelytransferingthepowerfulfeaturedescriptionabilityoftheteahernetwork’sintermediatelayerstothestudent network.Subsequently,the softmax layers of theteachernetwork andthe student network performed decoupling distlation, spliting thedistillaionlossattesofmaxlayerintotargetcassdistillationlossndon-targetclassdistillationlosedecoupling distilationcould playaguidingroleinthetrainingof student networksbyleveragingthesuppessdnon-targetdistillationloss,sothatthesudentnetworkcouldlearntheclasificationabilityofuniversalfacialfeaturesundertheguidanceof theteachernetwork,therebyensuringthatthestudentnetworkhasstrongclasificationabilityinunrestrictedscenes.Finally, byconducting validation experiments on several low-resolution face datasets,such as TinyFace and QMUL-SurvFace,the HKDD model demonstrates superior performance intermsof recognitionrateandreal-time performancecompared tootherrepresentativelow-resolutionfacerecognition models.Theexperimentalresultsconfirmtheefectivenessof HKDD in handling low-resolution face recognition tasks.

    Keywords:low-resolutionfacerecognition;hierarchicalknowledgedistilationdecouplingnetwork;hierarchicalfeaturedis tillation;decoupling distillation;unrestricted scenes

    0 引言

    目前人臉識別技術(shù)已廣泛應(yīng)用于門禁、考勤、支付以及安防監(jiān)控等場景。然而在以上應(yīng)用場景中很容易因為距離遠而采集到低分辨率人臉圖像,這類人臉圖像中丟失了大量面部細節(jié)特征,同時各種干擾因素(如:姿態(tài)偏轉(zhuǎn)、表情變化、光照變化和遮擋等)的疊加,使得所采集的人臉圖像與訓(xùn)練集中的高分辨率人臉圖像間存在很大的分布差異。在這樣復(fù)雜的應(yīng)用場景中,即使是采用目前先進的人臉識別算法也很難取得令人滿意的識別精度,因此在復(fù)雜的非限制性場景中對低分辨率人臉進行準確識別是一項極具挑戰(zhàn)性的任務(wù)。目前主要的解決方案可以分為統(tǒng)一特征空間映射法[1]、超分辨率重建法[2.3]和知識蒸餾法[4.5]三類,其中超分辨率重建法是將超分辨率重建與人臉識別兩個過程進行集成,能夠在一定程度上提升低分辨率人臉識別算法的識別率。但是圖像的超分辨率重建僅僅是在視覺感官層面對像素進行了復(fù)原,而面部識別更重要的是在特征層面上對特征進行復(fù)原,該類型算法很難顯著提升算法的識別率,且還需要耗費大量的計算資源,將導(dǎo)致算法的實時性不足[。統(tǒng)一特征投影法是將不同分辨率的人臉特征投影至同一個特征空間進行面部識別,采用該方式忽略了領(lǐng)域內(nèi)部的結(jié)構(gòu)差異性,也就是說,這種全局特征投影變換方法只關(guān)注于整體的特征差異,沒有關(guān)注局部的特征差異,該類型方法只能夠在一定程度上提高低分辨率人臉的識別率。

    隨著深度網(wǎng)絡(luò)模型的不斷發(fā)展,知識蒸餾法是將深度網(wǎng)絡(luò)模型的優(yōu)秀特征描述能力與知識蒸餾算法相結(jié)合,這樣一方面利用了深度網(wǎng)絡(luò)模型具有很強特征描述能力的優(yōu)勢,使模型能夠有效提取出人臉面部中具有較好判別特性的特征。另一方面該類型方法能充分利用現(xiàn)有大量的數(shù)據(jù)集和高精度識別模型學習到有用的特征知識和表達能力,同時也能顯著減少模型訓(xùn)練的工作量,使之具有較好的實時性。

    受到深度知識蒸餾模型的啟發(fā),本文提出了一種基于分層蒸餾解耦(hierarchical knowledge distillationdecoupling,HKDD)網(wǎng)絡(luò)的低分辨率人臉識別算法。本文主要工作如下:

    a)為了提高學生網(wǎng)絡(luò)在低分辨率樣本中的特征描述能力,本文在教師網(wǎng)絡(luò)與學生網(wǎng)絡(luò)的卷積層之間進行分層特征蒸餾,使學生網(wǎng)絡(luò)各中間層所提取的低分辨率人臉特征能夠盡可能接近教師網(wǎng)絡(luò)中間層所提取的高分辨率人臉特征,從而將教師網(wǎng)絡(luò)各中間層強大的特征描述能力蒸餾到學生網(wǎng)絡(luò),從而使學生網(wǎng)絡(luò)能夠從低分辨率人臉圖像中提取出具有較好判別特性的面部特征。

    b)為了能有效提升學生網(wǎng)絡(luò)對疊加有多種干擾因素(光照變化、表情改變、姿態(tài)偏轉(zhuǎn)以及遮擋等)的人臉樣本的分類能力,在教師網(wǎng)絡(luò)與學生網(wǎng)絡(luò)的softmax層之間進行解耦蒸餾,把softmax層的蒸餾損失解耦為目標類蒸(targetclassdistil-lation,TCD)損失和非目標類蒸餾(non-targetclassdistillation,NCD)損失,使學生網(wǎng)絡(luò)在教師網(wǎng)絡(luò)指導(dǎo)下學習到通用性面部特征的分類能力,從而確保學生網(wǎng)絡(luò)能夠在各種干擾因素疊加的應(yīng)用場景中具有較好的分類能力。

    c)在多個低分辨率人臉數(shù)據(jù)集中進行了大量對比實驗,所提算法在含有光照變化、表情改變、姿態(tài)偏轉(zhuǎn)、遮擋等干擾因素存在的低分辨率應(yīng)用場景中,具有領(lǐng)先的識別率和實時性。

    1相關(guān)工作

    基于知識蒸餾的低分辨率人臉識別方法能夠在提升算法識別率的同時,有效降低模型的復(fù)雜度,并且能夠取得較高的人臉識別率,具有很好的研究價值和實用價值。本文對現(xiàn)有基于知識蒸餾的低分辨率人臉識別方法進行了詳細分析,具體如下:

    知識蒸餾是一種由教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)構(gòu)成的網(wǎng)絡(luò)框架,使用具有高識別率的教師網(wǎng)絡(luò)對學生網(wǎng)絡(luò)進行指導(dǎo)訓(xùn)練,讓學生網(wǎng)絡(luò)具備更強的跨域識別能力以及更好的實時性能。該類型方法是由Hinton等人[首次提出,其對知識蒸餾進行了系統(tǒng)的闡述,采用軟標簽和溫度系數(shù)來實現(xiàn)教師網(wǎng)絡(luò)對學生網(wǎng)絡(luò)的指導(dǎo)。文獻[8]首次將知識蒸餾應(yīng)用于低分辨率人臉識別領(lǐng)域,該方法顯著提升了低分辨率人臉圖像的識別率。此后低分辨率人臉識別領(lǐng)域出現(xiàn)了許多基于知識蒸餾模型的識別方法。文獻[9]中基于遞歸知識蒸餾和角蒸餾的VarGFaceNet模型和文獻[10]中基于橋蒸餾的低分辨率人臉識別模型,是在網(wǎng)絡(luò)輸出層進行軟標簽蒸餾來實現(xiàn)對學生網(wǎng)絡(luò)的指導(dǎo),然而僅從教師網(wǎng)絡(luò)的輸出層進行知識蒸餾,無法將教師網(wǎng)絡(luò)的特征描述能力遷移給學生網(wǎng)絡(luò),所帶來的算法識別率提升非常有限。因此,研究者開始考慮從網(wǎng)絡(luò)中間層進行特征蒸餾,以進一步提高低分辨率人臉圖像的識別率。中間層特征蒸餾是指將教師網(wǎng)絡(luò)中間層的特征描述能力傳遞給學生網(wǎng)絡(luò),使學生網(wǎng)絡(luò)具備與教師網(wǎng)絡(luò)類似的特征描述能力[\"]。首次使用中間層特征蒸餾是文獻[12]的FitNets模型,其核心思想是讓學生網(wǎng)絡(luò)的中間層特征盡可能接近教師網(wǎng)絡(luò)的中間層特征。文獻[13\~15]的模型都是在網(wǎng)絡(luò)中間層特征蒸餾的基礎(chǔ)上將教師網(wǎng)絡(luò)強大的特征描述能力遷移到學生網(wǎng)絡(luò),從而提高學生網(wǎng)絡(luò)模型在低分辨率人臉圖像上的識別率。以上文獻僅僅從單方面使用輸出層蒸餾[16]或中間層特征蒸餾來提升學生網(wǎng)絡(luò)對跨域樣本的識別能力,然而在實際應(yīng)用場景中所采集到的低分辨率人臉圖像中還存在多種干擾因素疊加,如:光照變化、表情改變、姿態(tài)偏轉(zhuǎn)以及遮擋等,將導(dǎo)致以上模型的識別率不容易取得令人滿意的識別精度。

    針對以上問題,本文將從分層特征蒸餾和softmax層的解耦蒸餾兩方面來實現(xiàn)教師網(wǎng)絡(luò)對學生網(wǎng)絡(luò)的共同指導(dǎo),將具有高識別率的經(jīng)典人臉識別模型的特征描述能力與分類能力蒸餾至學生網(wǎng)絡(luò),從而使學生網(wǎng)絡(luò)在低分辨率數(shù)據(jù)集中具有更高的識別率。

    2分層蒸餾解耦網(wǎng)絡(luò)

    本文所提的分層蒸餾解耦(hierarchicalknowledgedistil-lationdecoupling,HKDD)網(wǎng)絡(luò)的總體模型結(jié)構(gòu)如圖1所示。該網(wǎng)絡(luò)模型分為教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)兩個網(wǎng)絡(luò)分支,其中學生網(wǎng)絡(luò)是用于識別低分辨率人臉樣本的目標網(wǎng)絡(luò),在模型訓(xùn)練時,將隸屬于同一類別的高分辨率和低分辨率的人臉圖像分別同步輸入至教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)。

    為了提升學生網(wǎng)絡(luò)對于低分辨率樣本的特征描述能力,在學生網(wǎng)絡(luò)與教師網(wǎng)絡(luò)的各卷積層之間構(gòu)建多個用于特征擬合的分層蒸餾損失函數(shù),使學生網(wǎng)絡(luò)各中間層所提取的低分辨率人臉特征盡可能接近教師網(wǎng)絡(luò)相應(yīng)層次所提取的高分辨率人臉特征。隨后將教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)的softmax層之間的蒸餾損失函數(shù)進行等價變換,解耦為目標類蒸餾損失和非目標類蒸餾損失,并根據(jù)教師網(wǎng)絡(luò)的分類損失設(shè)置相應(yīng)的權(quán)重,使學生網(wǎng)絡(luò)的整體特征描述能力和分類性能得到進一步提升。

    2.1 分層特征蒸餾

    由于教師網(wǎng)絡(luò)是具有復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)的深層網(wǎng)絡(luò),這使得教師網(wǎng)絡(luò)具備很強的特征描述能力,能夠從樣本中準確提取出具有較好判別特性的面部特征。為了能夠?qū)⒔處熅W(wǎng)絡(luò)的強大特征描述能力遷移至學生網(wǎng)絡(luò),使學生網(wǎng)絡(luò)能夠在具備精簡網(wǎng)絡(luò)結(jié)構(gòu)的同時,還具備與教師網(wǎng)絡(luò)類似的特征描述能力,本文受到文獻[10,15]的啟發(fā)。首先,在教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)之間構(gòu)造分層特征蒸餾子網(wǎng),在該子網(wǎng)中引入具有相同神經(jīng)元數(shù)量的全連接網(wǎng)絡(luò),利用該網(wǎng)絡(luò)可實現(xiàn)對學生網(wǎng)絡(luò)和教師網(wǎng)絡(luò)所提取的特征進行壓縮編碼,使教師網(wǎng)絡(luò)中間層所提取的特征維數(shù)與學生網(wǎng)絡(luò)所提取的特征維數(shù)保持一致,為后續(xù)的特征差異度量做好準備。隨后,為了讓學生網(wǎng)絡(luò)所提取的特征能夠與教師網(wǎng)絡(luò)所提取的特征盡可能相似,本文在分層特征蒸餾子網(wǎng)中構(gòu)造了差異度量函數(shù),利用教師網(wǎng)絡(luò)與學生網(wǎng)絡(luò)之間的特征差異作為監(jiān)督信號來進一步優(yōu)化學生網(wǎng)絡(luò),使學生網(wǎng)絡(luò)中間層所提取的特征與教師網(wǎng)絡(luò)中間層所提取特征保持較高的相似性,從而使學生網(wǎng)絡(luò)的特征描述能力得到顯著增強。最后,由于教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)都是具有多層網(wǎng)絡(luò)結(jié)構(gòu)的深度網(wǎng)絡(luò),處于不同層次的卷積層能夠提取出具有不同抽象程度的面部特征,這些特征對于目標人臉的準確識別起到了重要的作用。因此為了實現(xiàn)教師網(wǎng)絡(luò)對學生網(wǎng)絡(luò)的全面指導(dǎo),本文在教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)之間構(gòu)造了多個分層特征蒸餾子網(wǎng),通過這樣的方式,讓學生網(wǎng)絡(luò)的多個中間層所提取的特征盡可能與教師網(wǎng)絡(luò)中間層所提取的特征保持相似,最終達到顯著提升學生網(wǎng)絡(luò)特征表達 能力的目標。

    Fig.1Model structure of hierarchical knowledge distillation decoupling network

    具體的實現(xiàn)步驟如下:

    a)使用具有高識別率的經(jīng)典人臉識別網(wǎng)絡(luò)作為教師網(wǎng)絡(luò),記為 fT(x;φ) ,其中 x 為輸入的高分辨率樣本, φ 為教師網(wǎng)絡(luò)的模型參數(shù);使用具有精簡網(wǎng)絡(luò)結(jié)構(gòu)的深度網(wǎng)絡(luò)作為學生網(wǎng)絡(luò),記為 fs(z;θ) ,其中 z 為輸入的低分辨率樣本,θ為學生網(wǎng)絡(luò)模型的參數(shù)。模型在訓(xùn)練時,將高分辨率人臉圖像輸入到教師網(wǎng)絡(luò),同時使用下采樣和仿射變換等方法對該高分辨率人臉圖像進行下采樣和擴容處理,將處理后的低分辨率人臉圖像同步輸人至學生網(wǎng)絡(luò)。

    圖1分層蒸餾解耦網(wǎng)絡(luò)的總體模型結(jié)構(gòu)

    b)為確保學生網(wǎng)絡(luò)中間層所提取的低分辨率人臉特征盡可能與教師網(wǎng)絡(luò)中間層所提取的高分辨率人臉特征相似,本文在各分層特征蒸餾子網(wǎng)中引入由全連接網(wǎng)絡(luò)構(gòu)成的分層分類子網(wǎng),并在該子網(wǎng)之間構(gòu)建分層蒸餾損失函數(shù) Ri 來實現(xiàn)分層特征蒸餾,從而達到提升學生網(wǎng)絡(luò)特征描述能力的目標。分層i的分層特征蒸餾子網(wǎng)的結(jié)構(gòu)如圖2所示。

    Ri 的具體定義如下所示。

    其中: z∈p(IG) 和 z∈IG 為隸屬于同一類別的低分辨率人臉圖像與高分辨率人臉圖像, IG 為高分辨率人臉數(shù)據(jù)集, p(IG) 為對IG 進行下采樣和仿射變換后的低分辨率人臉數(shù)據(jù)集; msi(???) 為學生網(wǎng)絡(luò)第 i 個分層分類子網(wǎng); mTi(?) 為教師網(wǎng)絡(luò)第 i 個分層分類子網(wǎng); φi 和 ηi 為學生網(wǎng)絡(luò)和教師網(wǎng)絡(luò)的第 i 分層分類子網(wǎng)的模型參數(shù)。

    2.2 解耦知識蒸餾

    由于softmax層處于網(wǎng)絡(luò)的最末端,相比較于中間特征提取層具有更為高層的語義信息,所以在該層進行知識蒸餾應(yīng)能使學生網(wǎng)絡(luò)具有更高的性能上限,然而在許多實際實驗中發(fā)現(xiàn),傳統(tǒng)知識蒸餾方法對學生網(wǎng)絡(luò)在低分辨率場景中分類性能的提升效果并不顯著[16]。為了解決該問題,把教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)softmax層的logits輸出分成兩部分(如圖3所示,見電子版),其中黃色部分為目標類別的分類概率 pt ,綠色部分為非目標類別的分類概率 ,利用等價變換將傳統(tǒng)的知識蒸餾損失解耦為目標類蒸餾損失和非目標類蒸餾損失。具體解耦過程如下:

    其中:KD為經(jīng)典的知識蒸餾損失函數(shù); c 為類別數(shù)量; piT 為教師網(wǎng)絡(luò)中類別 i 的概率值,具體的定義為

    其中: zi 為類別 i 的 logit 值; pis 的具體定義方法與 piT 一致。 ptT 為教師網(wǎng)絡(luò)中目標類別的概率值,具體定義為

    式(2)中 pts 的具體定義方法與式(4)中的 ptT 一致。

    教師網(wǎng)絡(luò)中所有非目標類概率和的定義為

    與此同時,本文將教師網(wǎng)絡(luò)中單個非目標類的分類概率定義為

    由式(3)(5)和(6)可以得出:

    根據(jù)式(3)和(6的定義,并結(jié)合式(7),可將式(2)改寫為

    由于 與類別 i 是不相關(guān)的,可以得到:

    最后根據(jù)式(8)和(9),可以得到:

    其中 為目標類蒸餾損失(TCD),其所體現(xiàn)的是目標類與非目標類的二分類分布,作用是使學生網(wǎng)絡(luò)在教師網(wǎng)絡(luò)的指導(dǎo)下,提高具有較大分類難度(包含光照變化、表情改變、姿態(tài)偏轉(zhuǎn)以及遮擋等干擾因素)的目標人臉樣本的分類準確率,記為: 為非目標類蒸餾損失(NCD),體現(xiàn)的是非目標類內(nèi)部競爭的多分類分布,其作用是讓學生網(wǎng)絡(luò)在教師網(wǎng)絡(luò)指導(dǎo)下學習到高置信度樣本中通用性面部特征的分類能力,記為 ??蓪⑹剑?)的解耦蒸餾損失函數(shù)改寫為

    該式中的NCD權(quán)重與 ptT 相互耦合,當目標樣本易于分類時,將導(dǎo)致NCD權(quán)重降低,使得NCD在知識蒸餾中被弱化,為了提高NCD的權(quán)重,本文給TCD與NCD賦予獨立權(quán)重,使被抑制的NCD發(fā)揮出其在遷移通用性面部特征分類能力方面的作用。因此將式(11)進一步優(yōu)化為

    其中: α 和 β 為權(quán)重系數(shù),該權(quán)重系數(shù)與數(shù)據(jù)集中樣本的分類難度緊密相關(guān),后續(xù)將通過實驗來設(shè)置以上兩個參數(shù)值。

    2.3 教師網(wǎng)絡(luò)的訓(xùn)練

    教師網(wǎng)絡(luò)是一個具有復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)的深度網(wǎng)絡(luò),使用高分辨率人臉數(shù)據(jù)集 IG 對其進行訓(xùn)練,由此可以得出該網(wǎng)絡(luò)的分類損失函數(shù)為

    C1(φ,IG)=L(fT(z;φ),y)

    其中: 為輸人樣本的真實標簽值; L(?) 為交叉熵。

    隨后對教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)各中間層網(wǎng)絡(luò)間的分層特征蒸餾子網(wǎng)進行優(yōu)化訓(xùn)練,從而得到教師網(wǎng)絡(luò)的各分層特征蒸餾子網(wǎng)的損失函數(shù),具體如式(14)所示。

    其中: σ 為教師網(wǎng)絡(luò)中所有分層特征蒸餾子網(wǎng)中待優(yōu)化的參

    數(shù): ?L(???) 為交叉熵; n 為分層特征蒸餾子網(wǎng)的數(shù)量。

    最后將教師網(wǎng)絡(luò)的分類損失函數(shù)與分層特征蒸餾子網(wǎng)損失函數(shù)進行融合,得到整個教師網(wǎng)絡(luò)的損失函數(shù),具體如下:

    LT=C1(φ,IG)+HT(σ,IG

    2.4 學生網(wǎng)絡(luò)的訓(xùn)練

    學生網(wǎng)絡(luò)是一個具有精簡網(wǎng)絡(luò)結(jié)構(gòu)的深度網(wǎng)絡(luò),通過教師網(wǎng)絡(luò)對學生網(wǎng)絡(luò)的指導(dǎo)訓(xùn)練,使學生網(wǎng)絡(luò)具備在復(fù)雜應(yīng)用場景(含有光照變化、表情改變、姿態(tài)偏轉(zhuǎn)以及遮擋等干擾因素)下對低分辨率樣本進行準確識別的能力,該網(wǎng)絡(luò)的損失函數(shù)由以下三部分構(gòu)成:a)分類損失函數(shù)。使用該函數(shù)并結(jié)合使用低分辨率人臉樣本對學生網(wǎng)絡(luò)的主干網(wǎng)絡(luò)和分層特征蒸餾子網(wǎng)進行優(yōu)化,使學生網(wǎng)絡(luò)的主體參數(shù)得到總體優(yōu)化。b)分層蒸餾損失函數(shù)。利用該損失函數(shù)使學生網(wǎng)絡(luò)所提取的低分辨率特征盡可能接近教師網(wǎng)絡(luò)所提取的高分辨率特征,以進一步提升學生網(wǎng)絡(luò)對低分辨率樣本的特征描述能力。c)解耦蒸餾損失函數(shù)。根據(jù)數(shù)據(jù)集的分類置信度設(shè)置相應(yīng)的解耦權(quán)重,使用該損失函數(shù)來提高學生網(wǎng)絡(luò)在識別具有較大分類難度(包含光照變化、表情改變、姿態(tài)偏轉(zhuǎn)以及遮擋等干擾因素)人臉樣本的分類準確率。具體訓(xùn)練過程主要分為以下兩個階段:

    階段1:網(wǎng)絡(luò)預(yù)訓(xùn)練初步優(yōu)化階段

    將低分辨率數(shù)據(jù)集 IL 輸人至學生網(wǎng)絡(luò)對其進行訓(xùn)練,由此可以得出學生網(wǎng)絡(luò)的分類損失函數(shù)為

    C2(θ,IL)=L(fS(h;θ),y)

    其中: ?L(???) 為交叉熵; h 為低分辨率樣本。

    由于學生網(wǎng)絡(luò)各中間層網(wǎng)絡(luò)間連接了分層特征蒸餾子網(wǎng),本文使用交叉熵對該子網(wǎng)進行訓(xùn)練優(yōu)化,具體如下:

    其中: σ:μ 為學生網(wǎng)絡(luò)中所有分層特征蒸餾子網(wǎng)中待優(yōu)化的參數(shù): 為交叉熵; n 為分層特征蒸餾子網(wǎng)的數(shù)量。

    階段2:分層蒸餾解耦網(wǎng)絡(luò)的性能優(yōu)化提升階段

    對高分辨數(shù)據(jù)集 I? 進行下采樣擴容操作,得到擴容后的低分辨率數(shù)據(jù)集 p(IG) ,將 IG 和 p(IG) 數(shù)據(jù)集中具有相同標簽的人臉樣本分別同步輸入至教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)(如圖1所示)。

    首先,利用教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)之間的分層特征蒸餾子網(wǎng)進行分層特征蒸餾,根據(jù)式(1)(14)和(17)可得出學生網(wǎng)絡(luò)的分層蒸餾損失函數(shù),具體如下:

    其中: n 為分層特征蒸餾子網(wǎng)的數(shù)量。

    隨后在教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)的softmax層進行解耦蒸餾,以提升學生網(wǎng)絡(luò)在識別具有較大分類難度人臉樣本的分類準確率。

    最后將分類損失函數(shù)、分層蒸餾損失函數(shù)以及解耦蒸餾損失函數(shù)進行融合,得到學生網(wǎng)絡(luò)的總體損失函數(shù),具體如下:

    LS=C2(θ,p(IG))+LR+LDKD

    3 實驗結(jié)果與分析

    為了驗證所提算法的有效性,本文在多個數(shù)據(jù)集中對所提算法的識別率與實時性進行測試,并與目前具有代表性的低分辨率人臉識別算法進行綜合對比實驗分析。本文所使用的硬件平臺配置為:IntelXeonGold51182.30GHz CPU,兩塊QuadroP5000顯卡,32GB內(nèi)存;開發(fā)工具為:PyCharm、PyTorch以及Anaconda。為了能夠更好地讓教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)收斂,實驗中使用CASIA-WebFace[17]數(shù)據(jù)集對教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)進行預(yù)訓(xùn)練。該數(shù)據(jù)集中共有10575個類,合計有494414張人臉圖片,使用該數(shù)據(jù)集對模型進行預(yù)訓(xùn)練能夠更好地讓模型適應(yīng)人臉數(shù)據(jù)集中的人臉圖像。

    3.1算法消融實驗

    為了測試算法中各個功能模塊在識別低分辨率人臉樣本時的作用,本文使用LFW數(shù)據(jù)集[18來構(gòu)建低分辨率人臉數(shù)據(jù)集。LFW數(shù)據(jù)集中共有5749個人臉類別,合計有13233張人臉圖像,數(shù)據(jù)集中的圖像采集于非限制性應(yīng)用場景,存在光照變化、表情改變、姿態(tài)偏轉(zhuǎn)以及遮擋等干擾因素,圖像尺寸為250×250 像素。在構(gòu)建低分辨率人臉數(shù)據(jù)集時,從LFW數(shù)據(jù)集中選取具有10張以上人臉樣本的158個類,使用MTCNN算法[9對LFW數(shù)據(jù)集圖像中人臉區(qū)域進行截取,并將所截取的人臉圖像進行下采樣,圖像尺寸歸一化為 30×30、25×25,20× 20,18×18,16×16 以及 14×14 像素六種分辨率。使用以上六種不同分辨率的人臉圖像來構(gòu)造六種不同分辨率的低分辨率人臉數(shù)據(jù)集。本實驗使用以上所構(gòu)造的低分辨數(shù)據(jù)集作為實驗數(shù)據(jù)集,圖4給出了低分辨率數(shù)據(jù)集的構(gòu)建方法。本實驗使用ResNet34和 ResNet18 作為教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)的主干網(wǎng)絡(luò)。圖4第1行圖片為LFW數(shù)據(jù)集中的高分辨率人臉圖像,第2\~7行圖片為下采樣后所構(gòu)造的六個低分辨率人臉數(shù)據(jù)集。

    圖4低分辨率人臉數(shù)據(jù)集的構(gòu)造方法 ig.4Construction method for low resolution face dataset

    3.1.1分層特征蒸餾對識別率的影響分析

    本實驗使用上文所構(gòu)造的六種不同分辨率的低分辨率LFW數(shù)據(jù)集進行測試,將網(wǎng)絡(luò)中間層的分層特征蒸餾(hierar-chicalfeaturedistillation,HFD)與網(wǎng)絡(luò)末端的經(jīng)典知識蒸(knowledgedistillation,KD)進行對比。在本實驗中將HFD模型的中間層分層數(shù)量設(shè)置為5,分析這兩種知識蒸餾方式對于學生網(wǎng)絡(luò)在識別低分辨率人臉圖像方面所起的作用,具體實驗結(jié)果如圖5所示。

    圖5KD和HFD的識別率對比 Fig.5Comparison of recognition ratesbetween KD and HFD

    由圖5可知,隨著圖像分辨率的不斷降低,HFD和KD方法的識別率都呈現(xiàn)逐步降低的趨勢,其中HFD方法的識別率總體高于KD方法。實驗結(jié)果說明對網(wǎng)絡(luò)中間層特征進行分層蒸餾能夠有效地將教師網(wǎng)絡(luò)各中間層強大的特征描述能力遷移到學生網(wǎng)絡(luò),從而達到提高低分辨率人臉識別率的目標。

    為了進一步驗證HFD網(wǎng)絡(luò)中不同層級分層特征蒸餾子網(wǎng)對低分辨率人臉識別率的影響,本文使用ResNet34和Res-Net18作為教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)的主干,并將分層特征蒸餾子網(wǎng)的數(shù)量均勻設(shè)置為3、5、7、9、11個。實驗中使用 20×20 像素的低分辨率LFW數(shù)據(jù)集對模型的識別率進行測試,具體的實驗結(jié)果如表1所示。

    表1不同分層數(shù)量的識別率對比Tab.1Comparison ofrecognitionrateswithdifferentlevels ofhierarchy

    由表1可知,當分層特征蒸餾子網(wǎng)數(shù)量為5層的HFD網(wǎng)絡(luò)的識別率要高于其他數(shù)量的HFD,說明網(wǎng)絡(luò)中分層特征蒸餾子網(wǎng)的數(shù)量不是越多越好,其主要原因是:網(wǎng)絡(luò)的不同層次所提取的特征抽象程度不同,處于網(wǎng)絡(luò)較淺層次的特征中所包含的語義信息較少,處于網(wǎng)絡(luò)較深層次的特征中包含了更多的語義信息。若在分層特征蒸餾時引入過多的分層特征蒸餾子網(wǎng),將使模型在進行分層特征蒸餾時,過多的淺層特征蒸餾將引入大量邊緣輪廓的淺層特征,這將降低學生網(wǎng)絡(luò)中間層特征所包含的語義信息,導(dǎo)致中間層特征在蒸餾過程中出現(xiàn)無法對齊的問題,從而導(dǎo)致模型得不到很好的優(yōu)化,最終出現(xiàn)模型識別率下降的問題。

    為了進一步探討HFD網(wǎng)絡(luò)中不同分層特征蒸餾子網(wǎng)數(shù)量與模型規(guī)模對學生網(wǎng)絡(luò)識別率的影響,本文將學生網(wǎng)絡(luò)固定為ResNet18,使用不同深度的ResNet作為教師網(wǎng)絡(luò)的主干。本實驗使用了ResNet34、ResNet50、ResNet56、ResNet101以及ResNet152作為教師網(wǎng)絡(luò)進行HFD算法識別率的對比實驗,具體實驗結(jié)果如圖6所示。

    圖6不同分層特征蒸餾子網(wǎng)數(shù)量與模型規(guī)模對學生網(wǎng)絡(luò) 識別率的影響 Fig.6Impactofdifferentnumbersofhierarchical featuredistillatior subnetsand model sizes on student network recognition rate

    在圖6中,ResNet18表示的是沒有使用HFD方法對學生網(wǎng)絡(luò)進行訓(xùn)練。圖中ResNet34(5層)表示的是教師網(wǎng)絡(luò)為ResNet34,其中引入了5個分層特征蒸餾子網(wǎng)對學生網(wǎng)絡(luò)進行訓(xùn)練,其他類似??梢园l(fā)現(xiàn),使用HFD方法對學生網(wǎng)絡(luò)訓(xùn)練后所取得的識別率都比ResNet18的識別率更高,進一步證明了HFD方法的有效性。當教師網(wǎng)絡(luò)為ResNet152時,學生網(wǎng)絡(luò)和教師網(wǎng)絡(luò)之間的規(guī)模存在較大懸殊,即使是增加了分層特征蒸餾子網(wǎng)的數(shù)量,學生網(wǎng)絡(luò)的識別率還是出現(xiàn)了一定幅度的降低,其主要原因是教師網(wǎng)絡(luò)規(guī)模越大,處于不同層次的面部特征的抽象程度差異也越大,導(dǎo)致教師網(wǎng)絡(luò)中間層特征與學生網(wǎng)絡(luò)中間層特征出現(xiàn)很大差異,使得在蒸餾過程中出現(xiàn)了特征強行擬合對齊的問題,導(dǎo)致學生網(wǎng)絡(luò)得不到很好的優(yōu)化,學生網(wǎng)絡(luò)分類準確率出現(xiàn)一定程度的降低。當教師網(wǎng)絡(luò)為ResNet34時,教師網(wǎng)絡(luò)與學生網(wǎng)絡(luò)沒有規(guī)模鴻溝,中間層特征的抽象差異程度不大,學生網(wǎng)絡(luò)通過分層蒸餾損失函數(shù)能夠很好地模仿教師網(wǎng)絡(luò)中間層所提取的特征,從而顯著增強了學生網(wǎng)絡(luò)各中間層的特征描述能力。

    3.1.2解耦蒸餾對識別率的影響分析

    由于所構(gòu)造的低分辨率LFW數(shù)據(jù)集中的人臉圖像存在光照變化、表情改變、姿態(tài)偏轉(zhuǎn)以及遮擋等干擾因素,為了能進一步提升所提算法的識別率,本實驗在教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)之間引入解耦蒸餾模塊(decouplingdistillation,DD),并通過對比實驗分析解耦蒸餾模塊在增強算法魯棒性和提升算法識別率方面的作用。為了測試解耦蒸餾損失函數(shù)中的權(quán)重參數(shù)對識別率的影響,本文使用 20×20 像素的低分辨率LFW數(shù)據(jù)集進行超參數(shù)的設(shè)置實驗,實驗采用控制變量法對這兩部分蒸餾損失的權(quán)重參數(shù)進行測試。首先將TCD的權(quán)重參數(shù) α 固定為1,然后依次調(diào)整NCD的權(quán)重參數(shù) β ,學生網(wǎng)絡(luò)識別率的具體實驗結(jié)果如表2所示。

    表2固定TCD的權(quán)重參數(shù)實驗

    由表2可知,當TCD權(quán)重參數(shù) α 固定為1時,低分辨率人臉圖像的識別率最高的NCD權(quán)重參數(shù) β 為8。這是由于NCD權(quán)重參數(shù)偏大更容易發(fā)揮出被抑制的非目標類蒸餾損失在分類層蒸餾中的作用,但如果NCD權(quán)重參數(shù)過大就會出現(xiàn)目標類損失被抑制的情況,使模型無法對低分辨率樣本進行準確識別。

    當NCD權(quán)重參數(shù) β 固定為8,逐步調(diào)整TCD的權(quán)重參數(shù)α 。學生網(wǎng)絡(luò)識別率的具體實驗結(jié)果如表3所示。

    表3固定NCD的權(quán)重參數(shù)實驗

    表3中的NCD權(quán)重參數(shù) β 固定為8時,低分辨率人臉圖像的識別率最高的TCD權(quán)重參數(shù) α 為1。這是由于TCD權(quán)重偏小能更好地發(fā)揮出被抑制的非目標類部分,但如果過小就會出現(xiàn)目標類部分被抑制的情況。根據(jù)上述實驗結(jié)果可知,輸出層解耦蒸餾的融合權(quán)重參數(shù) α 和 β 分別為1和8時,HKDD網(wǎng)絡(luò)對低分辨率人臉圖像的識別率最高,在后續(xù)實驗中以該參數(shù)來設(shè)置解耦蒸餾模塊。

    為了全面測試解耦蒸餾模塊在本文HKDD網(wǎng)絡(luò)中所起的作用,使用前面所構(gòu)造的6個不同分辨率的低分辨率LFW數(shù)據(jù)集進行測試,教師網(wǎng)絡(luò)使用的是ResNet34網(wǎng)絡(luò),學生網(wǎng)絡(luò)使用的是ResNet18網(wǎng)絡(luò),實驗中對比測試如下算法的識別率。ResNet為僅使用ResNet18網(wǎng)絡(luò)對低分辨率人臉進行識別;ResNet+KD 為對學生網(wǎng)絡(luò)使用了網(wǎng)絡(luò)末端的經(jīng)典知識蒸餾;ResNet+HFD 為對學生網(wǎng)絡(luò)使用了分層特征蒸餾;HKDD為本文所提的分層蒸餾解耦網(wǎng)絡(luò)。具體實驗結(jié)果如圖7所示。

    從圖7可以看出,在六種低分辨率LFW數(shù)據(jù)集的實驗中,未使用知識蒸餾的ResNet網(wǎng)絡(luò)的識別率最低, ResNet+KD 網(wǎng)絡(luò)僅僅是在網(wǎng)絡(luò)末端對softmax層進行知識蒸餾,對網(wǎng)絡(luò)分類能力的提升非常有限;引入了分層特征蒸餾的 ResNet+HFD 網(wǎng)絡(luò),則是在網(wǎng)絡(luò)中間層使用分層蒸餾損失函數(shù)來迫使學生網(wǎng)絡(luò)所提取的特征盡可能與教師網(wǎng)絡(luò)的特征保持相似,有效提升了學生網(wǎng)絡(luò)的特征表達能力,但是該網(wǎng)絡(luò)對于含有多種干擾因素疊加的低分辨率樣本的分類能力仍有不足。本文HKDD網(wǎng)絡(luò)的識別率最高,其主要原因是:該網(wǎng)絡(luò)將中間層的分層特征蒸餾和輸出層解耦蒸餾相結(jié)合形成了一個完整的端到端的網(wǎng)絡(luò)結(jié)構(gòu),使教師網(wǎng)絡(luò)實現(xiàn)了從中間特征提取層一直到網(wǎng)絡(luò)輸出層的全面蒸餾,特別是對學生網(wǎng)絡(luò)末端的解耦蒸餾。該蒸餾方法能充分發(fā)揮出原始蒸餾損失中被抑制的非目標類蒸餾損失對學生網(wǎng)絡(luò)的指導(dǎo)作用,從而使學生網(wǎng)絡(luò)在教師網(wǎng)絡(luò)指導(dǎo)下學習到通用性面部特征的分類能力,確保了學生網(wǎng)絡(luò)能夠在非限制性應(yīng)用場景中具有較強的魯棒性和較高的分類精度。

    圖7解耦蒸餾對算法識別率的影響
    Fig.7Impact of decoupling distillation on the recognition rate

    3.2低分辨率人臉識別的綜合對比實驗

    為了測試本文HKDD算法在低分辨率人臉圖像中的識別性能,首先本實驗使用3.1節(jié)中所構(gòu)建的低分辨率LFW數(shù)據(jù)集對算法訓(xùn)練與推理效率進行對比測試,并在多個不同像素的低分辨率LFW數(shù)據(jù)集中對算法的識別精度進行對比測試。隨后,本實驗還選取了TinyFace數(shù)據(jù)集[20以及QMUL-SurvFace數(shù)據(jù)集[21]來進一步測試算法的泛化能力。實驗中,將本文算法與近年來具有較好性能的低分辨率人臉識別算法進行綜合對比實驗,所對比的算法有: IKD[8] 、 BD[10] 、 FSKD[13] ) SCA[22] 、IRS[23] ,F(xiàn)T[24] 、MagFace[25] DSN[26] (204號 ,0L[27] 和 FFH[28] 。

    3.2.1基于低分辨率LFW數(shù)據(jù)集的識別效率與精度對比實驗

    本實驗選取了 25×25、20×20 以及 14×14 像素三個低分辨率LFW數(shù)據(jù)集作為測試數(shù)據(jù)集,使用 ResNet34 和ResNet18作為教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)的主干網(wǎng)絡(luò)。首先使用 20×20 像素的LFW低分辨率數(shù)據(jù)集對算法的訓(xùn)練時長以及單張樣本的平均識別時長進行對比實驗。具體實驗結(jié)果如表4所示。

    表4模型的訓(xùn)練與識別時長對比Tab.4Comparison ofmodel training and recognition duration

    由表4可知,本文HKDD網(wǎng)絡(luò)的訓(xùn)練與單張樣本平均識別時長都低于所對比的其他網(wǎng)絡(luò)。主要原因是在模型訓(xùn)練過程中,實驗中所對比的方法需要使用大量的樣本對模型進行多輪的迭代優(yōu)化,耗費了大量的時間。而本文網(wǎng)絡(luò)則是采用分層蒸餾方式,將教師網(wǎng)絡(luò)中各層次強大的特征描述能力遷移到學生網(wǎng)絡(luò),從而實現(xiàn)了對學生網(wǎng)絡(luò)的分層指導(dǎo)訓(xùn)練,使學生網(wǎng)絡(luò)無須使用大量樣本對模型進行訓(xùn)練,就能夠達到對學生網(wǎng)絡(luò)優(yōu)化的目標,極大地降低了本文網(wǎng)絡(luò)的訓(xùn)練時長。同時HKDD網(wǎng)絡(luò)中解耦蒸餾部分是通過恒等變換得出,并未給模型帶來新的算法開銷,也確保了所提HKDD網(wǎng)絡(luò)在訓(xùn)練過程中的高效性。在樣本識別過程中,由于HKDD框架中學生網(wǎng)絡(luò)使用的是具有精簡結(jié)構(gòu)的深度網(wǎng)絡(luò),所以HKDD在單張樣本平均識別時長實驗中具有較高的識別效率。

    為了測試上述低分辨率人臉識別模型在不同分辨率下的識別率,本實驗使用 25×25、20×20 以及 14×14 像素的低分辨率LFW數(shù)據(jù)集對算法的平均識別率進行了對比實驗,具體實驗結(jié)果如表5所示。

    表5低分辨率人臉識別模型的識別率對比

    從表5可以看出,在不同分辨率的實驗中,本文算法的識別率都要高于所對比的其他網(wǎng)絡(luò),且當分辨率下降時,本文算法的識別率下降幅度都低于其他網(wǎng)絡(luò)模型。這是因為本實驗中所對比的網(wǎng)絡(luò)模型主要是通過對大量樣本學習來提升網(wǎng)絡(luò)對低分辨率圖像的分類能力,并沒有充分考慮如何利用教師網(wǎng)絡(luò)來進行指導(dǎo)訓(xùn)練,采用這樣的方式將使得模型的收斂速度變慢,模型參數(shù)很難得到有效優(yōu)化。而本文HKDD網(wǎng)絡(luò)是將中間層進行分層,然后通過逐層級蒸餾將教師網(wǎng)絡(luò)中不同抽象程度的特征描述能力遷移到學生網(wǎng)絡(luò)對應(yīng)的層級中,使學生網(wǎng)絡(luò)各層級所提取的低分辨率人臉特征能夠更加接近教師網(wǎng)絡(luò)各層級所提取的特征。其次,HKDD網(wǎng)絡(luò)將教師網(wǎng)絡(luò)分類層的蒸餾損失解耦為目標類蒸餾損失和非目標類蒸餾損失,并為非目標類蒸餾損失設(shè)置了更高的權(quán)重,從而發(fā)揮了非目標類蒸餾損失對學生網(wǎng)絡(luò)的指導(dǎo)作用,使學生網(wǎng)絡(luò)能夠更充分地利用有限的訓(xùn)練樣本學習到教師網(wǎng)絡(luò)強大的分類能力,從而使學生網(wǎng)絡(luò)能夠在不同分辨率的實驗中都能取得較高的人臉識別率。

    3.2.2基于TinyFace數(shù)據(jù)集的識別效率與精度對比實驗

    為了進一步測試HKDD網(wǎng)絡(luò)在多種低分辨率人臉數(shù)據(jù)集上的泛化能力,本實驗采用TinyFace數(shù)據(jù)集進行算法識別率的對比實驗,該數(shù)據(jù)集中共有169403張低分辨率人臉樣本,其分辨率為 20×16 像素,數(shù)據(jù)集中共有5139個類,數(shù)據(jù)集中的樣本存在姿態(tài)偏轉(zhuǎn)、光照變化、表情改變以及遮擋等干擾因素。圖8給出了該數(shù)據(jù)集中的部分樣本。

    圖8TinyFace數(shù)據(jù)集中的部分樣本Fig.8Partial samplesinthe TinyFacedataset

    實驗中,將本文算法與目前性能較好的算法進行對比實驗,具體的算法有:IKD、BD、FSKD、DSN、OL和FFH,對比實驗結(jié)果如表6所示。

    表6TinyFace數(shù)據(jù)集上的人臉識別率對比Tab.6Comparison of facerecognition rates on the tinyface dataset/9

    由表6可知,本實驗中所有算法的人臉識別率都偏低,其主要原因是該數(shù)據(jù)集中的樣本不僅分辨率低,同時樣本中還存在多種干擾因素的共同疊加(如:光照變化、姿態(tài)偏轉(zhuǎn)、表情改變以及遮擋等),使得現(xiàn)有低分辨率算法難以從樣本中提取出具有較好判別特性的面部特征。在本實驗中,本文HKDD網(wǎng)絡(luò)取得了最高的人臉識別率,以上實驗結(jié)果進一步證明了HKDD網(wǎng)絡(luò)通過各中間層的分層特征蒸餾,能夠顯著增強學生網(wǎng)絡(luò)各中間層的特征描述能力。同時,在分類層對蒸餾損失進行解耦,也有效增強了非目標類蒸餾損失函數(shù)對學生網(wǎng)絡(luò)的指導(dǎo)作用,使學生網(wǎng)絡(luò)在教師網(wǎng)絡(luò)指導(dǎo)下學習到通用性面部特征的分類能力,確保了學生網(wǎng)絡(luò)能夠在非限制性應(yīng)用場景中具有較強的魯棒性和較高的分類精度。

    為了測試本文算法在TinyFace數(shù)據(jù)集中的訓(xùn)練效率與識別效率,本實驗使用表6的主流算法進行對比實驗,具體實驗結(jié)果如表7所示。

    表7模型的訓(xùn)練與識別時長對比Tab.7Comparison of model training and recognition duration

    由表7可知,本文HKDD網(wǎng)絡(luò)在TinyFace數(shù)據(jù)集中依然具有較高的訓(xùn)練與識別效率,其訓(xùn)練時長與單張樣本的平均識別時長都低于所對比的其他網(wǎng)絡(luò)。進一步證明了分層蒸餾網(wǎng)絡(luò)能夠有效地將教師網(wǎng)絡(luò)中各層次強大的特征表達能力遷移到學生網(wǎng)絡(luò),使學生網(wǎng)絡(luò)無須使用大量樣本對模型進行訓(xùn)練,實現(xiàn)了對學生網(wǎng)絡(luò)高效優(yōu)化的目標,極大地降低了學生網(wǎng)絡(luò)訓(xùn)練的復(fù)雜度。在進行樣本識別時,由于學生網(wǎng)絡(luò)具有精簡的網(wǎng)絡(luò)結(jié)構(gòu),所以在使用學生網(wǎng)絡(luò)對低分辨率樣本進行識別時,具有較高的識別效率。

    3.2.3基于QMUL-SurvFace數(shù)據(jù)集的識別率對比實驗

    為了驗證本文所提的低分辨率人臉識別算法在安防監(jiān)控場景下的實用性以及算法的泛化能力,使用QMUL-SurvFace數(shù)據(jù)集對算法識別率進行對比實驗。該數(shù)據(jù)集中含有15573個人,總共有463507張人臉圖像,這些圖像來源于監(jiān)控攝像頭,所采集的人臉圖像分辨率低,且圖像中還包含多種復(fù)雜干擾因素(光照變化、姿態(tài)變化、表情以及遮擋等),這使得該數(shù)據(jù)集成為極具挑戰(zhàn)性的低分辨率人臉數(shù)據(jù)集。圖9給出了該數(shù)據(jù)集中部分樣本。

    本實驗中,將本文算法與目前性能較好的算法進行對比實驗,具體的算法有IKD、BD、FSKD、DSN、OL和FFH,為了能更全面對算法的識別性能進行測試,本文采用 TAR(%)(a) FAR和mean accuracy( % 作為算法識別精度的評價指標,其中TAR表示的是正確接受率(trueacceptrate);FAR表示的是錯誤接受率(1acceptrate)。在進行人臉驗證時,TAR就是真正同一人的兩張圖片被算法識別為同一人的比率;FAR就是非同一人的兩張圖片被算法識別為同一人的比率。在進行實際人臉驗證時,若降低人臉驗證的相似度閾值,則會使TAR與FAR的值都同時上升,為了使算法的識別精度更有意義,需要在固定FAR值的情況下來綜合評估算法的TAR值,TAR @ FAR=0.1 表示 FAR=0.1 時,TAR的值。mean accuracy( (%) 為人臉識別的平均準確率。本實驗的具體實驗結(jié)果如表8所示。

    圖9QMUL-SurvFace數(shù)據(jù)集中的部分人臉Fig.9Partial samplesintheQMUL-SurvFacedataset表8QMUL-SurvFace數(shù)據(jù)集人臉驗證結(jié)果Tab.8Faceverification resultsofQMUL-SurvFace

    由表8的結(jié)果可知,本文算法HKDD的正確接受率以及平均準確率均高于現(xiàn)有主流的低分辨率人臉識別算法,實驗結(jié)果進一步證明了本文算法一方面通過分層特征蒸餾提升了學生網(wǎng)絡(luò)的特征描述能力,使學生網(wǎng)絡(luò)在教師網(wǎng)絡(luò)的指導(dǎo)下,學習到了教師網(wǎng)絡(luò)強大的特征表達能力;另一方面通過解耦蒸餾的方式,將網(wǎng)絡(luò)最末端的softmax層解耦為目標類蒸餾損失和非目標類蒸餾損失,通過為非目標類蒸餾損失設(shè)置更高的權(quán)重,從而實現(xiàn)了提升學生網(wǎng)絡(luò)分類性能的目標。本實驗進一步證明了本文算法具有較強魯棒性,能夠在包含復(fù)雜干擾因素的視頻監(jiān)控場景取得較高的準確率。

    3.3算法效率分析

    為了進一步分析本文算法的運行效率,從系統(tǒng)內(nèi)存占用的角度對模型的運行效率進行詳細分析。本實驗所使用的硬件平臺配置為:IntelXeonGold51182.30GHzCPU,兩塊QuadroP5000顯卡,32GB內(nèi)存。本實驗使用自主構(gòu)造的低分辨率LFW數(shù)據(jù)集進行測試,實驗中教師網(wǎng)絡(luò)使用的是ResNet152,學生網(wǎng)絡(luò)使用的是 ResNet34 。圖10中的T-250表示輸入到教師網(wǎng)絡(luò)的樣本尺寸為 250×250 像素,S-64、S-32、S-16以及S-12表示輸入到學生網(wǎng)絡(luò)的測試樣本尺寸分別為: 64×64,32×32 、16×16 以及 12×12 像素。

    圖10低分辨率樣本識別時的內(nèi)存占用 Fig.lOInferencememoryfootprintforlowresolutionfacerecognitior

    由圖10可知,隨著樣本分辨率的降低,模型在內(nèi)存中所占用的空間也隨之降低,相比較于教師網(wǎng)絡(luò)T-250,S-64、S-32、S-16以及S-12網(wǎng)絡(luò)的內(nèi)存占用規(guī)模分別降低了95. 36% /97.64% 98.81% 以及 99.01% ,當?shù)头直媛蕵颖镜姆直媛蕿?2×12 像素時,學生網(wǎng)絡(luò)模型在進行樣本推理識別時的內(nèi)存占用僅為 4.31MB 。學生網(wǎng)絡(luò)模型的識別率與單張樣本平均識別時長的實驗結(jié)果如表9所示。

    表9模型的識別率與識別時長對比Tab.9Comparison of model training and recognition duration

    由表9可知,當輸入的低分辨率測試樣本尺寸為 12×12 像素時,學生網(wǎng)絡(luò)的單張樣本平均時長相較于教師網(wǎng)絡(luò)降低了97.92% ,而學生網(wǎng)絡(luò)的識別率相比較于教師網(wǎng)絡(luò)僅僅降低11% ,具備了較高的識別率。實驗結(jié)果充分說明,教師網(wǎng)絡(luò)通過分層特征蒸餾子網(wǎng)和解耦蒸餾子網(wǎng),能夠有效將教師網(wǎng)絡(luò)的強大特征描述能力和分類能力遷移到學生網(wǎng)絡(luò),采用這種方式對學生網(wǎng)絡(luò)進行指導(dǎo)訓(xùn)練,沒有增加學生網(wǎng)絡(luò)的模型規(guī)模,而學生網(wǎng)絡(luò)的參數(shù)量以及內(nèi)存空間占用量得到顯著降低,使學生網(wǎng)絡(luò)具備了較強的實時性和較高的識別率。

    4結(jié)束語

    為了有效解決非限制性場景中低分辨率人臉識別率低的問題,本文提出了基于分層蒸餾解耦網(wǎng)絡(luò)的低分辨率人臉識別算法。該網(wǎng)絡(luò)通過中間層的分層特征蒸餾和輸出層的解耦蒸餾相結(jié)合的雙重蒸餾方式來指導(dǎo)學生網(wǎng)絡(luò)訓(xùn)練,以更好地將教師網(wǎng)絡(luò)中強大的人臉特征描述能力和分類能力遷移到學生網(wǎng)絡(luò)中,從而提高學生網(wǎng)絡(luò)對低分辨率人臉樣本的識別率與訓(xùn)練效率。通過大量的實驗結(jié)果表明,HKDD網(wǎng)絡(luò)在低分辨率人臉圖像中的識別率要優(yōu)于現(xiàn)有的主流低分辨率識別模型。在算法的實現(xiàn)過程中,本文算法在對學生網(wǎng)絡(luò)進行分層特征蒸餾時,無須設(shè)置超參數(shù),可以快速地實現(xiàn)將教師網(wǎng)絡(luò)的特征描述能力遷移至學生網(wǎng)絡(luò)。然而在網(wǎng)絡(luò)末端進行解耦蒸餾時,目標類蒸餾損失與非目標類蒸餾損失的權(quán)重設(shè)置仍然需要通過大量實驗來尋找最優(yōu)值,無法根據(jù)樣本的分類困難度來自動設(shè)置相應(yīng)的權(quán)重,這是本文后續(xù)研究所要重點解決的問題。

    參考文獻:

    [1]盧峰,周琳,蔡小輝.面向安防監(jiān)控場景的低分辨率人臉識別算 法研究[J].計算機應(yīng)用研究,2021,38(4):1230-1234.(Lu Feng,Zhou Lin,Cai Xiaohui.Research on low-resolution face recognitionalgorithm for security surveillance scene[J].ApplicationResearchofComputers,2021,38(4):1230-1234.)

    [2]侯諭融,狄嵐,梁久禎.融合高斯金字塔特征的低分辨率人臉識 別[J].小型微型計算機系統(tǒng),2021,42(10):2107-2115. (Hou Yurong,Di Lan,Liang Jiuzhen. Fusion of Gaussian image pyramid feature for low-resolution face recognition [J].Journal of ChineseComputerSystems,2021,42(10):2107-2115.)

    [3]李晶,李健,陳海豐,等.基于關(guān)鍵區(qū)域遮擋與重建的人臉表情 識別[J].計算機工程,2024,50(5):241-249.(LiJing,Li Jian,Chen Haifeng,etal.Facial expressionrecognitionbased on key region masking and reconstruction[J]. Computer Engineering, 2024,50(5):241-249.)

    [4]ZhangKangkai,GeShiming,ShiRuixin,etal.Low-resolutionobject recognition with cross-resolution relational contrastive distillation [J]. IEEE Trans on Circuits and System for Video Technology, 2024,34(4):2374-2384.

    [5]張凱兵,鄭冬冬,景軍鋒.低分辨率人臉識別綜述[J].計算機 工程與應(yīng)用,2019,55(22):14-24.(Zhang Kaibin,Zheng Dongdong,Jing Junfeng. Survey of low-resolution face recognition[J]. Computer Engineering and Applications,2019,55(22):14-24.)

    [6]張慶輝,張媛,張夢雅.有遮擋人臉識別進展綜述[J].計算機 應(yīng)用研究,2023,40(8):2250-2257,2273.(ZhangQinghui, Zhang Yuan, Zhang Mengya. Review of progress of face recognition with occlusion[J].Application Research of Computers,2023, 40(8):2250-2257,2273.)

    [7]HintonG,Vinyals O,Dean J.Distilling the knowledge in a neural network [EB/OL](2015-03-09).https://arxiv.org/abs/1503. 02531.

    [8]WangMengjiao,LiuRujie,HajimeN,etal.Improved knowledge distillationfor training fastlowresolution facerecognitionmodel[C]// Proc of International Conference on Computer Vision Workshops.Piscataway,NJ:IEEE Press,2019.

    [9]Yan Mengjia,Zhao Mengao,Xu Zining,et al.VargFaceNet:an efficient variablegroup convolutional neural network for lightweight face recognition [C]//Proc of International Conference on Computer Vision Workshops.Piscataway,NJ:IEEE Press,2019.

    [10]Ge Shiming,Zhao Shengwei,Li Chenyu,et al.Efficient low-resolution face recognitionvia bridge distillation[J].IEEE Trans on lmage Processing,2020,29:6898-6908.

    [11]LiJunnan,SelvarajuRR,GotmareAD,etal.Align before fuse:vision and language representation learning with momentum distillation [C]//Proc of the 35th International Conference on Neural Information Processing Systems. 2021: 9694-9705.

    [12]Romero A,Ballas N,Kahou SE,et al.FitNets:hints for thin deep nets[C]//Proc of International Conference on Learning Representations.Cham:Springer,2015.

    [13]Shin S,Yu Y,Lee K.Enhancing low-resolution face recognition with feature similarity knowledge distillation[EB/OL].(2023-03-08) [2024-06-09].https://arxiv.org/abs/2303.04681.

    [14]Ge Shiming,Zhao Shengwei,Li Chengyu,et al.Low-resolution face recognition in the wild via selectiveknowledge distilation[J].IEEE Trans on Image Processing,2019,28(4): 2051-2062.

    [15]Yang Chuanguang,An Zhulin, Cai Linhang,et al. Hierarchical selfsupervised augmented knowledge distillation[C]//Proc of International Joint ConferencesonArtificial Intellgence.Cham:Springer, 2021:1217-1223.

    [16]Zhao Borui,Cui Quan,SongRenjie,et al.Decoupled knowledge distillation[C]//Proc of Conference on ComputerVision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:11953-11962.

    [17]Yi Dong,Lei Zhen,Liao Shengcai,et al.Learning face representation from scratch[EB/OL].(2014-11-29)[2024-06-20].https://arxiv.org/pdf/1411.7923.

    [18]HuangGB,Mattar M,BergT,et al.Labeled faces inthe wild:a database for studying face recognition in unconstrained environments,inria-00321923[R].Amherst:University of Massachusets,2007.

    [19]Zhang Kaipeng,Zhang Zanpeng,Li Zhifeng,et al. Joint face detection and alignment using multitask cascaded convolutional networks [J].IEEE Signal Processing Letters,2016,23(10):1499- 1503.

    [20] Cheng Zhiyi,Zhu Xiatian,Gong Shaogang.Low-resolution face recognition[C]//Proc of the14th Asian Conference on Computer Vision.Piscataway,NJ:IEEE Press,2018:605-621.

    [21]Cheng Zhiyi, Zhu Xiatian,Gong Shaogang. Surveillance face recognition challenge[EB/OL].(2018-04-25)[2024-06-20].https:// arxiv.org/pdf/1804.09691.

    [22]DengJiankang,Guo Jia,Liu Tongliang,etal.Sub-center ArcFace: boosting face recognition by large-scale noisy Web faces[C]//Proc of European Conference on Computer Vision. Cham:Springer,2020: 741-757.

    [23]Knoche M,Hormann S,Rigoll G. Image resolution susceptibility of face recognition models[EB/OL].(2021)[2024-03-10]. https:// arxiv.org/abs/2107.03769.

    [24]Zhong Yaoyao,Deng Weihong.Face transformer for recognition[EB/ OL].(2021-07-08)[2024-03-10].https://arxiv.or/abs/2103.14803.

    [25]Meng Qiang, Zhao Shichao, Huang Zhida,et al. MagFace: a universal representation for face recognition and quality assessment [C]//Proc of Conference on Computer Vision and Pattern Recognition.Piscataway, NJ:IEEE Press,2021:14225-14234.

    [26]Lai SC,Lam K M.Deep siamese network for low-resolution face recognition[C]//Proc of Asia-Pacific Signal and InformationProcessing Association Annual Summit and Conference. Piscataway,NJ: IEEE Press, 2021:1444- 1449.

    [27]KnocheM,Elkadeem M,Hormann S,et al.Octuplet loss:make face recognition robust to image resolution[C]//Proc of International Conference on Automatic Face and Gesture Recognition. Piscataway, NJ:IEEE Press,2023:1-8.

    [28]Li Sisi,Liu Zhonghua,Wu Di,et al.Low-resolution face recognition based on feature-mapping face hallucination [J].Computers and Electrical Engineering,2022,101:1-15.

    猜你喜歡
    識別率人臉分層
    基于雙向長短記憶網(wǎng)絡(luò)和注意力機制的雞白痢病音頻檢測
    基于PCA-FCN 混合模型的NaI(TI)伽馬能譜核素識別技術(shù)研究
    輻射防護(2025年4期)2025-08-15 00:00:00
    三星堆中的“假面”與“真相”
    讀書(2025年8期)2025-08-15 00:00:00
    分層教學實現(xiàn)高中化學課堂“提質(zhì)增效”的策略研究
    考試周刊(2025年23期)2025-08-14 00:00:00
    初中數(shù)學分層教學對不同層次學生學習成效的影響探究
    小徑管×射線焊縫圖像缺陷識別算法
    政務(wù)服務(wù)中人臉識別算法誤差的法律規(guī)制
    行政與法(2025年7期)2025-08-03 00:00:00
    初中音樂教育中針對不同學習能力學生的分層教學模式分析
    分層教學模式在高校羽毛球教學中的實踐困境與優(yōu)化策略
    97超碰精品成人国产| 一个人观看的视频www高清免费观看| 欧美日韩精品成人综合77777| 精品熟女少妇av免费看| 三级男女做爰猛烈吃奶摸视频| 国产精品美女特级片免费视频播放器| 亚洲伊人久久精品综合| 美女脱内裤让男人舔精品视频| 国产成人a区在线观看| 2021少妇久久久久久久久久久| 五月玫瑰六月丁香| 午夜福利在线观看免费完整高清在| 日本一本二区三区精品| 亚洲精品第二区| 精品久久久精品久久久| 久久久国产一区二区| 国产精品无大码| 国内精品一区二区在线观看| 80岁老熟妇乱子伦牲交| 又爽又黄a免费视频| 久久久色成人| 69人妻影院| 天堂√8在线中文| 婷婷色综合大香蕉| 亚洲精品视频女| 波野结衣二区三区在线| 极品少妇高潮喷水抽搐| 亚洲精品中文字幕在线视频 | 亚洲天堂国产精品一区在线| 秋霞在线观看毛片| 国产精品熟女久久久久浪| 99九九线精品视频在线观看视频| 菩萨蛮人人尽说江南好唐韦庄| 亚洲国产精品sss在线观看| 日韩精品青青久久久久久| 人体艺术视频欧美日本| 国产伦在线观看视频一区| 午夜视频国产福利| 80岁老熟妇乱子伦牲交| 国产在视频线在精品| 亚洲欧美一区二区三区国产| videossex国产| 久久精品久久精品一区二区三区| 久久久精品94久久精品| 免费不卡的大黄色大毛片视频在线观看 | 国产综合懂色| 三级国产精品片| 狂野欧美白嫩少妇大欣赏| 一区二区三区免费毛片| 亚洲欧美日韩卡通动漫| 超碰av人人做人人爽久久| 国产亚洲91精品色在线| 99久久精品热视频| 97人妻精品一区二区三区麻豆| 日日啪夜夜撸| 日日啪夜夜撸| 国产真实伦视频高清在线观看| 免费看a级黄色片| 国产女主播在线喷水免费视频网站 | 三级国产精品欧美在线观看| 精品不卡国产一区二区三区| kizo精华| 国产成人午夜福利电影在线观看| 国产成人精品一,二区| 女的被弄到高潮叫床怎么办| 免费观看的影片在线观看| 午夜福利视频精品| 午夜亚洲福利在线播放| 国产亚洲午夜精品一区二区久久 | 久久精品国产自在天天线| 国产一区二区三区av在线| 久久久亚洲精品成人影院| 久久精品人妻少妇| 欧美xxⅹ黑人| .国产精品久久| 伦理电影大哥的女人| 亚洲在久久综合| 欧美+日韩+精品| 日韩成人伦理影院| 少妇的逼水好多| 51国产日韩欧美| 国模一区二区三区四区视频| 日韩成人av中文字幕在线观看| 麻豆国产97在线/欧美| 国国产精品蜜臀av免费| 国产精品三级大全| 国产一区亚洲一区在线观看| 亚洲成人中文字幕在线播放| 中文字幕av成人在线电影| 大话2 男鬼变身卡| 美女大奶头视频| 在线天堂最新版资源| 国内精品一区二区在线观看| 久久久久国产网址| 成人高潮视频无遮挡免费网站| 精品国内亚洲2022精品成人| 男女那种视频在线观看| 午夜精品一区二区三区免费看| 亚洲在线自拍视频| 国产日韩欧美在线精品| 天堂影院成人在线观看| 久久精品国产亚洲av天美| 精品久久久久久久久久久久久| 中文字幕亚洲精品专区| 韩国高清视频一区二区三区| 亚洲成人一二三区av| 国产精品国产三级国产专区5o| 国产美女午夜福利| 最近的中文字幕免费完整| 老司机影院成人| 亚洲成人久久爱视频| 亚洲精品日本国产第一区| 在现免费观看毛片| 午夜精品在线福利| 乱系列少妇在线播放| 五月天丁香电影| 一本一本综合久久| 老司机影院成人| 麻豆成人午夜福利视频| 最近手机中文字幕大全| 毛片女人毛片| 国产精品嫩草影院av在线观看| 18禁在线无遮挡免费观看视频| 在线观看免费高清a一片| 在线观看美女被高潮喷水网站| 亚洲18禁久久av| 免费不卡的大黄色大毛片视频在线观看 | 久久精品国产自在天天线| 国产一区二区在线观看日韩| 日韩精品有码人妻一区| 最新中文字幕久久久久| 免费av毛片视频| 亚洲自偷自拍三级| 色综合站精品国产| 夫妻午夜视频| or卡值多少钱| 超碰av人人做人人爽久久| 亚洲av一区综合| 日日摸夜夜添夜夜爱| 欧美xxxx黑人xx丫x性爽| 男插女下体视频免费在线播放| 成人无遮挡网站| 插阴视频在线观看视频| 18禁裸乳无遮挡免费网站照片| 国产亚洲精品久久久com| 成人av在线播放网站| 午夜激情福利司机影院| 久久久久久久久久久丰满| 一个人看视频在线观看www免费| 婷婷色麻豆天堂久久| xxx大片免费视频| 丰满少妇做爰视频| 丰满少妇做爰视频| 久久国内精品自在自线图片| 春色校园在线视频观看| 麻豆成人午夜福利视频| 成年免费大片在线观看| 尤物成人国产欧美一区二区三区| 亚洲av成人精品一区久久| 久久久精品免费免费高清| 成人一区二区视频在线观看| 亚洲,欧美,日韩| h日本视频在线播放| 最近中文字幕2019免费版| 美女脱内裤让男人舔精品视频| 午夜福利在线观看免费完整高清在| 亚洲国产高清在线一区二区三| 熟女电影av网| 男女边摸边吃奶| 哪个播放器可以免费观看大片| 亚洲欧美成人综合另类久久久| 亚洲精品色激情综合| 夫妻午夜视频| 国产黄色小视频在线观看| 性色avwww在线观看| 久久久久精品性色| 女的被弄到高潮叫床怎么办| 国产淫语在线视频| 国产成人一区二区在线| 一个人看的www免费观看视频| 麻豆久久精品国产亚洲av| 亚洲精品日韩av片在线观看| 噜噜噜噜噜久久久久久91| 国产精品精品国产色婷婷| av国产久精品久网站免费入址| 亚洲欧美一区二区三区国产| 91精品国产九色| 国产 一区 欧美 日韩| 国产免费又黄又爽又色| 特级一级黄色大片| 亚洲av日韩在线播放| 日本色播在线视频| 一级a做视频免费观看| 亚洲综合精品二区| 欧美xxxx性猛交bbbb| 久久精品国产亚洲av天美| 赤兔流量卡办理| 在线a可以看的网站| 亚洲激情五月婷婷啪啪| 日本wwww免费看| 91久久精品国产一区二区三区| 亚洲精品影视一区二区三区av| 插阴视频在线观看视频| 一级黄片播放器| 极品少妇高潮喷水抽搐| 日韩国内少妇激情av| 肉色欧美久久久久久久蜜桃 | 亚洲国产日韩欧美精品在线观看| 久久久久久久久久久免费av| 亚洲欧美一区二区三区黑人 | 日本黄色片子视频| 久久久久久久久久久丰满| 国产成人午夜福利电影在线观看| 成人亚洲欧美一区二区av| 国产精品综合久久久久久久免费| 国产精品福利在线免费观看| 美女黄网站色视频| 国产 亚洲一区二区三区 | 久久精品国产亚洲av天美| 中文在线观看免费www的网站| 欧美激情久久久久久爽电影| 亚洲欧洲日产国产| 亚洲欧美成人综合另类久久久| 男女边吃奶边做爰视频| 亚洲va在线va天堂va国产| 狂野欧美白嫩少妇大欣赏| 日本三级黄在线观看| 亚洲国产日韩欧美精品在线观看| 国产一级毛片七仙女欲春2| 国产三级在线视频| 亚洲国产欧美在线一区| 91久久精品国产一区二区成人| 最近的中文字幕免费完整| 国产在线一区二区三区精| a级一级毛片免费在线观看| 黄色一级大片看看| 国产真实伦视频高清在线观看| 少妇的逼好多水| 免费观看性生交大片5| 午夜福利视频1000在线观看| 国产91av在线免费观看| 久久这里有精品视频免费| 美女脱内裤让男人舔精品视频| 亚洲精品视频女| 亚洲一级一片aⅴ在线观看| 色播亚洲综合网| 国产美女午夜福利| 国产在视频线在精品| 免费无遮挡裸体视频| 亚洲精品自拍成人| 国产成人91sexporn| 国产av在哪里看| 久久久久久久久大av| 久久综合国产亚洲精品| 精品一区二区三区视频在线| 精品久久久久久久久久久久久| 亚洲无线观看免费| 亚洲av日韩在线播放| 亚洲美女视频黄频| 免费观看性生交大片5| 久久人人爽人人片av| 在线观看人妻少妇| 国内精品一区二区在线观看| 国产爱豆传媒在线观看| 亚洲av.av天堂| 一个人观看的视频www高清免费观看| 啦啦啦啦在线视频资源| 亚洲精华国产精华液的使用体验| 亚洲第一区二区三区不卡| 国产精品av视频在线免费观看| 亚洲av一区综合| 久久人人爽人人片av| 亚洲av成人精品一区久久| 精品国产一区二区三区久久久樱花 | 国产白丝娇喘喷水9色精品| 日韩人妻高清精品专区| 又粗又硬又长又爽又黄的视频| 欧美xxxx黑人xx丫x性爽| 婷婷色av中文字幕| 看黄色毛片网站| 99re6热这里在线精品视频| 亚洲欧美精品自产自拍| 亚洲美女视频黄频| 午夜福利视频精品| 女人被狂操c到高潮| 国产精品人妻久久久久久| 1000部很黄的大片| 美女黄网站色视频| 国语对白做爰xxxⅹ性视频网站| 国产精品久久久久久久久免| 欧美高清成人免费视频www| 久久热精品热| 日日撸夜夜添| 久久久久网色| 中文字幕人妻熟人妻熟丝袜美| 三级经典国产精品| 免费看a级黄色片| 国产伦精品一区二区三区视频9| 久久久久久久午夜电影| 天天躁日日操中文字幕| 色视频www国产| 人妻一区二区av| 身体一侧抽搐| 久久久久久伊人网av| 亚洲国产精品成人综合色| 美女高潮的动态| 美女被艹到高潮喷水动态| 永久免费av网站大全| 天堂√8在线中文| 国产亚洲精品久久久com| 免费少妇av软件| 肉色欧美久久久久久久蜜桃 | 人人妻人人澡欧美一区二区| 男女国产视频网站| 97精品久久久久久久久久精品| 少妇的逼水好多| 久久久亚洲精品成人影院| 丰满乱子伦码专区| 麻豆乱淫一区二区| 国产伦一二天堂av在线观看| 亚洲精品,欧美精品| 搡老妇女老女人老熟妇| 成人亚洲精品av一区二区| 久久鲁丝午夜福利片| 久久精品久久久久久噜噜老黄| 国产黄片视频在线免费观看| 最近2019中文字幕mv第一页| 人人妻人人看人人澡| av播播在线观看一区| 超碰av人人做人人爽久久| 欧美成人精品欧美一级黄| 久久精品国产亚洲av涩爱| 日韩中字成人| 久久99热这里只频精品6学生| 韩国高清视频一区二区三区| 91狼人影院| 欧美日韩在线观看h| 免费观看性生交大片5| 九九爱精品视频在线观看| 精品国产一区二区三区久久久樱花 | 亚洲国产精品专区欧美| 春色校园在线视频观看| 成人综合一区亚洲| 三级国产精品欧美在线观看| 欧美另类一区| 免费黄色在线免费观看| 91精品一卡2卡3卡4卡| 亚洲欧美精品专区久久| 国产av国产精品国产| av线在线观看网站| 欧美日韩一区二区视频在线观看视频在线 | 女的被弄到高潮叫床怎么办| 国产一区二区三区综合在线观看 | 免费不卡的大黄色大毛片视频在线观看 | 国产69精品久久久久777片| 日韩,欧美,国产一区二区三区| 日韩中字成人| 嫩草影院入口| 免费黄频网站在线观看国产| 中文天堂在线官网| 国产一区二区亚洲精品在线观看| 午夜激情欧美在线| 国产又色又爽无遮挡免| 2022亚洲国产成人精品| 一级毛片久久久久久久久女| 一级av片app| 免费av不卡在线播放| 日韩三级伦理在线观看| 亚洲国产精品成人久久小说| kizo精华| 男女下面进入的视频免费午夜| 国产av国产精品国产| 中文在线观看免费www的网站| 欧美三级亚洲精品| 男女边吃奶边做爰视频| 啦啦啦啦在线视频资源| 亚洲经典国产精华液单| 精品午夜福利在线看| 非洲黑人性xxxx精品又粗又长| 欧美不卡视频在线免费观看| 久久久久久伊人网av| 久久久久网色| 久久亚洲国产成人精品v| 亚洲精品日韩av片在线观看| 午夜免费激情av| 午夜视频国产福利| 美女大奶头视频| 欧美日韩国产mv在线观看视频 | 国产精品三级大全| 久久精品国产亚洲网站| 久久亚洲国产成人精品v| 日韩中字成人| 中文乱码字字幕精品一区二区三区 | 欧美最新免费一区二区三区| 五月玫瑰六月丁香| 午夜激情福利司机影院| 国产探花极品一区二区| 亚洲欧美成人综合另类久久久| 国产亚洲av嫩草精品影院| 亚洲三级黄色毛片| 精华霜和精华液先用哪个| 一夜夜www| 国产视频内射| 国产熟女欧美一区二区| 综合色av麻豆| 亚洲美女搞黄在线观看| 亚洲第一区二区三区不卡| 一级毛片电影观看| 内地一区二区视频在线| 成人毛片a级毛片在线播放| 少妇裸体淫交视频免费看高清| 老女人水多毛片| 久久久午夜欧美精品| 大片免费播放器 马上看| 成年女人在线观看亚洲视频 | 国产极品天堂在线| 精品久久久精品久久久| 日韩视频在线欧美| 国产乱人视频| 成人漫画全彩无遮挡| 亚洲人成网站在线播| 日韩欧美 国产精品| 亚洲aⅴ乱码一区二区在线播放| 老女人水多毛片| 蜜臀久久99精品久久宅男| 日韩亚洲欧美综合| 免费无遮挡裸体视频| 超碰av人人做人人爽久久| 亚洲av中文字字幕乱码综合| 日韩制服骚丝袜av| 最近2019中文字幕mv第一页| 99re6热这里在线精品视频| 日韩欧美三级三区| 少妇人妻精品综合一区二区| 女人久久www免费人成看片| 国产精品三级大全| 国产单亲对白刺激| 日本-黄色视频高清免费观看| 国产精品精品国产色婷婷| 久久久久久久国产电影| 国产精品一区二区性色av| 少妇裸体淫交视频免费看高清| 免费少妇av软件| 久久国产乱子免费精品| 五月天丁香电影| 少妇高潮的动态图| 亚洲精品乱久久久久久| 国产中年淑女户外野战色| 精品少妇黑人巨大在线播放| 亚州av有码| 嘟嘟电影网在线观看| 成人毛片60女人毛片免费| av卡一久久| 午夜免费男女啪啪视频观看| 色综合亚洲欧美另类图片| 国产精品国产三级国产专区5o| 国产一级毛片七仙女欲春2| 久久97久久精品| 欧美一级a爱片免费观看看| 国产精品久久久久久精品电影| 久久久久久久午夜电影| 精品亚洲乱码少妇综合久久| 亚洲欧美精品专区久久| 在线 av 中文字幕| 亚洲色图av天堂| 激情 狠狠 欧美| 国产综合懂色| 久久国产乱子免费精品| 乱系列少妇在线播放| 人人妻人人澡人人爽人人夜夜 | 日韩亚洲欧美综合| 成年版毛片免费区| 国产亚洲最大av| 国产亚洲av片在线观看秒播厂 | 欧美zozozo另类| 国产又色又爽无遮挡免| 精品午夜福利在线看| 亚洲美女搞黄在线观看| 亚洲欧美精品专区久久| 日韩 亚洲 欧美在线| 99视频精品全部免费 在线| 国产综合精华液| 国产探花在线观看一区二区| 久久久久精品久久久久真实原创| 狂野欧美白嫩少妇大欣赏| 高清午夜精品一区二区三区| 国精品久久久久久国模美| 国产激情偷乱视频一区二区| 丰满人妻一区二区三区视频av| 欧美成人精品欧美一级黄| 午夜福利在线在线| 老司机影院成人| 免费大片黄手机在线观看| or卡值多少钱| 国产免费又黄又爽又色| 婷婷六月久久综合丁香| 国产精品伦人一区二区| 亚洲激情五月婷婷啪啪| 99久久精品国产国产毛片| 看免费成人av毛片| 免费观看性生交大片5| 国产伦理片在线播放av一区| 中文精品一卡2卡3卡4更新| 老师上课跳d突然被开到最大视频| 精华霜和精华液先用哪个| 韩国高清视频一区二区三区| 中文字幕av成人在线电影| 午夜福利视频1000在线观看| 国产黄片美女视频| 一区二区三区四区激情视频| 久久久久久久久中文| 一级a做视频免费观看| 国产日韩欧美在线精品| 亚洲怡红院男人天堂| 亚洲精品456在线播放app| 国产精品福利在线免费观看| 国产中年淑女户外野战色| 纵有疾风起免费观看全集完整版 | 亚洲精品国产av蜜桃| 国产黄频视频在线观看| 久久人人爽人人片av| 在线观看av片永久免费下载| 中文乱码字字幕精品一区二区三区 | 亚洲成人精品中文字幕电影| 99热6这里只有精品| 寂寞人妻少妇视频99o| 高清欧美精品videossex| 国产老妇女一区| 最后的刺客免费高清国语| 大陆偷拍与自拍| 精品久久久久久久末码| 大香蕉久久网| 91精品伊人久久大香线蕉| 黄色一级大片看看| 成人午夜高清在线视频| 国产精品99久久久久久久久| 中国国产av一级| 少妇的逼水好多| 国产精品三级大全| 十八禁国产超污无遮挡网站| 国产精品久久久久久精品电影| 免费黄网站久久成人精品| 3wmmmm亚洲av在线观看| 特大巨黑吊av在线直播| 国产精品无大码| 三级国产精品片| 亚洲欧美精品自产自拍| 欧美zozozo另类| 99久久九九国产精品国产免费| 国产高清有码在线观看视频| 一个人看视频在线观看www免费| 午夜亚洲福利在线播放| 99re6热这里在线精品视频| 亚洲av一区综合| 精品少妇黑人巨大在线播放| 嫩草影院新地址| 国产成人freesex在线| 国产黄片视频在线免费观看| 十八禁网站网址无遮挡 | 能在线免费看毛片的网站| 欧美最新免费一区二区三区| 嫩草影院入口| 插逼视频在线观看| 一本久久精品| 精品国产露脸久久av麻豆 | 99热这里只有是精品50| 色综合亚洲欧美另类图片| 色视频www国产| 欧美xxⅹ黑人| 91久久精品国产一区二区成人| 国产精品.久久久| 最近视频中文字幕2019在线8| 国产大屁股一区二区在线视频| 免费电影在线观看免费观看| 丝袜喷水一区| 亚洲18禁久久av| 成人美女网站在线观看视频| 日韩av免费高清视频| a级一级毛片免费在线观看| 成人特级av手机在线观看| av在线亚洲专区| 最近中文字幕高清免费大全6| 日韩,欧美,国产一区二区三区| 欧美成人a在线观看| 国产男女超爽视频在线观看| 一本久久精品| 国产精品综合久久久久久久免费| 午夜激情欧美在线| 黄片无遮挡物在线观看| 中文字幕免费在线视频6| 九九久久精品国产亚洲av麻豆| 老女人水多毛片| 2018国产大陆天天弄谢| 久久久久久久久中文| 欧美日韩视频高清一区二区三区二| 欧美激情久久久久久爽电影| videossex国产| 亚洲av日韩在线播放| 午夜激情福利司机影院| 国产黄频视频在线观看| 精品久久久久久成人av| 亚洲av.av天堂| 中文字幕久久专区| 国产视频首页在线观看| 亚洲性久久影院| 搡老妇女老女人老熟妇| 久久久久久久久久久免费av| 2021少妇久久久久久久久久久| av网站免费在线观看视频 | 精品一区二区三卡| 国产高清国产精品国产三级 | 日本一二三区视频观看| 成人毛片a级毛片在线播放| 亚洲精品成人av观看孕妇| 婷婷色综合大香蕉|