張春永徐一得
(1.鹽城工學(xué)院信息工程學(xué)院,江蘇 鹽城 224051;2.東南大學(xué)信息科學(xué)與工程學(xué)院,江蘇 南京 210096)
人臉識(shí)別從上世紀(jì)60 年代被提出,經(jīng)過(guò)半個(gè)多世紀(jì)的發(fā)展與迭代,其相關(guān)技術(shù)和性能指標(biāo)也開(kāi)始投入市場(chǎng),并且產(chǎn)生了很大的經(jīng)濟(jì)效益。相對(duì)于傳統(tǒng)的方法[1,5],最近的基于深度學(xué)習(xí)的算法[2]例如Google 的faceNet 都使用深度學(xué)習(xí)網(wǎng)絡(luò)如深度卷積神經(jīng)網(wǎng)絡(luò)[3],取得了優(yōu)異的性能。在一般場(chǎng)景下,這些模型對(duì)圖像的判別甚至比人類(lèi)更精確。然而,在年齡不變?nèi)四樧R(shí)別(Age Invariant face Recognition,AIFR)場(chǎng)景下,這些方法通常缺乏人臉識(shí)別的判別能力。查閱可知,人體隨著年齡的增長(zhǎng),身體機(jī)能和指標(biāo)都會(huì)發(fā)生很大的改變,這一點(diǎn)在人的面部特征上有著明顯的表現(xiàn)。一般情況下,老年人的臉上都會(huì)有一些抬頭紋,眼角會(huì)下垂,口角脂肪松垂,具體就是嘴角兩邊的皮膚和脂肪會(huì)出現(xiàn)松弛的情況,臉部的蘋(píng)果肌區(qū)域會(huì)出現(xiàn)明顯的凹凸,鼻唇溝和下頜邊緣都會(huì)喪失彈性,大量的脂肪流失。還有就是絕大多數(shù)老年人的皮膚失去了原有的彈性,色素開(kāi)始堆積在皮膚底層,毛細(xì)孔變大,皺紋增加。AIFR 面臨的關(guān)鍵挑戰(zhàn)是由于年齡老化過(guò)程造成的面部特征顯著差異。這一問(wèn)題在當(dāng)前還不是突出問(wèn)題,主要是因?yàn)楫?dāng)前人臉識(shí)別在市場(chǎng)上得到運(yùn)用的時(shí)間還很短,數(shù)據(jù)庫(kù)并沒(méi)有過(guò)于龐大,但是隨著人臉識(shí)別的廣泛使用和使用時(shí)間的加長(zhǎng),這將成為一個(gè)制約人臉識(shí)別可持續(xù)發(fā)展的關(guān)鍵因素。如若無(wú)法解決年齡不變?nèi)四樧R(shí)別問(wèn)題,那么就會(huì)需要供應(yīng)商或者第三方機(jī)構(gòu)定期地重新去獲取當(dāng)前的人臉圖片,以確保算法的高準(zhǔn)確性,這會(huì)增加大量的額外成本,也不利于人臉識(shí)別的推廣。
在之前的相關(guān)研究中,研究人員[8-9,11-12,17-20]采用啟發(fā)式的方法提取手工特征。例如,林玲等人[18]開(kāi)發(fā)了一種帶有局部特征描述的多特征判別分析方法。Gong D 等[9]提出了隱藏因子分析(HFA)來(lái)建模特征因子分解,減少身份相關(guān)特征的年齡變化。林玲等[15]為AIFR 引入了有效的最大熵特征描述符和魯棒性的身份匹配框架。最近的幾種方法[7,13-14]主要基于深度神經(jīng)網(wǎng)絡(luò)。Wen Y 等[13]開(kāi)發(fā)了潛因子引導(dǎo)卷積神經(jīng)網(wǎng)絡(luò)(LF-CNN)來(lái)改進(jìn)HFA。鄭濤等[14]介紹了AIFR 的年齡估計(jì)引導(dǎo)CNN(AE-CNN)方法。Wang Y 等人[7]提出正交嵌入分解,將身份信息編碼在角空間,年齡信息在徑向表示。我們提出了一種帶有線(xiàn)性殘差分解的DAL 算法。
生成對(duì)抗網(wǎng)絡(luò)(GAN)[21]在不同的生成任務(wù)中顯示了卓越的性能,如人臉老化、人臉超分辨等。此外,當(dāng)前的研究還探討了對(duì)抗性網(wǎng)絡(luò)對(duì)判別模型的改進(jìn)。Wen Y 等人[9]利用GAN 生成高分辨率的小人臉,以提高人臉檢測(cè)。Lanitis A 等人[23]開(kāi)發(fā)了一個(gè)對(duì)抗UV 完井框架(UV-GAN)來(lái)解決姿態(tài)不變?nèi)四樧R(shí)別問(wèn)題。Liu Y 等人提出在一個(gè)對(duì)抗的自編碼器框架中學(xué)習(xí)身份提取特征和身份消除特征。Zhao Y 等人[24]提出了一種對(duì)抗網(wǎng)絡(luò)來(lái)生成硬三元組特征示例。在本研究中,我們提出了一種去相關(guān)對(duì)抗學(xué)習(xí)方法,以顯著減少身份和年齡之間的相關(guān)性,從而使得身份依賴(lài)的特征是年齡不變的。
在本文中,我們引入了一個(gè)深度特征分解學(xué)習(xí)框架,將混合人臉特征分解為兩個(gè)不相關(guān)的部分:身份相關(guān)部分(Xid)和年齡相關(guān)部分(Xage)。圖2 展示了我們的特征分解模式。我們采用文獻(xiàn)[4]中的殘差映射模塊實(shí)現(xiàn)這種分解。這意味著,年齡相關(guān)的嵌入是通過(guò)殘差映射函數(shù)Xage=R(x)編碼的。我們有下面的公式:X=Xid+R(x),其中X是初始人臉特征,Xid是身份相關(guān)特征。
圖1 我們以AIFR 為例,由于年齡差異較大,身份內(nèi)的距離大于身份間距離。因此,許多當(dāng)前的人臉識(shí)別系統(tǒng)無(wú)法識(shí)別年齡差距較大的人臉。
圖2 將人臉特征分解為身份依賴(lài)分量和年齡依賴(lài)分量。只有身份特征參與人臉識(shí)別的測(cè)試。
為了減少分解成分之間的相互差異,我們提出了一種新的去相關(guān)對(duì)抗學(xué)習(xí)(Decorrelated Adversarial Learning,DAL)算法,該算法可以最大程度地減少身份和年齡之間的相關(guān)性。具體來(lái)說(shuō),引入典型映射模塊來(lái)尋找身份和年齡之間的最大相關(guān)性,而主干網(wǎng)絡(luò)和分解模塊旨在降低相關(guān)性。身份和年齡分類(lèi)信號(hào)進(jìn)行學(xué)習(xí)。通過(guò)對(duì)抗訓(xùn)練,我們希望身份和年齡能夠充分的不相關(guān),并且在身份特征空間中的年齡信息可以大大減少。
由于人臉包含內(nèi)在的身份信息和年齡信息,所以它們可以由身份相關(guān)特征和年齡相關(guān)特征共同表示。受此啟發(fā),我們?cè)O(shè)計(jì)了一個(gè)線(xiàn)性分解模塊,將初始特征分解成身份相關(guān)特征和年齡相關(guān)特征這兩個(gè)不相關(guān)的部分。形式上,給定由主干CNNF(即,x=F(p))從輸入圖像p中提取的初始特征向量x∈Rd,我們將線(xiàn)性因子分解定義如下:
我們?cè)O(shè)計(jì)了一個(gè)類(lèi)似于文獻(xiàn)[4]的深度殘差映射模塊來(lái)實(shí)現(xiàn)這一點(diǎn)。具體來(lái)說(shuō),我們通過(guò)一個(gè)映射函數(shù)R獲得年齡相關(guān)的特征,剩余部分作為身份相關(guān)的特征。我們稱(chēng)之為殘差因子分解模塊(Residual Factorization Module,RFM),其公式如下,Xid表示身份依賴(lài)成分,Xage表示年齡依賴(lài)成分:
在測(cè)試階段,只有身份相關(guān)特征用于人臉識(shí)別。希望Xid編碼身份信息,而Xage繪制年齡變化。我們同時(shí)將身份識(shí)別信號(hào)和年齡識(shí)別信號(hào)放在這兩個(gè)解耦的特征上,分別監(jiān)督這兩個(gè)部分的多任務(wù)學(xué)習(xí)。圖3 顯示了我們工作的總體框架。網(wǎng)狀主干提取初始特征,并在此基礎(chǔ)上建立殘差模塊進(jìn)行特征分解?;谶@種因式分解,我們提出了去相關(guān)對(duì)抗學(xué)習(xí),將在下一節(jié)中介紹。
圖3 提出的方法的概述
通過(guò)特征因式分解,對(duì)于年齡不變?nèi)四樧R(shí)別(Age Invariant face Recognition,AIFR)場(chǎng)景來(lái)說(shuō),Xid應(yīng)該是只保留了身份信息,并且與年齡信息不相干的,這一點(diǎn)是至關(guān)重要的。不幸的是,Xid和Xage在實(shí)際上還是有深層的相關(guān)性,無(wú)法實(shí)現(xiàn)兩者完全不相干。例如,Xid和Xage彼此具有高線(xiàn)性相關(guān)性,導(dǎo)致Xid可能會(huì)影響Xage,這一現(xiàn)實(shí)會(huì)對(duì)年齡不變?nèi)四樧R(shí)別產(chǎn)生負(fù)面影響。為此,我們?cè)O(shè)計(jì)了一種有助于降低分解特征之間相關(guān)性的正則化算法,即去相關(guān)對(duì)抗學(xué)習(xí)(Decorrelated Adversarial Learning,DAL)。DAL 基本上計(jì)算分解分量的成對(duì)特征之間的典型相關(guān)。
首先通過(guò)骨干網(wǎng)提取初始特征,然后進(jìn)行殘差分解。然后利用兩個(gè)已經(jīng)分解的Xid和Xage進(jìn)行分類(lèi)和DAL 正則化。
形式上,給定成對(duì)的特征Xid,Xage,我們?cè)O(shè)計(jì)映射的線(xiàn)性規(guī)范映射模塊(Canonical Mapping Module,CMM)Xid,Xage到規(guī)范變量vid,vage:
式中:Wid、Wage是正則映射的學(xué)習(xí)參數(shù)。之后,我們將經(jīng)典相關(guān)性定義為:
基于這樣的定義,首先通過(guò)更新CMM 中模型參數(shù)Wid,Wage來(lái)求得|ρ|的最大值然后去減少Vid和Vage的相關(guān)性,主要是通過(guò)訓(xùn)練模型殘差因子分解模塊(Residual Factorization Module,RFM)。從公式角度來(lái)看,一方面,在求?。眩淖畲笾抵?,我們要固定模型F,R,來(lái)訓(xùn)練C。另一方面,在減少Vid和Vage相關(guān)性的訓(xùn)練中,我們要固定C,來(lái)訓(xùn)練F,R。這兩個(gè)需求是相互矛盾的,相互對(duì)抗的,這對(duì)抗的最終結(jié)果是Xid與Xage的相關(guān)性不斷減小,最終實(shí)現(xiàn)不相干。
總體而言,DAL 的目標(biāo)函數(shù)表述為:
我們相信DAL 增強(qiáng)的強(qiáng)去相關(guān)性將鼓勵(lì)Xid和Xage彼此足夠不變。重要的是,這將提高Xid對(duì)年齡不變的人臉識(shí)別的魯棒性。
與典型相關(guān)分析(Canonical Correlation Analysis,CCA)方法相比,我們的工作引入了基于隨機(jī)梯度下降優(yōu)化的典型相關(guān)分析(Batch Canonical Correlation Analysis,BCCA)。由于對(duì)整個(gè)數(shù)據(jù)集的相關(guān)統(tǒng)計(jì)實(shí)際上是不可能的,我們遵循類(lèi)似的批量標(biāo)準(zhǔn)化策略[6]來(lái)計(jì)算基于小批量的相關(guān)統(tǒng)計(jì)。因此,它自然適合深度學(xué)習(xí)框架。
在這里,μid和分別是vid的均值和方差,對(duì)于μage和也是一樣的。ξ是數(shù)值穩(wěn)定性的恒定參數(shù)。
公式(6)作為BCCA 的目標(biāo)函數(shù),我們利用基于SGD 的算法來(lái)優(yōu)化它。注意,規(guī)范相關(guān)數(shù)|ρ|在更新ξ時(shí),要求必須最大化,同時(shí)在訓(xùn)練F,R時(shí)最小化。漸變的推導(dǎo)如下:
因此,優(yōu)化由輸出ρ值的前向傳播和計(jì)算更新梯度的后向傳播組成。算法1 描述了BCCA 的詳細(xì)學(xué)習(xí)算法。
在這一部分,我們描述了多任務(wù)訓(xùn)練策略來(lái)監(jiān)督分解特征的學(xué)習(xí)。如圖3 所示,主要是有三個(gè)基本的監(jiān)督模塊:年齡鑒別器、身份鑒別器和DAL 正則化器。
年齡/身份判斷:為了學(xué)習(xí)年齡信息,我們將Xage輸入到一個(gè)投影字典對(duì)中,以便進(jìn)行快速而準(zhǔn)確的分類(lèi)。顧書(shū)航[25]提出了投影字典對(duì)學(xué)習(xí)(Dictionary Pair Learning,DPL)框架。在他們的方法中,分析和合成詞典的聯(lián)合學(xué)習(xí)以通過(guò)線(xiàn)性投影的方式來(lái)學(xué)習(xí)表示形式,而無(wú)需使用非線(xiàn)性稀疏編碼。他們的模型如下:
式中:S表示用于重構(gòu)X的合成字典;A代表用于對(duì)X進(jìn)行編碼的分析字典;Ak和Sk代表對(duì)應(yīng)于類(lèi)別k的子字典對(duì)代表訓(xùn)練集中Xk的補(bǔ)充數(shù)據(jù)矩陣;β>0 是一個(gè)標(biāo)量常數(shù),表示控制A的判別性質(zhì)的正則化參數(shù),以及di表示合成字典S的第i個(gè)元素。
分析字典A在區(qū)分過(guò)程中發(fā)揮作用,在這過(guò)程中子字典 可以投射i類(lèi)的樣本(i不等于k)到空的空間去。合成字典S的作用是使重構(gòu)誤差最小。使用先前獲取的Xid和Xage來(lái)分別學(xué)習(xí)兩個(gè)單獨(dú)的成對(duì)字典Did={Sid,Aid}和Dage={Sage,Aage}。然后將這些詞典用于分類(lèi)。這個(gè)DPL 框架的優(yōu)點(diǎn)在于其計(jì)算時(shí)間,因?yàn)樵摽蚣茉谂袛鄳?yīng)用中只含有若干個(gè)字典對(duì),沒(méi)有太多的模型參數(shù)。所以這種方法是快速計(jì)算和適用于實(shí)際應(yīng)用的。
使用字典Did來(lái)判斷人臉圖像的標(biāo)簽。令y為測(cè)試圖像,Yid和Yage分別指字典Did和Dage的類(lèi)別預(yù)測(cè)標(biāo)簽??梢允褂靡韵路诸?lèi)方案來(lái)計(jì)算非相關(guān)身份年齡面孔的檢測(cè):
DAL 正則化器:本文所提出的DAL 正則化還參與聯(lián)合監(jiān)督來(lái)指導(dǎo)特征學(xué)習(xí),使得成對(duì)分解特征之間的相關(guān)性可以顯著降低。通過(guò)聯(lián)合監(jiān)督,模型同時(shí)學(xué)習(xí)鼓勵(lì)Xid、Xage的區(qū)分能力和這兩個(gè)分解成分之間的去相關(guān)信息。總之,在訓(xùn)練過(guò)程中,目標(biāo)函數(shù)受以下組合多任務(wù)損失的監(jiān)督:
式中:LID是Cos-Face 損失函數(shù),LSM帶有交叉熵?fù)p失的softmax,λ1與λ2是用來(lái)平衡這三種損失的超參數(shù)。在測(cè)試階段,我們?yōu)锳IFR 評(píng)估提取身份相關(guān)特征Xid。
該方法具有以下優(yōu)點(diǎn)。首先,特征的DAL 正則化有助于鼓勵(lì)分解后的分量之間的不相關(guān)和共不變信息。其次,BCCA 提供了CCA 的擴(kuò)展插入到深度學(xué)習(xí)框架中,以便整個(gè)模型可以在端到端的過(guò)程中進(jìn)行訓(xùn)練。最后,我們的方法可以很容易地推廣到其他組件分解模型,如姿態(tài),光照,情感等。
網(wǎng)絡(luò)架構(gòu):(1)主干網(wǎng):我們的主干網(wǎng)是類(lèi)似于[11]的64 層卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)。它由4 個(gè)階段組成,分別有3 個(gè)、4個(gè)、10 個(gè)和3 個(gè)堆疊的殘余塊。每個(gè)剩余塊有3 個(gè)“3×3 conv+BN+ReLu”的堆疊單元。最后,F(xiàn)C 層輸出512 維的初始人臉特征。(2)殘差因子分解模塊(Residual Factorization Module,RFM):通 過(guò)2 個(gè)“FC+ReLu”將初始人臉特征映射形成年齡相關(guān)特征,其中殘差部分作為身份相關(guān)特征。(3)年齡鑒別器/身份鑒別器:使用DPL 框架快速計(jì)算分類(lèi)。(4)DAL 正則化器:我們將Xage和Xid分別饋入FC 層,并輸出它們的線(xiàn)性組合,然后用于BCCA 計(jì)算和優(yōu)化。
數(shù)據(jù)預(yù)處理:我們根據(jù)5 個(gè)面部關(guān)鍵點(diǎn)(兩個(gè)眼睛、兩個(gè)鼻子和兩個(gè)嘴角)進(jìn)行相似性變換,以將人臉面片裁剪為112×96。最后,裁剪后的面片的每個(gè)像素([0,255])通過(guò)減去127.5 然后除以128 進(jìn)行歸一化。
測(cè)試細(xì)節(jié):我們?cè)谥墓睞IFR 人臉數(shù)據(jù)集FG-NET、MORPH Album 2 上進(jìn)行了評(píng)價(jià)實(shí)驗(yàn)。在測(cè)試過(guò)程中,我們提取了身份相關(guān)的特征,并將原始圖像和翻轉(zhuǎn)圖像的特征串聯(lián)起來(lái),形成最終的表示。然后利用這些表示的余弦相似度進(jìn)行人臉驗(yàn)證和識(shí)別。
在本小節(jié)中,我們研究了模型的不同變體,以顯示我們的方法的有效性。
3.2.1 余弦相似度的可視化
為了更好地理解DAL 及其改善身份保存信息的能力,我們進(jìn)行了一個(gè)實(shí)驗(yàn)來(lái)可視化不同年齡組的余弦相似性。對(duì)于已學(xué)習(xí)的身份特征Xid,我們首先通過(guò)群集身份特征空間中的每個(gè)標(biāo)識(shí)來(lái)計(jì)算其類(lèi)中心,然后計(jì)算每個(gè)樣本和其類(lèi)中心之間的余弦相似性。之后,我們繪制了不同年齡組間余弦相似度的分布。在本研究中,我們對(duì)小型訓(xùn)練數(shù)據(jù)集進(jìn)行這種可視化分析,該數(shù)據(jù)集包含覆蓋各種年齡差異的50 萬(wàn)個(gè)面部圖像。圖4 顯示了該數(shù)據(jù)集的年齡分布。
圖4 小型數(shù)據(jù)集的年齡分布。該數(shù)據(jù)集包含了50 萬(wàn)個(gè)數(shù)據(jù)覆蓋大部分年齡的人臉圖像
3.2.2 定量評(píng)價(jià)
為了展示聯(lián)合學(xué)習(xí)框架與DAL 方法相結(jié)合的優(yōu)秀性能,我們對(duì)包括FG-NET、MORPH Album 2 在內(nèi)的幾個(gè)公共AIFR 數(shù)據(jù)集進(jìn)行了消耦評(píng)估。此外,我們還在遵循MF1 和MF2 協(xié)議下的FG-NET 上對(duì)模型進(jìn)行了測(cè)試。無(wú)論是MF1 和MF2 都有一個(gè)包含100 萬(wàn)個(gè)面部干擾物的額外干擾物集,使基準(zhǔn)測(cè)試變得更加困難。MF2 提供了一個(gè)訓(xùn)練數(shù)據(jù)集,所有的評(píng)估方法都應(yīng)該在相同的數(shù)據(jù)集上進(jìn)行訓(xùn)練,而不需要任何額外的訓(xùn)練數(shù)據(jù)。在本研究中,我們考慮以下消耦比較模型:(1)基線(xiàn)模型:基線(xiàn)模型僅通過(guò)識(shí)別損失進(jìn)行訓(xùn)練,沒(méi)有任何額外的年齡監(jiān)督。(2)+年齡:該模型由識(shí)別信號(hào)和年齡分類(lèi)信號(hào)聯(lián)合監(jiān)督訓(xùn)練。(3)+Age+DAL:我們提出的模型,通過(guò)DAL 正則化和聯(lián)合監(jiān)督信號(hào)同時(shí)進(jìn)行訓(xùn)練。
如表1 所示,在沒(méi)有DAL 的情況下,聯(lián)合監(jiān)督模型獲得了與基線(xiàn)模型可比較的結(jié)果。相反,我們的“+Age+DAL”模型提高了FG-NET 在所有方案上的性能。與MF1 方案相比,MF2 方案對(duì)FG-NET 的改進(jìn)相對(duì)有限,主要原因是MF2 訓(xùn)練數(shù)據(jù)集的老化變化較小。然而,性能的持續(xù)改進(jìn)證明了我們的方法的有效性。外,我們的方法在MORPH Album 2 上改進(jìn)了0.7%以上的基線(xiàn)模型,使得在98%和99%以上的高精度水平上有顯著提高。
表1 我們的方法與基準(zhǔn)方法進(jìn)行比較,在MF1,MF2 協(xié)議下,評(píng)價(jià)結(jié)果是FG_NET 上的rank_1 人臉的識(shí)別率。
MORPH Album 2 數(shù)據(jù)集包含了20 000 個(gè)不同年齡的人的7.8 萬(wàn)張人臉圖像。為了進(jìn)行公平比較,我們遵循[7]并在兩個(gè)基準(zhǔn)方案下進(jìn)行評(píng)估,其中測(cè)試集分別由10 000 名受試者和3 000 名受試者組成。在測(cè)試集中,每個(gè)受測(cè)人員的年齡差距最大的兩張人臉圖像被選擇組成探針集和圖庫(kù)集。我們使用我們提出的DAL 在大的訓(xùn)練數(shù)據(jù)集(1.7M 圖像)上訓(xùn)練模型。請(qǐng)注意,我們沒(méi)有對(duì)原有數(shù)據(jù)集進(jìn)行任何微調(diào)。
在這個(gè)實(shí)驗(yàn)中,我們將我們的DAL 模型與文獻(xiàn)中最新的AIFR 算法進(jìn)行了比較。如表2 所示,本文所提方法有效提高了rank-1 識(shí)別性能。特別是,我們的方法比當(dāng)前表現(xiàn)最好的AIFR 方法明顯優(yōu)勝,在MORPH Album 2 數(shù)據(jù)庫(kù)上變成了最先進(jìn)的方法。
表2 MORPH Album 2 數(shù)據(jù)集評(píng)價(jià)結(jié)果
為了與通用人臉識(shí)別(General Face Recognition,GFR)中的最新方法進(jìn)行比較,我們進(jìn)一步在LFW數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)評(píng)估。LFW[18]是GFR 的一個(gè)公共基準(zhǔn),有來(lái)自5 749 名受試者的13 233 張人臉圖像。我們嚴(yán)格遵循與OE-CNNs[7]相同的培訓(xùn)和評(píng)估程序。也就是說(shuō),我們的訓(xùn)練數(shù)據(jù)包含了與OE-CNNS[7]相同的0.5M 圖像。表3 報(bào)告了LFW 的驗(yàn)證率。在LFW 數(shù)據(jù)集上,我們的模型都優(yōu)于文獻(xiàn)[7]的模型和最先進(jìn)的通用人臉識(shí)別(GFR)模型[15-16],這表明我們提出的方法具有很強(qiáng)的泛化能力。
表3 LFW 數(shù)據(jù)評(píng)估結(jié)果。報(bào)告結(jié)果為L(zhǎng)FW 的驗(yàn)證率
本文提出了AIFR 的去相關(guān)對(duì)抗學(xué)習(xí)方法。我們的模型學(xué)會(huì)在對(duì)抗過(guò)程中最小化身份和年齡的成對(duì)分解特征之間的相關(guān)性。我們提出了批量典型相關(guān)分析算法,作為深度學(xué)習(xí)中典型相關(guān)分析的擴(kuò)展。除了DAL 之外,我們同時(shí)在身份識(shí)別和年齡分類(lèi)的聯(lián)合監(jiān)督下訓(xùn)練模型。在測(cè)試中,只有身份特征用于人臉識(shí)別。在AIFR 基準(zhǔn)上進(jìn)行的評(píng)估證明了我們提出的方法的優(yōu)越性。我們的主要貢獻(xiàn)總結(jié)如下:(1)為了規(guī)范分解特征的學(xué)習(xí),提出了一種新的基于線(xiàn)性特征分解的去相關(guān)對(duì)抗學(xué)習(xí)算法。通過(guò)這種方式我們希望捕獲在場(chǎng)景(Age Invariant Face Recognition,AIFR)下的人臉圖像的身份的特征,這種特征不會(huì)隨著年齡的改變而有所變化。(2)我們提出了批量典型相關(guān)分析(BCCA),一個(gè)隨機(jī)梯度下降優(yōu)化方式的擴(kuò)展。本文所提出的BCCA 可以集成到深度神經(jīng)網(wǎng)絡(luò)中用于相關(guān)正則化。