• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      非受限條件下的深度人臉年齡分類

      2018-01-08 08:42:14郭麗茹苑津莎趙振兵
      計算機應用 2017年11期
      關鍵詞:準確度人臉殘差

      張 珂,高 策,郭麗茹,苑津莎,趙振兵

      (華北電力大學 電子與通信工程系,河北 保定 071000)

      非受限條件下的深度人臉年齡分類

      張 珂*,高 策,郭麗茹,苑津莎,趙振兵

      (華北電力大學 電子與通信工程系,河北 保定 071000)

      針對非受限條件下人臉圖像年齡分類準確度較低的問題,提出了一種基于深度殘差網絡(ResNets)和大數據集微調的非受限條件下人臉年齡分類方法。首先,選用深度殘差網絡作為基礎卷積神經網絡模型處理人臉年齡分類問題;其次,在ImageNet數據集上對深度殘差網絡預訓練,學習基本圖像特征的表達;然后,對大規(guī)模人臉年齡圖像數據集IMDB-WIKI清洗,并建立了IMDB-WIKI-8數據集用于微調深度殘差網絡,實現一般物體圖像到人臉年齡圖像的遷移學習,使模型適應于年齡段的分布并提高網絡學習能力;最后,在非受限人臉數據集Adience上對微調后的網絡模型進行訓練和測試,并采用交叉驗證方法獲取年齡分類準確度。通過34/50/101/152層殘差網絡對比可知,隨著網絡層數越深年齡分類準確度越高,并利用152層殘差網絡獲得了Adience數據集上人臉圖像年齡分類的最高準確度65.01%。實驗結果表明,結合更深層殘差網絡和大數據集微調,能有效提高人臉圖像年齡分類準確度。

      非受限人臉年齡分類;深度殘差網絡;遷移學習;ImageNet

      0 引言

      人臉圖像包含很多信息,如身份、表情、姿態(tài)、性別和年齡,其中,年齡是人的重要生物特征,可以應用于多種場景:如基于年齡的人機交互系統,根據用戶的不同年齡,提供不同的交互界面,更好地為用戶服務;基于年齡的訪問控制,如禁止未成年人訪問色情網站、購買煙酒等;電子商務中個性營銷,針對不同年齡段的用戶采用不同的營銷手段;刑事案件偵查中的年齡過濾等[1]。然而在這些應用中,人臉圖像往往受到面部姿態(tài)、光線、化妝和背景等影響[2],極大地限制了人臉年齡估計準確性,所以非受限條件下的人臉圖像年齡分類問題面臨巨大挑戰(zhàn)。

      自20世紀70年代以來,許多學者在人臉圖像年齡估計方面作了大量研究[2-8],并取得了豐碩的研究成果: 早期,文獻[9]基于面部特征之間的不同比率將年齡分為嬰兒、青年、老年三類; 文獻[10]采用Hough變換提取人臉的紋理特征,將人臉圖像按照10歲一個年齡段進行分類; 文獻[11]使用Sobel算子進行面部和頸部皺紋邊緣檢測,實現了較高精度的年齡分類; 文獻[12]提出用主動外觀模型(Active Appearance Model,AAM)[13]提取特征進行人臉年齡分類,并在AAM特征的基礎上,使用二次回歸函數來擬合年齡函數模型[14]; 文獻[15]結合生物啟發(fā)特征(Biologically Inspired Feature,BIF)和流行學方法對年齡分類,較好地提升了分類效果; 文獻[16]提出基于全局和局部面部特征的分層分類器,使用Gabor和局部二值模式(Local Binary Pattern,LBP)[17]提取特征實現了更好的年齡分類。文獻[2]采用LBP及dropout-SVM方法,獲得了較好的年齡分類效果。但這些方法只適用于受限條件下的人臉年齡分類,在非受限條件下效果較差。

      21世紀以來,深度卷積神經網絡(Deep Convolutional Neural Network, DCNN)為計算機視覺領域帶來了革命性的發(fā)展,在計算機視覺各項任務中都取得了顯著成果。越來越多的學者開始采用卷積神經網絡進行人臉圖像年齡分類。文獻[18]首次把DCNN應用于非受限的人臉圖像年齡分類,在非受限Adience數據集[2]上進行年齡分類,獲得了較好的年齡分類效果。文獻[19]提出使用二次光滑自適應激活函數(Smooth Adaptive Activation Function,SAAF)的方法,采用近似VGG(Visual Geometry Group)的網絡,在Adience數據集上獲得了更高的準確度。文獻[20]提出一種鏈式性別及年齡的分類方法Chained Net,進一步提高了Adience數據集的年齡分類準確度。文獻[21]提出深度期望模型,采用IMDB-WIKI數據集微調VGG-16網絡,并在Adience數據集上獲得了最高的分類準確度。文獻[22]提出陸地移動距離(squared Earth Mover’s Distance, EMD2)損失函數代替?zhèn)鹘y交叉熵函數,獲得較好的年齡分類效果。文獻[23]利用Sighthound的新型深度神經網絡架構,并結合大數據集訓練,進而獲得較好的分類結果。盡管卷積神經網絡大幅提高了非受限條件下的人臉年齡分類準確度,但仍難以達到人的年齡分類水平,有待于進一步提高。

      通過分析現有人臉年齡分類方法可知,目前人臉年齡分類研究具有以下特點:1)基于深度卷積神經網絡的人臉年齡分類方法較以往方法更適用于非受限條件下的人臉年齡分類;2)通過增加卷積神經網絡的參數或模型復雜度提高網絡的學習能力,可提高人臉年齡分類的準確度;3)當用于訓練的人臉年齡圖像數據集較小,訓練網絡容易出現過擬合問題,可以采用較大規(guī)模數據集對網絡進行預訓練,抑制過擬合、提升網絡性能并提高年齡分類準確度。

      根據以上特點,本文提出了一種基于深度殘差網絡(Residual Networks,ResNets)和大數據集微調的非受限條件下人臉年齡分類方法。首先,為提高網絡模型學習能力,采用深度殘差網絡作為基礎網絡模型;其次,為了實現一般物體圖像到人臉年齡圖像分類的遷移學習,采用ImageNet數據集對ResNets進行預訓練;進而在IMDB-WIKI-8大規(guī)模人臉年齡圖像數據集上對網絡進行微調;最后,采用微調的ResNets網絡模型在非受限的Adience人臉圖像數據集上訓練,并獲得了目前Adience數據集上最好的年齡分類結果。

      1 非受限人臉圖像年齡分類

      1.1 深度殘差網絡模型

      20世紀 90 年代以來,卷積神經網絡一直是計算機視覺領域研究的熱點,從5層的LeNet[24],到8層的AlexNet[25],再到19層的VGG[26]和22層的 GoogleNet[27],直到上千層的ResNets[28],無論是網絡的學習能力還是深度都得到顯著提高。DCNN整合了低中高層的特征,并且卷積層的增加使得卷積層得到的特征更加豐富,文獻[26-28]證明了網絡的深度在圖像分類中具有至關重要的作用。

      然而,隨著網絡的深度增加會產生梯度消失以及網絡退化問題,影響網絡性能。為了提升深度網絡的性能,He等[28]提出了深度殘差網絡,該網絡采用殘差塊作為網絡的基本組成部分,可以很大程度上解決DCNN隨著深度增加而帶來的網絡退化問題。如圖1所示,ResNets在原始卷積層外部加入越層連接支路shortcut構成基本殘差塊,使原始的映射H(x)被表示為H(x)=F(x)+x。ResNets通過殘差塊結構將網絡對H(x)的學習轉化為對F(x)的學習,而對F(x)的學習較H(x)更為簡單?;跉埐顗K更易學習的特性,ResNets通過順序累加殘差塊成功地緩解了DCNN的退化問題,提高了網絡性能。

      圖1 殘差學習:基本殘差塊Fig. 1 Residual learning: a building block

      ResNets結構如圖2所示,RB表示殘差塊。殘差塊的具體表達式如下,函數F(x)表示殘差映射,x和y分別代表殘差塊的輸入和輸出。當x和F維數相同時,采用式(1),此時越層連接既沒有增加額外參數也沒有增加計算復雜度。當x和F維數不同時,即輸入輸出通道數不同,采用式(2),通過越層連接執(zhí)行1×1卷積映射G(x)以匹配維數。

      y=F(x,{Wi})+x

      (1)

      y=F(x,{Wi})+G(x,{WS})

      (2)

      如圖2所示,ResNet-34與ResNet-50/101/152具有不同殘差塊結構。其中,ResNet-34殘差塊首先經過3×3的卷積層后采用批標準化(Batch Normalization,BN)和修正線性單元(Rectified Linear Unit,ReLU),再通過3×3的卷積層采用BN,然后通過越層連接后再采用ReLU;而ResNet-52/101/152對殘差塊進行計算優(yōu)化,首先經過1×1的卷積層后采用BN和ReLU,再經過3×3的卷積層后采用BN和ReLU,然后經過1×1的卷積層后采用BN,最后通過越層連接后再采用ReLU。

      ResNets網絡輸入圖像為彩色圖像,圖像首先被調整為256×256,經過隨機裁剪為224×224輸入網絡,并采用隨機梯度下降方法。具體網絡結構如下:

      首先經過卷積層,卷積核大小為7×7,步長為2,輸出特征圖大小為112×112。再經過最大池化層,卷積核為3×3,步長為2。

      其次經過第一組殘差塊(RB1),4種網絡殘差塊數量均為3。ResNet-34輸入輸出通道均為64,其余網絡輸入輸出通道分別為64和256。輸出特征圖大小為56×56。

      接著經過第二組殘差塊(RB2),殘差塊數量分別為4、4、4和8。ResNet-34輸入輸出通道均為128,其余網絡輸入輸出通道分別為128和512。輸出特征圖大小為28×28。

      然后經過第三組殘差塊(RB3),殘差塊數量分別為6、6、23和36。ResNet-34輸入輸出通道均為256,其余網絡輸入輸出通道分別為256和1 024。輸出特征圖大小為14×14。

      再經過第四組殘差塊(RB4),殘差塊數量均為3。ResNet-34輸入輸出通道都為512,其余網絡輸入輸出通道分別為512和2 048。輸出特征圖大小為7×7。

      最后經過平均池化(Average pooling)層和全連接(Full Connection, FC)層,通過Softmax分類器,輸出分類結果。

      圖2 深度殘差網絡結構Fig. 2 ResNets architecture

      1.2 非受限人臉圖像年齡分類方法

      本文提出的深度年齡分類方法流程如圖3所示。首先采用ResNets作為基礎模型,其次利用ImageNet數據集對模型預訓練,然后用IMDB-WIKI-8數據集微調深度模型,最后在Adience數據集上訓練并測試,得出年齡分類準確度。

      圖3 深度人臉年齡分類方法Fig. 3 Deep face age classification method

      具體過程如下:

      首先,鑒于ResNets網絡在圖像分類和物體檢測中表現出的良好性能,同樣可提高人臉年齡分類效果,且經ImageNet

      數據集預訓練的ResNets模型[29]已公開,所以本文使用ResNets網絡作為基礎網絡模型構建年齡分類DCNN。

      其次,由于Adience數據集圖像規(guī)模較小,直接采用ResNets網絡訓練易產生過擬合,所以借鑒遷移學習的思想,從一般物體圖像過渡到人臉年齡圖像分類,使用ImageNet數據集對ResNets網絡進行預訓練,學習基本圖像特征表達。

      然后,對大規(guī)模人臉圖像數據集IMDB-WIKI[21]進行數據清洗,并根據Adience數據集的8個年齡段構建IMDB-WIKI-8數據集;進而使用IMDB-WIKI-8數據集微調ResNets網絡,使網絡模型適應Adience數據集8個年齡段的分布和年齡分類目標,實現一般圖像分類到人臉年齡圖像分類的過渡。

      IMDB-WIKI是目前最大的非受限人臉年齡圖像數據集,共523 051張圖像,每張圖像都具有精確的年齡和性別標注,年齡范圍為0~100歲。圖像來源于互聯網電影資料庫(IMDB)以及維基百科(Wikipedia),其中IMDB包含20 284位名人的460 723張圖像,Wikipedia包含62 328張圖像。由于IMDB-WIKI數據集的圖像由人臉識別技術得到,導致IMDB-WIKI數據集內包含許多低質量圖像,如圖4所示,包括:人物漫畫圖像、素描圖像、面部遮擋嚴重、全身照、多人照以及空白圖像等;此外部分人臉圖像的標記年齡與真實年齡相差較大,1~10歲的圖像尤為嚴重。這些問題嚴重影響網絡學習效果,因此,本文對IMDB-WIKI數據集進行數據清洗,經四人花費一周時間手動刪除了存在問題的圖像,最終清洗后的IMDB-WIKI數據集剩余440 607張圖像,隨機選取27萬張圖像,按年齡分為101類,記為IMDB-WIKI-101數據集。為了使網絡模型適應Adience數據集的分布及年齡分類目標,同時減小數據集規(guī)模降低訓練時間,本文將清洗后的IMDB-WIKI數據集按照Adience數據集的8個年齡段進行劃分,構建IMDB-WIKI-8數據集,共包含276 341張圖像,年齡分布如表1所示。

      圖4 IMDB-WIKI低質量人臉圖像Fig. 4 Low quality face images in IMDB-WIKI表1 IMDB-WIKI-8和Adience數據集的年齡分布Tab. 1 Age distribution of IMDB-WIKI-8 and Adience datasets

      數據集年齡段0~24~68~1315~2025~3238~4348~5360~100總數IMDB-WIKI-8 55129552923362111088702623491131005276341Adience14272162229416434897235082586919487

      最后,采用微調后的ResNets網絡模型在Adience數據集上進行訓練和測試,通過交叉驗證的方法得到年齡分類的結果。

      2 實驗細節(jié)

      本文使用文獻[29]中已在ImageNet數據集上訓練好的ResNets網絡模型作為預訓練模型。當用IMDB-WIKI-8微調網絡時,隨機選取90%用于訓練,10%用于驗證,Softmax分類器的輸出單元由1 000改為8。訓練時所有動量值為0.9,權重衰減為0.000 1。由于顯存的限制,當網絡為34層時,批處理(batch)大小設為64;當網絡為50、101和152層時,batch大小設為32。訓練輪數(epoch)設為60,初始學習率為0.001,30個epoch之后學習率降為0.000 1。

      當采用Adience數據集進行訓練時,當網絡為34層時,batch大小設為64;當網絡為50、101和152層時,batch大小設為32。epoch設為160,初始學習率為0.000 1,80個epoch之后學習率降為0.000 01。

      本文所有實驗模型采用Nvidia Titan X GPU訓練,運行環(huán)境為torch7。

      3 實驗

      3.1 評價指標

      3.1.1 準確度

      當預測結果僅為真實年齡段時,記為測試正確,此時預測成功的概率用準確度表示。

      3.1.2 1-off值

      當預測結果為真實年齡段或與其相鄰的年齡段時,都記為測試正確, 此時預測成功的概率用1-off值表示。與準確度相比,1-off值降低了預測的難度,可以滿足低精度人臉年齡估計應用的需要,比如成年人準入認證等。

      3.2 數據集

      Adience數據集來自人們從智能手機設備自動上傳到網絡相冊的圖像。這些圖像在上傳之前并沒有經過人工過濾,且這些圖像都是在非受限條件下拍攝的, 這些圖像在頭部姿勢、面部表情和光線條件質量等方面都存在很大差異,所以在Adience數據集下的人臉圖像年齡分類任務面臨巨大的挑戰(zhàn)。

      Adience包含2 284個人的26 580張人臉圖像,年齡范圍為0~100歲,共8個年齡段(0~2, 4~6, 8~13, 15~20, 25~32, 38~43, 48~53, 60~100),年齡分布如表1所示。本文在訓練和測試中采用文獻[18]中的交叉驗證方法,將Adience數據集分成5組不同圖像(fold-0、fold-1、fold-2、fold-3、fold-4),令其中1組圖像作為測試集,其余4組圖像作為訓練集,共構成5種檢測方式。分別對每種檢測方式進行訓練和測試,然后計算5次測試結果的平均準確度和均方差作為最終的人臉年齡分類結果。

      3.3 實驗結果與分析

      為了驗證本文方法的有效性,首先采用34層的ResNet-34網絡通過以下五種方法進行實驗:1)僅使用Adience訓練網絡(A-ResNet-34);2)僅使用ImageNet微調網絡(I-ResNet-34);3)僅使用IMDB-WIKI-8數據集微調(A8-ResNet-34);4)首先用ImageNet預訓練,然后用IMDB-WIKI-101微調網絡(Ft-101-ResNet-34);5)首先用ImageNet預訓練,然后用IMDB-WIKI-8微調網絡(Ft-A8-ResNet-34)。通過在fold-4檢測方式上進行實驗,結果如表2所示,可以看出本文方法的年齡分類準確度最高。

      表2 在fold-4上測試的年齡分類結果Tab. 2 Age classification results on fold-4

      圖5為上述5種方法在fold-4上訓練過程中測試準確度的變化曲線圖。A-ResNet-34學習率從0.1開始,I-ResNet-34學習率從0.01開始,A8-ResNet-34、Ft-101-ResNet-34和Ft-A8-ResNet-34學習率從0.000 1開始,epoch設為160,學習率在80和120epoch時按因子10下降。可以看出I-ResNet-34的曲線較A-ResNet-34的曲線收斂快、準確度高,這是由于ImageNet預訓練獲得了基本的圖像特征表達,可以抑制Adience訓練過程中的過擬合問題;A8-ResNet-34的曲線明顯優(yōu)于I-ResNet-34曲線,說明IMDB-WIKI-8數據集的圖像與Adience數據集同為非受限的人臉年齡圖像構成的,采用IMDB-WIKI-8數據集進行預訓練可以提高年齡分類準確度;Ft-101-ResNet-34和Ft-A8-ResNet-34的曲線明顯優(yōu)于I-ResNet-34和A8-ResNet-34的曲線,說明網絡首先經過ImageNet預訓練實現遷移學習后,再通過IMDB-WIKI數據集微調網絡,較僅采用其中一種數據集進行預訓練的效果好;Ft-A8-ResNet-34的曲線最高點優(yōu)于與Ft-101-ResNet-34的曲線,說明雖然Ft-A8-ResNet-34采用的IMDB-WIKI-8數據集與IMDB-WIKI-101大小相近,但其更符合Adience數據集的年齡分布,所以獲得較好年齡分類準確率。通過以上分析可知,本文所提方法每個步驟的必要性,這些步驟共同組成了最優(yōu)的人臉圖像年齡分類方法。

      圖5 五種不同方法下年齡分類準確度曲線Fig. 5 Comparison of age classification accuracy under five different methods

      為了進一步提升網絡的人臉年齡圖像分類性能,本文逐步加深ResNets網絡,分別采用34層、50層、101層和152層四種ResNets網絡作為基礎網絡模型,首先經過ImageNet預訓練,再用IMDB-WIKI-8數據集微調網絡,最后在Adience數據集上進行訓練和測試。4種ResNets網絡的人臉年齡分類結果如表3所示。從表3中可知,隨著網絡深度增加,網絡的學習能力提升,不僅在IMDB-WIKI-8上的測試集分類準確度呈上升趨勢,而且在Adience數據集上的年齡分類準確度也逐漸提高,尤其是Ft-A8-ResNet-152達到了65.01%的年齡分類準確度。

      表3 不同深度的ResNets在Adience上的年齡分類結果Tab. 3 Age classification results of ResNets with different layers on Adience

      最后,為了驗證本文方法相比現有方法的優(yōu)勢,將在現有Adience數據集上的年齡分類方法與本文方法進行對比,人臉年齡分類結果如表4所示。由表4可以看出本文提出的Ft-A8-ResNet-152年齡分類準確度高于其他各種方法,并且獲得了目前Adience數據集上最好的年齡分類準確度65.01%,驗證了本文方法較其他方法更有優(yōu)勢。

      表4 在Adience上的年齡分類實驗結果Tab. 4 Age classification results on Adience

      4 結語

      針對非受限條件下人臉圖像年齡分類估計準確度低的問題,本文提出了一種基于深度殘差網絡和大數據集微調的非受限條件下人臉年齡分類方法。首先,采用ResNets網絡作為基礎網絡模型,提高網絡學習能力;其次,在ImageNet數據集上對網絡預訓練,有效地抑制小規(guī)模數據集帶來的過擬合問題;然后,采用IMDB-WIKI-8數據集微調網絡,進一步抑制過擬合,實現一般物體圖像到人臉年齡圖像的遷移學習;最后,在非受限條件下的Adience數據集上進行訓練和測試。實驗表明本文方法能有效提高人臉年齡分類準確度,并取得了目前Adience數據集下最好的年齡分類結果。

      References)

      [1] 王先梅, 梁玲燕, 王志良, 等. 人臉圖像的年齡估計技術研究[J]. 中國圖象圖形學報, 2012, 17(6):603-618.(WANG X M, LIANG L Y, WANG Z L, et al. Age estimation by facial image: a survey [J]. Journal of Image and Graphics, 2012, 17(6): 603-618.)

      [2] EIDINGER E, ENBAR R, HASSNER T. Age and gender estimation of unfiltered faces [J]. IEEE Transactions on Information Forensics & Security, 2014, 9(12):2170-2179.

      [3] PANIS G, LANITIS A, TSAPATSOULIS N, et al. Overview of research on facial ageing using the FG-NET ageing database[J]. IET Biometrics, 2016, 5(2): 37-46.

      [4] CHEN B C, CHEN C S, HSU W H. Face recognition and retrieval using cross-age reference coding with cross-age celebrity dataset[J]. IEEE Transactions on Multimedia, 2015, 17(6): 804-815.

      [5] GUO G. Human Age Estimation and Sex Classification[M]. Berlin: Springer, 2012: 101-131.

      [6] HAN H, OTTO C, JAIN A K. Age estimation from face images: human vs. machine performance[C]// Proceedings of the 2013 International Conference on Biometrics. Piscataway, NJ: IEEE, 2013: 1-8.

      [7] 王俊艷, 蘇光大, 林行剛. 人臉圖像年齡估計[J]. 清華大學學報(自然科學版), 2007, 47(4):526-529.(WANG J Y, SU G D, LIN X G. Face age image estimation [J]. Journal of Tsinghua University (Science and Technology), 2007, 47(4): 526-529.)

      [8] 林時苗, 毛曉蛟, 楊育彬. 基于人臉圖像的年齡估計[J]. 計算機科學, 2015, 42(6):32-36.(LIN S M, MAO X J, YANG Y B. Age estimation based on facial image [J]. Computer Science, 2015, 42(6):32-36.)

      [9] KWON Y H. Age classification from facial images[C]// Proceedings of the 1994 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 1994: 762-767.

      [10] HAYASHI J, YASUMOTO M, ITO H, et al. Age and gender estimation based on wrinkle texture and color of facial images[C]// Proceedings of the 16th International Conference on Pattern Recognition. Piscataway, NJ: IEEE, 2002: 405-408.

      [11] NAKANO M, YASUKATA F, FUKUMI M. Age classification from face images focusing on edge information[C]// Proceedings of the 8th International Conference on Knowledge-Based and Intelligent Information and Engineering Systems. Berlin: Springer, 2004: 898-904.

      [12] LANITIS A, DRAGANOVA C, CHRISTODOULOU C. Comparing different classifiers for automatic age estimation [J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 2004, 34(1): 621-628.

      [13] COOTES T F, EDWARDS G J, TAYLOR C J. Active appearance models[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2001, 23(6): 681-685.

      [14] LANITIS A. Comparative evaluation of automatic age-progression methodologies[J]. Journal on Advances in Signal Processing, 2008, 2008(1): Article No. 101.

      [15] GUO G, MU G, FU Y, et al. A study on automatic age estimation using a large database [C]// Proceedings of the 2009 IEEE 12th International Conference on Computer Vision. Piscataway, NJ: IEEE, 2009: 1986-1991.

      [16] CHOI S E, LEE Y J, LEE S J, et al. Age estimation using a hierarchical classifier based on global and local facial features[J]. Pattern Recognition, 2011, 44(6): 1262-1281.

      [17] GUNAY A, NABIYEV V V. Automatic age classification with LBP [C]// Proceedings of the 23rd International Symposium on Computer and Information Sciences. Piscataway, NJ: IEEE, 2008:1-4.

      [18] LEVI G, HASSNCER T. Age and gender classification using convolutional neural networks[C]// Proceedings of the 2015 Computer Vision and Pattern Recognition Workshops. Piscataway, NJ: IEEE, 2015:34-42.

      [19] HOU L, SAMARAS D, KURC T M, et al. Neural networks with smooth adaptive activation functions for regression[DB/OL]. [2016- 11- 16]. https://arxiv.org/abs/1608.06557.

      [20] EKMEKJI A. Convolutional neural networks for age and gender classification[EB/OL]. [2016- 11- 28]. http://cs231n.stanford.edu/reports/2016/pdfs/003_Report.pdf.

      [21] ROTHE R, TIMOFTE R, VAN GOOL L. Deep expectation of real and apparent age from a single image without facial landmarks[EB/OL]. [2017- 05- 10].http://homes.esat.kuleuven.be/~konijn/publications/2016/DEEP-EXP.pdf.

      [22] HOU L, YU C P, SAMARAS D. Squared earth mover’s distance-based loss for training deep neural networks[EB/OL]. [2017- 05- 10].https://arxiv.org/pdf/1611.05916.pdf.

      [23] DEHGHAN A, ORTIZ E G, SHU G, et al. DAGER: Deep age, gender and emotion recognition using convolutional neural network[EB/OL]. [2017- 03- 16].https://arxiv.org/pdf/1702.04280.pdf.

      [24] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition [J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

      [25] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]// Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada: Curran Associates Inc., 2012: 1097-1105.

      [26] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [EB/OL]. [2016- 12- 21]. https://arxiv.org/abs/1409.1556.

      [27] SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 1-9.

      [28] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 770-778.

      [29] CUBBEE, GROSS S. ResNet models trained on ImageNet[EB/OL]. [2016- 12- 10]. https://github.com/facebook/fb.resnet.torch/tree/master/pretrained.

      This work is partially supported by the National Natural Science Foundation of China (61302163, 61302105, 61401154), the Natural Science Foundation of Hebei Province (F2015502062, F2016502101), and the Fundamental Research Funds for the Central Universities (2016MS99, 2015ZD20).

      ZHANGKe, born in 1980, Ph. D., associate professor. His research interests include computer vision, deep learning, machine learning, robot navigation, natural language processing, spatial relation description.

      GAOCe, born in 1992, M. S. candidate. Her research interests include computer vision, deep learning.

      GUOLiru, born in 1992, M. S. candidate. Her research interests include computer vision, deep learning.

      YUANJinsha, born in 1957, Ph. D., professor. His research interests include smart grid information processing, wireless communication, electromagnetic field numerical calculation.

      ZHAOZhenbing, born in 1979, Ph. D., associate professor. His research interests include image processing, intelligent detection of power equipment.

      Deepfaceageclassificationunderunconstrainedconditions

      ZHANG Ke*, GAO Ce, GUO Liru, YUAN Jinsha, ZHAO Zhenbing

      (DepartmentofElectronicandCommunicationEngineering,NorthChinaElectricPowerUniversity,BaodingHebei071000,China)

      Concerning low accuracy of age classification of face images under unrestricted conditions, a new method of face age classification under unconstrained conditions based on deep Residual Networks (ResNets) and large dataset pre-training was proposed. Firstly, the deep residual networks were used as the basis convolutional neural network model to deal with the problem of face age classification. Secondly, the deep residual networks were trained on the ImageNet dataset to learn the expression of basic image features. Thirdly, the large-scale face age images IMDB-WIKI was cleaned, and the IMDB-WIKI-8 dataset was established for fine-tuning the deep residual networks, and migration learning from the general object image to face age image was achieved to make the model adapt to the distribution of the age group and improve the network learning capability. Finally, the fine-tuned network model was trained and tested on the unconstrained Adience dataset, and the age classification accuracy was obtained by the cross-validation method. Through the comparison of 34/50/101/152-layer residual networks, it could be seen that the more layers of the network have the higher accuracy of age classification. And the best state-of-the-art age classification result on Adience dataset with the accuracy of 65.01% was achieved by using the 152-layer residual network. The experimental results show that the combination of deeper residual network and large dataset pretraining can effectively improve the accuracy of face age classification.

      unconstrained face age classification; deep Residual Networks (ResNets); migrate learning; ImageNet

      2017- 05- 11;

      2017- 05- 27。

      國家自然科學基金資助項目(61302163,61302105,61401154);河北省自然科學基金資助項目(F2015502062,F2016502101);中央高?;究蒲薪涃M資助項目(2016MS99,2015ZD20)。

      張珂(1980—),男,河北保定人,副教授,博士,CCF會員,主要研究方向:計算機視覺、深度學習、機器學習、機器人導航、自然語言處理、空間關系描述; 高策(1992—),女,河北保定人,碩士研究生,主要研究方向:計算機視覺、深度學習; 郭麗茹(1992—),女,河北石家莊人,碩士研究生,主要研究方向:計算機視覺、深度學習; 苑津莎(1957—),男,河北保定人,教授,博士,CCF會員,主要研究方向:智能電網信息處理、無線通信、電磁場數值計算; 趙振兵(1979—),男,江蘇宿遷人,副教授,博士,CCF會員,主要研究方向:圖像處理、電力設備智能檢測。

      1001- 9081(2017)11- 3244- 05

      10.11772/j.issn.1001- 9081.2017.11.3244

      (*通信作者電子郵箱zhangkeit@ncepu.edu.cn)

      TP391.41

      A

      猜你喜歡
      準確度人臉殘差
      基于雙向GRU與殘差擬合的車輛跟馳建模
      有特點的人臉
      基于殘差學習的自適應無人機目標跟蹤算法
      基于遞歸殘差網絡的圖像超分辨率重建
      自動化學報(2019年6期)2019-07-23 01:18:32
      三國漫——人臉解鎖
      動漫星空(2018年9期)2018-10-26 01:17:14
      幕墻用掛件安裝準確度控制技術
      建筑科技(2018年6期)2018-08-30 03:40:54
      動態(tài)汽車衡準確度等級的現實意義
      平穩(wěn)自相關過程的殘差累積和控制圖
      河南科技(2015年8期)2015-03-11 16:23:52
      馬面部與人臉相似度驚人
      長得象人臉的十種動物
      奇聞怪事(2014年5期)2014-05-13 21:43:01
      会昌县| 体育| 九江县| 瑞昌市| 施甸县| 略阳县| 利川市| 林州市| 老河口市| 井冈山市| 房产| 淳安县| 新兴县| 玉树县| 军事| 即墨市| 祁连县| 水富县| 县级市| 灵石县| 平南县| 正阳县| 临沭县| 涞源县| 共和县| 晋中市| 海安县| 霍山县| 高邮市| 浮梁县| 毕节市| 休宁县| 崇州市| 岚皋县| 靖州| 金山区| 江阴市| 绥江县| 尉犁县| 烟台市| 云霄县|