廖黃煒,馬 燕,黃 慧
(上海師范大學(xué) 信息與機(jī)電工程學(xué)院,上海 200234)
人臉圖像中存在如性別、年齡、面部表情、種族等個(gè)體特征的重要信息,在人的交互交流中至關(guān)重要,其中人臉年齡作為一種生物及社會(huì)特征,在人類社交中起到了重要作用,而人臉年齡預(yù)測已經(jīng)成為人機(jī)交互和計(jì)算機(jī)視覺的重點(diǎn)研究領(lǐng)域,其在市場分析、人機(jī)交互、安全監(jiān)控等領(lǐng)域應(yīng)用前景廣闊。
年齡預(yù)測[1-2]的難點(diǎn)在于受個(gè)體差異和圖像拍攝的光照、角度、遮擋等影響,圖像與實(shí)際年齡差距較大。另外,年齡是一個(gè)緩慢變化的參數(shù),很難從年齡角度描述年齡相仿圖像之間的區(qū)別。而年齡標(biāo)注的公開數(shù)據(jù)集數(shù)量少且人數(shù)規(guī)模小,深度學(xué)習(xí)方法依賴算力和數(shù)據(jù),模型學(xué)習(xí)時(shí)長不足以及數(shù)據(jù)不足難以達(dá)到擬合。
針對(duì)以上問題,該文對(duì)年齡預(yù)測應(yīng)用傳統(tǒng)圖像特征提取技術(shù)設(shè)計(jì)卷積核,結(jié)合縮減的卷積網(wǎng)絡(luò),提出綜合傳統(tǒng)圖像特征處理技術(shù)的深度學(xué)習(xí)方法——多特征融合卷積神經(jīng)網(wǎng)絡(luò)的年齡預(yù)測方法。
隨著近年來深度學(xué)習(xí)的提出與發(fā)展,基于深度學(xué)習(xí)的人臉年齡預(yù)測方法得到了快速的發(fā)展。目前基于深度學(xué)習(xí)算法的年齡預(yù)測研究主要集中在擬合年齡分布提高精度和構(gòu)建小模型支持小樣本訓(xùn)練兩個(gè)方面。
在擬合年齡分布提高精度方向上主要分為以下三類:
基于回歸方法的年齡預(yù)測,將年齡類別視為線性漸進(jìn)關(guān)系學(xué)習(xí)空間映射特征。Li等人[3]提出使用本地回歸器劃分年齡數(shù)據(jù)區(qū)域,門控網(wǎng)絡(luò)模擬構(gòu)建回歸森林提供連續(xù)年齡權(quán)重,通過回歸加權(quán)組合得到估計(jì)年齡。
基于多分類方法的年齡預(yù)測,將年齡視作獨(dú)立的標(biāo)簽單位,轉(zhuǎn)化為分類問題。Rothe等人[4]提出基于卷積網(wǎng)絡(luò)的分類的期望值進(jìn)行年齡預(yù)測,同時(shí)搭建了IMDB-WIKI人臉數(shù)據(jù)集作為預(yù)訓(xùn)練數(shù)據(jù)集;李大湘等人[5]針對(duì)樣本數(shù)量不平衡及不同年齡間發(fā)生誤分類時(shí)付出代價(jià)不同的問題,提出深度代價(jià)敏感網(wǎng)絡(luò),同時(shí)設(shè)計(jì)對(duì)應(yīng)的CS-CE損失函數(shù),有效優(yōu)化年齡估計(jì)性能。
基于標(biāo)簽編碼方法的年齡預(yù)測,把年齡轉(zhuǎn)化為連續(xù)編碼標(biāo)簽,利用多節(jié)點(diǎn)擬合標(biāo)簽。Chen等人[6]進(jìn)一步將二分類器轉(zhuǎn)化為卷積網(wǎng)絡(luò)中的節(jié)點(diǎn)值,提出Ranking-CNN模型,實(shí)現(xiàn)端到端的序列化年齡預(yù)測模型;Zeng等人[7]提出soft-ranking編碼方法,在保持序列化特性的同時(shí)可以有效區(qū)分臨近年齡特征。
構(gòu)建緊湊模型支持小樣本訓(xùn)練上,Gao等人[8]提出深度標(biāo)簽分布學(xué)習(xí)(deep label distribution learning,DLDL),為利用年齡標(biāo)簽中不確定信息,將年齡轉(zhuǎn)換為離散正態(tài)分布標(biāo)簽,并將深度標(biāo)簽分布與Ranking分布內(nèi)在數(shù)學(xué)關(guān)系相關(guān)聯(lián);Yang等人[9]提出SSR-Net網(wǎng)絡(luò),采用由粗到細(xì)的策略逐階段動(dòng)態(tài)范圍調(diào)節(jié)預(yù)測年齡;Zhang等人[10]采用多尺度特征拼接的方法,通過兩級(jí)串行監(jiān)督補(bǔ)償小模型的擬合問題。
從緊湊模型出發(fā),該文提出基于融合特征提取的卷積神經(jīng)網(wǎng)絡(luò)的年齡預(yù)測模型,主要工作和創(chuàng)新包括:(一)模型利用傳統(tǒng)圖像處理中濾波技術(shù)的特征提取優(yōu)勢,構(gòu)建多種小波卷積核,以這類卷積核構(gòu)成的小型卷積網(wǎng)絡(luò)作為淺層特征提取的網(wǎng)絡(luò),適用于訓(xùn)練樣本較少的情況;(二)通過融合淺層特征和引入注意力機(jī)制,主干網(wǎng)絡(luò)可縮減至1/4的卷積核數(shù),模型整體縮??;(三)綜合上文擬合年齡分布方法提出多組合的序列化年齡損失函數(shù),使得模型對(duì)預(yù)測圖像損失補(bǔ)償更加精確。模型整體計(jì)算量少,體積小,適合小樣本遷移。模型在有限的訓(xùn)練樣本和相對(duì)較短的時(shí)間下,在MORPH和ChaLearn15數(shù)據(jù)集上取得了較高的準(zhǔn)確率。
卷積神經(jīng)網(wǎng)絡(luò)(CNN)可以視為由多個(gè)卷積層和池化層組成的特征提取器,其核心在于卷積層的設(shè)計(jì)。卷積層中通常包含若干個(gè)特征平面,同一特征平面的神經(jīng)元共享權(quán)值,即卷積核。卷積核可由隨機(jī)小數(shù)矩陣形式初始化,并在網(wǎng)絡(luò)訓(xùn)練過程中學(xué)習(xí)得到合理的權(quán)值。卷積層通過大量計(jì)算換來感受野的同時(shí),也會(huì)隨著卷積網(wǎng)絡(luò)的層數(shù)增加失去圖像低維度的特征同時(shí)成倍數(shù)地引入冗余特征。
另一方面,傳統(tǒng)的特征提取技術(shù)如小波變換[11]可以快速提取到圖像的邊緣輪廓信息。在卷積神經(jīng)網(wǎng)絡(luò)中,每個(gè)卷積核可以看成一個(gè)濾波器,利用小波濾波技術(shù)構(gòu)成特殊的濾波器代替原有的卷積核,以此達(dá)到減少訓(xùn)練參數(shù),同時(shí)在數(shù)據(jù)量較小時(shí)仍能提取到圖像魯棒特征的目的。Sarwar等人[12]提出使用Gabor濾波器替換網(wǎng)絡(luò)中的部分卷積核,減少網(wǎng)絡(luò)的訓(xùn)練復(fù)雜度,同時(shí)在分類任務(wù)上達(dá)到與CNN網(wǎng)絡(luò)類似的準(zhǔn)確率。Liu等人[13]提出使用離散小波變換(DWT)作為卷積核的卷積層改造網(wǎng)絡(luò),在圖像超分辨率重建和圖像去噪上取得較好的效果。在此啟發(fā)之下,該文使用Gabor小波和雙樹復(fù)小波作為卷積核設(shè)計(jì)改造特征提取網(wǎng)絡(luò)。
2.1.1 Gabor濾波器
Gabor小波[14]與人類視覺系統(tǒng)中簡單細(xì)胞的視覺刺激響應(yīng)較為相似,在提取目標(biāo)的局部空間和頻域信息這兩方面有較好的特性。該文提出使用單層Gabor濾波器改造卷積核的卷積網(wǎng)絡(luò)(GCN)提取人臉圖像的方向性和尺度性特征。Gabor小波對(duì)圖像的邊緣敏感,能夠提供良好的方向選擇性和尺度選擇性,并且對(duì)光照變化不敏感。二維Gabor濾波公式如下:
sinωo(xcosθ+ysinθ)
(1)
2.1.2 雙樹復(fù)小波濾波器
小波變換的卷積網(wǎng)絡(luò)能夠在提取圖像高頻信息的同時(shí),保留低維度信息從而恢復(fù)圖像細(xì)節(jié)。受文獻(xiàn)[11,15]啟發(fā),以Mexico小波制作濾波器,其公式如下:
(2)
YLL,(YLH,YHL,YHH)=Mexico(Y)
(3)
其中,公式(2)為小波函數(shù),公式(3)為輸入尺寸為(h,w)的原始圖像Y,輸出得到下采樣圖像YLL,以及橫向細(xì)節(jié)YLH、縱向細(xì)節(jié)YHL、斜向細(xì)節(jié)YHH,其尺寸為(h/2,w/2)。
正交的小波變換只對(duì)下采樣圖像YLL做進(jìn)一步分解,而對(duì)高頻部分即信號(hào)的細(xì)節(jié)部分不再繼續(xù)分解,因此,小波變換能夠較好地表征以低頻信息為主要成分的信號(hào),但不能很好地分解和表示包含大量細(xì)小邊緣或紋理等細(xì)節(jié)信息的信號(hào)。為解決上述問題,該文提出使用雙樹復(fù)小波設(shè)計(jì)單層卷積網(wǎng)絡(luò)(WCN)。雙樹復(fù)小波[16]具有近似的平移不變性,信號(hào)的平移不會(huì)導(dǎo)致各尺度上能量的分布變換。同時(shí)具有良好的方向選擇性,能反映圖像不同分辨率上多個(gè)方向的變化情形。同時(shí)數(shù)據(jù)冗余度較小,對(duì)于二維圖像為4∶1冗余占比。
雙樹復(fù)小波通過離散小波變換實(shí)現(xiàn),雙樹復(fù)小波對(duì)圖像X(z1,z2)分解可表示為:
其中,(2j↓)表示以2j向下采樣,下標(biāo)a和b分別對(duì)應(yīng)±中的+和-。即雙樹復(fù)小波變換在每一層一共有4個(gè)共軛復(fù)數(shù)濾波對(duì),包括2個(gè)低頻子帶和6個(gè)高頻子帶,高頻子帶方向分別為±15°、±45°、±75°。利用WCN反映圖像在不同分辨率上的方向?qū)傩钥梢愿玫靥崛∪四槇D像上的紋理和邊界的特征。
2.2.1 多特征融合提取網(wǎng)絡(luò)
該文提出的多特征融合的卷積網(wǎng)絡(luò)模型框架如圖1所示。該模型由多特征融合提取、注意力機(jī)制模塊和損失函數(shù)設(shè)計(jì)三部分組成。首先輸入人臉圖像,由GCN、WCN和CNN多特征融合提取,接著引入注意力機(jī)制模塊的深度神經(jīng)網(wǎng)絡(luò)(SE+1/4 ResNet-34)進(jìn)一步提取年齡特征,最后根據(jù)真值年齡生成的序列化標(biāo)簽,經(jīng)組合損失函數(shù)優(yōu)化標(biāo)簽分布學(xué)習(xí)得到預(yù)測年齡。
圖1 多特征融合年齡預(yù)測模型框架
針對(duì)年齡預(yù)測問題,網(wǎng)絡(luò)需要加強(qiáng)人臉圖像的特征提取能力而忽略不重要的背景內(nèi)容,即模型需具有人臉的關(guān)注能力。引入文獻(xiàn)[17]提出的基于通道加權(quán)的關(guān)注度模塊(SE Module),改造特征骨干網(wǎng)絡(luò)為SE-ResNet-34,由于特征融合網(wǎng)絡(luò)已經(jīng)做了精準(zhǔn)的特征提取,骨干網(wǎng)絡(luò)可以減小卷積核數(shù)以減少冗余特征,該文采取1/4倍率縮小骨干網(wǎng)絡(luò)的卷積核數(shù)量。
2.2.2 損失函數(shù)設(shè)計(jì)
損失函數(shù)是計(jì)算年齡特征向量的預(yù)測值與年齡標(biāo)簽之間差異的函數(shù),用來描述預(yù)測值與標(biāo)簽值的擬合程度,損失函數(shù)的設(shè)計(jì)應(yīng)當(dāng)與標(biāo)簽相匹配。人臉年齡在主觀認(rèn)識(shí)下是連續(xù)的,比起年齡數(shù)值標(biāo)簽,連續(xù)化的標(biāo)簽更符合預(yù)測年齡的結(jié)果。參照文獻(xiàn)[6]提出的序列化標(biāo)簽方法,把數(shù)據(jù)集的年齡范圍[0,n]編碼成n個(gè)二分類器,第i(i∈[1,n])個(gè)二分類器表示當(dāng)前圖像年齡是否大于i歲,得到n長度的年齡標(biāo)簽,把年齡預(yù)測問題簡化為二分類問題,通過二分類器的累加計(jì)算預(yù)測年齡。
二分類器通常通過交叉熵學(xué)習(xí)節(jié)點(diǎn)權(quán)重,每個(gè)二分類器都有權(quán)重系數(shù),得到每個(gè)分類器在數(shù)據(jù)集上的權(quán)重分布。為了在訓(xùn)練中得到擬合的結(jié)果,該文提出對(duì)比標(biāo)簽序列和預(yù)測序列的相對(duì)熵方法來設(shè)計(jì)損失函數(shù)。相對(duì)熵(relative entropy)又稱為KL散度(Kullback-Leibler divergence),用來描述兩個(gè)概率分布之間的差異,計(jì)算公式如下:
(5)
其中,p表示年齡標(biāo)簽分布,q表示年齡預(yù)測分布,則LKL(p‖q)表示用分布q擬合標(biāo)簽分布p時(shí)產(chǎn)生的信息損耗。相對(duì)熵使得每個(gè)分類器訓(xùn)練得到數(shù)據(jù)集的權(quán)重分布,同時(shí)可以更好表現(xiàn)兩個(gè)序列之間的差異性從而獲得更準(zhǔn)確的損失值。
為減少冗余,使用單個(gè)節(jié)點(diǎn)和Sigmoid激活函數(shù)完成二分類器激活工作。假設(shè)預(yù)測年齡N∈[0,100],公式如下:
(6)
(7)
由于訓(xùn)練圖像樣本的不足以及樣本年齡分布的不均,個(gè)別二分類器會(huì)出現(xiàn)未擬合的情況,如圖2所示,可能出現(xiàn)如下兩種壞情況。為保持二分類器與年齡序列的一致性,保證分類器始終處于依次激活狀態(tài),應(yīng)避免情況B的出現(xiàn)。
圖2 二分類器序列壞情況A和B
為解決以上問題,該文借鑒文獻(xiàn)[18]提出的EMD方法,損失函數(shù)LEMD公式如下:
(8)
其中,N為數(shù)據(jù)集樣本數(shù)量,p和q分別為網(wǎng)絡(luò)預(yù)測和標(biāo)簽,CDFi為序列化標(biāo)簽[0,i]的累積分布函數(shù)。利用損失函數(shù)LEMD約束連續(xù)序列化,通過累積分布函數(shù)差使序列化的損失值始終控制在序列遞增水平,從而使得二分類器順序激活。
綜合以上損失函數(shù)方法,該文提出使用相對(duì)熵約束年齡序列分類器的準(zhǔn)確性,而用EMD保證年齡序列分類器的連續(xù)性特性,設(shè)計(jì)的損失函數(shù)L(p,q)公式如下:
L(p,q)=LKL(p‖q)+φLEMD(p,q)
(9)
其中,p和q分別為網(wǎng)絡(luò)預(yù)測和標(biāo)簽,φ為超參數(shù),控制EMD對(duì)模型的介入程度,實(shí)驗(yàn)表明,當(dāng)φ=0.2時(shí)可以得到最佳的預(yù)測結(jié)果。
在MORPH數(shù)據(jù)集[19]、IMDB-WIKI數(shù)據(jù)集[4]和ChaLearn15數(shù)據(jù)集[20]上進(jìn)行實(shí)驗(yàn)。MORPH數(shù)據(jù)集擁有來自超過13 000人共有55 134張彩色人臉圖像,年齡分布在16~77歲。通常使用5折交叉驗(yàn)證劃分訓(xùn)練集和測試集。IMDB-WIKI數(shù)據(jù)集是目前公開的最大的人臉真實(shí)年齡數(shù)據(jù)集,數(shù)據(jù)均來自IMDB和Wikipedia,圖片質(zhì)量不高,其中,IMDB包含460 723張人臉圖片,WIKI包含62 328張,年齡分布在0~100歲。ChaLearn15是首個(gè)包含真實(shí)年齡和表象年齡的數(shù)據(jù)集,共4 699張人臉圖像,其中訓(xùn)練集2 476張,驗(yàn)證集1 136張,測試集1 087張。所有圖像的表象年齡由至少10人標(biāo)注并取均值得到。
數(shù)據(jù)集經(jīng)人臉識(shí)別模塊過濾非人臉圖像后,根據(jù)得到的人臉關(guān)鍵點(diǎn)對(duì)齊人臉眼睛并統(tǒng)一裁剪填充為256×256尺寸,再縮放為128×128尺寸,在訓(xùn)練集上,隨機(jī)裁剪為120×120尺寸。為了擴(kuò)充訓(xùn)練集,隨機(jī)使用水平翻轉(zhuǎn)、旋轉(zhuǎn)15度、對(duì)比度增強(qiáng),在驗(yàn)證集和測試集上根據(jù)中心裁剪為120×120尺寸。
實(shí)驗(yàn)使用卷積神經(jīng)網(wǎng)絡(luò)基于Pytorch 1.7框架實(shí)現(xiàn),在一臺(tái)GeForce GTX1660 6G顯卡配置電腦上訓(xùn)練。提出的模型均直接在年齡數(shù)據(jù)集上做訓(xùn)練。所有網(wǎng)絡(luò)使用Adam優(yōu)化器,設(shè)置優(yōu)化器參數(shù)為β1=0.90、β2=0.99和ε=10-8。在IMDB-WIKI數(shù)據(jù)集上以每批次64張圖片,訓(xùn)練200輪次,初始學(xué)習(xí)率為0.001,在100輪次和150輪次減小學(xué)習(xí)率為目前的10%,在MORPH和ChaLearn15數(shù)據(jù)集上修改初始學(xué)習(xí)率為0.000 1。
在年齡預(yù)測的研究中主要采用的是平均絕對(duì)誤差(mean absolute error,MAE)[1],平均絕對(duì)誤差是指預(yù)測年齡與真實(shí)年齡差值的絕對(duì)值,公式為:
(10)
累積分?jǐn)?shù)(cumulative score,CS)[1]是另一個(gè)常用的研究指標(biāo),反映不同誤差閾值下的年齡預(yù)測的準(zhǔn)確率,計(jì)算公式如下:
(11)
其中,e為真實(shí)年齡與預(yù)測年齡差的絕對(duì)值,j為累積分?jǐn)?shù)可接受的差值閾值,Ne≤j是測試樣本中真實(shí)年齡與預(yù)測年齡差的絕對(duì)值小于j的樣本數(shù)量即可容忍的年齡誤差,N是測試樣本總數(shù)。
ε-error[20]是描述模型在ChaLearn15表象數(shù)據(jù)集上預(yù)測性能的指標(biāo),數(shù)據(jù)集上包含表象年齡的均值和方差,ε-error定義為:
(12)
其中,x為年齡預(yù)測值,σ和μ為表象年齡的均值和標(biāo)準(zhǔn)差,ε越小則年齡預(yù)測越準(zhǔn)確。
對(duì)比提出的不同模塊和損失函數(shù)組合的網(wǎng)絡(luò)在MORPH數(shù)據(jù)集上的性能表現(xiàn),如表1所示。所有的模型都經(jīng)過IMDB-WIKI數(shù)據(jù)集預(yù)訓(xùn)練后,在MORPH訓(xùn)練集上進(jìn)行訓(xùn)練,在測試集上測試MAE指標(biāo)。
表1 模塊和損失函數(shù)組合模型在MORPH上的性能
損失函數(shù)中相對(duì)熵和平均絕對(duì)誤差的組合要優(yōu)于相對(duì)熵和交叉熵的擬合表現(xiàn)。SE模塊增強(qiáng)了模型對(duì)圖像中人臉的關(guān)注度,增加SE模塊的網(wǎng)絡(luò)相比直接使用卷積網(wǎng)絡(luò)大幅提升了模型性能表現(xiàn)。利用GCN和WCN提取圖像特征對(duì)比CNN來提取特征在MORPH數(shù)據(jù)集上表現(xiàn)更好。通過以上對(duì)比實(shí)驗(yàn)可知,由GCN和WCN組合提取特征,SE模塊組合的網(wǎng)絡(luò)在相對(duì)熵和平均絕對(duì)誤差組合的損失函數(shù)下得到最佳的性能表現(xiàn)。
文中算法在ChaLearn15和MORPH數(shù)據(jù)集上的預(yù)測性能表現(xiàn)如圖 3所示,其中L為標(biāo)簽?zāi)挲g,P為預(yù)測年齡。由于MORPH數(shù)據(jù)集拍攝背景較為單一, 拍攝角度相對(duì)固定,因此,得到較好的預(yù)測效果。ChaLearn15數(shù)據(jù)集采集自網(wǎng)絡(luò),大部分圖像有復(fù)雜的背景,預(yù)測效果仍能保持在2歲誤差左右,其中,第六、七幅由于圖像模糊和老年數(shù)據(jù)樣本過少而表現(xiàn)不佳。
圖3 文中算法在ChaLearn15和MORPH上的預(yù)測性能表現(xiàn)
為進(jìn)一步驗(yàn)證文中算法的有效性,選擇近年算法進(jìn)行對(duì)比實(shí)驗(yàn)。具體對(duì)比算法如下:大模型算法有DEX[4]、Ranking[6]、BridgeNet[3]、Soft-ranking[7]、CS-CE CNN[5],緊湊模型算法有SSR-Net[9]、DLDL-v2[8]、C3AE[10]。
各算法在MORPH和ChaLearn15數(shù)據(jù)集下的性能表現(xiàn)如表2所示。部分模型未知其模型內(nèi)存,根據(jù)主干模型內(nèi)存大小估計(jì)及VGGNet約為500 MB,ResNet約為180 MB。其中大模型有現(xiàn)有的經(jīng)ImageNet圖像分類數(shù)據(jù)集預(yù)訓(xùn)練的主干模型,在原有模型基礎(chǔ)上增加對(duì)年齡的擬合處理和訓(xùn)練。緊湊模型對(duì)主干模型有較大改動(dòng),因此需要自行進(jìn)行對(duì)ImageNet的預(yù)訓(xùn)練或無需預(yù)訓(xùn)練。模型除標(biāo)注有對(duì)比模型外均在IMDB-WIKI人臉年齡數(shù)據(jù)集上預(yù)訓(xùn)練,測試階段分別使用MORPH和ChaLearn15數(shù)據(jù)集進(jìn)行測試,使用平均絕對(duì)誤差對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行評(píng)價(jià),ChaLearn15數(shù)據(jù)集額外使用ε-error作為評(píng)價(jià)標(biāo)準(zhǔn)。文中算法在緊湊模型算法下保證最少的預(yù)訓(xùn)練下得到了最好的預(yù)測性能,對(duì)比大模型算法保持了較好的預(yù)測性能且模型內(nèi)存占用遠(yuǎn)低于該序列下的模型。
表2 MORPH和ChaLearn15數(shù)據(jù)集下不同算法的性能對(duì)比
文中算法有效構(gòu)建了支持小樣本數(shù)據(jù)集的緊湊模型,同時(shí)保證了預(yù)測精度。對(duì)比近年一些代表性大模型算法,模型遷移和學(xué)習(xí)成本低,大大降低了該算法模型的硬件需求。對(duì)比緊湊模型,文中算法對(duì)比上述算法有精確度的優(yōu)勢,且重新設(shè)計(jì)的緊湊網(wǎng)絡(luò)不依賴大型分類數(shù)據(jù)集如ImageNet等的預(yù)訓(xùn)練,只需在人臉數(shù)據(jù)集上進(jìn)行訓(xùn)練即可得到較高的精度,從而降低了模型訓(xùn)練時(shí)間。此外,序列化的標(biāo)簽設(shè)計(jì)更適用于年齡預(yù)測任務(wù)。
針對(duì)提升網(wǎng)絡(luò)特征提取能力和增強(qiáng)小樣本數(shù)據(jù)的擬合能力,提出基于濾波技術(shù)的卷積網(wǎng)絡(luò)GCN和WCN,在此基礎(chǔ)之上提出多特征融合提取網(wǎng)絡(luò),并設(shè)計(jì)適合年齡預(yù)測的標(biāo)簽和損失函數(shù)。實(shí)驗(yàn)結(jié)果表明,提出的網(wǎng)絡(luò)可有效提升年齡預(yù)測精度,且僅需要人臉數(shù)據(jù)集上訓(xùn)練,遷移和學(xué)習(xí)成本低。下一步可對(duì)該網(wǎng)絡(luò)進(jìn)一步輕量化去冗余處理,以提高年齡預(yù)測速度。
計(jì)算機(jī)技術(shù)與發(fā)展2022年10期