曾凡智,鄒 磊,周 燕,邱騰達(dá)
(佛山科學(xué)技術(shù)學(xué)院 計(jì)算機(jī)系,廣東 佛山528000) E-mail:coolhead@126.com
近年來,計(jì)算機(jī)成像領(lǐng)域已經(jīng)取得了巨大的進(jìn)步,但對(duì)于捕獲的模糊內(nèi)容的處理仍然是一個(gè)挑戰(zhàn).圖像模糊[1]的一種起因是由傳感器曝光期間,場(chǎng)景中的物體或照相機(jī)運(yùn)動(dòng)所造成.除了明顯降低圖像的視覺質(zhì)量外,模糊造成的失真會(huì)導(dǎo)致諸多計(jì)算機(jī)視覺任務(wù)的性能大幅下降.商業(yè)上有一些可用的相機(jī),它們可以以高幀頻捕獲幀,從而減少模糊現(xiàn)象,但是這會(huì)使圖像擁有更多噪聲.
由于圖像模糊本身的不確定性,它依然是計(jì)算機(jī)視覺中一個(gè)具有挑戰(zhàn)性的問題.目前運(yùn)用相對(duì)廣泛的圖像去模糊方法主要有以下兩類:盲去模糊和非盲去模糊.非盲去模糊是當(dāng)模糊核[2]已知時(shí),采取有針對(duì)性的反卷積操作獲取清晰圖像,因此模糊核估計(jì)的準(zhǔn)確性就成了圖像去模糊的關(guān)鍵.目前主流的模糊核估計(jì)方法大部分建立在概率先驗(yàn)?zāi)P椭?韓陽[3]提出兩階段圖像恢復(fù)方法,首先利用圖像的稀疏性,在多尺度情況下估計(jì)模糊核,再結(jié)合非盲反卷積獲取清晰圖像.黃英豪[4]提出一種基于經(jīng)典L0梯度先驗(yàn)的人臉圖像去模糊算法,通過隨機(jī)森林模型進(jìn)行人臉輪廓檢測(cè),然后利用人臉的結(jié)構(gòu)化特征進(jìn)行非盲去模糊.徐弦秋[5]等提出利用模糊核對(duì)各個(gè)通道彩色分量圖造成的差異性,對(duì)圖像的RGB通道分別進(jìn)行模糊核估計(jì),此方法取得了不錯(cuò)的去模糊效果.
隨著人工智能的不斷興起,新興的深度學(xué)習(xí)技術(shù)推動(dòng)了圖像修復(fù)任務(wù)的突破.在圖像去模糊任務(wù)中,通過模型的先驗(yàn)知識(shí),不提前進(jìn)行模糊核估計(jì)的方法(即盲去模糊)越來越受到研究者的青睞.Nah[6]等通過使用多尺度殘差網(wǎng)絡(luò),通過從粗糙到精細(xì)的方式聚合特征,直接對(duì)圖像去模糊,避免了對(duì)模糊核進(jìn)行估計(jì);Ramakrishnan[7]等結(jié)合使用pix2pix框架和稠密連接網(wǎng)絡(luò)DenseNet[8]執(zhí)行圖像無核盲去模糊;陳陽[9]等提出一種基于自編碼深度神經(jīng)網(wǎng)絡(luò)的方法,對(duì)輸入圖像中的模糊區(qū)域進(jìn)行準(zhǔn)確標(biāo)記,并對(duì)這些區(qū)域進(jìn)行去模糊處理,這能在保證圖像不發(fā)生失真的同時(shí)有效去除局部模糊;Kupyn[10]等針對(duì)運(yùn)動(dòng)模糊提出一種基于生成對(duì)抗網(wǎng)絡(luò)的圖像盲去模糊方法,將梯度懲罰和感知損失引入生成對(duì)抗神經(jīng)網(wǎng)絡(luò),這不僅使圖像保留了更多的紋理細(xì)節(jié),運(yùn)行效率也有大幅提高;Li[11]等采用數(shù)據(jù)驅(qū)動(dòng)的先驗(yàn)鑒別并設(shè)計(jì)了基于半二次分裂法的圖像盲去模糊算法;Shen[12]等人結(jié)合人臉的深度語義信息進(jìn)行盲去模糊,通過合并全局語義先驗(yàn)輸出,并且在多尺度神經(jīng)網(wǎng)絡(luò)中加入局部結(jié)構(gòu)損失來正則化輸出,獲得了較好的人臉圖像去模糊效果.
現(xiàn)有大部分基于深度神經(jīng)網(wǎng)絡(luò)的圖像去模糊算法存在參數(shù)量眾多,對(duì)人臉識(shí)別準(zhǔn)確率提升不明顯等問題.本文基于生成對(duì)抗網(wǎng)絡(luò)[13]框架,提出一種條件GAN圖像去模糊算法,致力于解決圖像去模糊技術(shù)運(yùn)用在人臉識(shí)別相關(guān)場(chǎng)景中準(zhǔn)確率提升不明顯等問題.
本文的主要貢獻(xiàn)如下:
1)提出Group-SE模塊,將分組卷積和注意力機(jī)制結(jié)合,在降低模型參數(shù)量的同時(shí)提高模型的性能;
2)改進(jìn)了原SE模塊,將全局深度卷積引入其中,代替全局平均池化層提取全局性的通道特征;
3)將全局性稠密連接引入DenseNet,強(qiáng)化了模型的特征重用能力;
4)提出了一種新的可用于人臉識(shí)別的去模糊算法.
生成對(duì)抗網(wǎng)絡(luò)GAN作為一種新興的深度學(xué)習(xí)模型,在圖像超分辨率重構(gòu)[14]等任務(wù)上取得了不錯(cuò)的成績(jī).它由一個(gè)生成器網(wǎng)絡(luò)和一個(gè)判別器網(wǎng)絡(luò)組成.判別器的訓(xùn)練目的是能夠區(qū)分生成器的輸出樣本與來自真實(shí)數(shù)據(jù)的樣本,生成器的訓(xùn)練目的是欺騙判別器.GAN的一個(gè)顯著優(yōu)勢(shì)是可以不用計(jì)算復(fù)雜的馬爾科夫鏈,只需要憑借反向傳播算法就可以獲得梯度[15].GAN的訓(xùn)練是兩個(gè)角色之間“動(dòng)態(tài)”博弈的過程,是以價(jià)值函數(shù)V(D,G)最小化最大值為目標(biāo)的對(duì)抗過程,價(jià)值函數(shù)V(D,G)見式(1):
(1)
其中D,G分別代表判別器和生成器,x為真實(shí)數(shù)據(jù),z為噪點(diǎn)數(shù)據(jù),pdata(x)為真實(shí)數(shù)據(jù)分布,pz(z)為噪點(diǎn)分布,Ex~pdata(x)為真實(shí)數(shù)據(jù)x的數(shù)學(xué)期望,Ez~pz(z)為噪點(diǎn)數(shù)據(jù)z的數(shù)學(xué)期望,D(x)為x來自真實(shí)數(shù)據(jù)的概率,D(G(z))為噪點(diǎn)z經(jīng)生成器產(chǎn)生的樣本被判定為來自真實(shí)數(shù)據(jù)的概率.
在原始非條件的生成模型中,模型無法有效控制生成樣本的類型,但是如果通過給模型增加額外信息(即加入約束條件),則可以引導(dǎo)模型生成的方向.條件生成對(duì)抗網(wǎng)絡(luò)[15]的價(jià)值函數(shù)V(D,G)見式(2):
(2)
其中y為模型引入的額外信息,y可以是類別標(biāo)簽或者是來自其他模型的數(shù)據(jù)(本文中y為原始清晰圖像),D(x|y)為x在y的條件下被判定來自真實(shí)數(shù)據(jù)的概率,G(z|y)為在y的條件下噪點(diǎn)z生成的樣本.
本文基于生成對(duì)抗網(wǎng)絡(luò)框架進(jìn)行圖像去模糊算法設(shè)計(jì),整體算法結(jié)構(gòu)由生成器和判別器組成,其結(jié)構(gòu)如圖1所示.模糊圖像從生成器網(wǎng)絡(luò)輸入層輸入,首先經(jīng)過一個(gè)7×7標(biāo)準(zhǔn)卷積層,并將輸出用非線性激活函數(shù)和特征歸一化(Activation and Normalization,AN)進(jìn)行處理,以增強(qiáng)模型的非線性表達(dá)能力和加速模型收斂,再將結(jié)果依次送入32個(gè)Group-SE塊中提取特征,其中Group-SE塊包含1×1卷積層、3×3分組卷積層(Group Convolution,GConv)、非線性激活層、歸一化層、SE塊(Squeeze and Excitation,SE)、1×1卷積層及特征融合層(Add),SE塊又由特征篩選層(Feature Selection,F(xiàn)S)和特征重標(biāo)定層(Scale)組成,最后將結(jié)果送入反卷積層(ConvTranspose),用于將低分辨率圖像上采樣為高分辨率清晰圖像;同時(shí)將生成器網(wǎng)絡(luò)得到的模擬圖像作為負(fù)樣本送入判別器中,而正樣本是原始清晰圖像,本文使用的判別器是具有全局性稠密連接的改進(jìn)DenseNet網(wǎng)絡(luò),網(wǎng)絡(luò)通過Softmax分類器輸出判別清晰圖像的真假結(jié)果.
圖1 本文算法整體結(jié)構(gòu)圖Fig.1 Overall structure of the algorithm in this paper
受到ResNeXt[16]和SENet[17]設(shè)計(jì)思想的啟發(fā),本文提出一種結(jié)合了分組卷積和注意力機(jī)制的模塊,稱為Group-SE模塊.Group-SE模塊主要由輕量級(jí)的分組卷積和具有注意力機(jī)制的SE模塊組成,具體結(jié)構(gòu)如圖1生成器部分所示,目的是使生成器在大幅降低參數(shù)量和計(jì)算量的情況下仍然可以保持較好的性能.
3.1.1 分組卷積
分組卷積是ILSVRC(ImageNet Large Scale Visual Recognition Challenge)2016分類任務(wù)亞軍模型ResNeXt中大力推廣的一種新興卷積方法,它主要先對(duì)輸入的特征圖進(jìn)行分組,再對(duì)每組分別進(jìn)行卷積操作,其運(yùn)算方式如圖2所示.它常用在輕量級(jí)的高效神經(jīng)網(wǎng)絡(luò)中,因?yàn)樗梢杂幂^少的運(yùn)算量和參數(shù)量產(chǎn)生大量的特征圖,而大量的特征圖就意味著網(wǎng)絡(luò)能夠編碼更多有用信息.
圖2 標(biāo)準(zhǔn)卷積與分組卷積Fig.2 Standard convolution and group convolution
假設(shè)某一層的輸入特征圖尺寸為C·H·W(分別為輸入特征圖數(shù)量、特征圖高和寬),輸出特征圖數(shù)量為N,卷積核邊長(zhǎng)為K,分成G組.
標(biāo)準(zhǔn)卷積:卷積核參數(shù)量為C·K·K·N;
3.1.2 改進(jìn)SE(Squeeze-and-Excitation)模塊
SE模塊是ImageNet 2017競(jìng)賽分類任務(wù)冠軍模型SENet中所提出的一種方法,其組成如圖3(a)所示.它首先對(duì)輸入特征圖使用全局平均池化層(Global Average Pooling,GAP)進(jìn)行壓縮(Squeeze)操作,得到通道級(jí)的全局特征,然后對(duì)全局特征進(jìn)行激勵(lì)(Excitation)操作,學(xué)習(xí)各個(gè)通道之間的關(guān)系.第1個(gè)全連接層(Fully Connected,F(xiàn)C)主要的目的是降維,這可以極大地減少參數(shù)量和計(jì)算量,并將輸出用非線性激活函數(shù)和特征歸一化(Activation and Normalization,AN)進(jìn)行處理,以增強(qiáng)模型的非線性表達(dá)能力、加速模型收斂以及更好地?cái)M合通道間復(fù)雜的相關(guān)性.第2層的全連接層屬于擴(kuò)張層,它的輸出通道又回到了原來的輸入的數(shù)量,為后面的權(quán)重歸一化預(yù)先做準(zhǔn)備.Sigmoid函數(shù)對(duì)上一步的通道進(jìn)行最后的篩選,獲得0~1之間歸一化的權(quán)重,即越是重要的通道,它的權(quán)重就越大.最后的Scale為特征重標(biāo)定,即將歸一化后的權(quán)重加權(quán)到原先輸入的每個(gè)通道的特征上,最終完成SE模塊對(duì)圖像特征的篩選工作.
圖3 SE模塊與GDC-SE模塊Fig.3 SE module and GDC-SE module
全局平均池化層的使用會(huì)在一定程度上降低模型的表達(dá)能力[18],具體分析如圖4所示,雖然中心點(diǎn)感受野RF2大小與邊角點(diǎn)的感受野RF1大小相同,但是中心點(diǎn)的感受野包括了完整的圖片,邊角點(diǎn)的感受野卻只有部分圖片,因此特征圖中每個(gè)點(diǎn)的權(quán)重應(yīng)該不一樣,但是全局平均池化層卻把它們當(dāng)做一樣的權(quán)重去考慮,這使得網(wǎng)絡(luò)的表達(dá)能力下降.
圖4 特征圖像素點(diǎn)的不同感受野分析Fig.4 Analysis of different receptive fields of feature map pixels
針對(duì)這一問題,可以使用全局深度卷積[18](Global Depthwise Convolution,GDC)代替全局平均池化層進(jìn)行通道性特征提取.全局深度卷積對(duì)特征圖的每個(gè)像素點(diǎn)賦予了不同的權(quán)重,使得圖像不同位置的感受野具有不同的重要性,進(jìn)一步增強(qiáng)模型的表達(dá)能力,全局深度卷積的計(jì)算公式如式(3)所示:
Gm=∑i,jKi,j,m·Fi,j,m
(3)
其中Gm為第m個(gè)通道輸出特征,尺寸為1×1×M;K為深度卷積核,尺寸為W×H×M;F為第m個(gè)通道特征圖,尺寸為W×H×M;i和j為像素的橫縱坐標(biāo).W,H,M分別為特征圖的寬,高,輸入通道數(shù),全局深度卷積的尺寸與輸入特征圖大小一樣,輸出通道數(shù)與輸入通道數(shù)相同.
本文將全局深度卷積引入SE模塊,代替全局平均池化層提取全局性通道特征,同時(shí)依據(jù)文獻(xiàn)[19]對(duì)通道壓縮的思考.本文去除了原SE模塊的壓縮層,減少通道信息在壓縮層的損失.最后,本文將改進(jìn)后的模塊稱為GDC-SE模塊,具體結(jié)構(gòu)如圖3(b)所示.
本質(zhì)上GDC-SE模塊是一種帶有注意機(jī)制的模塊,這種注意機(jī)制可以讓模型更加關(guān)注信息量大的通道特征,而抑制那些并不重要的通道特征,起到對(duì)特征重標(biāo)定的作用.本文將GDC-SE模塊加入到生成器網(wǎng)絡(luò)中,推動(dòng)網(wǎng)絡(luò)快速地尋找到模糊圖像存在的潛在有效特征,幫助生成器網(wǎng)絡(luò)模擬出欺騙判別器網(wǎng)絡(luò)的“真”樣本.
判別器網(wǎng)絡(luò)借鑒了2017 CVPR最佳論文所提出的DenseNet[8]模型,DenseNet通過稠密連接改善了網(wǎng)絡(luò)中信息和梯度的流動(dòng)問題,進(jìn)而使網(wǎng)絡(luò)易于訓(xùn)練;通過密集的特征重用方法,使DenseNet可以在計(jì)算量和參數(shù)量更少的情形下實(shí)現(xiàn)比前輩ResNet[20]更優(yōu)的性能.本文為進(jìn)一步增強(qiáng)DenseNet特征重用的能力,在原DenseNet網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上引入全局性稠密連接,將特征重用的對(duì)象由DenseBlock內(nèi)部擴(kuò)展到DenseBlock之間,具體如圖5所示.
圖5 具有全局稠密連接的網(wǎng)絡(luò)組成結(jié)構(gòu)Fig.5 Network composition structure with globally dense connections
針對(duì)不同DenseBlock的特征圖之間因?yàn)槌叨炔灰恢露鵁o法拼接(Concatenate)問題,本文分別采用2×2池化和4×4池化的下采樣方案,對(duì)于相同尺度的特征圖則采用恒等映射方案.最后,配合全局深度卷積(GDC)輸出全局性的通道特征,完成判別器部分的深度特征提取.
本文將內(nèi)容損失(Content loss)與對(duì)抗損失(Adversarial loss)的總和作為訓(xùn)練整個(gè)生成對(duì)抗網(wǎng)絡(luò)的總體損失,具體表達(dá)式如式(4)所示:
Ltotal=Lcont+λLadv
(4)
其中Ltotal為總體損失,Lcont為內(nèi)容損失,Ladv為對(duì)抗損失,λ為權(quán)重系數(shù),本文λ=1×10-4.
本文采用帶有L2正則項(xiàng)的像素均方誤差(Mean Square Error,MSE)作為本部分的損失函數(shù),具體表達(dá)式如式(5)所示:
(5)
4.1.1 均方誤差損失(Mean Square Error,MSE)
在算法中采用MSE作為內(nèi)容損失的一部分,用于計(jì)算由生成器模擬的圖像與目標(biāo)圖像對(duì)應(yīng)像素間的歐幾里得距離.通過使用MSE訓(xùn)練得到的模型,其模擬的圖像在細(xì)節(jié)上更加接近真實(shí)圖像[11].目前,MSE被廣泛運(yùn)用在圖像去模糊、超分辨率圖像重構(gòu)等模型的訓(xùn)練中.MSE具體表達(dá)式如式(6)所示:
(6)
4.1.2 L2正則化
min(Loss(Data|Model))
(7)
轉(zhuǎn)變?yōu)橐宰钚』瘬p失和復(fù)雜度為目標(biāo):
min(Loss(Data|Model)+Complexity(Model))
(8)
其中min為最小化操作,Data為模型需擬合的數(shù)據(jù),Model為需訓(xùn)練的模型,Loss(Data|Model)為損失項(xiàng),用來衡量模型與數(shù)據(jù)的擬合度;Complexity(Model)為正則化項(xiàng),用于衡量模型的復(fù)雜度.
1)求Lcont(w1)的梯度:
(9)
2)參數(shù)w1更新:
(10)
(11)
(12)
由式(12)可知,每一次迭代,w1都要先乘以一個(gè)小于1的因子,從而使權(quán)重|w1|不斷衰減使模型復(fù)雜度逐漸減小,降低了模型出現(xiàn)過擬合的風(fēng)險(xiǎn).
基于生成對(duì)抗網(wǎng)絡(luò)互相對(duì)抗的原理,本文將結(jié)合了輕量級(jí)分組卷積與改進(jìn)SE注意力機(jī)制的Group-SE模塊作為生成器的主體部件,將引入了全局性稠密連接的改進(jìn)Den-seNet作為判別器核心,整個(gè)網(wǎng)絡(luò)在無監(jiān)督學(xué)習(xí)下通過約束對(duì)抗損失迫使生成器模擬出更加清晰、高質(zhì)量的圖像,具體對(duì)抗損失表達(dá)式如式(13)所示,在訓(xùn)練過程中,生成器G嘗試去最小化對(duì)抗損失Ladv,而判別器D則竭盡所能最大化Ladv.
Ladv=EIs~psharp(s)[logD(Is)]+
EIb~pblur(b)[log(1-D(G(Ib)))]
(13)
其中EIs~psharp(s)為原清晰圖像數(shù)據(jù)分布的數(shù)學(xué)期望,EIb~pblur(b)為模糊圖像數(shù)據(jù)分布的數(shù)學(xué)期望,Is和Ib分別為清晰圖像和模糊圖像,D(Is)為Is被判定是清晰圖像的概率,D(G(Ib))為模糊圖像Ib經(jīng)生成器模擬后的圖像被判定是清晰圖像的概率,G(Ib)為經(jīng)過清晰圖像y(見公式(2))引導(dǎo)得到的模擬圖像.
本文使用CASIA WebFace人臉數(shù)據(jù)集對(duì)本文算法進(jìn)行實(shí)驗(yàn)驗(yàn)證,CASIA WebFace人臉數(shù)據(jù)集是由中國(guó)科學(xué)院發(fā)布的一個(gè)大規(guī)模人臉數(shù)據(jù)集,目前廣泛運(yùn)用于人臉識(shí)別和身份驗(yàn)證等任務(wù).本文將CASIA WebFace以7:3的拆分比,拆分成訓(xùn)練集和驗(yàn)證集,驗(yàn)證集不參與訓(xùn)練.同時(shí),本文額外加入LFW(Labeled Faces in the Wild)人臉數(shù)據(jù)集,以進(jìn)一步驗(yàn)證本文算法在人臉識(shí)別上的性能.LFW數(shù)據(jù)集由馬薩諸塞大學(xué)建立,用于評(píng)測(cè)非約束條件下的人臉識(shí)別算法性能,是人臉識(shí)別領(lǐng)域使用最廣泛的評(píng)測(cè)集合.
由于CASIA WebFace和LFW全為高清圖像,本文通過DeBlurGAN[10]提供的方法將數(shù)據(jù)集全部轉(zhuǎn)化為具有不同模糊程度的人臉圖像用于本文實(shí)驗(yàn),部分圖像如圖6所示.
圖6 CASIA WebFace部分原圖與模糊化后的圖像Fig.6 Part of the original and blurred images of CASIA WebFace
本文實(shí)驗(yàn)均在Window8.1操作系統(tǒng)上進(jìn)行,使用Anaconda下基于Python語言的PyCharm解釋器,深度學(xué)習(xí)框架為MXNet,計(jì)算機(jī)CPU為AMD Ryzen7 2700X,GPU使用的是NVIDIA RTX 2080.本文網(wǎng)絡(luò)總共訓(xùn)練600個(gè)周期,學(xué)習(xí)率為0.001,采用帶有動(dòng)量的SGD算法優(yōu)化器.
為驗(yàn)證本文提出的算法在圖像去模糊上的性能,實(shí)驗(yàn)通過CASIA WebFace驗(yàn)證集和LFW進(jìn)行測(cè)試,采用結(jié)構(gòu)相似性(Structural SIMilarity,SSIM)和峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)作為圖像質(zhì)量客觀評(píng)估主要指標(biāo),SSIM和PSNR數(shù)值越高,表明去模糊后的圖像質(zhì)量越好.
本文測(cè)試主要包含以下4部分:
1)測(cè)試對(duì)比Group-SE模塊中,使用全局平局池化層和全局深度卷積之間,在圖像去模糊效果上的差異;
2)測(cè)試對(duì)比生成器網(wǎng)絡(luò)中使用Group-SE模塊與僅使用分組卷積、經(jīng)典ResNet殘差塊、新興DenseNet稠密連接塊之間的性能差異,測(cè)試對(duì)比判別器部分使用原DenseNet網(wǎng)絡(luò)與引入了全局性稠密連接的改進(jìn)DenseNet網(wǎng)絡(luò)的性能差異;
3)測(cè)試對(duì)比本文算法與DeepDeblur[6]、DeblurGAN[10]流行算法在去模糊后圖像質(zhì)量、參數(shù)數(shù)量和測(cè)試時(shí)間上的差異;
4)測(cè)試對(duì)比在開源人臉識(shí)別算法SphereFace[21]、CosFace[22]和ArcFace[23]的基礎(chǔ)上各自分別加入基于DeblurGAN、DeepDeblur和本文算法的預(yù)處理模塊后,在人臉識(shí)別準(zhǔn)確率上的差異.
5.2.1 對(duì)比實(shí)驗(yàn)1
本部分實(shí)驗(yàn)將對(duì)本文提出的GDC-SE模塊與原始SE模塊進(jìn)行對(duì)比,對(duì)比實(shí)驗(yàn)在CASIA WebFace驗(yàn)證集上和LFW上進(jìn)行.
由表1可知,在CASIA WebFace和LFW數(shù)據(jù)集上,使用GDC-SE模塊的方法相比使用了原始SE模塊的方法,在評(píng)價(jià)標(biāo)準(zhǔn)PSNR和 SSIM上都有小幅的分?jǐn)?shù)提高,這主要是因?yàn)槿稚疃染矸e為特征圖上的每個(gè)像素點(diǎn)都賦予了不同的權(quán)重,使得不同的感受野具有不同的重要性,相比直接使用全局平均池化層的方法,使用具有全局深度卷積的注意力機(jī)制模塊更能提升模型的表達(dá)能力.
表1 實(shí)驗(yàn)1對(duì)比結(jié)果Table 1 Experiment 1 comparison result
5.2.2 對(duì)比實(shí)驗(yàn)2
本部分實(shí)驗(yàn)將對(duì)本文所使用的Group-SE模塊和引入了全局性稠密連接的改進(jìn)DenseNet網(wǎng)絡(luò),與其他深度學(xué)習(xí)經(jīng)典的模塊和網(wǎng)絡(luò)進(jìn)行對(duì)比.為保證對(duì)比結(jié)果的準(zhǔn)確性和公平性,當(dāng)實(shí)驗(yàn)在生成器網(wǎng)絡(luò)部分對(duì)比時(shí),判別器網(wǎng)絡(luò)部分均使用本文改進(jìn)的DenseNet網(wǎng)絡(luò);當(dāng)實(shí)驗(yàn)在判別器網(wǎng)絡(luò)部分對(duì)比時(shí),生成器網(wǎng)絡(luò)部分均使用Group-SE模塊.
本部分實(shí)驗(yàn)在CASIA WebFace測(cè)試集上進(jìn)行,具體各部分對(duì)比情況如表2所示,使用了Group-SE模塊和改進(jìn)DenseNet網(wǎng)絡(luò)的模型,與使用其他深度學(xué)習(xí)經(jīng)典模塊和網(wǎng)絡(luò)的模型相比,去模糊后的圖像在客觀評(píng)估指標(biāo)SSIM和PSNR上均有不同程度的提高,這說明本文提出的Group-SE模塊和引入了全局性稠密連接的改進(jìn)DenseNet網(wǎng)絡(luò)作為模型關(guān)鍵部分,可以起到提高去模糊后圖像質(zhì)量的作用,這是因?yàn)榉纸M卷積可以在保持原有性能的基礎(chǔ)上,大幅減少了網(wǎng)絡(luò)諸多冗余連接,使得信息可以更好地傳遞,并且GDC-SE模塊對(duì)特征進(jìn)行了精心篩選,使得模型有針對(duì)性地去挖掘?qū)Ξ?dāng)前輸出有益的特征,進(jìn)一步增強(qiáng)了模型的表達(dá)能力.
表2 實(shí)驗(yàn)2對(duì)比結(jié)果Table 2 Experiment 2 comparison result
5.2.3 對(duì)比實(shí)驗(yàn)3
本部分實(shí)驗(yàn)對(duì)本文提出的算法與DeepDeblur、Deblur-GAN 在PSNR、SSIM、參數(shù)量和測(cè)試時(shí)間上進(jìn)行對(duì)比.
由表3可知,本文算法在CASIA WebFace驗(yàn)證集和LFW數(shù)據(jù)集上,相比先進(jìn)的開源圖像去模糊模型DeepDeblur和DeblurGAN,在PSNR和SSIM上獲得了更高的得分,說明由本文算法得到的清晰圖像失真程度更低并且由本文算法模擬出的清晰圖像,它在圖像結(jié)構(gòu)恢復(fù)上效果更加明顯.在參數(shù)數(shù)量方面,本算法形成的模型參數(shù)量較DeblurGAN和DeepDeblur都有一定程度的減小,因?yàn)槭褂昧吮疚奶岢龅腉roup-SE模塊,分組卷積可以在保持原有效果的基礎(chǔ)上大大減少模型參數(shù)數(shù)量.而在對(duì)同一張圖像測(cè)試時(shí)間方面,本文算法的速度要慢于DeepDeblur,原因是模型在對(duì)特征重標(biāo)定過程中,增加了推理的計(jì)算量,使得耗時(shí)相對(duì)增加.
表3 實(shí)驗(yàn)3對(duì)比結(jié)果Table 3 Experiment 3 comparison result
5.2.4 對(duì)比實(shí)驗(yàn)4
為驗(yàn)證將本文算法作為圖像預(yù)處理的人臉識(shí)別算法在識(shí)別準(zhǔn)確率上的表現(xiàn),本實(shí)驗(yàn)在開源人臉識(shí)別算法SphereFace、CosFace和ArcFace的基礎(chǔ)上各自分別加入基于DeblurGAN、DeepDeblur和本文算法的預(yù)處理模塊進(jìn)行對(duì)比,本部分實(shí)驗(yàn)在LFW數(shù)據(jù)集上進(jìn)行,具體對(duì)比如表4所示.
表4 實(shí)驗(yàn)4對(duì)比結(jié)果Table 4 Experiment 4 comparison result
由表4可知,將本文算法作為圖像預(yù)處理的人臉識(shí)別算法比原生的SphereFace、CosFace 和ArcFace的識(shí)別準(zhǔn)確率均有較大的提高,同時(shí)相比流行算法DeepDeblur和DebluGAN也有不同程度的提高.因?yàn)橥ㄟ^本文模型去除模糊后的人臉圖像保留了更多人臉原有的細(xì)節(jié)特征,使得特征提取算法提取出更加精確完整的人臉特征,進(jìn)而提高識(shí)別準(zhǔn)確率.
本文提出一種基于條件生成對(duì)抗網(wǎng)絡(luò)的圖像去模糊算法.該算法將結(jié)合了輕量級(jí)分組卷積與改進(jìn)SE注意力機(jī)制的Group-SE模塊作為生成器的主體部件,將引入了全局性稠密連接的改進(jìn)DenseNet作為判別器核心,以解決去模糊技術(shù)應(yīng)用在人臉識(shí)別算法中的低效率等問題.在CASIA WebFace和LFW數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,相較于現(xiàn)有幾種流行算法,本文算法在PSNR和SSIM的得分上表現(xiàn)良好.同時(shí)將本文方法作為圖像預(yù)處理步驟的人臉識(shí)別算法在識(shí)別率上有較大的提升.目前人臉識(shí)別技術(shù)已應(yīng)用于眾多行業(yè),本文算法作為人臉識(shí)別中的一項(xiàng)預(yù)處理方法,對(duì)人臉識(shí)別的性能有一定的提升,因此本文算法具有廣闊的市場(chǎng)價(jià)值.下一步工作,將考慮解決加入了圖像去模糊模塊后,人臉識(shí)別算法延遲嚴(yán)重等問題.