曾凡智,鄒 磊,周 燕,邱騰達,陳嘉文
(佛山科學(xué)技術(shù)學(xué)院 計算機系,廣東 佛山528000)
E-mail:coolhead@126.com
超分辨率[1]技術(shù)是指從一副或多幅低分辨率圖像中重構(gòu)出相應(yīng)高分辨率圖像的技術(shù),該技術(shù)可以在現(xiàn)有硬件環(huán)境不改變的情況下,在低分辨率圖像基礎(chǔ)上,利用圖像的先驗信息重構(gòu)出相對清晰的高分辨率圖像,在刑事偵查、醫(yī)學(xué)影像、天文觀測[2]和影視娛樂等領(lǐng)域都具有十分重要的應(yīng)用價值.
目前運用相對廣泛的超分辨率圖像重構(gòu)的方法主要有以下三類:基于圖像插值的方法、基于圖像重建的方法以及基于學(xué)習(xí)[3,4]的方法.基于圖像插值的方法,主要有雙線性插值、最近鄰插值和雙三次插值,此類方法雖然處理速度快,同時能有效增加圖像的分辨率,但是生成的圖像過于模糊,細(xì)節(jié)丟失嚴(yán)重;基于圖像重建的方法在恢復(fù)圖像高頻信息方面取得了良好進展,但是此類方法在處理一些復(fù)雜圖像(例如人臉)時效果不佳[5];基于學(xué)習(xí)的方法能夠利用訓(xùn)練樣本所提供的先驗信息推導(dǎo)從低分辨率圖像重構(gòu)出高分辨率圖像時所需要的高頻細(xì)節(jié)信息,例如局部線性嵌入、稀疏表達等,此類方法相較前面兩類在圖像重構(gòu)的質(zhì)量上有所提高.
隨著2014年深度學(xué)習(xí)熱潮的開始,基于深度學(xué)習(xí)的方法目前已經(jīng)在眾多領(lǐng)域都得到了廣泛的應(yīng)用,同時在超分辨率圖像重構(gòu)領(lǐng)域也越來越受到了人們的重視.在基于卷積神經(jīng)網(wǎng)絡(luò)的方法中,Dong等人[6]提出SRCNN(Super-Resolution Convolutional Neural Network)的方法,將基于深度學(xué)習(xí)的方法與超分辨率圖像重構(gòu)技術(shù)結(jié)合.SRCNN先用雙三次插值將低分辨率圖像放大成目標(biāo)尺寸,再通過三層卷積層擬合非線性映射,最后輸出高分辨率圖像.Tong等人[7]參照DenseNet[8]高強度稠密連接的方式,對低分辨率圖像進行超分辨率重構(gòu),使得網(wǎng)絡(luò)復(fù)雜度大幅下降并提高了網(wǎng)絡(luò)訓(xùn)練速度.Zhang等人[9]創(chuàng)新性地將殘差塊和稠密連接塊結(jié)合,得到殘差稠密塊,加深了網(wǎng)絡(luò)結(jié)構(gòu),增加了網(wǎng)絡(luò)感受野并提升了性能.基于卷積神經(jīng)網(wǎng)絡(luò)的超分辨率圖像重構(gòu)方法所得的結(jié)果雖然有較高的信噪比,但圖像缺少高頻信息,在細(xì)節(jié)上缺乏真實感,所以會出現(xiàn)過度平滑的紋理.
近幾年,生成對抗網(wǎng)絡(luò)在圖像修復(fù)領(lǐng)域取得了重大突破,由生成對抗網(wǎng)絡(luò)產(chǎn)生的圖像具有更加逼真的視覺效果.Ledig等人[10]提出SRGAN(Super-Resolution Generative Adversarial Network)方法,通過SRGAN生成的圖像在感知質(zhì)量方面較之前的方法有顯著的提升.Lim等人[11]在SRGAN網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上提出增強的深度殘差超分辨率網(wǎng)絡(luò),同時該網(wǎng)絡(luò)去除了批量歸一化層,這不僅大幅減少了計算量,還使模型更加適用于超分辨率圖像重構(gòu)這類低層視覺任務(wù);Yang等人[12]提出基于判別性增強的EDGAN(Enhanced Discriminative Generative Adversarial Network)網(wǎng)絡(luò),該網(wǎng)絡(luò)使用一種改進感受損失,在激活函數(shù)之前使用特征,取得了不錯的重構(gòu)效果.
由于現(xiàn)有基于生成對抗神經(jīng)網(wǎng)絡(luò)的超分辨率圖像重構(gòu)算法存在計算量巨大,模型占用內(nèi)存多,實時場景運行嚴(yán)重延時等問題,本文基于生成對抗網(wǎng)絡(luò)框架,提出一種輕量化的GAN超分辨率圖像重構(gòu)算法,致力于解決超分辨率圖像重構(gòu)技術(shù)運用在實時人臉識別相關(guān)場景中,造成嚴(yán)重延時和模型占用空間大等問題.
隨著深度學(xué)習(xí)技術(shù)的不斷進步,人臉識別的準(zhǔn)確率相比過去有了巨大的飛躍,然而當(dāng)前眾多人臉識別算法在面對復(fù)雜環(huán)境(如光照劇烈變化)時,其識別準(zhǔn)確率不能令人滿意.在人臉識別算法中,附加基于超分辨率圖像重構(gòu)的預(yù)處理模塊是一種新的方法,它可以提高人臉識別算法在復(fù)雜環(huán)境中的準(zhǔn)確率.
結(jié)合超分辨率圖像重構(gòu)技術(shù)的人臉識別算法運行流程如圖1所示.首先,從視頻中獲取一幀人臉圖像,將圖像送入人臉檢測模塊得到人臉位置信息,裁剪出人臉并放大到一定尺寸,然后將放大后的模糊頭像送入超分辨率重構(gòu)模塊進行圖像重構(gòu)獲得高清頭像,最后送入人臉識別模塊進行特征提取和相似度計算并得到識別結(jié)果.模糊頭像產(chǎn)生的原因是低分辨率圖像向高分辨率圖像轉(zhuǎn)化的過程中,造成圖像失真而顯得模糊,人臉特征嚴(yán)重丟失.
圖1 結(jié)合超分辨率圖像重構(gòu)技術(shù)的人臉識別算法運行流程圖Fig.1 Operation flow chart of face recognition algorithm combined with super-resolution image reconstruction technology
本文基于生成對抗網(wǎng)絡(luò)框架進行超分辨率圖像重構(gòu)算法設(shè)計,整體網(wǎng)絡(luò)主要包含生成器網(wǎng)絡(luò)和判別器網(wǎng)絡(luò),整體網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示.低分辨率圖像從生成器網(wǎng)絡(luò)輸入層輸入,首先經(jīng)過一個標(biāo)準(zhǔn)卷積層,并將輸出用非線性激活函數(shù)進行激活以增強模型的非線性表達能力,再將結(jié)果依次送入17個倒置殘差塊中提取特征,其中倒置殘差塊包含擴張卷積層(Expansion Convolution,EC)、深度可分離卷積層(Depthwise Separable Convolution,DSC)、壓縮卷積層(Compressed Convolution,CC)、線性(Linear Activation,LA)和非線性激活層(Swish)及特征融合層(Add),最后將結(jié)果送入亞像素卷積層(Sub-Pixel Convolution,SPC),用于將多張低分辨率圖像合成一張高分辨率圖像;同時將生成器網(wǎng)絡(luò)得到的圖像作為負(fù)樣本送入判別器中,而正樣本是沒有經(jīng)過處理的高分辨率圖像,本文使用的判別器是具有4個稠密連接塊的DenseNet網(wǎng)絡(luò),最后網(wǎng)絡(luò)輸出為判別高分辨率圖像的真假結(jié)果.
受到MobileNetV2[13]和ESPCN[14](Efficient Sub-Pixel Convolutional Neural)思想的啟發(fā),本文的生成器網(wǎng)絡(luò)主要由MobileNetV2的具有線性瓶頸的倒置殘差塊和ESPCN的亞像素卷積層組成,如圖2生成器網(wǎng)絡(luò)部分所示,同時為進一步提升網(wǎng)絡(luò)性能,本文對倒置殘差塊做了相應(yīng)的修改:去除原倒置殘差塊中的批量歸一化層(Batch Normalization,BN),修改激活函數(shù)為Swish函數(shù),使其更加適用于超分辨率圖像重構(gòu)這種低層視覺任務(wù).
3.1.1 激活函數(shù)
修正線性單元(Rectified Linear Unit,ReLU)具有運算簡單,計算效率高和信號響應(yīng)快等優(yōu)勢,因此它常被用于各類深度學(xué)習(xí)算法中.但它的優(yōu)勢僅僅在正向傳播方面,并且ReLU函數(shù)對負(fù)值全部舍棄,因此很容易使模型輸出全零而無法再進行訓(xùn)練.
基于上述情況,本文取Swish函數(shù)作為激活函數(shù),其數(shù)學(xué)形式見式(1),相比ReLU函數(shù),Swish函數(shù)可以將激活單元的輸出均值往0推進,達到批量歸一化的效果且減少計算量,即輸出均值接近0可以減少偏移效應(yīng)進而使梯度接近于自然狀態(tài).
(1)
3.1.2 倒置殘差塊
倒置殘差塊中所用的結(jié)構(gòu)是擴張——卷積——壓縮,相比原生的殘差結(jié)構(gòu):壓縮——卷積——擴張,前者可以提升梯度在卷積層之間的傳播能力,有著更好的內(nèi)存使用效率,部分結(jié)構(gòu)如圖3所示,該結(jié)構(gòu)主要包含擴張卷積層、深度可分離卷積層和壓縮卷積層.研究表明[15]BN層在一定程度上限制了網(wǎng)絡(luò)的靈活性,同時增大了計算量,因此本文在原倒置殘差塊的基礎(chǔ)上移除了BN層,并使用Swish函數(shù)作為激活函數(shù),使得算法更加適用于超分辨率圖像重構(gòu)這種低層視覺任務(wù).
圖3 倒置殘差塊部分結(jié)構(gòu)圖Fig.3 Structure of inverted residual block
1)深度可分離卷積:將標(biāo)準(zhǔn)卷積拆分成兩個分卷積,第一層為深度卷積,對每個輸入通道應(yīng)用單通道的輕量級濾波器;第二層為逐點卷積,即1×1卷積,負(fù)責(zé)計算輸入通道的線性組合,構(gòu)建新的特征.
標(biāo)準(zhǔn)卷積的輸入張量Li為hi*wi*di,標(biāo)準(zhǔn)卷積核k∈Rk*k*di*dj產(chǎn)生輸出張量Lj為hi*wi*dj,其中h,w,di,dj,k分別為特征圖的長、寬、輸入通道數(shù)、輸出通道數(shù)以及卷積核邊長.
1.標(biāo)準(zhǔn)卷積的計算消耗為:hi*wi*di*dj*k*k;
2.深度可分離卷積消耗為:hi*wi*di*(k2+dj);
參照MobileNetV2網(wǎng)絡(luò)設(shè)計,本文使用的卷積核大小k=3,dj最小取64,與標(biāo)準(zhǔn)卷積相比計算量減少了8-9倍.
2)擴張卷積層與壓縮卷積層:深度卷積本身不具備改變通道的能力,輸入通道數(shù)等于輸出通道數(shù),如果輸入通道很少的話,深度卷積只能在低維度上工作,這樣所得的效果會很差,因此通過逐點卷積先進行升維(升維倍數(shù)為t,本文依據(jù)MobileNetV2實驗結(jié)果,t取4),使深度卷積在一個更高維空間中進行特征提取,最后為了保證輸入維數(shù)與輸出維數(shù)相等,還需要加一個逐點卷積層進行降維操作.
3.1.3 亞像素卷積層
亞像素卷積可以很好地避免算法直接在高分辨率空間進行重構(gòu),相比SRCNN先對低分辨率圖像進行預(yù)處理,然后在高分辨率空間重構(gòu)的方法,亞像素卷積不僅節(jié)省了不必要的計算量,而且實現(xiàn)了較好的圖像上采樣效果.具體上采樣過程如圖4所示,將4個圖片中的第一個像素取出成為重構(gòu)圖中的4個像素,以此類推,在重構(gòu)圖中的每個2×2區(qū)域都是由這4幅圖對應(yīng)位置的像素組成(重構(gòu)后的圖像尺寸是原來低分辨率圖像尺寸的4倍).亞像素卷積的方法只在最后幾層進行圖像低分辨率到高分辨率的大小變換,保證了前面的卷積運算均在低分辨率圖像上進行,從而得到更高的運算效率.
圖4 亞像素卷積層上采樣過程Fig.4 Sampling process on sub-pixel convolution layer
判別器網(wǎng)絡(luò)使用具有稠密連接塊的DenseNet網(wǎng)絡(luò)訓(xùn)練,DenseNet通過稠密連接改善了網(wǎng)絡(luò)中信息和梯度的流動,進而使網(wǎng)絡(luò)易于訓(xùn)練,DenseNet在參數(shù)和計算成本更少的情形下實現(xiàn)比ResNet[16]更優(yōu)的性能.DenseNet主要由多個稠密連接塊組成,稠密連接塊具體結(jié)構(gòu)如圖5所示.每一個連接塊
圖5 稠密連接塊組成結(jié)構(gòu)Fig.5 Structure of dense connection block
均有多個元素組成,每一個元素又有1×1卷積層、Swish激活函數(shù)、BN層、3×3卷積層組成,其中1×1卷積層的作用是對上層輸出數(shù)據(jù)壓縮、降維以減少計算量.
在將高分辨率圖像送入判別器網(wǎng)絡(luò)之前,對圖像進行隨機翻轉(zhuǎn)、裁剪等數(shù)據(jù)增強方式充分增加訓(xùn)練樣本量,以提高模型的穩(wěn)定性.經(jīng)過大量次數(shù)的迭代訓(xùn)練會使生成器盡可能模擬出以假亂真的樣本,而判別器會有更加精準(zhǔn)的鑒別真?zhèn)螖?shù)據(jù)的能力,最終整個對抗神經(jīng)網(wǎng)絡(luò)會達到一個納什均衡,即判別器對于生成器的數(shù)據(jù)鑒別結(jié)果為正確率和錯誤率各占50%.
本文將均方誤差(Mean Square Error,MSE)與對抗損失的總和作為訓(xùn)練整個生成器網(wǎng)絡(luò)的總體損失,生成器網(wǎng)絡(luò)損失表達式(2)如下:
LG=Lmse+Ladv
(2)
其中LG表示生成器網(wǎng)絡(luò)總體損失,Lmse表示均方誤差損失,Ladv表示對抗損失.
3.3.1 均方誤差損失
本文采用基于像素的均方誤差作為生成器網(wǎng)絡(luò)損失的一部分,在算法中采用均方誤差用于計算生成器得到的圖像與期望圖像對應(yīng)像素間的歐式距離.通過均方誤差訓(xùn)練得到的模型,其生成的圖像在細(xì)節(jié)上更接近真實圖像.目前,均方誤差被廣泛運用在超分辨率圖像重構(gòu)模型的訓(xùn)練中.均方誤差損失函數(shù)表達式(3)如下:
(3)
3.3.2 對抗損失
基于生成對抗網(wǎng)絡(luò)相互對抗的機制,本文將加入了倒置殘差塊的網(wǎng)絡(luò)作為生成器,使用具有稠密連接塊的判別器網(wǎng)絡(luò)在無監(jiān)督學(xué)習(xí)下通過約束對抗損失迫使生成器獲得更加清晰、逼真的高分辨率圖像.對抗損失表達式(4)如下:
(4)
3.3.3 判別器損失
本文在判別器損失部分借鑒了生成器損失中基于像素的均方誤差損失Lmse方法,所不同的是,在判別器部分所比較的對象是重構(gòu)圖像和原高清圖像經(jīng)過了4個稠密連接塊計算后所得的特征圖,判別器損失函數(shù)表達式(5)如下:
(5)
本文使用FEI(FEI Face Database)公共人臉數(shù)據(jù)集對本文算法進行實驗驗證,同時為提高驗證結(jié)果的準(zhǔn)確性以及可信度,本文額外加入了低復(fù)雜度單圖像超分辨率數(shù)據(jù)集Set5和Set14進行測試.其中FEI數(shù)據(jù)集中全為彩色人臉圖像,并且都在白色的均質(zhì)背景下以直立的正面位置拍攝,輪廓旋轉(zhuǎn)最多約180度,每個圖像的原始尺寸為640×480像素.將樣本送入生成器之前,先使用雙三次插值下采樣獲得低分辨率圖像,其中本文下采樣因子為4,得到的低分辨率圖像尺寸為160×120像素;而Set5,Set14 數(shù)據(jù)集是基于非負(fù)鄰域嵌入的低復(fù)雜度單圖像超分辨率的數(shù)據(jù)集,該數(shù)據(jù)集由法國貝爾實驗室發(fā)布.
本文實驗均在Window10操作系統(tǒng)上進行,使用的仿真軟件為Anaconda下基于Python語言的PyCharm解釋器,深度學(xué)習(xí)框架為PyTorch,計算機CPU為Intel Core i7-7700K,GPU使用的是NVIDIA RTX 2080Ti.本文網(wǎng)絡(luò)總共訓(xùn)練800個周期,采用RMSProp算法優(yōu)化器,本實驗受GPU容量限制,訓(xùn)練時每一批次的圖片數(shù)量為32張,權(quán)重衰減為0.0001,初始學(xué)習(xí)率為0.001,每經(jīng)過200個周期,學(xué)習(xí)率下降90%有助于算法收斂,更容易接近最優(yōu)解.具體訓(xùn)練過程如圖6所示.
圖6 訓(xùn)練損失變化曲線圖Fig.6 Training loss curve
如圖6所示,G_loss代表生成器損失,D_loss代表判別器損失,橫軸代表本次實驗總共訓(xùn)練周期,縱軸代表訓(xùn)練過程中生成器和判別器的特征損失值.由圖6可知,判別器在大約第200個周期時開始準(zhǔn)備收斂,到大約第350個周期基本已經(jīng)收斂;生成器開始收斂時間相對較晚,大約在第600個周期開始收斂,直到大約第750個周期才完全收斂,這其中的原因是生成器損失有兩部分構(gòu)成,在反向傳播時計算量更大相對更加耗時一些,而判別器損失本身只有一個損失函數(shù)組成,并且稠密連接塊的參數(shù)量也比較少,所以更加容易收斂.同時如圖6所示,生成器和判別器的損失曲線不夠圓滑,帶有些小幅波動,這主要的原因是訓(xùn)練時每一批次圖片數(shù)量不夠多,如果每批次的圖片數(shù)量增加,曲線的波動會減小很多.
為驗證本文提出的算法在超分辨率圖像重構(gòu)上的性能,實驗通過FEI人臉數(shù)據(jù)集和Set5,Set14 非人臉數(shù)據(jù)集進行測試,采用峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和結(jié)構(gòu)相似性(Structural SIMilarity,SSIM)作為圖像質(zhì)量客觀評估主要指標(biāo),PSNR和SSIM數(shù)值越高,表明重構(gòu)圖像質(zhì)量越好.為保證對比結(jié)果的公平性,所有算法均在放大因子等于4的比例下進行對比測試.
測試主要包含以下三部分:
1)測試對比生成器部分使用普通標(biāo)準(zhǔn)卷積和深度可分離卷積之間的性能差異,測試對比判別器部分使用DenseNet的稠密連接塊、ResNet的殘差塊和InceptionV3[17]的Inception塊之間的性能差異;
2)測試對比本文算法與三雙次插值(Bicubic)、SRCNN、SRGAN、ESRGAN[18](Enhanced Super-Resolution Generative Adversarial Networks)等先進算法在重構(gòu)圖像質(zhì)量、重構(gòu)速度和模型體積等上的差異;
3)測試對比加入了本文方法的人臉識別算法 SphereFace[19]、CosFace[20]和ArcFace[21]與未加入本文方法的上述人臉識別算法,在識別準(zhǔn)確率上的差異.
4.2.1 對比實驗1
本部分實驗將對本文所使用的深度可分離卷積和稠密連接塊,與其他深度學(xué)習(xí)經(jīng)典的模塊進行對比.為保證對比結(jié)果的準(zhǔn)確性,當(dāng)實驗在生成器部分對比時,判別器部分均使用稠密連接塊;當(dāng)實驗在判別器部分對比時,生成器部分均使用深度可分離卷積.同時本文中的參數(shù)數(shù)量均指生成器網(wǎng)絡(luò)參數(shù)數(shù)量,因為判別器只在網(wǎng)絡(luò)訓(xùn)練時使用,實際測試并不參與.本部分實驗在FEI數(shù)據(jù)集上進行,具體各部分對比情況如表1所示.
表1 各模塊在FEI數(shù)據(jù)集測試結(jié)果對比Table 1 Comparison of test results of each module in FEI dataset
如表1所示,使用了深度可分離卷積和稠密連接塊的網(wǎng)絡(luò),與使用其他深度學(xué)習(xí)經(jīng)典模塊的網(wǎng)絡(luò)相比,重構(gòu)出的圖像在客觀評估指標(biāo)PSNR和SSIM上均有不同程度的提高,并且生成器參數(shù)數(shù)量相比使用標(biāo)準(zhǔn)卷積也有近乎8倍的減少,這充分說明本文使用低計算量、高性能的深度可分離卷積和低參數(shù)量、高頻率復(fù)用特征的稠密連接塊作為網(wǎng)絡(luò)關(guān)鍵部分,可以起到降參數(shù)量、提高重構(gòu)圖像質(zhì)量的作用.
表2 不同算法在FEI數(shù)據(jù)集測試結(jié)果對比Table 2 Comparison of test results of different algorithms in FEI dataset
4.2.2 對比實驗2
本部分實驗對本文提出的算法與Bicubic、SRCNN、SRGAN、ESRGAN進行對比,這其中包括傳統(tǒng)的插值方法,基于卷積神經(jīng)網(wǎng)絡(luò)的方法以及基于生成對抗神經(jīng)網(wǎng)絡(luò)的方法.
由表2可知,在SSIM的測試中,本文算法在FEI人臉數(shù)據(jù)集上獲得了更高的得分,說明本文算法在圖像結(jié)構(gòu)恢復(fù)上效果更好;而在PSNR的測試上本文算法并沒有顯現(xiàn)出優(yōu)勢,說明通過本文算法生成的圖像相比其他算法得到的圖像,缺少了更多的高頻信息,使圖像出現(xiàn)了相對平滑的紋理;在測試時間方面,Bicubic算法對低分辨率圖像進行圖像重構(gòu)的速度是最快的,因為Bicubic算法只是進行簡單的插值操作,并沒有額外的計算量,而SRCNN、SRGAN、ESRGAN等算法中包含較多的卷積層,使得模型在處理過程中需要進行大量的運算,本文算法雖然沒有Bicubic算法快,但相比其他算法的測試時間減少了許多,基本不影響實時人臉識別算法的運行速度;在模型體積方面,本算法形成的模型體積較SRCNN、SRGAN和ESRGAN都有不同程度的減小,同時本文算法的參數(shù)數(shù)量較上述幾種先進算法減少了1到2個數(shù)量級,從而真正達到了輕量化.由于使用了分步式的計算方法,深度可分離卷積可以在保持原有效果的基礎(chǔ)上大大減少模型參數(shù)數(shù)量和計算量.
表3 不同算法在Set5,Set14數(shù)據(jù)集測試結(jié)果對比Table 3 Comparison of test results of different algorithms in Set5 and Set14 datasets
由表3可知,本文算法在非人臉數(shù)據(jù)集Set5,Set14上并沒有大幅超越先進算法ESRGAN,只是在Set5上SSIM得分上略微高出一點,這其中一個原因是本文算法是基于人臉圖像進行訓(xùn)練的,在非人臉數(shù)據(jù)集上測試難免不能發(fā)揮更多優(yōu)勢,但本文算跟先進算法ESRGAN差距不大,同時較SRCNN、SRGAN在PSNR和SSIM上都有不同程度的提高,這說明本文模型的泛化性較好.
圖7 各算法實驗效果圖對比Fig.7 Comparison of experimental results of each algorithm
使用Bicubic、SRCNN、SRGAN、ESRGAN和本文算法在FEI數(shù)據(jù)集上進行超分辨率圖像重構(gòu)測試,各算法效果圖如圖7所示.
4.2.3 對比實驗3
為驗證加入了本文方法后的人臉識別算法在識別準(zhǔn)確率上的表現(xiàn),實驗將加入了本文方法的SphereFace[19]、CosFace[20]和ArcFace[21]先進人臉識別算法與原生上述算法進行對比,整個實驗在公共人臉數(shù)據(jù)集FEI上進行,具體對比如表4所示.
表4 不同人臉識別算法識別準(zhǔn)確率對比Table 4 Comparison of recognition accuracy of different face recognition algorithms
由表4可知,加入了本文方法后的人臉識別算法在識別準(zhǔn)確率上均有提升.因為通過超分辨率重構(gòu)后的人臉圖像去除了更多影響識別的噪聲,使得特征提取算法提取出更加精確的人臉特征,從而提高識別準(zhǔn)確率.但是由表4中同比增長部分可知,加入了本文方法后的人臉識別算法并沒有出現(xiàn)識別準(zhǔn)確率大幅增長的現(xiàn)象,說明本文方法只能對人臉識別的性能進行小范圍的提高,并且由表2測試時間部分可知,本文方法重構(gòu)圖像的時間非常短,基本不影響原有算法圖像處理時間.所以本文方法可以作為人臉識別中額外的圖像預(yù)處理模塊,對最終的識別準(zhǔn)確率起到小幅增長的作用.
本文提出一種輕量化的生成對抗網(wǎng)絡(luò)超分辨率圖像重構(gòu)算法,通過將含有低計算量、高性能的深度可分離卷積作為生成器網(wǎng)絡(luò)主體卷積,將低參數(shù)量、高頻率復(fù)用特征的稠密連接塊作為判別器網(wǎng)絡(luò)核心,并結(jié)合亞像素卷積進行上采樣,大幅削減了不必要的計算量,使得在人臉識別算法中加入圖像重構(gòu)預(yù)處理過程所造成的嚴(yán)重延時等問題得以解決.實驗結(jié)果表明,相較于現(xiàn)有幾種流行算法,本文算法雖然在PSNR和SSIM上優(yōu)勢不明顯,但是在單幅圖像重建的速度上,明顯更加迅速,快速的圖像重建保證了在實時人臉識別中極低的延時.并且由于本文的模型較小,還可以植入到一些移動設(shè)備或者內(nèi)存較小的機器上運行,具有更加廣闊的應(yīng)用價值.下一步工作,將考慮解決加入了超分辨率圖像重構(gòu)模塊后,人臉識別算法的準(zhǔn)確率提升不明顯問題.