郭繼峰,李 星,龐志奇,沈家友,于 鳴
(東北林業(yè)大學(xué) 信息與計(jì)算機(jī)工程學(xué)院,哈爾濱150040)
在圖像形成過程中,由于物體受到光照或者由于物體表面曲率過大,會(huì)在物體表面形成光斑,出現(xiàn)光斑的部分就是高光溢出的部分.高光溢出對(duì)于圖像處理的影響主要表現(xiàn)在降低圖像識(shí)別準(zhǔn)確率、目標(biāo)檢測(cè)以及場(chǎng)景分析的精確度.
影響圖像質(zhì)量的主要因素有:光照不均勻、圖像分辨率等.許野平等[1]人根據(jù)數(shù)字圖像繪制亮度曲線,然后對(duì)高光溢出部分做非線性變換,壓縮最大亮度值規(guī)定范圍從而得到修復(fù)效果.高如新等[2]人通過雙色反射模型變換得到圖片的鏡面反射和漫反射分量,再通過改進(jìn)雙邊濾波器,然后對(duì)圖像進(jìn)行處理,去除圖像的鏡面反射,從而達(dá)到去除高光的效果.何嘉林等[3]人通過圖片融合的方法去除圖片高光,根據(jù)不同角度拍攝的圖像亮度不同,通過對(duì)多張圖片進(jìn)行高光區(qū)域檢測(cè)、圖像融合、圖像補(bǔ)色來消除高光區(qū)域[4].王祎墦等[5]人改進(jìn)了圖像的高光修復(fù)技術(shù),使得對(duì)于存在飽和現(xiàn)象的高光區(qū)域的單一圖像也能有較好的修復(fù)效果.這些方法對(duì)圖像高光溢出的整體修復(fù)效果取得了良好的成效,但是對(duì)于圖片的紋理修復(fù)效果并不理想,且獲得的圖片質(zhì)量不高.
隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,出現(xiàn)了一些使用卷積神經(jīng)網(wǎng)絡(luò)來對(duì)圖像進(jìn)行修復(fù)的方法.2014年,生成對(duì)抗網(wǎng)絡(luò)GAN(Generative Adversarial Networks)面世,該網(wǎng)絡(luò)由Goodfellow[6]等人根據(jù)博弈論中的零和博弈理論提出,引起了研究者們的極大關(guān)注,并對(duì)該網(wǎng)絡(luò)模型做出改進(jìn),誕生了眾多版本,其中影響較大的有CGAN(Conditional Generative Adversarial Nets)、DCGAN(Deep Convolution Generative Adversarial Networks)、Wasserstein GAN(WGAN)[7].其生成對(duì)抗網(wǎng)絡(luò)的應(yīng)用領(lǐng)域也在不斷拓展,正是當(dāng)前圖像處理技術(shù)中的研究熱點(diǎn).
結(jié)合傳統(tǒng)圖像處理方法與生成對(duì)抗網(wǎng)絡(luò),本文提出了一種基于模糊邏輯與生成對(duì)抗網(wǎng)絡(luò)相結(jié)合的圖像高光處理技術(shù),一方面利用模糊邏輯來模仿人腦的思維模式來對(duì)圖像高光區(qū)域進(jìn)行識(shí)別、判斷,從而較好的實(shí)現(xiàn)對(duì)圖像高光區(qū)域的劃分;另一方面,引入生成對(duì)抗網(wǎng)絡(luò)來修復(fù)圖像,可以進(jìn)一步提高在圖像紋理修復(fù)方面的能力.
2.1.1 模糊邏輯判斷
圖片高光區(qū)域部分通常是漸變式的,采用過去的方法——確定超過某一值的像素點(diǎn)劃分為高光區(qū)域,很容易形成截?cái)嗍椒纸缇€,而且對(duì)高光區(qū)域的劃分效果不理想.為了解決這些問題,我們引入模糊控制的方法來對(duì)圖像的高光進(jìn)行閾值分割處理.
隸屬度函數(shù)是模糊數(shù)學(xué)中的一個(gè)重要概念,模糊邏輯通過隸屬度函數(shù)來確定集合所屬范圍[8,9].本文方法選取S型隸屬度函數(shù)來進(jìn)行處理.其表達(dá)式如式(1)所示.
(1)
由于本實(shí)驗(yàn)中對(duì)圖片進(jìn)行通道分離處理,因此在該式中,x表示連續(xù)通道中的亮度值,a,b,c是函數(shù)S的參數(shù),a、c是亮度通道的取值范圍,b表示劃分為亮度區(qū)域的渡越點(diǎn)[10],通常取中點(diǎn).使用該函數(shù)作為隸屬度函數(shù)的優(yōu)點(diǎn)在于能較好的區(qū)分出高光位置,不會(huì)導(dǎo)致大面積非高光區(qū)域被劃分到高光范圍內(nèi).準(zhǔn)確的劃分范圍對(duì)后期圖像修復(fù)的效果往往具有正向作用.
2.1.2 高光區(qū)域劃分
本文通過模糊邏輯來對(duì)圖片的高光區(qū)域進(jìn)行分析,借助模糊邏輯模仿人腦不確定性的優(yōu)點(diǎn)來精確定位高光區(qū)域范圍.
在數(shù)字圖像中,物體的顏色R、G和B分量都與照射到物體上的光相關(guān)聯(lián),使用RGB模型來對(duì)圖像進(jìn)行高光區(qū)域劃分是較為困難的,因此本文中選用了HSV(Hue,Saturation,Value)模型來對(duì)圖像進(jìn)行處理.HSV是一種直觀的顏色模型,它將顏色與強(qiáng)度分隔開的程度較其他模型更多,這對(duì)于圖像高光區(qū)域的劃分有很大的優(yōu)勢(shì)[11].
圖像的高光區(qū)域劃分完畢后,將本環(huán)節(jié)生成的高光區(qū)域劃分以及二值掩碼傳入生成對(duì)抗網(wǎng)絡(luò)模型中,在卷積神經(jīng)網(wǎng)絡(luò)中對(duì)圖像進(jìn)行后續(xù)處理.
首先將圖片格式轉(zhuǎn)換為HSV模型,將圖片的三通道進(jìn)行分離,對(duì)分離出來的亮度通道(V通道)進(jìn)行模糊邏輯處理,圖像傳入模糊邏輯程序中后,使用上文中的S型隸屬度函數(shù)對(duì)圖像進(jìn)行全局處理,從中選取屬于高光部分的區(qū)域進(jìn)行高光定位,取邊界處位置進(jìn)行框選,并生成二值掩碼.至此高光區(qū)域的劃分就結(jié)束,其流程圖如圖1所示.
圖1 高光區(qū)域劃分流程圖
劃分高光區(qū)域后需要對(duì)高光溢出部分修復(fù),常規(guī)方法是從高光溢出區(qū)域周圍獲取像素點(diǎn)的顏色來對(duì)溢出部分進(jìn)行填充,但是這種方法生成的顏色通常不夠自然,而且填充區(qū)域較為死板、不真實(shí),用這種方法修復(fù)的區(qū)域通常沒有原圖像的紋理.本文使用基于深度卷積的生成對(duì)抗網(wǎng)絡(luò)(GAN)來對(duì)圖像高光區(qū)域進(jìn)行修復(fù),并在此網(wǎng)絡(luò)的基礎(chǔ)模型上做了一些改動(dòng).GAN的目標(biāo)函數(shù)表示見式(2):
(2)
其中G表示生成器,D表示判別器,x表示來自于真實(shí)數(shù)據(jù)Pdata(x)中的部分采樣,[·]表示期望值計(jì)算,Z表示經(jīng)過模糊處理的數(shù)據(jù),也就是輸入到生成器網(wǎng)絡(luò)中的數(shù)據(jù),PZ(Z)表示原始的數(shù)據(jù)分布.生成對(duì)抗網(wǎng)絡(luò)的框架主要有由一個(gè)生成器和一個(gè)判別器組成.兩者互相對(duì)抗訓(xùn)練,判別器返回判斷結(jié)果給生成器,生成器根據(jù)返回結(jié)果不斷調(diào)整生成圖像,最終當(dāng)判別器難以區(qū)分生成器產(chǎn)生的數(shù)據(jù)時(shí),該網(wǎng)絡(luò)實(shí)現(xiàn)生成以假亂真的圖像的目標(biāo).
2.2.1 生成器網(wǎng)絡(luò)
本文的主要目的是通過該生成網(wǎng)絡(luò)修復(fù)圖像由于高光溢出導(dǎo)致的圖像局部失真或缺失的問題,修復(fù)后的圖像應(yīng)盡量滿足與真實(shí)圖片在同一區(qū)域的相似度,并滿足圖像整體的完整性[12].本文生成器網(wǎng)絡(luò)模型結(jié)構(gòu)如圖2所示.
圖2 生成器網(wǎng)絡(luò)結(jié)構(gòu)模型
標(biāo)準(zhǔn)的卷積網(wǎng)絡(luò)使用到的像素較少,難以完成大面積的圖像修復(fù)[13],而擴(kuò)張卷積能夠擴(kuò)大感受野區(qū)域[14],這對(duì)圖像紋理以及圖像的整體恢復(fù)發(fā)揮著重要的作用.
本文中對(duì)局部區(qū)域的恢復(fù)使用擴(kuò)張卷積,改卷積方式可以通過使用更大的輸入面積來計(jì)算每個(gè)輸出像素,因此即使掩碼部分圖像有所缺失也能對(duì)圖片進(jìn)行良好的修復(fù).選定區(qū)域的輸入是具有二進(jìn)制通道的圖像,該通道標(biāo)志著圖像需要完成的掩碼,而對(duì)于選定區(qū)域以外的其他部分,如果不希望它發(fā)生任何變化,則可以將選定區(qū)域以外的其他部分的輸出像素改為輸入RGB值.
對(duì)于一個(gè)大小是h×m卷積層,假設(shè)它的下一個(gè)卷積層大小是h′×m′,那么對(duì)于當(dāng)前卷積層的擴(kuò)張卷積計(jì)算公式可以表示為式(3):
(3)
其中kw和kh分別表示卷積核的寬高,η是擴(kuò)張系數(shù),xu,v和yu,v分別表示圖層的輸入和輸出分量,σ(·)表示一個(gè)非線性傳遞函數(shù),b是卷積層的偏置向量,W是內(nèi)核矩陣,當(dāng)η=1時(shí)該方程表示標(biāo)準(zhǔn)的卷積操作.
為了控制生成區(qū)域的光照強(qiáng)度,本實(shí)驗(yàn)在網(wǎng)絡(luò)中引入一個(gè)亮度的參數(shù)l,該參數(shù)通過模糊邏輯計(jì)算獲得.傳入生成網(wǎng)絡(luò)中的圖片經(jīng)過模糊邏輯獲得當(dāng)前圖片x的亮度參數(shù)l,圖片經(jīng)過生成網(wǎng)絡(luò)處理后得到圖片x′,該圖片再次經(jīng)過模糊邏輯獲得一個(gè)處理后的圖片亮度l′,在本文中定義生成器部分的基本損失函數(shù)見式(4):
LossG1=logDG(x)+log(1-DG(G(MB,l′)))+αlog(-logDl(l′,l))
(4)
其中DG表示生成器網(wǎng)絡(luò)的判別器,MB表示二值掩碼,Dl是一個(gè)x和x′的亮度判斷器,α是超參數(shù),用來控制亮度的權(quán)重,本實(shí)驗(yàn)中取值為1.
為了使生成網(wǎng)絡(luò)的效果趨于穩(wěn)定,降低過擬合產(chǎn)生的可能性,本文還在均方誤差(MSE)的基礎(chǔ)上添加了L2正則項(xiàng)作為損失函數(shù),并添加了二值掩碼來代表需要生成的區(qū)域位置,其表達(dá)函數(shù)如式(5)所示:
(5)
其中MB表示二值掩碼,⊙表示圖像矩陣逐元素相乘,λ表示正則項(xiàng)系數(shù),n表訓(xùn)練集中的樣本數(shù)量,w表示生成器網(wǎng)絡(luò)中的所有權(quán)重參數(shù).
綜上所述,生成器的損失函數(shù)可以表示為式(6):
LossG=LossG1+LossG2
(6)
2.2.2 判別器網(wǎng)絡(luò)
本文判別器網(wǎng)絡(luò)采用全局判別器和局部判別器網(wǎng)絡(luò)兩者相結(jié)合,兩者協(xié)同工作來區(qū)分圖像是來自真實(shí)數(shù)據(jù)分布還是由生成器生成.局部判別器也在其他一些論文中使用過,并且取得了良好的效果[15,16].
局部判別器主要識(shí)別缺失部分的結(jié)果是否正確,局部判別器的輸入是原始丟失圖像部分或者是被遮擋的部分,以及生成器的生成部分,局部判別器約束著圖像的細(xì)節(jié)信息和局部一致性.而全局判別器需要判斷整個(gè)圖像的真實(shí)性,全局判別器的輸入也分為兩類:原始圖像和由生成器生成的整個(gè)圖像.判別器網(wǎng)絡(luò)結(jié)構(gòu)模型如圖3所示.
圖3 判別器網(wǎng)絡(luò)模型結(jié)構(gòu)
在判別器網(wǎng)絡(luò)的體系結(jié)構(gòu)中,全連接層都是標(biāo)準(zhǔn)的神經(jīng)網(wǎng)絡(luò)層.全局判別器和局部判別器處理完后,在判別器網(wǎng)絡(luò)中通過一個(gè)連接層將兩者的輸出連接到一起,形成一個(gè)2048維度的矢量,再經(jīng)過一個(gè)全連接層處理后得到一個(gè)連續(xù)的值.最后使用sigmoid函數(shù)作為轉(zhuǎn)移函數(shù),使該值的范圍在[0,1]來表示圖像是真實(shí)圖像的概率.
判別器在評(píng)分過程中需要對(duì)真實(shí)圖片x做出盡可能高的評(píng)分,對(duì)生成圖像G(·)盡可能降低評(píng)分.因此將對(duì)判別器的損失函數(shù)進(jìn)行優(yōu)化見式(7)、式(8):
Lossglo=-logDglo(X,MB)+log(1-Dglo(G(X′,MG),MG)
(7)
Lossloc=-logDloc(x,MB)+log(1-Dloc(G(x′,MG),MG)
(8)
其中MB表示二值掩碼,MG表示輸入的圖像,x′表示圖像的缺失區(qū)域,Lossglo表示全局判別器的損失,Lossloc表示局部判別器的損失.
局部損失函數(shù)的主要作用是判斷生成區(qū)域相對(duì)于原圖像的區(qū)域相似度,使得生成區(qū)域的真實(shí)性更加接近原始圖像,由于生成器部分亮度參數(shù)的存在導(dǎo)致生成的局部區(qū)域與原圖像必然存在差異,因此需要全局判別器的來進(jìn)行圖像的整體判斷.全局判別器需要判斷包含掩碼所在區(qū)域的全局圖像的真實(shí)性,保障局部區(qū)域與全圖的融洽性,進(jìn)一步降低由于局部亮度差異而引起的誤差.
本實(shí)驗(yàn)運(yùn)行在Ubuntu18.04 LTS操作系統(tǒng),處理器為Intel?Xeno(R)CPU E5-2407,顯卡為GeForce GTX TITAN X,運(yùn)行內(nèi)存16GB.實(shí)驗(yàn)使用pytorch 0.4.0框架,用python實(shí)現(xiàn).
在本文的實(shí)驗(yàn)中,關(guān)于實(shí)驗(yàn)中的部分?jǐn)?shù)據(jù)搜集于Kaggle,數(shù)據(jù)包含人臉和一些水果的圖片,其中人臉部分?jǐn)?shù)據(jù)來自于CelebA數(shù)據(jù)集.訓(xùn)練使用的學(xué)習(xí)率是0.0002,上下文內(nèi)容損失的權(quán)重λ是0.0001.
在訓(xùn)練開始之前為了保證實(shí)驗(yàn)的穩(wěn)定性,需要對(duì)數(shù)據(jù)集圖像進(jìn)行統(tǒng)一預(yù)處理.本實(shí)驗(yàn)中通過預(yù)處理將實(shí)驗(yàn)圖片處理為256×256×3的規(guī)格.此外為了使對(duì)圖片的修復(fù)更加具有普遍性,在訓(xùn)練過程中,還需要對(duì)圖像進(jìn)行隨機(jī)處理.即對(duì)于輸入的圖像,需要在圖片主體部分隨機(jī)生成一個(gè)需要修復(fù)的區(qū)域,并將該區(qū)域的大小限定在128像素之內(nèi).
圖4是根據(jù)本文算法獲得的實(shí)驗(yàn)結(jié)果,對(duì)比最終的輸出結(jié)果與原始圖片,高光區(qū)域亮度有明顯下降.
圖4 部分實(shí)驗(yàn)結(jié)果
為了進(jìn)一步評(píng)估圖片的修復(fù)效果,本文引入峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和結(jié)構(gòu)相似性指標(biāo)(structural similarity index,SSIM index)來評(píng)估圖像修復(fù)質(zhì)量,并對(duì)比了不同算法修復(fù)圖像的耗時(shí),來評(píng)估算法的工作效率.
峰值信噪比是一個(gè)表示信號(hào)最大可能功率和影響,是表示進(jìn)度的破壞性噪聲功率的比值的工程術(shù)語(yǔ)[17].結(jié)構(gòu)相似性指標(biāo)是一種用來衡量?jī)蓮垟?shù)位影像相似程度的真值表[18].本實(shí)驗(yàn)中使用峰值信噪比PSNR和結(jié)構(gòu)相似性指標(biāo) SSIM兩種數(shù)據(jù)作為圖像修復(fù)的質(zhì)量檢測(cè)的指標(biāo).
PSNR一般使用均方誤差(MSE)來進(jìn)行定義.對(duì)于大小為m×n的兩張單色圖像I和k,如果I和k的噪聲相似,那么可以將I和k的均方誤差定義為式(9):
(9)
峰值信噪比定義為式(10):
(10)
其中MAXI表示像素點(diǎn)的顏色最大值,它由采樣點(diǎn)的編碼方式計(jì)算得來,當(dāng)采樣點(diǎn)使用N位線性脈沖編碼調(diào)制表示時(shí),MAXI的值為2N-1,,生活中的圖像采樣點(diǎn)通常用8位表示,MAXI的值為255.
結(jié)構(gòu)相似性指標(biāo)的范圍在-1到1,該指標(biāo)數(shù)值越大,則說明兩張圖片的相似度越高.對(duì)于給定的兩個(gè)圖片信號(hào)x和y,其結(jié)構(gòu)相似性定義為式(11):
SSIM(x,y)=[l(x,y)]α[c(x,y)]β[s(x,y)]γ
(11)
文獻(xiàn)[5]中作者的主要目的是針對(duì)具有高光飽和現(xiàn)象的圖片進(jìn)行處理,其實(shí)現(xiàn)方法基本符合傳統(tǒng)圖像處理中先劃分高光區(qū)域,再根據(jù)高光區(qū)域的鄰域和邊緣信息來修復(fù)高光部分的步驟.文獻(xiàn)[19]根據(jù)WGAN網(wǎng)絡(luò)來對(duì)圖像進(jìn)行修復(fù),其主要面向?qū)ο笫侨四樞迯?fù).文獻(xiàn)[20]的算法中僅僅使用了局部判別器而沒有使用全局判別器,對(duì)于圖像的修復(fù)效果并不穩(wěn)定,容易出現(xiàn)模糊扭曲等現(xiàn)象,在紋理方面的修復(fù)效果較為微小.文獻(xiàn)[21]的算法能在一定程度上修復(fù)圖像的紋理,但是在某些場(chǎng)景下會(huì)出現(xiàn)不連續(xù)以及偽影的情況,修復(fù)效果不夠穩(wěn)定且圖片質(zhì)量不佳.本表格的數(shù)據(jù)通過使用以上4種修復(fù)方法得到的修復(fù)結(jié)果,再通過Scikit-image中的metrics庫(kù)計(jì)算獲得,其質(zhì)量評(píng)價(jià)指標(biāo)數(shù)據(jù)如表1所示.
表1 質(zhì)量評(píng)價(jià)指標(biāo)數(shù)據(jù)
分析表中的數(shù)據(jù)可以發(fā)現(xiàn),相比于傳統(tǒng)圖像處理方法,使用生成對(duì)抗網(wǎng)絡(luò)的方法都得到了顯著的提高,特別是在結(jié)構(gòu)相似性方面的提升尤為顯著.本實(shí)驗(yàn)方法與其他生成對(duì)抗網(wǎng)絡(luò)相比較,在PSNR方面平均提高了約23.41%,在SSIM方面提高了約19.49%,可以推斷出本實(shí)驗(yàn)方法修復(fù)后的圖像在視覺感受上明顯優(yōu)于其他3種方法.
除對(duì)PSNR和SSIM兩個(gè)指標(biāo)進(jìn)行統(tǒng)計(jì)分析,表2中統(tǒng)計(jì)了文獻(xiàn)[19]、文獻(xiàn)[20]、文獻(xiàn)[21]和本文算法在運(yùn)行時(shí)處理單張圖片所需要的平均時(shí)間.
表2 各算法消耗時(shí)間
分析表1和表2中的數(shù)據(jù)發(fā)現(xiàn),文獻(xiàn)[5]和文獻(xiàn)[21]的處理時(shí)間相對(duì)較少,但是這兩種算法的圖像修復(fù)效果都不及本文的算法,運(yùn)行時(shí)間較文獻(xiàn)[21]減少了51.23%,并且本文算法的圖片修復(fù)效果更加優(yōu)秀.在圖5的圖像修復(fù)效果對(duì)比中恰好證實(shí)了本文算法的修復(fù)效果優(yōu)于其他3種文獻(xiàn).
圖5中的折線圖表示,在不同大小的掩碼下,本文算法的質(zhì)量評(píng)估指標(biāo)PSNR和SSIM的變化過程.隨著掩碼的增大,圖像的修復(fù)質(zhì)量有所下降,主要是因?yàn)椋S著圖片上的掩碼區(qū)域擴(kuò)大,圖片上可供學(xué)習(xí)的區(qū)域越小,神經(jīng)網(wǎng)絡(luò)難以收集足夠數(shù)據(jù)對(duì)進(jìn)行良好的修復(fù).當(dāng)圖片的掩碼區(qū)域達(dá)到90(約占全圖35%)時(shí),圖像PSNR值約為33,SSIM值約為0.953,對(duì)比其他文獻(xiàn),本文在PSNR方面提高約8%,SSIM提高約15%.可以推斷出,本文在較大缺失區(qū)域的修復(fù)能力優(yōu)于其他算法.
圖5 PSNR和SSIM折線圖
根據(jù)圖6中不同算法的修復(fù)效果對(duì)比發(fā)現(xiàn),在圖片的紋理修復(fù)方面,本文有著極大的優(yōu)越性,文獻(xiàn)[19]和文獻(xiàn)[20]對(duì)圖片的修復(fù)能力較差,僅僅能恢復(fù)出少量的紋理,而且恢復(fù)的區(qū)域與原圖像的契合度不高、過度不自然;文獻(xiàn)[21]的紋理修復(fù)效果稍好一些,但是同樣存在過度不自然的情況,本文算法在紋理方面的修復(fù)效果較前3種算法取得了極大的進(jìn)步.
圖6 圖像修復(fù)結(jié)果對(duì)比
綜合各種指標(biāo),經(jīng)過大量的實(shí)驗(yàn)觀察,本文在圖像高光區(qū)域的修復(fù)效果良好,較傳統(tǒng)的圖像處理方法,本文的方法修復(fù)效果更加優(yōu)秀,圖片質(zhì)量更高,不僅能有效降低高光區(qū)域的亮度,還能對(duì)部分圖像紋理缺失的情況做出修復(fù).此外在圖像修復(fù)部分,與其他采用GAN的修復(fù)方法相比較,本文算法在運(yùn)行時(shí)間上略微得到了提高,在圖像質(zhì)量方面,本文的修復(fù)質(zhì)量更高,修復(fù)后的圖像紋理更加清晰合理.
針對(duì)圖像由于高光溢出導(dǎo)致的圖像部分區(qū)域與紋理的缺失,提出了一種基于生成式對(duì)抗網(wǎng)絡(luò)的圖像高光修復(fù)方法.通過實(shí)驗(yàn)對(duì)比分析,本文方法較傳統(tǒng)圖像處理各方面都得到了極大的提高,尤其是圖像質(zhì)量方面,提高了約93%;對(duì)比神經(jīng)網(wǎng)絡(luò)的圖像修復(fù)技術(shù),本文修復(fù)效率提高了18.04%,修復(fù)質(zhì)量提高了22.96%,綜合以上信息可知,本文方法對(duì)圖像高光修復(fù)做出了有效的改進(jìn).
但是這項(xiàng)研究任然帶有一些局限性.首先本研究中提出的算法主要用于圖像高光修復(fù),對(duì)圖像的高光區(qū)域有比較好的修復(fù)效果,但是由于本文沒有對(duì)人臉關(guān)鍵標(biāo)識(shí)性區(qū)域修復(fù)做出針對(duì)性訓(xùn)練,對(duì)于人臉關(guān)鍵位置的修復(fù)效果不夠理想,在以后的研究中將對(duì)這一部分做出改進(jìn),提高本文算法在其他方面的圖像修復(fù)效果;另外,本研究中的水果數(shù)據(jù)集只包含了常見水果,未來希望能夠獲取更多其他類型的水果數(shù)據(jù),提高本實(shí)驗(yàn)的兼容能力.