段風(fēng)磊
摘?要:生成對抗網(wǎng)絡(luò)(GAN)作為一種深層次的計算機(jī)學(xué)習(xí)模型,已經(jīng)成為近年來神經(jīng)網(wǎng)絡(luò)領(lǐng)域中非常具有發(fā)展前景的一項技術(shù)模型,本文通過對相關(guān)文獻(xiàn)的整理和查閱,首先簡述了原始的生成對抗網(wǎng)絡(luò)的組成以及其相關(guān)特征,隨后基于原始網(wǎng)絡(luò)的一些嚴(yán)重缺陷介紹了相關(guān)的改進(jìn)網(wǎng)絡(luò)的優(yōu)化方法,最終對整篇論文進(jìn)行總結(jié),并對未來的發(fā)展進(jìn)行了展望。
關(guān)鍵詞:計算機(jī);生成式對抗網(wǎng)絡(luò);圖像處理;研究進(jìn)展
Abstract:Generate countermeasures network(GAN,Generative Adversarial Networks)is a kind of deep-seated computer learning model,which has become a very promising technical model in the field of neural network in recent years.Through the collation and integration of relevant literature,this paper first described the composition and relevant characteristics of the original generative countermeasure network,and then introduced the relevant optimization methods of the improved network based on some serious defects of the original network.Finally,we summarize the whole paper and look forward to the future.
Key words:Computer;generative countermeasure network;image processing;research progress
1 緒論
Goodfellow基于博弈論中零和談判的觀點于2014年提出了“生成式對抗網(wǎng)絡(luò)”這一概念,這一方法是用深度學(xué)習(xí)網(wǎng)以及相關(guān)模型絡(luò)來驗證圖像真?zhèn)螐亩蓴?shù)據(jù)樣本的。生成對抗網(wǎng)絡(luò)目前以及成為計算機(jī)領(lǐng)域以及圖像識別領(lǐng)域非常重要的方法之一,具有非常廣闊的發(fā)展前景,GAN網(wǎng)絡(luò)是不斷的通過生成模型以及判別模型兩者之間的競爭得到所需的數(shù)據(jù)樣本的。GAN學(xué)習(xí)模型可適用多種不同情況下的數(shù)據(jù)處理分析[1]。
2 原始生成式對抗網(wǎng)絡(luò)模型
2.1 GAN網(wǎng)絡(luò)結(jié)構(gòu)
模型分為生成模型(Generative Model)和判別模型(Discriminative Model)。下圖1就是GAN模型的結(jié)構(gòu)組成。
2.2 生成網(wǎng)絡(luò)
生成器本質(zhì)上是一個可微分函數(shù),生成器接收隨機(jī)變量z的輸入,經(jīng)生成假樣本。在GAN中,生成器對輸入變量z基本沒有限制,z通常是一個100維的隨機(jī)編碼向量,z可以是隨機(jī)噪聲或者符合某種分布的變量。生成器理論上可以逐漸學(xué)習(xí)任何概率分布,經(jīng)訓(xùn)練后的生成網(wǎng)絡(luò)可以生成不和真實圖像完全一樣的逼真圖像,實際上是生成網(wǎng)絡(luò)學(xué)習(xí)了訓(xùn)練數(shù)據(jù)的一個分布,從而形成了相關(guān)的近似分布,這在數(shù)據(jù)增強(qiáng)應(yīng)用領(lǐng)域方面非常的重要[2]。
2.3 判別網(wǎng)絡(luò)
判別器實際上本質(zhì)與生成器是一樣的都是一種可以微分的函數(shù),在生成對抗網(wǎng)絡(luò)中,其實判別器的作用同它的名字一樣就是判別輸入的樣本是否為真實樣本,并在此基礎(chǔ)上通過循環(huán)來指導(dǎo)生成器進(jìn)行下一步的訓(xùn)練與合成。
3 改進(jìn)的生成式對抗網(wǎng)絡(luò)模型
生成對抗網(wǎng)絡(luò)含有多種優(yōu)點如具有更強(qiáng)大的預(yù)測能力;與強(qiáng)化學(xué)習(xí)相比,對抗式學(xué)習(xí)更接近人類的學(xué)習(xí)機(jī)理。但他也存在致命的缺點,即網(wǎng)絡(luò)難以收斂。本文通過對文獻(xiàn)的梳理,整理出幾個被廣泛認(rèn)可的改進(jìn)模型如下:
3.1 條件生成對抗網(wǎng)絡(luò)
基本GAN系統(tǒng)的圖像生成過程比較沒有約束,所以越大的圖像,用基本的GAN系統(tǒng)越難以控制。為了對這個情況進(jìn)行改進(jìn)以及研究,Mirza[3]等提出條件生成對抗模型(Conditional GAN)。該模型除了像原始網(wǎng)絡(luò)一樣輸入之外,還會再輸入一個條件變量c,CGAN結(jié)構(gòu)如圖2。比如一段描述句子,鑲嵌到與之對應(yīng)的圖片中,經(jīng)過訓(xùn)練,模型可以“看圖說話”;c同樣可以是對應(yīng)的目標(biāo)圖片,這樣GAN可以有目標(biāo)地去學(xué)習(xí)。
3.2 深度卷積生成對抗網(wǎng)絡(luò)
該卷積模型相較于全連接模型更加適用于處理分析比較復(fù)雜的圖像數(shù)據(jù)。所以Rad ford等[4]研究者提出了深度卷積GAN(deep convolutional GAN,DC-GAN)它是把原始GAN中的兩個生成與判別模型改進(jìn)換成了兩個深度CNN。使用步幅卷積和微步幅卷積有效地保留了特征信息[5],從而能對較復(fù)雜的問題以及圖像處理的更加完美。
3.3 Wasserstein生成對抗網(wǎng)絡(luò)
原始GAN訓(xùn)練出現(xiàn)梯度消失和模式崩潰的主要原因是使用JS距離來衡量兩個分布。
3.4 基于能量的生成對抗網(wǎng)絡(luò)
文獻(xiàn)[6]從能量模型的角度改進(jìn)了原始網(wǎng)絡(luò),研究出來了基于能量的生成對抗網(wǎng)絡(luò)(Energy Based GAN,EB-GAN)模型。因為它的判別器D主要由自編碼器(auto-encoder)構(gòu)成,這就使得它判別輸入圖像的真假是通過重新構(gòu)建圖像的像素質(zhì)量高低來決定的。EB-GAN的實驗表明,在實驗過程中其表現(xiàn)確實比原始GAN網(wǎng)絡(luò)更好,圖像更穩(wěn)定同時分辨率更高,對于整體起到了優(yōu)化的作用。
4 結(jié)語
GAN目前是一個較為全新的領(lǐng)域,各個專家學(xué)者也在這個領(lǐng)域不斷的創(chuàng)新研究提出各種各樣的想法以及改進(jìn)措施,本文主要總結(jié)了原始生成對抗網(wǎng)絡(luò)的基本構(gòu)成以及特征,以及近些年來一些經(jīng)典的改進(jìn)網(wǎng)絡(luò)及其實現(xiàn)過程,在整理的過程中受益匪淺,學(xué)到了許多,也更加深入的了解了這一塊的內(nèi)容,日后也希望能更多的通過對生成網(wǎng)絡(luò)的了解,來發(fā)現(xiàn)更具有價值的改進(jìn)模型??萍疾粩嗟陌l(fā)展進(jìn)步,越來越智能的時代即將來臨,讓我們帶著創(chuàng)新上路,不斷學(xué)習(xí)進(jìn)步!
參考文獻(xiàn):
[1]朱秀昌,唐貴進(jìn).生成對抗網(wǎng)絡(luò)圖像處理綜述[J].南京郵電大學(xué)學(xué)報(自然科學(xué)版),2019,39(3):1673-1682.
[2]梁俊杰,韋艦晶,蔣正鋒,等.生成對抗網(wǎng)絡(luò)GAN綜述[J].計算機(jī)科學(xué)與探索,2019,14(1):1-17.
[3]Mirza M,Osindero S.Conditional Generative Adversarial Nets[J].Computer Science,2014:2672-2680.
[4]朱虹,李千目,李德強(qiáng).基于單個卷積神經(jīng)網(wǎng)絡(luò)的面部多特征點定位[J].計算機(jī)科學(xué),2018,45(4):273-279.
[5]曹仰杰,賈麗麗,陳永霞,等.生成式對抗網(wǎng)絡(luò)及其計算機(jī)視覺應(yīng)用研究綜述[J].中國圖像圖形學(xué)報,2018,14(1):1-17.
[6]Zhao J B,Mathieu M,LeCun Y.Energy-based generative adversarial network[EB/OL].2017-03-06.