易珂
摘要: 現(xiàn)階段圖像識(shí)別方法多種多樣,深度網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)領(lǐng)域的應(yīng)用是可靠的方法之一。面向小樣本量生成對(duì)抗網(wǎng)絡(luò)(GAN)可生成隨機(jī)數(shù)據(jù)輔助訓(xùn)練,ACGAN在傳統(tǒng)GAN的基礎(chǔ)上,添加標(biāo)簽約束擴(kuò)展了GAN,以提高輔助樣本生成質(zhì)量。本文結(jié)合深度網(wǎng)絡(luò)和ACGAN,面向小樣本量數(shù)據(jù)集,利用訓(xùn)練模型進(jìn)行圖像識(shí)別,同時(shí)對(duì)標(biāo)簽信息對(duì)結(jié)果的影響進(jìn)行研究,實(shí)驗(yàn)結(jié)果分析這種算法能有效進(jìn)行分類(lèi)識(shí)別且標(biāo)簽信息有效輔助模型生成。
【關(guān)鍵詞】深度網(wǎng)絡(luò) ACGAN 輔助標(biāo)簽1ACGAN模型
生成對(duì)抗網(wǎng)絡(luò)( Generative AdversarialNet,GAN)是Ian J.Goodfellow等在2014年10月提出一種通過(guò)對(duì)抗過(guò)程估計(jì)生成模型的框架,是近年來(lái)無(wú)監(jiān)督學(xué)習(xí)最具前景的代表之一。GAN至少包括了兩個(gè)部分:生成模型G( Generative Model)和判別模型D( Discriminarive Model),核心思想是通過(guò)它們的互相博弈學(xué)習(xí)產(chǎn)生相當(dāng)好的輸出。在迭代學(xué)習(xí)的過(guò)程中,G的目的是通過(guò)隨機(jī)噪聲生成更加趨于真實(shí)樣本圖像的偽造圖像,D的目的是區(qū)分判別真實(shí)樣本和G生成的偽造圖像,對(duì)抗的結(jié)果是:D對(duì)真實(shí)樣本和生成的偽造圖像可能性為真的概率相等。
ACGAN(Auxiliary ClassifierGANs,ACGAN)[2]是在GAN的基礎(chǔ)上由OdenaA等在2016年提出的一種新的變種條件標(biāo)簽GAN,旨在添加標(biāo)簽約束以提高生成圖片質(zhì)量。隨機(jī)噪點(diǎn)Z noise輸入生成器G,在傳遞過(guò)程中數(shù)據(jù)類(lèi)標(biāo)簽信息不斷調(diào)節(jié)模型,生成器輸出假數(shù)據(jù)X fake,判別器D判別數(shù)據(jù)的真假和標(biāo)簽類(lèi)型信息。ACGAN的目標(biāo)函數(shù)包含兩部分:LS為真假樣本來(lái)源(Source)判別分類(lèi)正確的最大似然估計(jì),LC為樣本類(lèi)型(Class)判別正確的最大似然估計(jì)。
Ls= E[log P(S=real X_real)]+ E[logP(S=fake l X_fake)
(1)
Le= E[log P(C=cl X_real)]+ E[log P(C=e JX_fake)]
(2)
G的訓(xùn)練目標(biāo)為maximize(Ls+ Lc),D的訓(xùn)練目標(biāo)為maximize(Ls—Lc)。2深度網(wǎng)絡(luò)結(jié)構(gòu)
GAN模型具有減少了人為的建模和數(shù)據(jù)量不足時(shí)輔助生成數(shù)據(jù)的優(yōu)點(diǎn),缺點(diǎn)是GAN自由度很大難以穩(wěn)定訓(xùn)練。DCGAN(DeepConvolutional GAN,DCGAN)[3]是GAN的另一變體,極大提升了GAN訓(xùn)練的穩(wěn)定性以及生成結(jié)果質(zhì)量?;谶@一優(yōu)勢(shì),本文實(shí)驗(yàn)中生成器G和判別器D采用DCGAN的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò)規(guī)?;贛nist數(shù)據(jù)集。
模型在生成器G中間添加BatchNormalization層,對(duì)數(shù)據(jù)進(jìn)行歸一化,有效提高模型的穩(wěn)定性和訓(xùn)練收斂速度,并防止生成器G收斂到同一樣本。生成器卷積層代替了卷積神經(jīng)網(wǎng)絡(luò)的池化層和輸出的全連接層,其中利用卷積層進(jìn)行上采樣,最后輸出[28,28,1]的偽造圖像。
判別器D采用能更好解碼生成器G偽造圖像的對(duì)稱(chēng)形式。與原DCGAN不同的是,在輸出層采用ACGAN的判別器輸出結(jié)構(gòu),分別對(duì)樣本來(lái)源和樣本類(lèi)型進(jìn)行分類(lèi),相當(dāng)于兩個(gè)深度神經(jīng)網(wǎng)絡(luò)分類(lèi)模型,它們共享模型結(jié)構(gòu)和參數(shù)。
3 實(shí)驗(yàn)結(jié)果分析
結(jié)合DCGAN的深度網(wǎng)絡(luò)結(jié)構(gòu)和ACGAN,將模型應(yīng)用到Mnist手寫(xiě)體數(shù)據(jù)集。實(shí)驗(yàn)分為在生成器部分不添加標(biāo)簽信息和加入標(biāo)簽信息輔助生成樣本,研究標(biāo)簽信息對(duì)實(shí)驗(yàn)結(jié)果的影響,輔助標(biāo)簽信息在生成器的每一層都級(jí)聯(lián)類(lèi)型信息,不斷修正數(shù)據(jù)生成。兩類(lèi)模型在同等條件下進(jìn)行實(shí)驗(yàn):
(1)標(biāo)簽信息獲取采用one-hot獨(dú)熱編碼
(2)隨機(jī)噪聲服從[-1,1]的均勻分布,模型參數(shù)初始化服從(O,0.02)的正態(tài)分布;
(3)模型訓(xùn)練批量大小64,選取Adamoptimizer優(yōu)化器,更新學(xué)習(xí)步長(zhǎng)為0.0002,動(dòng)量參數(shù)beta設(shè)為0 5。防止震蕩和不穩(wěn)定,激活函數(shù)選取tanh,訓(xùn)練迭代次數(shù)200000次。
對(duì)結(jié)果進(jìn)行分析,根據(jù)判別器和生成器損失值變化趨勢(shì),生成器有輔助標(biāo)簽信息的模型在200000次迭代后趨于收斂且損失值更小,無(wú)輔助標(biāo)簽信息的模型收斂速度較慢,表明輔助標(biāo)簽信息有助于模型收斂。用訓(xùn)練模型的判別器部分對(duì)Mnist數(shù)據(jù)測(cè)試集進(jìn)行測(cè)試,無(wú)輔助標(biāo)簽信息準(zhǔn)確率為98.03%,有輔助標(biāo)簽信息準(zhǔn)確率為98.86%,說(shuō)明輔助標(biāo)簽信息能提高準(zhǔn)確率。
綜上,本文通過(guò)介紹ACGAN網(wǎng)絡(luò)結(jié)構(gòu),然后結(jié)合深度網(wǎng)絡(luò)和ACGAN模型對(duì)圖像識(shí)別和輔助標(biāo)簽信息的影響進(jìn)行實(shí)驗(yàn),對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行分析,證明標(biāo)簽信息對(duì)該模型的修正能力以及最終能得到理想的分類(lèi)器。
參考文獻(xiàn)
[l]GoodfellowI,Pouget-Abadiej, MirzaM, XuB, Wa rde-FarleyD, OzairS, CourvilleA, Bengio Y.Generative adversarial nets. In:Advances in Neural InformationProcessing Sys tems. 2014: 2672-2680.
[2] Augus tus Odena, Chris topherOlah, Jona thonShlens. Conditional Image Synthesiswith Auxiliary Classifier GANs.arXiv:1610. 09585, 2016.
[3] Alec
Radford, LukeMet z,SoumithChintala. Unsupervised RepresentationLearning with Deep ConvolutionalGenerative Adversarial Networks.ar Xiv preprint ar Xiv: 1511. 06434,2 015.
[4]唐賢倫,杜一銘,劉雨薇,李佳歆.基于條件深度卷積生成對(duì)抗網(wǎng)絡(luò)的圖像識(shí)別方法[J].自動(dòng)化學(xué)報(bào),2018,44 (05): 855-864.
[5]盧倩雯,陶青川,趙婭琳,劉蔓霄.基于生成對(duì)抗網(wǎng)絡(luò)的漫畫(huà)草稿圖簡(jiǎn)化[J],自動(dòng)化學(xué)報(bào),2018,44 (05): 840-854.
[6]王坤峰,茍超,段艷杰,林懿倫,鄭心湖,王飛躍.生成式對(duì)抗網(wǎng)絡(luò)GAN的研究進(jìn)展與展望[J].自動(dòng)化學(xué)報(bào),2017,43 (03): 321-332.