• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化方法綜述

    2022-05-07 02:36:52涂鵬琦高常鑫
    模式識(shí)別與人工智能 2022年4期
    關(guān)鍵詞:風(fēng)格化源域一致性

    涂鵬琦 高常鑫 桑 農(nóng)

    圖像的風(fēng)格是指一幅圖像或一個(gè)域所有圖像共有的觸點(diǎn)、紋理、色彩等特征,如藝術(shù)圖和照片表示兩種不同的圖像風(fēng)格.圖像風(fēng)格化旨在通過(guò)風(fēng)格化模型,將一幅圖像在保持語(yǔ)義內(nèi)容不變的同時(shí)從原始風(fēng)格轉(zhuǎn)換為參考圖像或目標(biāo)域定義的風(fēng)格,即具有某一風(fēng)格的原始圖像通過(guò)風(fēng)格化模型轉(zhuǎn)換為另一個(gè)風(fēng)格的風(fēng)格化圖像.強(qiáng)大的風(fēng)格轉(zhuǎn)換能力和多樣有趣的風(fēng)格化結(jié)果使圖像風(fēng)格化技術(shù)在社交、藝術(shù)創(chuàng)作和數(shù)據(jù)生產(chǎn)等領(lǐng)域都有著廣泛的應(yīng)用.

    近年來(lái),深度神經(jīng)網(wǎng)絡(luò)由于強(qiáng)大的特征提取和表達(dá)能力,受到學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注,并在圖像生成[1-8]、圖像到圖像轉(zhuǎn)換[9-22]、圖像編輯[23-26]和圖像風(fēng)格化[27-32]等任務(wù)上取得重大的技術(shù)突破.在此背景下,越來(lái)越多的研究者嘗試使用深度神經(jīng)網(wǎng)絡(luò)完成圖像風(fēng)格化任務(wù),提出各種基于深度神經(jīng)網(wǎng)絡(luò)的方法,解決圖像風(fēng)格化任務(wù)中存在的問(wèn)題.

    Gatys等[27,33]首先提出圖像風(fēng)格化的概念,并提出基于優(yōu)化(Optimization-Based)的圖像風(fēng)格化方法,這也是圖像風(fēng)格化研究初期采用的主要方法.為了提高風(fēng)格化的速度和效率,Johnson等[34]和Ulyanov等[35]先后提出使用前向深度神經(jīng)網(wǎng)絡(luò)代替緩慢的優(yōu)化過(guò)程,并提出相應(yīng)的內(nèi)容損失函數(shù)和風(fēng)格損失函數(shù),用于網(wǎng)絡(luò)訓(xùn)練,為基于前向深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化研究奠定基礎(chǔ).此外,生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)[36]的提出,以及它在各種圖像生成和圖像到圖像轉(zhuǎn)換任務(wù)上的突出表現(xiàn),使很多基于GAN的圖像風(fēng)格化方法被提出,改善已有方法的效果和性能,大幅促進(jìn)圖像風(fēng)格化的研究進(jìn)程.因此,基于前向深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化方法和基于GAN的圖像風(fēng)格化方法也成為目前圖像風(fēng)格化研究中采用的主要方法.

    本文根據(jù)風(fēng)格的定義方式,將基于深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化方法劃分為兩類:基于參考的圖像風(fēng)格化方法和基于域的圖像風(fēng)格化方法.

    在基于參考的圖像風(fēng)格化方法中,風(fēng)格由單幅圖像定義,即目標(biāo)風(fēng)格由參考圖像決定.深度神經(jīng)網(wǎng)絡(luò)的輸入為原始圖像和參考圖像.深度神經(jīng)網(wǎng)絡(luò)通過(guò)訓(xùn)練,學(xué)習(xí)如何在保持原始圖像語(yǔ)義內(nèi)容的同時(shí)將其風(fēng)格轉(zhuǎn)換為參考圖像的風(fēng)格,所以在這類方法中原始圖像稱為內(nèi)容圖像,參考圖像稱為風(fēng)格圖像.基于參考的圖像風(fēng)格化方法的優(yōu)點(diǎn)在于,目標(biāo)風(fēng)格由參考圖像定義,對(duì)于訓(xùn)練完成的模型,可根據(jù)參考圖像的不同實(shí)現(xiàn)任意目標(biāo)風(fēng)格的轉(zhuǎn)換.不足之處主要有如下兩方面.一方面由于目標(biāo)風(fēng)格由參考圖像定義,因此對(duì)于模型訓(xùn)練時(shí)未出現(xiàn)的參考圖像,模型對(duì)其代表風(fēng)格的轉(zhuǎn)換能力較弱,風(fēng)格化結(jié)果較差.另一方面,由于模型很難“干凈地”學(xué)到參考圖像的風(fēng)格,其風(fēng)格化過(guò)程會(huì)無(wú)法避免地保留一些原始圖像的風(fēng)格信息,同時(shí)引入?yún)⒖紙D像的一些語(yǔ)義內(nèi)容信息.當(dāng)原始圖像和參考圖像差距過(guò)大時(shí),風(fēng)格化過(guò)程中保留的原始圖像的風(fēng)格信息會(huì)使生成的風(fēng)格化圖像出現(xiàn)不同程度的風(fēng)格失真,即出現(xiàn)欠風(fēng)格化問(wèn)題.引入?yún)⒖紙D像的語(yǔ)義內(nèi)容信息會(huì)使生成的風(fēng)格化圖像出現(xiàn)不同程度的內(nèi)容失真,即產(chǎn)生過(guò)度風(fēng)格化問(wèn)題.

    在基于域的圖像風(fēng)格化方法中,風(fēng)格是由一個(gè)域的所有圖像共同定義.該任務(wù)涉及兩個(gè)域:定義原始風(fēng)格的源域和定義目標(biāo)風(fēng)格的目標(biāo)域,分別由訓(xùn)練時(shí)使用的原始圖像集合和目標(biāo)圖像集合表達(dá),該任務(wù)此時(shí)就轉(zhuǎn)化為從源域到目標(biāo)域的圖像到圖像轉(zhuǎn)換任務(wù).鑒于GAN在圖像到圖像轉(zhuǎn)換任務(wù)上的突出表現(xiàn),此類方法常采用GAN學(xué)習(xí)源域到目標(biāo)域的映射關(guān)系,完成兩者之間的轉(zhuǎn)換.基于域的圖像風(fēng)格化方法的優(yōu)點(diǎn)在于,目標(biāo)風(fēng)格由目標(biāo)域的所有圖像共同定義,更魯棒,模型能學(xué)到更“干凈的”風(fēng)格.因此,模型在向目標(biāo)風(fēng)格轉(zhuǎn)換的風(fēng)格化任務(wù)上較魯棒,更多地保留源域圖像的語(yǔ)義內(nèi)容信息,風(fēng)格化結(jié)果更真實(shí)自然.不足之處在于,由于該類方法中目標(biāo)風(fēng)格由目標(biāo)域的所有圖像共同定義,因此訓(xùn)練完成的模型只能完成單一目標(biāo)風(fēng)格的轉(zhuǎn)換,無(wú)法實(shí)現(xiàn)任意目標(biāo)風(fēng)格的轉(zhuǎn)換,存在一定的局限性.

    1 基于參考的圖像風(fēng)格化方法

    基于參考的圖像風(fēng)格化方法需要解決如何在保持原始圖像語(yǔ)義內(nèi)容不變的同時(shí)將其風(fēng)格轉(zhuǎn)化為參考圖像的風(fēng)格的問(wèn)題.問(wèn)題的關(guān)鍵是如何獲取圖像的語(yǔ)義內(nèi)容信息和風(fēng)格信息,并完成目標(biāo)風(fēng)格的轉(zhuǎn)換.根據(jù)近年來(lái)風(fēng)格化過(guò)程中的特征處理方式,基于參考的圖像風(fēng)格化方法可劃分為兩類:基于特征解耦的圖像風(fēng)格化方法和基于特征融合的圖像風(fēng)格化方法.

    1.1 基于特征解耦的圖像風(fēng)格化方法

    基于特征解耦的圖像風(fēng)格化方法是指將圖像的特征解耦為包含語(yǔ)義內(nèi)容信息的內(nèi)容特征和包含風(fēng)格信息的風(fēng)格特征,再交換原始圖像和參考圖像的風(fēng)格特征,完成風(fēng)格的轉(zhuǎn)換.該類方法在圖像風(fēng)格化研究初期采用較多,圖像風(fēng)格化過(guò)程如圖1所示.

    圖1 基于特征解耦的圖像風(fēng)格化過(guò)程Fig.1 Image stylization process based on feature decoupling

    Gatys等[27,33]首先提出神經(jīng)風(fēng)格遷移(Neural Style Transfer, NST)的概念和相應(yīng)的基于優(yōu)化的圖像風(fēng)格化方法,同時(shí)也是第一個(gè)基于特征解耦的圖像風(fēng)格化方法.在方法中,結(jié)合原始圖像的內(nèi)容特征和參考圖像的風(fēng)格特征,不斷迭代以優(yōu)化生成的風(fēng)格化圖像,并使用Gram矩陣衡量風(fēng)格化圖像和參考圖像之間的風(fēng)格相似性.在圖像風(fēng)格化研究領(lǐng)域,學(xué)者們先后提出基于特征解耦的圖像風(fēng)格化方法.Li等[37]提出使用馬爾科夫隨機(jī)場(chǎng)(Markov Random Field, MRF)正則化器代替Gram矩陣以衡量圖像間的風(fēng)格相似性,MRF在計(jì)算時(shí)考慮風(fēng)格化圖像和參考圖像的語(yǔ)義相關(guān)性,采用基于塊(Patch)的方式進(jìn)行匹配并計(jì)算風(fēng)格相似度.基于MRF的模型優(yōu)化進(jìn)一步提升生成的風(fēng)格化圖像的質(zhì)量.

    盡管上述方法已獲得較高質(zhì)量的風(fēng)格化圖像,但都是基于優(yōu)化的,需要經(jīng)過(guò)多次迭代才能獲得較高質(zhì)量的風(fēng)格化圖像,在實(shí)際應(yīng)用中非常耗時(shí).為了加快風(fēng)格化過(guò)程,Johnson等[34]和Ulyanov等[35]先后提出使用前向深度神經(jīng)網(wǎng)絡(luò)代替緩慢的優(yōu)化過(guò)程,并提出用于前向深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練的感知損失.感知損失包括衡量語(yǔ)義內(nèi)容差距的內(nèi)容損失和衡量風(fēng)格差距的風(fēng)格損失.首先利用VGG網(wǎng)絡(luò)[38]提取原始圖像Is和風(fēng)格化圖像Is-r,在網(wǎng)絡(luò)各層的特征進(jìn)行對(duì)比,即得到表示兩者語(yǔ)義內(nèi)容差距的內(nèi)容損失:

    其中,φ表示VGG網(wǎng)絡(luò),j表示網(wǎng)絡(luò)的第j層,Cj表示網(wǎng)絡(luò)第j層對(duì)應(yīng)特征圖的通道數(shù),Hj、Wj表示網(wǎng)絡(luò)第j層對(duì)應(yīng)特征圖的高和寬.進(jìn)而,再使用VGG網(wǎng)絡(luò)提取參考圖像Ir和風(fēng)格化圖像Is-r在網(wǎng)絡(luò)各層的特征,在分別計(jì)算Gram矩陣后進(jìn)行對(duì)比,得到表示兩者風(fēng)格差距的風(fēng)格損失:

    其中Gram表示計(jì)算Gram矩陣值.前向深度神經(jīng)網(wǎng)絡(luò)的應(yīng)用使圖像風(fēng)格化的速度提升2~3個(gè)量級(jí),實(shí)現(xiàn)實(shí)時(shí)的圖像風(fēng)格化,而基于前向深度神經(jīng)網(wǎng)絡(luò)的方法也逐漸成為圖像風(fēng)格化的主流方法.

    隨著GAN的提出,及其在圖像生成和圖像到圖像轉(zhuǎn)換等領(lǐng)域的突出表現(xiàn),研究者們嘗試?yán)肎AN在圖像風(fēng)格化領(lǐng)域取得新的突破.Huang等[39]提出MUNIT(Multimodal Unsupervised Image-to-Image Translation),Lee等[40]提出DRIT(Diverse Image-to-Image Translation via Disentangled Representa-tions).這兩種方法實(shí)質(zhì)上都可歸為基于特征解耦的圖像風(fēng)格化方法.MUNIT和DRIT網(wǎng)絡(luò)結(jié)構(gòu)基本一致,只在一些網(wǎng)絡(luò)層上存在差異,具體網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示.

    圖2 MUNIT和DRIT網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.2 Network architecture of MUNIT and DRIT

    該訓(xùn)練過(guò)程涉及的損失函數(shù)如下.

    1)生成對(duì)抗損失:

    用于約束生成的風(fēng)格化圖像Is-r和參考圖像Ir風(fēng)格分布的一致性,其中,G表示生成器,D表示判別器.

    2)KL損失:

    3)循環(huán)一致性損失:

    相比文獻(xiàn)[27]、文獻(xiàn)[33]~文獻(xiàn)[35]、文獻(xiàn)[37]方法,MUNIT和DRIT主要有兩方面改進(jìn).

    1)引入GAN,更容易學(xué)到目標(biāo)風(fēng)格的分布,獲得更真實(shí)的風(fēng)格化圖像.

    2)將風(fēng)格特征的分布約束為標(biāo)準(zhǔn)正態(tài)分布,推理時(shí)既可通過(guò)參考圖像編碼產(chǎn)生風(fēng)格特征,也可直接從標(biāo)準(zhǔn)正態(tài)分布隨機(jī)采樣得到風(fēng)格特征,增加風(fēng)格化結(jié)果的多樣性.

    盡管基于特征解耦的圖像風(fēng)格化方法已獲得較高質(zhì)量的風(fēng)格化圖像,但通過(guò)對(duì)圖像分別編碼的解耦方式很難將風(fēng)格特征和內(nèi)容特征“干凈地”解耦,導(dǎo)致風(fēng)格特征中包含內(nèi)容信息,而內(nèi)容特征中包含風(fēng)格信息,使得由原始圖像轉(zhuǎn)換得到的風(fēng)格化圖像會(huì)保留較多的原始圖像的風(fēng)格信息或引入較多參考圖像的內(nèi)容信息.一方面,當(dāng)參考圖像與原始圖像的風(fēng)格信息相差較大時(shí),生成的風(fēng)格化圖像會(huì)由于保留較多原始圖像的風(fēng)格信息,出現(xiàn)欠風(fēng)格化問(wèn)題.另一方面,當(dāng)參考圖像與原始圖像的內(nèi)容信息相差較大時(shí),生成的風(fēng)格化圖像會(huì)由于呈現(xiàn)較多風(fēng)格圖像的內(nèi)容信息,出現(xiàn)過(guò)度風(fēng)格化問(wèn)題.

    1.2 基于特征融合的圖像風(fēng)格化方法

    基于特征融合的圖像風(fēng)格化方法是指分別提取原始圖像和參考圖像的特征,再采用特征融合模塊,融合兩者特征后,得到包含原始圖像語(yǔ)義內(nèi)容信息和參考圖像風(fēng)格信息的特征,完成風(fēng)格的轉(zhuǎn)換.該類方法是目前基于參考的圖像風(fēng)格化的主流方法,圖像風(fēng)格化過(guò)程如圖3所示.

    圖3 基于特征融合的圖像風(fēng)格化過(guò)程Fig.3 Image stylization process based on feature fusion

    基于特征融合的圖像風(fēng)格化方法在進(jìn)行風(fēng)格化時(shí),原始圖像Is通過(guò)編碼器Es,得到圖像特征Fs,參考圖像Ir通過(guò)編碼器Er,得到圖像特征Fr,然后將Fs和Fr通過(guò)特征融合模塊,得到融合后的特征Fs-r,再經(jīng)過(guò)解碼器得到風(fēng)格化圖像Is-r.這里編碼器Es和Er可為同個(gè)編碼器,一般采用預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)[38].

    Chen等[41]首先提出基于塊的特征融合方式,采用預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)φ分別提取原始圖像Is的特征圖φ(Is)和參考圖像Ir的特征圖φ(Ir).再分別將φ(Is)和φ(Ir)劃分為同樣大小有重疊的特征圖塊,對(duì)每個(gè)原始圖像特征圖塊,將它和相關(guān)性最強(qiáng)的參考圖像特征圖塊交換.然后使用交換后的特征圖塊構(gòu)建新的特征圖,得到重建的特征圖φs-r(Is,Ir).最后將φs-r(Is,Ir)輸入生成器,得到風(fēng)格化圖像Is-r.

    雖然Chen等[41]提出的應(yīng)用基于塊的特征匹配和交換進(jìn)行特征融合的方式可獲得較高質(zhì)量的風(fēng)格化圖像,但是這種基于特征匹配和交換的特征融合方式計(jì)算量較大,較耗時(shí).

    此外,當(dāng)參考圖像和原始圖像差距較大時(shí),對(duì)匹配的特征直接進(jìn)行交換的方式可能會(huì)引入較多參考圖像的語(yǔ)義內(nèi)容信息,使風(fēng)格化圖像丟失較多原始圖像的語(yǔ)義內(nèi)容信息.

    為了解決這些問(wèn)題,Li等[42]提出新的特征融合方式——WCT(Whitening and Coloring Transforms),在特征層面上提出風(fēng)格的表示方式,即風(fēng)格應(yīng)由圖像特征的協(xié)方差矩陣表示,并基于此理論提出使用原始圖像特征圖的協(xié)方差矩陣匹配參考圖像特征圖的協(xié)方差矩陣進(jìn)行特征融合的方式.WCT的提出加快基于特征融合的圖像風(fēng)格化過(guò)程的處理速度,并獲得較高質(zhì)量的風(fēng)格化圖像,為后續(xù)的基于特征融合的圖像風(fēng)格化研究奠定基礎(chǔ).

    為了進(jìn)一步提高風(fēng)格化圖像的質(zhì)量,Huang等[28]提出用于圖像風(fēng)格化的特征融合方式——AdaIN(Adaptive Instance Normalization).他們認(rèn)為圖像的風(fēng)格是由其特征圖的統(tǒng)計(jì)量均值和方差決定的,并提出使用參考圖像特征圖的均值和方差對(duì)原始圖像特征圖進(jìn)行調(diào)制,使調(diào)制后的特征圖和參考圖像特征圖的方差和均值一致.AdaIN的提出大幅加快圖像風(fēng)格化的處理速度,達(dá)到實(shí)時(shí)圖像風(fēng)格化的水平,也進(jìn)一步提升風(fēng)格化圖像的質(zhì)量.同時(shí),AdaIN的提出也為基于特征融合的圖像風(fēng)格化方法提供新的研究方向和思路,學(xué)者們先后提出基于此的新方法,而AdaIN也成為基于特征融合的圖像風(fēng)格化方法主要采用的特征融合方式.

    為了進(jìn)一步提升風(fēng)格化過(guò)程中特征融合的準(zhǔn)確性和魯棒性,Park等[43]提出SANet(Style Atten-tional Network).首先使用預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)提取原始圖像Is和參考圖像Ir的特征圖Fs和Fr,然后采用SANet進(jìn)行特征融合,SANet結(jié)構(gòu)圖如圖4所示.

    圖4 SANet結(jié)構(gòu)圖Fig.4 Architecture of SANet

    經(jīng)過(guò)SANet可得到融合后的特征:

    Wf、Wg和Wh表示可學(xué)習(xí)矩陣,

    AdaIN[28]、WCT[42]和SANet[43]的提出對(duì)基于特征融合的圖像風(fēng)格化方法具有重大意義,后續(xù)提出的該類方法基本都是在這3種方式的基礎(chǔ)上進(jìn)行特征融合.

    An等[44]為了在風(fēng)格化過(guò)程中盡可能地保留原始圖像的語(yǔ)義內(nèi)容信息,改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),采用完全可逆的編碼器-解碼器結(jié)構(gòu)ArtFlow,即解碼器是編碼器的逆過(guò)程.整個(gè)過(guò)程的可逆性使風(fēng)格化過(guò)程中原始圖像的語(yǔ)義內(nèi)容信息得到更多的保留,提升風(fēng)格化圖像的質(zhì)量.

    盡管基于特征融合的圖像風(fēng)格化方法在一定程度上解決風(fēng)格化過(guò)程的欠風(fēng)格化和過(guò)度風(fēng)格化問(wèn)題,獲得較高質(zhì)量的風(fēng)格化圖像,但是當(dāng)參考圖像和原始圖像差距較大時(shí),仍不能完全解決上述問(wèn)題.這也是未來(lái)基于參考的圖像風(fēng)格化方法的研究熱點(diǎn).

    綜上所述,基于參考的圖像風(fēng)格化的代表性方法Optimized-Based[27]、AdaIN[28]、WCT[42]、SANet[43]和ArtFlow[44]的特點(diǎn)可總結(jié)如表1所示.

    表1 基于參考的圖像風(fēng)格化的代表性方法的特點(diǎn)Table 1 Characteristics of representative methods in reference-based image stylization

    2 基于域的圖像風(fēng)格化方法

    基于域的圖像風(fēng)格化方法是指對(duì)兩個(gè)域進(jìn)行轉(zhuǎn)換,每個(gè)域定義一種風(fēng)格,通過(guò)對(duì)域的轉(zhuǎn)換完成對(duì)風(fēng)格的轉(zhuǎn)換,實(shí)現(xiàn)圖像風(fēng)格化.這類方法一般都是采用GAN的網(wǎng)絡(luò)結(jié)構(gòu),圖像風(fēng)格化過(guò)程如圖5所示.

    圖5 基于域的圖像風(fēng)格化過(guò)程Fig.5 Image stylization process based on domain

    在基于域的圖像風(fēng)格化方法進(jìn)行風(fēng)格化時(shí),源域圖像Is通過(guò)源域到目標(biāo)域的生成器Gs-t,得到具有目標(biāo)域風(fēng)格的風(fēng)格化圖像Is-t.

    Zhu等[10]首先提出用于未配對(duì)圖像到圖像轉(zhuǎn)換的CycleGAN,在基于域的圖像風(fēng)格化方法中,源域到目標(biāo)域的轉(zhuǎn)換也是未配對(duì)的,因此 CycleGAN可用于基于域的圖像風(fēng)格化.CycleGAN包含兩個(gè)過(guò)程:源域到目標(biāo)域到源域的風(fēng)格轉(zhuǎn)換和目標(biāo)域到源域到目標(biāo)域的風(fēng)格轉(zhuǎn)換.這兩個(gè)訓(xùn)練過(guò)程類似,現(xiàn)只選擇其中一個(gè)介紹,采用的網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示.

    ①m ≥ 2,于是得pm|pi,即pm-1|i,i.e.i=pm-1,2pm-1,···,pm,故bi∈ Z(G),此時(shí)(biaj)p=bipajp=1,即j=pn-1,2pn-1,···,pn,從而易得p階元的個(gè)數(shù)為p2-1,p階子群個(gè)數(shù)為p+1.由引理6可知P?(G)的連通分支個(gè)數(shù)k(P?(G))=p+1.② m=1,此時(shí)G=Mp(n,1)= 〈a,b:apn=bp=1,ab=a1+pn-1〉,容易計(jì)算

    圖6 CycleGAN網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.6 Network architecture of CycleGAN

    CycleGAN的提出為未配對(duì)圖像到圖像轉(zhuǎn)換提出一種新的解決思路,也為基于域的圖像風(fēng)格化研究奠定基礎(chǔ),后續(xù)基于域的圖像風(fēng)格化方法基本都是采用CycleGAN作為基本的網(wǎng)絡(luò)框架.

    Liu等[45]在CycleGAN的基礎(chǔ)上,根據(jù)源域和目標(biāo)域特征潛層空間共享的假設(shè),即源域圖像Is和目標(biāo)域圖像It的特征符合同種分布(標(biāo)準(zhǔn)正態(tài)分布),提出UNIT(Unsupervised Image-to-Image Tran-slation).在UNIT中,網(wǎng)絡(luò)的訓(xùn)練包括2個(gè)并行的訓(xùn)練過(guò)程:圖像的重建和圖像的風(fēng)格轉(zhuǎn)換.圖像的重建過(guò)程是指針對(duì)源域和目標(biāo)域訓(xùn)練相應(yīng)的變分自編碼器(Variational Autoencoder, VAE)[46],源域的VAE包括編碼器Es和解碼器Gs,目標(biāo)域的VAE包括編碼器Et和解碼器Gt.圖像的風(fēng)格轉(zhuǎn)換過(guò)程是指將源域圖像Is通過(guò)該域VAE對(duì)應(yīng)的編碼器Es,得到符合某一分布的特征Fs,根據(jù)源域和目標(biāo)域特征潛層空間共享的假設(shè),F(xiàn)s再經(jīng)過(guò)目標(biāo)域VAE對(duì)應(yīng)的解碼器Gt,得到具有目標(biāo)域風(fēng)格的風(fēng)格化圖像Is-t.

    UNIT的提出為基于域的圖像風(fēng)格化研究提供一種特征潛層空間的研究視角,大幅推動(dòng)圖像風(fēng)格化的研究進(jìn)程.

    由于CycleGAN[10]中循環(huán)一致性損失的約束,采用CycleGAN作為基本網(wǎng)絡(luò)框架的方法在存在形變的圖像風(fēng)格化任務(wù)上往往會(huì)產(chǎn)生較差的風(fēng)格化結(jié)果.為了解決這個(gè)問(wèn)題,Kim等[47]提出U-GAT-IT(Unsupervised Generative Attentional Networks with Adaptive Layer-Instance Normalization for Image-to-Image Translation).U-GAT-IT采用的網(wǎng)絡(luò)結(jié)構(gòu)同樣是CycleGAN,但是在此基礎(chǔ)上引入注意力模塊和自適應(yīng)的層-實(shí)例正則化(Adaptive Layer-Instance Normalization, AdaLIN).注意力模塊指導(dǎo)模型根據(jù)輔助分類器獲得特征圖通道方向的注意力權(quán)重,使加權(quán)后的特征圖能將注意力集中在源域和目標(biāo)域區(qū)別最大的區(qū)域,同時(shí)也是容易發(fā)生形變的區(qū)域,促進(jìn)風(fēng)格化過(guò)程中這些區(qū)域的形變.

    AdaLIN是指在進(jìn)行正則化時(shí),采用層正則化和實(shí)例正則化,再采用可學(xué)習(xí)的權(quán)重系數(shù)對(duì)這兩種正則化的結(jié)果進(jìn)行加權(quán).通過(guò)兩種正則化方式的結(jié)合,更精確地控制風(fēng)格化圖像的形狀和紋理.U-GAT-IT的提出為采用CycleGAN的基于域的圖像風(fēng)格化方法在需要形變的圖像風(fēng)格化任務(wù)上提供一種有效的解決方式,提升該任務(wù)中風(fēng)格化圖像的質(zhì)量.

    盡管基于域的圖像風(fēng)格化方法能在保留源域圖像語(yǔ)義內(nèi)容信息的基礎(chǔ)上學(xué)習(xí)目標(biāo)域的風(fēng)格,完成目標(biāo)域風(fēng)格的轉(zhuǎn)換,但是已有方法仍很難學(xué)到完全由目標(biāo)域所有圖像共同定義的風(fēng)格,不可避免地都會(huì)學(xué)到目標(biāo)域中一些特定圖像才有的風(fēng)格特征,使不同風(fēng)格化圖像的風(fēng)格存在較大差異.該問(wèn)題也是后續(xù)基于域的圖像風(fēng)格化研究需要重點(diǎn)關(guān)注的問(wèn)題.

    綜上所述,基于域的圖像風(fēng)格化中代表性方法CycleGAN[10]、UNIT[45]、U-GAT-IT[47]、Council-GAN[48]的特點(diǎn)總結(jié)如表2所示.

    表2 基于域的圖像風(fēng)格化方法中代表性方法的特點(diǎn)Table 2 Characteristics of representative methods in domain-based image stylization

    3 實(shí)驗(yàn)及結(jié)果分析

    3.1 基于參考的圖像風(fēng)格化方法對(duì)比

    本節(jié)主要從運(yùn)行速度和效果上對(duì)比基于參考的圖像風(fēng)格化方法,其中運(yùn)行速度指生成一幅風(fēng)格化圖像需要的時(shí)間,效果指生成的風(fēng)格化圖像的質(zhì)量.該類方法對(duì)比時(shí)無(wú)固定的數(shù)據(jù)集,本文選取相關(guān)論文中常用的原始圖像和參考圖像作為測(cè)試數(shù)據(jù)進(jìn)行對(duì)比.

    本文選取Optimization-Based[27]、AdaIN[28]、WCT[42]、Avatar-Net[49]、SANet[43]和ArtFlow[44]進(jìn)行運(yùn)行速度和效果的對(duì)比,運(yùn)行速度對(duì)比結(jié)果如表3所示,其中黑體數(shù)字表示最優(yōu)值.

    由表3可知,Optimization-Based因?yàn)樾枰啻蔚鷥?yōu)化,生成一幅風(fēng)格化圖像所需時(shí)間最長(zhǎng).采用前向深度神經(jīng)網(wǎng)絡(luò)的方法WCT、AdaIN、Avatar-Net、SANet和ArtFlow生成一幅風(fēng)格化圖像所需時(shí)間較短,相比Optimization-Based,提升2~3個(gè)量級(jí).對(duì)比表明前向深度神經(jīng)網(wǎng)絡(luò)的使用大幅提升圖像風(fēng)格化的處理速度.相比WCT和Avatar-Net,AdaIN、SANet和ArtFlow進(jìn)行特征融合時(shí)需要的矩陣運(yùn)算更簡(jiǎn)單,生成一幅風(fēng)格化圖像所需時(shí)間更短,能實(shí)現(xiàn)實(shí)時(shí)的圖像風(fēng)格化.

    表3 各方法的運(yùn)行時(shí)間對(duì)比Table 3 Running time comparison of different methods s

    各方法生成的風(fēng)格化圖像對(duì)比如圖7所示.由圖可知,SANet和ArtFlow生成的風(fēng)格化圖像在語(yǔ)義內(nèi)容信息保留上效果較優(yōu),特別是一些關(guān)鍵的紋理細(xì)節(jié),如SANet和ArtFlow生成的風(fēng)格化圖像能完整保留原始圖像額頭的皺紋、發(fā)梢等紋理細(xì)節(jié),而Optimization-Based、WCT和AdaIN生成的風(fēng)格化圖像都會(huì)存在不同程度的語(yǔ)義內(nèi)容信息丟失問(wèn)題,這表明SANet和ArtFlow在風(fēng)格化過(guò)程中對(duì)于語(yǔ)義內(nèi)容信息保留的有效性.進(jìn)一步可發(fā)現(xiàn),WCT、AdaIN、Avatar-Net、SANet、ArtFlow生成的風(fēng)格化圖像和參考圖像的風(fēng)格一致性更高,而Optimization-Based生成的風(fēng)格化圖像和參考圖像的風(fēng)格一致性存在較大波動(dòng),表明Optimization-Based得到的風(fēng)格化圖像的質(zhì)量會(huì)較依賴于優(yōu)化過(guò)程中的迭代次數(shù),向不同風(fēng)格轉(zhuǎn)換時(shí)需要的迭代次數(shù)存在較大差異.

    (a)內(nèi)容圖像(a)Content images

    3.2 基于域的圖像風(fēng)格化方法對(duì)比

    基于域的圖像風(fēng)格化方法都能實(shí)現(xiàn)實(shí)時(shí)的圖像風(fēng)格化,生成一幅風(fēng)格化圖像所需時(shí)間都在一個(gè)量級(jí),因此通常只對(duì)各方法的風(fēng)格化結(jié)果進(jìn)行定量和定性的對(duì)比.

    本文選取CycleGAN[10]、UNIT[45]、U-GAT-IT[47]、Council-GAN[48]、CUT(Contrastive Unpaired Transla- tion)[50]和SPatchGAN[51],在selfie2-anime、Celeb- A2anime、vangogh2photo、monet2photo數(shù)據(jù)集上進(jìn)行對(duì)比.

    selfie2anime數(shù)據(jù)集在U-GAT-IT[47]中被使用,包含人臉和動(dòng)漫人臉兩種風(fēng)格.訓(xùn)練集包含3 400幅人臉圖像和3 400幅動(dòng)漫人臉圖像.測(cè)試集包含100幅人臉圖像和100幅動(dòng)漫人臉圖像.

    CelabA2anime數(shù)據(jù)集是本文構(gòu)建的,人臉圖像從CelebA數(shù)據(jù)集上篩選,動(dòng)漫人臉圖像來(lái)自selfie2-anime數(shù)據(jù)集,同樣包含人臉和動(dòng)漫人臉兩種風(fēng)格.訓(xùn)練集包含3 400幅人臉圖像和3 400幅動(dòng)漫人臉圖像.測(cè)試集包含100幅人臉圖像和100幅動(dòng)漫人臉圖像.

    vangogh2photo數(shù)據(jù)集在CycleGAN[10]中被使用,包含藝術(shù)圖像和照片兩種風(fēng)格.訓(xùn)練集包含400幅藝術(shù)圖像和6 287幅照片圖像.測(cè)試集包含400幅藝術(shù)圖像和751幅照片圖像.

    monet2photo數(shù)據(jù)集在DRIT[40]中被使用,同樣包含藝術(shù)圖像和照片兩種風(fēng)格.訓(xùn)練集包含1 811幅藝術(shù)圖像和6 452幅照片圖像.測(cè)試集包含400幅藝術(shù)圖像和751幅照片圖像.

    在定量對(duì)比方面,采用的定量指標(biāo)分別為FID(Frechet Inception Distance)和結(jié)構(gòu)相似性(Structural Similarity, SSIM).FID指目標(biāo)域圖像和風(fēng)格化圖像特征之間的最大均方差,這里特征是采用 Inception V3網(wǎng)絡(luò)[52]提取的.FID值越低表示目標(biāo)域圖像和風(fēng)格化圖像之間的風(fēng)格一致性越高.SSIM指源域圖像和風(fēng)格化圖像之間的結(jié)構(gòu)相似度,包括亮度、對(duì)比度和結(jié)構(gòu).SSIM值越高,表示源域圖像和風(fēng)格化圖像的結(jié)構(gòu)一致性越高.

    各方法的FID、SSIM值對(duì)比如表4所示,表中黑體數(shù)字表示最優(yōu)值.

    表4 各方法的FID和SSIM值對(duì)比Table 4 Comparison of FID score and SSIM score of different methods

    由表4可知,對(duì)比FID值可發(fā)現(xiàn),各方法在不同類型的圖像風(fēng)格化任務(wù)上表現(xiàn)存在差異,在selfie2anime、CelebA2anime數(shù)據(jù)集上從人臉到動(dòng)漫人臉的圖像風(fēng)格化任務(wù)中,SPatchGAN的FID值均最低,CUT、U-GAT-IT、Council-GAN、CycleGAN、UNIT的FID值依次升高,表明U-GAT-IT生成的動(dòng)漫人臉圖像和目標(biāo)動(dòng)漫人臉域的風(fēng)格一致性最高,CUT、U-GAT-IT、Council-GAN、CycleGAN和UNIT生成的動(dòng)漫人臉圖像和目標(biāo)動(dòng)漫人臉域的風(fēng)格一致性依次降低.在vangogh2photo、monet2photo數(shù)據(jù)集上從藝術(shù)圖像到照片的圖像風(fēng)格化任務(wù)中,UNIT的FID值均最低,SPatchGAN、CUT、U-GAT-IT、Council-GAN和CycleGAN的FID值依次升高,表明UNIT生成的照片圖像和目標(biāo)照片域的風(fēng)格一致性最高,SPatch-GAN、CUT 、U-GAT-IT、Council-GAN和CycleGAN生成的照片圖像和目標(biāo)照片域的風(fēng)格一致性依次降低.

    對(duì)比SSIM值可發(fā)現(xiàn),各方法在不同類型的圖像風(fēng)格化任務(wù)上的表現(xiàn)同樣存在差異,在selfie2-anime、CelebA2anime數(shù)據(jù)集上從人臉到動(dòng)漫人臉的圖像風(fēng)格化任務(wù)中,SPatchGAN的SSIM值均最高,CUT、U-GAT-IT、CycleGAN、Council-GAN、UNIT的SSIM值依次降低,表明SPatchGAN生成的動(dòng)漫人臉圖像和原始人臉圖像的結(jié)構(gòu)一致性最高,CUT、U-GAT-IT、CycleGAN、Council-GAN、UNIT生成的動(dòng)漫人臉圖像和原始人臉圖像的結(jié)構(gòu)一致性依次降低.在vangogh2photo、monet2photo數(shù)據(jù)集上從藝術(shù)圖像到照片的圖像風(fēng)格化任務(wù)中,U-GAT-IT和SPatch-GAN的SSIM值分別取得最高值,Council-GAN、CUT、UNIT、CycleGAN的SSIM值依次降低,表明U-GAT-IT和SPatchGAN生成的照片圖像和原始藝術(shù)圖像的結(jié)構(gòu)一致性較高,Council-GAN、CUT、UNIT、CycleGAN生成的照片圖像和原始藝術(shù)圖像的結(jié)構(gòu)一致性依次降低.

    各方法在4個(gè)數(shù)據(jù)集上生成的風(fēng)格化圖像對(duì)比分別如圖8和圖9所示.由圖可發(fā)現(xiàn),在selfie2-anime、CelebA2anime數(shù)據(jù)集上從人臉到動(dòng)漫人臉的圖像風(fēng)格化任務(wù)中,SPatchGAN、CUT、U-GAT-IT、Council-GAN生成的動(dòng)漫人臉圖像質(zhì)量更高,在語(yǔ)義內(nèi)容信息的保留和風(fēng)格一致性上表現(xiàn)更優(yōu),而UNIT和CycleGAN生成的動(dòng)漫人臉圖像質(zhì)量相對(duì)較低,在語(yǔ)義內(nèi)容信息的保留和風(fēng)格一致性上存在不同程度的問(wèn)題,特別是生成動(dòng)漫人臉的頭發(fā)和鬢角處會(huì)出現(xiàn)較大的失真.在vangogh2photo、monet2-photo數(shù)據(jù)集上從藝術(shù)圖像到照片的圖像風(fēng)格化任務(wù)中,SPatchGAN、U-GAT-IT、UNIT生成的照片圖像質(zhì)量更高,在語(yǔ)義內(nèi)容信息的保留和風(fēng)格一致性上表現(xiàn)更優(yōu),而CUT、Council-GAN、CycleGAN生成的照片圖像質(zhì)量相對(duì)較低,在語(yǔ)義內(nèi)容信息的保留和風(fēng)格一致性上同樣存在一些問(wèn)題,如CUT、Council-GAN、CycleGAN生成的照片圖像會(huì)出現(xiàn)嚴(yán)重的語(yǔ)義內(nèi)容信息丟失問(wèn)題.

    整體上,各方法在不同類型的圖像風(fēng)格化任務(wù)上的表現(xiàn)存在差異,SPatchGAN、Council-GAN、UGA-TIT綜合表現(xiàn)更優(yōu),表明SPatchGAN中提出的基于統(tǒng)計(jì)特征的判別器能有效幫助模型學(xué)習(xí)目標(biāo)風(fēng)格的分布,U-GAT-IT中提出的注意力機(jī)制和AdaLIN在風(fēng)格化過(guò)程中能幫助模型更好地學(xué)習(xí)目標(biāo)風(fēng)格,對(duì)語(yǔ)義內(nèi)容和風(fēng)格的控制更精確,Council-GAN中提出代替循環(huán)一致性約束的多個(gè)GAN的協(xié)同約束更適合圖像風(fēng)格化任務(wù),能幫助模型更好地學(xué)習(xí)目標(biāo)風(fēng)格.UNIT在從藝術(shù)圖像到照片的圖像風(fēng)格化任務(wù)上表現(xiàn)更優(yōu),表明這兩類風(fēng)格的特征潛層空間一致性較高,特征潛層空間共享的假設(shè)更適合此類風(fēng)格化任務(wù).

    (a)原始圖像(a)Original images

    (a)原始圖像(a)Original images

    4 問(wèn)題與展望

    4.1 存在的問(wèn)題

    盡管已有的基于深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化方法獲得較高質(zhì)量的風(fēng)格化圖像,但仍存在一些問(wèn)題.

    1)泛化性難以保證.這是基于深度神經(jīng)網(wǎng)絡(luò)的方法在實(shí)際應(yīng)用中都會(huì)存在的問(wèn)題.基于深度神經(jīng)網(wǎng)絡(luò)的風(fēng)格化模型訓(xùn)練完成后,在實(shí)際應(yīng)用時(shí),對(duì)于在訓(xùn)練中未出現(xiàn)過(guò)的、與訓(xùn)練數(shù)據(jù)集中的圖像差異較大的圖像,模型生成的風(fēng)格化圖像質(zhì)量較低,會(huì)出現(xiàn)不同程度的失真.提高圖像風(fēng)格化方法的泛化性仍是圖像風(fēng)格化研究領(lǐng)域的難點(diǎn)問(wèn)題.

    2)欠風(fēng)格化和過(guò)度風(fēng)格化問(wèn)題.盡管已有的圖像風(fēng)格化方法在一定程度上解決風(fēng)格化過(guò)程的欠風(fēng)格化和過(guò)度風(fēng)格化問(wèn)題,并獲得較高質(zhì)量的風(fēng)格化圖像,但是當(dāng)參考圖像和原始圖像差距較大時(shí),該問(wèn)題仍不能得到完全解決.生成的風(fēng)格化圖像要么出現(xiàn)欠風(fēng)格化問(wèn)題,保留過(guò)多原始圖像的風(fēng)格信息,和參考圖像的風(fēng)格一致性較低,要么出現(xiàn)過(guò)度風(fēng)格化問(wèn)題,丟失較多原始圖像的語(yǔ)義內(nèi)容信息.解決該問(wèn)題是圖像風(fēng)格化研究領(lǐng)域急需解決的問(wèn)題.

    3)難以學(xué)到想要的風(fēng)格.當(dāng)采用GAN的風(fēng)格化模型訓(xùn)練時(shí),模型收斂后,不同迭代周期可能會(huì)學(xué)到不同的風(fēng)格分布,導(dǎo)致同幅源域圖像生成的風(fēng)格化圖像可能會(huì)存在較大差異,難以學(xué)到想要的風(fēng)格.在模型收斂后學(xué)到基本相同的風(fēng)格分布或?qū)W到想要的風(fēng)格,是圖像風(fēng)格化研究領(lǐng)域需進(jìn)一步研究的問(wèn)題.

    4)缺乏可解釋性.雖然基于深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化方法可從人類認(rèn)知的角度進(jìn)行風(fēng)格的定義和轉(zhuǎn)換,根據(jù)圖像間的相似性定義風(fēng)格,利用訓(xùn)練完成的深度神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)風(fēng)格轉(zhuǎn)換,有一定的可解釋性.但是,風(fēng)格轉(zhuǎn)換是在由深度神經(jīng)網(wǎng)絡(luò)映射的潛層空間上進(jìn)行,而潛層空間中特征的含義難以解釋,不同方法潛層空間中特征的含義可能會(huì)存在較大的差異,導(dǎo)致這類方法仍不具備可以讓人類能理解的解釋性.

    5)設(shè)計(jì)缺乏理論指導(dǎo).雖然近年來(lái)圖像風(fēng)格化受到學(xué)者們的廣泛關(guān)注,并取得不錯(cuò)成果,但是關(guān)于圖像風(fēng)格化的理論研究卻很少.大部分方法設(shè)計(jì)的初衷都是來(lái)源于人類認(rèn)知過(guò)程中的啟發(fā)或猜測(cè),并無(wú)理論保證或指導(dǎo).

    4.2 未來(lái)展望

    通過(guò)對(duì)當(dāng)前基于深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化方法的梳理及已有相關(guān)方法存在問(wèn)題的分析,可展望未來(lái)圖像風(fēng)格化領(lǐng)域的研究方向.

    1)從數(shù)據(jù)和模型兩個(gè)角度提升圖像風(fēng)格化模型的泛化性.在數(shù)據(jù)層面,一方面增加訓(xùn)練時(shí)的數(shù)據(jù)量,即增加訓(xùn)練數(shù)據(jù)集上圖像的種類數(shù),另一方面對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)操作,如翻轉(zhuǎn)、裁剪等操作,提高數(shù)據(jù)的多樣性.在模型層面,考慮多個(gè)參考圖像在模型映射的特征潛層空間進(jìn)行線性插值等操作,進(jìn)行風(fēng)格特征的融合,使模型能學(xué)習(xí)更多樣的風(fēng)格特征.從數(shù)據(jù)和模型兩個(gè)角度出發(fā),使模型學(xué)習(xí)更多種類的風(fēng)格和風(fēng)格特征,提高風(fēng)格化模型的泛化性.

    2)從網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)兩個(gè)角度解決欠風(fēng)格化和過(guò)度風(fēng)格化問(wèn)題.在網(wǎng)絡(luò)結(jié)構(gòu)層面,采用級(jí)聯(lián)的特征融合結(jié)構(gòu),如將WCT、AdaIN和SANet進(jìn)行相應(yīng)的聯(lián)合,在風(fēng)格化過(guò)程中進(jìn)行更精細(xì)化的特征融合.在損失函數(shù)層面,設(shè)計(jì)損失函數(shù),對(duì)生成的風(fēng)格化圖像的語(yǔ)義內(nèi)容信息和風(fēng)格信息進(jìn)行更嚴(yán)格的約束,如使用多細(xì)粒度的輪廓損失約束風(fēng)格化圖像和原始圖像多細(xì)粒度輪廓的一致性,使用多尺度的風(fēng)格特征損失,約束風(fēng)格化圖像和參考圖像在各層多個(gè)尺度風(fēng)格特征上的一致性.

    3)建立不同風(fēng)格化圖像的聯(lián)系,學(xué)習(xí)想要的風(fēng)格.例如,在模型訓(xùn)練中后期,約束同幅源域圖像在不同迭代周期中生成的風(fēng)格化圖像的一致性,降低差異性,使模型能學(xué)到基本相同的風(fēng)格分布或?qū)W到想要的風(fēng)格,不會(huì)因?yàn)榈芷诘牟煌鴮W(xué)到不同的風(fēng)格分布.

    4)研究可解釋的圖像風(fēng)格化方法.已有多數(shù)圖像風(fēng)格化方法常只從人類認(rèn)知角度給出簡(jiǎn)單的定性解釋,說(shuō)明方法在風(fēng)格轉(zhuǎn)換方面的有效性.雖然風(fēng)格化中間過(guò)程的一些可視化結(jié)果可部分說(shuō)明為什么這些方法會(huì)起作用,但方法中的網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)和訓(xùn)練策略等如何在風(fēng)格化過(guò)程中起作用缺乏可靠的解釋.因此,設(shè)計(jì)可解釋的圖像風(fēng)格化方法,更好地讓風(fēng)格化模型像人一樣學(xué)習(xí)是未來(lái)值得研究的問(wèn)題.

    5)基于參考的圖像風(fēng)格化方法能對(duì)風(fēng)格化過(guò)程進(jìn)行更精確的控制,基于域的圖像風(fēng)格化方法能學(xué)習(xí)更魯棒的風(fēng)格分布,因此可結(jié)合這兩種方法.采用基于域的圖像風(fēng)格化方法中風(fēng)格的定義方式,即風(fēng)格由目標(biāo)域的所有圖像共同定義,但采用基于參考的圖像風(fēng)格化方法的網(wǎng)絡(luò)框架,添加額外的約束.例如,在模型訓(xùn)練時(shí),每次迭代從源域隨機(jī)采樣一幅圖像作為原始圖像,從目標(biāo)域隨機(jī)采樣兩幅圖像作為參考圖像,對(duì)于模型生成的兩幅風(fēng)格化圖像,通過(guò)相應(yīng)的損失函數(shù)約束其風(fēng)格的一致性,即確保模型學(xué)到完全由目標(biāo)域所有圖像共同定義的風(fēng)格.在推理時(shí),對(duì)于同幅原始圖像,從目標(biāo)域隨機(jī)選取一幅圖像作為參考圖像,在一定程度上可保證模型生成的風(fēng)格化圖像風(fēng)格的一致性,學(xué)到更魯棒的風(fēng)格分布.

    猜你喜歡
    風(fēng)格化源域一致性
    多源域適應(yīng)方法綜述
    關(guān)注減污降碳協(xié)同的一致性和整體性
    公民與法治(2022年5期)2022-07-29 00:47:28
    注重教、學(xué)、評(píng)一致性 提高一輪復(fù)習(xí)效率
    IOl-master 700和Pentacam測(cè)量Kappa角一致性分析
    基于參數(shù)字典的多源域自適應(yīng)學(xué)習(xí)算法
    修拉的點(diǎn)的可能性與不可能性
    樸贊郁導(dǎo)演與《親切的金子》
    淺析插畫造型的風(fēng)格化表現(xiàn)
    東方教育(2016年3期)2016-12-14 20:10:11
    結(jié)合原創(chuàng)漫畫《百鬼夜行》談動(dòng)漫的教學(xué)
    戲劇之家(2016年16期)2016-09-28 18:36:29
    基于事件觸發(fā)的多智能體輸入飽和一致性控制
    美女视频免费永久观看网站| 亚洲一码二码三码区别大吗| 欧美精品人与动牲交sv欧美| 午夜影院日韩av| 色播在线永久视频| 国产国语露脸激情在线看| 香蕉丝袜av| 精品一区二区三卡| 欧美日韩av久久| 久久影院123| 欧美成狂野欧美在线观看| 国产欧美亚洲国产| 无遮挡黄片免费观看| 美女国产高潮福利片在线看| 老司机福利观看| 久久天躁狠狠躁夜夜2o2o| 国产欧美日韩一区二区三| 999久久久精品免费观看国产| 法律面前人人平等表现在哪些方面| 亚洲av日韩在线播放| 国产日韩欧美亚洲二区| 咕卡用的链子| 最新在线观看一区二区三区| 捣出白浆h1v1| 天堂俺去俺来也www色官网| 国产高清国产精品国产三级| 在线观看午夜福利视频| 久久天堂一区二区三区四区| 又紧又爽又黄一区二区| 亚洲在线自拍视频| 国产欧美日韩一区二区精品| 欧美激情极品国产一区二区三区| 欧美 日韩 精品 国产| 日日爽夜夜爽网站| 色婷婷av一区二区三区视频| 高清黄色对白视频在线免费看| 亚洲第一青青草原| 人人妻,人人澡人人爽秒播| 欧美激情久久久久久爽电影 | 日日夜夜操网爽| 亚洲免费av在线视频| 久久久久久久久久久久大奶| 黄色女人牲交| 12—13女人毛片做爰片一| 咕卡用的链子| 成人影院久久| 人人妻人人澡人人看| 国产精品久久久久久人妻精品电影| 黄片小视频在线播放| av线在线观看网站| 九色亚洲精品在线播放| 免费观看精品视频网站| 最新在线观看一区二区三区| 国产黄色免费在线视频| 90打野战视频偷拍视频| 国产蜜桃级精品一区二区三区 | 99香蕉大伊视频| 精品国产乱码久久久久久男人| 日韩欧美一区二区三区在线观看 | 亚洲成人国产一区在线观看| 国产高清视频在线播放一区| 老司机深夜福利视频在线观看| 两个人看的免费小视频| 日本撒尿小便嘘嘘汇集6| 母亲3免费完整高清在线观看| 亚洲精品美女久久久久99蜜臀| 午夜影院日韩av| 国产99白浆流出| 久久精品亚洲精品国产色婷小说| 国产日韩一区二区三区精品不卡| 老司机午夜十八禁免费视频| 一级片免费观看大全| 精品人妻熟女毛片av久久网站| 久久国产精品男人的天堂亚洲| 国产99白浆流出| 国产精品国产高清国产av | 国产免费av片在线观看野外av| 国产欧美日韩一区二区三区在线| 757午夜福利合集在线观看| 50天的宝宝边吃奶边哭怎么回事| 99久久精品国产亚洲精品| 成人手机av| 一夜夜www| 女性生殖器流出的白浆| av片东京热男人的天堂| 国产精品偷伦视频观看了| 19禁男女啪啪无遮挡网站| 亚洲国产看品久久| 老熟妇仑乱视频hdxx| 老司机在亚洲福利影院| 色综合婷婷激情| 久久人妻av系列| 欧美黄色淫秽网站| 男人操女人黄网站| 国产精品 国内视频| 露出奶头的视频| 天堂动漫精品| 成年动漫av网址| 日韩欧美国产一区二区入口| 黄网站色视频无遮挡免费观看| 欧美精品啪啪一区二区三区| 丝袜美足系列| 成人18禁高潮啪啪吃奶动态图| 欧美一级毛片孕妇| 欧美日韩一级在线毛片| 最近最新免费中文字幕在线| 国产精品av久久久久免费| 国产一区二区三区综合在线观看| 国产又色又爽无遮挡免费看| 韩国精品一区二区三区| 女同久久另类99精品国产91| 高清欧美精品videossex| 少妇猛男粗大的猛烈进出视频| 久久久久精品国产欧美久久久| 可以免费在线观看a视频的电影网站| 日韩有码中文字幕| 久久九九热精品免费| 国产精品久久视频播放| 欧美日韩亚洲综合一区二区三区_| 欧美激情 高清一区二区三区| 国产淫语在线视频| 久久人人97超碰香蕉20202| 亚洲欧美激情在线| 老熟妇乱子伦视频在线观看| 久久精品国产综合久久久| 国产99久久九九免费精品| 高清在线国产一区| 欧美日韩亚洲国产一区二区在线观看 | 欧美日韩黄片免| 国产精品98久久久久久宅男小说| av一本久久久久| 首页视频小说图片口味搜索| 国产麻豆69| 日本一区二区免费在线视频| 国产av又大| 最新的欧美精品一区二区| 亚洲av欧美aⅴ国产| 亚洲av第一区精品v没综合| 精品国产一区二区三区久久久樱花| 久久久久精品人妻al黑| 国产蜜桃级精品一区二区三区 | 亚洲人成伊人成综合网2020| 99香蕉大伊视频| 亚洲熟女精品中文字幕| 黄色成人免费大全| 不卡av一区二区三区| 欧美国产精品一级二级三级| 国产成人欧美在线观看 | 欧美人与性动交α欧美软件| 真人做人爱边吃奶动态| 亚洲 欧美一区二区三区| 欧美久久黑人一区二区| √禁漫天堂资源中文www| 自拍欧美九色日韩亚洲蝌蚪91| 性少妇av在线| 性少妇av在线| 免费不卡黄色视频| 午夜老司机福利片| 欧美日韩福利视频一区二区| 国产av又大| 波多野结衣一区麻豆| 高清毛片免费观看视频网站 | 国产一区有黄有色的免费视频| 婷婷精品国产亚洲av在线 | 久久精品亚洲av国产电影网| 亚洲国产欧美一区二区综合| 高清黄色对白视频在线免费看| 天堂中文最新版在线下载| 国产精品自产拍在线观看55亚洲 | 亚洲精品久久午夜乱码| 黄色怎么调成土黄色| 久久人人爽av亚洲精品天堂| 9色porny在线观看| 久久人妻av系列| 夜夜躁狠狠躁天天躁| 精品国产乱子伦一区二区三区| 精品一区二区三区av网在线观看| 黄片播放在线免费| 精品国内亚洲2022精品成人 | 久久久精品区二区三区| 亚洲欧美日韩另类电影网站| av免费在线观看网站| 变态另类成人亚洲欧美熟女 | 免费观看人在逋| 亚洲七黄色美女视频| 人成视频在线观看免费观看| 亚洲aⅴ乱码一区二区在线播放 | 好看av亚洲va欧美ⅴa在| 欧美日韩国产mv在线观看视频| 黑人操中国人逼视频| 国产成人精品久久二区二区免费| 韩国av一区二区三区四区| 国产在视频线精品| 757午夜福利合集在线观看| 手机成人av网站| 九色亚洲精品在线播放| 亚洲精品成人av观看孕妇| 午夜两性在线视频| 亚洲中文字幕日韩| 在线观看www视频免费| 国产99白浆流出| 精品一区二区三区视频在线观看免费 | 欧美精品亚洲一区二区| 曰老女人黄片| 黄色成人免费大全| 精品国产亚洲在线| 悠悠久久av| 亚洲 国产 在线| 午夜福利视频在线观看免费| 亚洲国产毛片av蜜桃av| 亚洲视频免费观看视频| 高清视频免费观看一区二区| 国产午夜精品久久久久久| 久久久国产精品麻豆| 香蕉丝袜av| a级毛片在线看网站| 国产色视频综合| 18禁黄网站禁片午夜丰满| 亚洲免费av在线视频| 国产男女内射视频| 最近最新中文字幕大全电影3 | 国产熟女午夜一区二区三区| 国产精品美女特级片免费视频播放器 | 九色亚洲精品在线播放| 欧美成人午夜精品| 美女视频免费永久观看网站| 日韩制服丝袜自拍偷拍| 亚洲国产精品sss在线观看 | 国产成人精品久久二区二区免费| 中文字幕精品免费在线观看视频| 欧美日韩精品网址| 精品国产亚洲在线| 久久精品国产a三级三级三级| 免费少妇av软件| 欧美激情 高清一区二区三区| 国产一区二区三区综合在线观看| 亚洲性夜色夜夜综合| 日韩欧美免费精品| 亚洲一码二码三码区别大吗| 久久久久国内视频| 无人区码免费观看不卡| 久久草成人影院| 男女高潮啪啪啪动态图| 夜夜躁狠狠躁天天躁| 亚洲av成人一区二区三| 久久精品亚洲精品国产色婷小说| av免费在线观看网站| 悠悠久久av| 久久久国产欧美日韩av| 久热这里只有精品99| 丰满的人妻完整版| 视频区欧美日本亚洲| 免费人成视频x8x8入口观看| 香蕉国产在线看| 日韩一卡2卡3卡4卡2021年| 少妇的丰满在线观看| svipshipincom国产片| 黑人猛操日本美女一级片| 中文字幕av电影在线播放| 超碰成人久久| 久久国产精品影院| 欧美 日韩 精品 国产| 搡老岳熟女国产| 91精品三级在线观看| 叶爱在线成人免费视频播放| 久久久久国内视频| 极品人妻少妇av视频| 国产人伦9x9x在线观看| 国产1区2区3区精品| 曰老女人黄片| 18禁观看日本| 日韩欧美一区视频在线观看| 久久久久精品人妻al黑| 久久99一区二区三区| 一区在线观看完整版| 国产精品欧美亚洲77777| xxxhd国产人妻xxx| 美女国产高潮福利片在线看| 久久久久久人人人人人| 精品国产一区二区三区四区第35| 老汉色av国产亚洲站长工具| 久久人妻熟女aⅴ| 国产欧美日韩一区二区精品| 99久久综合精品五月天人人| 久久久久久久久免费视频了| 欧美性长视频在线观看| 成人av一区二区三区在线看| 无遮挡黄片免费观看| 亚洲熟妇中文字幕五十中出 | 国产精品一区二区在线观看99| 亚洲黑人精品在线| 国产麻豆69| 国产日韩一区二区三区精品不卡| 一本综合久久免费| 一区二区三区激情视频| videos熟女内射| 国产欧美日韩精品亚洲av| 精品免费久久久久久久清纯 | 热99国产精品久久久久久7| 亚洲精品成人av观看孕妇| 免费黄频网站在线观看国产| 亚洲av成人av| 久久精品91无色码中文字幕| 久久久精品国产亚洲av高清涩受| 中文字幕最新亚洲高清| 好看av亚洲va欧美ⅴa在| 久久婷婷成人综合色麻豆| 国产主播在线观看一区二区| 一个人免费在线观看的高清视频| 嫁个100分男人电影在线观看| 可以免费在线观看a视频的电影网站| 欧美最黄视频在线播放免费 | 国产区一区二久久| 国产高清国产精品国产三级| 久久精品亚洲熟妇少妇任你| 男人舔女人的私密视频| 丰满的人妻完整版| 亚洲七黄色美女视频| x7x7x7水蜜桃| 黄色a级毛片大全视频| 欧美精品亚洲一区二区| 免费黄频网站在线观看国产| 国产三级黄色录像| 这个男人来自地球电影免费观看| 久久草成人影院| 精品国产国语对白av| 女人被躁到高潮嗷嗷叫费观| 午夜免费观看网址| 大型av网站在线播放| 热99re8久久精品国产| 久久国产精品人妻蜜桃| 9热在线视频观看99| 无遮挡黄片免费观看| 亚洲av日韩精品久久久久久密| 成人手机av| www.熟女人妻精品国产| 老司机亚洲免费影院| 亚洲av成人不卡在线观看播放网| 亚洲成人国产一区在线观看| av网站免费在线观看视频| 国产成人av教育| 亚洲精品久久午夜乱码| 黄网站色视频无遮挡免费观看| 国产精品香港三级国产av潘金莲| 国内毛片毛片毛片毛片毛片| 一级作爱视频免费观看| 欧美久久黑人一区二区| 变态另类成人亚洲欧美熟女 | 国产单亲对白刺激| 亚洲午夜理论影院| 久久久久久人人人人人| 99re6热这里在线精品视频| 日韩人妻精品一区2区三区| 91麻豆av在线| 中文字幕精品免费在线观看视频| 国产深夜福利视频在线观看| 欧美日本中文国产一区发布| 99riav亚洲国产免费| av一本久久久久| av免费在线观看网站| av在线播放免费不卡| 国产伦人伦偷精品视频| aaaaa片日本免费| 亚洲av成人一区二区三| 伊人久久大香线蕉亚洲五| 国产欧美亚洲国产| 波多野结衣一区麻豆| 亚洲情色 制服丝袜| 建设人人有责人人尽责人人享有的| 丰满的人妻完整版| 中亚洲国语对白在线视频| 夫妻午夜视频| av免费在线观看网站| 国产不卡一卡二| 男女之事视频高清在线观看| 免费不卡黄色视频| 欧美乱码精品一区二区三区| 日本五十路高清| 大陆偷拍与自拍| 国产成人免费观看mmmm| 欧美乱码精品一区二区三区| 十八禁高潮呻吟视频| 91成年电影在线观看| 久久久精品国产亚洲av高清涩受| 国产成人免费无遮挡视频| 亚洲国产欧美日韩在线播放| 日本黄色日本黄色录像| 亚洲色图 男人天堂 中文字幕| 精品国产乱子伦一区二区三区| 老汉色∧v一级毛片| 成年人免费黄色播放视频| 久久精品亚洲av国产电影网| 久久久久久久久免费视频了| 国产精品久久久久久精品古装| 亚洲熟妇中文字幕五十中出 | 久久精品成人免费网站| 国产精品 欧美亚洲| 久久国产精品影院| 亚洲第一青青草原| 国产av又大| 日日摸夜夜添夜夜添小说| 久久人人97超碰香蕉20202| 亚洲av电影在线进入| 国产97色在线日韩免费| 免费日韩欧美在线观看| 久久精品熟女亚洲av麻豆精品| av超薄肉色丝袜交足视频| 欧美精品av麻豆av| 不卡一级毛片| 亚洲精品美女久久av网站| 无人区码免费观看不卡| 咕卡用的链子| 欧美在线黄色| 麻豆av在线久日| 亚洲在线自拍视频| 男人舔女人的私密视频| 国产精品av久久久久免费| 精品午夜福利视频在线观看一区| 久久久久国产精品人妻aⅴ院 | 在线av久久热| 一级a爱视频在线免费观看| 日韩精品免费视频一区二区三区| 麻豆av在线久日| 国产在线精品亚洲第一网站| 纯流量卡能插随身wifi吗| 天天添夜夜摸| 亚洲精品乱久久久久久| 国产精品99久久99久久久不卡| a级片在线免费高清观看视频| 国产精品成人在线| 精品国内亚洲2022精品成人 | 捣出白浆h1v1| 很黄的视频免费| 亚洲国产精品合色在线| 亚洲成人国产一区在线观看| 欧美色视频一区免费| netflix在线观看网站| 黑人巨大精品欧美一区二区mp4| 欧美黄色片欧美黄色片| 女警被强在线播放| 国产亚洲精品一区二区www | 欧美丝袜亚洲另类 | 最近最新中文字幕大全免费视频| 欧美另类亚洲清纯唯美| 欧美日韩黄片免| 日韩视频一区二区在线观看| 国产亚洲欧美精品永久| 日本黄色视频三级网站网址 | 亚洲精品国产色婷婷电影| 免费在线观看影片大全网站| 极品教师在线免费播放| √禁漫天堂资源中文www| 国产成人欧美| 国产男女超爽视频在线观看| 成年女人毛片免费观看观看9 | 丁香欧美五月| 国产精华一区二区三区| 看黄色毛片网站| avwww免费| 麻豆国产av国片精品| 午夜福利影视在线免费观看| 精品人妻在线不人妻| 99精品久久久久人妻精品| 午夜福利影视在线免费观看| 久久中文看片网| 一进一出抽搐动态| 国产精品乱码一区二三区的特点 | √禁漫天堂资源中文www| 飞空精品影院首页| 亚洲欧美一区二区三区黑人| 多毛熟女@视频| 999精品在线视频| 欧美日韩乱码在线| 9色porny在线观看| 午夜福利视频在线观看免费| a在线观看视频网站| 亚洲av成人一区二区三| 午夜福利一区二区在线看| 黄色片一级片一级黄色片| 免费日韩欧美在线观看| www.999成人在线观看| 久久草成人影院| 亚洲精品国产区一区二| 欧美日韩亚洲综合一区二区三区_| 伦理电影免费视频| 99国产极品粉嫩在线观看| 久久精品成人免费网站| 色播在线永久视频| 久久久精品免费免费高清| bbb黄色大片| 一级黄色大片毛片| 精品久久久久久久毛片微露脸| 国产片内射在线| 女人高潮潮喷娇喘18禁视频| 高清毛片免费观看视频网站 | 国产麻豆69| 一边摸一边做爽爽视频免费| 极品教师在线免费播放| 欧美久久黑人一区二区| 亚洲欧美色中文字幕在线| 一区在线观看完整版| 欧美日韩精品网址| 久久国产精品大桥未久av| 最新美女视频免费是黄的| 欧美精品高潮呻吟av久久| 欧美色视频一区免费| 国产精品久久视频播放| 人妻丰满熟妇av一区二区三区 | 大陆偷拍与自拍| 精品国产乱子伦一区二区三区| 国产真人三级小视频在线观看| av福利片在线| 亚洲精品一卡2卡三卡4卡5卡| 免费高清在线观看日韩| 日韩欧美在线二视频 | 久久午夜亚洲精品久久| 久久久久国产精品人妻aⅴ院 | 国产在线精品亚洲第一网站| 免费少妇av软件| 久久久精品国产亚洲av高清涩受| 亚洲熟女毛片儿| 久久久久久久精品吃奶| 国产成人精品久久二区二区免费| 欧美老熟妇乱子伦牲交| 精品午夜福利视频在线观看一区| 三上悠亚av全集在线观看| 最新的欧美精品一区二区| 热99国产精品久久久久久7| 欧美日韩中文字幕国产精品一区二区三区 | 在线天堂中文资源库| √禁漫天堂资源中文www| 精品人妻1区二区| 波多野结衣一区麻豆| 国产精品免费视频内射| 免费女性裸体啪啪无遮挡网站| 日日摸夜夜添夜夜添小说| 欧美激情 高清一区二区三区| 成人三级做爰电影| 女人高潮潮喷娇喘18禁视频| 国产激情欧美一区二区| 精品视频人人做人人爽| av片东京热男人的天堂| 飞空精品影院首页| 欧美亚洲 丝袜 人妻 在线| 激情在线观看视频在线高清 | 一级毛片精品| 美女高潮喷水抽搐中文字幕| 国产成人啪精品午夜网站| 亚洲国产精品sss在线观看 | 亚洲国产精品sss在线观看 | 国产一区二区激情短视频| xxx96com| 一进一出好大好爽视频| 欧美日韩亚洲国产一区二区在线观看 | 又黄又粗又硬又大视频| 午夜福利免费观看在线| 精品国内亚洲2022精品成人 | 国产成人精品无人区| 一本综合久久免费| 人人妻人人澡人人爽人人夜夜| 免费在线观看日本一区| 人人妻人人爽人人添夜夜欢视频| 男女高潮啪啪啪动态图| 精品视频人人做人人爽| 久久草成人影院| 无遮挡黄片免费观看| 日本vs欧美在线观看视频| 日韩制服丝袜自拍偷拍| 欧美日韩福利视频一区二区| 久久婷婷成人综合色麻豆| 国产精品成人在线| 在线观看免费视频日本深夜| 亚洲aⅴ乱码一区二区在线播放 | 免费女性裸体啪啪无遮挡网站| 精品国产国语对白av| 一个人免费在线观看的高清视频| xxxhd国产人妻xxx| 99热只有精品国产| 制服人妻中文乱码| 亚洲视频免费观看视频| www.熟女人妻精品国产| 久久久精品免费免费高清| 欧美另类亚洲清纯唯美| 午夜福利欧美成人| 久久久久国产一级毛片高清牌| 波多野结衣av一区二区av| 免费在线观看亚洲国产| 亚洲专区中文字幕在线| 99精品久久久久人妻精品| 999精品在线视频| 免费观看a级毛片全部| 999精品在线视频| 波多野结衣一区麻豆| 亚洲精品国产区一区二| 成人黄色视频免费在线看| 亚洲精品国产区一区二| 国产色视频综合| 亚洲精品国产区一区二| 视频在线观看一区二区三区| 亚洲欧美精品综合一区二区三区| 亚洲五月天丁香| 亚洲欧美日韩另类电影网站| 久久久久国内视频| 日本黄色视频三级网站网址 | 曰老女人黄片| 一级,二级,三级黄色视频| 亚洲欧美日韩另类电影网站| 18禁裸乳无遮挡免费网站照片 | av网站在线播放免费| 欧美在线黄色| 国产精品亚洲av一区麻豆| 女人高潮潮喷娇喘18禁视频| 99久久精品国产亚洲精品| 无遮挡黄片免费观看| 婷婷丁香在线五月|