鄧盈盈 唐帆 董未名
摘要 圖像藝術(shù)風(fēng)格化作為一個正在蓬勃發(fā)展的領(lǐng)域被越來越多的人熟知,也引起了眾多學(xué)者的研究興趣.本文總結(jié)了圖片風(fēng)格化的發(fā)展現(xiàn)狀,分析了不同風(fēng)格化方法的特點,指出了目前風(fēng)格化方法的缺點,總結(jié)了圖片風(fēng)格化的發(fā)展趨勢,為進(jìn)一步研究圖片風(fēng)格化提供了方向.關(guān)鍵詞圖像風(fēng)格化;筆觸;生成模型
中圖分類號 TP391.41;TP18
文獻(xiàn)標(biāo)志碼 A
1 圖像藝術(shù)風(fēng)格化概念
隨著圖片處理技術(shù)的發(fā)展,人們對圖片美化有了更多的想法和要求.例如,人們希望自己拍攝的圖像具有藝術(shù)大師畫作的風(fēng)格,如圖1所示的梵高的星空等的效果.目前,PhotoShop等專業(yè)的圖像處理軟件,也可以用于圖片的藝術(shù)風(fēng)格改造.但對于普通的用戶來說,PS并不是一個簡單快捷的工具,而且采用人工創(chuàng)作必定會消耗大量的人力、時間、金錢,因此研究人員提出了風(fēng)格化的概念.圖像風(fēng)格化又可以稱為風(fēng)格遷移,是指讓計算機(jī)自動完成圖像風(fēng)格的轉(zhuǎn)移,將一張具有藝術(shù)特色的圖像的風(fēng)格遷移到一張自然圖像上,使原自然圖像保留原始內(nèi)容的同時具有獨特的藝術(shù)風(fēng)格,如卡通、漫畫、油畫、水彩、水墨等風(fēng)格.
對于圖像風(fēng)格化的研究,使照片編輯、平面設(shè)計和動漫制作等領(lǐng)域有了重大突破,可以幫助非專業(yè)用戶自由創(chuàng)作出帶有藝術(shù)風(fēng)格的作品.
2 傳統(tǒng)圖像藝術(shù)風(fēng)格化方法
傳統(tǒng)圖像藝術(shù)風(fēng)格化的方法可以分為3類:基于筆觸的風(fēng)格化、基于紋理合成的風(fēng)格化和對物理過程建模的風(fēng)格化.
基于筆觸的方法在油畫風(fēng)格化中應(yīng)用較多.油畫中有一類風(fēng)格筆觸明顯,可清晰看見筆觸的寬度、長度和走向.Hertzmann[1]使用多種樣條筆觸合成圖像,筆觸根據(jù)原圖像顏色進(jìn)行選擇,樣條筆觸方向與圖像的梯度方向?qū)R.Zeng等[2]提出利用圖像的語義信息選擇筆觸和決定筆觸位置方向的方法,根據(jù)區(qū)域和物體的標(biāo)識等信息從筆觸庫中選擇合適的筆觸,依據(jù)方向場進(jìn)行繪制.Luo等[3]使用條件隨機(jī)場優(yōu)化框架,結(jié)合從輸入圖像中提取的法向圖和獲得光照估計方向后由法向圖和反射率圖組成的訓(xùn)練集,合成新的具有浮雕風(fēng)格的法向圖.Lu等[4]提出了一種不同風(fēng)格筆觸的生成方法,處理筆觸的拖尾、交叉和重疊時顏色混合的問題.
有些研究工作將圖像風(fēng)格化轉(zhuǎn)化為紋理合成問題.Wang等[5]由人工從參考圖像樣例中提取典型的筆觸用于合成圖像,因此每次生成的圖像和用戶的采集相關(guān).算法思想是先將圖像進(jìn)行分割,計算每個分割塊的方向場,然后使用紋理塊的層次結(jié)構(gòu)和圖像模板合成不同分割塊的方向紋理.Brooks[6]根據(jù)參考圖像中的顏色和紋理信息把輸入圖像變?yōu)榛ù安AэL(fēng)格的圖像.Bousseau等[7]提出雙向紋理平流方法來實現(xiàn)視頻的水彩畫,對整個視頻在相反方向上提取紋理平流場,并在像素級別上優(yōu)化兩者的組合.Frigo等[8]提出了一種基于patch分割重構(gòu)的非監(jiān)督圖像風(fēng)格化方法.首先,運用四叉樹對原圖進(jìn)行分割,然后找到風(fēng)格圖片中與之匹配的patch;其次,運用雙線性混合消除縫線,最后進(jìn)行整體的顏色遷移,最終得到風(fēng)格化后的圖片.
基于建模的方式也被應(yīng)用于圖像風(fēng)格化.Baxter等[9]利用毛筆書寫時的變形數(shù)據(jù),對毛筆的繪制過程進(jìn)行建模.Wang等[10]對彩色墨水的擴(kuò)散進(jìn)行建模,將水和墨的擴(kuò)散分開考慮,使用KM理論處理像素混合顏色,而且考慮了紙的特性和重力因素.Zhang等[11]使用馬爾科夫隨機(jī)場將圖像風(fēng)格傳遞過程規(guī)劃為一個整體優(yōu)化問題,并使用置信傳播算法進(jìn)行求解.Wang等[12]通過聯(lián)合使用顏色傳遞、基于突出度的多層次繪制、手顫模擬以及濕畫法模擬等技術(shù)將圖像合成為水彩畫的效果,該方法仍然無法自由控制水彩的具體風(fēng)格.Kim等[13]提出了創(chuàng)建雙目立體數(shù)字畫作的方法.Chen等[14]構(gòu)建了可模擬畫刷、油彩和畫布之間交互的實時繪畫系統(tǒng),方便用戶自由創(chuàng)作數(shù)字藝術(shù)作品.
3 基于生成模型的圖像藝術(shù)風(fēng)格化
近些年來,“人工智能”一詞越來越頻繁地出現(xiàn)在大眾面前.眾所周知,人工智能就是讓機(jī)器完成原來只有人類才能完成的任務(wù).人工智能的核心是算法,而深度學(xué)習(xí)是形成算法的重要過程.深度學(xué)習(xí)的目的是模擬大腦神經(jīng)感知外部世界,因此對于深度學(xué)習(xí)的研究重點一直放在人工神經(jīng)網(wǎng)絡(luò)方面.而神經(jīng)網(wǎng)絡(luò)的研究使得語音、圖像處理領(lǐng)域有了長足發(fā)展.一些學(xué)者將神經(jīng)網(wǎng)絡(luò)運用到圖像風(fēng)格化上來,用卷積的方法提取圖像在神經(jīng)網(wǎng)絡(luò)各個層的內(nèi)容和風(fēng)格信息.目前基于生成模型的圖像藝術(shù)風(fēng)格化方法是主要的研究熱點.Gatys等[15]利用卷積神經(jīng)網(wǎng)絡(luò)提取圖像不同層級的特征,使用低層次響應(yīng)描述圖像的風(fēng)格,使用高層次響應(yīng)描述圖像的內(nèi)容,使用梯度下降調(diào)整輸入響應(yīng),在特定層次獲得特定的響應(yīng),經(jīng)多次迭代之后,輸入響應(yīng)即為特定風(fēng)格和內(nèi)容的圖像,其效果如圖2所示.該方法的缺點是速度很慢.Johnson等[16]提出了基于感知損失函數(shù)的實時風(fēng)格轉(zhuǎn)換方法,通過使用感知損失替代像素?fù)p失,使用預(yù)訓(xùn)練的VGG模型簡化損失計算,并增加一個轉(zhuǎn)換網(wǎng)絡(luò)(網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示),從而直接生成風(fēng)格化圖像,大大提高了訓(xùn)練速度,縮短圖片產(chǎn)生的時間.Li等[17]提出了馬爾科夫生成對抗網(wǎng)絡(luò)用于訓(xùn)練生成網(wǎng)絡(luò)(網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示),對抗生成網(wǎng)絡(luò)是最近比較火的網(wǎng)絡(luò)結(jié)構(gòu)之一.生成對抗網(wǎng)絡(luò)包含2個部分,對抗網(wǎng)絡(luò)盡可能判斷出輸入的圖片是生成網(wǎng)絡(luò)產(chǎn)生的還是一張真實的圖片,生成網(wǎng)絡(luò)使產(chǎn)生的結(jié)果盡可能逼真,令對抗網(wǎng)絡(luò)信以為真.2個網(wǎng)絡(luò)相互競爭,使兩者都達(dá)到最好的效果.對抗網(wǎng)絡(luò)用于辨別從合成圖像取樣神經(jīng)碎片是否為真,對于每一個神經(jīng)碎片它輸出分類為s(1表示為真),然后最小化紋理損失公式,通過損失反轉(zhuǎn)使紋理損失最小.再由生成網(wǎng)絡(luò)將原圖轉(zhuǎn)換成一張風(fēng)格化后的圖片,從而實現(xiàn)高效紋理合成圖像藝術(shù)風(fēng)格化.Frigo等[18]將復(fù)雜的圖像風(fēng)格概念分解為局部紋理遷移和全局顏色遷移,以此構(gòu)建了一個無監(jiān)督的圖像風(fēng)格化方法.Ulyanov等[19]提出了一種前饋卷積神經(jīng)網(wǎng)絡(luò),產(chǎn)生大量任意尺寸的相同紋理,將給定照片的藝術(shù)風(fēng)格遷移到任意圖片上,該方法引入一個用于風(fēng)格轉(zhuǎn)移的生成網(wǎng)絡(luò),大大減少迭代的次數(shù),提高了訓(xùn)練速度,縮短圖片生成的時間.Liao等[20]提出了一種在具有相似語義結(jié)構(gòu)和較大外觀差異的圖像之間進(jìn)行視覺屬性遷移的方法.該方法利用從深度卷積神經(jīng)網(wǎng)絡(luò)提取的特征在2張輸入圖像之間找到語義上有意義的稠密對應(yīng)關(guān)系來構(gòu)建新的“圖像類比”方法,進(jìn)而使用一種由粗到細(xì)的策略來建立最近鄰域并生成風(fēng)格化結(jié)果.Zhu等[21]提出了一種在非配對圖像集之間進(jìn)行轉(zhuǎn)換的方法.該方法通過引進(jìn)Cycle Consistency的概念,在原本的生成式對抗網(wǎng)絡(luò)增加一個generator,將產(chǎn)生的目標(biāo)圖像再轉(zhuǎn)回原本的源領(lǐng)域,并且限制轉(zhuǎn)換回來的圖像要與源圖像越接近越好,如此便可在目標(biāo)域產(chǎn)生對應(yīng)的圖像.然而,該方法仍然需要在2個域分享類似的語義內(nèi)容才能成功.Chen等[22]給圖像風(fēng)格提供了一個明顯的表示,使得網(wǎng)絡(luò)在訓(xùn)練好之后可以從內(nèi)容中完全分離出樣式.該方法不僅可以同時訓(xùn)練多個共享自編碼的風(fēng)格,還可以在不改變自編碼的情況下,增量學(xué)習(xí)一個新的風(fēng)格.Dumoulin等[23]在文獻(xiàn)[16]的基礎(chǔ)上提出了更靈活的風(fēng)格化模型,提出了條件實例正則化的方法來混合多種不同的畫風(fēng),從而學(xué)習(xí)到風(fēng)格的表示.這種風(fēng)格表示學(xué)習(xí)的方法更有助于發(fā)現(xiàn)新的風(fēng)格.
4 人像藝術(shù)風(fēng)格化
人像藝術(shù)風(fēng)格化是圖像風(fēng)格化中的一個重要研究問題,盡管Gatys等[15]的算法已可以進(jìn)行通用圖像的風(fēng)格轉(zhuǎn)移,但它還不適用于頭像的風(fēng)格轉(zhuǎn)移.由于空間約束不強(qiáng),直接應(yīng)用Gatys等[15]的方法可能會使人物頭部變形.對于這種類型的風(fēng)格轉(zhuǎn)移它是不可接受的.由于人的視覺系統(tǒng)對臉部細(xì)微的不正常都很敏感,自動的肖像繪畫是一項巨大的挑戰(zhàn).很多研究工作采用統(tǒng)計學(xué)習(xí)模型人臉風(fēng)格化的規(guī)則.Chen等[24]采用非均勻的馬爾可夫隨機(jī)場描述簡筆線條和真實人臉圖像的統(tǒng)計關(guān)系,并使用非均勻無參采樣技術(shù)進(jìn)行求解.生成卡通畫分為2個步驟,先生成描述線條的矢量圖,然后使用已有的筆觸合成最后的圖像,缺點是不同人像上的筆觸單一,且頭發(fā)部分并未實現(xiàn)自動化以及缺乏紋理信息.Chen等[25]提出了基于五官拼貼的人臉卡通生成方法,其結(jié)果非常依賴于人臉五官輪廓線條的精度,且筆觸渲染方法也很難推廣到其他風(fēng)格的人臉卡通畫框架.Tseng等[26]關(guān)注風(fēng)格化人臉的夸張效果并同時保證生成人臉和輸入人臉的相似性.Selim等[27]提出了頭像繪畫技術(shù),當(dāng)前的技術(shù)不能很好捕捉畫作的紋理,導(dǎo)致面部結(jié)構(gòu)變形.基于圖像類比限制了他們的領(lǐng)域的適用性.此技術(shù)使用一個卷積神經(jīng)網(wǎng)絡(luò)基于新穎的空間約束的方法.這種方法在轉(zhuǎn)移繪畫風(fēng)格的同時可以保持面部結(jié)構(gòu)的完整性,其風(fēng)格化結(jié)果如圖5所示.Zhao等[28]提出了一個基于樣本的從照片生成肖像繪畫的方法,采用的方法主要是從預(yù)先由藝術(shù)家繪制的肖像模板中傳遞筆觸.Wang等[29]同樣從樣本中遷移筆觸,但他們學(xué)習(xí)了未繪制的樣本圖像和筆觸屬性之間的關(guān)系.Zhang等[30]提出了一個數(shù)據(jù)驅(qū)動的人像卡通化生成框架,給定一幅人臉圖像,可生成多種風(fēng)格的卡通頭像.卡通頭像生成分為2個階段:人臉解析和卡通化生成.人臉解析包括人臉檢測、人臉配準(zhǔn)、性別檢測、眼鏡檢測等.利用人臉檢測和人臉配準(zhǔn)技術(shù),定位人臉圖像中的器官,提取器官并對齊.對輸入圖像中的每個真實器官,從建立的數(shù)據(jù)庫中優(yōu)化選擇相應(yīng)的卡通器官,并通過學(xué)習(xí)藝術(shù)家拼貼卡通頭像的策略對其進(jìn)行優(yōu)化調(diào)整,從而組合生成卡通頭像.
近年來人臉?biāo)孛韬铣梢驳玫搅溯^多關(guān)注,比較常用的思想是利用馬爾可夫隨機(jī)場的平滑性將訓(xùn)練集中的圖像和素描對分成重疊的圖像塊進(jìn)行合成,這些基于圖像塊的方法在人臉?biāo)孛柚械玫綇V泛應(yīng)用得益于其局部人臉特征的表述能力[31].Wang等[32]采用馬爾可夫隨機(jī)場進(jìn)行建模,把真實人臉的小塊作為隱節(jié)點,把可能的素描塊作為顯節(jié)點.Li等[33]通過融合從特定訓(xùn)練集中獲取的引導(dǎo)圖像內(nèi)容進(jìn)行卡通畫人臉合成,但其使用的映射規(guī)則是否有效和能否取得高質(zhì)量的合成結(jié)果無法論證.Wang等[34]同樣采用馬爾可夫隨機(jī)場從訓(xùn)練集中選擇最合適的近鄰以合成目標(biāo)圖像塊.Zhang等[35]從圖像塊中學(xué)習(xí)特征詞典并在搜索過程中將圖像塊替換為一組稀疏參數(shù)表示.Zhang等[36]建了只通過訓(xùn)練單一模板來合成人臉?biāo)孛璧目蚣?,使用多特征?yōu)化模型來選擇備選圖像塊.基于馬爾科夫隨機(jī)場的方法的缺點是其忽略了人臉圖像的全局信息,如描述人臉五官關(guān)系的幾何信息,從而導(dǎo)致很多全局性夸張化的相關(guān)信息難以在合成圖像中體現(xiàn).使用加權(quán)平均的方法來處理圖像塊重疊區(qū)域的機(jī)制會導(dǎo)致結(jié)果中出現(xiàn)重疊變形或者過度平滑的現(xiàn)象.另外,該方法需要較長的計算時間和較大的存儲空間,這也限制了其實際應(yīng)用.
5 目前圖像風(fēng)格化存在問題
以上的風(fēng)格化方法主要存在以下幾個問題.首先,藝術(shù)風(fēng)格化方法大多是基于單張圖像,比如從單張圖像中選擇典型的筆觸,在彩色玻璃中從單張圖像中尋找顏色和紋理最近的分割塊.然而,單張圖像往往無法代表一種風(fēng)格,使用單張圖像來描述一類圖像的共性是不合適的.其次,風(fēng)格化中較少考慮圖像的語義信息.大多的方法是根據(jù)圖像中提取的低層特征比如分割塊的方向場決定筆觸的位置,很少嘗試對圖像的語義信息進(jìn)行建模以及考慮圖像中的內(nèi)容信息.再次,圖像中的重要部分和非重要部分缺乏區(qū)分.風(fēng)格化在一定程度上對圖形進(jìn)行了抽象,比如剪影、素描、優(yōu)化等,需要考慮圖像中不同部分的重要性.文獻(xiàn)[30]做了這方面的嘗試,在皮膚、人臉上使用比較小的筆觸,在其他不太重要的風(fēng)景上使用大的筆觸,這是對圖像中不同內(nèi)容重要性進(jìn)行了區(qū)分的例子.最后,以上方法皆沒有對風(fēng)格化的結(jié)果如何進(jìn)行分析,結(jié)果好壞全靠人的主觀評斷.
6 結(jié)論
通過分析現(xiàn)有風(fēng)格化的方法,發(fā)現(xiàn)對目標(biāo)風(fēng)格圖片的筆觸、紋理、顏色等風(fēng)格信息的提取是圖像風(fēng)格化的關(guān)鍵,而人工神經(jīng)網(wǎng)絡(luò)的引入使人們對圖像風(fēng)格化的研究有了新的方向:卷積神經(jīng)網(wǎng)絡(luò)可以用來提取圖片的語義信息,更好地表達(dá)內(nèi)容以及風(fēng)格特征;生成對抗網(wǎng)絡(luò)的引入可以提高風(fēng)格化的速度.因此,在未來的關(guān)于風(fēng)格化的研究中,可以不斷嘗試使用人工神經(jīng)網(wǎng)絡(luò)進(jìn)行風(fēng)格化處理,更多地考慮圖片的語義信息以及不同部分的重要性.
參考文獻(xiàn)
References
[1] Hertzmann A.Painterly rendering with curved brush strokes of multiple sizes[C]∥Proceedings of the 25th Annual Conference on Computer Graphics and Interactive Techniques,1998:453-460
[2] Zeng K,Zhao M T,Xiong C M,et al.From image parsing to painterly rendering[J].ACM Transactions on Graphics,2009,29(1):2
[3] Luo W,Lu Z,Wang X G,et al.Synthesizing oil painting surface geometry from a single photograph[C]∥IEEE Conference on Computer Vision and Pattern Recognition,2012:885-892
[4] Lu J,Barnes C,Diverdi S,et al.Realbrush:Painting with examples of physical media[J].ACM Transactions on Graphics,2013,32(4):117
[5] Wang B,Wang W P,Yang H P,et al.Efficient example-based painting and synthesis of 2D directional texture[J].IEEE Transactions on Visualization and Computer Graphics,2004,10(3):266-277
[6] Brooks S.Image-based stained glass[J].IEEE Transactions on Visualization and Computer Graphics,2006,12(6):1547-1558
[7] Bousseau A,Neyret F,Thollot J,et al.Video water colorization using bidirectional texture advection[J].ACM Transactions on Graphics,2007,26(3):104
[8] Frigo O,Sabater N,Delon J,et al.Split and match:Example-based adaptive patch sampling for unsupervised style transfer[C]∥IEEE Conference on Computer Vision and Pattern Recognition,2016:2338-2351
[9] Baxter W,Govindaraju N.Simple data-driven modeling of brushes[C]∥ACMSIGG RAPH Symposium on Interactive 3D Graphics and Games,2010:135-142
[10] Wang C M,Wang R J.Image-based color ink diffusion rendering[J].IEEE Transactions on Visualization and Computer Graphics,2007,13(2):235-246
[11] Zhang W,Cao C,Chen S F,et al.Style transfer via image component analysis[J].IEEE Transactions on Multimedia,2013,15(7):1594-1601
[12] Wang M Y,Wang B,F(xiàn)ei Y,et al.Towards photo watercolorization with artistic verisimilitude[J].IEEE Transactions Visualization and Computer Graphics,2014,20(10):1451-1460
[13] Kim Y,Winnemoller H,Lee S.WYSIWYG stereo painting with usability enhancements[J].IEEE Transactions on Visualization and Computer Graphics,2014,20(7):957-969
[14] Chen Z L,Kim B,Ito D,et al.Wetbrush:GPU-based 3D painting simulation at the bristle level[J].ACM Transactions on Graphics,2015,34(6):200:1-200:11
[15] Gatys L A,Ecker A S,Bethge M.Image style transfer using convolutional neural networks[C]∥IEEE Conference on Computer Vision and Pattern Recognition,2016:2414-2423
[16] Johnson J,Alahi A,Li F F.Perceptual losses for real-time style transfer and super-resolution[C]∥European Conference on Computer Vision,2016:694-711
[17] Li C,Wand M.Precomputed real-time texture synthesis with Markovian generative adversarial networks[C]∥European Conference on Computer Vision,2016:702-716
[18] Frigo O,Sabater N,Delon J,et al.Split and match:Example-based adaptive patch sampling for unsupervised style transfer[C]∥IEEE Conference on Computer Vision and Pattern Recognition,2016:553-561
[19] Ulyanov D,Lebedev V,Vedaldi A,et al.Texture networks:Feed-forward synthesis of textures and stylized images[C]∥International Conference on Machine Learning,2016:1349-1357
[20] Liao J,Yao Y,Yuan L,et al.Visual attribute transfer through deep image analogy[J].ACM Transactions on Graphics,2017,36(4):120:1-120:15
[21] Zhu J Y,Park T,Isola P,et al.Unpaired image-to-image translation using cycle-consistent adversarial networks[J].arXiv e-print,2017,arXiv:1703.10593
[22] Chen D D,Yuan L,Liao J,et al.StyleBank:An explicit representation for neural image style transfer[C]∥IEEE Conference on Computer Vision and Pattern Recognition,2017:1897-1906
[23] Dumoulin V,Shlens J,Kudlur M.A learned representation for artistic style[J].arXiv e-print,2017,arXiv:1610.07629
[24] Chen H,Zhang N N,Liang L,et al.PicToon:A personalized image-based cartoon system[C]∥ACM International Conference on Multimedia,2002:171-178
[25] Chen H,Liu Z,Rose C,et al.Example-based composite sketching of human portraits[C]∥International Symposium on Non-photorealistic Animation and Rendering,2004:95-153
[26] Tseng C C,Lien J J J.Colored exaggerative caricature creation using inter and intra-correlations of feature shapes and positions[J].Image and Vision Computing,2012,30(1):15-25
[27] Selim A,Elgharib M,Doyle L.Painting style transfer for head portraits using convolutional neural networks[J].ACM Transactions on Graphics,2016,35(4):129
[28] Zhao M T,Zhu S C.Portrait painting using active templates[C]∥ACM SIGGRAPH/Eurographics Symposium on Non-Photorealistic Animation and Rendering,2011:117-124
[29] Wang T H,Collomosse J P,Hunter A,et al.Learnable stroke models for example-based portrait painting[C]∥British Machine Vision Conference,2013:36
[30] Zhang Y,Dong W M,Ma C Y,et al.Data-driven synthesis of cartoon faces using different styles[J].IEEE Transactions on Image Processing,2017,26(1):464-478
[31] Wang N N,Tao D C,Gao X B,et al.A comprehensive survey to face hallucination[J].International Journal of Computer Vision,2014,106(1):9-30
[32] Wang X G,Tang X O.Face photo-sketch synthesis and recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(11):1955-1967
[33] Li H L,Liu G H,Ngan K N.Guided face cartoon synthesis[J].IEEE Transactions on Multimedia,2011,13(6):1230-1239
[34] Wang N N,Tao D C,Gao X B,et al.Transductive face sketch-photo synthesis[J].IEEE Transactions on Neural Networks and Learning Systems,2013,24(9):1364-1376
[35] Zhang S C,Gao X B,Wang N N,et al.Face sketch synthesis via sparse representation-based greedy search[J].IEEE Transactions on Image Processing,2015,24(8):2466-2477
[36] Zhang S C,Gao X B,Wang N N,et al.Robust face sketch style synthesis[J].IEEE Transactions on Image Processing,2016,25(1):220-232