沈曉琪,陳 郁
(上海工程技術(shù)大學(xué) 紡織服裝學(xué)院, 上海 201620)
款式的多樣化和個性化是服裝時尚的重要發(fā)展方向,私人定制在其中起到重要的作用。私人定制時服裝尺寸的確定較為容易,而款式的確定卻較為復(fù)雜,因?yàn)槊枋隹钍降恼Z言難以做到準(zhǔn)確充分,因而從成千上萬的圖庫中選擇出客戶中意的款式是一個復(fù)雜耗時的工程。
傳統(tǒng)的定制方式主要采用客戶提供樣品或與設(shè)計師面談交流的方式,但這種方式存在客戶描述不盡準(zhǔn)確以及設(shè)計師提供初步樣本范圍有限的問題,因而傳統(tǒng)的定制方式較為耗時,工作效率相對較低。利用信息技術(shù)的交互式設(shè)計能夠縮短雙方交流時間,并為設(shè)計師和顧客提供更多的款式選擇,顯著提高定制過程的效率。目前采用的交互式設(shè)計主要有交互遺傳算法、圖像生成算法等。
交互式遺傳算法Interactive Genetic Algorithm(IGA)模擬了生物演化的自然規(guī)律,常應(yīng)用于解決隱式性能指標(biāo)優(yōu)化問題的智能計算。陳奕帆等[1]以西服為例,使用遺傳算法得到符合用戶期望的服裝設(shè)計圖,提高了西服個性化定制的工作效率。周海媚[2]使用遺傳算法建立了交互設(shè)計系統(tǒng),采用三維服裝軟件展現(xiàn)設(shè)計效果,并完成了服裝紙樣的輸出。IGA算法通過編碼的方式描述需要解決的問題,但編碼的長度以及規(guī)范性都會對結(jié)果產(chǎn)生影響,如張卓等[3]通過引入交互式遺傳算法建立款式推薦系統(tǒng),但由于編碼長度的限制,這種算法只適用于樣本較少的方案設(shè)計。
生成對抗網(wǎng)絡(luò)Generative Adversarial Networks(GAN)是一種重要的圖像生成技術(shù)并得到了廣泛的研究。Yoo等[4]在生成的模型中增加轉(zhuǎn)換器和再鑒別模型,從而增加域鑒別器,實(shí)現(xiàn)了提取人體著裝圖中的服裝款式圖。Makkapati等[5]引入了對稱損失函數(shù)訓(xùn)練GAN,生成了對稱性更好襯衫圖像,也減少了其前中位置變形的問題。Lassner等[6]基于GAN方法開發(fā)了人體的服裝著裝模型,這種模型能夠在人體上實(shí)現(xiàn)服裝生成的虛擬試衣效果,但對服裝細(xì)節(jié)的處理仍不夠完善。為解決這一問題,Han等[7]提出了虛擬試衣的網(wǎng)絡(luò)模型,該模型能夠用粗略的服裝廓形圖生成細(xì)致的服裝圖片。GAN方法也被用于服裝款式圖的交互式設(shè)計,任雨佳等[8]通過訓(xùn)練深度卷積的生成對抗網(wǎng)絡(luò)Deep Convolutional Generative Adversarial Networks(DCGAN)生成穩(wěn)定的服裝款式圖,但對于用戶偏好選擇款式時需要多次迭代,效率偏低。
在已有的GAN的基礎(chǔ)上,對生成器加入標(biāo)簽,通過訓(xùn)練可獲得有特征指向性的圖片,這一圖像生成處理技術(shù)被稱為條件生成對抗網(wǎng)絡(luò)Conditional Generative Adversarial Nets(CGAN)。這種深度學(xué)習(xí)算法也被用于服裝的款式圖設(shè)計,成為了一種服裝款式交互設(shè)計的新方法。
本文以單色連衣裙款式圖為例,介紹CGAN算法在服裝款式圖交互設(shè)計上的應(yīng)用,通過卷積神經(jīng)網(wǎng)絡(luò)(CNN)提取用戶樣裙款式特征,再基于款式特征利用CGAN網(wǎng)絡(luò)生成相近的款式圖,經(jīng)用戶篩選后進(jìn)一步迭代,通過多次迭代獲得用戶高滿意度的款式圖。相較于已有的交互式服裝款式設(shè)計方法,這一方法具有用戶指向性好、迭代次數(shù)少的優(yōu)勢。
CGAN是一種生成對抗網(wǎng)絡(luò)[9],與傳統(tǒng)的GAN不同,其不僅輸入了隨機(jī)噪聲作為生成器的輸入,還輸入了指定條件作為生成器的輸入,同時判別器不僅能判斷生成樣本是否真實(shí),還能判斷其是否符合指定的條件。這種對抗機(jī)制使得CGAN可以生成符合特定條件的樣本。
本文構(gòu)建了以CGAN網(wǎng)絡(luò)為核心的服裝款式圖設(shè)計交互系統(tǒng),該系統(tǒng)能分析出用戶提供款式樣圖的關(guān)鍵詞,將關(guān)鍵詞作為指定條件生成與樣圖相似的款式圖,如圖1所示。
圖1 服裝款式圖交互設(shè)計框架Fig.1 Interactive design framework of clothing style diagram
由圖1可見,系統(tǒng)包括關(guān)鍵詞庫、CNN關(guān)鍵詞提取、CGAN圖像生成、用戶評估反饋4個模塊。關(guān)鍵詞庫通過對單色連衣裙分結(jié)構(gòu)和分檔的調(diào)查投票確定;CNN關(guān)鍵詞提取模塊能自動提取出用戶提供的款式圖中的關(guān)鍵詞;CGAN圖像生成模塊根據(jù)提供的關(guān)鍵詞生成清晰穩(wěn)定的單色連衣裙款式圖并交給用戶交流選擇,用戶滿意的款式圖將被收入訓(xùn)練庫中進(jìn)行迭代訓(xùn)練,如此循環(huán)直至用戶滿意。
本文以單色連衣裙作為研究對象,重點(diǎn)關(guān)注單色連衣裙的款式圖,忽略色彩、面料、紋理等帶來的影響,下文統(tǒng)稱為“單色裙”。
首先從購物平臺及近年來的專家訪談中提取出連衣裙設(shè)計的主要服裝分結(jié)構(gòu)[10],忽略其中的品牌、色彩、圖案等因素,初步選取廓形、袖長、裙長、領(lǐng)型、合體度5種與款式圖設(shè)計相關(guān)的主要服裝分結(jié)構(gòu),通過調(diào)查問卷進(jìn)一步確定款式的分結(jié)構(gòu)和分檔如表1所示。
表1 單色連衣裙分結(jié)構(gòu)及分檔Tab.1 Substructure and classification of monochrome dress
表1中單色裙款式分結(jié)構(gòu)確定為廓形、袖長、裙長和合體度4種,領(lǐng)型因在黑白單色裙的圖片中不明顯而被去除。單色裙款式廓形分為A、H、X型3檔,在問卷中都獲得50%以上的認(rèn)可度。A、H、X型分別代表與裙形近似的字母,即A型上窄下寬、H型上下相當(dāng)和X型收腰的特點(diǎn)。
LeNet-5是一種結(jié)構(gòu)簡單且魯棒性好的CNN網(wǎng)絡(luò)架構(gòu),在處理小尺寸的灰度圖像時,具有較高的識別準(zhǔn)確度和識別效率。本文選擇LeNet-5網(wǎng)絡(luò)作為從單色裙圖片自動提取關(guān)鍵詞標(biāo)簽的工具。圖2示出了3條由客戶提供的單色裙樣圖。
圖2 客戶提供的單色裙Fig.2 Customer offered monochrome dress.(a)Slip dress;(b)Bubble sleeved princess skirt;(c)Straight skirt
采用訓(xùn)練后的LeNet-5網(wǎng)絡(luò)提取圖2中3款單色裙的關(guān)鍵詞,圖2(a)吊帶裙被歸類到了X廓形的無袖合體短裙中,其中合體、無袖和短裙與其在購物網(wǎng)站上緊身、吊帶和短裙的標(biāo)簽相符,廓形標(biāo)簽并未在該購物網(wǎng)站上出現(xiàn),但該裙在腰部有收緊,可以劃為X廓形;圖2(b)泡泡袖公主裙被歸類到了A廓形的短袖寬松短裙中,符合該裙的屬性;圖2(c)直筒裙被歸類到了H廓形的短袖寬松長裙中,其中寬松、短袖、長裙與其在購物網(wǎng)站上的標(biāo)簽一致,寬松也符合該裙屬性。
本文實(shí)驗(yàn)的模型訓(xùn)練主要過程為加載數(shù)據(jù)集、構(gòu)建Generator網(wǎng)絡(luò)和Discriminator網(wǎng)絡(luò),然后構(gòu)建CGAN網(wǎng)絡(luò)、設(shè)置損失函數(shù)并調(diào)整優(yōu)化,同時調(diào)試其他參數(shù)、對比不同參數(shù)下生成的圖片效果,最后選擇效果最優(yōu)的一組參數(shù),達(dá)到優(yōu)化程序的目的。利用此模型可按不同輸入條件生成不同的單色裙款式圖。
本文實(shí)驗(yàn)的操作系統(tǒng)為Windows10,64位,以Tensorflow1.14為框架,編程語言使用python3.5。用于網(wǎng)絡(luò)訓(xùn)練的數(shù)據(jù)集來自于文獻(xiàn)[8]中構(gòu)建的單色裙圖庫,所有圖片大小為96像素×96像素圖像,格式為JPG。如圖3所示。
圖3 單色裙款式樣本庫Fig.3 Monochrome dress flat sample library
從圖庫中選取6 000張圖片,部分用于訓(xùn)練,部分用于測試,全部的卷積運(yùn)算都在顯卡 NVIDIA GeForce RTX 2060 SUPER下進(jìn)行。參數(shù)配置方面,生成器和判別器均使用LeakyReLU激活函數(shù)。為了防止過擬合的發(fā)生,生成器以及判別器中均使用批歸一化處理(BN)進(jìn)行優(yōu)化。損失函數(shù)方面,利用Adam優(yōu)化器優(yōu)化生成器和判別器所使用的交叉熵?fù)p失函數(shù)。經(jīng)過對比生成器以及判別器的多輪訓(xùn)練結(jié)果,最終設(shè)置學(xué)習(xí)率為0.000 2,設(shè)置生成器與判別器訓(xùn)練次數(shù)比為2∶1,即每訓(xùn)練1次判別網(wǎng)絡(luò)就訓(xùn)練2次生成網(wǎng)絡(luò),訓(xùn)練周期設(shè)置為100 epochs。上述參數(shù)能夠使CGAN模型生成較為完整的單色裙款式圖,以X型為例,根據(jù)不同條件組合生成的款式圖效果如圖4樹狀結(jié)構(gòu)圖所示。
圖4 根據(jù)不同條件組合生成的款式圖Fig.4 Style map generated according to different conditions
使用CGAN生成的圖片基本符合設(shè)定的生成條件,但部分長度方面的條件控制仍然不夠精確,生成的部分裙子短袖與長袖的區(qū)分度不明顯,例如生成的“短袖-長裙-合體”的前2張圖片的袖長較長,其次仍有部分圖片生成細(xì)節(jié)不夠完善,部分圖片有小空洞和扭曲。
邀請3名年齡在22~26歲的女大學(xué)生對本文設(shè)計的交互系統(tǒng)進(jìn)行測試,3名實(shí)驗(yàn)對象分別提供自己喜歡的單色裙照片,記為實(shí)驗(yàn)對象A、B、C。系統(tǒng)使用CNN模塊自動提取分類標(biāo)簽后使用CGAN網(wǎng)絡(luò)生成對應(yīng)的單色裙款式圖集,在剔除少部分畸變、扭曲以及殘缺的款式圖后,取200張款式圖,以9張1組的方式供測試者選擇,實(shí)驗(yàn)對象的選擇結(jié)果(圈出的款式圖)分別如圖5所示。
圖5 實(shí)驗(yàn)對象A、B、C每輪篩選的結(jié)果(部分)Fig.5 The results of each round of screening for subjects A, B and C (partial). (a) Subject of experiment A; (b) Subject of experiment B; (c) Subject of experiment C
由圖5(a)可見,初始迭代中有較多的裙子被選中,且被選中的裙子都符合X廓形、無袖、合體短裙的特點(diǎn),說明交互系統(tǒng)根據(jù)條件生成的單色裙符合測試者的需求。將實(shí)驗(yàn)對象A選中的圖片打上分類標(biāo)簽放入CGAN訓(xùn)練集中,并對CGAN進(jìn)行迭代訓(xùn)練,訓(xùn)練完成的CGAN網(wǎng)絡(luò)命名為CGAN-A,其余2名實(shí)驗(yàn)對象迭代訓(xùn)練完成的網(wǎng)絡(luò)依次命名為CGAN-B和CGAN-C。表2示出了3名實(shí)驗(yàn)對象在不同輪次選中裙子的數(shù)量和比例。
表2 實(shí)驗(yàn)對象每輪正向選擇的款式圖數(shù)量及百分比Tab.2 Number and percentage of style maps selected by subjects in each round
由表2可知,隨迭代次數(shù)增加,實(shí)驗(yàn)對象A正向選擇的款式圖數(shù)量由18.5%提高到了27.5%;實(shí)驗(yàn)對象B正向選擇的款式圖數(shù)量由19.5%提高到了31.5%;實(shí)驗(yàn)對象C正向選擇的款式圖數(shù)量由21.5%提高到了33.0%。將本文每輪迭代的平均選中率與基于文獻(xiàn)[8]的DCGAN方法進(jìn)行對比,結(jié)果如圖6所示。
圖6 基于CGAN與基于DCGAN服裝交互設(shè)計平均選中率的比較Fig.6 Comparison of average selection rate of CGAN based and DCGAN based clothing interactive design
由圖6可知,CGAN初始迭代就具有較高的選中率,且隨著迭代次數(shù)的增加,選中率逐步提高,總體選中率比DCGAN方法高約10%。這是因?yàn)楸疚氖褂肅NN方法提取了測試者提供樣圖的款式關(guān)鍵詞,根據(jù)關(guān)鍵詞有針對性地生成了單色裙,因此選中率較DCGAN有較大提升。DCGAN方法需要測試者提供較大量的喜好圖片用于訓(xùn)練,而CGAN方法只需測試者提供少量乃至1~2張樣圖即可生成單色裙款式圖。除了用戶提供單色裙樣圖外,本文方法能直接以不同屬性的標(biāo)簽生成單色裙款式圖,增加了用戶使用的靈活性。
為了提升服裝個性化設(shè)計中用戶的參與度,本文以條件生成對抗網(wǎng)絡(luò)為核心構(gòu)建了服裝款式交互式設(shè)計系統(tǒng),采用問卷調(diào)查法確定了服裝款式的各分結(jié)構(gòu)和分檔關(guān)鍵詞,通過卷積神經(jīng)網(wǎng)絡(luò)提取用戶提供樣圖中的款式關(guān)鍵詞,由條件對抗網(wǎng)絡(luò)(CGAN)根據(jù)關(guān)鍵詞生成款式圖,實(shí)現(xiàn)了基于用戶偏好的服裝款式圖交互設(shè)計,并通過單色裙加以驗(yàn)證。結(jié)果表明該系統(tǒng)能夠快速準(zhǔn)確地生成與樣圖相似的款式圖,并可以通過迭代訓(xùn)練來提高用戶對服裝款式圖的滿意度。未來將繼續(xù)完善款式圖的局部細(xì)節(jié)生成,如領(lǐng)型、袖口等,并可拓展應(yīng)用于生成其他類型的服裝款式,提升用戶參與度與滿意度的同時優(yōu)化個性化服裝定制服務(wù),實(shí)現(xiàn)消費(fèi)者追求個性、展示自我的需求,助力服裝行業(yè)的繁榮發(fā)展。