任雨佳,陳 璐,陳 郁
(上海工程技術(shù)大學 紡織服裝學院,上海 201620)
款式作為服裝設(shè)計的三要素之一,是影響服裝整體美觀性的重要因素。隨著人們個性化需求的增加,服裝款式定制作為一種新興服務(wù)方式引起人們的關(guān)注。個性化服裝定制可以根據(jù)顧客對服裝款式、面料的需求量身制作合體服裝。傳統(tǒng)手工定制可當面溝通全面地了解顧客需求,但耗時較長,無法適應當前快節(jié)奏的生產(chǎn)活動。隨著計算機技術(shù)的發(fā)展,交互式服裝設(shè)計系統(tǒng)可以將款式設(shè)計草圖直觀地呈現(xiàn)給顧客,方便設(shè)計師與顧客溝通,因此適合個性化服裝定制的交互式服裝設(shè)計系統(tǒng)成為研究熱點。
交互式服裝設(shè)計系統(tǒng)通常擁有一定規(guī)模的數(shù)據(jù)庫,包含款式、面料、色彩等組件,然而消費者作為非專業(yè)人員很難實現(xiàn)自主搭配。遺傳算法主要是通過模擬生物的自然進化規(guī)律得到最優(yōu)解,該算法可以實現(xiàn)女西裝個性化定制交互式設(shè)計[1],也可用于男襯衫款式設(shè)計系統(tǒng)中用戶評分的交互式計算[2],遺傳算法與模糊評價相結(jié)合還能夠?qū)崿F(xiàn)基于用戶意向的服裝款式設(shè)計[3]。但是遺傳算法只能通過編碼的方式描述待解決的問題,編碼的規(guī)范性以及編碼的長度都會對結(jié)果產(chǎn)生影響,例如張卓等[4]建立的基于用戶導向的Polo衫個性化生成及推薦系統(tǒng)僅僅適用于樣本少的方案設(shè)計。
然而在實際服裝定制過程中,多數(shù)顧客難以提出明確的需求,他們常常通過提供感興趣的服裝圖片來描述個人喜好。基于深度學習算法的圖像生成技術(shù)可以直接根據(jù)用戶提供的圖片生成相似的服裝款式,其中生成式對抗網(wǎng)絡(luò)(Generative Adversarial Networks, GAN)是圖像生成技術(shù)的研究熱點。Isola等[5]利用對抗生成網(wǎng)絡(luò)有效實現(xiàn)了從線稿圖到實物圖的轉(zhuǎn)換;Yoo等[6]通過在生成模型中設(shè)置轉(zhuǎn)換器以及在鑒別模型中增加域鑒別器來從人體著裝圖像中提取相應的服裝款式圖,Makkapati等[7]通過引入對稱損失來訓練GAN以獲取對稱性更好的服裝圖像;Han等[8]利用粗略的服裝廓形和姿勢圖生成了更細致的服裝圖片并應用于虛擬試穿。其中,深度卷積對抗網(wǎng)絡(luò)(Deep Convolutional Generative Adversarial Networks, DCGAN)是GAN模型發(fā)展中的一個里程碑,它將卷積神經(jīng)網(wǎng)絡(luò)與生成對抗網(wǎng)絡(luò)巧妙結(jié)合,具有成本低、模型穩(wěn)定性高、局部細節(jié)精確等優(yōu)勢,在圖像生成及處理領(lǐng)域有著更廣闊的應用前景。
目前,在服裝領(lǐng)域中,生成對抗網(wǎng)絡(luò)側(cè)重于研究高質(zhì)量圖像的生成,而對于用戶的服裝款式偏好方面考慮較少。本文以小黑裙款式圖為例,以DCGAN算法為核心構(gòu)建了基于用戶偏好的服裝款式圖生成系統(tǒng),將深度學習算法應用于服裝款式圖的自動生成環(huán)節(jié),在服裝款式圖的評估與篩選過程中重點參考用戶意見,為個性化服裝設(shè)計、生產(chǎn)以及銷售過程提供了一定的技術(shù)參考。
GAN是依靠生成器和判別器相互博弈以輸出優(yōu)質(zhì)結(jié)果的深度學習模型,在手寫數(shù)字和人臉[9]、高質(zhì)量的藝術(shù)作品[10]以及逼真的服裝紋理[11]的生成方面有較好的應用。DCGAN算法則是將有監(jiān)督學習的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)與GAN模型融合[12],有利于細節(jié)特征的提取[13]。
本文構(gòu)建了以DCGAN算法為核心的服裝款式圖交互式設(shè)計系統(tǒng),包括數(shù)據(jù)采集、DCGAN圖像生成、迭代訓練3個模塊如圖1所示。數(shù)據(jù)采集模塊依靠圖片搜集以及數(shù)據(jù)增強組建小黑裙數(shù)據(jù)庫,用于存放DCGAN模型的訓練圖片;DCGAN圖像生成模塊是該系統(tǒng)的核心部分,目的是生成大量參數(shù)較優(yōu)的小黑裙款式圖;迭代訓練模塊是基于用戶選擇的交互式模塊,將用戶喜歡的服裝款式圖加入訓練數(shù)據(jù),以便在多輪迭代訓練后可以得到符合用戶個性化需求的服裝款式圖。
圖1 服裝款式圖交互設(shè)計框架Fig.1 Interactive design framework for garment fashion drawing
連衣裙是女性日常穿著的主要服裝之一,其款式種類繁多。本文以小黑裙作為研究對象,重點關(guān)注服裝款式,忽略服裝色彩對感官的影響。
2.1.1 圖片來源
為了能輸出滿足要求的小黑裙款式圖,DCGAN模型需要大量的小黑裙款式圖片。利用服裝服飾類的開源數(shù)據(jù)集、Python的PIL繪圖以及網(wǎng)站批量下載的方式搜集了流行服裝款式,并且結(jié)合用戶所喜愛的服裝圖片,共獲得約15 000 張小黑裙圖片。通過人工篩選刪除不符合要求的圖片,例如非白色背景、圖像分辨率太低、圖片曝光異常、圖片夾雜有l(wèi)ogo等,最終獲得12 000 張小黑裙圖片。
2.1.2 數(shù)據(jù)增強
為了增強模型的泛化能力,往往使用數(shù)據(jù)擴增來增加數(shù)據(jù)集的多樣性[14]。本文利用Python的PIL圖像處理庫,使用圖片色彩轉(zhuǎn)換、旋轉(zhuǎn)、鏡像翻轉(zhuǎn)以及高斯模糊4個操作,消除色彩偏差、視角偏差以及噪音干擾,以便獲得比較理想的圖片增強效果。經(jīng)過尺寸歸一化處理后,得到了30 000張尺寸為96 dpi ×96 dpi、格式為JPG的小黑裙款式圖。
DCGAN模型的訓練主要分為4個部分,首先加載訓練數(shù)據(jù),然后設(shè)置生成器、判別器的相關(guān)參數(shù),設(shè)置損失函數(shù)并優(yōu)化,最后經(jīng)過多組實驗找到最優(yōu)訓練次數(shù)比。本文DCGAN模型的訓練環(huán)境為win10+cuda 9.2+TensorFlow。參數(shù)配置方面,生成器輸出層單獨使用Tanh激活函數(shù),其余層均使用ReLU激活函數(shù);判別器輸出層使用Sigmoid激活函數(shù),其余層均使用Leaky ReLU激活函數(shù)。為了防止過擬合的發(fā)生,生成器以及判別器中均使用批歸一化處理進行優(yōu)化。損失函數(shù)方面,利用Adam優(yōu)化器優(yōu)化生成器和判別器所使用的交叉熵損失函數(shù)。經(jīng)過生成器以及判別器的多輪交替訓練,將學習率設(shè)置為0.000 2,訓練周期設(shè)置為100 epoch,生成器與判別器訓練次數(shù)比設(shè)置為2∶1,即每訓練一次判別網(wǎng)絡(luò)就訓練2次生成網(wǎng)絡(luò)。上述參數(shù)能夠使DCGAN模型生成較為清晰完整、尺寸為96 dpi×96 dpi的小黑裙款式圖,生成圖片的效果如圖2所示。
圖2 DCGAN模型生成的小黑裙款式圖(部分)Fig.2 Little black dress fashion drawing generated by DCGAN model (partial)
為了滿足用戶的服裝款式需求,訓練數(shù)據(jù)需要根據(jù)用戶的偏好進行更新,迭代訓練過程如圖3所示。通過主觀評估篩選出用戶感興趣的小黑裙款式圖,并且搜集用戶在服裝網(wǎng)站上的個人瀏覽記錄,將上述圖片通過數(shù)據(jù)增強模塊,作為新的訓練數(shù)據(jù)替換部分原有數(shù)據(jù)繼續(xù)使用上述DCGAN模型,通過訓練數(shù)據(jù)集的更新來構(gòu)建個人專屬的訓練模型。其中,每輪生成的小黑裙款式圖均要進行主觀篩選,不斷更新訓練數(shù)據(jù)集,經(jīng)過數(shù)次迭代后以接近用戶的個性化需求。
圖3 迭代訓練過程Fig.3 Iterative training process
本文邀請了3名年齡在22~26歲之間的在校女大學生,對生成的小黑裙款式圖進行主觀評價,并且為實驗對象構(gòu)建各自的訓練數(shù)據(jù)集,3個人的訓練模型分別命名為DCGAN-A、DCGAN-B以及DCGAN-C如圖4所示。經(jīng)過多輪迭代訓練,從款式風格、喜歡的款式圖數(shù)量2個方面評估基于DCGAN算法的小黑裙款式圖生成系統(tǒng)的效果。
圖4 3位實驗對象的訓練模型Fig.4 Training model of three subjects
每輪迭代訓練后,在充分考慮小黑裙款式風格的基礎(chǔ)上,剔除部分畸變、殘缺、扭曲以及模糊的款式圖,最終獲得200張款式圖。為了方便實驗對象篩選,將200張款式圖分為10組,隨機選取20張為一組,并在同一個頁面內(nèi)展示。實驗對象A的部分篩選結(jié)果如圖5所示,實驗對象B的部分篩選結(jié)果如圖6所示,實驗對象C的部分篩選結(jié)果如圖7所示。
圖5 實驗對象A每輪的篩選結(jié)果(部分)Fig.5 Selected results of subject A for each round (partial). (a) Primary iteration; (b) First iteration; (c) Second iteration; (d) Third iteration
圖6 實驗對象B每輪的篩選結(jié)果(部分)Fig.6 Selected results of subject B for each round (partial). (a) Primary iteration; (b) First iteration; (c) Second iteration; (d) Third iteration
圖7 實驗對象C每輪的篩選結(jié)果(部分)Fig.7 Selected results of subject C for each round (partial). (a) Primary iteration; (b) First iteration; (c) Second iteration; (d) Third iteration
由圖5可知,實驗對象A喜愛的服裝風格以吊帶連衣裙為主,后3輪篩選結(jié)果顯示實驗對象A還可以接受抹胸的連衣裙款式。由圖6可知,實驗對象B偏好有袖、有領(lǐng)的中長款連衣裙。由圖7可知,實驗對象C所喜歡的服裝款式較為廣泛,風格不太明顯。由實驗對象A的迭代結(jié)果可知,第1輪的生成結(jié)果中有2張吊帶連衣裙,第2輪有3張吊帶連衣裙,第3輪出現(xiàn)了4張吊帶連衣裙,第4輪則出現(xiàn)了5張吊帶連衣裙,說明在迭代過程中相似風格的連衣裙款式數(shù)量逐漸增多,為實驗對象提供了更多個性化的選擇。與實驗對象A的情況類似,實驗對象B喜愛的款式圖數(shù)量在后續(xù)迭代訓練結(jié)果中也有所提高。綜上所述,隨著訓練數(shù)據(jù)的更新,實驗對象喜愛的款式圖數(shù)量呈增長的趨勢,說明DCGAN模型可以實現(xiàn)服裝款式風格的繼承。
根據(jù)主觀篩選結(jié)果,記錄每位實驗對象每輪正向選擇(即用戶喜歡的圖片)的款式圖數(shù)目如表1所示。
表1 實驗對象每輪選擇的款式圖數(shù)量及百分比Tab.1 The number and percentage of fashion drawing selected by the subjects in each round
由表1可知,實驗對象A感興趣的小黑裙款式圖數(shù)量從9.5%提高到了20%,實驗對象B感興趣的小黑裙款式圖數(shù)量從11.5%提高到了19.5%,實驗對象C感興趣的小黑裙款式圖數(shù)量從11%提高到了21%。由于受到視覺疲勞的影響,實驗對象B在第4輪篩選過程中喜歡的連衣裙款式圖較第3輪減少了1張,該誤差可以忽略不計。綜上所述,本文的小黑裙款式圖生成系統(tǒng)能夠在一定程度上提升用戶對服裝款式的滿意度。
本文對服裝款式圖的自動生成進行了較為深入的研究,利用Tensorflow深度學習框架,實現(xiàn)了基于用戶偏好的服裝款式圖交互設(shè)計,結(jié)果表明該系統(tǒng)能夠生成風格統(tǒng)一的服裝款式圖,并且可以提高用戶對服裝款式圖的滿意度,相信隨著用戶參與度以及實驗次數(shù)的增加,該模型的效果將會得到大幅度提升。未來可以繼續(xù)完善款式圖的局部細節(jié)生成,例如領(lǐng)型、袖口等,并且嘗試生成其他類型的服裝款式,有助于優(yōu)化個性化服裝定制服務(wù),讓消費者參與到服裝設(shè)計過程中,滿足消費者展示自我、追求個性的需求,實現(xiàn)服裝行業(yè)的繁榮發(fā)展。