Discriminating the fit of women’s suits based on 2D human body image feature learning
摘要:
為解決服裝遠程定制和網(wǎng)絡(luò)購衣過程中服裝合體性無法預(yù)先判斷的問題,文章提出利用2D人體圖像判斷女西裝合體性。首先采集了462名18~25周歲青年女性的2D圖像及3D尺寸,建立人體數(shù)據(jù)集。并制作10件虛擬女西裝,建立服裝數(shù)據(jù)集。其次提取用于女西裝合體性判別的服裝特征、2D人體圖像關(guān)鍵點距離特征和整體特征。基于感性工學(xué)原理,采用專家評價法獲取女西裝合體性評價標(biāo)簽。最后利用貝葉斯分類器建立女西裝合體性判別模型。研究結(jié)果顯示,將文章提出的特征應(yīng)用于基于貝葉斯算法的女西裝合體性判別模型判別準(zhǔn)確率可達到84.8%,說明提出的服裝合體性評價指標(biāo)有效,可以用于基于2D圖像的服裝合體性預(yù)測。
關(guān)鍵詞:
2D人體圖像特征;計算機視覺;機器學(xué)習(xí);女西裝;合體性;貝葉斯模型
中圖分類號:
TS941.17
文獻標(biāo)志碼:
A
文章編號: 10017003(2024)05期數(shù)0078起始頁碼09篇頁數(shù)
DOI: 10.3969/j.issn.1001-7003.2024.05期數(shù).010(篇序)
收稿日期:
20231105;
修回日期:
20240331
基金項目:
遼寧省教育廳項目(LJKMR20220912,LJKZZ20220068,JYTMS20230401)
作者簡介:
姚彤(1986),女,講師,博士研究生,主要從事服裝數(shù)字化的研究。通信作者:潘力,教授,1020404190@qq.com。
服裝的合體性問題貫穿整個服裝設(shè)計、制造和銷售過程,服裝合體性評價已經(jīng)成為遠程定制和網(wǎng)絡(luò)購衣的主要瓶頸之一[1],嚴(yán)重影響了服裝產(chǎn)業(yè)的智能化升級。如何在沒有實際試穿的情況下估計服裝合體程度成為研究人員面臨的一個主要問題[2]。
合體的服裝指著裝狀態(tài)下服裝平滑且均勻地懸掛在人體上,無多余褶皺或壓迫、線條流暢、左右對稱并能提供足夠松量用于肢體活動[3]。服裝合體性的評估方法有兩種:一種是主觀評價法[4],另一種是客觀評價法。主觀評價主要有專家評價和用戶評價[5]。專家評價優(yōu)勢在于與專業(yè)知識和經(jīng)驗的結(jié)合,多用于虛擬服裝的合體性評價。用戶評價需要試穿服裝,更注重用戶自身感受[6]。Hong等[7]通過專家評價法對脊柱側(cè)彎人群的服裝做了合體性評估,并根據(jù)結(jié)果調(diào)整了特殊人群的服裝樣板,提高了服裝的合體性??陀^評價是指將服裝合體性評價指標(biāo)量化,再根據(jù)先驗知識建立數(shù)學(xué)模型,以實現(xiàn)服裝合體性預(yù)測[8]??陀^評價法的特征指標(biāo)主要有:放松量[9]、服裝褶皺、服裝與人體的空間關(guān)系、服裝壓力[10-11]等。Xu等[12]提出了一種基于實例的服裝合身性預(yù)測方法,利用CNN算法建立了人體2D圖像、人體服裝寬松度與服裝變形
之間的映射,用以預(yù)測不同個體穿著成衣時的合體性問題。Zhang等[13]提出一種基于穿衣圖像褶皺指數(shù)的客觀擬合評價模型,該模型通過三個定量指標(biāo):皺紋數(shù)量、皺紋規(guī)律性和皺紋不均勻性對網(wǎng)絡(luò)穿衣圖像的合體程度進行評價。王詩潭等[3]以衣下間隙作為評價服裝合體性的客觀評價指標(biāo),構(gòu)建了基于人體與服裝空間關(guān)系的服裝合體性綜合評價方程,為連體服裝的合體性評價提供參考。隨著虛擬試衣技術(shù)的不斷完善,基于虛擬服裝壓力的服裝合體性研究成為一種新趨勢[14]。Zhao等[15]收集了72條牛仔褲的虛擬壓力值,建立了基于自適應(yīng)網(wǎng)絡(luò)模糊推理系統(tǒng)(Adaptive Network Fuzzy Inference System)的服裝合體性評價模型,實現(xiàn)了基于虛擬壓力的牛仔褲合體性預(yù)測。
通過對現(xiàn)有文獻的分析,目前服裝合體性研究大多存在需要實際試穿、評價過程復(fù)雜、適用面窄等問題,不適用于服裝遠程定制和網(wǎng)絡(luò)購衣。計算機視覺技術(shù)和機器學(xué)習(xí)技術(shù)為基于2D圖像的服裝合體性研究提供了新方法,但目前基于2D圖像的服裝合體性研究還較少,且主要針對特定的服裝,因此亟需探索一種有效的評價方法以適應(yīng)服裝產(chǎn)業(yè)智能化發(fā)展的需要。針對服裝遠程定制或網(wǎng)絡(luò)購衣過程中服裝合體性無法預(yù)先判斷的問題,本文提出利用2D人體數(shù)字圖像判斷女西裝的合體性。首先建立服裝數(shù)據(jù)集和人體數(shù)據(jù)集,然后提取女西裝尺寸特征,采用計算機視覺技術(shù)自動提取影響女西裝合體性的2D圖像人體特征,通過基于感性工學(xué)的專家評價法給出女西裝的合體性評價,最后運用貝葉斯算法建立合體性
判別模型,實現(xiàn)了基于2D圖像特征學(xué)習(xí)的女西裝合體性判斷。
1" 實" 驗
1.1" 服裝設(shè)計
本文設(shè)計了同一款式不同號型的10件女西裝用于試穿實驗,通過ET服裝CAD軟件進行服裝樣板的繪制,并使用CLO3D軟件進行服裝的虛擬縫合及試穿。
1) 款式。本文以基本款四開身女西裝為例進行服裝合體性判別,如圖1所示。
2) 號型。根據(jù)中國國家標(biāo)準(zhǔn)GB/T 1335.2—2008《服裝
號型女子》中體型分布情況,本文以A體型為例,設(shè)計了10件女西裝,服裝號型如表1所示。
3) 面料。在虛擬試衣過程中面料的物理性能對服裝穿著效果有顯著影響,本文基于CLO3D平臺選取羊毛質(zhì)地的面料,其物理性能如表2所示。
1.2" 人體測量和實驗對象的選擇
本文利用Vitus Smart三維人體掃描儀隨機測量了462名中國東北地區(qū)18~25周歲的青年女性作為實驗對象,樣本包含在校大學(xué)生和工人等。提取3D人體尺寸和2D人體圖像建立人體數(shù)據(jù)集。
依據(jù)中國國家標(biāo)準(zhǔn)GB/T 1335.2—2008,以占比最高的A體型為例,根據(jù)身高和胸圍的分布情況及前期的預(yù)實驗,本文選擇了22個樣本進行虛擬試衣實驗,樣本體型尺寸如表3所示。這22個樣本通過CLO3D軟件建立虛擬試衣模特,用于服裝合體性研究實驗。
2" 女西裝合體性評價
本文結(jié)合感性工學(xué)原理[16],采用專家評價法給出女西裝合體性評價標(biāo)簽。參與評價的共5位專家,包含從事服裝結(jié)構(gòu)設(shè)計專家3人,定制企業(yè)樣衣師1人,普通消費者1人。采用語意差異法設(shè)計Likert 5點數(shù)字量表[17-18],使用數(shù)字“1~5”的5級標(biāo)尺來測量專家感性評價尺度,數(shù)字含義為:1緊小,2略緊小,3合體,4略寬松,5寬松。通過觀測CLO3D平臺中虛擬試穿的效果進行評分,觀測部位分別為前衣身、體側(cè)、后衣身、衣長和袖長5個部位[19]。本文提取出用于虛擬女西裝合體性評價的感性形容詞對,如表4所示。專家結(jié)合專業(yè)知識對幾個部位的合體性情況給出綜合評價得分。當(dāng)5位專家的平均得分在[1,2.5)時判定服裝的合體性情況為緊小,當(dāng)?shù)梅衷冢?.5,3.4]時為服裝合體,當(dāng)?shù)梅衷冢?.5,5]時為服裝寬松。
圖2為虛擬環(huán)境中不同合體性的女西裝的試穿效果,虛擬模特試穿的3件女西裝樣衣號型分別為:試樣4(160/80A)、試樣5(160/84A)、試樣8(165/88A)。虛擬試穿過程中試樣4的合體性得分為2.2,則判定結(jié)果為服裝緊小,其表現(xiàn)為過于貼體、無活動余量、腋下緊繃、背部完全貼合身體,臀部面料拉伸變形尺寸表現(xiàn)為過小。試樣5合體性綜合得分為3,表現(xiàn)為外觀效果較好、平整、無褶皺、寬松量適中、長度合適,判定合體性類別為合體。試樣8合體性得分為4.8,表現(xiàn)為過于寬松、有大量多余褶皺、外觀效果差,衣長和袖長都過長,判定合體性類別為寬松。
3" 特征提取
服裝合體性判別的本質(zhì)可以歸結(jié)為一個分類問題,特征指標(biāo)的選取是解決分類問題的關(guān)鍵,故本文所提取的特征指標(biāo)包含服裝特征和人體特征兩方面。
3.1" 服裝特征提取
服裝特征(簡稱GF)提取指女西裝成衣尺寸特征的提取,本文所提及的女西裝為合體型女西裝,胸圍和腰圍處設(shè)置的放松量均為10 cm[20],女西裝合體性主要體現(xiàn)在圍度和長度兩方面。胸圍、腰圍、臀圍有著顯著的相關(guān)性,因此只提取了成衣規(guī)格中的胸圍特征;衣長和袖長相關(guān)性顯著,因此提取衣長特征。同時,將胸圍和衣長作為服裝合體性預(yù)測的2個服裝特征。
3.2" 基于2D圖像的人體特征提取
基于2D圖像的人體特征是指將2D人體圖像進行一系列的預(yù)處理和運算,得到人體的形狀特征、顏色特征、空間關(guān)系特征、紋理特征等。這些特征可以用于人體幾何尺寸獲?。?1]、人體3D重建[22]、2D圖像與3D模型匹配、人體姿勢判別等。特征指標(biāo)的選擇決定了基于2D人體圖像的服裝合體性判別結(jié)果的有效性,本文提取的2D圖像人體特征為關(guān)鍵點距離特征(簡稱DF)和2D人體整體特征(簡稱OF)。
3.2.1" 圖像預(yù)處理與身高歸一化
2D人體圖像在獲取、傳輸?shù)倪^程中會受到噪聲的污染,影響人體信息的獲取效果,因此要對圖像進行去噪處理。本文采用高斯濾波來平滑圖像進而抑制噪聲影響,隨后將RGB圖像轉(zhuǎn)化為灰度圖像,設(shè)置區(qū)分人體區(qū)域與背景的閾值,從而獲取二值化圖像。
本文使用的2D人體圖像是從3D人體掃描數(shù)據(jù)庫中提取的投影圖像,在提取過程中,由于人體數(shù)據(jù)信息在2D圖像上并沒有形成映射關(guān)系,因此先對2D數(shù)字圖像進行歸一化操作,消除尺寸因素對體型的影響[23]。本文通過3D人體掃描儀提取身高數(shù)據(jù),并以身高為歸一化標(biāo)準(zhǔn)將圖像歸一化,選取樣本身高的最大值,在人體區(qū)域?qū)㈩^頂點至地面之間的距離設(shè)置為Q像素,本文Q=700,利用下式將身高數(shù)據(jù)歸一化:
H=Q×h-hminhmax-hmin(1)
式中:H為歸一化后的身高,h為任意樣本身高,hmin為樣本中身高的最小值,hmax為樣本中身高的最大值。
最后采用Canny邊緣檢測算子提取人體輪廓,計算邊緣特征灰度值梯度,并采用非極大值抑制細化邊緣,從而設(shè)定合適的雙閾值保留真實邊緣。圖像處理過程如圖3所示。
3.2.2" 關(guān)鍵點距離特征提取
服裝制作過程中需要提取人體的圍度數(shù)據(jù),如胸圍等,但人體2D圖像存在圍度數(shù)據(jù)提取困難、精度差等問題[24]。因此,本文提出采用關(guān)鍵點距離特征(DF)來表征人體特征部位的信息,其優(yōu)勢主要有:1) 規(guī)避了復(fù)雜的特征圍度求取過程。2) 關(guān)鍵點距離特征具備幾何不變性[25]。3) 降低了關(guān)鍵點信息的數(shù)據(jù)維度,起到了數(shù)據(jù)降維的作用,更利于機器學(xué)習(xí)算法的應(yīng)用。
女西裝的合體程度主要指人體的胸圍、腰圍、臀圍與服裝的適合程度[26],因此2D人體圖像中關(guān)鍵點的選取也是以這3個部位為基礎(chǔ)選取的。依據(jù)國標(biāo)GB/T 16160—2008《服裝用人體測量的部位及方法》和人體各部位與身高的比例關(guān)系[27]進行區(qū)域定位。分別從人體側(cè)面輪廓提取人體前后胸厚位置點、腰厚位置點和臀厚位置點,從人體正面輪廓提取左右腰寬位置點、臀寬位置點,共計10個點,各部位關(guān)鍵點的位置及關(guān)鍵點距離的計算方法如圖3(c)和表5所示,共提取出dBT、dWT、dHT、dWW、dHW這5個關(guān)鍵點距離特征。
3.2.3" 2D人體整體特征提取
在前期的研究工作當(dāng)中[28]已經(jīng)深入研究了利用計算機視覺技術(shù)對2D人體數(shù)字圖像進行整體描述的可行性和具體方法,該方法主要從人體身高在圖像上的像素表示、人體的平均胖瘦程度(投影單位面積特征)和人體的圓扁程度(人體正側(cè)面投影面積比特征)三個方面綜合描述人體特征信息在圖像上的表現(xiàn)。本文是該方法的具體應(yīng)用。在數(shù)據(jù)歸一化的過程中已經(jīng)對人體的身高進行了計算機視覺表示,即得到了身高像素值特征(H),接下來分別闡述投影單位面積特征(ρ)和人體正側(cè)面投影面積比特征(C)的提取方法。
1) 投影單位面積特征(ρ)的提取。如圖4(Ⅰ、Ⅲ、Ⅴ、Ⅶ)為樣本1和樣本2正面、側(cè)面2D人體圖像,其大小為M×N,將其進行二值化處理,人體區(qū)域呈現(xiàn)為白色,像素值設(shè)為1,背景區(qū)域呈現(xiàn)為黑色,像素值設(shè)為0。設(shè)人體高度方向為Y軸,與之垂直方向為X軸,利用統(tǒng)計法分別統(tǒng)計人體區(qū)域沿X和Y軸方向上像素值為1的點的累積分布,即像素值f(i,j)=1的累計分布,如下式所示:
X(i)=∑Nj=1f(i,j)(i=1,2,3,…,M),f(i,j)=1(2)
Y(j)=∑Mi=1f(i,j)(j=1,2,3,…,N),f(i,j)=1(3)
圖4(Ⅱ、Ⅳ、Ⅵ、Ⅷ)為2D人體圖像二值圖的灰度分布直方圖。灰度分布直方圖反映了不同體型的灰度分布情況,沿X軸方向與Y軸方向上白點分布最大高度差的計算公式如下:
X_l=max(X(i))-min(X(i))(i=1,2,3,…,M)(4)
Y_l=max(Y(j))-min(Y(j))(j=1,2,3,…,N)(5)
沿X軸方向最大灰度分布差值X_l表征了人體的身高特征,X_l越大則身高越高。沿Y軸方向最大灰度分布差值Y_l表征為體胖方向的特征,Y_l越大則身體越胖。人體高矮胖瘦不同則灰度分布直方圖的分布情況也不相同,但僅使用X_l與Y_l只能粗略地了解人體的高矮胖瘦,但比較不出體型相近的兩個樣本哪個更胖或更瘦,因此使用投影單位面積特征ρ表征人體的平均胖瘦程度。設(shè)身高的像素值為H,人體正面圖像中累計白點計數(shù)為G,則ρ的計算公式如下:
ρ=G/H(6)
2) 人體正側(cè)面投影面積比特征(C)的提取。僅使用投影單位面積特征進行體型分類并不能準(zhǔn)確地表述人體的體態(tài)信息,人體軀干部的圓扁程度同樣影響著人體的體型和著裝的效果。人體的圓扁程度主要指人體軀干部的形態(tài),因此本文沿著人體的側(cè)頸點去掉人體頭、頸部信息,沿著肩端點去掉人體臂部信息。提取了人體正、側(cè)面投影面積比用于表征人體的圓扁程度。設(shè)人體正面累計白點數(shù)為K,人體側(cè)面累計白點數(shù)為F。將K與F的比值定義為C,則C的計算公式如下:
C=K/F(7)
4" 基于圖像特征學(xué)習(xí)的女西裝合體性判別模型
4.1" 貝葉斯判別模型原理
對于服裝合體性判斷是通過合適的判別算法對人體特征和服裝特征進行匹配歸類的過程。本文采用貝葉斯分類模型建立2D人體圖像特征與服裝合體性之間的關(guān)系。貝葉斯算法是統(tǒng)計模型決策中的一個基本方法,在解決分類問題的過
程中貝葉斯分類法、神經(jīng)網(wǎng)絡(luò)分類算法和決策樹分類法等都具有較好的分類精度,貝葉斯算法因其方法簡單、分類準(zhǔn)確率高、速度快、可解釋性強等優(yōu)勢被廣泛使用。其原理為已知類條件概率密度參數(shù)表達式和先驗概率,然后計算后驗概率,再利用后驗概率進行決策分類[29]?;谪惾~斯模型的女西裝合體性判別主要有如下步驟:
步驟Ⅰ:確定特征指標(biāo)。設(shè)向量A=(a1,a2,…,an)為表征服裝合體性的n個特征指標(biāo),即GF、DF和OF,共計10個特征指標(biāo)。
步驟Ⅱ:獲得訓(xùn)練數(shù)據(jù)集。利用CLO3D軟件進行虛擬試衣實驗,根據(jù)人們的試穿習(xí)慣,排除穿著極其緊小和極其寬松的情況,最終為22個虛擬模特分別挑選與其體型相近的6件女西裝進行虛擬試衣,得出132條訓(xùn)練樣本。設(shè)人體特征與服裝特征的搭配數(shù)據(jù)集為S,S=(s1,s2,s3,…,sm)。專家結(jié)合前文所提及的評價指標(biāo)給出合體性判斷,則服裝合體性類別的評估結(jié)果數(shù)據(jù)集為T,T=(t1,t2,…,tw)。S為輸入數(shù)據(jù)集,T為輸出數(shù)據(jù)集。
步驟Ⅲ:計算各個類別的先驗概率。第i條服裝與人體搭配si被劃分為上述w類中某一類的先驗概率為P(T=ti)。
步驟Ⅳ:計算未知類別樣本Suk合體性情況的后驗概率,如下式所示。
P(T=ti|Suk)=P(T=ti)P(Suk|T=ti)∑ti=1P(T=ti)P(Suk|T=ti)(8)
步驟Ⅴ:基于貝葉斯分類器進行分類決策,方法如下式所示。
P(T=ti|Puk)=max1≤i≤t{P(T=ti|Puk)}(9)
綜上,則判斷出Puk的合體性情況為ti。
4.2" 判別結(jié)果分析
本文通過SPSS軟件構(gòu)建貝葉斯判別模型。由于樣本量較少,采用交叉驗證留一法來驗證判別的準(zhǔn)確率。即人體特征與服裝特征的搭配數(shù)據(jù)集S中有m個樣例,將其劃分為m個互斥的集合進行交叉驗證,每次使用m-1個樣例進行訓(xùn)練,1個樣例進行測試,然后計算準(zhǔn)確率。本文利用DF、OF、GF這3種特征進行女西裝合體性判別準(zhǔn)確率為84.8%??梢暬袆e結(jié)果如圖5所示,進一步驗證了基于DF、OF、GF這3類特征和基于貝葉斯模型構(gòu)建的女西裝合體性判別模型有效。
4.3" 誤差分析
錯誤的合體性判斷會帶來損失(表6)。由表6可知,貝葉斯模型對于3類合體性情況判別準(zhǔn)確率分別為93.0%、82.1%和78.8%。造成誤判的一個重要原因是樣本量較少,隨著樣本量的增加判別準(zhǔn)確性也會明顯提高。
4.4" 判別函數(shù)的建立
利用貝葉斯判別法得到Fisher線性判別函數(shù),根據(jù)該函數(shù)可以建立合體性判別方程,將未知合體性的服裝尺寸和2D人體圖像特征帶入方程即可以判斷該用戶穿著該服裝的合體性情況,判別方程如式(10)~(12)所示。其中,Z1、Z2、Z3分別為不同合體性類別的Fisher判別得分。當(dāng)Z1≥Z2且Z1≥Z3時服裝歸為第一類,即服裝緊小。當(dāng)Z2≥Z1且Z2≥Z3時服裝歸為第二類,即服裝合體。當(dāng)Z3≥Z1且Z3≥Z2時服裝歸為第三類,即服裝寬松。
Z1=1.656H-12.844ρ+4 166.347F-17.76dWW+4.245dHW+23.4dBT+31.583dWT-28.298dHT+19.406B+34.932L-5 474.669(10)
Z2=1.626H-13.331ρ+4 207.868F-18.148dWW+4.269dHW+23.4dBT+31.878dWT-28.635dHT+20.739B+35.995L-5 615.724(11)
Z3=1.564H-13.656ρ+4 239.961F-18.525dWW+4.323dHW+23.464dBT+31.998dWT-28.869dHT+21.879B+37.239L-5 746.561(12)
5" 結(jié)" 論
本文提出了一種基于2D人體圖像的女西裝合體性判別方法。該方法構(gòu)建了服裝數(shù)據(jù)集和人體數(shù)據(jù)集,并基于CLO3D平臺進行了虛擬試衣實驗。通過基于感性工學(xué)的專家感性評價法獲取了服裝的合體性類別標(biāo)簽,再提取了胸圍和衣長兩個服裝特征,并利用計算機視覺技術(shù)提取了2D人體圖像中5個關(guān)鍵點距離特征和3個人體整體特征作為服裝合體性判斷的指標(biāo),然后建立了基于貝葉斯算法的女西裝合體性判別模型和判別方程,采用交叉驗證的方法檢驗了該模型的判別精度為84.8%。通過驗證實驗表明,本文提出的3類指標(biāo)和貝葉斯模型對于基于2D人體圖像的女西裝合體性判別有效。
基于2D圖像的女西裝合體性判別方法是解決服裝遠程定制和網(wǎng)絡(luò)購衣服裝合體性判斷的有效途徑,但在評價標(biāo)簽獲取的客觀性和評價結(jié)果對紙樣改進的指導(dǎo)性方面還需進一步優(yōu)化。在今后的研究中還會增加真人試穿過程并對服裝動態(tài)舒適性加以評估,使評價結(jié)果更客觀和全面,同時也將不斷探索新的判別算法以提高預(yù)測精度。
參考文獻:
[1]LIU K X, ZENG X Y, BRUNIAUX P, et al. Fit evaluation of virtual garment try-on by learning from digital pressure data[J]. Knowledge-Based Systems, 2017(133): 174-182.
[2]CHRIMES C, BOARDMAN R, VIGNALI G, et al. Investigating how online fashion product page design affects the consumer’s clothing fit appraisal[J]. Journal of Consumer Behaviour, 2022, 21(6): 1478-1493.
[3]王詩潭, 汪秀花, 王云儀. 連體服衣下間隙特征指標(biāo)的確定及其在服裝合體性評價中的應(yīng)用[J]. 紡織學(xué)報, 2021, 42(9): 137-143.
WANG S T, WANG X H, WANG Y Y. Determination and application of air gap parameters in coverall fit analysis[J]. Journal of Textile Research, 2021, 42(9): 137-143.
[4]徐希朋, 徐燕妮, 季曉芬. 單次定制訂單的青年女性群體服裝定制號型[J]. 絲綢, 2023, 60(8): 82-90.
XU X P, XU Y N, JI X F. Customized sizes for young women’s group clothing with a single customized order[J]. Journal of Silk, 2023, 60(8): 82-90.
[5]劉凱旋. 基于知識的服裝設(shè)計與合體性評估系統(tǒng)的研究及應(yīng)用[D]. 上海: 東華大學(xué), 2017.
LIU K X. Study on Knowledge-Based Garment Design and Fit Evaluation System[D]. Shanghai: Donghua University, 2017.
[6]張喜景. 基于3D虛擬技術(shù)的服裝合體性評價研究: 以韓國女性體型變化為例[D]. 上海: 東華大學(xué), 2019.
ZHANG X J. Study on Method for Evaluation of Clothing Fit Through 3D Virtual Fitting: Taking the Change of Korean Women Body Shape as an Example[D]. Shanghai: Donghua University, 2019.
[7]HONG Y, PASCAL B, ZHANG J J, et al. Application of 3D-TO-2D garment design for atypical morphology: A design case for physically disabled people with scoliosis[J]. Industria Textila, 2018, 69(1): 59-64.
[8]LIU K X, ZHANG L X, ZHU C, et al. An analysis of influence factors of sports bra comfort evaluation based on different sizes[J]. The Journal of the Textile Institute, 2019, 110(12): 1792-1799.
[9]TAO X Y, CHEN X, ZENG X Y, et al. A customized garment collaborative design process by using virtual reality and sensory evaluation on garment fit[J]. Computers amp; Industrial Engineering, 2018(115): 683-695.
[10]LIU K X, WANG J P, YAN H. Wearing comfort analysis from aspect of numerical garment pressure using 3D virtual-reality and data mining technology[J]. International Journal of Clothing Science and Technology, 2017, 29(2): 166-179.
[11]HORIBA Y, AMANO T, INUI S, et al. Proposal of method for estimating clothing pressure of tight-fitting garment made from highly elastic materials: Hybrid method using apparel CAD and finite element analysis software[J]. The Society of Fiber Science and Technology, 2021(2): 76-87.
[12]XU H C, LI J T, LU G D, et al. Predicting ready-made garment dressing fit for individuals based on highly reliable examples[J]. Computers amp; Graphics, 2020(90): 135-144.
[13]ZHANG M M, ZHUANG M L, ZHANG X F. Objective fitting evaluation model for dressing fit based on wrinkle index of dressing image[J]. Journal of Donghua University (English Edition), 2019(36): 37-45.
[14]LIU K X, WU H H, ZHU C, et al. An evaluation of garment fit to improve customer body fit of fashion design clothing[J]. The International Journal of Advanced Manufacturing Technology, 2022, 120(3/4): 2685-2699.
[15]ZHAO X Q, FAN K, SHI X, et al. Virtual fit evaluation of pants using the adaptive network fuzzy inference system[J]. Textile Research Journal, 2021, 91(23/24): 2786-2794.
[16]羅麗弦, 洪玲. 感性工學(xué)設(shè)計[M]. 北京: 清華大學(xué)出版社, 2015.
LUO L X, HONG L. Kansei Engineering Design[M]. Beijing: Tsinghua University Press, 2015.
[17]遠玉潔, 梁建芳. 基于感性工學(xué)的男士休閑西裝搭配方案設(shè)計研究[J]. 山東紡織科技, 2023, 64(4): 1-5.
YUAN Y J, LIANG J F. Research on the design of men’s casual suit matching scheme based on perceptual engineering[J]. Shandong Textile Science amp; Technology, 2023, 64(4): 1-5.
[18]宋瑩, 阮勝坤. 基于數(shù)量化理論Ⅰ的男襯衫設(shè)計要素感性評價[J]. 絲綢, 2023, 60(3): 105-112.
SONG Y, RUAN S K. Perceptual evaluation of men’s shirt design based on quantitative theory Ⅰ[J]. Journal of Silk, 2023, 60(3): 105-112.
[19]陳曉玲, 聶存云, 李納納. 女上裝合體性與舒適性的綜合評價[J]. 紡織學(xué)報, 2016, 37(5): 117-123.
CHEN X L, NIE C Y, LI N N. Comprehensive assessment methods for women’s garment fitness and comfort[J]. Journal of Textile Research, 2016, 37(5): 117-123.
[20]顧冰菲, 閆彥紅, 蘇軍強, 等. 女西裝特征部位松量分布規(guī)則[J]. 紡織學(xué)報, 2019, 40(5): 107-112.
GU B F, YAN Y H, SU J Q, et al. Ease distribution rules of characteristic positions in women’s suits[J]. Journal of Textile Research, 2019, 40(5): 107-112.
[21]韓寧生, 江璟瑜. 基于ConvLstm的參數(shù)化建模及人體尺寸測量方法[J]. 信息技術(shù), 2021(9): 89-94.
HAN N S, JIANG J Y. Parametric modeling and body size measurement method based on ConvLstm[J]. Information Technology, 2021(9): 89-94.
[22]CHEN D Y, SONG Y Y, LIANG F Z, et al. 3D human body reconstruction based on SMPL model[J]. The Visual Computer, 2022, 39(5): 1893-1906.
[23]NAKAMURA K, KUROKAWA T. Analysis and classification of three-dimensional trunk shape of women by using the human body shape model[J]. International Journal of Computer Applications in Technology, 2009, 34(4): 278-284.
[24]許家?guī)r, 匡才遠. 體表特征參數(shù)對遠程人體測量精度的影響[J]. 絲綢, 2019, 56(8): 36-45.
XU J Y, KUANG C Y. Influence of characteristic parameters of body surface on long-range body measurement precision[J]. Journal of Silk, 2019, 56(8): 36-45.
[25]夏夢, 杜弘志, 林嘉睿, 等. 基于關(guān)鍵點距離表征網(wǎng)絡(luò)的物體位姿估計方法[J]. 激光與光電子學(xué)進展, 2023, 60(16): 314-322.
XIA M, DU H Z, LIN J R, et al. Object pose estimation based on keypoint distance network[J]. Laser amp; Optoelectronics Progress, 2023, 60(16): 314-322.
[26]GU B F, SU J Q, KIU G L, et al. Pattern alteration of women’s suits based on ease distribution[J]. International Journal of Clothing Science and Technology, 2016, 28(2): 201-215.
[27]劉嘉文. 基于正交圖像的人體尺寸測量[D]. 武漢: 武漢紡織大學(xué), 2021.
LIU J W. Dimension Measurement for Dressed Human Bodies via Orthogonal Image[D]. Wuhan: Wuhan Textile University, 2021.
[28]YAO T, MIN Y N, WANG J, et al. Classification of female body shape based on two-dimensional image and computer vision technology[J]. Textile Research Journal, 2023, 93(19/20): 4383-4391.
[29]景曉寧, 李曉久. 樸素貝葉斯算法在女童體型判別中的應(yīng)用[J]. 紡織學(xué)報, 2017, 38(12): 124-128.
JING X N, LI X J. Application of Naive Bayesian method in girl’s figure discrimination[J]. Journal of Textile Research, 2017, 38(12): 124-128.
Discriminating the fit of women’s suits based on 2D human body image feature learning
ZHANG Chi, WANG Xiangrong
YAO Tonga,b,c, MIN Yueninga, WANG Juna,b, SUN Jianmeic, PAN Lia,b
(a.School of Fashion; b.National Demonstration Center for Experimental Fashion Design and Engineering Education;c.School of Textile and Material Engineering, Dalian Polytechnic University, Dalian 116034, China)
Abstract:
Garment fit evaluation is one of the main bottlenecks in current fashion design and manufacturing. In the process of remote customization and online shopping, the size of the clothes that does not fit has become the primary reason for users to return or exchange them, which has seriously affected the intelligent upgrade of the clothing industry. Therefore, how to judge the fit degree of a garment without actually trying it on is one of the main problems that needs to be solved urgently in the clothing industry. In previous studies, garment fit was usually evaluated by some characteristic indexes, such as ease allowance, clothing wrinkle, the spatial relationship between clothing and the human body, and clothing pressure. However, most of them have some problems such as the need to try on clothes and the complicated evaluation process, which are not suitable for remote customization of clothing and online shopping. With the development of computer vision and machine learning technology, a small number of scholars use 2D images to judge garment fit based on clothing wrinkle, but only for specific garments, and the generalization ability is weak.
To solve the problem that garment fit cannot be discriminated in advance in the process of remote customization and online shopping, this study took women’s suits as an example and put forward a method to discriminate the fitness of women’s suits based on 2D human images. Firstly, 2D images and 3D human body size of 462 young women aged 18-25 in northeast China were collected, and a human body data set was established. Twenty-two samples were selected from this data set, and virtual models were established for virtual try-on by using CLO3D software. According to the national clothing size standard of China, 10 virtual women’s suits with the same style and different sizes were made to establish the garment data set. Based on the principle of Kansei engineering, the fitting evaluation labels of women’s suits, namely tight, fit and loose types were given by expert evaluation method combined with virtual fitting. Then, a method to discriminate the fit of women’s suits by using garment features and 2D human image features was proposed. As for the garment features (GFs), the bust girth and length characteristics of women’s suits, the features of 2D human body image including the key point distance features (DFs) and overall features (OFs) were extracted. The specific extraction method is as follows. Firstly, the 2D human body image was preprocessed and normalized, and the human body contour was extracted by Canny edge detector, and the five DFs in the 2D human body image were obtained, namely the distance of chest thickness key points distance, waist thickness key points distance, hip thickness key points distance, waist width key points distance and hip breadth key points distance. Then, three OFs of the 2D human body image were extracted, namely, the body height pixel value feature (H), the feature of the projected unit area (ρ), and the feature of the projected area ratio of the front and side of the human body (C). Finally, the Bayesian classifier was used to establish the garment fit prediction model, and the Fisher linear discriminant function was used to establish the women’s suit fit discriminant equation. In this paper, computer vision technology was used to extract the feature indexes of garment fit evaluation, and a machine learning algorithm was combined to realize the women’s suit fit discrimination based on 2D human body images. Experimental results indicate that, the garment features proposed in this paper and the 2D human body image features based on computer vision technology can be used to predict the fit of women’s suits, and the discriminant model of women’s suits based on the Bayesian algorithm has achieved good discriminant accuracy, and the cross-validation discriminant accuracy rate can reach 84.8%, so the model is valid.
The women’s suit fit discrimination model based on 2D human image feature learning provides an effective and feasible method for garment fit in fashion design, production, manufacturing, and online shopping. This method provides a theoretical basis for the quantitative evaluation of garment fit and is beneficial to the recommendation of clothing size and the improvement of patterns in clothing customization enterprises and online shopping.
Key words:
2D human body images feature; computer vision; machine learning; women’s suit; garment fit; Bayes model