關(guān)鍵詞:女褲結(jié)構(gòu)特征;YOLOv8;女褲制版;款式圖識別;相似款式圖匹配中圖分類號:TS941.71 文獻標志碼:A 文章編號:1673-3851(2025)07-0507-08引用格式:,.基于YOLOv8的女褲結(jié)構(gòu)特征識別方法[J].學報(自然科學),2025,53(4) :507-514.Reference Format: LI Meng, CHEN Minzhi.A structural feature recognition method of women's pantsbased onYOLOv8[J]. Journal of Zhejiang Sci-Tech University,2025,53(4) :507-514.
Abstract: To facilitate the matching of clothing style sketches and the swift generation of template maps,so as to improve the pattern-making efficiency of apparel enterprises,a YOLOv8-based method for identifying structural features of women's pants was proposed. This method matches similar style sketches by recognizing the structural features of women's pants. According to patern-making rules for women's pants,a clasification system for structural features was established, encompassing six key modules: silhouette,waist structure, hip structure,crotch structure, placket,and pockets,which were further subdivided into 23 categories.These structural features were then encoded according to the classification system to obtain category labels. Taking mannequin-based style sketches as the research object, samples of women's pants were drawn. By formulating and unifying sample annotation rules,a dataset suitable for structural feature recognition was created. The enhanced dataset of style sketches was recognized using YOLOv8,and the model was applied to match similar style sketches and rapidly generate pattern drawings. The results indicate that this method can effectively classify the structural features of women's pants,with an overall classification accuracy of 97.8% and a mean average precision of 99.0% . It provides an effective approach for the recognition and application of garment structural features.
Key words: structural characteristics of women' s pants; YOLOv8;women's pants plate making pattern recognition; similar style sketch matching
0 引言
傳統(tǒng)的服裝制版需要制版師人工分析款式圖信息并繪制樣板圖,容易受主觀判斷的影響,造成款式特征誤判、款式圖到樣板圖的轉(zhuǎn)換差異大以及生產(chǎn)效率低等問題[1]。依據(jù)款式圖與樣板圖之間的對應關(guān)系,利用服裝款式圖的全局與局部特征對款式圖進行識別,能實現(xiàn)款式圖的自動分類以及相似款式的檢索,完成樣板的自動轉(zhuǎn)化,從而提高服裝企業(yè)的生產(chǎn)效率。
近年來,利用深度學習技術(shù)進行服裝圖像的特征提取和識別分類等相關(guān)研究得到了廣泛關(guān)注針對服裝局部特征風格難以識別的問題,Yue等[3]提出一種基于服裝圖像和設(shè)計問題圖的聯(lián)合組成的卷積神經(jīng)網(wǎng)絡(luò)模型,實現(xiàn)了不同款式的服裝風格的識別。吳歡等4]采用CaffeNet卷積神經(jīng)網(wǎng)絡(luò)模型解決了廓形相似、類別相同的女褲款式圖難以識別的問題,提高了服裝廓形的識別準確率。江慧等[5]通過構(gòu)建服裝款式的風格特征模型,實現(xiàn)了服裝風格的款式相似度計算。目前對款式圖的識別側(cè)重于色彩、紋理與風格等[6-7全局特征的分類,而服裝樣板如褲子還需要考慮省道、門襟等細部特征。
針對上述問題,本文提出了一種基于YOLOv8的女褲結(jié)構(gòu)特征識別方法。該方法將相似款式圖的匹配轉(zhuǎn)化為對款式圖中結(jié)構(gòu)特征的識別。參照女褲制版知識,選定款式圖中需要識別的結(jié)構(gòu)特征共有23個,并設(shè)計類別標簽,為構(gòu)建數(shù)據(jù)集提供依據(jù);通過繪制人臺式款式圖和制定標注規(guī)則,構(gòu)建了女褲數(shù)據(jù)集;選擇YOLOv8作為識別實驗的模型,實現(xiàn)了女褲結(jié)構(gòu)特征的準確識別;最后將模型輸出的結(jié)構(gòu)特征類別標簽,與數(shù)據(jù)庫中類別標簽對應的款式圖進行匹配,檢索出相似款式圖,并依據(jù)款式圖與樣板圖的對應關(guān)系,調(diào)用并修改樣板圖得到目標樣板,實現(xiàn)樣板的快速生成。由于該模型能夠快速定位和識別圖像中的細節(jié)特征,因而能提高服裝結(jié)構(gòu)特征識別技術(shù)在服裝檢索系統(tǒng)中的應用價值。
1女褲款式圖結(jié)構(gòu)特征
1. 1 結(jié)構(gòu)特征分類
本文以女褲人臺式款式圖為研究對象,其結(jié)構(gòu)特征主要描述制版規(guī)則的款式信息,不考慮服裝面料材質(zhì)、色彩和花邊等具有裝飾性的細節(jié)。參考女褲制版方法[8],繪制基礎(chǔ)框架,再繪制局部細節(jié)的模式,總結(jié)出對款式圖需要識別的結(jié)構(gòu)特征,包括褲長、廓形、腰部結(jié)構(gòu)、臀部結(jié)構(gòu)、襠部結(jié)構(gòu)和內(nèi)部細節(jié)等6個模塊,具體的分類體系如圖1所示。本文統(tǒng)一將長褲作為研究對象,故不對褲長進行分類。廓形可歸納為直筒褲、錐形褲、闊腿褲、喇叭褲、緊身褲和蘿下褲;腰部結(jié)構(gòu)的設(shè)計通常是腰位的變化和腰下造型設(shè)計,其中腰位分為高腰、中腰和低腰3類,褲裝腰部的省道和褶裯只是工藝的不同,故腰下造型可分為省道(褶裯)、較多褶櫚、無褶裯。臀部結(jié)構(gòu)按照臀圍松量大小分為合體臀、較寬松臀、寬松臀;襠部結(jié)構(gòu)主要考慮襠部位置,可分為常規(guī)襠位、低襠位;內(nèi)部細節(jié)設(shè)計有門襟和口袋(腰部口袋),門襟包括有門襟和無門襟,口袋分為貼袋、挖袋和插袋和無袋等4類。經(jīng)過15名專家評定所設(shè)計的分類體系涵蓋了現(xiàn)有的大部分女褲款式。
1. 2 標簽設(shè)計
對款式圖中的特征進行標簽設(shè)計是將繁雜信息簡單化表達,有利于更好地歸納款式結(jié)構(gòu)特征以及構(gòu)建款式圖數(shù)據(jù)集。依據(jù)女褲結(jié)構(gòu)特征識別體系,本文共設(shè)計了7類標簽,每類標簽又包含了不同類別,編碼結(jié)果如表1所示。將每個類別按照字母與數(shù)字組合的方式進行編碼,以便于后續(xù)樣本標注和數(shù)據(jù)整理。
2 識別實驗
2.1 模型選擇與搭建
本文采用YOLOv8作為女褲結(jié)構(gòu)特征識別的模型。該模型僅進行一次前向傳播就可以同時實現(xiàn)標定框的位置預測和類別預測,常用于目標檢測、實例分割和關(guān)鍵點檢測等任務(wù)。與FasterR-CNN、SSD、低版本YOLO相比,YOLOv8具有更高的檢測精度、更快的檢測速度、更輕量化以及更廣泛的應用場景等優(yōu)點[9]。同時,YOLOv8適用于背景信息簡單的黑白人臺式款式圖的深度學習,能夠快速識別圖像中的底層特征和細節(jié)特征。
YOLOv8結(jié)構(gòu)主要由輸入端(Input)、主干網(wǎng)絡(luò)(Backbone)、頸部(Neck)和檢測頭(Head)等4個模塊組成[10]。用于女褲結(jié)構(gòu)特征識別的YOLOv8結(jié)構(gòu)如圖2所示。其中主干網(wǎng)絡(luò)的初始端由兩個 3× 3的卷積核的Conv模塊提取款式圖的初步特征,C2f擴大網(wǎng)絡(luò)感受野并增強網(wǎng)絡(luò)深度,SPPF模塊使用快速的空間金字塔池化操作,以提取更全面的特征信息并減少冗余的計算;Neck模塊采用上采樣、下采樣調(diào)整圖像尺寸和Concat操作,以實現(xiàn)不同尺度的特征信息融合,并將結(jié)果輸人Head網(wǎng)絡(luò);Head部分的3個檢測頭,負責檢測大、中、小尺寸的目標特征,并采用2個任務(wù)分支對圖像進行分類和回歸預測,輸出圖像的類別信息和標定框的位置信息。
2.2 數(shù)據(jù)集構(gòu)建
2.2.1 數(shù)據(jù)集準備
為了準確地判別女褲的廓形和臀圍松量,本文選用“人臺式\"款式圖[11作為研究對象,它能直觀地反映女褲的著裝效果以及服裝與人臺間的關(guān)系。按照160/66A標準女體下裝人臺的尺寸和關(guān)鍵圍度數(shù)據(jù),將人臺進行等比例縮小實現(xiàn)二維平面轉(zhuǎn)化,減少多余線條對款式圖特征提取時的干擾。收集服裝企業(yè)和相關(guān)網(wǎng)站的女褲款式圖,參照這些圖像和分類體系,利用CoreldrawX8繪圖軟件在二維人臺底圖上繪制2500余張女褲款式圖,獲得了款式多樣的女褲數(shù)據(jù)集。其中每種廓形的款式圖各416張,其余特征數(shù)量最少為402張,數(shù)量最多為1378張。采用數(shù)據(jù)增強處理數(shù)據(jù),擴充數(shù)據(jù)集,并通過數(shù)據(jù)調(diào)節(jié)改善數(shù)據(jù)集中同一特征不同類別分布不均問題,提高模型泛化能力。數(shù)據(jù)增強包括圖像的明暗變化、隨機旋轉(zhuǎn)、垂直翻轉(zhuǎn)、加入椒鹽噪聲和高斯模糊等,圖像增強后的效果如圖3所示。增強后的數(shù)據(jù)集有款式圖18016張,不同類別的結(jié)構(gòu)特征數(shù)量分布相對平衡。
2.2.2 數(shù)據(jù)集的標注
依據(jù)女褲結(jié)構(gòu)特征的類別標簽,運用Labelimg對數(shù)據(jù)集進行標注,并采用txt文檔記錄結(jié)構(gòu)特征的標注框類型及二維坐標信息。女褲款式圖中省道口袋等特征相對直觀,而臀圍松量大小和廓形不能直觀地判斷,需要參考腰下褶裯和臀部至大腿中部的輪廓線內(nèi)凹外展的程度進行判斷。款式圖標注示例如圖4所示。為了規(guī)范和統(tǒng)一數(shù)據(jù)集,本文制定了標注規(guī)則,具體如下。
a)對于口袋和腰下造型等左右對稱的特征,標注時不區(qū)分左右,僅標注一邊;同時為了標注界面清晰,腰下造型僅標注左邊,腰部口袋僅標注右邊。
b)腰位以人臺腰圍線為參照進行類別判斷,腰位的標注需包含褲子的腰部和人臺的腰圍線。
c)臀部結(jié)構(gòu)以褲裝與人體臀圍線和大腿之間的距離為判斷依據(jù),標注時需包含部分褲子和人臺的側(cè)輪廓。d)襠位的判斷以人臺襠部和褲子的內(nèi)側(cè)縫線的交點為參照,標注時需將兩者進行整體標注。e)有門襟時需要標注門襟的整體結(jié)構(gòu),無門襟時以前中線為參照按門襟一般所在位置標注。
2.3 YOLOv8實驗
2.3.1 環(huán)境與參數(shù)設(shè)置
本文的實驗硬件環(huán)境為Windows11系統(tǒng),GPU為NvidiaRTX4060,硬盤512GBSSD,并以Pytorch為框架,Cuda為訓練環(huán)境。模型訓練過程的具體參數(shù)值如表2所示,YOLOv8輸入的女褲款式圖經(jīng)過輸入端的縮放、裁剪、歸一化等預處理操作后圖像分辨率為 640×640 像素,共訓練200 個epoch。
2.3.2 模型訓練
將數(shù)據(jù)集按照8:2的比例進行劃分,其中訓練集14413張,驗證集3603張。訓練集用來確定模型的學習參數(shù),驗證集主要用來測試和評估模型性能。模型從訓練集中隨機選取參加訓練的圖像,并輸入卷積層提取特征,通過移動感受野對圖像不斷進行卷積和最大池化,再經(jīng)過特征融合后獲得不同語義的特征圖,最后由全連接層輸出結(jié)構(gòu)特征的類別標簽和標定框位置。YOLOv8采用BCE二元交叉熵作為分類損失函數(shù),如式(1)所示,通過比較模型輸出的概率值和真實的標簽值來評估模型的表現(xiàn)?;貧w損失采用CIOULoss十DFL結(jié)合計算邊框回歸,該損失函數(shù)以交叉熵的形式讓網(wǎng)絡(luò)更快地聚焦到目標位置,具體如式(2)—(3)所示:
其中: L 表示模型的分類損失, N 為樣本數(shù)量, xi 為模型的預測概率, yi 為真實的標簽值。
(1-f2)log(s(1-zij))]
其中: b 為邊界框的數(shù)量, J 為離散區(qū)間數(shù)量, f 為真實與預測邊界框的差值, s 為 sigmoid 函數(shù), z 為預測邊界框的位置分布; IoU 為真實框與預測框的交并比, d 為兩個邊界框中心點的歐氏距離, c 為邊界框?qū)蔷€的長度, w 和 υ 分別為與長寬比相關(guān)的權(quán)重和度量。
2.3.3 模型應用
本文通過YOLOv8女褲結(jié)構(gòu)特征識別實驗,完成相似款式圖的檢索以及樣板的快速生成,具體方法如圖5所示。將女褲人臺式款式圖作為結(jié)構(gòu)特征識別網(wǎng)絡(luò)模型的輸入,識別輸出為結(jié)構(gòu)特征編碼,即類別標簽。結(jié)構(gòu)特征編碼通過匹配模型,與數(shù)據(jù)庫中款式圖對應的結(jié)構(gòu)特征編碼進行匹配,快速檢索出具有相同結(jié)構(gòu)特征的款式圖,完成相似款式圖的匹配;數(shù)據(jù)庫中的女褲款式圖與結(jié)構(gòu)圖是對應的數(shù)據(jù),通過匹配的款式圖,調(diào)用并修改對應的樣板圖,得到目標樣板。
2. 4 結(jié)果分析
為驗證YOLOv8模型在女褲結(jié)構(gòu)特征識別分類任務(wù)中的整體準確率,對訓練好的模型進行多指標的評估。圖6為模型訓練時的損失函數(shù)曲線圖,從圖中可知隨著訓練輪數(shù)增加模型的定位、分類損失數(shù)值越小,模型識別效果越好。圖7為模型訓練的平均精度均值(mAP)曲線,當模型的IoU設(shè)置為0.5,訓練次數(shù)達到100時,所有結(jié)構(gòu)特征的mAP曲線在 99% 附近趨于穩(wěn)定,得到mAP值為99.0% ,且在訓練過程中沒有過擬合或欠擬合現(xiàn)象。
將驗證集在訓練好的模型中進行測試,采用混淆矩陣、精確率(Precision)、召回率(Recall)和 F1 值作為YOLOv8模型評估指標,其中 F1 是精確率和召回率的調(diào)和平均數(shù)。精確率、召回率和 F1 數(shù)值越接近1,證明模型的識別效果越好[12]。圖8為驗證集測試后得到的混淆矩陣,混淆矩陣的行和列分別表示模型預測的類別和實際的類別,對角線表示正確識別的樣本數(shù)量,顏色越深則該類別預測正確的數(shù)量越多。從圖8中可以看出:可視化的混淆矩陣不僅能計算所有類別預測的正確數(shù)量和錯誤數(shù)量,還能反映各類別的數(shù)量差異情況;如,喇叭褲A4的總數(shù)量為600,其中預測的正確數(shù)量為586,錯誤數(shù)量為14,并且廓形的各個類別的總數(shù)量分布相對均衡,均在610范圍浮動。
模型在女褲結(jié)構(gòu)特征中的檢測準確率對比如圖9所示。從圖9中可知:模型識別準確率最高為99.5% ,最低為 77.9% ;其中廓形、腰位的準確率最高均在 94.0% 以上,而腰下造型和臀部結(jié)構(gòu)的準確率較低分別為 83.2%.79.6% ,其他特征則居中。從數(shù)據(jù)集中各特征的分布數(shù)量發(fā)現(xiàn),數(shù)據(jù)集多少并不是影響類別識別準確率的主要原因。在女褲結(jié)構(gòu)特征識別過程中,腰部省道或褶櫚有一部分會被褲子口袋遮擋,造成圖像識別困難;臀圍松量需要依據(jù)與人體臀部以及大腿中部的偏移程度來衡量,人臺底圖的存在會對臀部結(jié)構(gòu)的識別形成干擾。側(cè)縫口袋遮擋了部分臀圍線,同樣也降低了圖像識別的準確率。通過驗證集計算出模型的總體精確率為97.8% ,召回率為 98.3% , F1 值為0.98,表明模型不僅適用于外輪廓的識別,還具備對內(nèi)部細節(jié)特征良好的識別能力。部分遮擋的特征信息影響了模型的特征識別準確率。
采用YOLOv8對女褲結(jié)構(gòu)特征識別的結(jié)果如表3所示,從表中可以看出,模型對各個特征的識別準確率較高,其中廓形的識別準確率最高。通過YOLOv8的深度學習方法可以實現(xiàn)對女褲結(jié)構(gòu)特征的準確識別。
3結(jié)論
本文提出了一種基于YOLOv8的服裝結(jié)構(gòu)特征識別方法,并將女褲款式圖的匹配轉(zhuǎn)化為對結(jié)構(gòu)特征的識別,實現(xiàn)相似款式圖的匹配和樣板的快速生成。主要結(jié)論如下:
a)結(jié)合制版師繪制樣板圖的方法建立女褲結(jié)構(gòu)特征分類體系,并對這些結(jié)構(gòu)特征設(shè)計分類標簽,提高了數(shù)據(jù)讀取和分類效率。
b)利用人臺為底圖建立女褲人臺式款式圖樣本庫,通過數(shù)據(jù)增強方法擴充數(shù)據(jù)集,提高了模型的泛化能力;基于YOLOv8的深度學習方法對數(shù)據(jù)集展開訓練,采用混淆矩陣對驗證集的測試結(jié)果進行可視化,訓練后模型的總體精確率為 97.8% , mAP 值達到 99.0% ,其中廓形識別精度最高,表明模型能夠自動實現(xiàn)對服裝款式結(jié)構(gòu)特征的識別和分類。
本文提出的女褲結(jié)構(gòu)特征識別方法在服裝款式圖檢索和服裝制版系統(tǒng)中有一定的應用前景,但針對款式圖被遮擋、信息不全等問題,模型的識別準確率還有待提高。后續(xù)研究將進一步提高模型對較復雜的圖像的識別能力,如考慮增加分割線,對女褲結(jié)構(gòu)特征進行更細致的分類,進而拓展其在服裝款式圖檢索系統(tǒng)中的應用。
參考文獻:
[1]李濤,杜磊,黃振華,等.服裝款式圖識別與樣板轉(zhuǎn)換技術(shù)研究進展[J].紡織學報,2020,41(8):145-151.
[2]陳巧紅,陳翊,孫麒,等.服裝圖像分類技術(shù)綜述[J].學報(自然科學版),2019,41(5):631-64.
[3] Yue X D, Zhang C,F(xiàn)ujita H,et al. Clothing fashion stylerecognition with design issue graph[J]. Appl Intell,2o21,51(6):3548-3560.
[4]吳歡,丁笑君,李秦曼,等.采用卷積神經(jīng)網(wǎng)絡(luò)CaffeNet模型的女褲廓形分類[J].紡織學報,2019,40(4):117-121.
[5]江慧,馬彪.基于服裝風格的款式相似度算法[J].紡織學報,2021,42(11):129-136.
[6]劉蓉,謝紅.基于改進的AlexNet網(wǎng)絡(luò)的服裝廓形識別[J].北京服裝學院學報(自然科學版),20,43(3):64-69.
[7]夏明,宋婧,姜朝陽,等.基于連衣裙結(jié)構(gòu)特征匹配的款式識別技術(shù)[J].紡織學報,2020,41(7):141-146.
[8]張文斌.服裝結(jié)構(gòu)設(shè)計[M].北京:中國紡織出版社,2006:70-74.
[9]李海源,黃?。赮OLOv8的無人機紅外航拍目標檢測方法[J/OL]. 激光雜志:1-9(2024-07-14)[2024-11-11]. http://kns.cnki. net/kcms/detail/50.1085. TN. 20240710.200.006.html.
[10]張恩召,李磊,汪建華,等.基于改進YOLOv8的船板焊縫質(zhì)量檢測方法[J].陜西科技大學學報,2024,42(6):172-179.
[11]周幸子.連衣裙款式圖的識別和樣板的自動生成研究[D].上海:東華大學,2021:5-7.
[12]范博淦,王淑青,陳開元.基于改進YOLOv8的航拍無人機小目標檢測模型[J/OL].計算機應用.(2024-10-17)[2024-11-02].https://link.cnki. net/urlid/51.1307.tp. 20241017.1040. 004.
(責任編輯:張會?。?/p>