中圖分類號:TS941.26 文獻標志碼:A 文章編號:1673-3851(2025)07-0488-10
引用格式:,等?;诜b點云的高精度袖窿分割線自動識別方法[J].學報(自然科學),2025,53(4):488-497.
Abstract:To solve the problems that it is dificult to identify the armhole segmentation lines and that the sleeve template does not meet the requirements of plate making,an automatic high-precision recognition method for armhole segmentation lines based on garment point clouds was proposed by taking tops with the shoulder line at the shoulder position as an example. First,a dynamic graph convolutional neural network (DGCNN) was used to coarsely segment the garment point cloud to obtain the armhole point cloud area,and the armhole key point cloud was obtained by denoising. Then,the weighted least squares method was used to fit the key point cloud of the armhole,and the front and rear armhole dividing lines were obtained,and the split lines were optimized by combining the arc interpolation method and cubic spline interpolation to solve the problems of missing and dislocated connections. Finally,the surface deployment algorithm based on angle protection generated the sleeve template,and the sleeve cap arc correction scheme was added to compare the generated template with the real one and that generated by the NeuralTailor model to verify the accuracy of the templates. The experimental results show that the armhole segmentation line generated by this method is highly similar to the real armhole segmentation line,and the RMSE and MAE are both less than 0.200cm . The sleeve template generated by surface deployment algorithm based on angle protection has high precision,with the average deviation of the key dimensions of the sleeve being 0.238cm ,and the average absolute error value of sleeve template being 0.296cm ,which further verifies the accuracy of the armhole dividing line. This provides an effective technological path for the automated generation of garment sleeve templates,and can enhance the efficiency of clothing design and development.
Key words: garment point clouds; armhole segmentation line recognition; dynamic graphconvolutional network;curve fitting; surface deployment; sleeve body template generation
0引言
隨著服裝產(chǎn)業(yè)數(shù)字化和智能化的快速發(fā)展,服裝行業(yè)的生產(chǎn)與銷售模式正在經(jīng)歷深刻的變革。消費者對服裝個性化定制的需求日益增長,傳統(tǒng)的成衣生產(chǎn)模式已越來越難以滿足市場的多樣化要求[1-3]。當前服裝制版主要依賴人工操作,不僅效率低,而且難以應對快速迭代和個性化定制的需求,導致生產(chǎn)周期延長和成本增加。同時,電子商務的崛起縮短了產(chǎn)品迭代周期,傳統(tǒng)制版模式面臨前所未有的挑戰(zhàn),對制版效率提出了更高的要求。為此,三維服裝模型向二維樣板轉(zhuǎn)換的技術(shù)[4-6逐漸成為研究熱點,該技術(shù)不僅能顯著提高服裝制版效率,更為個性化樣板的生成提供了切實可行的路徑。然而,三維到二維轉(zhuǎn)換過程中的分割線識別仍面臨挑戰(zhàn),尤其是復雜的袖窿分割線,它直接影響成衣的合身性和舒適度。因此,精確識別和定位服裝分割線,特別是袖窿分割線,成為自動化樣板生成中的關(guān)鍵問題。
針對三維服裝模型向二維樣板轉(zhuǎn)換技術(shù),國內(nèi)外學者開展了大量研究,研究方向主要可以分為兩類:一是基于深度學習算法直接生成二維樣板;二是基于三維模型進行曲面展開來獲得二維樣板。Korosteleva等提出了一種從三維服裝點云中恢復服裝樣板結(jié)構(gòu)的深度學習網(wǎng)絡—NeuralTailor,用于決策拓撲和預測樣板細節(jié),該網(wǎng)絡結(jié)合了三維點級注意力機制與循環(huán)神經(jīng)網(wǎng)格(Recurrentneuralnetwork,RNN),顯著提升了制版速度。然而,該網(wǎng)絡未能結(jié)合服裝制版的專業(yè)知識,生成的袖身樣板為兩片,拼接后的袖山弧線呈現(xiàn)中間凹陷、兩側(cè)凸起的形狀,不符合制版要求;此外,它忽略了服裝板片分割方式的多樣性,對于分割線位置不同但點云形狀相似的服裝,生成的樣板并無差異,這限制了服裝個性化的實現(xiàn)。相比之下,基于三維模型的曲面展開技術(shù)可以通過識別分割線,保留模型的形狀特征,滿足一型一版的個性化定制需求,逐漸成為當前研究的熱點。
基于三維模型的曲面展開技術(shù)主要有兩個步驟:a)部件分割,利用分割線對三維服裝模型進行區(qū)域劃分,獲得各部位模塊。b)曲面展開,利用曲面展平算法將三維模塊展開,得到二維樣板。在部件分割這一步,分割線的定位直接影響生成樣板的質(zhì)量,是該技術(shù)的重點。為了實現(xiàn)該技術(shù),Huang等[8]提出了一種可展曲面邊界的三角化算法,將三維模型劃分若干個規(guī)整的模塊,以減少三維服裝模塊展開到二維平面時的幾何失真。Meng等9提出了一種網(wǎng)格交叉參數(shù)化的優(yōu)化算法,通過幾何重構(gòu),對參數(shù)化設計的三維服裝直接進行建模展平。Bang等[10]通過服裝網(wǎng)格的幾何結(jié)構(gòu)和曲面變化來估計接縫線,使用邊界優(yōu)化方法平滑處理,再使用曲面展開獲得二維樣板。肖伯祥等[11根據(jù)人體模型截面曲線的幾何特征來提取個性化體型的特征點,并以此為約束,使用基于質(zhì)點-彈簧系統(tǒng)的展平算法得到個性化襯衣樣板。上述方法依賴人體模型預定義的特征點以及模型的邊界條件生成分割線,特征點位置固定,生成的分割線單一,更適用于常規(guī)貼身服裝。對于較寬松、易產(chǎn)生褶皺的服裝,分割線識別的準確度仍面臨挑戰(zhàn)。特別是袖窿分割線的識別,受到袖子空間結(jié)構(gòu)復雜和形狀易扭曲的影響,基于預定義特征點的方法難以準確捕捉袖窿線的位置,導致生成的袖身樣板與預期存在較大偏差。
綜上可知,目前的智能化樣板生成方法在袖窿分割線識別上存在不足,導致生成的袖身樣板無法滿足制版要求。因此,如何精準識別袖窿分割線并生成高質(zhì)量的二維樣板,成為三維服裝模型轉(zhuǎn)換為二維樣板的關(guān)鍵問題,也是本文的研究重點。針對這一問題,本文以正肩上衣為例,提出了一種基于服裝點云的高精度袖窿分割線自動識別方法,旨在通過精準識別復雜區(qū)域的分割線,提高服裝樣板生成的精度和效率。首先,通過動態(tài)圖卷積網(wǎng)絡(Dynamic graph convolutional neural network,DGCNN)[12]進行點云粗分割以定位袖窿區(qū)域點云,再對其去噪處理以獲取袖窿關(guān)鍵點云,確保袖窿區(qū)域分割的準確性與穩(wěn)定性。然后,采用加權(quán)最小二乘法擬合袖窿關(guān)鍵點云,再結(jié)合圓弧插補與三次樣條插值的方法優(yōu)化袖窿分割線,通過擬合優(yōu)化過程,生成的分割線能夠真實反映服裝袖窿的幾何特征,提升了袖窿分割線自動識別的精度。最后,本文基于角度保護的曲面展開算法對袖身模型進行展平,并通過袖山弧線修正方案進一步優(yōu)化,確保生成的袖身樣板符合制版要求,同時為袖窿分割線的精度檢驗提供了支持。通過上述方法,本文實現(xiàn)了基于服裝點云的高精度袖窿分割線識別,有助于提升袖身樣板的生成精度與效率。
針對袖窿分割線識別的關(guān)鍵問題,本文提出了一種自動化識別方法,其流程如圖1所示。該流程整合了點云分割、點云去噪、曲線擬合、模型切割與樣板生成等多個步驟,旨在從輸入的三維服裝點云模型出發(fā),最終識別出高精度的袖窿分割線,為袖身樣板的快速生成提供可靠的實現(xiàn)路徑。通過這一框架,能夠有效提升袖窿分割線識別的精度,并為三維服裝模型到二維樣板的轉(zhuǎn)化提供技術(shù)支撐。
1. 1 服裝點云分割
1. 1. 1 DGCNN介紹
本文基于DGCNN進行服裝點云的部件分割。DGCNN主要由空間變換模塊和邊緣卷積模塊組成。其中,空間變換模塊的主要作用是對輸人的點云數(shù)據(jù)進行對齊和標準化,以減輕由于點云旋轉(zhuǎn)、平移和尺度變化帶來的不利影響。邊緣卷積模塊通過計算每個點與其鄰居點之間的特征差異,捕捉局部結(jié)構(gòu)信息,并通過動態(tài)更新鄰域圖進一步增強對復雜幾何結(jié)構(gòu)的適應能力,使得DGCNN在處理服裝點云數(shù)據(jù)時具備更高的靈活性和魯棒性[13]
1. 1. 2 數(shù)據(jù)預處理
本文采用DeepFashion3D數(shù)據(jù)集[14]。該數(shù)據(jù)集包含2078個從真實服裝重建的模型,涵蓋10個不同類別和563個服裝實例,同時標注了各個部位的3D特征線。由于數(shù)據(jù)集來源于真實服裝,標注完整且數(shù)據(jù)多樣,能夠更真實地反映實際服裝的幾何特性和結(jié)構(gòu)特點,為研究提供了可靠的數(shù)據(jù)支持。選取數(shù)據(jù)集中正肩的長袖和短袖上衣,其中長袖上衣140件,短袖上衣85件,共計225件。通過姿勢變化擴展,每款服裝生成多個姿勢,最終得到1127個服裝點云數(shù)據(jù)作為本文的數(shù)據(jù)集。從標注的3D特征線中提取袖窿區(qū)域的點云,使用最近鄰匹配方法將袖窿區(qū)域點云與服裝點云進行匹配,以實現(xiàn)服裝點云的標注(見圖2)。
DeepFashion3D數(shù)據(jù)集中的點云數(shù)據(jù)由三維掃描儀生成,屬于稠密點云。為了提高數(shù)據(jù)處理的效率和速度,對數(shù)據(jù)進行稀疏化處理。采用隨機采樣法將服裝點云稀疏至12800個點,可有效保留服裝點云的結(jié)構(gòu)特征,點云預處理結(jié)果如圖3所示。本文在Clo3D中設計并制作了4款合體長袖與4款合體短袖上衣。這些服裝均采用一片合體袖設計,袖山無褶皺,選用純棉布作為面料,以確保袖身結(jié)構(gòu)的平整性和研究的統(tǒng)一性,各效果圖如圖4所示。制作完成后,將服裝模型轉(zhuǎn)化為點云進行預處理
1. 2 關(guān)鍵點云擬合曲線
1.2.1 基于曲率閾值的關(guān)鍵點云定位
針對分割得到的袖窿區(qū)域點云,使用閾值控制方法進行處理。通過可視化點云獲取腋下噪點的坐標值,以設置閾值進行去噪。采用PCL(Pointcloudlibrary)中的法線估計算法,構(gòu)建KD樹加速最近鄰搜索,為每個點及其鄰域點計算協(xié)方差矩陣,并利用特征值求得曲率,再根據(jù)曲率設置閾值與邊界條件,標記腋下特征點,最后根據(jù)這些特征點的坐標信息設置動態(tài)閾值以過濾兩側(cè)噪點,以得到最終的袖窿關(guān)鍵點云,操作流程如圖5所示。協(xié)方差矩陣 c 與曲率 κ 的計算公式為:
其中: i=1, 2, 3,…, 12800,j=1, 2, 3,…, 12800,為點云索引; qi 為第 i 個點云的坐標向量; 為鄰近點的均值向量; m 為鄰近點的數(shù)量; λj 為協(xié)方差矩陣的特征值, λmin 為最小特征值。
1. 2.2 基于加權(quán)最小二乘法的曲線擬合
加權(quán)最小二乘法(Weighted least squares,WLS)通過為不同觀測數(shù)據(jù)點賦予權(quán)重,能夠有效處理噪聲或可靠性不同的觀測數(shù)據(jù)。袖窿關(guān)鍵點云離散且分布不均勻,為了提高擬合精度,針對腋下特征點設置權(quán)重,采用加權(quán)最小二乘法進行曲線擬合,并引入正則化項以確保曲線擬合更加平滑。該方法顯著提高了擬合質(zhì)量,增強了擬合曲線的魯棒性和準確性。
對于一組給定的 n 個數(shù)據(jù)點 (xi,yi,zi) ,分別對 x 和 z 進行擬合,以找到系數(shù)向量 A 和 B 。目標是使擬合的 d 階多項式曲線 fx(y) 和 fz(y) 盡可能接近觀測值 xi 和 zi ,多項式的公式如下:
為了擬合上述曲線,需將多項式擬合問題轉(zhuǎn)換為線性代數(shù)問題來求解多項式的系數(shù)。為此,需要把上述方程中 y 的各階次冪組合成矩陣形式,構(gòu)建設計矩陣 P .
其中:設計矩陣 P 的每一行表示對應點 yi 的多項式值; yi 是觀測點的自變量。
為了反映數(shù)據(jù)點的重要性和可信度,對關(guān)鍵數(shù)據(jù)點設置權(quán)重 ωi ,構(gòu)建對角權(quán)重矩陣 W .
在多項式曲線擬合過程中,通過加權(quán)殘差平方和衡量誤差,同時加入正則化項防止過擬合,正則化參數(shù)γ控制其權(quán)重。最終的目標是最小化加權(quán)殘差平方和與正則化項的和,公式如下:
其中: X 和 z 分別是觀測值 x 與 z 的向量; ξx 和 ξz 分別表示與變量相關(guān)的加權(quán)殘差平方和。
1. 2.3 基于圓弧插補和三次樣條插值的袖窿曲線 優(yōu)化
在完成前后袖窿點云曲線擬合后,將兩條曲線合并。合并后的曲線在連接處并未完全閉合,存在線條缺失和錯位的問題。為解決此問題,本文采用圓弧插補算法,將兩條曲線的端點作為插補的起點和終點,計算切線方向,以圓弧在端點處與切線相切為插補條件,分別在曲線的端點處進行圓弧插補。
給定兩個端點坐標 o1=(x1 , y1 , z1) 和 o2= (204號 (x2,y2,z2) ,其對應的切線方向向量為 ρ1=(ρ1,x ,ρ1y,ρ1z) 和 ρ2=(ρ2x,ρ2y,ρ2z) ,選擇 y-z 平面進行圓弧插補,僅考慮 y 和 z 坐標。為了找到最佳圓心(yo,zo) 和半徑 r ,定義優(yōu)化目標函數(shù),確保圓弧起點和終點處與切線方向相切。限制條件與優(yōu)化目標如下:
a)確保終點在圓弧上:
b)確保圓心到切點的向量與切線方向垂直:
優(yōu)化目標是最小化以下函數(shù):
F(yo,zo)=f12(yo,zo)+f22(yo,zo)+f32(yo,zo)
為消除微小的錯位并優(yōu)化曲線的平滑性,采用三次樣條插值,結(jié)合高斯濾波處理,生成的袖窿曲線更為光滑圓順,顯著提升了曲線的整體平滑性。從擬合好的曲線中提取 k 個數(shù)據(jù)點 (xi ,可以分成 k-1 個區(qū)間,在每個區(qū)間構(gòu)造一個三次函數(shù),共 k-1 段三次函數(shù)。對于每一段區(qū)間 [ti , ti+1] ,定義一個三次函數(shù) φi(t) 。這 k-1 段函數(shù)是連續(xù)的,前一段方程在節(jié)點處的函數(shù)值和后一段方程在節(jié)點處的函數(shù)值要相等,在節(jié)點處有相同的曲率,且要首尾相連,函數(shù)與約束條件的公式如下:
φi(t)=ai+bi(t-ti)+ri(t-ti)2+di(t-ti)3
其中:k 是從擬合曲線里提取的點的個數(shù);a,、b、i、di 是第 i 段樣條的系數(shù); ti 代表第 i 個數(shù)據(jù)點的參數(shù)值; φi(ti+1) 表示第 i 段函數(shù)尾部的函數(shù)值;φi+1(i+1)代表第i+1段函數(shù)頭部的值。
2 袖身樣板的展開與修正方法
基于角度保護的曲面展開算法是一種將三維模型展開為二維平面的技術(shù),該算法的關(guān)鍵在于通過在模型表面選擇合適的切割路徑,將其劃分為多個區(qū)域,并將這些區(qū)域映射到二維UV坐標系中。在映射過程中,算法旨在保持展開后形狀和面積比例的相對一致性,通過適當?shù)臄?shù)學模型和插值方法,盡量減少角度和距離的失真,其原理示意圖如圖6所示,圖中 SiΩ?Sj 分別表示第 i 與 j 個三角形的面積,αi…βj 分別表示第 i 與 j 個三角形的角度。在展開過程中,算法通過實時監(jiān)測展開后形狀的幾何特征(包括角度和面積比)來評估展開效果,并依據(jù)監(jiān)測結(jié)果進行必要的調(diào)整。借助于動態(tài)反饋機制,算法能夠迅速識別并修正因切割路徑選擇或區(qū)域劃分不當而導致的失真問題,確保最終展開形狀與原始三維模型的幾何特性盡可能保持一致。這種實時調(diào)整的策略不僅增強了展開算法的靈活性與魯棒性,還為實現(xiàn)高保真度的三維到二維的映射提供了理論支持。
袖身樣板展開過程如圖7所示。將生成的袖窿分割線作為邊界條件構(gòu)建切割面,通過布爾運算進行切割得到袖身模型。由于本文的主要研究對象是袖窿分割線的自動識別,在樣板展開時,袖底縫和袖開衩均采用原始分割線,以便進行樣板對齊驗證,提高驗證結(jié)果的準確性。袖山縮縫量是二維袖身樣板中的關(guān)鍵參數(shù),在服裝縫合成三維模型后,袖山縮縫量會在縫合過程中平攤至袖窿區(qū)域,導致在展開的二維樣板中無法直接觀察到縮縫量。為解決這一問題,本文添加了袖山弧線修正規(guī)則[15],依據(jù)不同袖型的特點設置袖山的縮縫量并合理分配,最終得到符合實際需求的樣板。具體的縮縫量設置規(guī)則詳見表1。
3 實驗與結(jié)果分析
3.1 服裝點云分割結(jié)果分析
3.1.1 環(huán)境與評價指標
本實驗共計1127個服裝點云數(shù)據(jù),隨機選取其中1014個數(shù)據(jù)作為訓練集,113個數(shù)據(jù)作為測試集。通過深度學習框架PyTorch2.1實現(xiàn),處理器為i9-12900K,顯卡為NVIDIAGeForceRTX4090,編程語言為Python3.10.9,CUDA版本為12.1。網(wǎng)絡采用Adam優(yōu)化器,初始學習率設定為0.0001,批量大小設置為4,動量設定為0.9,訓練輪數(shù)為400。
本文采用準確率(Accuracy,ACC)和交并比(Intersectionoverunion,IOU)作為定量評價指標[16]。準確率用于計算正確預測的結(jié)果占總樣本的百分率,交并比用于評估預測結(jié)果與實際標簽的重疊程度,其數(shù)值越大說明點云分割結(jié)果越好。準確率和交并比的計算公式如下:
其中: ψ 表示準確率; 5 表示交并比; g 表示被正確預測的點數(shù); h 表示總點數(shù); TP 表示被正確預測為目標類的數(shù)量; FP 表示錯誤預測為目標類的數(shù)量;FN 表示是目標類但未被正確預測為目標類的點的數(shù)量。
3.1.2 結(jié)果分析
通過計算準確率和交并比來評估DGCNN的分割性能,結(jié)果如表2所示。該網(wǎng)絡在訓練和測試過程中均能夠較好地擬合數(shù)據(jù),達到了較高的準確率和交并比,表明DGCNN具有良好的泛化能力。本文從測試集里選取了幾款服裝的分割結(jié)果進行可視化以作定性分析,通過觀察原始數(shù)據(jù)集與預測結(jié)果的點云標注,可以發(fā)現(xiàn)分割出來的袖區(qū)域與原始數(shù)據(jù)高度相似(見圖8),進一步驗證了該網(wǎng)絡的分割性能。對8款在CLO3D中制作的服裝進行測試,其分割結(jié)果如圖9所示,可以看出即使輸入空白測試集,網(wǎng)絡仍能準確分割袖窿部位,說明該網(wǎng)絡具有較強的泛化能力,能夠在未見過的數(shù)據(jù)上也表現(xiàn)良好。
3.2 袖窿關(guān)鍵點云擬合結(jié)果分析
袖窿關(guān)鍵點云擬合曲線的質(zhì)量直接影響樣板展開的準確度,本文選用均方根誤差(Rootmeansquareerror,RMSE)和平均絕對誤差(Meanabsoluteerror,MAE)作為評估擬合曲線優(yōu)劣的指標,這兩個指標的數(shù)值越小,表明擬合曲線與真實曲線之間的偏差越小,擬合質(zhì)量越高。關(guān)鍵點云擬合曲線與真實曲線的定量結(jié)果如表3所示,RMSE與MAE均小于 0.200cm ,表明擬合曲線能夠較好地反映真實袖窿曲線的形態(tài)。為了更直觀地展示擬合效果,將這8款服裝擬合出的曲線與真實曲線進行了可視化(見圖10),可以發(fā)現(xiàn)擬合曲線與真實曲線高度相似,這進一步驗證了本文提出的曲線擬合方法的有效性和準確性。
3.3 生成的袖身樣板結(jié)果分析
在生成樣板的準確度驗證中,采用了袖長、袖肥、袖山高和袖山弧長等關(guān)鍵尺寸作為評價指標。為了定量評估生成樣板與真實樣板之間的差異,計算了關(guān)鍵部位的尺寸偏差以及整體的平均絕對誤差,測量結(jié)果見表4。表4顯示:其中關(guān)鍵尺寸的最大偏差為 0.423cm ,其余偏差在 0.100~ 0.500cm 之間,整體的平均偏差為 0.238cm ,所有樣板的平均絕對誤差較低,平均值為 0.296cm 表明生成樣板與真實樣板之間具有較高的一致性。
根據(jù)標準女裝基本紙樣[17里的袖子制作方法,袖山弧線的彎曲程度是影響袖子樣板的重要因素。本文將每款袖子樣板的前后斜線四等分,計算靠近頂點的等分點與袖山弧線之間的垂直距離,并比較生成樣板與真實樣板之間的差值,結(jié)果如表5所示。
由表5可知:各服裝在4個等分點的垂直距離差值在 0.400cm 之內(nèi),均處于較低的范圍。圖11為生成樣板與真實樣板的對比效果圖,說明生成樣板與真實樣板的袖山弧線整體保持較高的一致性,這進一步驗證了本文方法的可行性。
3.4 對比試驗與結(jié)果分析
為了驗證本方法的可行性,設置了對比試驗。NeuralTailor是一種基于深度神經(jīng)網(wǎng)絡的框架,能夠從三維點云中恢復服裝二維樣板和縫合信息。該網(wǎng)絡通常要求輸入基于T造型的服裝模型,在Clo3D中改變這8款服裝模型的造型,將其輸入到NeuralTailor網(wǎng)絡中進行測試,生成的樣板與本文方法得到的樣板如圖12所示。從圖12可以看出:NeuralTailor網(wǎng)絡處理的服裝模型表面存在大量褶皺,并因造型而產(chǎn)生嚴重的幾何失真,生成的袖身樣板與真實樣板嚴重脫節(jié),其袖山弧線呈現(xiàn)出中間凹陷、兩側(cè)凸起的不規(guī)則形狀,這不僅難以實現(xiàn)縫合時的平順銜接,且可能顯著影響成衣的穿著舒適性和整體外觀效果;相比之下,本文方法輸入的服裝模型表面平整,無明顯拉伸或幾何變形,能夠準確表達服裝的款式特征。在樣板生成過程中,通過精準的袖窿曲線擬合技術(shù),生成的袖山弧線形狀更加平滑自然,符合袖身制版規(guī)則,顯著提升了樣板的合理性和適用性。
4結(jié)語
本文針對袖窿分割線識別困難、生成的袖身樣板不符合制版要求的問題,提出了一種可自動識別出高精度袖窿分割線的方法,并通過實驗驗證了其有效性和實用性。首先,利用DGCNN對服裝點云進行粗分割,在訓練集和測試集上的準確率分別達到 96.8% 與 96.2% ,表明該網(wǎng)絡可以準確定位袖窿區(qū)域點云。又引入閾值控制方法對點云進行去噪,獲得袖窿關(guān)鍵點云,有效解決了袖窿分割線定位困難的問題。然后,采用加權(quán)最小二乘法與圓弧插補方法獲得袖窿曲線,并使用三次樣條插值對曲線進一步優(yōu)化,計算真實袖窿曲線與擬合曲線的RMSE和MAE,結(jié)果表明兩條曲線高度相似。此外,使用基于角度保護的曲面展開算法生成袖身樣板,并與真實樣板進行對比分析,結(jié)果表明兩者在袖山弧線形態(tài)及整體尺寸上保持較高的一致性,進一步驗證了袖窿分割線的準確性。最后,將實驗對象應用于
NeuralTailor網(wǎng)絡進行對比分析,結(jié)果表明本文方法生成的袖山弧線與袖身樣板更加接近真實樣板,且符合工業(yè)制版要求。
與現(xiàn)有方法相比,本方法在精度和效率上均具有顯著優(yōu)勢,為服裝工業(yè)中的自動化制版提供了可靠的技術(shù)支持。但本研究仍存在一些不足之處:在點云分割數(shù)據(jù)集中,僅標注了正肩袖窿區(qū)域點云,對于插肩袖、落肩袖及其他特殊袖型(如燈籠袖、泡泡袖等),尚無法直接使用。另外,實驗中僅考慮了純棉面料,未涉及不同面料的三維形狀差異對樣板生成的潛在影響。為此,后續(xù)研究需擴展數(shù)據(jù)集,涵蓋更多樣化的袖型和面料類型,并進一步探索側(cè)縫和肩線等其他服裝造型線的分割方法,以生成更加全面和精確的服裝樣板。
參考文獻:
[1]葉勤文,王朝暉,黃榮,等.虛擬服裝遷移在個性化服裝定制中的應用[J].紡織學報,2023,44(6):183-190.
[2]段欣瑜,吳巧英.基于Matlab的女褲參數(shù)化制版方法[J].學報(自然科學),2024,51(2):220-228.
[3]莊冬冬,任若安,孫捷.人工智能生成內(nèi)容賦能服裝品牌數(shù)智化轉(zhuǎn)型路徑研究[J].絲綢,2024,61(9):12-19.
[4]路麗莎,蔣高明.全成形針織服裝三維款式向二維樣板轉(zhuǎn)化方法[J].紡織學報,2022,43(10):133-140.
[5]王朝暉,吳雨曦,楊敏.基于三維測量數(shù)據(jù)的個性化女裝原型樣板生成[J].紡織學報,2019,40(9):143-149.
[6]LiuKX,ZengXY,BruniauxP,et al.3D interactive garmentpattern-making technology[J].Computer-Aided Design,2018,104:113-124.
[7]Korosteleva M,Lee S H. NeuralTailor:Reconstructing sewingpattern structures from 3D point clouds of garments[J]. ACMTransactions on Graphics,2022,41(4):1-16.
[8]HuangH Q,Mok PY,Kwok YL,etal.Block patterngeneration:from parameterizing human bodies to fit featurealigned and flattenable 3D garments[J]. Computers in Industry,2012,63(7):680-691.
[9]Meng Y M,Mok P Y,Jin X G. Computer aided clothingpattern design with 3D editing and pattern alteration[J].Computer-Aided Design,2012,44(8):721-734.
[10]Bang S,Korosteleva M,Lee S H. Estimating garmentpatterns from static scan data[J].Computer Graphics Forum,2021,40(6):273-287.
[11]肖伯祥,劉正東,郭昱成,等.基于三維人體掃描模型的襯衣版型生成方法[J].紡織學報,2022,43(12):151-159.
[12]WangY,Sun YB,Liu ZWet.al.Dynamic graph CNN forlearning on point clouds[J]. ACM Transaction on Graphics,2019,1(1):1-12.
[13]陳西江,鄧輝,趙不釩,等.綜合動態(tài)圖卷積和局部關(guān)系卷積的點云分類與分割[J].測繪科學,2023,48(8):182-192.
[14]ZhuHM,CaoY,JinH,etal.DeepFashion3D:Adatasetandbenchmark for 3D garment reconstruction from singleimages[C]//European Conference on Computer Vision. Cham:Springer,2020:512-530.
[15]張文斌.服裝結(jié)構(gòu)設計[M].北京:中國紡織出版社,2006:216-218.
[16]陳思帆,楊家志,黃琳,等.融合可變形核和自注意力的點云分類分割邊卷積網(wǎng)絡[J/OL].計算機工程.(2024-06-18)[2024-10-17].https://doi.org/10.19678/j.issn.1000-3428. 0069284.
[17]劉瑞璞.服裝紙樣設計原理與應用:女裝編[M].北京:中國紡織出版社,2008:62-65.
(責任編輯:張會?。?/p>