徐增波, 張 玲, 張艷紅, 陳桂清
(上海工程技術(shù)大學(xué) 服裝學(xué)院, 上海 201600)
利用圖像處理與識(shí)別技術(shù),識(shí)別服裝圖像款式信息,代替人工進(jìn)行款式檢索,可有效縮短檢索時(shí)間,提高效率,節(jié)約空間。但是,目前已有的服裝圖像特征提取技術(shù)較復(fù)雜,且分類方法效率低,不適用于服裝圖像款式的識(shí)別。為此,文章以服裝平面黑白色圓領(lǐng)款式圖為研究對(duì)象,通過構(gòu)建復(fù)雜網(wǎng)絡(luò)方法來進(jìn)行服裝款式圖輪廓的特征提取和描述,采用支持向量機(jī)(SVM)模型實(shí)現(xiàn)8種衣領(lǐng)類型圖像的識(shí)別。
近年來,復(fù)雜網(wǎng)絡(luò)理論在服裝特征提取處理方面的應(yīng)用日益廣泛。Backes等[1]提取形狀邊界點(diǎn)構(gòu)建復(fù)雜網(wǎng)絡(luò),通過模型的動(dòng)態(tài)演化以及特征提取,實(shí)現(xiàn)目標(biāo)對(duì)象的形狀檢索。隨著研究的深入,許多研究學(xué)者基于復(fù)雜網(wǎng)絡(luò)的形狀描述提出改進(jìn)方法。文獻(xiàn)[2]采用節(jié)點(diǎn)間的相對(duì)一致性距離替代傳統(tǒng)的歐氏距離作為邊的權(quán)重值,該方法對(duì)描述目標(biāo)形狀具有更強(qiáng)的描述與識(shí)別能力。文獻(xiàn)[3-4]提出基于有向復(fù)雜網(wǎng)絡(luò)的形狀分析方法,即從經(jīng)過k近鄰演化得到的不同時(shí)刻的有向子網(wǎng)絡(luò)中提取網(wǎng)絡(luò)特征來表征目標(biāo)對(duì)象的形狀特征。
對(duì)服裝款式圖提取特征后需要對(duì)其進(jìn)行分類和識(shí)別,分類的方法由最初構(gòu)建函數(shù)模型和聚類分析發(fā)展到現(xiàn)有運(yùn)用計(jì)算機(jī)技術(shù)的模式分類器。李東[5]對(duì)帶有紋理圖案的款式圖基于SVM分類器的傅里葉描述子和曲率特征模板匹配的方式進(jìn)行款式圖識(shí)別,得到了較高的識(shí)別率;An等[6]運(yùn)用極端學(xué)習(xí)機(jī)分類器來訓(xùn)練分類進(jìn)行過款式圖邊緣檢測(cè)的小波傅里葉描述子。綜上,當(dāng)前還沒有適應(yīng)性良好、分類準(zhǔn)確率高和特征描述子全面的方法對(duì)服裝平面款式圖進(jìn)行分類和識(shí)別。
本文先對(duì)圖像特征提取和描述現(xiàn)狀進(jìn)行綜合分析,然后選擇黑白色圓領(lǐng)款式圖為研究對(duì)象,采用基于復(fù)雜網(wǎng)絡(luò)方法來進(jìn)行服裝款式圖輪廓的特征提取和描述。
1.1.1 特征提取一般原則
特征提取一般原則通常按特征提取的評(píng)價(jià)標(biāo)準(zhǔn):第一,它能準(zhǔn)確地反映目標(biāo)物圖像的獨(dú)特屬性、可區(qū)分性;第二,不同類型圖像的特征量之間要具備明顯的差別和獨(dú)立性;第三,提取的特征量要盡可能地避免冗余,以減少計(jì)算量,提高運(yùn)算速度[7]。
1.1.2 特征提取的分類
對(duì)圖像的描述有很多種方法,例如圖像所具有的灰度特征、顏色特征、邊界特征、幾何形狀特征、結(jié)構(gòu)以及紋理特征等[8]。根據(jù)這些可將圖像的特征具體分為以下幾類,如表1所示。
表1 圖像特征提取方法分類Tab.1 Classification of image feature extraction methods
復(fù)雜網(wǎng)絡(luò)是以眾多節(jié)點(diǎn)以及節(jié)點(diǎn)之間的關(guān)聯(lián)性與順序性描述目標(biāo)對(duì)象幾何特點(diǎn)的網(wǎng)絡(luò)模型[9]?;趫D像特征,采用復(fù)雜網(wǎng)絡(luò)模型進(jìn)行圖像描述與提取主要有3個(gè)步驟:構(gòu)建初始網(wǎng)絡(luò)、閾值演化和特征提取。
構(gòu)建復(fù)雜網(wǎng)絡(luò)基本流程包括確定網(wǎng)絡(luò)節(jié)點(diǎn)和構(gòu)建初始網(wǎng)絡(luò)。
1)確定網(wǎng)絡(luò)節(jié)點(diǎn)。利用區(qū)域生長(zhǎng)法從預(yù)處理后的圖像中分割得到衣領(lǐng)部件圖,再提取目標(biāo)圖像的Canny算子邊緣并細(xì)化邊緣,最后進(jìn)行均勻取樣,如圖1所示。
圖1 初始網(wǎng)絡(luò)的構(gòu)建Fig.1 Initial network construction. (a) Target part;(b) Target edge; (c) Uniform sampling;(d) Initial network
2)構(gòu)建初始網(wǎng)絡(luò)。將單位像素的目標(biāo)邊緣圖像定義為S=[s1,s2,…,N],N為像素點(diǎn)個(gè)數(shù)。構(gòu)建坐標(biāo)系,得到各像素點(diǎn)坐標(biāo)s=[xi,yi]。將N個(gè)像素點(diǎn)作為網(wǎng)絡(luò)節(jié)點(diǎn)進(jìn)行兩兩連接(無向連接),得到初始網(wǎng)絡(luò)G0(V,E),E為所有連接邊的集合,如圖1所示。
初始網(wǎng)絡(luò)中,不同節(jié)點(diǎn)兩兩相連,形狀結(jié)構(gòu)特征不明顯,無法用于目標(biāo)對(duì)象的形狀識(shí)別。本文采用多距離閾值法,利用網(wǎng)絡(luò)結(jié)構(gòu)隨距離變化的特性,實(shí)現(xiàn)初始網(wǎng)絡(luò)的動(dòng)態(tài)演化,得到一系列子復(fù)雜網(wǎng)絡(luò)模型,演化過程1如圖2所示。
圖2 不同閾值的復(fù)雜網(wǎng)絡(luò)演化Fig.2 Complex network model evolution with different thresholds
具體算法實(shí)現(xiàn)過程:1)確定初始網(wǎng)絡(luò)節(jié)點(diǎn)坐標(biāo),獲取各節(jié)點(diǎn)之間的歐氏距離;2)距離的歸一化處理;3)設(shè)定不同的閾值t,篩選出符合設(shè)定條件的邊的集合。
由圖2可看出,閾值越大,符合條件的連接邊越多,網(wǎng)絡(luò)連接關(guān)系越復(fù)雜;反之,網(wǎng)絡(luò)連接關(guān)系越簡(jiǎn)單。然而,閾值過大,會(huì)增加計(jì)算量,降低算法運(yùn)行效率;閾值過小,無法獲取較多的網(wǎng)絡(luò)特征,影響目標(biāo)對(duì)象的識(shí)別準(zhǔn)確率,因此,篩選合適的閾值是動(dòng)態(tài)演化的關(guān)鍵。
針對(duì)每個(gè)目標(biāo)對(duì)象構(gòu)建初始網(wǎng)絡(luò),依次提取該網(wǎng)絡(luò)在t時(shí)刻的平均度、最大度、平均聯(lián)合度、熵、能量、平均聚類系數(shù)以及平均路徑長(zhǎng)度,構(gòu)建特征描述子,用矩陣表示如下:
其中,t0,t1,…,tmax∈[0,1],Kμtmax,Kmtmax,Ptmax,Htmax,Etmax,Ctmax,Ltmax分別表示該網(wǎng)絡(luò)在t時(shí)刻的平均度、最大度、平均聯(lián)合度、熵、能量、平均聚類系數(shù)以及平均路徑長(zhǎng)度。平均路徑長(zhǎng)度不具有尺度變換不變特性,不適用于圖像縮放識(shí)別,需要對(duì)其進(jìn)行特征的歸一化處理,歸一化計(jì)算公式如下:
式中:Dij表示該網(wǎng)絡(luò)中任意2個(gè)節(jié)點(diǎn)之間最短路的最大值;N(N-1)/2為節(jié)點(diǎn)間的路徑的最大條數(shù)。
以一幅圓領(lǐng)圖像為例,閾值步長(zhǎng)為0.05,得到20個(gè)演變后的子網(wǎng)絡(luò),分別進(jìn)行特征提取。由圖3可知:8個(gè)特征均隨著網(wǎng)絡(luò)的閾值演變呈遞增趨勢(shì),其中,最大度在閾值為0.5左右趨于最大值;當(dāng)閾值為0.05~0.6,能量變化較為平緩,隨著網(wǎng)絡(luò)結(jié)構(gòu)逐漸復(fù)雜,其開始呈對(duì)數(shù)上升;局部聚類系數(shù)和全局聚類系數(shù)在初始閾值時(shí),差異較大,其差異度隨著網(wǎng)絡(luò)的演化逐漸減小,并趨于重合,因此為降低算法運(yùn)算量可二者取其一。
圖3 不同特征隨閾值變化趨勢(shì)圖Fig.3 Trend chart of different characteristics with threshold.(a) Maximum and average thresholds;(b)Average joint degree, entropy and energy threshold;(c)Local and global clustering coefficients and thresholds of average path length
款式圖部件分類是指將已有的款式圖片進(jìn)行特征提取后,把相同或者相近的部件圖通過某種規(guī)則進(jìn)行歸類,形成部件特征數(shù)據(jù)庫(kù)。目前圖像分類識(shí)別技術(shù)發(fā)展迅速,主要可分為3類:結(jié)構(gòu)模式識(shí)別、統(tǒng)計(jì)決策識(shí)別以及基于人工神經(jīng)網(wǎng)絡(luò)的識(shí)別[10-11]。考慮到服裝款式圖外部輪廓,本文在目前的研究基礎(chǔ)上采用基于支持矢量機(jī)(SVM)分類法對(duì)服裝部件特征庫(kù)進(jìn)行分類。
模型構(gòu)建主要包括以下3個(gè)步驟。
步驟1:選定訓(xùn)練集和測(cè)試集。本文構(gòu)建的衣領(lǐng)樣本庫(kù)有8個(gè)類別,每個(gè)類別60幅圖像,共480個(gè)樣本,統(tǒng)一進(jìn)行類別編號(hào)。采用上述算法依次提取樣本的復(fù)雜網(wǎng)絡(luò)特征,構(gòu)建樣本特征庫(kù)。隨機(jī)選取75%樣本作為訓(xùn)練集,剩下25%作為測(cè)試集,進(jìn)行分類實(shí)驗(yàn)。實(shí)驗(yàn)樣本如表2所示。
表2 實(shí)驗(yàn)樣本類別與數(shù)量Tab.2 Type and number of experimental samples
步驟2:數(shù)據(jù)預(yù)處理。對(duì)訓(xùn)練集和測(cè)試集數(shù)據(jù)進(jìn)行歸一化處理,即將原始數(shù)據(jù)規(guī)整到固定區(qū)間范圍,以消除各特征數(shù)據(jù)間的數(shù)量級(jí)差異,提升模型的收斂速度和精度。常用的歸一化方法有以下2種:
[0,1]區(qū)間歸一化:
[-1,1]區(qū)間歸一化:
步驟3:支持向量機(jī)模式訓(xùn)練與預(yù)測(cè)。首先利用訓(xùn)練集樣本訓(xùn)練得到分類模型,再利用所得分類模型對(duì)測(cè)試集樣本進(jìn)行預(yù)測(cè),分別借助LIBSVM工具箱的svmtrain函數(shù)和svmpredict函數(shù)實(shí)現(xiàn)。為選擇合適的核函數(shù)類型,利用訓(xùn)練集進(jìn)行10次預(yù)實(shí)驗(yàn),結(jié)果見表3。由表可知:采用線性核函數(shù)(linear)得到的平均分類準(zhǔn)確率最高,故選擇線性核函數(shù)用于后續(xù)操作。
表3 實(shí)驗(yàn)樣本類別與數(shù)量Tab.3 Type and number of experimental samples
本文基于構(gòu)建的衣領(lǐng)部件樣本庫(kù)及其提取的圖像特征,構(gòu)建8×60×140的樣本特征庫(kù)。采用主成分分析(PCA)算法對(duì)特征進(jìn)行降維,選擇累計(jì)貢獻(xiàn)率為85%的主成分構(gòu)成新的特征向量。隨機(jī)選取樣本的75%作為訓(xùn)練集,剩下25%作為測(cè)試集進(jìn)行預(yù)分類實(shí)驗(yàn),分類結(jié)果如圖4所示。
圖4 基于SVM的不同衣領(lǐng)類別分類圖Fig.4 Different category classification map based on SVM.(a) 2# and 3#;(b) 1# and 4#;(c) 3# and 8#;(d) 1#, 5# and 6#
由圖4可看出,不同類別之間存在明顯的分界,適用于采用SVM分類,分類效果理想。為保證分類結(jié)果的可信度,進(jìn)行10次上述分類實(shí)驗(yàn),分類結(jié)果見表4。由表可知:10次實(shí)驗(yàn)中樣本的平均整體分類準(zhǔn)確率為98%;針對(duì)各類別而言,10次平均分類準(zhǔn)確率均達(dá)到96%以上。其中,圓領(lǐng)的平均分類準(zhǔn)確率為100%,平均分類準(zhǔn)確率相對(duì)較低的為平駁領(lǐng)和戧駁領(lǐng),平均分類準(zhǔn)確率為96%。綜合考慮樣本的整體分類準(zhǔn)確率與各類別分類準(zhǔn)確率,均達(dá)到 96%分類。
表4 實(shí)驗(yàn)樣本類別與次數(shù)Tab.4 Type and number of experimental samples
為評(píng)估本文特征提取算法的抗噪性能,參照文獻(xiàn)[9]通過對(duì)比原樣本庫(kù)的圖像與加入不同水平和類型的附加噪聲進(jìn)行判定,以表2所示為實(shí)驗(yàn)樣本,實(shí)驗(yàn)方案如下:
方案1:分別對(duì)整個(gè)圖像加入噪聲密度為0.1、0.15和0.2的椒鹽噪聲, 如圖5所示。
圖5 不同特征隨閾值變化趨勢(shì)圖Fig.5 Trend chart of different characteristics with threshold.(a) Original image;(b) Noise 10%;(c) Noise 15%;(d) Noise 20%
方案2:分別對(duì)整個(gè)圖像加入方差為0.01、0.05和0.1的高斯噪聲,如圖6所示。
圖6 加入不同密度的高斯噪聲圖像Fig.6 Add Gaussian noise images of different densities.(a) Original image; (b) Variance 0.01; (c) Variance 0.05; (d) Variance 0.1
當(dāng)加入不同密度的椒鹽噪聲時(shí),分類準(zhǔn)確率如圖7所示??芍寒?dāng)椒鹽噪聲密度范圍為1%~20%時(shí),本文方法的整體分類準(zhǔn)確率在80%上下浮動(dòng);針對(duì)各類別而言,僅有襯衫領(lǐng)(5#)和平駁領(lǐng)(6#)的平均分類準(zhǔn)確率受噪聲影響較大,其他類別隨著噪聲密度的增加,其分類準(zhǔn)確率差異較小;當(dāng)噪聲密度30%時(shí),圓領(lǐng)(1#)分類準(zhǔn)確率波動(dòng)較大。
圖7 加入不同密度的椒鹽噪聲圖像分類準(zhǔn)確率Fig.7 Add classification accuracy of different densities of salt and pepper noise images. (a) Overall classification accuracy of salt and pepper;(b) Average accuracy of salt and pepper classification
當(dāng)加入不同方差的高斯噪聲時(shí),分類準(zhǔn)確率如圖8所示??芍杭尤敕讲顬?.05和0.1的高斯噪聲后,樣本整體的分類準(zhǔn)確率均可以達(dá)到80%以上,且分類結(jié)果較穩(wěn)定,但當(dāng)方差為0.01,即噪聲密度最小時(shí),其分類準(zhǔn)確率最低;針對(duì)各類別而言,僅有圓領(lǐng)(1#)和平駁領(lǐng)(6#)的平均分類準(zhǔn)確率受噪聲影響波動(dòng)較大,其他類別受噪聲影響較小。
圖8 加入不同方差高斯噪聲圖像分類準(zhǔn)確率Fig.8 Add different variance of Gaussian noise image classification accuracy.(a) Gaussian overall classification accuracy;(b) Gaussian average classification accuracy
分別采用本文方法、Hu不變矩[12]、梯度方向直方圖(histogram of oriented gradient,HOG)[13]3種特征提取方法獲取樣本特征,利用SVM進(jìn)行10次分類實(shí)驗(yàn),結(jié)果如圖9所示。
圖9 本文方法與Hu不變矩、HOG分類準(zhǔn)確率對(duì)比Fig.9 Comparison of classification accuracy of this method with Hu invariant moments and HOG.(a) Overall classification accuracy of the three methods;(b) Average classification accuracy of three methods
由圖可知:本文方法的整體分類準(zhǔn)確率最高,HOG的特征提取方法次之;與其他2種方法相比,本文方法的10分類結(jié)果浮動(dòng)較小,相對(duì)穩(wěn)定;針對(duì)各類別而言,本文方法均高于另外2種方法,其中,3種方法對(duì)于1#(圓領(lǐng))、2#(V領(lǐng))、8#(戧駁領(lǐng))3種類別的分類準(zhǔn)確率均比較高。綜上所述,本文方法行之有效,且更加適用于衣領(lǐng)款式的識(shí)別與分類。
結(jié)合服裝衣領(lǐng)圖像特點(diǎn)提出一種基于復(fù)雜網(wǎng)絡(luò)提取和SVM分類的服裝領(lǐng)型研究。文章以服裝平面黑白色圓領(lǐng)款式圖為研究對(duì)象,首先通過構(gòu)建復(fù)雜網(wǎng)絡(luò)方法來進(jìn)行服裝款式圖輪廓的特征提取和描述,其次采用SVM模型實(shí)現(xiàn)8種衣領(lǐng)類型圖像的識(shí)別,結(jié)果表明本文樣本整體的平均分類準(zhǔn)確率為98%,各類別的平均分類準(zhǔn)確率均達(dá)到96%以上,分類結(jié)果理想。最后在評(píng)估本文特征提取算法的抗噪性時(shí),加入一定程度的噪聲,本文方法具有較好的分類效果。同時(shí)將本文算法與Hu不變矩、HOG特征提取算法進(jìn)行對(duì)比分析。實(shí)驗(yàn)結(jié)果表明,本文算法在整體分類和各類別的平均分類的分類準(zhǔn)確率均最高,且分類結(jié)果相對(duì)穩(wěn)定;綜上所述,本文提出的基于復(fù)雜網(wǎng)絡(luò)的特征提取和SVM模型分類非常適用于服裝衣領(lǐng)款式圖像的提取與分類。