隋宇 陳亞彬 曹華珍 韋斌
摘 要:基于Backes Andre Ricardo等人提出的“構(gòu)造伴生動(dòng)態(tài)演化網(wǎng)絡(luò)”、生成“高維解釋向量”的紋理圖片分類法,研究了Kylberg紋理圖像庫的分類問題。通過將數(shù)據(jù)集圖片樣本進(jìn)行二次分割以減少該算法預(yù)處理計(jì)算量、提出了構(gòu)建紋理網(wǎng)絡(luò)時(shí)的“網(wǎng)絡(luò)頂點(diǎn)隨機(jī)化、抽樣采集”策略,該思路可進(jìn)一步減少算法的時(shí)間開銷。該類紋理圖片數(shù)據(jù)高維幾何數(shù)字特征的提取流程易于實(shí)現(xiàn),擴(kuò)展了原算法的適用范圍。數(shù)值結(jié)果表明算法對(duì)旋轉(zhuǎn)操作、噪聲干擾具有一定的魯棒性,具備一定潛在應(yīng)用前景。
關(guān)鍵詞:紋理分析, 復(fù)雜網(wǎng)絡(luò), 紋理簽名, Kylberg紋理數(shù)據(jù)集
中圖分類號(hào):TP391 ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A
紋理分析是圖像處理和計(jì)算機(jī)視覺中的一個(gè)基本問題。在目標(biāo)識(shí)別、遙感和基于內(nèi)容的圖像檢索等諸多應(yīng)用領(lǐng)域中,它都是一個(gè)關(guān)鍵問題。盡管對(duì)于紋理沒有確切的定義,但它是一個(gè)很容易被人理解的屬性,并且是一個(gè)豐富的視覺新消息來源。圖像紋理通常被定義為像素強(qiáng)度的空間變化函數(shù)。紋理模式通常包含微紋理和宏紋理,前者由若干紋理基本體集合構(gòu)成,后者表征這些基本體的層次空間排列特征。對(duì)圖像紋理的感知取決于紋理基本體的空間大小:大基本體產(chǎn)生宏觀紋理,小基本體產(chǎn)生微觀紋理[1-2]。常見圖像特征包含內(nèi)部特征與外部特征:前者包含灰度特征、紋理特征和形狀特征等;后者則主要包含圖片內(nèi)部特定幾何形狀特征。利用特征提取獲得恰當(dāng)?shù)慕忉屪兞渴噶考沁M(jìn)行特征選擇、分類的關(guān)鍵問題之一;而紋理分析則是通過特定的圖像處理技術(shù)抽取出紋理特征、獲得紋理的定量或定性描述的分析過程。目前,各類紋理分析技術(shù),特別是多特征融合分析技術(shù)的應(yīng)用越來越廣泛[1,2]。最近,Andre Ricardo Backs等人提出了一種運(yùn)用伴生復(fù)雜網(wǎng)絡(luò)來表征紋理結(jié)構(gòu)的新方法,將之用于圖形輪廓分類、圖像紋理內(nèi)容分析與解釋等領(lǐng)域,該類基于網(wǎng)絡(luò)圖分析的新穎方法能克服傳統(tǒng)輪廓分析、紋理分析的某些不足,開拓了輪廓分析、紋理分析的新視角[3-5]。Andre Ricardo Backs等人將紋理圖像轉(zhuǎn)化為復(fù)雜網(wǎng)絡(luò)后,給出了一類構(gòu)造輪廓、紋理特征解釋變量的策略,并將之與傳統(tǒng)的解釋變量構(gòu)造方法,如,一階直方圖、傅里葉分析、Gabor濾波分析、灰度共生矩陣分析、離散余弦變換、灰度差分矩陣、小波解釋、局部二進(jìn)模式變分法、完全局部二進(jìn)模式分析法以及局部三元模式法等生成的解釋變量的分類有效性進(jìn)行了比較[3,4]。隨后,Wesley Nunes Goncalves等人則建立了類似的具有旋轉(zhuǎn)不變性的灰度像素復(fù)雜網(wǎng)絡(luò)用于人臉識(shí)別研究,也取得了較好的應(yīng)用效果[5]。目前,基于復(fù)雜網(wǎng)絡(luò)建模與分析思路的各類新穎算法及其改進(jìn)已在紋理分析、形狀分類、圖像檢索、多特征融合等領(lǐng)域得到了廣泛應(yīng)用[6-9],逐漸引起國內(nèi)外圖形分析、圖像處理、計(jì)算機(jī)視覺等領(lǐng)域相關(guān)學(xué)者的充分關(guān)注[10-22]。
將Backes Andre Ricardo等人提出的、構(gòu)造“伴生動(dòng)態(tài)演化復(fù)雜網(wǎng)絡(luò)”、生成高維解釋變量的新穎分類技術(shù)應(yīng)用到紋理圖像的分類研究之中。在數(shù)據(jù)集預(yù)處理方面,為減少算法計(jì)算量,增加了將采集數(shù)據(jù)集圖片樣本進(jìn)行二次分割環(huán)節(jié);進(jìn)一步,在實(shí)際操作中,還改進(jìn)性地提出了適合實(shí)際分類應(yīng)用的隨機(jī)抽樣網(wǎng)絡(luò)頂點(diǎn)采集策略。后文將詳細(xì)介紹用于分類的“高維特征解釋向量”的生成策略、紋理圖像“幾何數(shù)字特征”的提取過程。通過對(duì)Kylberg紋理[23,24]圖像庫的分類研究發(fā)現(xiàn):基于該方法構(gòu)建的紋理圖像“高維解釋向量(又稱指紋向量)”能有效表征織物紋理圖像數(shù)字特征。數(shù)值結(jié)果表明此類方法具備對(duì)旋轉(zhuǎn)操作、噪聲干擾的魯棒性,具有較好的快速分類應(yīng)用前景。下面將分三個(gè)部分給出相關(guān)研究方法及結(jié)果。
1 圖像紋理特征的高維幾何化解釋向量生成策略
1.1 灰度圖像的網(wǎng)絡(luò)化轉(zhuǎn)化研究主要進(jìn)展
復(fù)雜網(wǎng)絡(luò)理論及其應(yīng)用是新興的重要研究領(lǐng)域之一,它涉及了圖論、非線性動(dòng)力學(xué)、統(tǒng)計(jì)力學(xué)等眾多科學(xué)知識(shí)和理論基礎(chǔ),呈現(xiàn)出了多學(xué)科交叉快速融合的特點(diǎn)。近年來,伴隨系統(tǒng)科學(xué)、統(tǒng)計(jì)學(xué)、物理學(xué)、數(shù)學(xué)、計(jì)算機(jī)與信息科學(xué)等學(xué)科交叉的進(jìn)一步深入,復(fù)雜網(wǎng)絡(luò)科學(xué)與技術(shù)手段在模式識(shí)別、計(jì)算機(jī)視覺等領(lǐng)域也展現(xiàn)了廣闊的研究前景。事實(shí)上,幾乎所有的實(shí)測對(duì)象均能表征為復(fù)雜網(wǎng)絡(luò)對(duì)象,從演化視角出發(fā)的動(dòng)態(tài)演化網(wǎng)絡(luò)、時(shí)空網(wǎng)絡(luò)更是拓展了復(fù)雜網(wǎng)絡(luò)領(lǐng)域的應(yīng)用空間。
3.2 數(shù)值實(shí)驗(yàn)及討論
數(shù)值實(shí)驗(yàn)過程中,使用半徑r=3和變化閾值策略開展相關(guān)計(jì)算。具體設(shè)置時(shí),閾值由初始閾值T_initial=0.005,步長T_incr=0.015逐漸增加,直到達(dá)到最大閾值T_max=0.530,構(gòu)成的解釋變量集合力圖得到最好分類識(shí)別效果。參考相關(guān)文獻(xiàn)[4]的經(jīng)驗(yàn)研究結(jié)果發(fā)現(xiàn):當(dāng)“能量”、“熵”和“對(duì)比度”這三個(gè)特征結(jié)合起來時(shí),效果達(dá)到最佳。
數(shù)值實(shí)驗(yàn)共使用了108個(gè)解釋量作為測試對(duì)象的特征用于分類研究(每個(gè)閾值取3個(gè)特征值,總共有36組閾值),實(shí)驗(yàn)表明,此種策略下可以得到最好的識(shí)別結(jié)果。
3.2.1 采用的幾類分類算法
使用了多種分類算法檢測本文構(gòu)造高維幾何化簽名特征去分析圖片紋理算法的有效性。 具體采用的對(duì)比用算法包含:線性判別分析法(Linear Discriminant Analysis, LDA)、K最近鄰算法(K-Nearest Neighbor, KNN)、決策樹(Decision Tree)方法,以及支持向量機(jī)(Support Vector Machine)。
3.2.2 算法分類表現(xiàn)比較
為檢驗(yàn)不同算法在數(shù)據(jù)集特征提取分類應(yīng)用中的有效性,表1和表2分別給出了針對(duì)原始數(shù)據(jù)集的、應(yīng)用不同算法對(duì)同一解釋變量分類分析的計(jì)算時(shí)間開銷與分類精度的具體結(jié)果。
研究表明:通過構(gòu)造紋理圖像的高維幾何化簽名特征,采用KNN、SVM、LDA、決策樹均能得到較好的分類效果,樸素貝葉斯算法僅能達(dá)到80.6%;因而,推薦開展此類紋理圖片研究時(shí),優(yōu)先選用高效的KNN、SVM、或者LDA方法就能達(dá)到一般工業(yè)應(yīng)用級(jí)別的場景需求。需要指出的是,若將得到的特征高維幾何化簽名特征解釋向量進(jìn)行“歸一化”處理之后,使用同樣的算法開展分類研究,數(shù)值結(jié)果表明,所有算法均一致地得到了更高的識(shí)別準(zhǔn)確率。采用KNN、SVM、LDA、決策樹均能得到較好的分類效果,樸素貝葉斯算法仍僅能達(dá)到84.6%,不推薦使用。
此外,由實(shí)驗(yàn)結(jié)果分析可知,在未歸一化特征向量之前,KNN算法和SVM算法有著比LDA高的分類正確率,但這兩種訓(xùn)練時(shí)間均比LDA所需時(shí)間高;解釋變量歸一化之后,KNN算法的識(shí)別正確率比LDA方法高,但所需要的訓(xùn)練時(shí)間同樣比LDA高;綜合比較可見,采用LDA針對(duì)本數(shù)據(jù)集是最合適的分類方法。
表3和表4分別給出了針對(duì)原始數(shù)據(jù)旋轉(zhuǎn)所得數(shù)據(jù)集、應(yīng)用不同算法對(duì)同一解釋變量分類分析的計(jì)算時(shí)間開銷與分類精度的具體結(jié)果。研究表明:通過構(gòu)造紋理圖像的高維幾何化簽名特征,采用KNN、SVM、LDA、決策樹均能得到較好的分類效果,樸素貝葉斯算法僅能達(dá)到85.1%;因而,本文推薦開展此類紋理圖片研究時(shí),優(yōu)先選用高效的KNN、SVM、或者LDA方法就能達(dá)到一般工業(yè)應(yīng)用級(jí)別的場景需求。
需要指出的是,若將得到的特征高維幾何化簽名特征解釋向量進(jìn)行“歸一化”處理之后,使用同樣的算法開展分類研究,數(shù)值結(jié)果表明,所有算法均一致地得到了更高的識(shí)別準(zhǔn)確率。采用KNN、SVM、LDA、決策樹均能得到較好的分類效果,樸素貝葉斯算法仍僅能達(dá)到85.1%,不推薦使用。
此外,由實(shí)驗(yàn)結(jié)果分析可知,針對(duì)此類數(shù)據(jù),歸一化特征向量對(duì)分類正確率影響不大;比較可見,采用KNN針對(duì)該類數(shù)據(jù)集可以達(dá)到最佳分類效果。
表5和表6分別給出了針對(duì)原始數(shù)據(jù)添加椒鹽噪聲后所得數(shù)據(jù)集、應(yīng)用不同算法對(duì)同一解釋變量分類分析的計(jì)算時(shí)間開銷與分類精度的具體結(jié)果。
研究表明:通過構(gòu)造紋理圖像的高維幾何化簽名特征,采用KNN、LDA、SVM、決策樹均能得到較好的分類效果,樸素貝葉斯算法僅能達(dá)到84.7%;因而,本文推薦開展此類紋理圖片研究時(shí),優(yōu)先選用高效的KNN、LDA、SVM方法就能達(dá)到一般工業(yè)應(yīng)用級(jí)別的場景需求。需要指出的是,若將得到的特征高維幾何化簽名特征解釋向量進(jìn)行“歸一化”處理之后,使用同樣的算法開展分類研究,數(shù)值結(jié)果表明,所有算法總體上均得到了更高的識(shí)別準(zhǔn)確率。采用KNN、SVM、LDA、決策樹均能得到較好的分類效果,樸素貝葉斯算法仍僅能達(dá)到84.7%,不推薦使用。
此外,由實(shí)驗(yàn)結(jié)果分析可知,針對(duì)此類數(shù)據(jù),歸一化特征向量對(duì)分類正確率影響不大;比較可見,采用KNN針對(duì)該類數(shù)據(jù)集可以達(dá)到最佳分類效果。
表7和表8分別給出了針對(duì)原始數(shù)據(jù)添加高斯白噪聲后所得數(shù)據(jù)集、應(yīng)用不同算法對(duì)同一解釋變量分類分析的計(jì)算時(shí)間開銷與分類精度的具體結(jié)果。研究表明:通過構(gòu)造紋理圖像的高維幾何化簽名特征,采用KNN、LDA、SVM均能得到較好的分類效果,決策樹、樸素貝葉斯算法分別僅能達(dá)到81.5%和68.7%;因而,本文推薦開展此類紋理圖片研究時(shí),優(yōu)先選用高效的KNN、LDA、SVM方法就能達(dá)到一般工業(yè)應(yīng)用級(jí)別的場景需求。需要指出的是,若將得到的特征高維幾何化簽名特征解釋向量進(jìn)行“歸一化”處理之后,使用同樣的算法開展分類研究,數(shù)值結(jié)果表明,所有算法總體上均得到了更高的識(shí)別準(zhǔn)確率。采用KNN、SVM、LDA、決策樹均能得到較好的分類效果,樸素貝葉斯算法仍僅能達(dá)到84.7%,不推薦使用。
此外,由實(shí)驗(yàn)結(jié)果分析可知,針對(duì)此類數(shù)據(jù),歸一化特征向量僅對(duì)LDA、SVM分類正確率影響略有提升,其它三類反有下降;故認(rèn)為采用LDA針對(duì)該類數(shù)據(jù)集可以達(dá)到最佳分類效果。
當(dāng)然,新近針對(duì)同一數(shù)據(jù)集地相關(guān)研究表明,采用特定的充分訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)(CNN)可以將分類的準(zhǔn)確率提升至99.2%-99.4%左右,但該方法對(duì)重新分割樣本增加訓(xùn)練樣本數(shù)量、計(jì)算開銷等方面的要求則提高了很多[12],[13]。因此,綜合訓(xùn)練時(shí)間與分類精度兩方面表現(xiàn)比較,基于本文算法和本文建議的KNN、SVM、LDA等算法,在小樣本條件下,LDA分類方法的在“分類精度”和“訓(xùn)練時(shí)長”兩方面的綜合表現(xiàn)無疑仍具有一定優(yōu)勢,故而本文建議讀者在類似應(yīng)用場景下優(yōu)先選用此方法。
4 結(jié) 論
基于新近提出的構(gòu)造伴生動(dòng)態(tài)演化復(fù)雜網(wǎng)絡(luò)生成解釋變量的紋理分析法,本文給出了紋理圖像的高維特征解釋向量生成策略與特征提取流程,數(shù)值實(shí)驗(yàn)表明,基于該方法構(gòu)建的紋理圖像指紋向量能有效地表征紋理圖像數(shù)字特征、并成功用于對(duì)Kylberg紋理圖像庫的分類;此類方法具備完全的旋轉(zhuǎn)不變性、一定的噪聲抗干擾性,同時(shí)我們還指出,盡管基于Imagenet上訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)也能在小樣本集上對(duì)紋理圖片試試較好的分類效果,但總體上,相較于文獻(xiàn)提出的一些深度學(xué)習(xí)分類算法而言(如文獻(xiàn)[12],[13]),本文建議的LDA方法仍具備所需樣本少、時(shí)間開銷不大,識(shí)別率接近的應(yīng)用優(yōu)勢;且算法所需硬件配置相對(duì)較低,具有較好的工業(yè)應(yīng)用前景。未來我們還將進(jìn)一步嘗試降低算法復(fù)雜性和存儲(chǔ)占用,使得該類算法能在相關(guān)應(yīng)用場景下發(fā)揮更大的作用。
參考文獻(xiàn)
[1] TUCERYAN M, JAIN K, Texture analysis,handbook of pattern recognition of computer vision[M].World Scientific Publishing Co., 1998:207-248.
[2] HOSSAIN S, SERIKAWA S. Texture databases—A comprehensive survey[J].Pattern Recognition Letters, 2013, 34(15): 2007-2022.
[3] BACKES R, CASANOVA D, BRUNO M. A complex network-based approach for boundary shape analysis[J]. Pattern Recognition, 2009, 42(1):54-67.
[4] BACKES R, CASANOVA D, BRUNO M. Texture analysis and classification: A complex network-based approach[J]. Information Sciences, 2013, 219:168-180.
[5] GONCALVES W N, ANDRADE DE, SILVA J, et al. A rotation invariant face recognition method based on complex network[C].Progress in Pattern Recognition, Image Analysis, Computer Vision, and Applications. CIARP 2010. Lecture Notes in Computer Science, Springer, Berlin, Heidelberg, 2010, 6419: 426-433.
[6] COIFMAN R, WICKERHAUSER M. Entropy-based algorithms for best basis selection[J]. IEEE Transactions on Information Theory, 1992, 38(2):713-718.
[7] BOCCALETTI S, LATORA V, MORENO Y, et al. Complex networks: Structure and dynamics[J]. Physics Reports, 2006, 424(4-5):175-308.
[8] COSTA L F, RODRIGUES F A, TRAVIESO G, et al. Characterization of complex networks: A survey of measurements[J]. Advances in Physics, 2007, 56:167-242.
[9] COMIN C H, PERON T, SILVA F N, et al., Complex systems: features, similarity and connectivity, Physics Reports, 2020, (861):1-41.
[10]BAILEY I, BACKES A, WALSH P, et al. Image analysis of weaverbird nests reveals signature weave textures[J]. Royal Society Open Science, 2015, 2(6):150074.
[11]TYAGI V. Content-based image retrieval based on relative locations of multiple regions of interest using selective regions matching[M]. Elsevier Science Inc,2017.
[12]VINCENT A, PAUL F, Using filter banks in convolutional neural networks for texture classification[J].Pattern Recognition Letters, 2016, 84(11): 63-69.
[13]CHRISTODOULIDIS S, ANTHIMOPOULOS M, EBNER L, et al. Multisource transfer learning with convolutional neural networks for lung pattern analysis[J]. IEEE Journal of biomedical and health informatics, 2016, 21(1): 76-84.
[14]阮瑞, 江波, 湯進(jìn), 等. 改進(jìn)復(fù)雜網(wǎng)絡(luò)模型的形狀特征提取[J]. 中國圖象圖形學(xué)報(bào), 2018, 19(9):1332-1337.
[15]洪睿, 康曉東, 李博,等. 一種基于復(fù)雜網(wǎng)絡(luò)的圖像形狀及紋理描述方法[J]. 計(jì)算機(jī)科學(xué), 2018, 45(S2): 254-256.
[16]湯進(jìn), 陳影, 江波等. 基于復(fù)雜網(wǎng)絡(luò)的圖像建模與特征提取方法[J]. 計(jì)算機(jī)工程, 2013,39(5):243-247.
[17]郅大鵬, 湯進(jìn), 江波等. 多模復(fù)雜網(wǎng)絡(luò)模型的形狀特征提取方法[J].計(jì)算機(jī)科學(xué)與探索,2013 (6): 94-100.
[18]湯進(jìn), 郅大鵬, 江波等. 基于有向復(fù)雜網(wǎng)絡(luò)模型的形狀描述與識(shí)別[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2014 (11):2039-2045.
[19]湯曉, 王銀河. 基于復(fù)雜網(wǎng)絡(luò)和圖像輪廓的形狀識(shí)別方法[J]. 山西師范大學(xué)學(xué)報(bào)(自然科學(xué)版), 2013 (3):38-45.
[20]高劑斌, 李裕梅, 張慧娜. 基于復(fù)雜網(wǎng)絡(luò)的圖像特征提取及多特征融合方案探究[J].圖像與信號(hào)處理,2015,4(4):101-110.
[21]何蘇利, 王銀河, 陳作宏. 基于輪廓形狀和復(fù)雜網(wǎng)絡(luò)的圖像識(shí)別新方法[J].工業(yè)控制計(jì)算機(jī), 2016 (5):129-131.
[22]王民, 王羽笙, 劉濤, 等. 利用圖像熵和復(fù)雜網(wǎng)絡(luò)的中國畫分類方法[J]. 激光與光電子學(xué)進(jìn)展, 2017(2): 181-188.
[23]KYLBERG G, The Kylberg texture dataset v. 1.0[M].Sweish, Centre for Image Analysis, Swedish University of Agricultural Sciences and Uppsala University,2011. (Obtained online on 2019-11-18.)
[24]KYLBERG G, SINTORN I. Evaluation of noise robustness for local binary pattern descriptors in texture classification[J]. EURASIP Journal on Image and Video Processing, 2013, 17:1-20.