中圖分類號:TP391.41 文獻標志碼:A 文章編號:1671-5489(2025)04-1122-1
Feature Fusion Algorithm Based on LPQ and NLBP and Its Application
CHEN Meng1,LIU Jingdan2,LU Yang 1,2 (1. Key Laboratory of Numerical Simulation in Jilin Province Universities , Jilin Normal University,Siping l36ooo,Jilin Province,China; 2. College of Mathematics and Computer,Jilin Normal University, Siping l36ooo,Jilin Province, China)
Abstract:Aiming at the problem of traditional methods relying too much on local features and neglecting global features in texture classification,we proposed a feature extraction method based on the combination of local and non-local paterns. The method integrated two algorithms:local phase quantization and non-local binary patterns. Firstly,two algorithms were used to extract feature from the preprocessed image separately. Secondly, the feature histograms of the two methods were weighted and fused. Finally,texture clasification was performed by using the chi-square distance and the nearest neighbor classifier. In order to validate the effectiveness of the proposed method,a dataset of Manchu Eight Banners flag images was constructed,and the algorithm was applied to the classification task of the dataset. Experimental results show that,compared to single algorithm,the new algorithm has higher classfication accuracy and robustness on multiple datasets.
Keywords: local phase quantization; non-local binary pattern; texture classification; Manchu flagimage
紋理[1作為圖像的基本屬性,可反映圖像中像素的排列和分布方式.通過對紋理特征的分析,可獲得有關(guān)圖像結(jié)構(gòu)、表面細節(jié)和視覺感知等信息.紋理特征的提取對許多圖像分析[2]任務都具有重要意義.然而,現(xiàn)有的特征提取方法如局部二值模式(LBP)[3]、方向梯度直方圖(HOG)、灰度共生矩陣(GLCM)等,大多數(shù)只關(guān)注局部范圍內(nèi)的信息,對全局信息的捕捉能力有限.這類局部提取方法側(cè)重于分析圖像中小區(qū)域內(nèi)相鄰像素之間的關(guān)系,忽略了像素之間的遠距離依賴關(guān)系.因此,在處理包含大范圍結(jié)構(gòu)或紋理的圖像時,通常無法充分捕捉到全局信息,為克服這一局限性,本文提出一種局部相位量化和非局部二值模式特征融合(local binary and non-local binary patterns,LBNLBP)算法.該算法旨在彌補現(xiàn)有改進方法只關(guān)注鄰近像素之間關(guān)系、未能捕獲遠距離像素之間信息的不足.通過融合局部相位量化和非局部二值模式特征,算法能更全面地表示圖像的結(jié)構(gòu)和紋理信息,從而提高特征提取的全局一致性.同時,局部相位量化和非局部二值模式特征的融合能充分利用局部和非局部特征之間的互補性,進一步提升紋理特征的表達能力.
1預備知識
1. 1 非局部二值模式
盡管目前對局部二值模式進行了許多改進,但大多數(shù)改進方法未關(guān)注到近鄰鄰域之外像素間的長距離交互.為解決該問題,Song 等[4]提出了一種非局部二值模式(NLBP)算子,該算法是基于整個圖像計算出多個非局部的中心像素,并逐步編碼鄰近采樣點與這些中心像素之間的非局部強度差異.這里將非局部中心像素稱為錨點.通過引人非局部的像素交互,NLBP能更好地捕捉到像素間的長距離關(guān)系,從而提高圖像紋理分析和識別的性能.
通過使用多個錨點,NLBP可以相對于整個圖像的結(jié)構(gòu)變化對局部圖像塊編碼.為解決傳統(tǒng)非均勻模式中存在的附加信息問題,Song等[4]對 riu2模式進行了擴展,擴展后稱為eriu2 模式.下面給出NLBP編碼的具體內(nèi)容.
首先,在已知圖像 I 中心像素 x 的情況下,用下式計算 x 及其鄰近采樣點周圍局部圖像塊的平均灰度值:
其中 Gc,w 表示在 x 附近一個大小為 w×w 的局部圖像塊, 表示第 p 個相鄰采樣點周圍一個大小為 w×w 的局部圖像塊,函數(shù)
用于計算圖像塊的平均灰度值.通過計算局部圖像塊的平均灰度值,可以獲取有關(guān)中心像素及其鄰近采樣點的局部強度信息.這是NLBP算子中用于編碼像素之間非局部強度差異的方法.
其次,用排序函數(shù) sort(??μ) 對圖像 I 中所有中心像素 {x} 的灰度值進行升序排序,即
其中 表示排第 M 個位置的 x 的灰度值, M 表示中心像素的總數(shù).
先將 x 排序后,再將其劃分為 J 個相等的區(qū)間,然后在每個區(qū)間中計算出一個錨點.該錨點可被視為該區(qū)間的表示性像素.通過上述過程,可得一組錨點:
在上述過程中得到了 J 個錨點,用 gAj(j=1,2,…,J) 表示.這些錨點的灰度值通過平均計算得到,并使用向下取整函數(shù) ??? 進行處理.通過計算平均值并選擇特定數(shù)量的錨點,能大致捕獲圖像的灰度分布信息.但在紋理圖像中存在非局部冗余,表明多個像素可能具有相似的灰度值.通過選擇錨點并計算它們的平均灰度值,可減少冗余并提取有表示性的灰度分布特征.
最后,采用eriu2編碼相鄰采樣點與每個錨點之間的強度差:
其中均勻性度量 U 定義為
因此,可得到 (P+6) 種NLBP碼值.由于錨點是基于全局圖像計算的,所以生成的NLBP碼在某種程度上對照明變化和高斯噪聲有一定的魯棒性.
1. 2 局部相位量化
局部相位量化方法(LPQ)[5]專注于模糊不敏感的圖像紋理分類.LPQ 編碼可提取圖像中的局部相位信息,其通過計算鄰域像素的相位差異捕捉圖像紋理的細節(jié)和結(jié)構(gòu)信息.基于二維離散 Fourier變換(DFT)[6]的LPQ,使用短期Fourier 變換(STFT)計算像素點局部鄰域內(nèi)的相位信息.
1.2.1 離散Fourier變換
在數(shù)字圖像處理中,模糊圖像 g(x) 可通過原始圖像 f(x) 和點擴散函數(shù)(PSF)卷積構(gòu)成,其表達式為
g(x)=(f*h)(x),
其中 x 表示空間域中的位置變量.將其進行Fourier變換轉(zhuǎn)變到頻域,則式(7)轉(zhuǎn)化為
其中 G(u),F(xiàn)(u) 和 H(u) 分別為 g(x),f(x) 和 h(x) 進行離散Fourier變換后的結(jié)果, u 表示頻域中的頻率變量.將式(8)的幅值和相部分開,可得如下相位關(guān)系表達式:
|G(u)|=|F(u)|?|H(u)|,
∠G(u)=∠F(u)+∠H(u).
假設存在一個模糊點擴散函數(shù) h(x) ,并且是中心對稱的,即 h(x)=h(-x) ,如果對該函數(shù)進行Fourier變換,則結(jié)果總是實數(shù)值.這是因為中心對稱的函數(shù)在頻域中具有奇對稱性,所以Fourier 變換的相位僅是一個二值函數(shù):
對于規(guī)則的點擴散函數(shù),當 H(u)?0 時,有
∠G(u)=∠F(u).
上述關(guān)系為模糊不變特征提取奠定了理論基礎(chǔ),
1.2.2 短期Fourier變換
短期Fourier變換(STFT)是在圖像 f(x) 的每個像素位置 x 處的 M?M 鄰域 Nx 上進行計算.其中 fx 是一個包含來自 Nx 的所有 M?M 圖像樣本的向量.STFT是將該向量與頻率 的二維DFT基向量 Wu 進行內(nèi)積運算得到:
可見,實現(xiàn)STFT的一種有效方法是對所有 使用二維卷積.
使用4個頻點
u1=(a,0)T,u2=(0,a)T,u3=(a,a)T,u4=(a,-a)T
計算局部Fourier系數(shù).其中 ,用向量表示每個像素的位置,計算公式如下:中
Fx=(F(u1,x),F(xiàn)(u2,x),F(xiàn)(u3,x),F(xiàn)(u4,x)).
Fourier系數(shù)相位可使用各部分的實數(shù)和虛數(shù)的符號表達:
其中 gj 是向量 的第 j 個部分, G(χ) 包含 Fx 的實部和虛部向量.然后 qj 對其進行二進制編碼,可表示為
圖1是窗口尺寸為 5×5 時,LPQ算法的編碼過程示例.
2 LBNLBP算法的構(gòu)建
LPQ編碼是一種基于相位信息的紋理描述方法,它通過對圖像局部區(qū)域的相位信息進行編碼提取紋理特征.相比于傳統(tǒng)的LBP算法,LPQ能更好地捕捉圖像中的相位變化.NLBP 編碼是一種非局部紋理結(jié)構(gòu)關(guān)系描述方法,它通過考慮圖像中不同位置之間的紋理相似性,構(gòu)建非局部的紋理結(jié)構(gòu)特征.NLBP能捕捉到圖像中的全局紋理信息,具有較好的魯棒性.
因此,構(gòu)建LBNLBP算法能充分考慮局部圖像塊與全局圖像之間的潛在結(jié)構(gòu)關(guān)系,建立具有鑒別性的特征直方圖.首先,對圖像進行標準化預處理,以確保不同圖像之間具有相似的亮度和對比度;其次,用NLBP 算法和LPQ算法分別對預處理后的圖像進行特征提取,提取完NLBP 和LPQ的直方圖特征后,對每個直方圖進行歸一化,以確保它們具有相同的尺度和范圍;再次,通過特征級聯(lián)方法將 NLBP 和LPQ的特征直方圖加權(quán)融合,即將兩個直方圖特征串聯(lián)拼接,形成融合后的圖像特征;最后,使用直方圖相似性比較方法,將待分類圖像特征與已知類別的訓練樣本進行比較,計算它們之間的相似性.根據(jù)最近鄰分類器原理,將待分類圖像分配給與其特征最相似的訓練樣本類別.LBNLBP算法構(gòu)建流程如圖2所示,
2.1 單一尺度融合
首先,構(gòu)建基于計算得到的NLBP編碼圖像的直方圖:
其中 NLBPr,P,i∈{0,1,…,P+5} , y∈{0,1,…,2P+11} 表示直方圖的索引, i 為錨點索引, δ(???) 表示KroneckerDelta函數(shù):
其次,生成的非局部二值模式直方圖為
Hr,P=(Hr,P,1,…,Hr,P,I),
其中 I 為NLBP中的錨點數(shù).Song等4通過實驗驗證了 I=3 時最合適,因此,在后續(xù)實驗中默認錨點數(shù)取3.
最后,將LPQ直方圖與 Hr,P 進行級聯(lián):
LBNLBPr,P=(Hr,P,HLPQ),
其中 HLPQ 是LPQ直方圖.這樣就構(gòu)成了單一尺度下的LBNLBP描述符.LPQ在每個尺度下的特征維度恒定為256.
2.2 多尺度融合
常見的紋理識別方法通常只關(guān)注單一尺度特征,然而多尺度特征融合能整合多個尺度的特征,使紋理識別更豐富和全面.在紋理分析中,不同尺度的紋理信息可提供更多的視角和細節(jié),通過將來自不同尺度的特征進行融合,可綜合利用各尺度的優(yōu)勢,從而提升紋理識別算法的性能和效果.因此,通過改變采樣配置 (r,P) 可創(chuàng)建多個算子以捕獲多尺度紋理特征.多尺度紋理表示由不同尺度下計算的所有描述子進行拼接得到:
H=(LBNLBPr1,P1,LBNLBPr2,P2,LBNLBPr3,P3,…).
多尺度特征提取流程如圖3所示.
2.3基于彩色多通道的多尺度融合
對彩色圖像特征提取[7-8]是對 RGB 3個通道分別提取特征,RGB顏色空間將圖像分為紅、綠、藍3個通道.可將提取彩色特征描述子的過程分為5個步驟,流程如圖4所示.
1)已知有一張尺寸大小為 W×V 的彩色圖像;
2)將彩色圖像視為3張尺寸相同的紋理圖像,并按照R-G-B3個通道的順序進行排列;
3)在3個顏色通道上分別進行LBNLBP特征提??;
4)在不同尺度下分別提取3個通道的紋理特征,將其全部級聯(lián)在一起,構(gòu)建為聯(lián)合特征直方圖;
5)使用卡方距離作為度量方式,并結(jié)合最近鄰分類器(NNC)進行分類,從而得到分類結(jié)果.
3 滿族八旗旗幟彩色數(shù)據(jù)集的構(gòu)建
在對少數(shù)民族文化研究[9-12]中,現(xiàn)有的數(shù)字化資源相對有限,涉及滿族文化[13-14]的圖像數(shù)據(jù)集幾乎沒有.為推動對滿族文化的研究、傳承和保護,本文通過對滿族八旗旗幟圖像進行分類和識別,進一步了解滿族文化的特點和象征,有助于揭示滿族文化的深層含義和歷史背景,并促進滿族文化的傳承和傳播.通過對滿族八旗旗幟圖像進行分類研究,可探索旗幟的紋理特征、顏色分布等視覺信息,從而更好地理解滿族文化中的象征意義和區(qū)別特征.滿族八旗旗幟圖像如圖5所示.
目前對滿族旗幟圖像的獲取方式主要是通過收集網(wǎng)絡上拍攝的滿族博物館陳列的實物、滿族文化圖書以及進行相關(guān)搜索獲?。@些資源數(shù)量有限,且收集到的圖像存在一系列問題,包括格式不規(guī)范、大小規(guī)格不一致和格式多樣等.因此,在未處理前,這些圖像無法直接進行識別或其他操作.此外,收集到的部分圖像存在模糊不清、紋理不完整等問題,僅依靠紋理識別無法滿足要求,因此對彩色圖像進行分類更合適.為能對旗幟圖像進行統(tǒng)一操作,需對圖像數(shù)據(jù)進行處理和加工.
在構(gòu)建的數(shù)據(jù)集中,先將旗幟圖像按正黃旗、正白旗、正藍旗、正紅旗、鑲黃旗、鑲白旗、鑲藍旗和鑲紅旗進行分類,然后剔除不清晰或不完整的圖像.由于圖像的紋理相似度較高,僅使用灰度紋理圖像進行分類很難達到理想效果,因此選擇將彩色圖像與紋理相結(jié)合的方式進行識別分類
由于收集到的圖像數(shù)量有限,因此需對這些圖像進行增廣.首先,對圖像進行預處理,手動去除干擾因素,保留旗幟圖像的主體;其次,將圖像分割成 200×200 等尺寸大小的小圖像;最后,對分割后的圖像進行7個角度 (0°,15°,30°,45°,60°,75°,90°) 的旋轉(zhuǎn)操作.圖6為構(gòu)建滿族八旗旗幟圖像數(shù)據(jù)集流程.
該數(shù)據(jù)集包含8個類別,每個類別包含280張大小為 200×200 、格式為jpg的圖像,共2240張圖像.圖7為部分示例圖像.為克服圖像資源的有限性,通過以上步驟對圖像進行預處理、分割和旋轉(zhuǎn)操作,以構(gòu)建一個豐富多樣的滿族八旗旗幟圖像數(shù)據(jù)集.該數(shù)據(jù)集不僅包含了多個類別和大量樣本,而且通過使用彩色圖像和紋理相結(jié)合的方式進行分類,可提高分類的準確性和效果,從而為后續(xù)的圖像識別、分類和研究提供有價值的實驗基礎(chǔ)和參考依據(jù).
X 實驗結(jié)果與分析
4.1 參數(shù)分析
LBNLBP算法需要選擇合適的尺度才能有效提取紋理特征,合適的尺度選擇對保留圖像紋理細節(jié)并提高紋理描述的準確性至關(guān)重要.選擇的尺度過小可能會導致紋理信息丟失,而選擇的尺度過大可能會導致模糊的特征表示.因此,在使用LBNLBP算法時,需適當選擇尺度,以在不同尺度上捕捉到關(guān)鍵的紋理信息,并獲得更準確和魯棒的紋理特征描述子.實驗選擇數(shù)據(jù)集KTH-TIPS作為評估數(shù)據(jù)集.單一尺度和多尺度算法在不同模式下的分類精度列于表1.由表1可見,與單一尺度的算法相比,多尺度融合算法[15-16]在分類精度上有所提升.當半徑和鄰域個數(shù)同時取 {(1,8),(3,24),(5,24)} ,對應LPQ算法的窗口大小winSize分別取 {3,7,11} 時,融合算法能獲得最高的分類精度值,為 97.42%
文獻[4]選擇eriu2 模式進行NLBP 特征提取,但大量實驗測試結(jié)果表明,本文算法選擇 riu2 模式時,在大多數(shù)情況下比選擇eriu2 模式得到的結(jié)果更好,如圖8所示.表明選擇riu2 模式與LBNLBP
實驗結(jié)果表明,融合算法中兩種算法所占比例對分類精度有影響.這可能是因為該數(shù)據(jù)集本身具有獨特屬性,因此通過分配適當?shù)臋?quán)重[17-18]可獲得更好的分類效果.兩種算法不同權(quán)重下的分類精度列于表2.由表2可見,當LPQ算法和NLBP算法的比例為 g:1 時,可達到最高精度為 97.68% ,比在 1:1 情況下的分類精度提高了0.26個百分點.
在紋理圖像分類任務中,通常會使用單一特征進行分類.本文研究了組合特征對圖像分類準確度的影響,不同特征關(guān)注于圖像中不同的紋理信息,通過合理設置特征權(quán)重并將它們相融合,可提高圖像分類的準確度.融合多個特征還可以增加圖像的信息表達能力,從而改善分類性能.
4.2 實驗結(jié)果
4.2.1 灰度公共數(shù)據(jù)集上的實驗結(jié)果
將 LBNLBP與對比算法在4個公共紋理數(shù)據(jù)集 TC10,KTH-TIPS,UMD,CUReT上進行測試.數(shù)據(jù)集TC10共有4320張圖像,由24種紋理圖像構(gòu)成,其中每類的180張圖像均由9種不同旋轉(zhuǎn)角度下集成;紋理數(shù)據(jù)集KTH-TIPS中包含10種紋理,共有81O張圖像,每類的81張圖像均由9種不同尺度的圖像集成,每張圖像的尺寸為 200×200 ,在每個不同尺度下的圖像均由攝像機在3種不同光照條件下和3種不同旋轉(zhuǎn)角度下進行采集;數(shù)據(jù)集UMD與紋理數(shù)據(jù)集KTH-TIPS的特點一致,也包含了光照、旋轉(zhuǎn)和尺度的變化,由 25類紋理圖像構(gòu)成,每類有40張共1000張圖像;數(shù)據(jù)集CUReT主要包含了光照、旋轉(zhuǎn)的變化,該數(shù)據(jù)集中包含61種真實物體材料表面的紋理圖像,共5612張圖像,每類的92張圖像均為在不同的光照變化和不同拍攝角度下采集的.
實驗過程中,先設置訓練集和測試集的比例,然后從每個紋理類別中隨機選擇固定數(shù)量的圖像作為訓練集,余下的全部圖像作為測試集.從而使訓練集與測試集之間有一定的類別平衡,并能覆蓋各種紋理特征.為驗證實驗結(jié)果的穩(wěn)定性,重復運行實驗多次.每次實驗中都使用隨機劃分的方式,將圖像分為訓練集和測試集,并且都使用相同的分類器進行紋理圖像分類,記錄每次實驗的分類精度.最后將多次實驗的分類精度進行平均,得到最終的分類精度結(jié)果.通過取平均值,可減少隨機性對實驗結(jié)果的影響,并提高對分類器性能的可靠評估,
表3列出了不同算法在不同權(quán)重下的分類精度.由表3可見,在合適的尺度下能獲得更高的分類精度,并且多尺度比單一尺度能獲得更高的分類精度.因此,取 (P,r)={(8,1),(24,3),(24,5)} .圖9為LBNLBP算法與單個特征在4個數(shù)據(jù)集上的平均分類精度比較.
表 4~ 表7分別列出了不同算法在4個數(shù)據(jù)集上的分類精度,其中除傳統(tǒng)手工方法使用NNC分類器,其余方法均使用SVM分類器.由表 4~ 表7可見,LBNLBP算法可以得到較高的分類精度.
實驗結(jié)果表明,針對不同數(shù)據(jù)集,融合算法的權(quán)重占比對分類精度也有影響,LBNLBP算法在4個公共數(shù)據(jù)集上不同權(quán)重下的平均分類精度列于表8.由表8可見:LBNLBP算法在數(shù)據(jù)集TC10訓練中,當權(quán)重比為 8:2 時可達到最高精度,比 1:1 時提高近0.42個百分點;在數(shù)據(jù)集UMD的實驗中,當融合算法的權(quán)重比為 7:3 時,分類精度達到 96.10% ,顯著高于其他權(quán)重比下的結(jié)果;而在數(shù)據(jù)集CUReT上算法權(quán)重比為 1:1 時可達最高分類精度.圖1O為LBNLBP算法在不同權(quán)重下的平均分類精度比較.
4.2.2彩色數(shù)據(jù)集上的實驗結(jié)果
RGB顏色空間是目前最常用的顏色空間模型,它使用紅、綠、藍3個分量表示顏色.實際上還存在其他顏色空間[36-37].HSV顏色空間[38]是RGB顏色空間的另一種表示方式,由色調(diào)(H)、飽和度(S)和明度(V)3個分量構(gòu)成.在不同顏色空間下,紋理圖像會呈現(xiàn)不同特征,在數(shù)據(jù)集KTH-TIPS中取一張RGB原圖的彩色圖片,如圖11所示,可觀察到在不同顏色空間下,紋理的視覺表現(xiàn)和特征有所變化.不同顏色空間可提供不同的信息和視覺效果,對紋理分類和識別任務有潛在的影響.其中,如果使用HSV顏色空間,則需將RGB顏色空間轉(zhuǎn)化為HSV顏色空間,實驗結(jié)果表明,使用HSV顏色空間分類精度僅為 31.64% .因此,本文方法在紋理圖像分類任務中,使用RGB顏色空間更合適,能更好地捕捉紋理特征,提高圖像分類的準確性和性能.
彩色數(shù)據(jù)集KTH-TIPS共包含81O張圖像,每張圖像的尺寸為 200×200 ,在每個不同尺寸下的圖像均由攝像機在3種不同光照條件下和3種不同旋轉(zhuǎn)角度下進行采集.實驗中,從每個類別中隨機選取40張圖像進行訓練,剩余圖像用于測試.數(shù)據(jù)集KTH-TIPS-2b包括11類共4752張圖像,每類圖像都包含光照、尺度、角度的變化,取2376張作為訓練集,2376張作為測試集.
在彩色紋理數(shù)據(jù)集KTH-TIPS上對LPQ和NLBP算法進行實驗,針對不同尺度進行測試.數(shù)據(jù)集KTH-TIPS有810張尺寸為 200×200 的彩色圖像,共劃分為10類.每類隨機取40張作為訓練集,剩余用于測試,實驗結(jié)果列于表9.表9中, ① 表示在采樣半徑 r=1 ,采樣點數(shù) P=8 ,窗口大小winSize =3 的尺度下進行特征提??; ② 表示在采樣半徑 r=3 ,采樣點數(shù) P=24 ,窗口大小winSize =7 的尺度下進行特征提取; ③ 表示在采樣半徑 r=5 ,采樣點數(shù) P=24 ,窗口大小winSize =11 的尺度下進行特征提??; ④ 表示前3種布局的整合.
由表9可見,在LPQ算法的各單顏色通道和單一尺度下,分類精度的范圍為 92.26%~ 95.67% .除布局為 ① 的NLBP算法在該布局下分類精度低于 90% 外,其他布局下的分類精度均達到90% 以上.在單一尺度下,分類精度的范圍為84.67%~96.57% ;而在多尺度級聯(lián)情況下,分類精度的范圍提高至 92.03%~97.69% .實驗結(jié)果表明,多尺度級聯(lián)能進一步提高分類準確性.
圖12為4種布局下不同算法在數(shù)據(jù)集KTH-TIPS上的分類精度比較.由圖12可見,在彩色圖像數(shù)據(jù)集中LBNLBP算法有很好的分類效果,相比于單一算法在多尺度級聯(lián)情況下也有很大提高.不同算法在彩色紋理數(shù)據(jù)集KTH-TIPS-2b上的分類精度列于表10.由表10可見,本文方法優(yōu)于大多數(shù)算法.
4.2.3 滿族八旗旗幟數(shù)據(jù)集上的實驗結(jié)果
在該數(shù)據(jù)集上,從每個類別的圖像中分別隨機選取20,45,70,95,120,140張圖像用于訓練,剩余圖像用于測試.因此,訓練集的數(shù)量分別為 160,360,560,760,960,1 120 張圖像.由于本文方法是在基于LGONBP描述符的NLBP算法的基礎(chǔ)上進行擴展,因此在該數(shù)據(jù)集中,重點比較了該方法的性能.鑒于LGONBP算法的局限性,僅適用于灰度圖像,但在本文對該算法進行了拓展性測試,將其應用于彩色紋理圖像.分別在彩色圖像的3個通道中提取特征,并將全部特征進行整合,用于紋理分類.滿族八旗圖像數(shù)據(jù)集上不同算法的平均分類精度列于表11,表11展示了擴展后的方法在彩色紋理分類任務上的性能.
由表11可見,在滿族八旗旗幟圖像數(shù)據(jù)集上,將彩色圖像轉(zhuǎn)化為灰度圖像處理時,效果不如直接在 RGB空間上進行特征提取更好.因此,對滿族八旗旗幟圖像的分類選擇在彩色圖像上進行更合適.這些結(jié)果將為后續(xù)研究工作提供有價值的參考,并為滿族旗幟圖像分類和識別的應用提供實驗基礎(chǔ).同時,也有助于推動相關(guān)領(lǐng)域的研究及進一步改進算法性能.
由實驗結(jié)果可見,在自建的旗幟圖像數(shù)據(jù)集中,當訓練圖像為112O張時,LBNLBP 算法的平均分類精度達 95.51% ,高于其他算法.并且隨著訓練集中圖像的增多,所有算法的平均分類精度也隨之增高.綜合比較LBNLBP 和其他算法在滿族八旗旗幟圖像數(shù)據(jù)集上的分類表現(xiàn),證明了本文LBNLBP算法分類性能更好.
綜上所述,為提高紋理特征提取算法的魯棒性,將局部特征與非局部特征相結(jié)合,降低干擾因素對特征提取產(chǎn)生的影響,本文基于非局部二值模式和局部相位量化,提出了一種多尺度特征融合算法LBNLBP,并在灰度公共數(shù)據(jù)集和彩色公共數(shù)據(jù)集上進行了測試.測試結(jié)果表明,本文融合方法在灰度圖像和彩色圖像分類任務中,其分類精度均顯著高于基于單一特征提取方法的結(jié)果,證明了該方法在紋理特征提取和圖像分類方面的有效性.
參考文獻
[1]聶東研.材質(zhì)表面紋理的觸覺識別算法研究[D].長春:吉林大學,2022.(NIE DY.Research on TactileRecognition Algorithms for Material Surface Textures [D]. Changchun: Jilin University, 2022.)
[2]陳汗青,萬艷玲,王國剛.數(shù)字圖像處理技術(shù)研究進展[J].工業(yè)控制計算機,2013,26(1):72-74.(CHEN H Q,WAN Y L,WANG G G. Research Progress on Digital Image Processing Technology [J].Industrial Control Computer,2013,26(1):72-74.)
[3]OJALA T,PIETIKAINEN M, HARWOOD D. A Comparative Study of Texture Measures with ClasificationBased on Featured Distributions [J]. Pattern Recognition,1996,29(1): 51-59.
[4]SONG T C,F(xiàn)ENG J,LUO L,et al. Robust Texture Description Using Local Grouped Order Pattern andNon-local Binary Pattern [J]. IEEE Transactions on Circuits and Systems for Video Technology,2020,31(1):189-202.
[5]OJANSIVU V,HEIKKILA J. Blur Insensitive Texture Clasification Using Local Phase Quantization [J].Lecture Notes in Computer Science,2008,5099:236-243.
[6]TRAN C K,NGO T H,NGUYEN C N,et al. SVM-Based Face Recognition through Diference of Gaussias andLocal Phase Quantization [J]. International Journal of Computer Theory and Engineering,2O21,13(1):1-8.
[7]宋志剛.融合通道特征的彩色紋理圖像分類新方法研究[D].鎮(zhèn)江:江蘇科技大學,2022.(SONG ZG.Research on a New Method for Color Texture Image Classification Based on Fusion Channel Features [D].Zhenjiang: Jiangsu University of Science and Technology,2022.)
[8]汪方斌,金蓄,朱達榮,等.基于RGB顏色空間的紅外偏振人臉識別[J].激光與光電子學進展,2022,59(12):535-543.(WANG F B, JIN X, ZHU DR,et al. Infrared Polarized Face Recognition Based on RGB Color Space[J].Laser amp; Optoelectronics Progress,2022,59(12): 535-543.)
[9]鄭蘭.優(yōu)化的模糊C均值聚類在布依族服飾圖像分割中的研究[D].貴陽:貴州民族大學,2022.(ZHENGL.Research on Optimized Fuzzy C-Means Clustering in Bouyei Costume Image Segmentation [D]. Guiyang: GuizhouMinzu University,2022.)University,zUzu.)
[11]申旭梅.基于內(nèi)容的少數(shù)民族服飾圖像檢索技術(shù)研究與實現(xiàn)[D].昆明:云南師范大學,2016.(SHEN X M.Research and Implementation of Content-Based Ethnic Minority Costume Image Retrieval Technology [D].Kunming: Yunnan Normal University,2016.)
[12]徐紅梅.民族服飾文化傳承中的圖像記錄研究[D].重慶:西南大學,2011.(XUHM.Research andImplementation of Content-Based Ethnic Minority Costume Image Retrieval Technology [D]. Chongqing:Southwest University,2011.)
[13]王蛟,王維英,杜宇琦.滿族紋樣在現(xiàn)代皮革服飾的應用[J].西部皮革,2023,45(15):68-70.(WANGJ,WANG W Y, DU Y Q. Application of Manchu Patterns in Modern Leather Clothing[J]. West Leather, 2023,45(15):68-70.)
[14]徐晨瑜.清朝滿族服飾文化特征研究[J].西部皮革,2023,45(8):45-47.(XUC Y.Research on the CulturalCharacteristics of Manchu Costumes in the Qing Dynasty [J]. West Leather,2023,45(8): 45-47.)
[15]張雨,王強,李柏林,等.多尺度自適應閾值局部三值模式編碼算法[J].計算機應用研究,2020,37(3):936-939.(ZHANG Y,WANG Q,LIB L,et al. Multi-scale Adaptive Threshold Local Ternary Pattern EncodingAlgorithm [J]. Application Research of Computers,2020,37(3): 936-939.)
[16]童瑩.基于空間多尺度 HOG 特征的人臉表情識別方法[J].計算機工程與設計,2014,35(11):3918-3922.(TONG Y. Facial Expresion Recognition Method Based on Spatial Multi-scale HOG Features [J]. ComputerEngineering and Design,2014,35(11): 3918-3922.)
[17]龍力.多特征融合的紋理圖像分類研究[J].數(shù)字技術(shù)與應用,2017(11):109-112.(LONG L.Research onTexture Image Clasification Based on Multi-feature Fusion[J]. Digital Technology amp; Application,2017(11):109-112.)
[18]萬偉,劉子龍,孫帥,等.基于多特征融合的防爆自動導引車避障方法研究[J].軟件工程,2021,24(3):12-15.(WAN W,LIU Z L,SUN S, et al. Research on Obstacle Avoidance Method for Explosion-ProofAutomated Guided Vehicles Based on Multi-feature Fusion [J]. Software Engineering,2O21, 24(3):12-15.)
[19]MA D D,CHEN Z Q,LIAO Q M. Tree-Shaped Sampling Based Hybrid Multi-scale Feature Extraction forTexture Classification [C]//International Conference on Image Processing,ICIP.Piscataway, NJ: IEEE,2018:2087-2091.
[20]XU X C,LI Y B,WU Q M J.A Multiscale Hierarchical Threshold-Based Completed Local Entropy BinaryPattern for Texture Classification [J]. Cognitive Computation, 2020,12(1) : 224-237.
[21]SONG TC, XIN L L,GAO C Q,et al. Grayscale-Inversion and Rotation Invariant Texture Description UsingSorted Local Gradient Pattern [J]. IEEE Signal Processing Letters,2018,25(5): 625-629.
[22]孫有涵.基于特征融合的圖像檢索算法研究[D].長春:吉林大學,2020.(SUNY H.Research on ImageRetrieval Algorithms Based on Feature Fusion [D]. Changchun: Jilin University,2020.)
[23]XU XC,LI Y B,WU Q M J.A Multiscale Hierarchical Threshold-Based Completed Local Entropy BinaryPattern for Texture Classification [J]. Cognitive Computation,202o,12(1) : 224-237.
[24]CHOLLET F. Xception: Deep Learning with Depthwise Separable Convolutions [C]//2O17 IEEE Conference onComputer Vision and Pattern Recognition. Piscataway,NJ: IEEE,20l7: 1800-1807.
[25]HUANG G,LIU Z,VAN DER MAATEN L,et al. Densely Connected Convolutional Networks [C]//2017IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE, 2O17: 2261-2269.
[26]竇慧,張凌茗,韓峰,等.卷積神經(jīng)網(wǎng)絡的可解釋性研究綜述[J].軟件學報,2024,35(1):159-184.(DOU H,ZHANG L M,HAN F,et al. A Survey on the Interpretabilityof Convolutional Neural Networks[J]. Journal ofSoftware,2024,35(1):159-184.)
[27]ANDREARCZYK V,WHELAN P F. Using Filter Banks in Convolutional Neural Networks for TextureClassification [J]. Pattern Recognition Letters,2Ol6,84: 63-69.
[28]ARIVAZHAGAN S, GANESAN L,PRIYAL S P. Texture Classification Using Gabor Wavelets Based RotationInvariant Features [J]. Pattern Recognition Letters,2006,27(16):1976-1982.
[29]李光明,薛丁華,加小紅,等.基于多尺度圖像增強結(jié)合卷積神經(jīng)網(wǎng)絡的紙病識別分類[J].中國造紙,2018,37(8):47-54.(LI G M, XUED H,JIA X H,et al. Paper Defect Recognition and Clasification Based on Multi-scaleImage Enhancement Combined with Convolutional Neural Networks [J].China Pulpamp; Paper,2O18,37(8):47-54.)
[30]SONG TC, XIN L L,LUOL,et al. Completed Grayscale-Inversion and Rotation Invariant Local Binary Patternfor Texture Classification [C]//International Conference on Pattern Recognition. Piscataway,NJ: IEEE,2018:2642-2647.
[31]VERMA M,RAMAN B. Local Neighborhood Diference Pattern: A New Feature Descriptor for Natural andTexture Image Retrieval [J]. Multimedia Tools and Applications,2018,77(1O):11843-11866.
[32]BANERJEE P, BHUNIA A K, BHATTACHARYYA A,et al. Local Neighborhood Intensity Patrn—A NewTexture Feature Descriptor for Image Retrieval [J]. Expert Systems with Applications, 2018,113:100-115.
[33]ARMI L,F(xiàn)EKRI-ERSHAD S. Texture Image Classification Based on Improved Local Quinary Paterns [J].Multimedia Tools and Applications,2019,78(14):18995-19018.
[34]PAN Z B,WU X Q,LI Z Y. Central Pixel Selection Strategy Based on Local Gray-Value Distribution by UsingGradient Information to Enhance LBP for Texture Clasification [J].Expert Systems with Applications,2019,120(4):319-334.
[35]PILLAI A, SOUNDRAPANDIYAN R, SATAPATHY S,et al. Local Diagonal Extrema Number Pattern: ANew Feature Descriptor for Face Recognition [J]. Future Generation Computer Systems,2018,81(4): 297-306.
[36]楊鴿,鄭嘉龍,王瑩.基于HSV與RGB顏色空間的人體檢測與跟蹤算法[J].自動化技術(shù)與應用,2022,41(9):17-20. (YANG G, ZHENG JL,WANG Y. Human Detection and Tracking Algorithm Based on HSVand RGB Color Spaces [J]. Techniques of Automation and Applications,2022,41(9): 17-20.)
[37]徐佳,曲懷敬,張志升,等.基于多特征融合的 HSV空間彩色紋理圖像檢索[J].計算機與數(shù)字工程,2021,49(11):2342-2347. (XU J, QU H J, ZHANG Z S,et al. Color Texture Image Retrieval in HSV Space Based onMulti-feature Fusion [J]. Computer amp; Digital Engineering,2021,49(11) : 2342-2347.)
[38]曹燦燦,龔聲蓉,周立凡,等.基于 HSV顏色空間特征的視頻煙霧檢測[J].計算機技術(shù)與發(fā)展,2022,32(5):171-175.(CAO C C, GONG S R, ZHOU L F,et al. Video Smoke Detection Based on HSV Color Space Features[J].Computer Technology and Development,2022,32(5):171-175.)
[39]CUSANO C, NAPOLETANO P,SCHETTINI R. Combining Local Binary Paterns and Local Color Contrast forTexture Classification under Varying Iumi Nation[J]. Journal of Optical Society of America A: Optics ImageScience and Vision,2014,31(7):1453-1461.
[40]GUO Z H,WANG X Z, ZHOU J,et al. Robust Texture Image Representation by Scale Selective Local BinaryPatterns [J]. IEEE Transactions on Image Processing,2016,25(2):687-699.
[41]LEE S H,CHOIJY,ROY M,et al. Local Color Vector Binary Paterns from Multichannel Face Images forFace Recognition [J]. IEEE Transactions on Image Processing,2011,21(4): 2347-2353.
[42]LIU L,LAO S Y,F(xiàn)IEGUTH P W,et al. Median Robust Extended Local Binary Pattern for TextureClassification [J]. IEEE Transactions on Image Processing,2016,25(3): 1368-1381.
[43]冀中,聶林紅.基于抗噪聲局部二值模式的紋理圖像分類[J].計算機研究與發(fā)展,2016,53(5):1128-1135.(JI Z,NIE L H. Texture Image Classification Based on Noise-Resistant Local Binary Patterns [J]. Journal ofComputer Research and Development,2016,53(5):1128-1135.)
[44]WANG Z H,F(xiàn)AN B,WU F C. Local Intensity Order Pattern for Feature Description [C]//2011 InternationalConference on Computer Vision. Piscataway,NJ: IEEE,2011: 603-610.
(責任編輯:韓嘯)