李春雷, 高廣帥, 劉洲峰, 劉秋麗
(中原工學(xué)院, 鄭州 450007)
基于L0范數(shù)視覺顯著性的織物疵點檢測算法研究
李春雷, 高廣帥, 劉洲峰, 劉秋麗
(中原工學(xué)院, 鄭州 450007)
提出了一種基于L0范數(shù)視覺顯著性的織物疵點檢測算法。首先將測試圖像分塊,針對每一個測試圖像塊,用隨機選擇的K個其他圖像塊與該圖像塊變異構(gòu)建字典庫,并利用該字典庫對測試圖像塊進行稀疏表示。然后采用L0范數(shù)優(yōu)化方法來求解稀疏系數(shù),將變異圖像塊對應(yīng)的稀疏系數(shù)作為該圖像塊的顯著度,從而生成最終視覺顯著度圖。最后通過迭代最優(yōu)閾值分割算法定位出疵點區(qū)域。該算法相對已有方法能更有效地檢測出疵點區(qū)域。
L0范數(shù);視覺顯著性;稀疏表示;織物圖像;疵點檢測
織物疵點檢測是紡織品質(zhì)量檢測的重要環(huán)節(jié),已成為圖像處理與模式識別領(lǐng)域研究的熱點。目前織物疵點檢測算法主要以統(tǒng)計學(xué)習及頻譜分析為基礎(chǔ),共分為3類:基于統(tǒng)計的方法、基于頻譜分析的方法和基于模型的方法?;诮y(tǒng)計的方法是利用織物圖像背景和疵點統(tǒng)計特性的差別進行疵點檢測的,但不同統(tǒng)計方法的檢測結(jié)果不同,缺乏自適應(yīng)性[1-3]?;陬l譜分析的方法是將紋理圖像轉(zhuǎn)換到頻域,然后采用判別分析方法進行疵點檢測,該類方法在很大程度上依賴于濾波器的選擇[4-5]?;谀P偷姆椒ㄍǔ<俣y理是某種模型下的一個樣本,通過學(xué)習估計出該模型的參數(shù),再利用假設(shè)檢驗的方法測試待檢圖像是否符合該參數(shù)下的紋理模型。該類方法計算量較大,對面積較小的疵點識別能力較差[6]。
人類視覺感知機制具有快速定位顯著目標的能力[7-9]。對于織物圖像,雖然織物紋理多樣化及疵點類別較多,但疵點在復(fù)雜的紋理背景中較為顯著。因此,基于視覺顯著性的織物疵點檢測方法[10-11]具有較高的研究價值。眾所周知,人類大腦的初級視覺皮層(V1區(qū))可以采用一個超完備字典庫進行稀疏表示,因此稀疏表示可以用于視覺顯著性的檢測[12]。Li Y等[13]提出了一種基于稀疏表示的視覺顯著性檢測方法,該方法針對每一測試圖像塊,用由剩余圖像塊構(gòu)建的字典庫進行稀疏表示,并將稀疏編碼長度作為該圖像塊的顯著度,從而構(gòu)建視覺顯著圖。 Hoang M C等[14]認為冗余背景圖像塊可以用圖像中的剩余背景塊稀疏表示,而顯著疵點區(qū)域則不能。依據(jù)該假設(shè),該方法首先利用除測試圖像塊之外的其他圖像塊構(gòu)造字典庫,然后再利用該字典庫對測試圖像塊進行稀疏表示,通過L1范數(shù)優(yōu)化方法求解出稀疏系數(shù),最后通過對稀疏系數(shù)的統(tǒng)計分析計算出圖像塊的顯著度。然而,文獻[13]和文獻[14]采用除測試圖像塊之外的其他圖像塊來構(gòu)造字典庫,造成字典庫較大,計算復(fù)雜。另外,采用L1范數(shù)優(yōu)化方法進行求解,速度較慢,影響算法效率。
本文提出了一種基于L0范數(shù)視覺顯著性的織物疵點檢測方法。相對已有的視覺顯著性模型,該方法能更有效地為有復(fù)雜紋理背景的織物圖像建立視覺顯著圖。
1.1 基于增量編碼視覺顯著圖的生成方法
Li Y等提出了一種基于增量編碼視覺顯著圖的生成方法[13],該方法假定視覺顯著度由增量編碼長度(Incremental Coding Length (ICL))所決定。首先將測試圖像分成相互交疊的圖像塊,每個測試圖像塊都由其他塊的線性組合來表示。然后通過L1范數(shù)求解出稀疏系數(shù),最后將稀疏系數(shù)的增量編碼長度作為圖像塊的顯著度,生成視覺顯著圖。
假定每個中心圖像塊x由一列向量y=Tx∈Rm表示,其中T是一種特征抽取變換;鄰域塊S(x)由一組向量D= [d1,d2,…,dN] =TS(x)來表示,其中di∈Rm。將中心圖像塊y表示為鄰域圖像塊的線性組合,如式(1)所示。
(1)
其中:D∈Rm×N;w是權(quán)向量。由于m< 由于D為一欠定矩陣,因此式(1)有無窮多解。該問題可等價于L0范數(shù)最小化: (2) L0范數(shù)最小化是NP-hard問題。為了使該式可解,可以將其轉(zhuǎn)換為利用L1范數(shù)最小求解的式(3),從而得到近似稀疏解。 (3) 式(3)可以等價為: (4) 其中,參數(shù)λ用于控制重建誤差與稀疏度。本文采用線性規(guī)劃方法求解式(4)[15]。 Li Y等指出圖像塊x的編碼長度δLε(x)與‖w‖0成正比,而圖像塊的顯著度由編碼長度決定[13]。因此圖像塊x的視覺顯著度可以描述如下: Sy(x)=δLε(x)=‖w‖0 (5) 圖像可以重疊分塊,因此,每一個像素都可以對應(yīng)一個圖像塊,即生成的視覺顯著圖與原始圖像大小一致。最后,采用閾值分割方法定位出目標區(qū)域。 1.2 改進的視覺顯著圖生成方法 基于增量編碼視覺顯著圖的生成方法存在兩個不足:①采用除測試圖像塊之外的其他鄰域圖像塊構(gòu)建字典庫,造成字典庫較大,計算復(fù)雜度高;②利用L1范數(shù)進行稀疏求解,速度較慢,影響算法效率[13]。針對上述不足,本文提出改進的視覺顯著圖生成方法。隨機選擇K個其他圖像塊與測試圖像塊的變異構(gòu)建字典庫,引入L0范數(shù)進行稀疏求解,提高求解效率。 1.2.1 字典庫構(gòu)建 隨機選擇K個圖像塊來構(gòu)建字典庫。K個圖像塊的位置計算公式為: Pj=round(Pi+ψRj) (6) 其中:j=1,2,…,K,Rj∈[-1,1] ×[-1, 1]為隨機變量;Pi表示第i個圖像塊的位置序號;Pj表示第j個圖像塊的位置序號;round()為取整函數(shù);ψ表示圖像寬高的一半。 測試圖像塊可能是正常塊,也可能是疵點,疵點區(qū)域較小。隨機選擇的圖像塊也分兩種情況:一些圖像塊來自于疵點區(qū)域,其他為正常塊;所有圖像塊均來自于正常區(qū)域。因此,在計算測試圖像塊顯著度時,分為4種情況: (7) 其中:τ為控制修改量的參數(shù),本文設(shè)τ為0.1;s是由隨機函數(shù)產(chǎn)生的隨機序列。同樣對上述4種情況進行分析: 對每一個測試圖像塊進行稀疏表示,利用抖動圖像塊對應(yīng)的稀疏系數(shù)表示該圖像塊的顯著度,最終生成能有效突出疵點區(qū)域的視覺顯著圖。 1.2.2 SL0范數(shù)求解 L1范數(shù)不能有效地表示系數(shù)向量w的稀疏特征,且收斂速度較慢。SL0 (smoothed L0 norm, 光滑L0范數(shù))算法則通過帶參數(shù)的高斯函數(shù)近似L0范數(shù),從而把L0范數(shù)的最小化問題轉(zhuǎn)化為平滑函數(shù)的極值問題,對該問題求解相對容易,且具有速度快的特點。本文通過引入穩(wěn)健近似L0范數(shù)最小化算法[16]求解式(1)。 由于噪聲往往存在于實際應(yīng)用中,因此,式(1)可等價為: y=Dw+ζ (8) (9) 通過引入?yún)?shù)λ,式(9)可轉(zhuǎn)化為無約束最優(yōu)化問題: (10) 其中,λ為罰系數(shù),本文取為0.25。 為了求解式(10),引入一組反正切函數(shù): (11)其中:δ為正參數(shù);s為變量。則函數(shù)fδ(s)具有如下性質(zhì): (12) 令: (13) 則由式(12)可得: (14) 那么,式(10)可以轉(zhuǎn)換為以下最小化求解問題: (15) 其中,參數(shù)δ為接近于0的正常數(shù)。 式(15)為無約束最優(yōu)化問題,然而當δ較小時,目標函數(shù)Fδ(ω)高度不平滑,使得式(15)容易陷入局部最優(yōu)解。為了使式(15)盡量收斂于全局最優(yōu)解,本文設(shè)δ為一組下降序列[δ1,δ2,…,δJ],其中,δ1大于0,且數(shù)值較大;δJ為接近于0的正常數(shù)。然后,將參數(shù)δ=δj-1時求得的最優(yōu)解ωδj-1作為δ=δj時式(15)求解的初值,從而逐步靠近δ=δJ時的全局最優(yōu)解。當δ=δj時,式(15)求解是無約束最優(yōu)化問題,因此本文引入BFGS算法(一種擬牛頓法)進行求解[17],該算法具有二階收斂性,且有較高的數(shù)值穩(wěn)定性。 (16) 基于稀疏表示視覺顯著性的織物疵點檢測算法主要由圖像分塊、字典庫構(gòu)建、L0范數(shù)求解、顯著圖分割四部分組成。算法流程如圖1所示。 圖1 算法流程圖 (1)圖像分塊:把大小為M×N 的圖像X分為大小為m×m的圖像Xi,其中i = 1,2,…,Nb(Nb是圖像塊的數(shù)目)。一個圖像塊對應(yīng)于顯著圖中的一個像素。為了提高顯著圖的分辨率,圖像塊X1,X2,…,XNb彼此之間有交疊。重疊區(qū)域的大小為m ×c或c×m。重疊區(qū)域的大小決定著生成視覺顯著圖的分辨率。 (2)為了去相關(guān)性,采用下式對圖像塊Xi進行變換: (17) 其中:mean(Xi)是圖像塊Xi的平均值;norm(·)是向量的范數(shù)。 (3)針對測試圖像塊Yi,采用2.2.1部分給出的隨機選塊方法,選取與之對應(yīng)的K個圖像塊。然后由所選取圖像塊及Yi圖像塊自身變異共同構(gòu)成字典庫。 (4)采用L0范數(shù)求解稀疏系數(shù),并由Yi變異對應(yīng)的稀疏系數(shù)生成最終顯著圖S。 (18) 其中:g是圓形平滑濾波器;“°”表示哈達瑪內(nèi)積運算符;“*”表示卷積運算。 (19) (7)利用迭代最優(yōu)閾值對G進行分割[11],從而定位出疵點區(qū)域。 為了驗證所提出的方法的可行性,本文從織物圖像庫中選擇含有漏紗、破損、緯松、跳花、結(jié)頭等常見疵點的圖像進行實驗,圖像分辨率為512×512。部分選取圖像如圖2(a)所示。 圖2 本文方法與其他視覺顯著性模型顯著圖比較 將本文方法與現(xiàn)有視覺顯著性模型[7-9]生成的顯著圖進行了對比。其中圖2(b)為由譜殘差方法[7]生成的顯著圖;圖2(c)是由非參數(shù)低水平視覺方法[8]生成的顯著圖;圖2(d)是由調(diào)頻方法[9]生成的顯著圖;圖2(e)為本文方法生成的顯著圖;圖2(f)為經(jīng)閾值分割后的疵點圖像。從圖2中可以看出,譜殘差方法對背景較為復(fù)雜的織物圖像生成視覺顯著圖效果較差,不能突出疵點區(qū)域;非參數(shù)低水平視覺方法對錯緯圖像具有較好的效果,但是對其他3種疵點生成的圖像效果較差;調(diào)頻方法對劈縫圖像、錯緯圖像及漏洞圖像具有較好的效果,但由于破損圖像像素鄰域之間差別較大,造成生成視覺顯著圖效果差。由本文方法生成的視覺顯著圖能有效突出疵點區(qū)域,采用的閾值分割能有效定位出疵點區(qū)域。 織物圖像紋理較為復(fù)雜,且疵點的種類繁多,但各類疵點在復(fù)雜背景中一般較為顯著。因此基于視覺顯著性模型的織物疵點檢測具有較高的研究價值。相對已有的視覺顯著性方法,本文提出的方法能更有效地為有復(fù)雜紋理背景的織物圖像建立視覺顯著圖,為復(fù)雜背景下的目標檢測提供一種新思路。下一步將對含有花紋的織物圖像構(gòu)建合適的視覺顯著圖,突出疵點區(qū)域。 [1]TajeripourF,KabirE,SheikhiA.FabricDefectDetectionUsingModifiedLocalBinaryPatterns[J].EurasipJournalonAdvancesinSignalProcessing, 2008(1):1-12. [2]ShiM,FuR,GuoY,etal.FabricDefectDetectionUsingLocalContrastDeviations[J].MultimediaTools&Applications, 2011, 52(1):147-157. [3]NganHYT,PangGKH,YungNHC.PerformanceEvaluationforMotif-basedPatternedTextureDefectDetection[J].IEEETransactionsonAutomationScience&Engineering, 2010, 7(1):58-72. [4]SrikaewA,AttakitmongcolK,KumsawatP,etal.DetectionofDefectinTextileFabricsUsingOptimalGaborWaveletNetworkandTwo-dimensionalPCA[C]//AdvancesinVisualComputing.Heidelberg:Springer-verlag, 2011:436-445. [5]TolbaAS.FastDefectDetectioninHomogeneousFlatSurfaceProducts[J].ExpertSystemswithApplicationsanInternationalJournal, 2011, 38(10):12339-12347. [6]CohenFS,FanZ,AttaliS.AutomatedInspectionofTextileFabricsUsingTexturalModels[J].IEEETransactionsonPatternAnalysis&MachineIntelligence, 1991, 13(8):803-808. [7]HouXD,ZhangLQ.SaliencyDetection:ASpectralResidualApproach[C]//2007IEEEConferenceonComputerVisionandPatternRecognitionIEEE.Washington:IEEEComputerSociety, 2007: 1-8. [8]MurrayN,VanrellM,OtazuX,etal.SaliencyEstimationUsingaNon-parametricLow-levelVisionModel[C]//IEEEConferenceonComputerVisionandPatternRecognition.Washington:IEEEComputerSociety, 2011:433-440. [9]WangW,CaiD,XuX,etal.VisualSaliencyDetectionbasedonRegionDescriptorsandPriorKnowledge[J].SignalProcessingImageCommunication, 2014, 29(3):424-433. [10] 劉洲峰,趙全軍,李春雷,等.基于紋理結(jié)構(gòu)異常的織物疵點檢測算法研究[J].中原工學(xué)院學(xué)報,2014,25(3):22-25. [11] 李春雷, 張兆翔, 劉洲峰,等. 基于紋理差異視覺顯著性的織物疵點檢測算法[J]. 山東大學(xué)學(xué)報(工學(xué)版), 2014, 44(4):1-8. [12]ChanhoJ,ChangickK.AUnifiedSpectral-domainApproachforSaliencyDetectionanditsApplicationtoAutomaticObjectSegmentation[J].IEEETransactionsonImageProcessing, 2011, 21(3):1272-1283. [13]LiY,ZhouY,XuL,etal.IncrementalSparseSaliencyDetection[C]//16thIEEEInternationalConferenceonImageProcessing.Washington:IEEEComputerSociety, 2009: 3057-3060. [14]HoangMC,RajanD.SparseLikelihoodSaliencyDetection[C]//2012IEEEInternationalConference.Washington:IEEEComputerSociety, 2012:897-900. [15]HonglakL,AlexisB,RajatR,etal.EfficientSparseCodingAlgorithms.NIPS[J].AdvancesinNeuralInformationProcessingSystems, 2006, 19:801-808. [16] 王軍華, 黃知濤, 周一宇,等. 基于近似L0范數(shù)的穩(wěn)健稀疏重構(gòu)算法[J]. 電子學(xué)報, 2012, 6(6):1185-1189 [17]AndrewG,GaoJ.ScalableTrainingofL1-regularizedlog-linearModels[C]//The24thInternationalConferenceonMachineLearing(ICML2007).Texas:ACM,2007,9(5):347-357. (責任編輯:姜海芹) A Novel Fabric Defect Detection Algorithm Using L0 Norm Visual Saliency LI Chun-lei, GAO Guang-shuai, LIU Zhou-feng, LIU Qiu-li (Zhongyuan University of Technology, Zhengzhou 450007, China) This paper proposes a novel fabric defect detection algorithm using sparse representation-based visual saliency. In the proposed scheme, an input image is first divided into blocks, then each image block is represented based on a dictionary constructed using some randomly selected blocks and the dithered test block, using L0-minimization solves the equation to obtain weights. Based on the corresponding weight value of dithered test block, a saliency map is produced. Finally, saliency map is segmented by using an optimal threshold, which is obtained by an iterative approach. Experimental results demonstrate that generated saliency map using our proposed method outperforms state-of-the art, and the defect can be efficiently localized by the optimum threshold segmentation. L0 norm; visual saliency; sparse representation; fabric image; defect detection 2015-09-25 國家自然科學(xué)基金項目(61202499;61379113);河南省基礎(chǔ)與前沿技術(shù)研究項目(142300410042);鄭州市科技領(lǐng)軍人才項目(131PLJRC643) 李春雷(1979-),男,河南商水人,副教授,博士,主要研究方向為織物圖像處理與模式識別。 李春雷:博士,副教授,中原工學(xué)院青年拔尖人才,主要研究方向為織物圖像處理與模式識別。近年來在《Neurocomputing》《Multimedia Tools and Applications》《International Conference on Pattern Recognition》《紡織學(xué)報》等國內(nèi)外期刊及會議上發(fā)表學(xué)術(shù)論文40余篇,其中被SCI 收錄7篇,被EI收錄10余篇。申請國家發(fā)明專利5項,已授權(quán)2項。參與或主持完成國家自然科學(xué)基金、河南省科技攻關(guān)等多項項目。獲河南省科技進步三等獎1項,紡織工業(yè)協(xié)會科技進步三等獎1項。目前主持國家自然科學(xué)基金青年科學(xué)基金項目1項,參與國家自然科學(xué)基金、河南省基礎(chǔ)與前沿技術(shù)研究等多項課題。先后在河海大學(xué)、北京航空航天大學(xué)攻讀碩士、博士學(xué)位。 1671-6906(2015)06-0001-05 TG142.1 A 10.3969/j.issn.1671-6906.2015.06.0012 算法流程
3 實驗結(jié)果及分析
4 結(jié) 語