沈凌云,朱明,郎百和 ,韓太林
(1.中國(guó)科學(xué)院 長(zhǎng)春光學(xué)精密機(jī)械與物理研究所,長(zhǎng)春 130033;2.中國(guó)科學(xué)院大學(xué),北京 100049;3.長(zhǎng)春理工大學(xué) 電子信息工程學(xué)院,長(zhǎng)春 130022)
CTP版是用于激光數(shù)字直接制版系統(tǒng)(Computer-To-Plate)快速制版、快速印刷的熱敏型或光敏型版材,其表面的熱敏或光敏涂層精細(xì)質(zhì)量制約著解像度與網(wǎng)點(diǎn)還原率,是影響制版、出版質(zhì)量的關(guān)鍵因素之一。CTP版材在生產(chǎn)過程中可能形成的表面瑕疵(點(diǎn)狀及條狀)能造成批量印品相同的印刷瑕疵[1]。CTP版表面瑕疵顏色各異,形狀不規(guī)則,其形成機(jī)理較復(fù)雜。根據(jù)瑕疵的形態(tài)特征可將瑕疵分為幾種典型類型:細(xì)小點(diǎn)狀(白點(diǎn)、斑點(diǎn))、細(xì)小線狀(劃痕)和不規(guī)則條狀(壓痕)。
國(guó)外的CTP版材生產(chǎn)線基本都裝備了自動(dòng)瑕疵在線檢測(cè)設(shè)備,如日本FUTEC的表面缺陷檢測(cè)系統(tǒng),檢測(cè)性能為:對(duì)于幅面寬度1.9m,版基厚度0.28mm的卷材,最高線速度250m/min,檢測(cè)精度0.25mm,檢測(cè)正確率90.5%。國(guó)內(nèi)生產(chǎn)線大多數(shù)仍采用人工肉眼觀察檢測(cè)方法,工作效率低,檢測(cè)精度低。王勤等人設(shè)計(jì)了CTP版檢測(cè)方案,采用單向灰度分布曲線閾值算法,檢測(cè)正確率低、線速度低、不適用線狀瑕疵類型。為實(shí)現(xiàn)對(duì)生產(chǎn)線產(chǎn)品瑕疵的實(shí)時(shí)控制,快速準(zhǔn)確地在線檢測(cè)出CTP版表面瑕疵就具有十分重要的意義。
機(jī)器視覺的瑕疵檢測(cè)方法應(yīng)用廣泛[3-5],但是傳統(tǒng)的圖像分割算法很難實(shí)現(xiàn)對(duì)各類瑕疵都具有較好的分割結(jié)果。HOU[6]提出了最小類內(nèi)方差,采用類方差和作為閾值選擇準(zhǔn)則,不適合CTP版表面瑕疵的小目標(biāo)分割;基于背景預(yù)測(cè)的方法在進(jìn)行預(yù)測(cè)估計(jì)時(shí),通常所取的樣本數(shù)據(jù)相對(duì)較少,精度較低[7];基于小波、粗糙集、神經(jīng)網(wǎng)絡(luò)等特定理論的圖像分割算法比較復(fù)雜,實(shí)時(shí)性差,硬件實(shí)現(xiàn)起來也比較困難[8];基于區(qū)域生長(zhǎng)的方法需要找到合適的種子像素點(diǎn)、生長(zhǎng)準(zhǔn)則和生長(zhǎng)閾值。該方法需要提供初始的種子參數(shù),不合適的初始參數(shù)會(huì)導(dǎo)致分割結(jié)果不理想;但是基于區(qū)域生長(zhǎng)算法是像素級(jí)的運(yùn)算處理,對(duì)于小目標(biāo)來說,該方法可以保證分割的精確性。
人類視覺系統(tǒng)具有選擇性注意的特性,廣泛應(yīng)用于機(jī)器視覺和圖像分析領(lǐng)域?;谝曈X選擇性注意的自動(dòng)目標(biāo)檢測(cè)一般先提取圖像初級(jí)特征參數(shù)生成全局顯著圖,然后對(duì)其進(jìn)行圖像分割從而完成目標(biāo)的檢測(cè)[9]。自 Itti等人[10]提出全局顯著圖的生成方式以來,相繼出現(xiàn)很多顯著圖的生成方法[11-13]。其中,最能凸顯圖像中感興趣目標(biāo)的GBVS模型是J.Harel等人[14]提出的一種基于圖結(jié)構(gòu)的視覺顯著性檢測(cè)算法。該方法首先提取每幅圖像上的顏色、亮度、方向這三種特征向量,然后利用這些特征向量構(gòu)建動(dòng)標(biāo)圖(activation map),最后對(duì)這些動(dòng)標(biāo)圖進(jìn)行歸一化,組合得到全局顯著圖。但是該方法沒有考慮顯著區(qū)域的大小及其形狀,并且邊界模糊。
針對(duì)以上問題,本文提出了一種融合視覺注意機(jī)制和區(qū)域生長(zhǎng)法分割檢測(cè)瑕疵,利用視覺顯著圖的注意焦點(diǎn)作為區(qū)域分割的種子點(diǎn),選擇區(qū)域生長(zhǎng)中的八鄰域搜索的生長(zhǎng)準(zhǔn)則,結(jié)合梯度圖確定合理的生長(zhǎng)閾值對(duì)其進(jìn)行區(qū)域生長(zhǎng),遵循返回抑制和鄰近優(yōu)先的準(zhǔn)則選擇并轉(zhuǎn)移注意焦點(diǎn)。實(shí)驗(yàn)結(jié)果表明,該方法能克服視覺注意機(jī)制檢測(cè)的瑕疵區(qū)域邊界不準(zhǔn)確和區(qū)域生長(zhǎng)法需要提供初始種子點(diǎn)的問題,能準(zhǔn)確檢測(cè)出CTP版表面的各類瑕疵,算法具有自適應(yīng)性。
CTP版表面瑕疵檢測(cè)系統(tǒng)主要由標(biāo)準(zhǔn)光源照明系統(tǒng)、被測(cè)CTP版運(yùn)動(dòng)控制系統(tǒng)、三線彩色線陣CCD拼接成像系統(tǒng)、機(jī)器視覺系統(tǒng)、主控計(jì)算機(jī)及網(wǎng)絡(luò)系統(tǒng)等組成,系統(tǒng)結(jié)構(gòu)如圖1所示。系統(tǒng)測(cè)量時(shí),首先,采用照明裝置控制標(biāo)準(zhǔn)穩(wěn)流源發(fā)出均勻光照射到被測(cè)CTP版表面;然后,通過光學(xué)成像系統(tǒng)將CTP版信息在線陣CCD的光敏面上成像,再通過線陣CCD及鏡頭陣列將信號(hào)采集后送入計(jì)算機(jī),利用本文提出的算法對(duì)瑕疵進(jìn)行識(shí)別定位;最后,控制裁刀進(jìn)行現(xiàn)場(chǎng)的剪切作業(yè)。CCD的選取與系統(tǒng)的分辨率有關(guān)。CTP版表面瑕疵檢測(cè)系統(tǒng)分辨率要求達(dá)到0.1mm。
圖1 CTP版表面瑕疵檢測(cè)系統(tǒng)示意圖
J.Harel等人提出的基于圖結(jié)構(gòu)的空間注意模型是一種自底向上數(shù)據(jù)驅(qū)動(dòng)的選擇性視覺注意計(jì)算模型。該模型根據(jù)Treisman提出的特征整合理論[15],采用多通道多尺度線性濾波器組對(duì)輸入圖像進(jìn)行濾波抽取多方面的初級(jí)視覺特征,如亮度、顏色和方向等,構(gòu)成各個(gè)特征維上的顯著子圖,然后對(duì)它們進(jìn)行分析和融合得到全局顯著圖。基于圖結(jié)構(gòu)的空間注意模型全局顯著圖計(jì)算過程如下:
(1)提取多個(gè)初級(jí)視覺特征:文中選用亮度,顏色和方向特征。選用RGB顏色空間顯示圖像,設(shè)r、g、b是輸入圖像的紅、綠、藍(lán)3個(gè)分量,則亮度特征如(1)式所示,顏色特征(紅、綠、藍(lán)、黃)分別如(2)至(5)式所示。
因?yàn)镚abor函數(shù)能很好地模擬人眼的生物作用,所以采用方向?yàn)?°、45°、90°和135°的Gabor濾波器組分別對(duì)亮度圖像I進(jìn)行濾波,得到4組方向金字塔圖像。
(2)采用典型高斯金字塔形式對(duì)圖像進(jìn)行多尺度分解:原始圖像被分解為4層(記為0-3層),第0層設(shè)置為原始圖像,下一層圖像的形成是通過對(duì)上一層圖像進(jìn)行高斯濾波和1/2下采樣。首先對(duì)原始圖像進(jìn)行高斯濾波,再對(duì)濾波后的圖像進(jìn)行1/2下采樣得到新圖像,依此類推。即各層圖像大小依次為原圖的1,1/2,1/4,1/8。
通過以上兩個(gè)步驟對(duì)原始圖像進(jìn)行多尺度和多特征提取后,可分別得到9組4個(gè)尺度下的亮度、顏色和方向高斯金字塔分解圖。
(3)利用基于圖的算法計(jì)算出亮度、顏色和方向特征圖:首先構(gòu)造出高斯金字塔分解圖的馬爾科夫矩陣,不同尺度下的高斯金字塔分解圖需要插值到同一尺度下便于計(jì)算。假設(shè)不同尺度下的不同分解圖為M:[n]2→R,定義M 中任意不同兩點(diǎn)M(i,j)和M(p,q)的差異性為:
M(i,j)和 M(p,q)分別表示點(diǎn)位置(i,j)和(p,q)的特征值。在實(shí)驗(yàn)中常常用來代替,效果也很好。將M中每個(gè)像素點(diǎn)都兩兩連接起來,這樣就構(gòu)建成了全連接圖GA。圖的每個(gè)節(jié)點(diǎn)代表M中的一個(gè)像素,每條邊代表兩個(gè)節(jié)點(diǎn)之間的權(quán)重,定義為:
即權(quán)重是由點(diǎn)間的差異和點(diǎn)間的距離共同決定的。其中σ是一個(gè)參數(shù),一般取圖像寬度的1/10~1/15,正反方向邊的權(quán)重是一樣的。按式(7)構(gòu)造的權(quán)重矩陣稱為圖GA的鄰接矩陣。將從任何節(jié)點(diǎn)引出的邊的權(quán)重歸一化到[0,1]時(shí),該權(quán)重矩陣稱為馬爾科夫矩陣。然后求其馬爾科夫鏈平衡分布,利用隨機(jī)游走(random walker)的方法對(duì)被訪頻率較低的結(jié)點(diǎn)對(duì)應(yīng)的像素賦予較大的顯著值。
(4)計(jì)算全局顯著圖:將所有組、所有尺度的高斯金字塔分解圖計(jì)算出平衡分布后,將結(jié)果歸一化并按照同類特征圖求和平均,然后各特征圖疊加求和,得到全局顯著圖S。
通過計(jì)算全局顯著圖S的最大顯著值,獲得注意焦點(diǎn)。
該算法結(jié)合基于選擇性視覺注意模型和區(qū)域生長(zhǎng)算法,完成自動(dòng)檢測(cè),算法步驟如下:
(1)采用基于選擇性視覺注意模型對(duì)待檢測(cè)的CTP版圖像進(jìn)行計(jì)算,獲得注意焦點(diǎn),并將此注意焦點(diǎn)作為區(qū)域生長(zhǎng)算法的種子像素,同時(shí)將該點(diǎn)坐標(biāo)作為該瑕疵的中心位置;
(2)采用Sobel算子對(duì)待檢測(cè)的CTP版圖像進(jìn)行處理,得到梯度圖,計(jì)算梯度均值與標(biāo)準(zhǔn)差之和作為生長(zhǎng)閾值;
(3)將種子點(diǎn)像素與八領(lǐng)域像素進(jìn)行比較,將符合生長(zhǎng)準(zhǔn)則的鄰域像素視為目標(biāo)區(qū)域;
(4)瑕疵被分割后,需要轉(zhuǎn)移注意焦點(diǎn),即選擇下一個(gè)注意焦點(diǎn)。準(zhǔn)則一:已經(jīng)被選擇過的顯著區(qū)域就應(yīng)該忽略,將這種特性稱為返回抑制;準(zhǔn)則二:當(dāng)出現(xiàn)具有相同顯著值的點(diǎn),則根據(jù)鄰近優(yōu)先準(zhǔn)則進(jìn)行轉(zhuǎn)移。利用這兩種準(zhǔn)則,循環(huán)掃描整幅顯著圖,就能檢測(cè)出可能出現(xiàn)的所有瑕疵;
(5)以面積(像素?cái)?shù))特征粗略判定瑕疵類型,檢測(cè)到的區(qū)域小于10個(gè)像素時(shí)則認(rèn)為瑕疵檢測(cè)完畢;
根據(jù)多次實(shí)驗(yàn)經(jīng)驗(yàn):點(diǎn)狀瑕疵一般大于10個(gè)像素而小于100個(gè)像素;而條狀瑕疵一般遠(yuǎn)大于100個(gè)像素。如果第一次檢測(cè)到的區(qū)域小于10個(gè)像素,則認(rèn)為整幅圖像沒有瑕疵。
CTP版表面瑕疵檢測(cè)系統(tǒng)的算法實(shí)現(xiàn)硬件平臺(tái)為Intel i5 750、主頻2.66GHz的CPU,8G內(nèi)存PC機(jī),使用VC++結(jié)合Matlab圖像處理工具箱函數(shù)。
為了驗(yàn)證方法的有效性,通過生產(chǎn)線圖像采集系統(tǒng)獲得的數(shù)據(jù)庫中,隨機(jī)抽取200張具有瑕疵的樣本圖片,分別具有單個(gè)或多個(gè)點(diǎn)狀、條狀瑕疵;同時(shí),隨機(jī)抽取200張無瑕疵(或瑕疵尺寸小于0.1mm)的樣本圖片。樣本圖片為5616×3744像素。
圖2是一張具有三個(gè)瑕疵的樣本圖片(圖中黑圈所示為瑕疵標(biāo)注位置)。為了使顯示結(jié)果更直觀,歸一化截取大小為240×240像素的帶有瑕疵的圖片檢測(cè)過程如圖3所示。結(jié)果顯示,本文提出的基于視覺注意機(jī)制的區(qū)域生長(zhǎng)分割算法檢測(cè)出的瑕疵位置準(zhǔn)確。
圖2 帶有3處瑕疵的圖片
圖3 本文方法對(duì)具有瑕疵的CTP版檢測(cè)過程及結(jié)果
圖4 本文方法、Otsu方法及最大熵方法對(duì)具有瑕疵的CTP版分割結(jié)果
選取四類具有單個(gè)典型瑕疵的樣本:白點(diǎn)、黑點(diǎn)、壓痕和劃痕各一張,分別如圖4(a1)、(a2)、(a3)、(a4)所示。將瑕疵區(qū)域截取大小為240×240像素的圖片,來比較本文方法、Otsu方法與最大熵方法的分割結(jié)果,結(jié)果如圖4所示。從圖中可以看出Otsu方法基本不能分割出目標(biāo);最大熵方法對(duì)點(diǎn)狀瑕疵,如白點(diǎn)和黑點(diǎn)分割效果好,對(duì)條狀,如壓痕和劃痕效果較差;本文方法對(duì)點(diǎn)狀和條狀瑕疵分割效果均較好。
表1 三種方法運(yùn)行時(shí)間(秒)
三種方法運(yùn)行時(shí)間統(tǒng)計(jì)如表1所示,其中百分比是指目標(biāo)尺寸大小占整個(gè)圖像尺寸的比例。通過比較可知:在不同類型的瑕疵圖像檢測(cè)中,本文提出的基于視覺注意機(jī)制的區(qū)域生長(zhǎng)分割算法具有自適應(yīng)性,并且耗時(shí)最短;而最大熵方法耗時(shí)最長(zhǎng)。
基于視覺注意機(jī)制的區(qū)域生長(zhǎng)分割算法對(duì)CTP版樣本進(jìn)行瑕疵區(qū)域檢測(cè),檢測(cè)結(jié)果如表2所示:200張有瑕疵CTP版樣本中,包括315個(gè)點(diǎn)狀瑕疵,能檢測(cè)出312個(gè),檢測(cè)準(zhǔn)確率為99.0%;158個(gè)條狀瑕疵,能檢測(cè)出149個(gè),檢測(cè)準(zhǔn)確率為94.3%;200張無瑕疵正常圖片樣本能檢測(cè)為無瑕疵的圖片數(shù)為191張,檢測(cè)準(zhǔn)確率為95.5%,因此,本文方法的平均準(zhǔn)確率達(dá)到96.3%。
表2 瑕疵檢測(cè)準(zhǔn)確率結(jié)果
分析了CTP版表面瑕疵檢測(cè)系統(tǒng)工作原理與結(jié)構(gòu)設(shè)計(jì),提出了CTP版表面瑕疵的基于機(jī)器視覺的自適應(yīng)檢測(cè)算法,有效克服了GBVS視覺注意模型檢測(cè)到的區(qū)域邊界不準(zhǔn)確和區(qū)域生長(zhǎng)法需要提供初始種子點(diǎn)的問題,對(duì)多個(gè)不同類型瑕疵的檢測(cè)具有自適應(yīng)性,符合人類的視覺注意機(jī)制,甚至對(duì)于對(duì)比度很低的小目標(biāo)分割要好于人眼觀察的結(jié)果。該算法明顯改善了基于對(duì)象的圖像分割方法存在主觀、耗時(shí)等缺點(diǎn);算法不需要用戶手動(dòng)設(shè)置閾值,大大提高系統(tǒng)的智能性。
[1]王世勤.印版點(diǎn)狀弊病產(chǎn)生的原因及分析[J].影像技術(shù),2008,(4):33-41.
[2]王勤,王慶有,齊龍.多線陣CCD拼接檢測(cè)寬幅PS版表面缺陷的研究[J].光電子·激光,2005,16(11):1350-1354.
[3]吳斌,韓文強(qiáng),邵震宇.基于機(jī)器視覺的微細(xì)孔壁缺陷檢測(cè)[J].光電子·激光,2012,23(11):2137-2141.
[4]苗語,王艷春,郭乃珠,等.基于邊緣檢測(cè)終止條件的區(qū)域生長(zhǎng)算法[J].長(zhǎng)春理工大學(xué)學(xué)報(bào):自然科學(xué)版,2009,32(4):680-682.
[5]沈凌云,郎百和,朱明.一種基于顯著性活動(dòng)輪廓模型的圖像分割方法[J].長(zhǎng)春理工大學(xué)學(xué)報(bào):自然科學(xué)版,2012,35(3):120-123.
[6]Hou Z,Hu Q,Nowinski W L.On minimum variance thresholding[J].Pattern Recognition Letters,2006,27(14):1732-1743.
[7]李凡,劉上乾,洪鳴.基于背景預(yù)測(cè)的紅外弱小目標(biāo)檢測(cè)新算法[J].西安電子科技大學(xué)學(xué)報(bào):自然科學(xué)版,2009,36(6):1075-1078.
[8]Masooleh M G,Moosavi SAS.An improved fuzzy algorithm forimage segmentation[J].Proceedings ofWorld Academy ofScience,Engineering and Technology,2008,28(4):400-404.
[9]Borji A,Sihite D N,Itti L.Objects do not predict fixations better than early saliency:A re-analysis of Einhaeuser et al.'s data[J].Journal of Vision,2013,13(10):1-4.
[10]Itti L,Koch C,Niebur E.A Model of Saliency-Based Visual Attention for Rapid Scene Analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.
[11]Hou X,Zhang L.Saliency detection:A spectral residual approach[C].Internaltional Conference on Computer Vision and Pattern Recogintion,2007:1-8.
[12]Achanta R,Hemami S,Estrada F,et al.Süsstrunk.Frequency-tuned salient region detection [C].IEEE International Conference on Computer Vision and Pattern Recognition,2009,1597-1604.
[13]Borji A,Sihite D N,Itti L.Quantitative Analysis of Human-Model Agreement in Visual Saliency Modeling:A Comparative Study[J].IEEE Transactions on Image Processing,2012,1-16.
[14]Harel J,Koch C,Perona P.Graph-based visual saliency[J].NIPS,2007,545-552.
[15]Treisman A M,Gelade G.A feature-integration theory of attention[J].Cognitive Psychology,1980,12(1):97-136.