汪輝進(jìn)
(池州職業(yè)技術(shù)學(xué)院 信息技術(shù)系,安徽 池州 247000)
基于敏感部位圖像特征的提取方法研究
汪輝進(jìn)
(池州職業(yè)技術(shù)學(xué)院 信息技術(shù)系,安徽 池州 247000)
隨著互聯(lián)網(wǎng)高速發(fā)展,一些敏感圖像信息也在網(wǎng)絡(luò)上廣泛傳播,如何對這些敏感圖像進(jìn)行有效自動識別,凈化網(wǎng)絡(luò)環(huán)境已成為計算機(jī)領(lǐng)域的重點研究課題.通過對常用圖像分割算法k-means算法、k-means++算法探討,提出敏感圖像敏感部位的特殊構(gòu)造形態(tài),構(gòu)建彩色變柱寬多分辨率直方圖矩特征,有效的表示了敏感部位的顏色和紋理信息.采用敏感部位特征視覺詞匯和聚類算法計算的視覺詞匯形成混合視覺詞匯表,并使用詞袋模型建模,在圖像識別階段使用基于RBF核的SVM分類器.實驗結(jié)果顯示該方法有效地提高了敏感圖像的識別效果.
敏感圖像;聚類算法;詞袋模型;圖像識別
截至2016年12月,我國共查處180.1萬件色情信息.由此可見互聯(lián)網(wǎng)+時代,色情圖像與視頻、即時通訊軟件、社交軟件、網(wǎng)絡(luò)直播平臺等,這些敏感部位的圖像越來越引起人們的關(guān)注.為此,如何讓互聯(lián)網(wǎng)環(huán)境變成綠色的、健康的信息通道,是我們信息領(lǐng)域科研人員所要研究的重點課題.經(jīng)過大量調(diào)查研究,發(fā)現(xiàn)如何對網(wǎng)絡(luò)敏感圖像進(jìn)行匹配和識別是學(xué)者們共同研究的重要內(nèi)容,研究人員主要是通過圖像分割技術(shù)來對人臉和皮膚等區(qū)域進(jìn)行有效識別[1].Liao等[2]人使用小波多尺度進(jìn)行分析局部圖像信號特征,來提高圖像精密結(jié)構(gòu),提高了圖矩特征對圖像的要求.由于受圖像清晰度影響性較大,圖像一旦受到外界干擾,其識別率會下降,魯棒性也差.
本文通過研究局部圖像的特征方法來進(jìn)行探討k-means算法,進(jìn)一步對敏感部位patch特征值進(jìn)行提取,建立混合詞匯表的詞袋模型,通過實驗比對來進(jìn)行分析:
局部圖像特征的提取主要應(yīng)用在圖像的匹配和檢索中,一般隨著物體燈光、噪聲的干擾,會引起局部圖像的灰度明暗變化,所以運用角點來進(jìn)行提取也是不錯的方法.文獻(xiàn)[3]利用Harris算法進(jìn)行角點特征提取,其利用局部圖像與鄰近像素點灰度之間的差值,檢測角點上各個特征點的一階導(dǎo)數(shù)矩陣.廣泛用于物體目標(biāo)跟蹤、目標(biāo)匹配、重建3D等領(lǐng)域.圖像分割從字面簡單理解就是將一張圖像分割成小的,互不相交的區(qū)域的集合.通過這些小的區(qū)域的像素的聚類過程,可以通過常用的邊緣方法和區(qū)域方法解決,這里主要探討基于區(qū)域的圖像分割方法--k-means算法.
通常,人們根據(jù)樣本間的距離或者相似性來定義聚類,即把相似的(或距離近的)樣本聚為同一類,而把不相似的(或距離遠(yuǎn)的)樣本歸在其他類.算法主要思想:
(1)聚類的中心點由每個聚類子集中的數(shù)據(jù)均值來表示;
(2)通過迭代過程把數(shù)據(jù)集劃分為不同類別;
(3)使得評價聚類性能的準(zhǔn)則函數(shù)達(dá)到最優(yōu),從而使生存的每個聚類內(nèi)緊湊,類間獨立.
圖1 松散不同聚類效果圖
如圖1所示,三個不同的聚類效果不同,根據(jù)歐式定理,一般樣本距離越小,相似性度越高,差異性也越?。粯颖揪嚯x越大,相似度越差,差異性也越大.因此,可采用局部區(qū)域進(jìn)行劃分.
k-means算法作為計算機(jī)圖形圖像領(lǐng)域最常見迭代算法之一,由于它的普遍性,它通常被稱為k-均值算法,它也被稱為Lloyd算法.給定一個初始集的K均值M1(1),…,MK(1),該算法通過兩個步驟迭代進(jìn)行:
步驟一:每個聚類就是最小聚類組內(nèi)距離的平方和.
其中每個xp被分配到一個確定的S(t),即它可能被分配到兩個或兩個以上.
步驟二:計算在新簇中心的方法為:
由于算術(shù)平均采用的是最小二乘法來進(jìn)行計算,因此最大限度地減少了聚類內(nèi)的平方和.
該算法收斂時,分配不再改變.通過兩步來優(yōu)化聚類內(nèi)的平方和,針對有限數(shù)量的這種分割情況下,該算法一定能收斂而達(dá)到局部最優(yōu).但該算法不能保證全局也是最優(yōu)的.因此對該算法加以改進(jìn),用最近距離的聚類子集來分配方案,就是利用“最小平方和”,也等同于分配最小歐氏距離算法.
給定一組數(shù)據(jù)值(x1,x2,…,xn),其中每個都是一個 d維實向量聚類,k-均值算法旨在劃分K(≤n),S={S1,S2,…,Sk},用以減少聚類內(nèi)的平方和(即方差).可得:
其中ui是Si簇點的平均值.這相當(dāng)于在同一簇點中最小化誤差平方和:
因為總方差為常數(shù),這也相當(dāng)于在不同的聚類之間計算機(jī)最大誤差的平方積.
k-means算法聚類過程如圖2所示:
圖2 k-means算法聚類示意圖
(1)K初始值(以K=3為例)隨機(jī)生成的數(shù)據(jù)區(qū)域(分別用紅、綠、藍(lán)色表示)即初始聚類中心.
(2)k樣本集按最小距離來創(chuàng)建關(guān)聯(lián)的每一個最近聚類,可用Voronoi圖所產(chǎn)生的方法來表示.
(3)每個k聚類中樣本均值將成為新的均值,即為新的聚類中心.
(4)重復(fù)步驟(2)和(3),直到聚類中心達(dá)到收斂為止.
由于它是一個啟發(fā)式算法,不能保證它會收斂到全局最優(yōu),其結(jié)果可能會依賴于初始聚類.通過相關(guān)研究可知,初始聚類選不好,結(jié)果有可能不理想.因此,眾多學(xué)者對算法加以改進(jìn),比如k-means++算法,其初始化就將K個聚類中心間距離設(shè)置最大化,其新聚類中心點的選擇,一般選取距離最近聚類中心點較大的點作為新的聚類中心.一般k-means算法需要手工進(jìn)行初始值的配置,很多時候難以確定初始值的大小情況下,就選擇用k-means++算法來解決,進(jìn)行設(shè)置不同的聚類中心點,來達(dá)到滿意的效果.因此,k-means算法與k-means++算法是常用來進(jìn)行聚類研究的重要算法.
本文提出一種基于敏感部位顏色紋理特征和視覺詞袋(Bag of Visual Words,BOW)模型的敏感圖像識別方法,是將敏感圖像的敏感部位特征信息和詞袋模型結(jié)合起來,對圖像直接進(jìn)行規(guī)則網(wǎng)格劃分,采用手工標(biāo)記敏感圖像敏感部位,以提取彩色變柱寬多分辨率直方圖矩特征(Color Variable Binwidth Multiresolution Histogram Moments,CVB-MHM),形成敏感部位視覺詞匯表.然后利用聚類方法獲取視覺詞匯表組合,建立混合視覺詞匯表并使用視覺詞袋模型來表示,再運用SVM分類器對敏感圖像進(jìn)行識別.其優(yōu)點CVB-MHM特征能有效地表示圖像局部塊的顏色和紋理特征,并且計算迅速,特征維度小,能穩(wěn)定高效地識別敏感圖像信息.
人體敏感部位的識別對于敏感圖像識別有著關(guān)鍵作用,采用邊緣檢測[4]等方法進(jìn)行敏感圖像敏感部位提取已經(jīng)取得了一定的效果.考慮到使用特定算法進(jìn)行敏感部位提取會產(chǎn)生誤差,針對詞袋模型的特點,直接采用手工標(biāo)記人體敏感部位:在訓(xùn)練圖像中隨機(jī)抽取一定數(shù)量的敏感圖像進(jìn)行密集patch提取,根據(jù)圖像內(nèi)容,用矩形區(qū)域標(biāo)記敏感部位所包含的所有patch,并提取每個patch的顏色和紋理特征(采用2.2節(jié)提出的CVB-MHM特征).則該敏感部位的特征F為所有patch特征{fi}ni=1的加權(quán)平均值:
特征權(quán)值計算如下:
其中(x0,y0)為敏感區(qū)域中心坐標(biāo),(xi,yi)為對應(yīng)的patch中心坐標(biāo).對于固定邊長的矩形區(qū)域,其對應(yīng)的權(quán)值是確定的.敏感部位的特征提取如圖3所示:
圖3 敏感部位patch特征提取
詞袋模型已經(jīng)廣泛應(yīng)用到圖像檢索中,大部分詞袋模型的圖像檢索、識別方法都采用固定視覺詞匯表大小的聚類方法,本方法針對敏感圖像識別的特點,提出基于混合詞匯表的詞袋模型,并使用兩種提取詞匯表的方式:
一是提取敏感部位patch特征值,形成視覺詞匯表Ts.在訓(xùn)練圖庫中,隨機(jī)抽取若干幅敏感圖像,采用3.1節(jié)的方法確定每幅圖像的敏感部位patch特征.每一個敏感部位的patch特征對應(yīng)一個視覺詞匯,將所有隨機(jī)抽取的敏感圖像的敏感部位特征值組合成視覺詞匯表Ts.
二是采用聚類方法確定視覺詞匯表Tc.抽取一定數(shù)量的訓(xùn)練圖像組成驗證集合SVLD和視覺詞匯表提取集合SVW,在驗證集合SVLD上對視覺詞匯表大小V進(jìn)行最優(yōu)驗證,使用取得最佳識別效果的視覺詞匯表大小V為聚類算法的中心數(shù)目,提取SVW中的所有密集patch的特征,采用K-Means算法進(jìn)行V個類別的聚類,將計算出的V個中心作為視覺詞匯表Tc.
圖4 混合詞匯表的詞袋模型敏感圖像識別
將Ts和Tc組合成混合詞匯表TH=Ts∪Tc,用于最終的詞袋模型.基于混合詞匯表的詞袋模型敏感圖像識別如圖4所示.
對于CVB特征,下面可以通過實驗數(shù)據(jù)來驗證該算法改進(jìn)的有效性,在互聯(lián)網(wǎng)上,圖庫1隨機(jī)下載4000張正常圖像和2000張敏感圖像進(jìn)行特征值提取.圖庫2隨機(jī)價值2000張正常人像和抽取2800張Corel圖庫來增加圖像識別難度.如圖5所示,兩組圖庫,通過兩組實驗均提取100個敏感部位視覺詞匯組成Ts.
實驗一:通過互聯(lián)網(wǎng)隨機(jī)下載圖像進(jìn)行比對固定柱寬直方圖矩特征和變柱寬多分辨率直方圖矩特征在兩個圖庫上的識別效果,實驗采用的混合視覺詞匯表詞袋模型,Tc的視覺詞匯個數(shù)固定為200.實驗一特別較多的選擇人物圖像,主要比較CVB-MHM特征較MHM特征在敏感圖像識別上性能的提升能力.
實驗二:通過互聯(lián)網(wǎng)進(jìn)一步比對,針對實驗二的實驗數(shù)據(jù)較多地加入其他非人圖像來增加識別難度,判斷敏感圖像是否還能進(jìn)行有效地識別,從而分析其敏感部分圖像的識別能力.
圖5 圖庫1和圖庫2圖像示例
在兩組試驗中,均采用圖像的多分辨率分解級數(shù)為3,并使用兩種不同的CVB-MHM特征,第一種CVB-MHM特征的柱寬設(shè)置為={1,4,16},第二種CVB-MHM特征的柱寬設(shè)置為={2,8,32},采用的分類器為基于RBF核的SVM分類器.實驗時,在訓(xùn)練圖像中隨機(jī)抽取100幅敏感圖像和100幅正常圖像作為驗證集合.實驗結(jié)果的采用查準(zhǔn)率、查全率進(jìn)行比較分別如圖表1、圖表2所示.
圖表2 圖庫2比較
實驗一的結(jié)果如圖表1所示.采用了較多人物圖像來進(jìn)行敏感部位的識別,CVB-MHM特征的圖像識別結(jié)果要明顯好于固定柱寬的MHM特征,在圖庫1上,={2,8,32}的CVB-MHM特征可以達(dá)到94.25%的查全率,b→={1,4,16}的CVB-MHM特征也能達(dá)到87.15%的查全率,相比CMHM固定柱寬直方圖矩82.15%,有了較大提升.其查準(zhǔn)率b→={2,8,32}={1,4,16}分別為 94.82%和 97.92%,也高于 CMHM固定柱寬直方圖矩91.79%.
實驗二的結(jié)果如圖表2所示.加入較多其他圖像進(jìn)行識別,采用了CVB-MHM特征的圖像識別結(jié)果也明顯好于固定柱寬的MHM特征,結(jié)果也達(dá)到了較為滿意地實驗效果,在圖庫2上,b→={2,8,32}的CVB-MHM特征的查全率可以達(dá)到77.7%略高于也高于CMHM圖矩77.15%,={1,4,16}的CVB-MHM特征可以達(dá)到81.30%的查全率,相比CMHM,提高比較明顯.在查準(zhǔn)率方面={2,8,32}={1,4,16}分別為83.37%和82.04%,相比CMHM固定柱寬直方圖矩78.21%有了較大提升.
通過上述兩組實驗,大家不難發(fā)現(xiàn),基于CVB-MHM特征混合詞匯表詞袋模型的敏感圖像識別方法無論在查準(zhǔn)率和查全率上都有了不錯的改進(jìn).另外,由于CVB-MHM特征,不需要計算圖像的梯度,因此計算量比較小,更有利于敏感圖像的實時識別,因此,這種簡單而快速的識別方法,將能夠得到很好的應(yīng)用.
本項研究的敏感圖像敏感部位特征提取與彩色變柱寬多分辨率直方圖矩特征圖像識別方法,針對敏感圖像敏感部位的特殊構(gòu)造形態(tài),構(gòu)建彩色變柱寬多分辨率直方圖矩特征,進(jìn)行圖像的顏色及結(jié)構(gòu)信息的表示.通過對敏感部位patch特征提取,并采用混合詞匯表詞袋方法對敏感圖像建模,對于網(wǎng)絡(luò)中敏感圖像的識別效果優(yōu)于原始多分辨率直方圖矩.其中針對詞袋模型可不需要分割圖像、不需要復(fù)雜的數(shù)學(xué)統(tǒng)計算模型的特征,因此總體計算量小,應(yīng)用于圖像識別的效果好,利用上述方法還可用于相關(guān)計算機(jī)圖像分割和處理方面,如衛(wèi)星遙感圖像、電子地圖、人臉識別等方面,并且還可結(jié)合其他模型如空間金字塔匹配對圖像進(jìn)行建模,也是有效地可選用的方法,所以應(yīng)用前景廣闊,具有較大推廣價值.
〔1〕A N Ganar,C S Gode,S M Jambhulkar.Enhancement ofImage Retrievalby Using Colour,Texture and Shape Features[C]//International Conference on Electronic Systems,Signal Processing and Computing Technologies,2014:251-255.
〔2〕Liao L,Zhang Y,Maybank S J,et al.Image recognition via two-dimensional random projection and nearest constrained subspace[J].Journal of Visual Communication&Image Representation,2014,25(5):1187-1198.
〔3〕Chris Harris,Mike Stephens,A Combined Corner and Edge Detector,4th AlveyVision Conference,1988:147-151.
〔4〕吳翔,于微波,馬艷輝,劉克平.一種新的改進(jìn) Canny圖像邊緣檢測算法[J].影像科學(xué)與光化學(xué),2016,34(1):116-121.
TP391.4
A
1673-260X(2017)11-0011-03
2017-07-09
安徽省高校優(yōu)秀青年人才支持計劃重點項目(gxyqZD2016530);2016年安徽省高等學(xué)校省級質(zhì)量工程項目精品資源共享課程(2016gxk099);安徽省高等學(xué)校省級重點教學(xué)研究項目(2012jyxm695,2012jyxm697,2015jyxm528);2016年池州職業(yè)技術(shù)學(xué)院質(zhì)量工程項目(2016jyxm07)