孟莎莎 饒?zhí)m香
(江西省計(jì)算技術(shù)研究所 江西 南昌 330003)
?
基于多重特征信息的圖像顯著性檢測(cè)方法
孟莎莎饒?zhí)m香
(江西省計(jì)算技術(shù)研究所江西 南昌 330003)
針對(duì)海量視覺數(shù)據(jù)處理中的圖像顯著性檢測(cè)問題,提出一種基于多重特征信息的新型方法。該方法首先根據(jù)像素的CIE Lab顏色空間和空間位置信息選用k-means算法對(duì)圖像像素聚類,在初始化中心時(shí)根據(jù)蜂窩原理使用正六邊形進(jìn)行選種。然后用全局對(duì)比和局部對(duì)比方法分析選取的多重圖像特征,并計(jì)算得到八種特征圖。最后對(duì)八種特征圖融合得到初始顯著性圖,再用閾值法得到最終的顯著性圖。該方法通過改進(jìn)k-means算法實(shí)現(xiàn)良好的圖像聚類以進(jìn)一步分析、處理圖像特征,并依據(jù)對(duì)比度、關(guān)鍵區(qū)域聚焦等重要原理將圖像底層特征和中層特征合理融合,兼顧全局對(duì)比和局部對(duì)比,處理問題全面而高效。實(shí)驗(yàn)結(jié)果表明,從主觀和客觀兩方面進(jìn)行整體評(píng)估,該方法都達(dá)到了優(yōu)越的性能。
顯著性檢測(cè)k-means全局對(duì)比局部對(duì)比特征圖顯著性圖
隨著信息技術(shù)的發(fā)展以及數(shù)字設(shè)備的普及,圖像和視頻等視覺信息作為主要信息載體,其數(shù)據(jù)規(guī)模呈現(xiàn)幾何級(jí)增長,使得數(shù)據(jù)的存儲(chǔ)、傳輸、分析、應(yīng)用遇到巨大困難。因此,如何減少錯(cuò)誤或者冗余數(shù)據(jù),實(shí)現(xiàn)低數(shù)據(jù)處理量和高分析準(zhǔn)確性成為海量視覺信息處理中的重要問題。對(duì)于圖像而言,以視覺注意機(jī)制為代表的顯著性檢測(cè)技術(shù)[1]成為提高圖像分析處理的效率和精度、降低計(jì)算復(fù)雜度的重要途徑。作為大規(guī)模數(shù)據(jù)選取、分析和處理的重要途徑,圖像顯著性檢測(cè)技術(shù)有著廣泛的應(yīng)用,例如圖像分割[2,3]、圖像自動(dòng)裁剪與適配顯示[4,5]、目標(biāo)檢測(cè)[1]、物體識(shí)別[6]、圖像檢索[7]、圖像與視頻壓縮[8]等。
顯著性圖獲取的基本步驟為:特征提取、特征顯著性計(jì)算和特征顯著性圖合成。文獻(xiàn)[1]提出了被廣泛應(yīng)用的圖像顯著性計(jì)算的基本模型,成為許多圖像顯著性檢測(cè)研究的基礎(chǔ)。另外還存在一些其他模型。基于視覺關(guān)注機(jī)制的圖像顯著性檢測(cè)方法有兩類,分別是自下向上和自上向下的方法[9]。前一種方法是純數(shù)據(jù)驅(qū)動(dòng)和獨(dú)立于任務(wù)的,是對(duì)圖像顯著性自動(dòng)區(qū)域檢測(cè)的感知處理。后一種方法是先驗(yàn)知識(shí)引發(fā)的認(rèn)知處理,例如要執(zhí)行的任務(wù)、目標(biāo)對(duì)象的特征分布、可視場景的上下文等[10]。自下而上的基于底層特征的顯著性檢測(cè)方法一般基于Koch和Ullman提出的框架[11],在這類工作中,需要處理諸如顏色、位置、邊緣以及運(yùn)動(dòng)等底層特征,Itti等[1]的研究是該模型的一個(gè)典型應(yīng)用。另外還有一些代表性的研究,如文獻(xiàn)[12]。這些方法主要關(guān)注了局部特征,沒有全局性地尋找視覺關(guān)注區(qū)域[13]。Jiao等[14]的研究考慮了全局特征,并以簡單的方式使用了多尺度特征提取,但該計(jì)算模型獲得的顯著性區(qū)域缺少明顯邊緣,且容易忽略掉較小的顯著性區(qū)域?;谟?jì)算域的不同,圖像顯著性檢測(cè)算法還可以分為空域法[1]和頻域法[15,16]兩類??沼蚍ㄒ话愦嬖趨?shù)選擇敏感、計(jì)算復(fù)雜度高的問題。為了增強(qiáng)實(shí)時(shí)性的頻率法應(yīng)運(yùn)而生,如文獻(xiàn)[16]采用一幅圖像Fourier變換后的幅度和相位譜來決定顯著性。這類方法只關(guān)注Fourier變換域內(nèi)的某些頻率,結(jié)果中得到的顯著性圖更好地保護(hù)了圖像的高級(jí)結(jié)構(gòu),而不是整個(gè)區(qū)域[1]。由于分塊與多尺度顯著性圖的分辨率不同,會(huì)出現(xiàn)不期望的模糊[17]。
到目前為止,由于制約因素過于復(fù)雜,所以自上向下類的方法的研究不是很多。雖然圖像的顯著性檢測(cè)得到了廣泛研究,但其應(yīng)用還不能令人滿意,主要體現(xiàn)在顯著性圖自身質(zhì)量不佳、計(jì)算復(fù)雜度高、應(yīng)用方式不成熟等,因此需要設(shè)計(jì)更好的方法。本文的主要工作是通過圖像的像素點(diǎn)聚類之后,結(jié)合顯著性先驗(yàn)理論,通過分析類之間和類內(nèi)部的顏色特征、空間距離特征和圖像紋理特征的對(duì)比度和差異性得到不同的特征圖,再通過特征圖融合獲得最終的顯著圖。
本文首先是設(shè)計(jì)一種新的聚類方法,為顯著性檢測(cè)方法的設(shè)計(jì)提供良好的前提條件;第二是利用算法充分分析圖像的多重特征并做適當(dāng)處理,使其應(yīng)用具有強(qiáng)魯棒性;第三是體現(xiàn)了自上向下和自下向上兩種方法的融合。
本文算法首先對(duì)圖像的像素聚類;然后分別根據(jù)不同特征信息以一定的方式計(jì)算色差之和SCD特征圖、局部差之和SLD特征圖、顏色方差CV特征圖、區(qū)域大小RS特征圖、每個(gè)像素到圖像中心位置距離的均值MDI特征圖、 每個(gè)像素到其所屬類的中心位置的距離均值MDC特征圖、每個(gè)像素到其所屬類的中心位置的距離方差VDC特征圖、中頻能量EMF特征圖;最后將8種特征圖融合并得出最終顯著圖。聚類及特征圖等都是依據(jù)一定的原理并基于多重特征計(jì)算得出的。
1.1算法主要依據(jù)的原理
(1) 對(duì)比度原理:對(duì)比度是引起視覺關(guān)注的最大因素[19],使用方式可以分為局部對(duì)比和全局對(duì)比。從效果和計(jì)算量角度出發(fā),對(duì)比度的使用是算法的關(guān)鍵。
(2) Gestalt原理[18]:圖中一般關(guān)注的區(qū)域由一個(gè)或者幾個(gè)中心組成,而其他區(qū)域關(guān)注度較小。通常人眼捕獲到一個(gè)物體或者一個(gè)區(qū)域,并對(duì)這個(gè)區(qū)域進(jìn)行搜索。這樣的搜索結(jié)果是場景中顯著性最高的目標(biāo)區(qū)域。
(3) 高頻抑制原理:視覺系統(tǒng)對(duì)于頻繁出現(xiàn)事件不敏感,而最先發(fā)現(xiàn)小范圍的不尋常部分。使用頻域信息時(shí)可以濾掉無用的高頻,重點(diǎn)計(jì)算圖像中的中低頻信息。
(4) 關(guān)鍵區(qū)域聚焦原理:當(dāng)存在多個(gè)顯著區(qū)域時(shí),某一區(qū)域的某一對(duì)象最容易被關(guān)注。此對(duì)象叫做關(guān)鍵對(duì)象,其所在區(qū)域叫做關(guān)鍵區(qū)域,包含圖像中的重要信息。
(5) 中心圓周原理:此原理可以檢測(cè)出中心區(qū)域和局部周圍區(qū)域中相對(duì)比較突出的位置和信息[20],能夠很好地應(yīng)用到視覺顯著性檢測(cè)中。
1.2圖像特征選取
顏色、空間距離等是圖像的底層特征,自下向上的方法主要是基于這些特征。邊界信息、頻域信息和顯著性先驗(yàn)知識(shí)等則屬于中層特征,中層特征結(jié)合底層特征預(yù)測(cè)顯著目標(biāo)的可能位置能夠提高顯著性檢測(cè)模型的魯棒性。本文基于多重特征的顯著性檢測(cè)方法主要是依據(jù)圖像的底層特征并結(jié)合頻域信息以及被驗(yàn)證的顯著性理論建立顯著性計(jì)算模型。其中,關(guān)于頻域信息的使用,有以下幾點(diǎn):
(1) 考慮原圖的低頻信號(hào)以點(diǎn)亮整個(gè)顯著性區(qū)域;
(2) 低頻信號(hào)使用要有助于得到一致性的顯著圖;
(3) 為了獲取很好的邊界,需要考慮高頻信號(hào);
(4) 由于高頻信號(hào)往往會(huì)帶來圖像的紋理、噪聲和塊效應(yīng),所以超高頻信息需要被忽略。
2.1圖像聚類
聚類選用k-means方法,但與傳統(tǒng)的隨機(jī)選取種子的方式不同,本文使用正六邊形排列的方式,最大程度上克服結(jié)果的不確定性以此實(shí)現(xiàn)強(qiáng)魯棒性。另外,種子數(shù)量太少會(huì)使得圖像聚類效果出現(xiàn)很大誤差,太多則計(jì)算量激增且效果沒有顯著提高,此處種子數(shù)選為20。
本文將同時(shí)使用顏色和空間距離特征做顯著性聚類,一個(gè)像素點(diǎn)的值是一個(gè){l,a,b,x,y}向量。其中l(wèi)、a、b表示CIE Lab顏色空間中的三個(gè)分量,x、y表示的是像素點(diǎn)的坐標(biāo)。圖像的左上角為坐標(biāo)原點(diǎn),對(duì)每個(gè)像素點(diǎn)求得種子的距離是:
(1)
其中pi表示第i個(gè)像素點(diǎn),δ是一個(gè)可以自由設(shè)定取值的距離因子,其大小和圖像的橫坐標(biāo)像素點(diǎn)的個(gè)數(shù)n有關(guān)。由式(1)可以看出,δ的值越大,空間距離在聚類中作用越大,像素更容易被匹配到相近的類中,而不是被劃分到顏色更相近的類中,本文的取值是10/n。聚類之后將得到向量{c1,c2,…,ck},其中k表示類數(shù)。 圖1(b)展示的是2個(gè)例圖的聚類結(jié)果。
圖1 聚類示例
2.2計(jì)算特征圖
根據(jù)選取的圖像特征計(jì)算所有特征圖,并以上面兩個(gè)例圖展示各個(gè)特征圖的效果。
(1) SCD特征圖
根據(jù)顏色全局對(duì)比計(jì)算每一個(gè)類的顯著值:
(2)
其中ci為聚類后的顏色特征向量,最后將該值賦給聚類之后的編號(hào)相同的像素點(diǎn)得到SCD特征圖。
(2) SLD特征圖
根據(jù)空間距離全局對(duì)比,計(jì)算每個(gè)聚類的中心坐標(biāo)與其他聚類的距離總和:
(3)
其中p代表了每一個(gè)聚類之后的中心坐標(biāo)。
(3) RS特征圖
RS表征圖像中某類在整個(gè)圖像中所占的比例?;诰垲惤Y(jié)果,使用局部對(duì)比方法根據(jù)顏色均值的差異進(jìn)行優(yōu)化處理,如果差值較小便認(rèn)為是連通的,使背景區(qū)域有效融合。最后對(duì)像素點(diǎn)個(gè)數(shù)所占比例歸一化處理。
(4) CV特征圖
使用全局方法計(jì)算顏色方差得到CV特征圖:
(4)
其中CVk表示類k的方差值,Ci是原圖像素的顏色分量。CMk是類k的顏色歐式距離的均值:
(5)
(5) MDI特征圖
利用空間信息計(jì)算一個(gè)類中所有像素到圖像中心位置距離的均值:
(6)
其中Ic是圖像的中心點(diǎn)位置,pi是某類中像素的坐標(biāo)。
(6) MDC特征圖
同樣利用空間信息,MDC的計(jì)算如下:
(7)
其中pi是像素點(diǎn)i的坐標(biāo),pk是類k的中心坐標(biāo)。
(7) VDC特征圖
利用MDC的結(jié)果,計(jì)算VDC特征圖:
(8)
(8) EMF特征圖
圖像中的大部分高頻信號(hào)是背景信號(hào),高頻信息一般都不是目標(biāo)顯著區(qū)域,所以忽略高頻信息和低頻信息。計(jì)算中頻信息,得到EMF特征圖:
(9)
圖2表示的是兩個(gè)例圖相應(yīng)的8種特征圖。
圖2 兩個(gè)例圖的8種特征圖
2.3計(jì)算顯著性圖
將所有特征值歸一化到[0, 1]區(qū)間,最后通過將8個(gè)特征值疊加得到初始顯著圖:
(10)
圖3 顯著性圖示例
選用具有代表性的Achanta提供的1000幅圖像庫來檢驗(yàn)本文的方法。從主觀和客觀兩方面對(duì)于算法性能進(jìn)行評(píng)估。主觀上指用戶的視覺體驗(yàn)效果,一般采用可視化對(duì)比的方式。而客觀標(biāo)準(zhǔn)則采用一定指標(biāo)衡量。
3.1主觀評(píng)估
選用IT[1]、MZ[21]、RC[19]、HS[22]、SF[17]和MR[23]方法對(duì)比。IT方法提出較早,是許多顯著性檢測(cè)方法研究的基礎(chǔ),該方法基于特征集成理論和Center-surround原理設(shè)計(jì), 將在多種圖特征和多種尺度下得到的顯著性度量結(jié)果合成一幅顯著性圖。MZ方法使用模糊生長,使用了顯著點(diǎn)、顯著區(qū)域和顯著視圖三種層次描述顯著性,基于局部或全局對(duì)比度的方法得到每個(gè)像素的顯著性,從而得到顯著性圖。RC方法基于分割,首先將圖像快速分成小塊,然后以塊為單元計(jì)算全局對(duì)比度,在計(jì)算顯著性性時(shí)同時(shí)考慮顏色對(duì)比度、空間距離和塊的大小。HS方法基于貝葉斯框架,利用顏色特征,通過超像素和顯著性先驗(yàn)理論計(jì)算圖像的中級(jí)特征以得到顯著性。SF方法提出了顯著性濾波,首先簡化圖像分布使同質(zhì)區(qū)域成為獨(dú)立區(qū)域,然后計(jì)算這些區(qū)域在全局中所占比例和空間分布,最后建立模型綜合區(qū)域的比例信息和空間分布信息來得到全局的顯著性表示。MR方法提出流行排序,專注于將背景與顯著對(duì)象分割開,然后通過圖多位排序計(jì)算超像素與背景、前景的相似性,最后基于這些相似性得到超像素的顯著性。圖4表明:本文算法能點(diǎn)亮整個(gè)目標(biāo)區(qū)域而且很好地保留區(qū)域的邊界;IT方法不是全分辨率的,且只能點(diǎn)亮一些點(diǎn);MZ方法只能得到目標(biāo)的邊緣,不能夠點(diǎn)亮整體目標(biāo)區(qū)域;RC和SF方法能夠得到完整的目標(biāo)區(qū)域,但出現(xiàn)了塊效應(yīng);MR方法將圖像表示成閉環(huán)圖,超像素作為節(jié)點(diǎn),雖然該方法與本文方法接近且比較符合基準(zhǔn)要求,但在顯著性區(qū)域內(nèi)部出現(xiàn)了部分區(qū)域間的較大區(qū)分度。通過對(duì)比,可以看出本文方法效果最好。
圖4 本文方法與典型方法的主觀可視化對(duì)比
3.2客觀評(píng)估
客觀標(biāo)準(zhǔn)采用PR曲線和F-measure進(jìn)行評(píng)估。以圖像庫的圖像均值為參數(shù),精度P(Precision)為縱軸,召回率R(Recall)為橫軸繪制PR曲線。F-measure是關(guān)于精度和召回率的一個(gè)調(diào)和平均數(shù),通過一個(gè)實(shí)數(shù)參數(shù)α指定精度和召回率的相對(duì)重要性。
圖5為PR曲線,由于MZ方法主觀效果不佳,所以在此忽略??梢钥闯?,IT、RC及SF方法明顯比本文所提方法差。在召回率小于0.6時(shí)本文方法的精度高于所有方法,在0.6~0.8之間時(shí)本文方法只略低于MR,當(dāng)精度大于0.8時(shí)RC、SF、MR、HS和本文算法都趨向一致。因此,本文方法達(dá)到預(yù)期的效果,能夠得到較好的PR曲線。由于本文方法中多特征疊加使得一些目標(biāo)像素點(diǎn)被隱藏,使其在高召回率的情況下精度比MR模型的精度低。
圖5 PR曲線
F-measure可以公式化為:
(11)
在實(shí)驗(yàn)中取α=0.3,圖6表示的是F-measure曲線圖。
圖6 F-measure圖
由于MZ在主觀評(píng)價(jià)中效果不佳,所以在此也被忽略。圖6表明,本文方法的閾值是128,所以閾值范圍在110到150之間,該值和MR和HS值都接近0.9,表明具有很好的實(shí)驗(yàn)結(jié)果。
在主觀評(píng)估方面,本文方法效果最好;在客觀評(píng)估方面,本文方法與MR方法相當(dāng),優(yōu)于其他方法。綜合主觀、客觀整體評(píng)價(jià),本文方法達(dá)到了預(yù)期效果。
本文依據(jù)對(duì)比度、關(guān)鍵區(qū)域聚焦等原理,選取多重底層和中層圖像特征信息,經(jīng)過分析處理設(shè)計(jì)出一種新型圖像顯著性檢測(cè)方法。首先對(duì)圖像根據(jù)顏色空間和位置空間信息改進(jìn),用k-means算法實(shí)現(xiàn)良好的聚類,在初始化中心時(shí)根據(jù)蜂窩原理使用正六邊形的選種方法。然后在聚類的結(jié)果基礎(chǔ)上,利用局部對(duì)比或全局對(duì)比方法對(duì)圖像特征計(jì)算得到八個(gè)特征圖,這些特征圖之間相互關(guān)聯(lián)、相互制約,是計(jì)算顯著性的重要因素。最后通過所有特征圖的有效融合并閾值化處理得到最終的顯著圖。本文方法能夠很好地利用到聚類之后類內(nèi)部像素點(diǎn)之間的關(guān)系,通過類之間的像素點(diǎn)的對(duì)比關(guān)系能夠分離得到圖像的前景和背景區(qū)域,考慮到類內(nèi)部的顏色距離之后能夠得到更加準(zhǔn)確的前景區(qū)域并將背景分離出來。在典型的圖像數(shù)據(jù)集上選用具有代表性的已有方法對(duì)新型方法進(jìn)行驗(yàn)證對(duì)比,實(shí)驗(yàn)結(jié)果表明,在主觀和客觀評(píng)估兩方面所提方法都達(dá)到了預(yù)期效果,整體性能優(yōu)越。將來的研究工作將集中在保證性能的前提下降低計(jì)算的復(fù)雜度,進(jìn)一步提升魯棒性,并將之引入到聯(lián)合顯著性(Co-saliency)的研究領(lǐng)域。
[1] Itti L,Koch C,Niebur E.A model of saliency-based visual attention for rapid scene analysis[J].IEEE Transactions on pattern analysis and machine intelligence,1998,20(11):1254-1259.
[2] Ko B C,Nam J Y.Object-of-interest image segmentation based on human attention and semantic region clustering[J].Journal of the Optical Society of America A,2006,23(10):2462-2470.
[3] Zhu Junyan,Wu Jiajun,Wei Yichen,et al.Unsupervised object class discovery via saliency-guided multiple class learning[C]//IEEE Conference on Computer Vision And Pattern Recognition,2012:3218-3225.
[4] Hua Shungang,Chen Guopeng,Shi Shusheng.Image resizing algorithm based on similarity criterion[J].Computer Engineering,2012,38(5):191-193.
[5] Kim W,Kim C.A novel importance model for content-aware image resizing[C]//Proceedings of the 18th IEEE International Conference on Image. Brussels,Belginum:IEEE,2011:2469-2472.
[6] Rutishauser U,Walther D,Koch C,et al.Is bottom-up attention useful for object recognition?[C]//IEEE Computer Society Conference on Computer Vision And Pattern Recognition,2004:37-44.
[7] Chen T,Cheng M,Tan P,et al.Sketch2Photo:internet image montage[J].ACM Transactions on Graphics (TOG),2009,28(5):124.
[8] Christopoulos C,Skodras A,Ebrahimi T.The JPEG2000 still image coding system:an overview[J].IEEE Transactions on Consumer Electronics,2000,46(4):1103-1127.
[9] Itti L.Models of bottom-up and top-down visual attention[D].Pasadena:California Institute of Technology,2000.
[10] Fang Y,Lin W,Lee B,et al.Bottom-up saliency detection model based on human visual sensitivity and amplitude spectrum[J].IEEE Transactions on Multimedia,2012,14(1):187-198.
[11] Koch C,Ullman S.Shifts in selective visual attention: towards the underlying neural circuitry[C]//Matters of Intelligence.Springer,1987:115-141.
[12] Harel J,Koch C,Perona P.Graph-based visual saliency[C]//Advances in Neural Information Processing Systems,2006:545-552.
[13] Goferman S,ZelnikManor L,Tal A.Context-aware saliency detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(10):1915-1926.
[14] Jiao W,Peng Q M,Lv W X,et al.Multiscale detection of salient regions[C]//Prodeedings of the 4th IEEE conference on Industrial Electronics and Application Xi’an,China:IEEE,2009:2408-2411.
[15] Hou X,Zhang L.Saliency detection:A spectral residual approach[C]//IEEE Conference on Computer Vision And Pattern Recognition,2007:1-8.
[16] Guo C,Ma Q,Zhang L.Spatio-temporal saliency detection using phase spectrum of quaternion fourier transform[C]//IEEE Conference on Computer Vision And Pattern Recognition,2008:1-8.
[17] Perazzi F,Kr?henbühl P,Pritch Y,et al.Saliency filters:Contrast based filtering for salient region detection[C]//IEEE Conference on Computer Vision And Pattern Recognition,2012:733-740.
[18] Hartmann G W.Gestalt psychology:A survey of facts and principles[C]//Montana: Kessinger Publishing,2006:45-72.[19] Cheng M,Zhang G,Mitra N J,et al.Global contrast based salient region detection[C]//IEEE Conference on Computer Vision And Pattern Recognition,2011:409-416.
[20] Klein D A,Frintrop S.Center-surround divergence of feature statistics for salient object detection[C]//IEEE International Conference on Computer Vision,2011:2214-2219.
[21] Ma Y F,Zhang H J.Contrast-based image attention analysis by using fuzzy growing[C]//Proceedings of the eleventh ACM international conference on Multimedia,2003:374-381.
[22] Xie Y,Lu H,Yang M.Bayesian Saliency via Low and Mid Level Cues[J].IEEE Transactions on Image Processing,2013,22(5):1689-1698.
[23] Yang C,Zhang L,Lu H.Saliency detection via graph-based manifold ranking[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2013:3166-3173.
IMAGE SALIENCY DETECTION METHOD BASED ON MULTIPLE-FEATURE INFORMATION
Meng ShashaRao Lanxiang
(Jiangxi Institute of Computer Technology,Nanchang 330003,Jiangxi,China)
For the image saliency detection in mass visual data processing, we propose a novel multiple-feature information-based method. First, on the basis of CIE Lab colour space and spatial position information of pixels, the method selects k-means algorithm to cluster image pixels. In initialising the centre it employs the regular hexagon for seed selection according to honeycomb conjecture. Then it analyses the selected multiple image features with global contrast and local contrast methods, and derives eight feature maps through computation. At last, it integrates these eight feature maps to obtain the initial saliency map, and then gets the final saliency map using threshold method. By improving k-means algorithm the proposed method realises excellent image clustering results to further analyse and process multiple image features. Taking into account the global and local contrasts, the proposed method reasonably integrates the low-level and middle-level features of image according to some vital principles, e.g., the contrast and the key regional focus, etc., and deals with the problems comprehensively and efficiently. Experimental results show that the proposed method achieves superior performances according to the overall assessments from both the subjective and objective aspects.
Saliency detectionk-meansGlobal contrastLocal contrastFeature mapSaliency map
2015-02-15。國家“十二五”科技支撐計(jì)劃項(xiàng)目(2014 BAD10B05)。孟莎莎,工程師,主研領(lǐng)域:智能控制,圖像處理。饒?zhí)m香,高工。
TP3
A
10.3969/j.issn.1000-386x.2016.09.045