李 莉,薛雅麗,楊 欣
(南京航空航天大學(xué) 自動(dòng)化學(xué)院, 江蘇 南京 210016)
紅外弱小目標(biāo)檢測(cè)與跟蹤是空間監(jiān)視、早期預(yù)警、紅外精確跟蹤制導(dǎo)等領(lǐng)域涉及的一項(xiàng)關(guān)鍵技術(shù).現(xiàn)有的紅外檢測(cè)跟蹤算法有很多,一個(gè)好的紅外檢測(cè)跟蹤算法或系統(tǒng),需要有較高的正向檢測(cè)率和較低的虛警率,以及較小的計(jì)算復(fù)雜度以實(shí)現(xiàn)信息的實(shí)時(shí)處理[1].
視覺注意機(jī)制是人類的一項(xiàng)重要的心理調(diào)節(jié)機(jī)制[2].在分析復(fù)雜圖像時(shí),視覺的信息處理方式是串行的,即采用了選擇性注意機(jī)制.選擇性表現(xiàn)為舍棄不突出的信息,從而更高效地處理重要信息.也就是說人們?cè)谟^察一個(gè)場(chǎng)景時(shí),總是有選擇性地將注意力轉(zhuǎn)移到場(chǎng)景中最具吸引力的內(nèi)容上,并鎖定該區(qū)域,然后通過快速的眼動(dòng)掃描,將該區(qū)域轉(zhuǎn)移到更高分辨率的視網(wǎng)膜中央,進(jìn)行更細(xì)致的分析.由此可見,選擇性注意機(jī)制在人類視覺完成復(fù)雜信息的處理任務(wù)時(shí)發(fā)揮著關(guān)鍵性的作用.近年來,國(guó)內(nèi)外很多學(xué)者試圖采用計(jì)算模型來描述視覺注意機(jī)制,并希望通過以此來解決計(jì)算機(jī)視覺中的一些問題,如自動(dòng)目標(biāo)識(shí)別中的目標(biāo)檢測(cè).
本文將視覺注意機(jī)制用于紅外弱小目標(biāo)的檢測(cè).檢測(cè)過程分為2個(gè)階段,第1階段為快速的bottom-up模式處理階段,輸入圖像按照?qǐng)D像內(nèi)容分割成若干個(gè)子區(qū)域,通過分析目標(biāo)的顯著性特點(diǎn),計(jì)算圖像中初始視覺特征,從而快速提取各個(gè)子區(qū)域中最具顯著性的潛在目標(biāo)點(diǎn).在接下來的第2階段進(jìn)行與任務(wù)相關(guān)的、更為細(xì)致的top-down模式目標(biāo)識(shí)別過程,采用改進(jìn)的雙滑窗算法進(jìn)一步確認(rèn)真實(shí)目標(biāo),剔除假目標(biāo),從而實(shí)現(xiàn)小目標(biāo)檢測(cè).
選擇性注意機(jī)制的第1階段為bottom-up預(yù)注意模式處理,即通過掃描輸入圖像,在若干空間尺度上提取出相應(yīng)的圖像特征(顏色、灰度、方位),不同特征顯著性描述的線性組合則為顯著性圖.顯著性圖決定和引導(dǎo)注意的焦點(diǎn)區(qū)域[3].在紅外目標(biāo)識(shí)別系統(tǒng)中,考慮到系統(tǒng)成本、運(yùn)算速度等實(shí)際因素,通常使用僅提供灰度信息的單一傳感器,不考慮多傳感器的情形,因此文中僅考慮灰度特征,通過對(duì)圖像中對(duì)象的灰度顯著性分析,快速地搜索整個(gè)輸入圖像以得到感興趣的候選目標(biāo)點(diǎn)集合.這個(gè)集合中既包含了要檢測(cè)的目標(biāo),同時(shí)也包含了一些偽目標(biāo)點(diǎn),且這個(gè)集合是輸入圖像的子集,它的數(shù)據(jù)量比原始數(shù)據(jù)量要小得多.
就目標(biāo)檢測(cè)而言,紅外弱小目標(biāo)的灰度值較周圍高,目標(biāo)表現(xiàn)為孤立的亮斑,即目標(biāo)區(qū)域與背景區(qū)域存在灰度差,但是由于紅外目標(biāo)本身較小,加上背景噪聲的影響,使得這個(gè)差值較小而難以檢測(cè),因此我們把目標(biāo)放在某一個(gè)恰當(dāng)小的局部區(qū)域內(nèi),在該區(qū)域內(nèi),目標(biāo)具有灰度顯著性,抽取區(qū)域內(nèi)灰度值最大的1個(gè)或幾個(gè)點(diǎn)作為候選目標(biāo)點(diǎn).
因此預(yù)注意模式階段處理過程可以按圖1進(jìn)行.
基于以上分析,考慮到目標(biāo)灰度值在局部區(qū)域內(nèi)具有顯著性,首先將輸入圖像分割成不同區(qū)域,求取所有區(qū)域內(nèi)灰度值最大的一個(gè)或幾個(gè)點(diǎn)來獲得候選目標(biāo)集合.進(jìn)行區(qū)域分割時(shí),姚訊、李德華等[4]采取等分的方式對(duì)輸入圖像進(jìn)行分割,區(qū)域的大小與形狀都是一致的,實(shí)際上,分割得到的區(qū)域大小和形狀應(yīng)該與該區(qū)域?qū)ο蟮姆植枷噙m應(yīng),對(duì)于灰度值變化平緩的區(qū)域,可將區(qū)域分割得大一些,而對(duì)于含有較多高頻信號(hào)和變化復(fù)雜的區(qū)域,分割應(yīng)該更為細(xì)致一些.因此為了提高算法的效率和效果,本文創(chuàng)新性地采用非均勻區(qū)域分割方法,使得分割后的區(qū)域大小與形狀與該區(qū)域?qū)ο蟮姆植稼呌谝恢?,從而更加符合?shí)際情況.
常用的區(qū)域分割方法有2種基本形式:區(qū)域生長(zhǎng)和分裂合并.區(qū)域生長(zhǎng)需要人工交互以獲得種子點(diǎn),種子點(diǎn)的選擇往往需要一定的先驗(yàn)知識(shí)[5].分裂與合并方法[6]雖然對(duì)分割復(fù)雜圖像來說效果很好,但該方法的算法較復(fù)雜,不滿足實(shí)時(shí)性的要求.因此本文中采用區(qū)域合并的方法來進(jìn)行區(qū)域分割,即首先用某種方法把圖像分割成許多小區(qū)域,再按照所定義的某些準(zhǔn)則合并相鄰區(qū)域,直到再無可合并的區(qū)域塊為止.具體操作如下:
1) 將輸入圖像按水平和垂直方向分割成大小相等的區(qū)域.輸入圖像以Ω表示,將其長(zhǎng)等分為n格,寬等分為m格,可得m×n個(gè)互不相交的區(qū)域Ωi,j,其中i=1,2,…,m;j=1,2,…,m;
2) 根據(jù)灰度統(tǒng)計(jì)特性對(duì)區(qū)域進(jìn)行描述,如果相鄰區(qū)域的屬性值相似,例如灰度均值相似,則將該2個(gè)子區(qū)域進(jìn)行合并;
3) 如果某區(qū)域不能與它周圍的所有區(qū)域合并,則被標(biāo)記為終結(jié),當(dāng)所有區(qū)域終結(jié)時(shí),合并過程結(jié)束.
如用U(i,j)表示區(qū)域Ωi,j的灰度均值,選取閾值U,若|U(i,j)-U(i,j+1)|
圖2為2幅包含弱小目標(biāo)的紅外圖像Img1、Img2及采用上述方法得到區(qū)域分割圖.其中圖像Img1的分辨率為160×160像素,將圖像等分為5×5小塊,取閾值U為0.03進(jìn)行區(qū)域合并;圖像Img2的分辨率為28×128像素,將圖像等分為3×3小塊,取閾值U為0.05進(jìn)行區(qū)域合并.
對(duì)于進(jìn)行圖像分割時(shí)已經(jīng)標(biāo)記為終結(jié)的區(qū)域,可以進(jìn)行該區(qū)域內(nèi)顯著點(diǎn)的提取.從圖2中可以看出,由于分割采用的是非均勻分割方法,使得每個(gè)區(qū)域的大小和形狀都各不相同,要對(duì)區(qū)域分割得到的每個(gè)區(qū)域進(jìn)行顯著點(diǎn)提取必須先進(jìn)行區(qū)域定位.我們可以通過區(qū)域的2個(gè)顯著特點(diǎn)來進(jìn)行區(qū)域定位:
1) 在區(qū)域分割好的圖像上,屬于同一區(qū)域的子塊具有相同的灰度均值;
2) 同一區(qū)域內(nèi)子塊與子塊之間形成一個(gè)連通域.
因此,具體進(jìn)行區(qū)域定位的方法如下:
1) 對(duì)U(i,j)(i=1,2,…,m;j=1,2,…,m)按從大到小進(jìn)行排序,均值不同的子塊必然屬于不同的區(qū)域.
2) 對(duì)于均值相同的子塊,按照連通性的原則,判斷所有子塊是否屬于同一區(qū)域.
實(shí)現(xiàn)區(qū)域定位后,由于目標(biāo)灰度值在區(qū)域內(nèi)具有一定的顯著性,即目標(biāo)灰度值應(yīng)該是區(qū)域內(nèi)灰度值最大的1個(gè)或幾個(gè),且目標(biāo)灰度值應(yīng)該大于區(qū)域灰度均值.因此對(duì)區(qū)域內(nèi)大于區(qū)域均值的所有像素點(diǎn)按灰度值大小排序,得到一個(gè)順序統(tǒng)計(jì)量,取這個(gè)順序統(tǒng)計(jì)量的最大的若干個(gè),可得到每個(gè)區(qū)域內(nèi)的顯著點(diǎn).對(duì)于包含r個(gè)像素值的區(qū)域Ωi,j,ξi,j(k)表示Ωi,j中灰度值大于灰度均值U(i,j)的像素點(diǎn),其中k=1,2,…,r.對(duì)這k個(gè)像素點(diǎn)進(jìn)行從小到大的排序得到順序統(tǒng)計(jì)量ξi,j(k),即有:ξi,j(1)≤ξi,j(2)≤…≤ξi,j(k).從ξi,j(k)中抽取最大的s個(gè)即可得到區(qū)域Ωi,j中的顯著點(diǎn)的灰度值集合Zi,j={ξi,j(2)|m=k,k-1,…,k-s-1}.
圖3為圖像Img1、Img2進(jìn)行顯著點(diǎn)提取(s=3)后得到的顯著點(diǎn)分布圖.從圖中可以看出通過bottom-up階段處理后的圖像中候選目標(biāo)數(shù)比原始數(shù)據(jù)量小得多,這樣可以有效地減少算法運(yùn)行的時(shí)間,從而提高了算法的執(zhí)行效率.
這一階段根據(jù)具體的任務(wù),調(diào)整選擇準(zhǔn)則,對(duì)已經(jīng)提取的候選對(duì)象進(jìn)行再次識(shí)別,再次識(shí)別成功的對(duì)象則被認(rèn)為是目標(biāo)對(duì)象.一般來說,檢測(cè)的任務(wù)是判斷目標(biāo)是否出現(xiàn)在某個(gè)區(qū)域內(nèi).在此階段,一些已有的空域算法和數(shù)學(xué)形態(tài)學(xué)的方法[7]可稍作修改應(yīng)用于此.考慮到傳統(tǒng)雙滑窗算法[8]簡(jiǎn)單,易于實(shí)現(xiàn),因此本文將傳統(tǒng)雙滑窗算法的思想應(yīng)用于top-down處理階段,并在傳統(tǒng)算法的基礎(chǔ)上稍作改動(dòng),使其對(duì)于復(fù)雜背景中的紅外小目標(biāo)也能具有較好的檢測(cè)效果.在每一個(gè)候選目標(biāo)點(diǎn)位置擴(kuò)展2個(gè)大小窗口,如圖4所示,圖中小窗口可看做包含目標(biāo)的區(qū)域,用表示該區(qū)域中所有的像素點(diǎn)的集合,Θmax表示該區(qū)域中像素的灰度最大值,Θm表示該區(qū)域所有像素的灰度均值.
大窗口區(qū)域用P表示,P中所有像素的灰度均值用Pm表示.假設(shè)當(dāng)前候選目標(biāo)點(diǎn)為真實(shí)目標(biāo),Θ為真實(shí)目標(biāo)區(qū)域,由于P中包含了一部分背景,因此區(qū)域P的灰度均值Pm一般小于目標(biāo)區(qū)域Θ的灰度均值Θm,由此得到傳統(tǒng)雙滑窗算法的原理:以像素點(diǎn)為中心開內(nèi)、外2個(gè)窗口,內(nèi)窗包含了當(dāng)前像素點(diǎn)在內(nèi)的n×n個(gè)像素,且內(nèi)窗所有像素灰度均值為T1,外窗包含了當(dāng)前像素在內(nèi)的m×m個(gè)像素(其中m>n),且外窗所有像素灰度均值為T2,設(shè)定閾值T,判斷當(dāng)前像素點(diǎn)是否為紅外小目標(biāo)點(diǎn)的準(zhǔn)則為:若T1-T2≥T,則認(rèn)為該點(diǎn)為小目標(biāo)點(diǎn);反之,則認(rèn)為該點(diǎn)屬于背景.
傳統(tǒng)雙滑窗算法對(duì)大部分紅外圖像均具有良好的檢測(cè)效果,但對(duì)于目標(biāo)區(qū)域帶有運(yùn)動(dòng)陰影的紅外圖像會(huì)造成誤檢.圖5為一幅目標(biāo)區(qū)域具有運(yùn)動(dòng)陰影的紅外圖像,圖中箭頭所指向的區(qū)域?yàn)榉糯蟮哪繕?biāo)區(qū)域,從放大圖中可以清楚地看到在目標(biāo)臨近位置有一些較暗的區(qū)域,暗區(qū)域的灰度值甚至低于其領(lǐng)域背景的灰度值,在這種情況下,采用傳統(tǒng)的雙滑窗檢測(cè)算法勢(shì)必會(huì)造成誤檢.
針對(duì)這種情況,我們對(duì)傳統(tǒng)雙滑窗算法進(jìn)行改進(jìn),考慮到陰影的存在使得小窗口的灰度均值急劇下降,引入灰度最大值Θmax和最大值因子α(0<α<1)來削弱陰影的影響,設(shè)置內(nèi)窗的灰度特征量T1=α·Θmax+(1-α)·Θm,外窗灰度特征量依然為外窗灰度均值Pm.選取灰度閾值T,對(duì)中心像素是否為小目標(biāo)點(diǎn)的判斷準(zhǔn)則為:若T1-T2≥T,則認(rèn)為該點(diǎn)屬于小目標(biāo)點(diǎn);反之,則認(rèn)為該點(diǎn)屬于背景點(diǎn).
基于以上分析,可以得出本文紅外弱小目標(biāo)算法:
Step1 將輸入圖像按水平和垂直方向分割成大小相等的區(qū)域Ωi,j,用U(i,j)表示區(qū)域Ωi,j的灰度均值,其中i=1,2,…,m;j=1,2,…,m;
Step2 選取閾值U,若|U(i,j)-U(i,j+1)|
Step3 對(duì)非均勻分割圖進(jìn)行區(qū)域定位,對(duì)各個(gè)區(qū)域大于區(qū)域均值的所有像素點(diǎn)按灰度值大小排序,得到一個(gè)順序統(tǒng)計(jì)量,取這個(gè)順序統(tǒng)計(jì)量的最大的s個(gè),得到每個(gè)區(qū)域內(nèi)的顯著點(diǎn)作為候選目標(biāo)點(diǎn);
Step4 采用改進(jìn)的雙滑窗算法對(duì)每個(gè)候選目標(biāo)點(diǎn)進(jìn)行再次識(shí)別,去除偽目標(biāo)點(diǎn);
Step5 輸出再次識(shí)別成功的目標(biāo)點(diǎn)位置.
實(shí)驗(yàn)采用美國(guó)空軍實(shí)驗(yàn)室實(shí)測(cè)紅外圖像進(jìn)行仿真實(shí)驗(yàn),并列出與傳統(tǒng)的雙滑窗算法以及比較有代表性的基于數(shù)學(xué)形態(tài)學(xué)的Top-Hat算法的檢測(cè)結(jié)果做比較,以此來驗(yàn)證本文算法的有效性.所有實(shí)驗(yàn)都對(duì)運(yùn)行時(shí)間進(jìn)行統(tǒng)計(jì)以驗(yàn)證算法的實(shí)時(shí)性.實(shí)驗(yàn)平臺(tái)為Intel Pentium 4,1 GB內(nèi)存的PC機(jī),通過Matlab 2 009a軟件平臺(tái)完成仿真實(shí)驗(yàn).
傳統(tǒng)雙滑窗算法對(duì)于目標(biāo)區(qū)域帶有運(yùn)動(dòng)陰影的紅外圖像會(huì)造成錯(cuò)誤的檢測(cè)結(jié)果.對(duì)于圖5中具有運(yùn)動(dòng)陰影的紅外圖像,采用本文提出的方法對(duì)其進(jìn)行檢測(cè),檢測(cè)結(jié)果見圖6.
采用本文算法對(duì)圖6的檢測(cè)時(shí)耗為 0.373 581 s,而傳統(tǒng)的雙滑窗算法進(jìn)行檢測(cè)的時(shí)耗為 2.788 641 s.由此可見本文算法在實(shí)時(shí)性與準(zhǔn)確性上均優(yōu)于傳統(tǒng)的雙滑窗算法.
先采用Top-Hat算法對(duì)圖像Img3~I(xiàn)mg6進(jìn)行檢測(cè),該算法應(yīng)用Top-Hat算子對(duì)背景進(jìn)行預(yù)測(cè),并將背景與原圖進(jìn)行比較,通過設(shè)置閾值判別目標(biāo),檢測(cè)結(jié)果見表1.
從表1可以看出,對(duì)于紅外圖像Img3~I(xiàn)mg6,Top-Hat算法沒有有效處理背景區(qū)域,使得在進(jìn)行閾值分割時(shí),造成了較高的虛警,這些虛警可以通過后續(xù)的幀間處理方法消除,但是會(huì)增加額外的運(yùn)算開銷.
表1 Top-Hat算法與本文算法目標(biāo)檢測(cè)結(jié)果對(duì)比
從檢測(cè)結(jié)果來看,對(duì)于圖像Img3~I(xiàn)mg6采用本文算法均能實(shí)現(xiàn)正確檢測(cè),而且由于本文算法無需進(jìn)行背景預(yù)測(cè),檢測(cè)耗時(shí)相比Top-Hat算法要少.綜合以上分析可知本文提出的算法魯棒性強(qiáng),既適用于目標(biāo)區(qū)域帶有運(yùn)動(dòng)陰影的紅外圖像,也適用于信噪比低的復(fù)雜紅外圖像.本文算法對(duì)于這2種紅外圖像均能實(shí)現(xiàn)正確檢測(cè),且檢測(cè)所需時(shí)間也基本滿足實(shí)時(shí)性要求.
本文的研究從人類視覺感知情況出發(fā),將視覺注意機(jī)制引入到紅外圖像弱小目標(biāo)檢測(cè)應(yīng)用中,提出了一個(gè)新的串行處理方法,該方法通過抽取輸入圖像的相關(guān)信息并對(duì)這些信息進(jìn)行分析識(shí)別,在保持其他性能的前提下,大幅提高了運(yùn)算效能.
參考文獻(xiàn):
[1] JESMIN F K,MOHAMMAD S A. Target detection in cluttered forward-looking infrared imagery[J].Optical Engineering, 2005, 44(7):076-404.
[2] OLSHAUSEN B A, ANDERSON C H, VAN ESSEN D C. A neurobiological model of visual attention and invariant pattern recognition based on dynamic routing of information[J].The Journal of Neuroscience, 1993, 13(11) : 4700-4719.
[3] ITTI L, KOCH C.A model of saliency-based visual attention for rapid scene analysis[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on, 1998,20(11):12-54.
[4] 姚迅, 李德華, 黃飛, 等. 基于視覺注意機(jī)制的紅外圖像小目標(biāo)檢測(cè)方法[J].武漢大學(xué)學(xué)報(bào): 工學(xué)版, 2006, 39(6):108-112.
[5] 王蒙, 呂建平. 基于邊緣檢測(cè)和自動(dòng)種子區(qū)域生長(zhǎng)的圖像分割算法[J].西安郵電學(xué)院學(xué)報(bào),2011,16(6):16-19.
[6] HOROWITZ S L. Picture segmentation by a tree traversal algorithm[J].Journal of the ACM,1976, 23(2):368-388.
[7] BARNETT J. Statistical analysis of median subtraction filtering with application to point target detection in infrared backgrounds[C]//International Society for Optics and Photonics.Los Angeles,1989, 1050:10-18.
[8] 劉興淼, 王仕成, 趙靜,等. 基于改進(jìn)雙滑窗的紅外小目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)應(yīng)用,2011,31(5):1217-1220.
[9] KITTLER J, ILLINGWORTH J, FOGLEIN J. Threshold selection based on a simple image statistic[J].Computer Vision, Graphics and Image Process, 1985,30(2):381-387.
[10] 葉斌, 彭嘉雄. 基于形態(tài)學(xué) Top-Hat 算子的小目標(biāo)檢測(cè)方法[J].中國(guó)圖象圖形學(xué)報(bào): A 輯,2002, 7(7): 638-642.