張 馳,譚南林,李國正,蘇樹強(qiáng)
(北京交通大學(xué) 機(jī)械與電子控制工程學(xué)院,北京 100044)
自然界中的物體都會(huì)向外輻射紅外線,利用探測(cè)儀可以得到不同物體的紅外圖像。由于紅外熱成像技術(shù)不受照明條件影響且穿透能力強(qiáng),其被廣泛應(yīng)用于安防監(jiān)控[1]、自動(dòng)駕駛[2]等領(lǐng)域,并且對(duì)紅外圖像行人檢測(cè)算法的有效性和實(shí)時(shí)性提出了更高的要求。
近年來,紅外圖像行人檢測(cè)成為研究的熱點(diǎn),但相較于可見光圖像處理技術(shù)還有很大的提升空間。紅外圖像包含的特征與可見光圖像不同,需要從紅外特征層面來解決行人檢測(cè)問題。國內(nèi)外學(xué)者對(duì)紅外圖像行人檢測(cè)算法進(jìn)行了大量研究。文獻(xiàn)[3]提出基于圓形最短路徑的紅外圖像行人分割算法,通過顯著性映射和灰度閾值法對(duì)包含行人的前景進(jìn)行估計(jì)。文獻(xiàn)[4]提出利用多維模板形式的中層屬性,將局部轉(zhuǎn)向核作為底層描述符來檢測(cè)遠(yuǎn)紅外線圖像中的行人。文獻(xiàn)[5]基于圖像灰度值生成顯著圖,對(duì)得到的感興趣區(qū)域(Region of Interest,ROI)提取局部強(qiáng)度差異直方圖(Histogram of Local Intensity Differences,HLID)特征,并使用支持向量機(jī)(Support Vector Machine,SVM)分類器得到行人區(qū)域。文獻(xiàn)[6]使用改良的脈沖耦合神經(jīng)網(wǎng)絡(luò)對(duì)紅外圖像中的行人進(jìn)行分割,以有效抑制噪聲。文獻(xiàn)[7]提出一種基于框選分割的監(jiān)督學(xué)習(xí)框架,結(jié)合可見光和紅外2個(gè)通道對(duì)多光譜的行人進(jìn)行檢測(cè)。文獻(xiàn)[8]基于HOG對(duì)紅外圖像進(jìn)行檢測(cè),通過減去熱激活區(qū)域?qū)崿F(xiàn)算法加速。文獻(xiàn)[9]對(duì)紅外圖像進(jìn)行預(yù)處理,使噪聲大幅降低,細(xì)節(jié)得到增強(qiáng),并實(shí)現(xiàn)智能分析與自動(dòng)報(bào)警的協(xié)同。文獻(xiàn)[10]提出多特征級(jí)聯(lián)的紅外行人檢測(cè)算法,在方向梯度直方圖(Histogram of Oriented Gradient,HOG)之前加入了長寬比和頭部Haar特征的初級(jí)分類器。文獻(xiàn)[11]使用自動(dòng)摳圖算法對(duì)紅外圖像中的行人進(jìn)行檢測(cè),其將自動(dòng)選取的區(qū)域作為深度神經(jīng)網(wǎng)絡(luò)的輸入。文獻(xiàn)[12]使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)紅外圖像中的行人進(jìn)行分類。
現(xiàn)有顯著性檢測(cè)算法主要應(yīng)用于普通的可見光圖像,計(jì)算復(fù)雜度較高且沒有充分利用紅外圖像的特點(diǎn)。針對(duì)上述問題,本文提出一種紅外圖像行人檢測(cè)算法,基于改進(jìn)的顯著性算法和多級(jí)縮小ROI區(qū)域策略對(duì)紅外圖像中的行人進(jìn)行檢測(cè)。
紅外圖像沒有顏色通道特征和紋理特征,加上噪聲的干擾,其信息量會(huì)有較大損失。在紅外圖像中,非行人的干擾源主要為圖像中的噪聲和其他熱源。紅外圖像中溫度較高的物體對(duì)應(yīng)的像素灰度值高,相較于周圍背景環(huán)境更加突出,由于行人圖像亮度較大會(huì)產(chǎn)生明顯的輪廓線,避免了色彩信息的干擾,因此顯著性檢測(cè)算法也更加適用。
紅外圖像中的信息主要包括目標(biāo)行人、背景和噪聲。對(duì)感興趣區(qū)域(如行人位置)進(jìn)行選擇性增強(qiáng)同時(shí)淡化非感興趣區(qū)域,即為顯著性增強(qiáng)操作。顯著性可以體現(xiàn)圖像感興趣區(qū)域的獨(dú)特性和奇異性,使用顯著性區(qū)域能夠減少行人檢測(cè)的計(jì)算復(fù)雜度。相較于利用傳統(tǒng)滑動(dòng)窗口法尋找ROI,顯著性增強(qiáng)法不需要對(duì)圖像中每個(gè)區(qū)域都進(jìn)行復(fù)雜的計(jì)算,因此,其效率更高。
在紅外圖像中,亮度值高的像素點(diǎn)成為顯著性區(qū)域的概率較高,并且行人區(qū)域的邊緣較為復(fù)雜,需要使用不同尺度的滑窗檢測(cè)不同尺度的行人。對(duì)于遠(yuǎn)距離的行人,可以使用深度學(xué)習(xí)算法進(jìn)行判定,而對(duì)于近距離且尺寸較大的行人,則使用HOG結(jié)合SVM的算法進(jìn)行檢測(cè)。但是,在許多場景下采集到的紅外圖像的背景與可見光圖像一樣,是動(dòng)態(tài)變化的,背景差算法并不適用。
經(jīng)典的顯著性檢測(cè)算法有譜殘余(Spectral Residual,SR)算法、Itti算法、GBVS(Graph-Based Visual Saliency)算法和LC算法。SR算法將圖像轉(zhuǎn)換頻域得到幅度譜,再利用對(duì)數(shù)譜進(jìn)行濾波,兩者相減得到殘余譜,反變換后得到顯著圖[13]。Itti算法基于視覺模型提取顏色和亮度特征,通過中心周圍算子和高斯金字塔進(jìn)行差運(yùn)算獲得顯著圖[14]。GBVS算法是一種自底向上提取人眼感興趣區(qū)域的算法,與Itti算法不同,GBVS算法采用馬爾科夫鏈,利用其平穩(wěn)分布來提取顯著圖[15]。LC算法將像素與圖像中其他所有像素的距離之和進(jìn)行歸一化,從而得到顯著值,并通過直方圖來簡化計(jì)算[16]。
上述算法都以可見光圖像作為顯著性處理的目標(biāo),而紅外圖像無顏色信息,可省去圖像灰度化過程,且行人區(qū)域本身灰度值較高。本文使用改進(jìn)的LC算法進(jìn)行檢測(cè),求解圖像顯著性的過程如下:
(1)
其中,fn是圖像像素的頻數(shù),D(p,n)是距離矩陣。
本文對(duì)LC算法進(jìn)行改進(jìn),首先得到紅外圖像的灰度直方圖,再使用分水嶺算法將圖像中較暗的區(qū)域置零,減少計(jì)算量和干擾因素,以降低其他特征計(jì)算的復(fù)雜度。在對(duì)顯著性進(jìn)行計(jì)算時(shí),只針對(duì)高亮像素點(diǎn),并加入修正值和HLID特征,使得顯著性計(jì)算結(jié)果更適用于紅外圖像行人檢測(cè)。當(dāng)某一像素點(diǎn)周圍的8個(gè)值都為圖像中的暗區(qū)域時(shí),認(rèn)為該點(diǎn)為噪聲點(diǎn)并予以剔除,當(dāng)周圍的8個(gè)值差值較大,呈現(xiàn)邊緣梯度特征時(shí),在該像素點(diǎn)的灰度值上加入HLID方差修正。相比其他顯著性算法需要在不同圖像域間進(jìn)行轉(zhuǎn)換計(jì)算,該顯著性檢測(cè)算法只需進(jìn)行統(tǒng)計(jì)直方圖計(jì)算、距離相乘和歸一化操作,并增加零點(diǎn)的數(shù)量,算法的計(jì)算復(fù)雜度低,能在較短時(shí)間內(nèi)得到紅外圖像中的關(guān)鍵區(qū)域,縮小了后續(xù)檢測(cè)的計(jì)算范圍。其中,HLID特征主要是中心像素與周圍像素點(diǎn)的差異。
本文改進(jìn)算法得到的顯著性圖像行人區(qū)域像素值高,通過分水嶺算法已獲得大量的零像素值點(diǎn),可減少后續(xù)處理的計(jì)算量。此外,本文通過改進(jìn)的基于質(zhì)心重定位的滑窗搜索算法對(duì)紅外顯著圖像進(jìn)行過濾。根據(jù)紅外圖像中行人的特征,引入限定條件,即當(dāng)中心區(qū)域比周圍區(qū)域亮?xí)r,顯著性區(qū)域像素平均值要達(dá)到一定閾值。在中心亮度高的滑窗區(qū)域定位圖像質(zhì)心,使用質(zhì)心位置重新調(diào)整選取框,使得選取結(jié)果更加符合真實(shí)的行人區(qū)域,以避免滑窗算法步長太小而造成計(jì)算復(fù)雜度升高。在此基礎(chǔ)上,使用滑窗算法對(duì)顯著性紅外圖像進(jìn)行選取,得到最終結(jié)果,如圖1所示。
圖1 改進(jìn)滑窗算法的選取結(jié)果Fig.1 Selection results of improved sliding window algorithm
在圖1中,虛線框是直接使用滑窗算法檢測(cè)得到的結(jié)果,實(shí)線框是依據(jù)質(zhì)心位置再次調(diào)整后的優(yōu)化位置??梢钥闯?經(jīng)再次調(diào)整后的結(jié)果更為準(zhǔn)確。此外,該方法可加快滑窗檢測(cè)速度,同時(shí)提高Zernike矩對(duì)稱性和相似性計(jì)算效率。
圖像檢測(cè)的核心問題是特征提取,圖像的矩是圖像的重要特征之一。矩是圖像在多項(xiàng)式上的一個(gè)投影,經(jīng)典的矩有不變矩、幾何矩、旋轉(zhuǎn)拒等。不變矩具有平移、尺度變化、旋轉(zhuǎn)(相似變換)等不變性,經(jīng)典的不變矩有Hu矩、Fourier-Mellin矩、Zernike矩等。Zernike矩是基于Zernike多項(xiàng)式的正交化函數(shù)[17],Zernike矩在識(shí)別效果上比Hu矩好,但其計(jì)算復(fù)雜度高,對(duì)紋理豐富的圖像區(qū)分效果差。正交矩較為復(fù)雜,其計(jì)算復(fù)雜度高,但信息冗余較小。
對(duì)于二維離散數(shù)字圖像轉(zhuǎn)換到極坐標(biāo)下的圖像g(r,θ),其n階m重Zernike矩的定義如下:
(2)
Vn,m(r,θ)=Rn,m(r)ejqθ
(3)
低階Zernike矩描述整體形狀信息,高階Zernike矩描述圖像的細(xì)節(jié)信息,相對(duì)于高階矩,低階矩對(duì)噪聲不敏感。在紅外圖像中,行人的特征主要由形狀信息構(gòu)成,由于本文檢測(cè)的遠(yuǎn)距離行人紅外圖像中細(xì)節(jié)信息損失較多,因此主要使用低階矩進(jìn)行計(jì)算。
在通過顯著性算法得到待檢測(cè)區(qū)域后,將選取框左右一分為二,對(duì)一側(cè)圖像進(jìn)行轉(zhuǎn)置運(yùn)算,使得對(duì)稱圖像變換為旋轉(zhuǎn)圖像,再使用Zernike矩對(duì)圖像進(jìn)行對(duì)稱度計(jì)算,其中相似度高的選取框被認(rèn)定為行人。由于行人兼具剛性物體和柔性物體的特征,具有對(duì)稱性,但是對(duì)稱度不高,因此需要提高對(duì)稱性的閾值限制,而部分誤檢的非行人區(qū)域由下一級(jí)進(jìn)行濾除。因?yàn)樾腥说淖藙?shì)體態(tài)特征較多,所以使用部分行人的Zernike矩的結(jié)果值,通過SVM分類算法進(jìn)行學(xué)習(xí)訓(xùn)練,利用標(biāo)準(zhǔn)行人形狀得到SVM訓(xùn)練結(jié)果,在此基礎(chǔ)上,對(duì)待檢測(cè)區(qū)域的Zernike矩進(jìn)行分類。
行人目標(biāo)檢測(cè)和顯著性檢測(cè)的目的并不相同,本文在獲得顯著性檢測(cè)結(jié)果之后,屏蔽圖像中的許多背景,再使用多級(jí)檢測(cè)可以縮小紅外圖像ROI,提升系統(tǒng)的實(shí)時(shí)性,不同層級(jí)的算法復(fù)雜度逐次遞增,與行人紅外圖像的相似特征進(jìn)行匹配。由于缺少紅外訓(xùn)練庫且不同參數(shù)的紅外相機(jī)對(duì)不同距離行人的拍攝結(jié)果差異較大,因此不同紅外圖像行人的邊緣信息和亮度也存在較大差異。同時(shí),在OTCBVS紅外數(shù)據(jù)集中,行人目標(biāo)的高度基本不超過30像素,寬度不超過20像素,尺寸較小,不適合使用HOG和SVM算法進(jìn)行判定。
本文紅外圖像檢測(cè)算法的思路如下:
1)由改進(jìn)LC算法得到顯著性區(qū)域,使用滑窗算法進(jìn)行過濾,在紅外圖像顯著性結(jié)果像素值之和大于一定范圍時(shí),認(rèn)定該區(qū)域可能出現(xiàn)行人。如果行人可能出現(xiàn)的區(qū)域中心像素點(diǎn)灰度值相較于周邊背景的像素點(diǎn)灰度值要高,則排除非行人的干擾區(qū)域。
2)在得到高亮區(qū)域后,通過質(zhì)心重定位提高滑窗算法效率,使用圖像Zernike矩得到弱對(duì)稱性特征,并與行人的Zernike矩進(jìn)行比較,在此基礎(chǔ)上,使用SVM進(jìn)行分類。
3)基于遷移學(xué)習(xí)思想,使用結(jié)合邊緣梯度特征的深度學(xué)習(xí)對(duì)區(qū)域進(jìn)行判斷,再通過訓(xùn)練得到的卷積神經(jīng)網(wǎng)絡(luò)模型加以區(qū)分。
本文基于多級(jí)特征紅外圖像行人檢測(cè)算法的流程如圖2所示。多級(jí)特征可以過濾大部分的背景干擾區(qū)域,逐級(jí)剔除非行人區(qū)域,計(jì)算所得結(jié)果可以衡量行人存在的可能性。
圖2 基于多級(jí)特征的紅外圖像行人檢測(cè)流程Fig.2 Procedure of pedestrian detection in infrared imagebased on multi-level feature
隨著神經(jīng)網(wǎng)絡(luò)的深入研究和計(jì)算機(jī)運(yùn)行速度的提高,機(jī)器學(xué)習(xí)進(jìn)入嶄新的發(fā)展階段。算法的優(yōu)化、數(shù)據(jù)量的擴(kuò)大以及GPU的發(fā)展,使得深度學(xué)習(xí)可將圖像中各像素點(diǎn)的像素值轉(zhuǎn)變成更高層次、更抽象的表達(dá)。相比淺層模型,深度學(xué)習(xí)算法能夠更合理地表示非線性函數(shù),同時(shí)也促進(jìn)了遷移學(xué)習(xí)的發(fā)展。深度學(xué)習(xí)能夠利用輸入數(shù)據(jù)自動(dòng)學(xué)習(xí)行人特征,不僅有無監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的雙重優(yōu)點(diǎn),還具有強(qiáng)大的特征表達(dá)能力。卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的主要手段之一,擅長處理圖像相關(guān)的機(jī)器學(xué)習(xí)問題。
邊緣梯度信息是圖像特征的基本表達(dá)。使用邊緣梯度信息等淺層特征作為深度神經(jīng)網(wǎng)絡(luò)的輸入,可減少網(wǎng)絡(luò)層數(shù)。由于紅外行人圖像包含信息量少、顏色信息缺失,因此本文深度學(xué)習(xí)網(wǎng)絡(luò)的輸入為紅外灰度圖像與邊緣梯度圖像的結(jié)合,從而包含更多的深層次信息和有效特征,加快淺層特征學(xué)習(xí)速度。
遷移學(xué)習(xí)的一個(gè)根本性計(jì)算問題是挖掘相似領(lǐng)域間的共享知識(shí)結(jié)構(gòu),并將其作為標(biāo)注信息,建立從已知領(lǐng)域遷移到目標(biāo)待求解領(lǐng)域的聯(lián)系。隨著深度學(xué)習(xí)算法的發(fā)展,遷移學(xué)習(xí)也逐漸得到廣泛應(yīng)用,兩者能夠互相促進(jìn),通過使用訓(xùn)練好的網(wǎng)絡(luò)模型簡化大量的學(xué)習(xí)過程。本文使用監(jiān)督遷移學(xué)習(xí),對(duì)含有標(biāo)記小數(shù)據(jù)量的行人訓(xùn)練集進(jìn)行訓(xùn)練。紅外圖像行人與可見光行人特征的區(qū)別主要在于行人背景不同,紅外圖像行人的背景較為單一。在訓(xùn)練時(shí),將可見光圖像轉(zhuǎn)換為灰度圖和邊緣梯度圖,并將其作為輸入,得到相似的輸入模型。在紅外圖像行人檢測(cè)應(yīng)用中,可以直接使用從普通的行人檢測(cè)中學(xué)習(xí)到的超參數(shù),以精簡訓(xùn)練流程,并通過遷移學(xué)習(xí)驗(yàn)證網(wǎng)絡(luò)泛化能力。本文的遷移學(xué)習(xí)是基于樣本的同構(gòu)遷移學(xué)習(xí),紅外圖像行人檢測(cè)的遷移學(xué)習(xí)過程如圖3所示。
圖3 紅外圖像行人遷移學(xué)習(xí)示意圖Fig.3 Schematic diagram of pedestrian transfer learningin infrared image
本文使用俄亥俄州立大學(xué)建立的OTCBVS紅外數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。所用CPU主頻為3.40 GHz的PC機(jī),并在OpenCV環(huán)境下對(duì)算法進(jìn)行驗(yàn)證。OTCBVS紅外數(shù)據(jù)集共有284幅熱紅外圖像,有晴天、雨天和陰天不同環(huán)境下采集到的行人圖像,共包含984個(gè)行人區(qū)域。
將本文改進(jìn)的LC算法與SR、Itti、GBVS和LC 4種經(jīng)典顯著性算法進(jìn)行對(duì)比,結(jié)果如圖4所示。
圖4 紅外圖像顯著性算法檢測(cè)結(jié)果對(duì)比Fig.4 Comparison of detection results of saliency algorithm forinfrared image
由圖4可以看出,SR算法的檢測(cè)結(jié)果受復(fù)雜邊緣的影響較大,且需要將圖像轉(zhuǎn)換到頻域進(jìn)行計(jì)算,復(fù)雜度較高。Itti和GBVS算法的精度較高,但也存在計(jì)算復(fù)雜度高的問題,并且結(jié)果易受背景的影響,有時(shí)無法突出行人所在區(qū)域。LC算法速度快,但是結(jié)果中仍存在較多背景。多數(shù)算法在圖像中熱源背景干擾信息較多的情況下,行人的顯著性會(huì)降低,圖4的實(shí)驗(yàn)結(jié)果表明,本文改進(jìn)算法更適用于紅外圖像行人高亮度區(qū)域的檢測(cè),可將圖像中不同尺度距離行人的關(guān)鍵信息保留下來,突出紅外目標(biāo),且時(shí)間復(fù)雜度低,能在幾毫秒的時(shí)間內(nèi)處理尺寸為240像素×360像素的圖像。不同顯著性算法的耗時(shí)情況如表1所示。
表1 5種顯著性算法的耗時(shí)對(duì)比Table 1 Comparison of consumed time of five saliency algorithms
在得到顯著性圖像后,使用多級(jí)檢測(cè)算法可以得到行人的檢測(cè)結(jié)果。首先使用紅外圖像的多級(jí)特征對(duì)行人目標(biāo)進(jìn)行分類,通過改進(jìn)的滑窗搜索算法選取行人可能存在的區(qū)域,其中包含大量的非行人區(qū)域。不同編號(hào)的環(huán)境不同,因此,檢測(cè)結(jié)果有所差距。其中,編號(hào)為00003的圖像由于拍攝環(huán)境溫度高,行人與周邊背景區(qū)分度較低,難以通過亮度差的算法進(jìn)行區(qū)分,檢測(cè)成功率低。在此溫度環(huán)境下,可將可見光圖像作為行人檢測(cè)通道,本文不對(duì)該情況做特殊處理。滑窗搜索算法的選取結(jié)果如表2所示。其中,未識(shí)別的目標(biāo)主要為距離相近的行人和圖像邊緣較小的行人。
表2 滑窗搜索算法的選取結(jié)果Table 2 Selection results of sliding window search algorithm
在完成行人目標(biāo)分類以后,使用Zernike矩對(duì)選取區(qū)域進(jìn)行行人相似度檢測(cè)和圖像對(duì)稱度檢測(cè),濾除部分非行人區(qū)域。本文選用Z20、Z22、Z31、Z33、Z40、Z42和Z44這7個(gè)低階特征。OTCBVS紅外數(shù)據(jù)集中部分行人和非行人區(qū)域的Zernike矩幅值曲線如圖5所示。在圖5中,Zernike矩的特征值均為滑窗選取框左右劃分后的計(jì)算結(jié)果,每個(gè)行人目標(biāo)對(duì)應(yīng)的2條曲線表示從中心線分割后的2組特征??梢钥闯?行人和非行人的特征曲線有一定的差距,且行人的對(duì)稱性一般較高。從表2和圖5可以看出,行人的Zernike矩在Z20和Z44兩處特征值較高,其他位置的特征值偏低,而非行人圖像沒有該規(guī)律。
圖5 部分Zernike矩的幅值曲線Fig.5 Amplitude curve of some Zernike moments
依據(jù)上述特征,可以在OTCBVS紅外數(shù)據(jù)集中過濾部分非行人特征,縮小行人可能存在的區(qū)域。由于Zernike矩的計(jì)算復(fù)雜度較高,其計(jì)算時(shí)間較長,且與紅外圖像的復(fù)雜度,即通過顯著性檢測(cè)后得到的待檢測(cè)行人區(qū)域數(shù)量相關(guān),每張圖像的平均處理時(shí)間約為20 ms。在此基礎(chǔ)上,使用SVM對(duì)圖像顯著性區(qū)域中提取到的待檢測(cè)圖像進(jìn)行判定,得到的結(jié)果如表3所示。
表3 Zernike矩濾除后的判定結(jié)果Table 3 Determine results after filtering using Zernike moments
Zernike矩能夠進(jìn)一步縮小行人范圍,但是,將Zernike矩的結(jié)果作為最終行人檢測(cè)結(jié)果的錯(cuò)誤率較高,行人的特征變化較多,主要用于去除部分非行人區(qū)域。
因?yàn)榧t外圖像的行人特征和遠(yuǎn)距離行人特征相同,缺乏色彩信息,在識(shí)別判斷時(shí),通過邊緣和梯度信息對(duì)行人和背景進(jìn)行區(qū)分。在多級(jí)特征判定的最后,使用遷移可見光圖像訓(xùn)練的深度學(xué)習(xí)模型進(jìn)行判斷。本文的紅外圖像行人檢測(cè)結(jié)果在誤檢率為10%的情況下,檢測(cè)準(zhǔn)確率可達(dá)91.5%。通過改進(jìn)顯著性算法等低階計(jì)算,能夠有效縮小行人待檢測(cè)區(qū)域,相比直接使用深度神經(jīng)網(wǎng)絡(luò),可減少大量輸入,避免了深度學(xué)習(xí)的復(fù)雜計(jì)算,可應(yīng)用于嵌入式設(shè)備中,同時(shí)保證了深度學(xué)習(xí)的高準(zhǔn)確率。
表4是本文算法在OTCBVS紅外數(shù)據(jù)集上的最終檢測(cè)結(jié)果。由文獻(xiàn)[18-19]可知,稀疏表示算法的準(zhǔn)確率為90%,相較而言本文算法的檢測(cè)準(zhǔn)確率較高。圖6和圖7給出本文算法在OTCBVS紅外數(shù)據(jù)集上的檢測(cè)結(jié)果。其中,圖7中打傘的行人由于灰度值在紅外圖像中衰減嚴(yán)重,不容易被檢測(cè)出來。
表4 本文算法在OTCBVS紅外數(shù)據(jù)集的檢測(cè)結(jié)果Table 4 Detection results of the proposed algorithm on the OTCBVS dataset of infrared images
圖6 OTCBVS紅外數(shù)據(jù)集上的行人檢測(cè)結(jié)果1Fig.6 Pedestrian detection results 1 on the OTCBVSdataset of infrared images
圖7 OTCBVS紅外數(shù)據(jù)集上的行人檢測(cè)結(jié)果2Fig.7 Pedestrian detection results 2 on the OTCBVSdataset of infrared images
本文提出一種基于多級(jí)特征的紅外圖像行人檢測(cè)算法。使用改進(jìn)的顯著性檢測(cè)算法得到圖像中的高亮區(qū)域,結(jié)合質(zhì)心重定位的滑窗算法得到待檢測(cè)區(qū)域,由Zernike矩特征對(duì)圖像的對(duì)稱性和行人的相似性進(jìn)行判斷,濾除錯(cuò)誤結(jié)果。在此基礎(chǔ)上,使用基于可見光圖像遷移學(xué)習(xí)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行判定分類。實(shí)驗(yàn)結(jié)果表明,與基于稀疏表示的行人檢測(cè)算法相比,該算法的檢測(cè)準(zhǔn)確率較高。下一步將對(duì)不同層級(jí)的特征檢測(cè)時(shí)間加以限制,提升算法的實(shí)時(shí)性。