王周春,崔文楠,張 濤
基于支持向量機(jī)的長(zhǎng)波紅外目標(biāo)分類識(shí)別算法
王周春1,2,3,4,崔文楠1,2,4,張 濤1,2,3,4
(1. 中國(guó)科學(xué)院上海技術(shù)物理研究所,上海 200083;2. 中國(guó)科學(xué)院大學(xué),北京 100049;3. 上海科技大學(xué),上海 201210;4. 中國(guó)科學(xué)院智能紅外感知重點(diǎn)實(shí)驗(yàn)室,上海 200083)
紅外圖像的分辨率低和色彩單一,但由于紅外設(shè)備的全天候工作特點(diǎn),因而在某些場(chǎng)景具有重要作用。本文采用一種基于支持向量機(jī)(support vector machine, SVM)的長(zhǎng)波紅外目標(biāo)圖像分類識(shí)別的算法,在一幅圖像中,將算法提取的邊緣特征和紋理特征作為目標(biāo)的識(shí)別特征,輸入到支持向量機(jī),最后輸出目標(biāo)的類別。在實(shí)驗(yàn)中,設(shè)計(jì)方向梯度直方圖+灰度共生矩陣+支持向量機(jī)的組合算法模型,采集8種人物目標(biāo)場(chǎng)景圖像進(jìn)行訓(xùn)練和測(cè)試,實(shí)驗(yàn)結(jié)果顯示:相同或者不相同人物目標(biāo),穿著不同服飾,算法模型的分類識(shí)別正確率較高。因此,在安防監(jiān)控、工業(yè)檢測(cè)、軍事目標(biāo)識(shí)別等運(yùn)用領(lǐng)域,此組合算法模型可以滿足需要,在紅外目標(biāo)識(shí)別領(lǐng)域具有一定的優(yōu)越性。
長(zhǎng)波紅外目標(biāo);支持向量機(jī);識(shí)別特征;目標(biāo)識(shí)別
紅外線是一種波長(zhǎng)范圍為760nm~1mm的電磁輻射[1],紅外圖像的分辨率低、色彩單一,但是,由于紅外設(shè)備具有全天工作的優(yōu)點(diǎn),因而在某些場(chǎng)景具有重大的運(yùn)用價(jià)值,例如軍事、交通、安全領(lǐng)域等。紅外目標(biāo)檢測(cè)與識(shí)別是指從一幅紅外圖像中找出目標(biāo)位置并識(shí)別目標(biāo)類別[2],任務(wù)的目標(biāo)在于待檢測(cè)區(qū)域的提取與識(shí)別[3]。本文的處理圖像是長(zhǎng)波(7.5~14mm)紅外目標(biāo)圖像,其特征相對(duì)可見光圖像,特征更少,因而目標(biāo)檢測(cè)與識(shí)別的難度更大。
本文研究主題是解決長(zhǎng)波紅外目標(biāo)的分類識(shí)別問題。國(guó)際上許多研究機(jī)構(gòu),如微軟、谷歌、麻省理工學(xué)院、牛津大學(xué)等都建立針對(duì)目標(biāo)檢測(cè)和識(shí)別的實(shí)驗(yàn)室,取得很大的成果。在國(guó)內(nèi)的研究機(jī)構(gòu)和企業(yè)中,中國(guó)科學(xué)院自動(dòng)化研究所下屬的模式識(shí)別國(guó)家重點(diǎn)實(shí)驗(yàn)室在交通場(chǎng)景視覺監(jiān)控、人的運(yùn)動(dòng)視覺監(jiān)控和行為模式識(shí)別方面進(jìn)行了深入研究,商湯科技和曠視科技等企業(yè)主要從事目標(biāo)識(shí)別,而海康集團(tuán)則從事智能安防監(jiān)控。目標(biāo)檢測(cè)與識(shí)別研究和運(yùn)用取得很大進(jìn)展,但是也存在著不少問題[4]:①算法不具有通用性,有些算法在不同運(yùn)用場(chǎng)景效果不一樣;②相關(guān)算法性能優(yōu)越,但是需要強(qiáng)大的計(jì)算能力支撐;③數(shù)據(jù)量不足或較少情況下,有些算法的性能不能滿足需要。因此,需要根據(jù)實(shí)際需求選擇相應(yīng)的算法,才能滿足特定需要。
機(jī)器學(xué)習(xí)是人工智能的核心,機(jī)器系統(tǒng)通過學(xué)習(xí)經(jīng)驗(yàn),不斷改善性能,而支持向量機(jī)(support vector machine, SVM)是其中優(yōu)秀代表[5],主要運(yùn)用于圖像的分類識(shí)別。特征提取是圖像識(shí)別的重要組成部分[6],一般情況下,圖像識(shí)別特征提取的是全局不變特征,但是當(dāng)圖像畸變很復(fù)雜或者目標(biāo)存在遮擋情況時(shí),全局特征提取有一定困難,因此紅外圖像一般都是提取局部不變特征,例如邊緣、紋理等特征。根據(jù)長(zhǎng)波紅外圖像特點(diǎn)以及運(yùn)用場(chǎng)景需要,本文選擇邊緣、紋理作為目標(biāo)識(shí)別特征,設(shè)計(jì)相應(yīng)的算法模型,用SVM分類器解決長(zhǎng)波紅外目標(biāo)的分類識(shí)別問題[7]。
長(zhǎng)波紅外圖像具有局部特征穩(wěn)定的優(yōu)點(diǎn),例如邊緣和紋理,在室內(nèi)白天場(chǎng)景下,穿著同一服飾的同一目標(biāo)的長(zhǎng)波紅外圖像和可見光灰度圖像的邊緣特征分別如圖1所示,由圖1可知:長(zhǎng)波紅外圖像的邊緣輪廓特征比可見光灰度圖像清晰,能很好地描繪圖像的形狀特征。
根據(jù)長(zhǎng)波紅外圖像特點(diǎn)以及算法優(yōu)點(diǎn),本文設(shè)計(jì)以方向梯度直方圖(histogram of oriented gradient, HOG)+灰度共生矩陣(gray level co-occurrence matrix, GLCM)+支持向量機(jī)(SVM)的組合算法模型,對(duì)紅外目標(biāo)圖像進(jìn)行分類。圖2是模型的工作流程。
圖1 圖像邊緣特征
圖2 算法模型工作流程
在模式識(shí)別問題中,圖像的梯度信息可以描繪邊緣特征,HOG適宜提取目標(biāo)的梯度信息[8],它主要有2個(gè)優(yōu)點(diǎn):①對(duì)幾何和光學(xué)因素導(dǎo)致的外形變化能保持良好的一致性;②在滿足相關(guān)條件下,在人體檢測(cè)圖像處理中,直立姿勢(shì)的微小改變,對(duì)檢測(cè)結(jié)果影響很小[9]。因此,HOG在目標(biāo)檢測(cè)中有很大的優(yōu)勢(shì)[10]。紋理是描述圖像表面灰度變化情況,是圖像處理與模式識(shí)別問題需要提取的重要特征,本文選擇GLCM算法提取圖像的紋理特征,GLCM主要有2個(gè)優(yōu)點(diǎn):①能反應(yīng)像元之間的空間位置信息;②豐富的紋理特征量。SVM是一種在模式識(shí)別問題中得到廣泛應(yīng)用的分類器,它主要有3個(gè)優(yōu)點(diǎn):①能避免維數(shù)災(zāi)難;②通過核函數(shù),實(shí)現(xiàn)特征空間映射,適用性強(qiáng);③樣本較少情況下,也能取得良好分類效果。
SVM是一種二分類器,它使用超平面分割樣本,主要分為線性模型和非線性模型,本文中,由于提取紅外圖像的HOG特征和基于GLCM的紋理特征作為圖像目標(biāo)識(shí)別特征,維度很高,存在著使用線性模型無法正確分類的情況,因此,本文使用非線性的SVM對(duì)長(zhǎng)波紅外目標(biāo)圖像進(jìn)行分類[11-12]。
1)線性模型
線性SVM如圖3所示,能將樣本正確分割,圖中的分割超平面分類效果最好,分類器有最強(qiáng)的魯棒性。
圖3 線性SVM
線性可分?jǐn)?shù)據(jù)集:Data={(1,1),(2,2), (3,3),(4,4),…,(x,y)},樣本的特征向量?R,即樣本是維空間中的向量,y={1,-1}。對(duì)于圖3的兩類樣本,分割樣本的超平面有多個(gè),但是最優(yōu)分割超平面只有一個(gè),設(shè)最優(yōu)分割超平面滿足式(1):
(1)
式中:是垂直于分割超平面的向量,分割超平面的方向由確定,超平面方向確定之后,根據(jù)樣本所在空間位置,就可以確定樣本的所屬類別;為位移量。正確分割的樣本(x,y)滿足式(2):
由點(diǎn)到平面距離原理可知道,樣本(x,y)到最優(yōu)分割超平面的距離為:
因此最近樣本(x,y)到最優(yōu)分割超平面的距離為:
兩類間的間隔距離為:
間隔距離最大,分割超平面才是最優(yōu)的,因此,工作目標(biāo)是求最大值,因此最大化式(5)等價(jià)于最小化式(6):
滿足約束條件:
通過式(6)和式(7),構(gòu)造拉格朗日函數(shù),求出()的最優(yōu)解,函數(shù):
由式(8)可知,函數(shù)與、和有關(guān),對(duì)和求偏導(dǎo)數(shù),同時(shí)偏導(dǎo)數(shù)等于0:
式(8)展開得:
由式(12)可知道,與、無關(guān),只與有關(guān),則式(12)為:
根據(jù)KKT條件,解必須滿足:
求解出*、*、*分別為、、的最優(yōu)解,則決策函數(shù)為:
式中:x(=1,2,…,)為訓(xùn)練樣本,為測(cè)試樣本。
2)非線性模型
對(duì)于有些問題,使用線性分類器是無法劃分的,或者說存在大量樣本被錯(cuò)誤分類的問題,在這種情況下,需要使用非線性函數(shù)實(shí)現(xiàn)特征空間映射,在新的特征空間進(jìn)行分類,如圖4的樣本在新空間可以有效分類,使用非線性函數(shù)可以構(gòu)造非線性模型分類器。
圖4 非線性模型SVM
函數(shù):R?R可以將空間R映射到R,樣本(x)(=1,2,…,)在R可分,分類器在R空間進(jìn)行訓(xùn)練,最后映射回R特征空間[13],樣本可以正確分類,設(shè)非線性模型分割超平面方程為:
有些運(yùn)用項(xiàng)目對(duì)于分類正確率沒有十分嚴(yán)格的要求,在一定條件下,允許少量樣本錯(cuò)誤分類,對(duì)項(xiàng)目的整體效果影響不大,而且工程實(shí)現(xiàn)條件更加容易,引入松弛變量,的值目前還沒有具體的理論支持,根據(jù)實(shí)際情況或者經(jīng)驗(yàn)設(shè)定,非線性可分問題的約束條件則變?yōu)椋?/p>
對(duì)于錯(cuò)誤的分類要進(jìn)行懲罰,在此引入懲罰系數(shù),太大,超平面約束太多,則不利于分類器的泛化,太小,分類器的分類性能可能不佳,的取值需要根據(jù)具體運(yùn)用場(chǎng)景選擇,最小化目標(biāo)函數(shù)為:
在如下約束條件下:
最小化():
式中:(x)和(x)分別為x、x映射后樣本,核函數(shù)(x,x)=(x)·(x),:R?R,式(21)可變?yōu)椋?/p>
因此最終的決策(分類)函數(shù)為:
在模式識(shí)別領(lǐng)域中,HOG基于梯度來計(jì)算和統(tǒng)計(jì)圖像的方向梯度直方圖來構(gòu)建圖像邊緣特征[14-15]。長(zhǎng)波紅外圖像具有局部邊緣特征穩(wěn)定的優(yōu)點(diǎn),而HOG能很好地描述邊緣特征,邊緣包含物體很多的形狀信息,長(zhǎng)波紅外圖像在邊緣的方向梯度值很大,HOG提取紅外圖像邊緣特征有很多優(yōu)勢(shì),它的HOG不僅表示簡(jiǎn)潔,而且具有很強(qiáng)的魯棒性,同時(shí)對(duì)噪聲不敏感?;驹恚菏紫葘D像劃分成多個(gè)細(xì)胞單元[16],提取每一個(gè)細(xì)胞單元的HOG描述符,然后將幾個(gè)細(xì)胞單元組成一個(gè)區(qū)間,最后將全部區(qū)間的HOG描述符串聯(lián)起來則得到該圖像的HOG特征[17]。
1.2.1 梯度計(jì)算
梯度是一個(gè)向量,表示某一函數(shù)在該點(diǎn)處的方向?qū)?shù)沿著該方向取得最大值[18],設(shè)(,)為某點(diǎn)的灰度值,則該點(diǎn)的水平和垂直方向梯度的幅值分別為D(,)和D(,)[19],計(jì)算的D(,)和D(,)為:
梯度的幅值和方向?yàn)椋?/p>
1.2.2 直方圖計(jì)算
本文將梯度方向0°~360°(考慮正負(fù)-180°~180°)平均分成36個(gè)塊(1~36),用于統(tǒng)計(jì)目標(biāo)圖像的方向梯度信息,HOG選擇如圖5所示。
圖5 HOG選擇
圖6是本文選擇的其中一張?jiān)紙D像以及對(duì)應(yīng)的HOG。
由上文可知,長(zhǎng)波紅外圖像的局部紋理特征比較穩(wěn)定,因而選擇它作為目標(biāo)識(shí)別特征?;叶裙采仃嚹芊从硤D像灰度的位置分布特性[20-21],適宜提取紋理特征。
GLCM用表示,如果一張圖像灰度級(jí)為,則為一個(gè)×的矩陣,和為灰度值,=(D,D)為位置關(guān)系,矩陣元素(,),(,=1,2,…,)為和在=(D,D)下出現(xiàn)的數(shù)量或概率[22],空間位置關(guān)系如圖7所示。
常用的空間位置關(guān)系有:
從GLCM導(dǎo)出相關(guān)參數(shù)[23]{Gratton, 1990 #668},這些參數(shù)反應(yīng)圖像的紋理信息,常用的參數(shù)有:能量、對(duì)比度、相關(guān)性、熵、逆差距等。
上文中,通過方向梯度直方圖和灰度共生矩陣提取長(zhǎng)波紅外圖像的目標(biāo)識(shí)別特征,然后用支持向量機(jī)進(jìn)行決策分類,特征選擇和分類器設(shè)計(jì)決定分類的正確率。為便于分析每個(gè)類別的分類正確率以及類別之間的分類情況,本文采用混淆矩陣統(tǒng)計(jì)分類器對(duì)樣本的分類情況,把分類結(jié)果記錄在混淆矩陣?yán)锩妗?/p>
混淆矩陣用于表示分類器分類情況[24],矩陣元素值表示樣本類別的分類數(shù)量,如表1所示,以第一行元素分析為例:它的正確類別為class 1,矩陣元素為分類器對(duì)樣本的分類數(shù)目,第一個(gè)元素為正確分類的數(shù)目,其余元素為被錯(cuò)誤分類的數(shù)目。設(shè)正確分類數(shù)目為,錯(cuò)誤分類為,其中T為真實(shí)值為類正確分類為類的數(shù)目,F(≠)為真實(shí)值為類錯(cuò)誤分類為類的數(shù)目。
圖6 原始圖像以及對(duì)應(yīng)的HOG
圖7 空間位置關(guān)系
通過混淆矩陣,可以計(jì)算算法模型對(duì)某個(gè)類別以及整個(gè)類別的分類正確率。
單個(gè)類別的分類正確率為:
整個(gè)模型的分類正確率為:
表1 混淆矩陣
在上文中,介紹了算法的基本原理以及運(yùn)用優(yōu)勢(shì),基本流程如下:對(duì)于某一張圖像,使用HOG提取圖像邊緣特征,然后使用GLCM提取圖像的紋理特征,最后將兩種特征串聯(lián)起來作為圖像總特征,總特征作為SVM的特征向量,SVM決策輸出圖像的目標(biāo)類別,實(shí)現(xiàn)目標(biāo)的檢測(cè)識(shí)別工作。在實(shí)驗(yàn)中,首先使用設(shè)計(jì)的分類器對(duì)訓(xùn)練集中的長(zhǎng)波紅外圖像樣本進(jìn)行分類訓(xùn)練,然后使用訓(xùn)練好的分類器對(duì)測(cè)試集長(zhǎng)波紅外圖像樣本進(jìn)行測(cè)試,得出分類器對(duì)各個(gè)類別的分類情況,最后根據(jù)測(cè)試結(jié)果對(duì)分類器的分類效果進(jìn)行評(píng)估。
在本文中,采集了8種目標(biāo)場(chǎng)景圖像,因此采用多個(gè)二分類器組成的多類分類器對(duì)樣本進(jìn)行分類。算法模型主要有4個(gè)模塊:①主函數(shù)模塊:圖像的讀取、顯示和模型評(píng)估;②邊緣特征提取模塊:HOG提取圖像的邊緣信息;③紋理特征提取模塊:GLCM提取圖像的紋理信息;④分類模塊:多分類SVM分類器對(duì)圖像進(jìn)行分類。算法運(yùn)行環(huán)境:Windows10,I5-6200U,2.4G,MATLAB R2018b。Training set(訓(xùn)練集)和Testing set(測(cè)試集)圖像數(shù)目為950張和410張。
圖8為相同場(chǎng)景下,同一目標(biāo)穿著不同服飾的紅外圖像,其中Class A為穿著迷彩服圖像,Class B為穿著普通衣服圖像,兩種圖像的灰度分布情況用灰度直方圖統(tǒng)計(jì),由圖8的灰度直方圖可知:同一個(gè)目標(biāo)圖像的外形特征一樣,但是灰度分布確不一樣,因此,服飾對(duì)長(zhǎng)波紅外圖像的灰度分布有一定影響。本文的工作目標(biāo):將穿有不同服飾(迷彩服和普通衣服)的不同人物目標(biāo)進(jìn)行分類識(shí)別,在實(shí)驗(yàn)中設(shè)置了8種目標(biāo)場(chǎng)景圖像,8種不同目標(biāo)場(chǎng)景圖像如圖9所示,其類別意義如表2所示。
表2 圖像場(chǎng)景代表意義
Continued Table 2
模型的部分樣本分類結(jié)果(Class A和Class B)如圖10所示。
模型對(duì)測(cè)試集8種樣本的分類結(jié)果如表3所示。
由混淆矩陣可得,分類器對(duì)類別Class A、Class B、Class C、Class D以及整體類別的分類正確率為:
圖9 八種目標(biāo)場(chǎng)景圖像
圖10 模型分類結(jié)果
表3 模型分類結(jié)果
在本文中,設(shè)計(jì)一種基于支持向量機(jī)(SVM)的組合算法模型對(duì)長(zhǎng)波(7.5~14mm)紅外圖像目標(biāo)進(jìn)行分類識(shí)別,通過HOG和GLCM提取圖像的目標(biāo)識(shí)別特征,然后把這些特征作為特征向量輸入到SVM分類器進(jìn)行分類,實(shí)驗(yàn)結(jié)果顯示:目標(biāo)人物U,室內(nèi)條件下,預(yù)測(cè)效果最好,同目標(biāo)人物U,穿迷彩衣服Class A和普通衣服Class B能很好分類識(shí)別;室外條件下,在一定情況下,分類正確率可以接受。同時(shí)也知道,不同目標(biāo)由于穿著不同服飾以及外部客觀條件的影響,分類效果也不一樣。
總體上,由于長(zhǎng)波(7.5~14mm)紅外圖像質(zhì)量不是很好,可提取的信息比較少或者說比較單一,文中的組合算法模型對(duì)8種不同場(chǎng)景目標(biāo)共計(jì)410張圖像進(jìn)行分類識(shí)別,設(shè)計(jì)的算法模型對(duì)Class A、Class B類別分類效果最好,而且整體分類正確率也達(dá)到90.5%,因此,在安防監(jiān)控、工業(yè)檢測(cè)、軍事目標(biāo)識(shí)別等應(yīng)用領(lǐng)域,此模型可以滿足長(zhǎng)波紅外目標(biāo)圖像的分類要求。
[1] 曹鳳杰. 紅外圖像人臉識(shí)別方法研究[D]. 西安: 西安電子科技大學(xué), 2010.
CAO Fengjie. Research on Infrared Image Face Recognition Method[D]. Xi'an: Xidian University, 2010.
[2] Der S Z, Chellappa R. Probe-based automatic target recognition in infrared imagery[J]., 1997, 6(1): 92-102.
[3] 姜錦鋒. 紅外圖像的目標(biāo)檢測(cè)、識(shí)別與跟蹤技術(shù)研究[D]. 西安: 西北工業(yè)大學(xué), 2004.
JIANG Jinfeng. Research on Target Detection, Recognition and Tracking Technology of Infrared Image[D]. Xi'an: Northwestern Polytechnical University, 2004.
[4] 郭濟(jì)民. 基于深度神經(jīng)網(wǎng)絡(luò)的物體識(shí)別方法研究及實(shí)現(xiàn)[D]. 成都:電子科技大學(xué), 2018.
GUO Jimin. Research and Implementation of Object Recognition Method Based on Deep Neural Network[D]. Chengdu: University of Electronic Science and Technology, 2018.
[5] Abdulkadir Eryildirim, Ibrahim Onaran. Pulse Doppler radar target recognition using a two-stage SVM procedure[J]., 2011, 47(2): 1450-1457.
[6] 李小迷. 葡萄糖藥液中異物目標(biāo)視覺檢測(cè)與識(shí)別方法研究[D]. 長(zhǎng)沙: 湖南大學(xué), 2010.
LI Xiaomi. Research on Visual Inspection and Recognition Method of Foreign Objects in Glucose Liquid[D]. Changsha: Hunan University, 2010.
[7] 王朔琛, 汪西莉, 馬君亮. 基于均值漂移的半監(jiān)督支持向量機(jī)圖像分類[J]. 計(jì)算機(jī)應(yīng)用, 2014, 34(8): 2399-2403.
WANG Shuochen, WANG Xili, MA Junliang. Semi-supervised support vector machine image classification based on mean shift[J]., 2014, 34(8): 2399-2403.
[8] 丁方靜. 室內(nèi)監(jiān)控中移動(dòng)檢測(cè)與跟蹤算法的改進(jìn)與實(shí)現(xiàn)[D]. 南京: 東南大學(xué), 2017.
DING Fangjing. Improvement and Implementation of Moving Detection and Tracking Algorithm in Indoor Monitoring[D]. Nanjing: Southeast University, 2017
[9] 卞海曼. 基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)[D]. 合肥: 合肥工業(yè)大學(xué), 2017.
BIAN Haiman. Pedestrian Detection Based on Convolutional Neural Network[D]. Hefei: Hefei University of Technology, 2017.
[10] Navneet Dalal, Bill Triggs. Histograms of oriented gradients for human detection[C]//(CVPR), 2005.
[11] Minho J, Y Hee Yong, C Hsiao-Hwa. Intelligent RFID tag detection using support vector machine[J]., 2009, 8(10): 5050-5059.
[12] WANG R P, CHEN J, SHAN S G, et al. Enhancing training set for face detection based on SVM[J]., 2009, 19(11): 2921-2931.
[13] 尤倩. 基于SVM的脫機(jī)手寫體數(shù)字識(shí)別的研究與應(yīng)用[D]. 濟(jì)南: 山東師范大學(xué), 2014.
YOU Qian. Research and Application of Offline Handwritten Digit Recognition Based on SVM[D]. Jinan: Shandong Normal University, 2014.
[14] 張小琴, 趙池航, 沙月進(jìn). 基于HOG特征及支持向量機(jī)的車輛品牌識(shí)別方法[J]. 東南大學(xué)學(xué)報(bào): 自然科學(xué)版 , 2013, 43(2): 410-413.
ZHANG Xiaoqin, ZHAO Chihang, SHA Yuejin. Vehicle brand recognition method based on HOG features and support vector machine[J].: Natural Science Edition, 2013, 43(2): 410-413.
[15] LI Weixing, SU Haijun, PAN Feng, et al. A fast pedestrian detection via modified HOG feature[C]//e 34t, 2015: 3870-3873.
[16] 曾雪. 基于旋轉(zhuǎn)不變梯度方向直方圖的航拍圖像目標(biāo)檢測(cè)[D]. 南京: 東南大學(xué), 2017.
ZENG Xue. Object Detection Based on Rotation Invariant Histogram of Oriented Gradient in Aerial Image[D]. Nanjing: Southeast University, 2017.
[17] Alex Omid-Zohoor, Christopher Young, David Ta, et al. Toward always-on mobile object detection: energy versus performance tradeoffs for embedded HOG feature extraction[J]., 2018, 28(5): 1102-1115.
[18] 段嘉欣. 基于梯度下降的時(shí)變PID算法[J]. 中國(guó)新通信, 2019, 21(14): 223-226.
DUAN Jiaxin. Time-varying PID algorithm based on gradient descent[J]., 2019, 21(14): 223-226.
[19] CHEN Pei-Yin, HUANG Chien-Chuan, Lien Chih-Yuan, et al. An efficient hardware implementation of HOG feature extraction for human detection[J]., 2014, 15(2): 656-662.
[20] HE Jiayuan, ZHU Xiangyang. Combining improved gray-level co-occurrence matrix with high density grid for myoelectric control robustness to electrode shift[J]., 2017, 25(9): 1539-1548.
[21] 葉鵬, 王永芳, 夏雨蒙, 等.一種融合深度基于灰度共生矩陣的感知模型[J]. 計(jì)算機(jī)科學(xué), 2019, 46(3): 92-96.
YE Peng, WANG Yongfang, XIA Yumeng, et al. Perceptual model based on GLCM combined with depth[J]., 2019, 46(3): 92-96.
[22] 王紅, 武繼剛, 張錚. 基于二維MB_LBP特征的人臉識(shí)別[J]. 計(jì)算機(jī)工程與應(yīng)用, 2015, 51(10): 191-194.
WANG Hong, WU Jigang, ZHANG Zheng. Face recognition based on 2-dimensional MB-LBP characteristics[J]., 2015, 51(10): 191-194.
[23] Marceau D J, Howarth P J, Dubois J M, et al. Evaluation of the grey -level co-occurrence matrix method for land-cover classification using SPOT imagery[J]., 1990, 28(4): 513-519.
[24] Simon D, Simon D L. Analytic confusion matrix bounds for fault detection and isolation using a sum-of-squared-residuals approach[J]., 2010, 59(2): 287-296.
Classification and Recognition Algorithm for Long-wave Infrared Targets Based on Support Vector Machine
WANG Zhouchun1,2,3,4,CUI Wennan1,2,4,ZHANG Tao1,2,3,4
(1.,,200083,; 2.,100049,; 3.,201210,; 4.,,200083,)
Infrared images have a low resolution and a single color, but they play an important role in some scenes because they can be used under all weather conditions. This study adopts a support vector machine algorithm for long-wave infrared target image classification and recognition. The algorithm extracts edge and texture features, which are used as the recognition features of the target, and forwards them to a support vector machine. Then, the target category is output for infrared target recognition. Several models, such as the histogram of oriented gradient, gray level co-occurrence matrix, and support vector machine, are combined to collect images of eight types of target scenes for training and testing. The experimental results show that the algorithm can classify the same target person wearing different clothes with high accuracy and that it has a good classification effect on different target characters. Therefore, under certain scene conditions, this combined algorithm model can meet the needs and has certain advantages in the field of target recognition.
long-wave infrared target, support vector machine, recognition feature, target recognition
TN219
A
1001-8891(2021)02-0153-09
2020-01-06;
2020-01-31.
王周春(1989-),男,碩士研究生,研究方向:紅外圖像處理,目標(biāo)識(shí)別,機(jī)器學(xué)習(xí)。E-mail:wangzhch@shanghaitech.edu.cn。
張濤(1966-),男,博士,二級(jí)研究員,研究方向:光電技術(shù)與系統(tǒng),空間科學(xué)儀器,目標(biāo)光學(xué)探測(cè)與數(shù)字仿真。E-mail:haozzh@sina.com。