徐超,馮燕
(西北工業(yè)大學 陜西 西安 710129)
隨著高光譜遙感技術的發(fā)展,高光譜圖像的譜間分辨率越來越高,從而可以更好地對地物進行分類[1-2]。極高的譜間分辨率同時也帶來了一些問題,如增大了存儲壓力,更大的計算量等。在這些問題中,最嚴重的應是小樣本問題或Hugh現(xiàn)象[3]。最大似然分類器由于具有多分類、概率輸出的特點在遙感圖像分類中得到廣泛應用,而在使用最大似然分類器進行分類時,為了有效的估計協(xié)方差矩陣,樣本集的大小應大于數(shù)據(jù)維度。由于高光譜數(shù)據(jù)的維度高達幾十甚至上百,且遙感圖像地物樣本的采集相對困難,從而導致了小樣本問題。為了解決小樣本問題,通常的做法是在分類前對數(shù)據(jù)進行降維。常用的降維方法有特征提取[4-6]和特征選擇[7-8]。特征提取對原始特征進行組合得到新的特征,在保持有用信息的同時最大限度降低維度。特征選擇使用分離度準則和搜索算法從原始特征中挑選合適特征組成特征子集,從而在保持數(shù)據(jù)分離度的同時降低數(shù)據(jù)維度[9]。相對于特征提取,特征選擇更加簡單,且能在降維的同時保持數(shù)據(jù)的物理意義,從而廣泛應用于高光譜數(shù)據(jù)降維中。
現(xiàn)有文獻對特征選擇的研究主要集中在分離度準則和特征搜索算法,即提出新的準則描述類別間的分離度或改進特征搜索算法提高效率和性能。在我們看來,特征選擇應由分離度準則、搜索算法與特征選擇框架三部分組成。特征選擇框架的作用在于對分離度準則與搜索算法進行有效集成,從而最大限度的利用原始數(shù)據(jù)。傳統(tǒng)的特征選擇框架是在分類之前選取特征子集,并在分類過程中保持特征子集不變。該方法雖然簡單,但適應性差,不能充分利用高光譜數(shù)據(jù),造成誤分類概率增大。通過對最大似然分類器的概率輸出進行觀察,我們發(fā)現(xiàn),大多數(shù)情況下目標所屬類別獲得的概率值在所有類別中排在前兩位,換言之,若誤分類情況出現(xiàn),即目標所屬類別沒有獲得最大的概率值,它也很可能獲得第二大概率值,且與最大概率值相差不大。我們將這個現(xiàn)象稱為混淆現(xiàn)象。利用這個現(xiàn)象,我們提出一種新的特征選擇框架,命名為特征重選擇框架。新框架在初始階段針對所有類別選取一個通用特征子集,并對目標進行預分類,若概率輸出滿足混淆條件,則針對當前目標選擇特征子集,并進行最終分類。相對于傳統(tǒng)的特征選擇框架,提出的框架在特征選擇中不僅考慮地物類別總體,同時考慮地物類別個體,從而可以兼顧同一類別中不同個體的差異,適應性更強,可以更準確的對地物進行分類。
首先對傳統(tǒng)的特征選擇方法進行簡單介紹。特征選擇方法主要由三部分組成,分離度準則、搜索算法和特征選擇框架。
分離度準則的作用在于定量描述類別間的可分性,從而指導特征的選取。常用的分離度準則主要有歐式距離、馬氏距離和J-M距離等。選定合適的距離測度后,通過式(1)即可算出類別的分離度D。
式中m代表類別總數(shù),p(wi)代表第i類的先驗概率,Dij代表第i類與第j類之間的距離。
特征搜索算法尋找一個特征子集使得類別分離度達到最大,即
其中 Λ 代表指標集,Λ?{1,1, …,t}(t是圖像的光譜維度),DΛ指的是各類別在特征子集Λ下的分離度,|Λ|代表特征子集的大小,Λopt是最終選取的特征子集??梢钥闯?,特征搜索是一個組合最優(yōu)化問題,通常使用貪婪算法求解,這里回顧一種前向序列搜索算法,該算法思路清晰,使用簡單。前向序列搜索算法首先選擇一個使類間分離度達到最大的特征,并將其加入特征子集,進而將剩下的特征挨個放入特征子集,計算分離度,最終保留分離度最大的特征子集。重復該操作,直到特征子集大小滿足要求。
特征選擇框架主要研究如何更好地使用分離度準則與搜索算法。傳統(tǒng)的特征選擇框架選擇一個特征子集使得類間分離度達到最大,并在分類過程中對所有目標使用該特征子集。該框架簡單,計算量小,但是沒有考慮到目標個體的差異,適應性不強,沒有充分利用數(shù)據(jù)。為了解決這些問題,本文提出一種新的特征選擇框架。
首先給出混淆條件的定義。對于最大似然分類器的概率輸出,令第i類獲得的概率為pi,對各個類別的概率值進行排序,不失一般性,假設第m類和第n類獲得最大的兩個概率值,計算它們之間的距離,即
若Pd小于給定的閾值,則稱該概率輸出滿足混淆條件。
從混淆條件的定義可以看出,當概率輸出滿足混淆條件時,分類器無法有效地對目標進行分類,這時若簡單的將概率最大的類別作為最終類別,則很可能造成誤分類??紤]到特征提取可能造成的信息損失,面對混淆情況時,我們可以針對混淆的兩類重新進行特征選擇,即選擇特征子集使得當前兩類的分離度最大,從而最大程度利用數(shù)據(jù),提高分類精度。具體方法如下。
在分類前,首先用傳統(tǒng)的特征提取方法進行特征選擇,得到類別意義上最優(yōu)的特征子集,稱其為全局最優(yōu)特征子集。使用最大似然分類器對目標進行分類,得到概率輸出,并確定概率最大的兩類,不失一般性,令Pm>Pn,若不等式
成立,則概率輸出滿足混淆條件。為了消除混淆情形,重新選擇一個特征子集使得當前兩類分離度最大,即
使用重選擇的特征子集再次對目標進行分類,得到概率輸出,令第m類的概率為Pmm,第n類的概率為Pnn,假設Pmm>Pnn,則最終確定目標類別為m,對應的概率為
最后給出算法的流程圖,如圖1。
圖1 算法流程圖Fig.1 The flow chart of the algorithm
這里給出新框架的理論分析,從分析的角度驗證新框架相對于傳統(tǒng)框架的有效性,首先給出引理和假設。
引理:設針對多類選擇的特征子集為Λ1,針對m,n兩類選擇的特征子集為Λ2,兩個特征子集關于兩類的分離度分別為 DΛ1mn和 DΛ2mn,則 DΛ1mn≤DΛ2mn成立。
證明:為了使得多類的分離度達到最大,Λ1滿足
為了使得兩類的分離度達到最大,則Λ2滿足
從Λ1和Λ2的表達式可以清楚的看出,
假設:對于最大似然分類器來講,若類間分離度變大,分類正確率隨之提高。
現(xiàn)在分析提出的框架。若最大似然分類器輸出滿足混淆條件,即目標真實類別的概率排在所有類別概率的前兩位,從而通過特征重選擇,可以使易混淆的兩類的分離度變大,根據(jù)我們的假設,分類度越大,分類正確率提高,從而我們給出的框架分類正確率優(yōu)于傳統(tǒng)的分類框架。
本節(jié)通過實驗驗證特征重選擇框架的有效性,選用的高光譜數(shù)據(jù)為Indian Pines數(shù)據(jù)集。該數(shù)據(jù)及其對應的真實類別圖可以從GIC下載。Indian Pines高光譜圖像譜間維度為220,空間分辨率為145×145。該高光譜圖像共包含16個地物類,選取其中最大的13個地物類進行實驗。
在實驗中,使用序列前向搜索算法作為特征搜索算法,并使用J-M距離作為分離度準則。在實驗中,隨機挑選像素點加入樣本集和測試集。為了更好地測試框架,使用不同的樣本容量和特征集大小,對于隨機生成的樣本集與測試集,重復實驗20次,使用平均結果作為最終結果。樣本集容量分別為真實分類圖容量的10%和20%,測試集容量為真實分類圖容量的30%。使用相應的訓練集和測試集對框架進行測試,分類精度在圖2中給出。
從實驗結果可以看出,對于不同的樣本集大小和特征集大小,本文提出方法 (FHRC)的分類精度高于傳統(tǒng)方法(FSHC),從而驗證了本文方法的有效性,并與理論分析一致。這同時說明,相對于傳統(tǒng)的特征選擇框架,提出的框架可以更好地利用數(shù)據(jù)。在特征維度較小時,提出方法相對于傳統(tǒng)方法分類精度提升很大。這是因為初始的特征集類間分離度很小,通過特征重選擇后,類間分離度得到很大的提升,從而分類精度隨之提升。
圖2 特征選擇框架測試結果Fig.2 The experiment result feature selection framework
基于特征重選擇,本文給出了一個新穎的高光譜圖像特征選擇框架。通過特征重選擇,地物的類間分離度得到了提高,從而提高了分類精度。通過理論分析和實驗,算法的有效性與穩(wěn)定性得到了驗證??梢钥闯?,針對易混淆兩類的特征選擇算法在本框架中起著重要的作用,故設計相應的分離度準則與搜索算法是一項有意義的工作。
[1]RUIZ P,MATEOS J,CAMPS-VALLS G,et al.Bayesian active remote sensing image classification[J].IEEE Ransactions on Geoscience and Remote Sensing,2014,52(4):2186-2196.
[2]陳善靜,胡以華,石亮,等.空-譜二維蟻群組合優(yōu)化SVM的高光譜圖像分類[J].光譜學與光譜分析,2013,33(8):2192-2197.CHEN Shan-jing,HU Yi-hua,SHI Liang,et al.Classification of hyperspectral imagery based on ant colony compositely optimizing SVM in spatial and spectral features[J].Spectroscopy and Spectral Analysis,2013, 33(8):2192-2197.
[3]HUGHES G.On the mean accuracy of statistical pattern recognizers[J].IEEE Transactions on Information Theory,1968,14(1):55-63.
[4]WEI Li,PRASAD S,F(xiàn)OWLER JE,et al.Locality-Preserving discriminant analysis in Kernel-Induced feature spaces for hyperspectral image classification[J].IEEE Geoscience and Remote Sensing Letters,2011,8(5):894-898.
[5]LUNGA D,PRASAD S,CRAWFORD M M,et al.Manifold-Learning-Based feature extraction for classification of hyperspectral data:a review of advances in manifold learning[J].Ieeesignal Processing Magazine,2014,31(1):55-66.
[6]HSIAO-YUN H,BOR-CHEN K.Double nearest proportion feature extraction for Hyperspectral-Image classification[J].IEEE Transactions on Geoscience and Remote Sensing,2010,48(11):4034-4046.
[7]SHEN Lin-lin,ZHU Ze-xuan,SEN Jia,et al.Discriminative gabor feature selection for hyperspectral image classification[J].IEEE Geoscience and Remote Sensing Letters,2013,10(1):29-33.
[8]CHEN Yang,LIU Si-cong,BRUZZONE L,et al.A Feature-Metric-Based affinity propagation technique for feature selection in hyperspectral image classification[J].IEEEGeoscience and Remote Sensing Letters,2013,10(5):1152-1156.
[9]MAGHSOUDI Y,COLLINSM J, LECKIE D.On the use of feature selection for classifying multitemporal Radarsat-1 images for forest mapping[J].IEEE Geoscience and Remote Sensing Letters,2011,8(5):904-908.