曾 銳,陳鍛生
(華僑大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,福建 廈門 361021)
由于高光譜衛(wèi)星圖像具有豐富的地物波譜信息,早期多數(shù)的遙感圖像分類研究側(cè)重于圖像的光譜信息[1],但這也給分類帶來了一些挑戰(zhàn),例如統(tǒng)計(jì)模型下的分類器在少量訓(xùn)練樣本的情況下無法準(zhǔn)確的估計(jì)出高維空間的類條件概率密度函數(shù),往往會導(dǎo)致分類精度的下降,這也被稱作Hughes現(xiàn)象[2],為了避免該現(xiàn)象,一般需要先對高維數(shù)據(jù)降維或是提取出更加魯棒的特征[3-5],其中降維操作主要是指將高維特征映射到更容易判別特定地物類別的低維特征空間.然而一些傳統(tǒng)的降維方法(PCA、LDA等)無法保留各個(gè)波段的物理特性,因此有人將波段選擇作為另一種降維方法[6].隨后的研究發(fā)現(xiàn)結(jié)合空間信息和光譜信息的特征有助于提升高光譜圖像的分類精度[7,8].例如Benediktsson[9]等人基于形態(tài)學(xué)的操作,也有Li[10]等人提取gabor特征,以及Wang[11]等人將紋理信息、形態(tài)學(xué)信息、光譜信息堆疊后進(jìn)行分類.合理的預(yù)處理和后處理也在一定程度上提高了高光譜圖像的分類準(zhǔn)確率.例如Kang[12]等人先使用保邊去噪預(yù)處理后再分類.Li[13]等人用Sobel邊緣檢測算法處理圖像形成一張權(quán)重圖,既可以用于圖像保邊去噪也能優(yōu)化分類后的概率表.Kang[14]等人基于鄰接像素的連接強(qiáng)度作為一種后處理方法來優(yōu)化初始分類得到的概率表.
近幾年深度學(xué)習(xí)作為一種可以提取不同層次特征的工具受到了越來越多的關(guān)注,并且已經(jīng)在圖像處理、自然語言、語音等方面取得了重大進(jìn)展,現(xiàn)在也被逐漸運(yùn)用到高光譜圖像的分類和分割.Chen[15]、Zhou[16]等人先是使用主成分分析(PCA)將光譜特征降維,取像素一定鄰域形成的圖像塊,將其展成一維向量,然后和原始圖像的光譜信息串聯(lián)成新的一維向量作為輸入,然后使用棧式自編碼網(wǎng)絡(luò)(SAE)或是深度置信網(wǎng)絡(luò)(DBN)來對像素進(jìn)行分類.雖然他們考慮了空間上的鄰接像素(一定鄰域的像素同屬一類的概率很大),但是將其展成一維后破壞了它原有的空間結(jié)構(gòu).后來Chen[17]等人提出了使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)來改善上述問題,它允許數(shù)據(jù)以二維或者三維的形式作為輸入,實(shí)驗(yàn)也證明CNN對高光譜圖像的分類準(zhǔn)確率明顯高于SAE和DBN.Cao[18]等人基于貝葉斯理論,將CNN分類結(jié)果當(dāng)作似然概率,超像素分割方法提供先驗(yàn),最后得到分類結(jié)果.Zhao[5]等人延續(xù)了上面所提的像素鄰域的圖像塊思想,并且提出了基于局部鑒別嵌入算法(LDE)改進(jìn)的降維算法BLDE,隨后將降維后的光譜特征和CNN提取的特征拼接,最后使用支持向量機(jī)和邏輯回歸兩種分類器進(jìn)行分類.
原始圖像因?yàn)楂@取過程中受諸多因素的干擾,或多或少存在噪聲,而且標(biāo)注樣本的獲取代價(jià)昂貴,所以如何在盡可能少的訓(xùn)練樣本前提下,合理地結(jié)合預(yù)處理提取和結(jié)合多種不同的深度學(xué)習(xí)的高光譜特征是一個(gè)值得探索的方向.因此本文先使用保邊松弛算法[13]對高光譜圖像每個(gè)波段對應(yīng)的灰度圖進(jìn)行保邊去噪處理,然后將像素的光譜信息(此時(shí)已經(jīng)包含空間信息)作為卷積神經(jīng)網(wǎng)絡(luò)的輸入用來提取一種光譜-空間特征.隨后對高光譜圖像的光譜維度進(jìn)行降維,取像素點(diǎn)一定大小鄰域形成的圖像塊(跟中心點(diǎn)像素同類別)作為另一個(gè)卷積神經(jīng)網(wǎng)絡(luò)的輸入用來提取第二種光譜-空間特征(對于提取圖像邊緣的像素點(diǎn)的圖像塊,事先已對邊界做了零元素填充),最后將兩個(gè)特征串行拼接后使用支持向量機(jī)分類.此次本文提出的分類模型:1)使用的模型簡單,參數(shù)少,所以只需要很少的訓(xùn)練樣本;2)多特征相比單特征在分類精度上有更大的提升;3)基于改良后的保邊松弛算法算法用于圖像預(yù)處理,在本文分類框架下取得了很高的分類精度.
本文提出的結(jié)合兩種光譜-空間特征的分類框架TFCNN(Two spectral-spatial Features concatenation based on CNN)如圖1所示.因?yàn)樵紙D像在獲取過程受諸多因素的干擾,例如大氣層、光照變化等,存在噪聲,所以首先使用Li[13]提出的算法對圖像進(jìn)行保邊去噪處理,在這里本文對該算法做了一些改良,以提高在本文提出模型下的分類精度.然后基于它的光譜維提取第一種光譜-空間特征,因?yàn)楣庾V高維的特點(diǎn),為了避免計(jì)算復(fù)雜度,隨后對圖像的光譜維PCA降維(保留主要信息),取像素的一定大小鄰域組成的圖像塊來代表中心像素,基于圖像塊提取第二種光譜-空間特征.最后串行拼接兩種特征作為分類器的輸入進(jìn)行分類.
圖1 TFCNN分類系統(tǒng)框架Fig.1 TFCNN classification system framework
市場容量的大小,是企業(yè)擴(kuò)充的根本決定因素,企業(yè)首先應(yīng)該考慮的方式是高效率或低成本擴(kuò)張。如果企業(yè)缺乏高效率的工業(yè)基礎(chǔ),盲目擴(kuò)張,即使產(chǎn)量再大,也不一定成為贏家。一旦市場價(jià)格下滑的速度高于企業(yè)成本的降低速度,企業(yè)就可能陷入被市場淘汰的僵局。
如圖3(a)和圖3(b)所示,分別為本文提出的兩種提取光譜-空間特征的卷積神經(jīng)網(wǎng)絡(luò)框架.其中對于pixel-CNN我們把每個(gè)像素樣本當(dāng)成一個(gè)高度為波段數(shù),寬度為1的二維圖像[23],網(wǎng)絡(luò)有一個(gè)卷積層(16個(gè)特征表,卷積核為10×1)、一個(gè)池化層(池化大小2×2)以及兩個(gè)全連接層(神經(jīng)元數(shù)分別為50、像素類別數(shù)),而Block-CNN網(wǎng)絡(luò)有一個(gè)卷積層(16個(gè)特征表,卷積核為4×4)、一個(gè)池化層(池化大小2×2)以及兩個(gè)全連接層(神經(jīng)元數(shù)分別為100、像素類別數(shù)).本文實(shí)驗(yàn)在兩個(gè)模型的卷積層和全連接層后均添加了Dropout層,以防止過擬合的發(fā)生.
(1)
其中p=[p1,…,pn]∈RK×n,pi=[pi(1),…,pi(K)],K表示的是原始圖像p的波段數(shù),n表示像素個(gè)數(shù),u表示為優(yōu)化后的圖像,維度跟原圖一致.λ為權(quán)衡因子,用來控制目標(biāo)函數(shù)對兩項(xiàng)的懲罰力度.?i表示第i個(gè)像素的八鄰域,εj表示的是邊緣權(quán)重圖ε中第i個(gè)像素的八鄰域?qū)?yīng)的邊緣權(quán)重,ε如式(2)所示:
2.4 年齡對圍產(chǎn)兒死亡發(fā)生影響 圍產(chǎn)兒死亡的發(fā)生率,在經(jīng)產(chǎn)婦中隨年齡組的增高而增高, RR值更高。見表5。
(2)
1.1.4 心肌穿孔 心肌穿孔的發(fā)生率<1%,主要發(fā)生在右心室。心肌穿孔引起的心包填塞則是十分兇險(xiǎn)的并發(fā)癥,也是永久起搏器植入術(shù)后最嚴(yán)重并發(fā)癥。
(3)
優(yōu)化后的圖像如圖2(b)所示,雖然圖像的邊緣模糊程度更大了一點(diǎn),但它基本保持了原圖像的邊緣形狀,本文后續(xù)實(shí)驗(yàn)也將證實(shí)基于新的ε優(yōu)化后的圖像能夠更大程度上的提高分類精度.接下來本文用PR*來表示基于εreplace的保邊松弛算法.
在實(shí)驗(yàn)室資源得到合理應(yīng)用的同時(shí),更要及時(shí)的處理實(shí)驗(yàn)室使用過程中存在的問題。民辦高校要建立健全實(shí)驗(yàn)室的規(guī)章制度和維護(hù)措施,很多學(xué)校為了減少經(jīng)費(fèi),并沒有聘請專門的實(shí)驗(yàn)室管理人才,而是由教師替代負(fù)責(zé)實(shí)驗(yàn)室的管理工作。要培養(yǎng)這部分教師對實(shí)驗(yàn)設(shè)備的管理和維護(hù)技能,使實(shí)驗(yàn)設(shè)備能夠得到有效的維護(hù)和保養(yǎng)。
圖2 Indian Pines的第24個(gè)波段對應(yīng)的灰度圖Fig.2 The 24th band′s grayscale image in Indian Pines
本文使用了兩個(gè)高光譜數(shù)據(jù)集1來檢驗(yàn)所提出的模型的分類能力.
傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)每層的每個(gè)神經(jīng)元跟下一層的所有神經(jīng)元相連,神經(jīng)元之間的權(quán)重各不相同,CNN則不同于一般結(jié)構(gòu):1)局部相連2)權(quán)重共享.卷積層的每個(gè)神經(jīng)元的值是由輸入的局部神經(jīng)元的加權(quán)和加偏置項(xiàng)得來的,其中權(quán)值w是共享的,然后通過一個(gè)非線性激活函數(shù)后的值作為下一層的輸入,因?yàn)楝F(xiàn)實(shí)的數(shù)據(jù)大多數(shù)都是非線性的,因此神經(jīng)網(wǎng)絡(luò)利用非線性映射去逼近數(shù)據(jù)的真實(shí)分布,人們經(jīng)常使用的激活函數(shù)包括sigmoid、Relu、maxout等[20,21],其中Relu因收斂快、計(jì)算梯度簡單而被廣泛使用,而本文則使用的是由He[22]等人提出的激活函數(shù)PRelu(α為可學(xué)習(xí)的向量,確保小于0的部分梯度不為0),函數(shù)公式如下:
如圖5所示,基于PR*相比PR優(yōu)化后的圖像在Pixel-CNN模型上的分類結(jié)果具有顯著的提升(設(shè)置了迭代30次以內(nèi)損失不再下降則停止迭代).因?yàn)樵糚R算法優(yōu)化圖片后邊緣呈鋸齒狀,使得邊界兩邊出現(xiàn)交叉重疊,容易在分類時(shí)錯(cuò)分邊界附近的像素點(diǎn),所以如圖6(b)所示,使用Pixel-CNN模型進(jìn)行分類時(shí)大多數(shù)分類錯(cuò)誤均發(fā)生在邊界,而PR*優(yōu)化后的圖像如圖6(c)所示,邊緣分類結(jié)果顯得更加規(guī)整.
(4)
Li[13]等人提出的保邊松弛(PR)算法對高光譜圖像進(jìn)行平滑去噪的時(shí)候同時(shí)考慮了一定鄰域的關(guān)系,因此也起到了保留邊緣的作用,優(yōu)化公式如下所示:
圖3 卷積神經(jīng)網(wǎng)絡(luò)模型.Fig.3 CNN models(a)Pixel-CNN.(b)Block-CNN
目前已有人將CNN運(yùn)用到高光譜圖像分類任務(wù)當(dāng)中[23],但該作者直接根據(jù)圖像的光譜信息進(jìn)行分類而并未考慮空間信息,而且原始圖像的每個(gè)波段或多或少存在噪聲,因此分類效果并不是很理想.本文用Pixel-CNN提取特征前先對圖像進(jìn)行了保邊去噪處理,此時(shí)的光譜維既包含光譜信息也包含了空間信息,但因?yàn)閷D像去噪預(yù)處理的時(shí)候只考慮八個(gè)鄰接像素,包含的的空間信息有限,所以本文接著探索像素的另一種光譜-空間特征,首先對去噪后的圖像的光譜維使用PCA降維(保留主要信息的同時(shí)減少計(jì)算量),取樣本像素的一定大小鄰域形成的圖像塊作為該像素的另一種表示[15-17],因?yàn)橐曈X上我們單單判斷一個(gè)像素點(diǎn)的類別是很困難的,但是取以它為中心一定鄰域大小形成的圖像塊再來判斷,那么可以根據(jù)其他一些空間結(jié)構(gòu)作為輔助信息,如形狀、顏色等,判斷出它在圖像所屬類別.所以基于這個(gè)思想,本文提出了第二個(gè)CNN模型(Block-CNN).最后將提取出來的兩種特征串行拼接后使用svm進(jìn)行分類.
其中Xl表示高光譜圖像第l個(gè)波段對應(yīng)的灰度圖.但本文發(fā)現(xiàn)根據(jù)作者提出的ε優(yōu)化后的圖像如圖2(a)所示,去噪的同時(shí)沒有很好的保護(hù)邊緣,邊緣出現(xiàn)許多鋸齒,影響了逐像素分類精度,因此本文重新定義ε如下式所示:
卷積神經(jīng)網(wǎng)絡(luò)[19]是一種特殊的前饋神經(jīng)網(wǎng)絡(luò),它是由卷積層、池化層、全連接層組成,其中卷積層模仿人類視覺皮層神經(jīng)元的性質(zhì),不用感知圖像所有區(qū)域,只需感知局部,通常使用例如3×3的卷積核對圖像進(jìn)行卷積操作,旨在利用可學(xué)習(xí)的濾波器來提取輸入的局部特征,這不僅符合現(xiàn)實(shí)而且還能減少不必要的計(jì)算.池化層采樣類型有最大池化、平均池化、總和池化等,例如最大池化常使用2×2的窗口在圖像上滑動(dòng),并提取窗口內(nèi)值最大的元素,它一般位于卷積層之后,它的作用主要是降低輸入的空間分辨率,而不丟失主要信息(實(shí)現(xiàn)了圖像的平移、旋轉(zhuǎn)不變性),也節(jié)省了計(jì)算開銷.全連接層接在網(wǎng)絡(luò)的最后,通常理解為將前面卷積和池化層提取出來的局部特征圖進(jìn)行線性組合而形成全局特征,最后結(jié)合softmax進(jìn)行分類,然后根據(jù)分類損失進(jìn)行反向傳播來更新參數(shù),如此反復(fù)直到損失不再下降.
第一個(gè)數(shù)據(jù)集為Indian pines是使用機(jī)載可見光/紅外成像光譜儀(AVIRIS)在美國印第安西北部采集得到的.圖像具有145×145像素以及224個(gè)光譜波段,波長范圍0.4~2.5μm,去除了覆蓋區(qū)域水吸收的影響的24個(gè)波段,最后實(shí)驗(yàn)所使用的實(shí)際圖像大小為145×145×200,它包含了16個(gè)地物類別.
第二個(gè)數(shù)據(jù)集Pavia University是使用反射式成像光譜儀(ROSIS)在意大利西北部的帕維亞采集而來,圖像具有610×610像素以及103個(gè)光譜波段,去除圖像的一些無用像素,最后實(shí)驗(yàn)使用的實(shí)際圖像大小為610×340×103,它包含了9個(gè)地物類別.
圖4 高光譜圖像的偽彩色圖像以及地面實(shí)況Fig.4 False color images and ground-truth maps for data sets
針對數(shù)據(jù)集樣本劃分,為了檢驗(yàn)?zāi)P椭桓鶕?jù)少量樣本訓(xùn)練出的分類能力,本文只用已標(biāo)注的Indian Pines的5%,Pavia University的2%的樣本進(jìn)行訓(xùn)練,剩余作測試.
(2)薄壁空心高墩結(jié)構(gòu)無論是懸臂狀態(tài)還是墩頂受支撐約束狀態(tài),在日照作用下都會產(chǎn)生較大的溫差應(yīng)力,而且墩頂都會產(chǎn)生位移變形,尤其是懸臂狀態(tài)下,墩頂位移達(dá)到1.253 4 cm,必須引起足夠的重視。
1數(shù)據(jù)集下載與類別樣本數(shù)詳情:http://www.ehu.eus/ccwintco/index.php?title=Hyperspectral_Remote_Sensing_Scenes
圖5 使用Pixel-CNN單模型對Indian Pines數(shù)據(jù)集分類的迭代過程Fig.5 Iterative process about Pixel-CNN model being used for classifying the dataset of Indian Pines
圖6 使用Pixel-CNN單模型對Indian Pines數(shù)據(jù)集分類的結(jié)果.Fig.6 Pixel-CNN model is used for classifying the dataset of Indian Pines
經(jīng)Design-Expert 8.0.6軟件分析優(yōu)化,可得到羊肚菌SDF最佳提取工藝參數(shù)為料液比1∶20.12 (g/mL)、 堿液濃度0.75%、提取溫度62.79 ℃、提取時(shí)間60 min。在此最佳工藝提取條件下,SDF理論得率為 34.62%??紤]到試驗(yàn)可操作性,將制備的最優(yōu)條件定為料液比1∶20(g/mL)、提取液濃度0.75%、提取溫度63 ℃、提取時(shí)間 60 min。在此制備條件下進(jìn)行3組平行驗(yàn)證試驗(yàn),得到羊肚菌SDF的平均值為33.06%,與模型得出的羊肚菌SDF理論值比較接近,說明數(shù)學(xué)模型對優(yōu)化羊肚菌SDF的提取工藝是可行的。
圖7 不同圖像大小和主成分?jǐn)?shù)對Block-CNN單模型分類精度的影響Fig.7 Classification accuracy is influenced by different size of image block and principal component
影響B(tài)lock-CNN模型分類準(zhǔn)確率有兩大主要參數(shù):塊大小和主成分個(gè)數(shù).如圖7所示,本文探索了不同的圖像塊的大小以及主成分個(gè)數(shù)對該模型分類精度的影響.最終實(shí)驗(yàn)對于Indian Pines數(shù)據(jù)集取的塊大小為63×63,主成分?jǐn)?shù)為9;Pavia University數(shù)據(jù)集取的塊大小為33×33,主成分?jǐn)?shù)為10.
以下實(shí)驗(yàn)如未特別說明的話均是基于PR*預(yù)處理后得出的結(jié)果.
圖8 Indian Pines分類結(jié)果圖Fig.8 Classification result of Indian Pines
圖8和圖9顯示了不同的特征提取方法結(jié)合分類器對兩個(gè)數(shù)據(jù)集的分類結(jié)果對比.其中PCA-linear-svm和PCA-rbf-svm也采用了特征拼接的方法,先用PCA對兩種光譜-空間特征降維后再串聯(lián),最后分別使用線性SVM和基于高斯核的SVM進(jìn)行分類(實(shí)驗(yàn)中支持向量機(jī)涉及的參數(shù)包括懲罰系數(shù)C和核系數(shù)g,由于Indian Pines有部分類別訓(xùn)練樣本數(shù)少,無法實(shí)現(xiàn)K倍交叉驗(yàn)證,所以最終的參數(shù)設(shè)定是人為的嘗試了一些數(shù)值后確定的,而Pavia University實(shí)驗(yàn)使用的參數(shù)則由10倍交叉驗(yàn)證得到).實(shí)驗(yàn)數(shù)據(jù)顯示無論是本文提出的單模型Pixel-CNN或是Block-CNN均要優(yōu)于傳統(tǒng)的svm分類方法,而多特征結(jié)合后的分類效果又在單模型的基礎(chǔ)上提升了不少.本文還同時(shí)對比了對原始圖像預(yù)處理的三種不同情況(未預(yù)處理、PR預(yù)處理、PR*預(yù)處理)下的分類結(jié)果,本文提出的PR*+TFCNN分類效果要優(yōu)于前兩種.
5月,中國水務(wù)公司積極推動(dòng)旗下上市公司錢江水利開展了非公開發(fā)行募投項(xiàng)目。錢江水利自2000年首發(fā)上市后,主要通過銀行貸款、發(fā)行債券等債務(wù)工具籌集發(fā)展所需資金。正處于發(fā)展關(guān)鍵階段的錢江水利,資本支出規(guī)模較大,依靠自有資金積累及銀行貸款難以完全滿足項(xiàng)目資金需求。而通過非公開發(fā)行,可以拓寬融資渠道,募集資金滿足項(xiàng)目建設(shè)需要,為公司實(shí)現(xiàn)跨越發(fā)展提供有力保障。募投項(xiàng)目投產(chǎn)后,公司的供水規(guī)模將顯著擴(kuò)大,核心競爭力將迅速提升。
圖9 Pavia University分類結(jié)果圖Fig.9 Classification result of Pavia University
為了與目前深度學(xué)習(xí)在高光譜分類領(lǐng)域已經(jīng)取得較高分類精度的算法進(jìn)行對比,本文使用了與作者相關(guān)論文同數(shù)量的訓(xùn)練/測試樣本進(jìn)行實(shí)驗(yàn),其中與本文做對比的算法的分類結(jié)果也均由其相關(guān)論文提供,如表1所示.
由Cao[18]等人提出的SLIC-CNN將深度學(xué)習(xí)與超像素分割相結(jié)合,使用CNN對光譜維分類得到初始概率表作為似然概率,隨后的簡單線性迭代聚類(SLIC)提供局部先驗(yàn)概率,空間鄰接像素的聚類使得先驗(yàn)具有了空間信息,最后由貝葉斯公式得到每個(gè)像素點(diǎn)的最大后驗(yàn)概率作為最終的分類結(jié)果,然而由于超像素尺寸的原因,無法做到很好的邊緣保持,這會影響到先驗(yàn)的大小,而且只根據(jù)光譜特征得出的初始分類精度太低,使得影響了接下來優(yōu)化效果,所以可以從表5中看出等數(shù)量的訓(xùn)練樣本的前提下,本文提出的分類方法在OA、AA、Kappa上的精度均高于SLIC-CNN許多;Chen[17]等人提出的3D-CNN保留了圖像光譜高維特征,使用三維卷積提取圖像塊的光譜-空間特征,并且用已有的訓(xùn)練樣本通過線性組合來創(chuàng)造虛擬樣本,加上原有的樣本一起用于訓(xùn)練,這在一定程度上提升了分類精度,但也只是考慮單一的光譜-空間特征,并且網(wǎng)絡(luò)結(jié)構(gòu)更加復(fù)雜增加了計(jì)算開銷.而本文在模型更加簡單以及未添加任何輔助訓(xùn)練樣本的前提下在Indian Pines數(shù)據(jù)集的OA、Kappa分類精度上相比3D-CNN高出一個(gè)百分點(diǎn)左右, 在Pavia University的數(shù)據(jù)集上OA、Kappa也高出0.2個(gè)百分點(diǎn)左右;Zhao[5]等人提出的光譜-空間特征分類(SSFC)方法中并未過多的探索不同圖像塊大小以及成分?jǐn)?shù)對結(jié)果的影響,而且由于圖像噪聲的存在,光譜降維后的特征分辨能力不足,所以最終實(shí)驗(yàn)結(jié)果看到,本文在Pavia University數(shù)據(jù)體整體分類精度上高出1個(gè)百分點(diǎn)左右.
我這次來山里,是想勸父親跟我回去。兩年前,我因車禍,右胳膊落下殘疾,這對以繪畫為生的我來說,簡直是致命的打擊。幸好,在最痛苦的時(shí)候,是父親一直鼓勵(lì)著我,安慰著我,我才漸漸走出傷痛,生活又恢復(fù)平靜。
表1 不同分類方法的分類精度對比
Table 1 Datasets are classified in different methods
Dataset分類方法整體分類精度(OA)平均分類精度(AA)卡帕系數(shù)(Kappa)IndianPinesSLIC?CNNPR?+TFCNN94.11%86.97%96.85%98.38%96.15%98.15%3D?CNNPR?+TFCNN98.53%99.50%98.20%99.54%99.20%99.48%PaviaUniversitySLIC?CNNPR?+TFCNN3D?CNNPR?+TFCNNSSFCPR?+TFCNN96.77%99.61%99.66%99.82%96.98%98.16%92.88%98.98%99.77%99.55%95.71%99.49%99.56%99.76%
針對高光譜圖像的分類,本文提出了PR*+TFCNN分類方法.因?yàn)檫b感數(shù)據(jù)的獲取過程受諸多因素的干擾如天氣、光照等影響,或多或少的存在噪聲,所以預(yù)先對圖像去噪處理防止影響分類結(jié)果.隨后本文探索了兩種不同程度上的光譜-空間特征,其中Pixel-CNN主要提取光譜信息(以光譜維作為輸入),因?yàn)橹叭ピ肟紤]了像素的八鄰域,所以包含了局部的空間信息;Block-CNN以圖像塊作為輸入,主要提取空間信息,根據(jù)像素點(diǎn)周邊更大的局部空間結(jié)構(gòu)來分辨像素點(diǎn)所屬類別,例如房屋呈現(xiàn)一排一排的結(jié)構(gòu)、公路呈現(xiàn)線條狀;然后將這兩種不同的空間波譜特征拼接,彌補(bǔ)兩種CNN特征都存在的部分目標(biāo)辨識缺陷,提高了組合特征的魯棒性,最后使用支持向量機(jī)對拼接后的特征進(jìn)行分類.本文提出的特征提取和融合思想因?yàn)槟P拖鄬唵?參數(shù)少,避免過擬合,使之能夠在少量訓(xùn)練樣本的條件下也能取得較好的分類準(zhǔn)確率.
[1] Melgani F,Bruzzone L.Classification of hyperspectral remote sensing images with support vector machines[J].IEEE Transactions on Geoscience and Remote Sensing,2004,42(8):1778-1790.
[2] Hughes G.On the mean accuracy of statistical pattern recognizers[J].IEEE Transactions on Information Theory,1968,14(1):55-63.
[3] Bandos T V,Bruzzone L,Camps-Valls G.Classification of hyperspectral images with regularized linear discriminant analysis[J].IEEE Transactions on Geoscience and Remote Sensing,2009,47(3):862-873.
[4] Villa A,Benediktsson J A,Chanussot J,et al.Hyperspectral image classification with independent component discriminant analysis[J].IEEE Transactions on Geoscience and Remote Sensing,2011,49(12):4865-4876.
[5] Zhao W,Du S.Spectral-spatial feature extraction for hyperspectral image classification:a dimension reduction and deep learning approach[J].IEEE Transactions on Geoscience and Remote Sensing,2016,54(8):4544-4554.
[6] Mausel P W,Kramber W J,Lee J K.Optimum band selection for supervised classification of multispectral data[J].Photogrammetric Engineering and Remote Sensing,1990,56(1):55-60.
[7] Du Pei-jun,Xia Jun-shi,Xue Chao-hui,et al.Review of hyperspectral remote sensing image classification[J].Journal of Remote Sensing,2016,20(2):236-256.
[8] Fauvel M,Tarabalka Y,Benediktsson J A,et al.Advances in spectral-spatial classification of hyperspectral images[J].Proceedings of the IEEE,2013,101(3):652-675.
[9] Benediktsson J A,Palmason J A,Sveinsson J R.Classification of hyperspectral data from urban areas based on extended morphological profiles[J].IEEE Transactions on Geoscience and Remote Sensing,2005,43(3):480-491.
[10] Li W,Du Q.Gabor-filtering-based nearest regularized subspace for hyperspectral image classification[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2014,7(4):1012-1022.
[11] Wang Zeng-mao,Du Bo,Zhang Liang-pei,et al.Based on texture feature and extend morphological profile fusion for hyperspectral image classification[J].Acta Photonica Sinica,2014,43(8):116-123.
[12] Kang X,Li S,Benediktsson J A.Spectral-spatial hyperspectral image classification with edge-preserving filtering[J].IEEE Transactions on Geoscience and Remote Sensing,2014,52(5):2666-2677.
[13] Li J,Khodadadzadeh M,Plaza A,et al.A discontinuity preserving relaxation scheme for spectral-spatial hyperspectral image classification[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2016,9(2):625-639.
[14] Kang X,Li S,Fang L,et al.Extended random walker-based classification of hyperspectral images[J].IEEE Transactions on Geoscience and Remote Sensing,2015,53(1):144-153.
[15] Chen Y,Lin Z,Zhao X,et al.Deep learning-based classification of hyperspectral data[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2014,7(6):2094-2107.
[16] Lin Z,Chen Y,Zhao X,et al.Spectral-spatial classification of hyperspectral image using autoencoders[C].Proceedings of 9th International Conference on Communications and Signal Processing(ICICS),2013:1-5.
[17] Chen Y,Jiang H,Li C,et al.Deep feature extraction and classification of hyperspectral images based on convolutional neural networks[J].IEEE Transactions on Geoscience and Remote Sensing,2016,54(10):6232-6251.
[18] Cao J,Chen Z,Wang B.Deep Convolutional networks with superpixel segmentation for hyperspectral image classification[C].Proceedings of Geoscience and Remote Sensing Symposium(IGARSS),2016:3310-3313.
[19] LeCun Y,Bottou L,Bengio Y,et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.
[20] Goodfellow I J,Warde-Farley D,Mirza M,et al.Maxout networks[J].Computer Science,2013,28(3):1319-1327.
[21] Krizhevsky A,Sutskever I,Hinton G E.Imagenet classification with deep convolutional neural networks[C].Advances in Neural Information Processing Systems,2012:1097-1105.
[22] He K,Zhang X,Ren S,et al.Delving deep into rectifiers:Surpassing human-level performance on imagenet classification[C].Proceedings of the IEEE International Conference on Computer Vision,2015:1026-1034.
[23] Hu W,Huang Y,Wei L,et al.Deep convolutional neural networks for hyperspectral image classification[J].Journal of Sensors,2015,2015(2):1-12.
附中文參考文獻(xiàn):
[7] 杜培軍,夏俊士,薛朝輝,等.高光譜遙感影像分類研究進(jìn)展[J].遙感學(xué)報(bào),2016,20(2):236-256.
[11] 王增茂,杜 博,張良培,等.基于紋理特征和形態(tài)學(xué)特征融合的高光譜影像分類法[J].光子學(xué)報(bào),2014,43(8):116-123.