摘 "要:針對傳統(tǒng)卷積受限固有的網(wǎng)絡(luò)結(jié)構(gòu),缺乏建立遠(yuǎn)程依賴關(guān)系的能力和分類精度較差等問題,提出一種基于自高斯與通道注意力的重塑卷積高光譜圖像分類算法(RC-LSGA)模型。RC-LSGA模型首先采用卷積層提取淺層空間信息的特征,再使用通道注意力機制增強光譜特征,然后通過LSGA Transformer模塊和重塑卷積分支對全局-局部特征信息進(jìn)行提取,最后將獲得的特征輸入分類器實現(xiàn)分類。RC-LSGA模型能夠有效區(qū)分不同波段信息,對PU、SA和LK數(shù)據(jù)集中類別識別的平均準(zhǔn)確率分別達(dá)到98.20%、99.33%和99.46%。實驗結(jié)果表明,在訓(xùn)練樣本數(shù)量有限的情況下,RC-LSGA模型性能優(yōu)異,在分類任務(wù)中實用價值較高。
關(guān)鍵詞:高光譜圖像分類;通道注意力;LSGA"Transformer模塊;重塑卷積
中圖分類號:TP391 """"""""""""""""文獻(xiàn)標(biāo)志碼:A """""""""""""文章編號:1008-0562(2024)06-0742-10
Hyperspectral image classification method based on"reshaped convolutional channel attention with light self-Gaussian attention
TAN Yunfei, LI Ming*, LUO Yonghang,"WEN Guihao,"SHI Chaoshan
(College of Computer and Information Science, Chongqing Normal University, Chongqing"401331, China)
Abstract:"Aiming at the problems of traditional convolution limited inherent network structure, lack of ability to establish remote dependencies and poor classification accuracy, a reshaped convolution hyperspectral image classification algorithm "model based on self-Gaussian and channel attention"(RC-LSGA) is proposed. The RC-LSGA model first uses the convolutional layer to extract the features of shallow spatial information, and then uses the channel attention mechanism to enhance the spectral features. Then, the global-local feature information is extracted by the LSGA Transformer module and the reshaping convolution branch. Finally, the obtained features are input into the classifier to achieve classification. The RC-LSGA model can effectively distinguish different band information, and the average accuracy of category recognition in PU, SA"and LK datasets is 98.20%, 99.33% and 99.46% respectively. The experimental results show that the RC-LSGA model has excellent performance and high practical value in classification tasks when the number of training samples is limited.
Key"words:"hyperspectral image classification; channel attention; LSGA"Transformer"module; reshaped convolutional
0""引言
高光譜圖像(hyperspectral image,HSI)含有大量有價值的空間信息和光譜信息,因此在遙感測量[1]、農(nóng)業(yè)檢測[2]、城市安全監(jiān)控[3]、軍事國防[4]等領(lǐng)域得到廣泛應(yīng)用。為充分挖掘HSI數(shù)據(jù)在圖像去噪[5]、光譜解混[6]、異常檢測[7]、地物分類[8]等方面的潛力,學(xué)者們采用不同方法捕獲數(shù)據(jù)特征。HSI數(shù)據(jù)規(guī)模龐大、維度高且信息冗余,增加了圖像解析的難度,因此如何準(zhǔn)確提取和有效利用空間光譜信息來進(jìn)行分類是當(dāng)前研究的一個主要挑戰(zhàn)[9-10]。
早期的HSI分類方法有支持向量機(SVM)[11]、基于協(xié)作表示的分類器(CRC)[12]和主成分分析(PCA)[13]等。這些方法在分類性能中表現(xiàn)良好,但在處理高維度非線性特征方面存在局限性。隨著深度學(xué)習(xí)在視覺任務(wù)中不斷發(fā)展,學(xué)者們將神經(jīng)網(wǎng)絡(luò)擴展到HSI分類領(lǐng)域。LIU等[14]設(shè)計了淺層卷積神經(jīng)網(wǎng)絡(luò),但該方法只關(guān)注了光譜的相關(guān)性,忽略了空間信息,導(dǎo)致性能不佳。隨著網(wǎng)絡(luò)深度增加和模型復(fù)雜度變大,運行效率受到影響。ROY等[15]使用2D-3D混合卷積神經(jīng)網(wǎng)絡(luò)降低模型復(fù)雜度,提升分類精度。SONG等[16]通過加深2DCNN,在卷積層之間引入殘差學(xué)習(xí),緩解梯度消失和爆炸的問題,由此提出深度特征融合網(wǎng)絡(luò)(DFFN)。為充分重用前幾層的特征信息,PAOLETTI等[17]使用密集連接卷積網(wǎng)絡(luò),ZHONG等[18]建立3D空譜殘差網(wǎng)絡(luò)(SSRN),WANG等[19]提出基于密集連接模塊的快速密集連接空譜卷積網(wǎng)絡(luò)(FDSSC)。然而,受卷積核尺寸的影響,較深層的網(wǎng)絡(luò)會出現(xiàn)捕捉非局部區(qū)域長程交互信息效率低的問題。
注意力機制被設(shè)計成關(guān)注信息相關(guān)區(qū)域,減少對非必要區(qū)域的關(guān)注,在Transformer架構(gòu)中引入了自注意力機制,并應(yīng)用在計算機視覺領(lǐng)域,取得較好效果。QING等[20]提出一種端到端的Transformer網(wǎng)絡(luò),通過光譜注意力機制和自注意力機制提取光譜和空間特征。HONG等[21]提出頻譜轉(zhuǎn)換器網(wǎng)絡(luò)(SF),該網(wǎng)絡(luò)通過Transformer從HSI的相鄰波段中學(xué)習(xí)每個波段的局部序列信息,但在捕捉全局信息方面仍有提升的空間。MA等[22]提出雙分支多注意力機制網(wǎng)絡(luò)(DBMA),但將注意力機制置于網(wǎng)絡(luò)的后端,且在初始階段不發(fā)生作用。LI等[23]提出結(jié)合光譜注意力機制和空間注意力機制的雙分支雙注意力網(wǎng)絡(luò)(DBDA),但該方法在計算過程中存在參數(shù)量過大的問題。SUN等[24]提出的光譜空間特征標(biāo)記的Transformer網(wǎng)絡(luò)(SSFTT)在一定程度上提升了分類精度,但總體性能仍不理想,主要原因是Transformer在提取局部和全局信息方面存在局限性。ZHU等[25]提出一種帶有光譜注意力和空間注意力的殘差光譜-空間注意網(wǎng)絡(luò)(RSSAN),該方法能更好地關(guān)注豐富的光譜波段和空間位置。MA等[26]提出一種自高斯注意力的網(wǎng)絡(luò),采用高斯絕對位置偏差模擬HSI數(shù)據(jù)分布,能夠顯著提升全局特征信息的獲取效果,但存在局部信息缺失的情況。雖然以上方法在引入注意力機制后性能增強,但在捕捉空間和光譜之間的長程依賴關(guān)系方面,仍未能達(dá)到最優(yōu)效果。
針對上述問題,筆者提出一種基于自高斯與通道注意力的重塑卷積高光譜圖像分類算法 (reshaped convolutional"channel attention with light self-Gaussian attention,RC-LSGA)模型。RC-LSGA模型首先通過卷積層獲取局部特征關(guān)系,然后引入通道注意力機制,更好地保留圖像塊完整性,最后將得到的特征傳入兩個分支。一個分支將LSGA與Transformer結(jié)合建模,通過感知位置的方式建模遠(yuǎn)程關(guān)系,實現(xiàn)全局特征提取;另一分支引入重塑卷積分支,高效利用局部特征信息。這種全局和局部結(jié)合的方式,提高了高光譜圖像特征的表達(dá)性,使整體分類精度表現(xiàn)優(yōu)異。
1 "RC-LSGA模型整體框架
RC-LSGA模型框架見圖1。首先,通過主成分分析對HSI數(shù)據(jù)降維,再將圖像塊輸入混合譜空特征提取器提取淺層特征信息。然后,使用通道注意力增強光譜特征信息的表達(dá),再將特征信息傳入LSGA Transformer和重塑卷積分支中,實現(xiàn)深層特征提取。最后,融合提取的特征,并經(jīng)由線性分類器分類。
RC-LSGA程序如下。
Input:"The HSI dataset X0∈RH×W×S.
1: Obtain XPCA∈RH×W×S"by performing PCA to reduce the dimensionality of the original HSI.
2: Divide"XPCA"into blocks, obtain n"samples, each samples size is X1∈Rh×w×s.
3: for"=1 to
"do
4:""Use the hybrid spectral-spatial feature extractor to extract shallow local features"A.
5: "Enhance the spectral feature representation of"A"using channel attention to obtain"E.
6:""""for"=1 to
"do
7:""""""Feature"Zlsga"with local and global information is generated by the LSGA transformer.
8:""""""Feature Zr-conv"with the detailed feature information by the reshaped convolutional branch.
9:""""""Feature information Fusion"Zout=Zlsga+Zr-conv
10: ""end for
11:""Perform average pooling on the feature
U=AvgPooling(Zout).
12:""Perform linear classification on the feature
N=LinearClassifier(U).
13: end for
Output:"Predicted the labels of pixels via N.
2 "算法描述
2.1""混合譜空特征提取器
設(shè)輸入的高光譜數(shù)據(jù)為X0∈RH×W×S,其中H和W分別為HSI的高度和寬度,S為光譜帶數(shù)。通過PCA對原始數(shù)據(jù)進(jìn)行降維,既保留大部分關(guān)鍵信息,又減少參數(shù)數(shù)量和模型計算量。經(jīng)過PCA降維后,HSI可表示為XPCA∈RH×W×s,為PCA處理后的光譜帶數(shù)。然后將降維后的數(shù)據(jù),以中心像素為基準(zhǔn),逐像素取周邊鄰域像素構(gòu)成像素特征塊X1∈Rh×w×s,其類別Y=(y1,y2,…,yk)為中心像素對應(yīng)的標(biāo)簽,其中
為HSI類別數(shù)量。
混合譜空特征提取器先將X1重塑為X2∈Rs×h×w,再利用3D卷積層提取特征信息。第m卷積層第n個特征圖在像素位置(i,j,k)處的輸出值為
,(1)
式中:φ(·)為激活函數(shù);bm,n為偏置參數(shù);2λ+1,2μ+1和2η+1分別為卷積核的通道數(shù)、高度和寬度;為卷積核;
為輸入三維數(shù)據(jù)塊的數(shù)量,取1。
將輸出特征進(jìn)一步傳入到2D卷積層,第卷積層第
個特征圖在像素位置(i,j)處的輸出值為
。(2)
最后得到所有特征,輸出為A。
2.2 "通道注意力
為細(xì)化光譜特征,在卷積層后添加通道注意力,如圖2所示,圖中c'表示通道的個數(shù),h×w表示輸入的尺寸大小。
將A與AT矩陣相乘,經(jīng)過Softmax激活函數(shù)層獲得通道注意力特征圖。
第個通道對第
個通道的影響力可表示為
, (3)
式中,Ai、Aj分別為輸出特征A在通道和
通道上的特征值。
將XT與A矩陣相乘的結(jié)果變換為。通過尺寸參數(shù)
對結(jié)果進(jìn)行加權(quán)并添加輸入A,得到最終光譜注意力圖
,其中E是所有通道Ej的加權(quán)和。
。 (4)
通道注意力機制會削弱信息缺失通道,增加像素的權(quán)重,得到輸出大小為c'×h×w的特征圖。
2.3 "LSGA Transformer網(wǎng)絡(luò)
Transformer主要用于學(xué)習(xí)全局特征信息。原始的Transformer結(jié)構(gòu)見圖3(a),分別由兩個歸一化(LN)層,一個多層感知機(MLP)和多頭自注意力(MHSA)組成,其中MHSA是Transformer中最重要的部分,其結(jié)構(gòu)見圖3(b)。
引入多頭自注意力機制可以同時關(guān)注多個重點區(qū)域,提升模型效率,還可以為注意力層提供多個表示子空間,使模型有更大容量。原始注意力可表示為
,(5)
式中,Q、K和V分別為查詢矩陣、鍵矩陣和值矩陣。
Transform無法捕獲位置信息,因此在多頭自注意力機制中,對每個頭中引入相對位置偏差參數(shù),即
, (6)
式中,d為多頭注意力機制中每個頭的維度。
對于每個輸入HSI塊,中心像素光譜信息比周圍像素更關(guān)鍵。通常距離相近的像素更相似,因此使用二維高斯函數(shù)來表示HSI的空間關(guān)系為
,(7)
式中:為標(biāo)準(zhǔn)差;(x,y)為空間位置坐標(biāo);t為輸入HSI塊的大小。
將多頭注意力中的相對位置偏差用高斯絕對位置替代偏差,提升細(xì)節(jié)特征信息獲取能力,如圖3(c)所示,完整的LSGA"Transformer如圖3(d)所示,其表達(dá)式為
。 (8)
將LSGA的計算結(jié)果再傳入多層感知機進(jìn)行處理,整個LSGA Transformer處理的特征表示為Zlsga。
2.4 "重塑卷積分支
卷積神經(jīng)網(wǎng)絡(luò)具有強大的局部特征提取能力,因此為充分重用特征信息,使用二維卷積組來捕獲HSI的局部特征信息。卷積組主要包含3個二維卷積層,同時為使模型更快收斂,在每個卷積層后添加BN層和ReLU激活函數(shù),重塑卷積分支結(jié)構(gòu)見圖4。
將得到的特征信息進(jìn)行三維重塑,然后傳輸?shù)蕉S卷積組進(jìn)行操作,利用卷積參數(shù)共享的特點,更快地得到細(xì)膩的特征信息,此過程可表示為
Zr-conv=Conv2D(Conv2D(Conv2D(Reshape(E))))。(9)
最后,通過逐元素相加將LSGA Transformer和重塑卷積分支捕獲的不同類型特征融合。
3 "實驗
為驗證提出的方法在HSI分類中的準(zhǔn)確性和有效性,選取3個公共數(shù)據(jù)集開展實驗。首先采用定量精度指標(biāo)對RC-LSGA的性能進(jìn)行評估。定量精度指標(biāo)包括:總體準(zhǔn)確率(overall accuracy,OA)、平均準(zhǔn)確率(average accuracy,AA)和Kappa系數(shù)K。然后,通過調(diào)整模型的輸入尺寸、學(xué)習(xí)率、PCA光譜波段和LSGA Transformer層數(shù),取10次實驗的平均值,確定模型的最優(yōu)參數(shù)。最后,將RC-LSGA模型與其他模型進(jìn)行對比,并進(jìn)行消融實驗。實驗計算機配置如下:Intel Core I7-9700K CPU、RTX1080Ti和16GB RAM。選Adam優(yōu)化器,設(shè)批處理大小為128,Epoch為100。
3.1 "高光譜數(shù)據(jù)集
高光譜數(shù)據(jù)是含有多個光譜波段的圖像,實驗選取的3個公共數(shù)據(jù)集的信息見表1。PU數(shù)據(jù)集在意大利北部帕維亞大學(xué)校園內(nèi)采集,包含9個不同類別,103個高光譜波段,圖像分辨率為610×340。SA數(shù)據(jù)集在加利福尼亞州薩利納斯谷的農(nóng)田上采集,包含16個不同類別,204個高光譜波段,圖像分辨率為512×217。LK數(shù)據(jù)集在中國湖北省龍口鎮(zhèn)采集,包含9個不同類別,270個高光譜波段,圖像分辨率為550×400。為了驗證RC-LSGA模型的性能,分別將每個數(shù)據(jù)集的訓(xùn)練集設(shè)置為總樣本數(shù)的1%、1%和0.2%。
3.2 "參數(shù)設(shè)置及調(diào)節(jié)
(1)輸入尺寸敏感性分析
圖像輸入尺寸對分類的結(jié)果影響顯著,因此通過對比3個數(shù)據(jù)集的定量精度指標(biāo)確定最優(yōu)輸入尺寸,結(jié)果見圖5。從圖5可以看出,輸入尺寸為7×7時,LK數(shù)據(jù)集的AA值明顯下降;除此之外,各數(shù)據(jù)集的OA值、AA值和K值隨輸入尺寸增大呈緩慢增加而后緩慢下降的趨勢,導(dǎo)致這一結(jié)果的主要原因是LK數(shù)據(jù)集中存在樣本不平衡問題。然而,從總體來看,當(dāng)輸入圖像尺寸為11×11時,在3個數(shù)據(jù)集上均分類結(jié)果表現(xiàn)出最佳效果。
(2)學(xué)習(xí)率分析
學(xué)習(xí)率對模型的擬合效果有直接影響。不同學(xué)習(xí)率下,3個數(shù)據(jù)集的分類準(zhǔn)確率見圖6。從圖6中可以看出,當(dāng)學(xué)習(xí)率為0.001時,3個數(shù)據(jù)集的分類準(zhǔn)確率均達(dá)到最高。根據(jù)圖6(a),PU數(shù)據(jù)集的分類準(zhǔn)確率隨著學(xué)習(xí)率的增加先上升后下降,且在拐點處達(dá)到最佳。根據(jù)圖6(b)、圖6(c)可知,學(xué)習(xí)率對SA、LK數(shù)據(jù)集的分類準(zhǔn)確率影響較小,這主要是因為SA、LK數(shù)據(jù)集具有豐富的樣本和多個類別,使得RC-LSGA模型具備較強的抗過擬合能力。
(3)PCA維度分析
光譜維度大小對分類準(zhǔn)確率同樣存在影響,3種數(shù)據(jù)集在不同光譜維度下的分類準(zhǔn)確率見圖7。由圖7(a)、圖7(b)可見,PU、SA數(shù)據(jù)集的3個分類準(zhǔn)確率指標(biāo)值均呈先增大后減少的趨勢,光譜維度為36時,3個指標(biāo)值最大。由圖7(c)可見,LK數(shù)據(jù)集分類準(zhǔn)確率的變化不太明顯,光譜維度為42時表現(xiàn)最好。這可能是因為該數(shù)據(jù)集中包含了大量類別且光譜信息豐富。
(4)LSGA Transformer層數(shù)分析
合理選擇Transformer的層數(shù)可保證RC-LSGA模型網(wǎng)絡(luò)的魯棒性,因此分別使用6種層數(shù)對3種數(shù)據(jù)集進(jìn)行分類,驗證RC-LSGA模型的性能。不同Transformer層數(shù)下3種數(shù)據(jù)集分類準(zhǔn)確率見圖8。
從圖8可以看出,層數(shù)為4時,RC-LSGA模型對3種數(shù)據(jù)集分類的OA值、AA值和K值均為最優(yōu)。由圖8(a)可知,PU數(shù)據(jù)集分類的3個評價指標(biāo)隨著層數(shù)的增加變化較為明顯,這是因為PU數(shù)據(jù)集種類別較少,層數(shù)增加使訓(xùn)練更充分。但當(dāng)層數(shù)持續(xù)增加到一定值,分類評價指標(biāo)值出現(xiàn)下降,這是因為層數(shù)過多使RC-LSGA模型的計算量增加,導(dǎo)致模型整體性能下降。由圖8(b)、圖8(c)可知,SA、LK數(shù)據(jù)集的3個評價指標(biāo)隨著層數(shù)的增加變化較為平緩,這是因為樣本在空間分布較為緊湊且類別數(shù)量較多,增加網(wǎng)絡(luò)層數(shù)不利于特征的識別,反而使分類準(zhǔn)確率降低。層數(shù)為6時,LK數(shù)據(jù)集的3個評價指標(biāo)下降最明顯,這是因為層數(shù)過大增加了模型的復(fù)雜性。
3.3 "對比實驗結(jié)果與分析
將RC-LSGA模型分別與SVM模型、3DCNN模型、RSSAN模型、SF模型、DFFN模型、SSRN模型、DBDA模型進(jìn)行對比。PU、SA和LK數(shù)據(jù)集的分類準(zhǔn)確率分別見表2~表4,分類結(jié)果分別見圖9~圖11。
由表2可見,RC-LSGA模型對PU數(shù)據(jù)集的分類在OA值、AA值和K值上都有一定優(yōu)勢。與SVM模型相比,RC-LSGA模型的OA值高16.14個百分點,這表明深度學(xué)習(xí)在HSI分類中表現(xiàn)更加出色。RC-LSGA模型對類別3、類別6和類別7的分類準(zhǔn)確率達(dá)到100%,明顯優(yōu)于其他方法。但與SSRN模型相比,RC-LSGA模型對類別3的分類準(zhǔn)確率低2.93個百分點;與DFFN模型相比,對類別8的分類準(zhǔn)確率低3.07個百分點。這主要是因為兩類材質(zhì)較為接近,在分類的時候易出現(xiàn)交叉誤分的情況。由圖9可見,RC-LSGA模型的分類結(jié)果最為清晰,盡管在建筑物輪廓處存在細(xì)微的誤分類,但與其他方法相比,其分類效果顯著提升,這表明RC-LSGA模型能夠充分利用HSI中的高低頻信息。
由表3可見,RC-LSGA模型對多個類別的分類準(zhǔn)確率為100%,這是因為SA數(shù)據(jù)集樣本數(shù)量充足,同時RC-LSGA模型對不同光譜波段的特征有加強作用。由圖10可見,RSSAN模型提取和細(xì)化了光譜空間特征,但特征提取不足導(dǎo)致分類結(jié)果圖中有噪聲點。DBDA模型雖然引入了注意力機制,但對樹木的分類準(zhǔn)確率不理想。與其他引入注意力機制的模型相比,RC-LSGA模型對SA數(shù)據(jù)集的分類結(jié)果最優(yōu),OA值、AA值和K值分別達(dá)到了99.33%,99.34%和99.25%。
由表4可見,在LK數(shù)據(jù)集上不同模型的分類效果均較好,但RC-LSGA模型對大多數(shù)類別的分類準(zhǔn)確率明顯較高,尤其是類別2、類別4,RC-LSGA模型的分類準(zhǔn)確率分別達(dá)到99.61%和99.84%。RC-LSGA模型在LK數(shù)據(jù)集上的OA值達(dá)到了99.46%,優(yōu)于其他模型,進(jìn)一步驗證了該模型的有效性。由圖11可見,"RC-LSGA模型在LK數(shù)據(jù)集上生成的分類圖更接近實際情況,這是因為該模型能生成更多的特征圖,并充分利用其中的信息來提取全局特征和局部細(xì)節(jié)。
3.4 "消融實驗
為探究不同模塊對RC-LSGA模型性能的影響,針對每個數(shù)據(jù)集分別進(jìn)行了4組消融實驗。通過分析OA值,評估了RC-LSGA模型的可行性,消融實驗結(jié)果見表5。
首先在不添加任何模塊的情況下分類精度最低,一定程度上說明沒有充分利用全局與局部信息。其次,只添加通道注意力和只添加三維重塑卷積情況下,雖然在精度上有一定的提升,但總體效果不佳。將通道注意力和三維重塑卷積結(jié)合后,分類的準(zhǔn)確率提升較大,在PU、SA和LK數(shù)據(jù)集上分別達(dá)到了98.20%,99.33%,99.46%,這進(jìn)一步證明了RC-LSGA模型在分類性能上的優(yōu)勢。
3.5 "模型運行效率分析
為驗證RC-LSGA的執(zhí)行效率,以模型的參數(shù)量和單次訓(xùn)練時間作為評價指標(biāo),見表6。
由表6可見,SVM模型訓(xùn)練的時間最長,這是因為SVM模型采用逐像素預(yù)測;與只使用卷積的3DCNN模型、DFFN模型和SSRN模型相比,引入視覺Transformer的SF模型,運行時間明顯縮短;與其他模型相比,RC-LSGA模型的訓(xùn)練時間和參數(shù)量明顯減少,只有DBDA模型的訓(xùn)練時間和參數(shù)量都優(yōu)于RC-LSGA模型,這主要是因為RC-LSGA模型引入重塑卷積分支,導(dǎo)致訓(xùn)練成本增加。但總體看來,RC-LSGA模型仍是分類精度最高的。
4 "結(jié)論
(1)通過自高斯注意力Transformer來建立長距離依賴關(guān)系并獲取全局信息,利用通道注意力和重塑卷積來獲取細(xì)膩的局部特征,建立RC-LSGA模型。與其他模型的對比實驗表明,該模型對3個數(shù)據(jù)集中的類別識別效果最優(yōu)。
(2)RC-LSGA模型在不同類別之間仍存在誤判的情況,因此模型仍需要進(jìn)一步改進(jìn)。在未來的研究中,將致力于提高HSI分類精度的同時,實現(xiàn)模型的輕量化。
參考文獻(xiàn)(References):
[1] TU B,ZHOU C"L,KUANG W"L,et al.Multiattribute sample learning for hyperspectral image classification using hierarchical peak attribute propagation[J].IEEE Transactions on Instrumentation and Measurement,"2022,71:6502617.
[2] GEVAERT C M,SUOMALAINEN J,TANG J,et al.Generation of spectral-temporal response surfaces by combining multispectral satellite and hyperspectral UAV imagery for precision agriculture applications[J]."IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2015,8(6):3140-3146.
[3] XUE Z"H,ZHOU Y"Y,DU P"J.S3Net:spectral–spatial Siamese network for few-shot hyperspectral image classification[J].IEEE Transactions on Geoscience and Remote Sensing,2022,60:1-19.
[4] ARDOUIN J P,LéVESQUE J,REA T A.A demonstration of hyperspectral image exploitation for military applications[C]//2007 10th International Conference on Information Fusion.July 9-12,2007,Quebec, QC,Canada. IEEE,2007:1-8.
[5] HE C"X,SUN L,HUANG W,et al.TSLRLN:tensor subspace low-rank learning with non-local prior for hyperspectral image mixed denoising[J].Signal Processing,2021,184:108060.
[6] SUN L,WU F"Y,ZHAN T"M,et al.Weighted nonlocal low-rank tensor decomposition method for sparse unmixing of hyperspectral images[J]."IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2020,13:1174-1188.
[7] NASRABADI N M.Hyperspectral target detection:an overview of current and future challenges[J].IEEE Signal Processing Magazine, 2014,31(1):34-44.
[8] TU B,REN Q,ZHOU C"L,et al.Feature extraction using multidimensional spectral regression whitening for hyperspectral image classification[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2021,14:8326-8340.
[9] MA Y,LIU Z,CHEN CHEN C L P.Hybrid spatial-spectral feature in broad learning system for Hyperspectral image classification[J].Applied Intelligence,2022,52(3):2801-2812.
[10] AUDEBERT N,LE SAUX B,LEFèVRE S.Deep learning for classification of hyperspectral data:a comparative review[J].IEEE Geoscience and Remote Sensing Magazine,2019,7(2):159-173.
[11] ARCHIBALD R,F(xiàn)ANN G.Feature selection and classification of hyperspectral images with support vector machines[J].IEEE Geoscience and Remote Sensing Letters,2007,4(4):674-677.
[12] SHEN X"F,BAO W"X,LIANG H"B,et al.Grouped collaborative representation for hyperspectral image classification using a two-phase strategy[J].IEEE Geoscience and Remote Sensing Letters,2022,19:"5505305.
[13] BANDOS T V,BRUZZONE L,CAMPS-VALLS G.Classification of hyperspectral images with regularized linear discriminant analysis[J]. IEEE Transactions on Geoscience and Remote Sensing,2009,47(3): 862-873.
[14] LIU B,YU X"C,ZHANG P"Q,et al.A semi-supervised convolutional neural network for hyperspectral image classification[J].Remote Sensing Letters,2017,8(9):839-848.
[15] ROY S K,KRISHNA G,DUBEY S R,et al.HybridSN:exploring 3-D–2-D CNN feature hierarchy for hyperspectral image classification[J].IEEE Geoscience and Remote Sensing Letters,2020, 17(2):277-281.
[16] SONG W"W,LI S"T,F(xiàn)ANG L"Y,et al.Hyperspectral image classification with deep feature fusion network[J].IEEE Transactions on Geoscience and Remote Sensing,2018,56(6):3173-3184.
[17] PAOLETTI M E,HAUT J M,PLAZA J,et al.Deep"amp;"dense convolutional neural network for hyperspectral image classification[J].Remote Sensing,2018,10(9):1454.
[18] ZHONG Z"L,LI J,LUO Z"M,et al.Spectral-spatial residual network for hyperspectral image classification:a 3-D deep learning framework[J]. IEEE Transactions on Geoscience and Remote Sensing,2018,56(2): 847-858.
[19] WANG W"J,DOU S"G,JIANG Z"M,et al.A fast dense spectral–spatial convolution network framework for hyperspectral images classification[J]."Remote Sensing,2018,10(7):1068.
[20] QING Y"H,LIU W"Y,F(xiàn)ENG L"Y,et al.Improved transformer net for hyperspectral image classification[J].Remote Sensing,2021,13"(11):2216.
[21]"HONG D"F,HAN Z,YAO J,et al."Spectral"former:"rethinking hyperspectral image classification with transformers[J].IEEE Transactions on Geoscience and Remote Sensing,2022,60:5518615.
[22] MA W"P,YANG Q"F,WU Y,et al.Double-branch multi-attention mechanism network for hyperspectral image classification[J]. Remote Sensing,2019,11(11):1307.
[23] LI R,ZHENG S"Y,DUAN C"X,et al.Classification of hyperspectral image based on double-branch dual-attention mechanism network[J]. Remote Sensing,2020,12(3):582.
[24] SUN L,ZHAO G"R,ZHENG Y"H,et al.Spectral-spatial feature tokenization transformer for hyperspectral image classification[J]. IEEE Transactions on Geoscience and Remote Sensing,2022,60:5522214.
[25] ZHU M"H,JIAO L"C,LIU F,et al.Residual spectral–spatial attention network for hyperspectral image classification[J].IEEE Transactions on Geoscience and Remote Sensing,2021,59(1):449-462.
[26] MA C,WAN M"J,WU J,et al.Light self-Gaussian-attention vision transformer for hyperspectral image classification[J].IEEE Transactions on Instrumentation and Measurement,2023,72:5015712.