施慧慧,徐雁南,滕文秀,王 妮
1. 南京林業(yè)大學(xué)南方現(xiàn)代林業(yè)協(xié)同創(chuàng)新中心,江蘇 南京 210037; 2. 南京林業(yè)大學(xué)林學(xué)院,江蘇 南京 210037; 3. 馬薩諸塞大學(xué)阿默斯特分校地球科學(xué)系,美國 馬薩諸塞州 01003; 4. 安徽省地理信息智能感知與服務(wù)工程實驗室,安徽 滁州 239000; 5. 滁州學(xué)院地理信息與旅游學(xué)院,安徽 滁州 239000
隨著遙感技術(shù)和對地觀測技術(shù)的快速發(fā)展,來自衛(wèi)星、無人機等對地觀測海量數(shù)據(jù)不僅含有豐富的紋理、空間信息,還包含了海量場景語義信息,因此高分辨率遙感影像的信息提取已經(jīng)逐步從像素層的光譜解譯、結(jié)構(gòu)層的基元紋理分析以及面向?qū)ο蟮姆指钐幚戆l(fā)展向規(guī)則知識、語義識別和場景建模等影像高層理解與認知方向發(fā)展[1]。高分辨率遙感影像分類從傳統(tǒng)像素級和對象級分類漸漸轉(zhuǎn)向場景語義級分類[2-4]。
目前,已有場景分類方法可概括為兩類:①基于底層特征和中層特征的方法。早期基于傳統(tǒng)的底層特征或者手工特征,通過提取紋理、顏色、形狀等特征進行圖像分類。與早期方法相比,基于BoVW模型[5]的中層特征方法通過手工制作的底層特征構(gòu)建圖像直方圖,對圖像聚類分析,雖簡單高效,但表達能力有限。②深度學(xué)習(xí)模型方法。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)一經(jīng)提出,便憑借其強大的特征提取能力很快成為眾多領(lǐng)域?qū)W者關(guān)注的焦點[6-8]。針對高分辨率場景分類問題,大量深度學(xué)習(xí)模型網(wǎng)絡(luò)被構(gòu)建,如GoogleNet、VggNet和ResNet等,使得深度學(xué)習(xí)在場景分類中的準確率不斷得到提高。同時遙感的一個重要里程碑仍然是對來自于不同傳感器和地理區(qū)域的未知數(shù)據(jù)進行分類的模型的可移植性[9],遷移學(xué)習(xí)則可以有效解決這些問題[10],基于具有1500萬張已標(biāo)注高清圖片和22 000多種場景類別的ImageNet[11]圖像庫,可以讓計算機具有跨領(lǐng)域?qū)W習(xí)的能力,同時使得信息可以得到高效重復(fù)利用[12]。文獻[13]首次將深度學(xué)習(xí)卷積網(wǎng)絡(luò)應(yīng)用于高分辨率遙感影像場景分類問題,將ImageNet圖像數(shù)據(jù)上預(yù)訓(xùn)練的深度卷積神經(jīng)網(wǎng)絡(luò)模型遷移至遙感場景數(shù)據(jù)集,得到較好的分類效果。文獻[14]采用兩個小尺度遙感影像場景數(shù)據(jù)集測試了不同深度的卷積神經(jīng)網(wǎng)絡(luò)分類性能,有效解決了高分辨率遙感影像數(shù)據(jù)量大、信息復(fù)雜、特征信息提取難度高等難題[15]。
卷積神經(jīng)網(wǎng)絡(luò)模型對大型、未知形狀變換的建模存在固有的缺陷,這種缺陷是因為標(biāo)準卷積神經(jīng)網(wǎng)絡(luò)卷積核為方形,在特征圖譜上的固定位置進行采樣,對于復(fù)雜不規(guī)則的目標(biāo)或者大小不一的目標(biāo)檢測是不合理的。文獻[16]提出了一種可變形卷積方法,提升了CNN的形變建模能力,首次證明了學(xué)習(xí)密集空間變換對復(fù)雜的視覺任務(wù)是有效的。文獻[17]基于VggNet模型采用可變形卷積層得到圖像特征進行圖像語義分割方法,表明引入可變形卷積的分割方法可有效克服遙感影像中分割對象的復(fù)雜結(jié)構(gòu)對分割結(jié)果的影響??梢娫趫D像分割中引入可變形卷積的CNN模型在性能上得到了較大提升。而在遙感場景分類中同樣面對同種物體在圖像中可能呈現(xiàn)出不同的形態(tài)、大小、視角變化甚至是非剛性形變的問題,在分類任務(wù)上采用固定方形的卷積核對具有復(fù)雜目標(biāo)的特征識別是不合理的,僅使用傳統(tǒng)的深度特征無法學(xué)習(xí)到對遙感場景幾何形變具有穩(wěn)健性的特征表示。基于以上分析,本文提出了一種場景分類方法,利用大型自然場景數(shù)據(jù)集ImageNet上訓(xùn)練的模型提取遙感影像深度特征,然后引入可變形卷積層,增強空間采樣位置能力進而提高場景分類精度。
本文提出的深度遷移可變形卷積神經(jīng)網(wǎng)絡(luò)(deep transfer deformable convolutional neural networks,DTDCNN)模型結(jié)構(gòu)如圖1所示。該結(jié)構(gòu)主要分為兩大部分:①利用大型自然場景數(shù)據(jù)集ImageNet對基礎(chǔ)模型進行訓(xùn)練得到預(yù)訓(xùn)練模型;②在對目標(biāo)數(shù)據(jù)集進行訓(xùn)練時,首先利用預(yù)訓(xùn)練模型中全連接層(fully connected layer,FC)前的模型提取特征作為圖像特征表達,然后添加可變形卷積層進一步學(xué)習(xí)遙感影像的幾何形變信息,提高感受野對目標(biāo)物體的有效感受范圍以得到最終圖像特征,最后輸入到分類器進行分類。
圖1 DTDCNN模型結(jié)構(gòu)Fig.1 Structure diagram of DTDCNN model
卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個重要算法,在模式分類領(lǐng)域有著出色表現(xiàn)。經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)主要包括卷積層、池化層和全連接層,其中卷積層通過計算輸入影像中的局部區(qū)域與濾波器的點積輸出特征[18]。本文中遙感影像場景分類數(shù)據(jù)是三通道的,每個卷積核的尺寸為r×s×e,其中e為通道數(shù),本文中e=3,卷積操作如式(1)所示
(1)
式中,f(·)為逐元素運算的激活函數(shù)(activation
function);s和r是感受野的空間尺寸;b為偏置項;a(t-1)、a(t)分別為t-1層和t層的響應(yīng);w為權(quán)值。
經(jīng)過多次卷積導(dǎo)致特征數(shù)據(jù)量不斷增加,故在卷積后須添加池化層,通過計算局部區(qū)域上的聚合值,沿著特征圖的空間維度進行下采樣操作,在減少參數(shù)數(shù)量的同時能較好地保留原始有用信息,防止過擬合問題發(fā)生[19]。經(jīng)過特定的第t層的池化層后,第t層第o個特征圖在空間位置(i,j)處的元素可表示為
(2)
式中,u×v大小的區(qū)域成為池化鄰域,也稱為池化感受野,通常情況下u=v。
最后,基于卷積和池化操作的特征進行壓縮,所得壓縮特征與全連接層所定義權(quán)重參數(shù)相乘,將輸入圖像分類為基于數(shù)據(jù)集的各類別,第t層的每個神經(jīng)元和第t-1層的每個神經(jīng)元都連接,即每個神經(jīng)元的輸入是上一層所有神經(jīng)元的輸出線性組合。全連接層第i個神經(jīng)元的值可表示為
a(t)=f(a(t-1)w(t)+b(t))
(3)
多項研究表明,在大型自然圖像數(shù)據(jù)集ImageNet上學(xué)習(xí)到的圖像特征對遙感圖像也有很好的適用性[20-22],因此,本文利用預(yù)訓(xùn)練模型提取遙感場景的深度特征,將該深度特征作為整個遙感場景特征的一部分。
由于傳統(tǒng)二維卷積核通常首先在輸入的影像特征圖上采用網(wǎng)格R進行采樣,并且在每個采樣點處乘上權(quán)值k并求和,因此僅使用傳統(tǒng)的深度特征無法學(xué)習(xí)到對遙感場景幾何形變具有穩(wěn)健性的特征表示。以二維3×3卷積核采樣為例R={(-1,-1),(-1,0),…,(0,1),(1,1)},對于輸出特征圖y上的位置P0為
(4)
式中,Pn為網(wǎng)格R中所列位置的枚舉,固定了感受野的大小與步長,則無法對易產(chǎn)生變形的物體特征進行準確描述,使得傳統(tǒng)CNN在一定程度上限制了建模能力。
因此,本文利用可變形卷積(deformable convolution)增加模型對于物體幾何變化的適應(yīng)能力[23],學(xué)習(xí)對影像中幾何形變穩(wěn)健的深度特征,具體的,通過對卷積采樣點添加偏移量{Δpn|n=1,2,…,N},其中N=|R|,使得式(4)變形為
(5)
式中,pn表示卷積窗口中任意一個像素點;k(pn)表示像素點pn的權(quán)重;x表示輸入層像素點的集合;Δpn表示像素點pn的偏移量,且通常為小數(shù)形式。因此式(5)通過雙線性插值變換之后變?yōu)?/p>
(6)
式中,p表示任意一個位置p=p0+pn+Δpn;q則表示特征圖中的空間位置;G(·,·)表示雙線性插值核,二維卷積則可分解成2個一維內(nèi)核
G(q,p)=g(qx,px)·g(qy,py)
(7)
式中,g(a,b)=max(0,1-|a-b|)。
標(biāo)準卷積在對稀疏住宅場景進行特征提取時的采樣點是固定的(圖2(a)),而本文通過引入可變形卷積層會根據(jù)影像中目標(biāo)的尺度和形狀進行自適應(yīng)調(diào)整(圖2(b)),可以高效地提取不同形狀、不同方向的穩(wěn)健特征,從而增強對影像中的場景辨別能力。圖2中圓點表示讀取圖像特征圖中的激活單元點,箭頭后單元點表示分別對應(yīng)于前面特征圖上突出顯示的單元點,可變形卷積收斂后的單元點與物體位置的相關(guān)性則更高,可以更高效地利用對象特征。
圖2 采樣位置Fig.2 Sampling position
為了學(xué)習(xí)對遙感場景幾何形變具有穩(wěn)健性的特征表示,本文在預(yù)訓(xùn)練模型的基礎(chǔ)上添加了可變形卷積層,聯(lián)合傳統(tǒng)場景深度特征以及可變形場景深度特征對整個場景影像進行特征表達,提高模型的穩(wěn)健性的泛化能力。
深度學(xué)習(xí)算法中損失值用來度量模型在分類時預(yù)測值和真實值之間的差距,也是用來衡量模型泛化能力好壞的重要指標(biāo),損失函數(shù)合理性則決定模型的擬合能力。對于遙感影像場景分類任務(wù),本文采用交叉熵損失函數(shù),表示為
(8)
式中,t為每批次樣本數(shù);yh為第h個樣本的編號;ch是樣本的目標(biāo)類。利用隨機梯度下降(stochastic gradient descent,SGD)方法對該損失函數(shù)進行優(yōu)化,通過從樣本中抽取一組進行訓(xùn)練得到函數(shù)局部最優(yōu)值,再按照梯度方向不斷進行更新、再抽取訓(xùn)練、更新,最終獲取全局最優(yōu)損失值。本文中隨機梯度下降的學(xué)習(xí)率使用固定大小值,初始學(xué)習(xí)率大小設(shè)置為0.002,速度衰減因子設(shè)為0.9。
2.1.1 參數(shù)設(shè)置與試驗環(huán)境
本文試驗環(huán)境為Windows10 64 bit操作系統(tǒng),CPU為Core i5-7500@3.40 GHz,16 GB內(nèi)存,GPU為Nvidia GeForce GTX 1060,6 GB顯存。深度學(xué)習(xí)工具采用PyTorch 1.3.1,編程語言采用Python 3.7.3,集成開發(fā)環(huán)境使用PyCharm。參數(shù)設(shè)置上,訓(xùn)練速率衰減周期設(shè)置為100 epoch;批處理(batch)大小設(shè)置為64。本文主要試驗部分基于ResNet-50[24]作為基礎(chǔ)模型進行預(yù)訓(xùn)練,增加網(wǎng)絡(luò)的特征提取性能。
2.1.2 評價指標(biāo)
對于精度檢驗,分類任務(wù)中多采用總體精度(OA)和混淆矩陣[25]進行試驗結(jié)果評價??傮w精度為
(9)
式中,N為測試樣本總數(shù);T為正確分類的圖像。該種衡量方法可以較好地反映出分類方法在整個測試圖像上的性能。為了更加直觀地評估模型性能,本文將添加精準率(Precision)和召回率(Recall)進一步進行模型評價。精準率與召回率主要基于試驗結(jié)果中所得到的真正例(TP)、假正例(FP)、真負例(TN)和假負例(FN)進行描述,即
(10)
2.2.1 AID數(shù)據(jù)集分類試驗結(jié)果與分析
AID數(shù)據(jù)集是用于航空場景分類的大型數(shù)據(jù)集,具有較大的組內(nèi)差異,援助目標(biāo)是提高遙感圖像場景分類的技術(shù)水平[26]。2017年由武漢大學(xué)和華中科技大學(xué)發(fā)布,由Google Earth影像上采集的不同分辨率、不同地區(qū)的影像,每幅影像大小為600×600像素,包含30類場景,每個類別包含220~420張影像,整個數(shù)據(jù)集共10 000張影像(圖3)。
圖3 AID數(shù)據(jù)集示例Fig.3 Example images of AID dataset
本文所提出的方法在AID數(shù)據(jù)集(50%訓(xùn)練集比率,每個類別110~210張訓(xùn)練樣本)上進行試驗得到結(jié)果見表1,在采用本文所提出的基于遷移可變形卷積的網(wǎng)絡(luò)模型方法后精度提高了4.25%,Kappa系數(shù)提高了0.04,同時對模型的計算力(flops)和參數(shù)量(params)進行計算,本文方法僅添加了較少參數(shù)量使得模型性能得到了較好提升。最終得到分類精度如圖4所示,從初始精度上看兩種方法就有很大的差距,本文所提模型比普通模型精度提高近20%,模型可以更快收斂。從整體上看所提方法都較原始方法精度有較大提高。具體的,根據(jù)圖5所示的兩個混淆矩陣可發(fā)現(xiàn),基礎(chǔ)模型在池塘和河流,體育場和體育館,度假村和公園等都產(chǎn)生了較為嚴重混淆現(xiàn)象。這些場景都基于相似特征的基本組成單元,僅在空間分布、密度等方面產(chǎn)生區(qū)別,易產(chǎn)生混淆現(xiàn)象,是場景分類中的一大難點。但基于DTDCNN模型,由于該模型中對目標(biāo)采用非方形卷積核進行特征提取,可以發(fā)現(xiàn)體育館較體育場僅多出周圍建筑物,原始模型則不能將其區(qū)分開,通過所提方法添加了一層過濾器,大大提高了目標(biāo)數(shù)據(jù)集的分類性能。而對于具有較為相同幾何特征的場景,模型即使對場景具有很好地識別效果,但分類上部分未能得到較好的提升。但總體上大部分場景的分類精度都得到不同程度的提高,表明所提方法可以有效減少混淆現(xiàn)象。
表1 比較模型在AID數(shù)據(jù)集上的OA、Kappa、精準率、召回率和模型計算力與參數(shù)量
圖4 AID數(shù)據(jù)集分類精度變化曲線Fig.4 Classification Accuracy Variation Curve of AID dataset
圖5 AID數(shù)據(jù)集混淆矩陣結(jié)果Fig.5 Classification confusion matrix of AID dataset
2.2.2 UC-Merced數(shù)據(jù)集分類試驗結(jié)果與分析
UC-Merced數(shù)據(jù)集是一個廣泛的手動標(biāo)記的地面真值數(shù)據(jù)集(圖6),用于定量評估[2]。該數(shù)據(jù)集每幅影像大小為256×256像素,涵蓋了21類不同場景類別。每一類場景包含100張影像,共2100張影像。該數(shù)據(jù)集由于類間差距小,類內(nèi)差距大,具有較大的挑戰(zhàn)性,在遙感影像場景分類領(lǐng)域極具代表性,廣泛用于場景分類研究[27]。
圖6 UC-Merced數(shù)據(jù)集示例Fig.6 Example images of UC-Merced dataset
本文所提出的方法在該數(shù)據(jù)集上進行試驗(80%訓(xùn)練集比率,每類別80張作為訓(xùn)練樣本,20張作為測試數(shù)據(jù))得到結(jié)果見表2,在采用本文所提出的基于遷移可變形卷積的網(wǎng)絡(luò)模型方法后精度提高了1.9%,Kappa系數(shù)提高了0.021。最終得到分類結(jié)果如圖7所示,從中看出兩種方法同樣都很快開始收斂,前20個epoch時添加可變形卷積方法的分類精度相較于初始模型提高較為明顯。根據(jù)圖8所示的兩個混淆矩陣可以發(fā)現(xiàn),建筑和中密度住宅區(qū),網(wǎng)球場和中等密度住宅區(qū)等都產(chǎn)生了較輕程度的混淆,所提方法較普通模型則有更好的分類效果。同樣與AID試驗結(jié)果相似,所提方法精度提高的主要來源是具有相似特征的場景混淆現(xiàn)象的減少。UC-Merced數(shù)據(jù)集具有較小的類間差距,而同一類別的場景數(shù)據(jù)具有更大的差異,更好地驗證了所提方法對特征分布不同的場景數(shù)據(jù)分類的有效性。
圖7 UC-Merced數(shù)據(jù)集分類精度變化曲線Fig.7 Classification accuracy variation curve of UC-Merced dataset
圖8 UC-Merced數(shù)據(jù)集混淆矩陣結(jié)果Fig.8 Classification confusion matrix of UC-Merced dataset
表2 比較模型在UC-Merced數(shù)據(jù)集上的OA、Kappa、精準率和召回率
2.2.3 NWPU-RESISC45數(shù)據(jù)集分類試驗結(jié)果與分析
NWPU-RESISC45數(shù)據(jù)集[28]是由西北工業(yè)大學(xué)創(chuàng)建的遙感圖像場景分類可用基準,比AID和UC-Merced數(shù)據(jù)集更為復(fù)雜,該數(shù)據(jù)集包含像素大小為256×256,涵蓋45個場景類別,其中每個類別有700張圖像,共計31 500張圖像。該數(shù)據(jù)集涵蓋了全球100多個具有發(fā)展中、轉(zhuǎn)型中和高度發(fā)達經(jīng)濟體的國家和地區(qū),是目前屬于較大規(guī)模的數(shù)據(jù)集,同時場景影像在平移、空間分辨率、視點、物體姿勢、照明、背景和遮擋方面存在很大差異,具有很大的組內(nèi)差異性和組間相似性。
基于本文所提出方法對更具有挑戰(zhàn)性的大型場景數(shù)據(jù)集NWPU-RESISC45(圖9)上進行場景分類試驗(20%訓(xùn)練集比率,每類別140張作為訓(xùn)練樣本,560張作為測試數(shù)據(jù))得到結(jié)果見表3,可見在采用本文所提出的基于遷移可變形卷積的網(wǎng)絡(luò)模型方法后精度提高了4.83%,Kappa系數(shù)提高了0.041 1。在更具有挑戰(zhàn)性的數(shù)據(jù)集上可變形卷積的優(yōu)勢更為明顯,不僅在初始精度上有非常明顯的提升,在整體上精度都得到了明顯提升(圖10)。由圖11所給出的混淆矩陣可以看出,宮殿與教堂場景由于存在相似建筑風(fēng)格而導(dǎo)致產(chǎn)生混淆現(xiàn)象較為嚴重,露天體育場與田徑場同樣由于相似的結(jié)構(gòu)也產(chǎn)生了混淆現(xiàn)象,但相對于ResNet-50模型本文所提出的添加可變形卷積層的方法都對易產(chǎn)生混淆現(xiàn)象的場景辨別有不同程度的提高,如籃球場和網(wǎng)球場、島嶼和河流等場景都減少了混淆現(xiàn)象的發(fā)生。
圖9 NWPU-RESISC45數(shù)據(jù)集示例Fig.9 Example images of NWPU-RESISC45 dataset
表3 比較模型在NWPU-RESISC45數(shù)據(jù)集上的OA、Kappa、精準率和召回率
圖10 NWPU-RESISC45數(shù)據(jù)集分類精度變化曲線Fig.10 Classification accuracy variation curve of NWPU-RESISC45 dataset
圖11 NWPU-RESISC45數(shù)據(jù)集混淆矩陣結(jié)果Fig.11 Classification confusion matrix of NWPU-RESISC45 dataset
2.2.4 與其他方法對比結(jié)果
綜上所述,基于3個具有不同挑戰(zhàn)性的場景數(shù)據(jù)集分類試驗結(jié)果可以看出: 利用遷移學(xué)習(xí)的基礎(chǔ)模型在高分辨率遙感場景分類上已經(jīng)具有一定的泛化能力,而本文所提出的DTDCNN模型在基礎(chǔ)網(wǎng)絡(luò)模型上添加具有偏移量的采樣模塊,更好地學(xué)習(xí)目標(biāo)特征,有效解決了同類物體不同位置、不同類具有相似特征等容易產(chǎn)生混淆的現(xiàn)象,提高了目標(biāo)數(shù)據(jù)集分類精度。與近年其他場景分類方法進行對比,為方便比較模型整體性能,選擇了與本文在數(shù)據(jù)集的選擇和試驗設(shè)置較為接近的研究方法,結(jié)果見表2。由表2中可以看出,本文所提方法在各數(shù)據(jù)集上的精度相比于其他方法精度都具有一定優(yōu)勢,與MF-WGANs[29]相比,在較大型數(shù)據(jù)集上表現(xiàn)更為優(yōu)秀,與Siamese ResNet-50[30]相比則在小型數(shù)據(jù)集上更占優(yōu)勢; DCA Fusion[31]采用特征融合策略較好地提高了分類精度,與DTDCNN模型精度較為接近;VggNet-16-EMR[32]基于CNN模型獲得的特征采用EMR和VLAD進行處理后分類,在UC-Merced數(shù)據(jù)集上表現(xiàn)優(yōu)秀,但對于其在大尺寸遙感數(shù)據(jù)集上的表現(xiàn)是未知的。高分遙感場景數(shù)據(jù)集分類任務(wù)對于場景特征的學(xué)習(xí)和判別尤為重要,本文所提方法通過將預(yù)訓(xùn)練模型與可變形卷積層進行結(jié)合,明顯提高了對場景特征的學(xué)習(xí)能力,與其他方法相比則具有更高的性能。因此總體上說明DTDCNN在場景分類上仍是具有較大潛力,驗證了其在遙感場景分類任務(wù)上的有效性。
同時,為驗證DTDCNN在不同模型基礎(chǔ)上是否具有普適性,本文采用該方法基于VggNet-16模型進行試驗,如表4結(jié)果顯示,所提DTDCNN模型對于不同數(shù)據(jù)集得到結(jié)果都較原始模型有不同程度的提高,驗證可變形卷積與其他CNN模型組合時優(yōu)勢仍然存在,說明所提方法具有普適性。
表4 各種方法分類精度
針對現(xiàn)有深度卷積神經(jīng)網(wǎng)絡(luò)對遙感場景影像的幾何形變不具有穩(wěn)健性等問題,本文提出了一種面向高分遙感影像場景分類的DTDCNN模型。該方法首先基于大型自然場景數(shù)據(jù)集ImageNet上訓(xùn)練的深度模型提取遙感影像的深度特征,通過添加可變形卷積層增加了模型對遙感影像中幾何形變穩(wěn)健深度特征的學(xué)習(xí)能力,在AID、UC-Merced和NWPU-RESISC45數(shù)據(jù)集上都取得了較好的結(jié)果。該方法僅增加很少的模型復(fù)雜度和計算量,在精度上較普通模型有明顯提高,使得模型性能得到較為明顯的提升。根據(jù)試驗結(jié)果不難發(fā)現(xiàn),精度提升主要來源于一些具有明顯相同特征的場景類別,例如池塘和河流、體育場和體育館、中等密度住宅區(qū)和高密度住宅區(qū)等,驗證了所提方法在高分辨率遙感場景分類具有較為明顯優(yōu)勢,同時所提方法在時間性能上也同樣有著較為出色的表現(xiàn)。在接下來的研究中可針對該方法進一步優(yōu)化提升分類精度,同時也可將該方法應(yīng)用于高分辨率遙感影像土地利用分類、遙感特征地物的提取[36]等實際問題的解決或結(jié)合光譜數(shù)據(jù)[37]獲取圖像特征進行分類作為下一步研究目標(biāo)。