楊亞男,張宏鳴,3,李杭昊,楊江濤,全 凱
1.西北農(nóng)林科技大學 信息工程學院,陜西 楊陵712100
2.西北農(nóng)林科技大學 水利與建筑工程學院,陜西 楊陵712100
3.寧夏智慧農(nóng)業(yè)產(chǎn)業(yè)技術(shù)協(xié)同創(chuàng)新中心,銀川750004
梯田是在山丘坡地上沿等高線修筑的階臺式或波浪式斷面農(nóng)田,修建梯田不僅是最快捷有效的水土流失控制措施[1],還能極大地提高坡耕地的農(nóng)業(yè)生產(chǎn)能力,因此成為黃土高原最重要的水土保持工程[2]。根據(jù)水利部發(fā)布的《全國坡耕地水土流失綜合治理“十三五”專項建設(shè)方案》,2016—2020 年專項建設(shè)490.71 萬畝坡改梯即將完成,及時、準確地掌握區(qū)域梯田分布信息成為水土保持監(jiān)測和評價的重要內(nèi)容[3]。
傳統(tǒng)的梯田信息統(tǒng)計主要通過實地調(diào)查實現(xiàn),但人工統(tǒng)計費時費力。隨著高分辨率影像處理技術(shù)的不斷發(fā)展,利用高分辨率遙感影像提取梯田信息成為可能[4-5]。與高分辨率衛(wèi)星遙感數(shù)據(jù)相比,利用無人機航攝系統(tǒng)獲取高分辨率遙感影像具有高效、及時、精確、低成本的優(yōu)勢[6-7],在梯田工程的監(jiān)管和規(guī)劃等方面具有廣泛的應(yīng)用前景[8]。
無人機高分辨率遙感梯田識別研究中,張宏鳴等[9]基于改進的Canny邊緣檢測方法通過粗輪廓提取、偽邊緣剔除和區(qū)域生長算法的結(jié)合對梯田進行分割,但是該方法提取精度較低,分類效果一般。Eckert 等[10]采用面向?qū)ο蠓诸惖姆椒?,結(jié)合光譜特征、紋理特征以及形狀特征通過SVM 方法對梯田進行識別,該方法僅從區(qū)域劃分的角度識別梯田建設(shè)區(qū)域,不能對梯田田面進行精準的識別。薛牡丹等[11]采用面向?qū)ο蠖喑叨确指钆c機器學習結(jié)合的梯田提取方法,但該方法的應(yīng)用效果高度依賴于人工選擇的分割尺度,不具有普適性。以上研究方法均依賴人工進行梯田特征的提取,效率不高,并且僅能進行淺層學習[12],難以適應(yīng)海量高分辨率遙感影像梯田的識別需求。
自2006 年Hinton 等[13]提出采用深度學習模型實現(xiàn)數(shù)據(jù)的分類并取得成功后,深度學習因其自動從海量影像數(shù)據(jù)中學習最有效特征的優(yōu)勢在語義分割、圖像分類領(lǐng)域快速發(fā)展[14-15],近年來被廣泛應(yīng)用于遙感地物識別[16-17]和遙感場景分類[18-19]中。陳鋒軍等[20]以VGG-16模型為基礎(chǔ)應(yīng)用全卷積神經(jīng)網(wǎng)絡(luò)分割圖像的算法,對無人機采集的云杉圖像進行分割,取得了較好的識別效果。夏夢等[21]采用將卷積神經(jīng)網(wǎng)絡(luò)與條件隨機場相結(jié)合的方法,對中國廣西南寧市地區(qū)的遙感圖像進行分類,通過模型的融合在預分類結(jié)果的基礎(chǔ)上進一步抑制噪聲,提高了分類結(jié)果的準確性。
目前,基于高分辨率無人機遙感影像梯田識別的方法研究仍然停留在面向?qū)ο蠹夹g(shù)層面,尚未有公開的研究成果將深度學習技術(shù)應(yīng)用于遙感梯田的識別。然而應(yīng)用于遙感地物識別和遙感場景分類的深度學習方法研究更側(cè)重多種地物類別的區(qū)分效果[22-23],不適用于以精準識別梯田田面為目標的遙感梯田識別研究。
針對現(xiàn)有無人機遙感梯田識別方法的不足之處,本文通過無人機航空攝影獲取的高分辨率遙感梯田影像,制作一套梯田正射影像樣本集并設(shè)計構(gòu)建全卷積神經(jīng)網(wǎng)絡(luò)8s 模型(Fully Convolutional Networks-8s,F(xiàn)CN-8s)與全連接條件隨機場模型(Dense Conditional Random Field,DenseCRF)結(jié)合的梯田識別方法,實現(xiàn)了梯田特征的自動學習,避免了傳統(tǒng)分類方法依賴人工的特征提取過程,并取得了精確的識別效果。
1.1.1 研究區(qū)域
中國甘肅省生態(tài)環(huán)境脆弱,水土流失嚴重,大量坡耕地既是農(nóng)業(yè)生產(chǎn)的嚴重制約,也是水土流失的主要發(fā)源地。為改善人民生產(chǎn)生活條件,甘肅省榆中地區(qū)從二十世紀六七十年代開始興修梯田,縣區(qū)內(nèi)梯田面積較大,范圍清晰[24]。
本文的研究區(qū)域是中國甘肅省榆中地區(qū)龍泉鄉(xiāng)黃土丘陵區(qū)典型旱梯田區(qū),該區(qū)域地理坐標范圍為東經(jīng)104°10′58″~104°19′51″,北緯35°34′4″~35°40′56″,平均海拔2 160 m,總面積84 km2,地形以山溝梁峁為主。該研究區(qū)內(nèi)梯田形態(tài)種類豐富,具有一定代表性。圖1為該地區(qū)所在位置及區(qū)域正射影像展示。
圖1 研究區(qū)域所在位置及區(qū)域正射影像展示
1.1.2 數(shù)據(jù)獲取
研究區(qū)圖像拍攝于2016 年3 月,拍攝期天氣晴朗,能見度高,風力小于4 級。使用安翔動力AF1000 型無人機,該機翼展開27 m,質(zhì)量14 kg,有效載荷2 kg,航高90 m 左右,搭載SONYA5100 相機,有效像素2 430 萬,單幅影像面積約340 m×500 m。飛行采用自動起飛/規(guī)劃航線飛行/自動降落模式,全程總計耗時約24 h。
獲取原始數(shù)據(jù)后采用Agisoft photoscan軟件,導入影像,控制點數(shù)據(jù)及POS數(shù)據(jù),將整個區(qū)域分成25個測試區(qū)塊進行處理,并最終拼接生成空間分辨率為0.5 m的正射影像。依據(jù)無人機影像制作的1∶500 地形圖的精度滿足《1∶500 1∶1 000 1∶2 000地形圖航空攝影測量內(nèi)業(yè)規(guī)范》[25]對1∶500平地、丘陵的成圖要求。
本文從研究區(qū)域截取1 塊樣本區(qū)和3 塊測試區(qū),其正射影像如圖2 所示。樣本區(qū)(圖2(a))為10 000×10 000 像素,范圍最大,包含梯田種類全面,特征清晰,作為本實驗正射影像樣本集來源。測試區(qū)1(圖2(b))、測試區(qū)2(圖2(c))、測試區(qū)3(圖2(d))作為本實驗的測試集,均為1 000×1 000像素,包含了研究區(qū)內(nèi)的主要梯田類型。其中測試區(qū)1的梯田田塊形狀較短寬,位于山脊周邊,田面無覆蓋物,樣區(qū)內(nèi)包含大量山丘,部分建筑物及道路,為典型山脊區(qū)梯田。測試區(qū)2的梯田田塊形狀舒長較窄,分布密集,田塊邊緣曲線光滑,田面有部分莊稼堆積物,樣區(qū)內(nèi)包含少量建筑物,為密集水平梯田。測試區(qū)3的梯田田塊形狀蜿蜒不規(guī)則,田面有大量積雪覆蓋,樣區(qū)內(nèi)包含部分建筑物和少許道路,屬于不規(guī)則梯田。
圖2 樣本區(qū)及各測試區(qū)正射影像圖
本文實驗所使用的正射影像數(shù)據(jù)空間分辨率高(0.5 m)、細節(jié)清晰、特征明顯、類別豐富,因此基于目視解譯使用圖像標注工具labelme 軟件,制作實驗所需要的標簽圖像,并將梯田田面的像素值設(shè)置為1,用紅色(rgb(255,0,0))標注,非梯田部分的像素值設(shè)置為0,用黑色(rgb(0,0,0))標注。為防止過擬合現(xiàn)象,采用翻轉(zhuǎn)(水平、垂直和左右)和旋轉(zhuǎn)(90°、180°和270°)的方式對數(shù)據(jù)集進行數(shù)據(jù)增強。經(jīng)過數(shù)據(jù)增強后生成樣本集4 000組,其中訓練集3 000組,驗證集1 000組。實驗樣本的正射影像(圖3(a))和標簽圖像(圖3(b))一一成組對應(yīng),如圖3所示。
圖3 實驗樣本集圖像
梯田在高分辨率遙感影像上表現(xiàn)為形狀相似且排列連續(xù)的面狀地物,梯田的田坎表現(xiàn)為臺階狀等高線條紋理特征,其邊界處常有路或溝壑[25]。不同于遙感地物識別與遙感場景分類的多目標類別檢測,旱梯田區(qū)遙感影像的梯田部分地形特征復雜但有一定規(guī)律性,而非梯田部分均質(zhì)化程度高[27],因此梯田識別的重點在于通過學習更深層次的特征實現(xiàn)梯田邊界更精細的分割和梯田田面更準確的提取。
針對遙感影像梯田識別的特殊性,本文方法首先制作正射影像樣本集,構(gòu)造并訓練FCN-8s模型,然后將測試集輸入FCN-8s 模型進行預識別,輸出的梯田預識別結(jié)果作為DenseCRF 模型的一階勢函數(shù),然后利用高斯核函數(shù)的線性組合定義DenseCRF 模型的二階勢函數(shù),通過平均近似場方法求解模型,得到最終的梯田識別結(jié)果,最后進行精度評價,如圖4。
圖4 本文方法流程圖
方法流程如下:
(1)數(shù)據(jù)預處理。利用無人機拍攝的高分遙感梯田樣本區(qū)正射影像,生成圖片大小為224×224像素的正射影像數(shù)據(jù)集,并標注每個實驗樣本的標簽圖像,實驗樣本的標簽圖像與原始正射影像數(shù)據(jù)一一成組對應(yīng)。經(jīng)數(shù)據(jù)增強處理后分為訓練集和驗證集。
(2)構(gòu)建FCN-8s模型。根據(jù)全卷積神經(jīng)網(wǎng)絡(luò)原理,在VGG-19(Visual Geometry Group,VGG)網(wǎng)絡(luò)模型的基礎(chǔ)上構(gòu)建FCN-8s模型。
(3)訓練FCN-8s 模型。同時將訓練集和驗證集放入構(gòu)建好的模型進行訓練及驗證,通過參數(shù)對比調(diào)優(yōu),完成模型的訓練。
(4)FCN-8s 模型預識別。將測試集輸入訓練好的模型,經(jīng)計算后輸出FCN-8s梯田影像預識別結(jié)果。
(5)DenseCRF 模型。輸入梯田預識別結(jié)果,構(gòu)造DenseCRF 模型二階勢函數(shù),計算后輸出本文方法的最終識別結(jié)果。
(6)精度評價。對比各測試區(qū)的真值圖,對本文方法的實驗結(jié)果計算總體精度、F1分數(shù)和Kappa系數(shù)進行精度評價。
本文方法中的FCN-8s 模型以VGG-19 作為特征提取器,采用FCN-8s架構(gòu)進行構(gòu)建。FCN-8s網(wǎng)絡(luò)架構(gòu)是FCN架構(gòu)[28]中分割結(jié)果最細致最準確的網(wǎng)絡(luò)架構(gòu),能夠精確預測遙感影像中每個像素的分割結(jié)果[29]。VGG[30]是基于Alexnet網(wǎng)絡(luò)[31]對深度神經(jīng)網(wǎng)絡(luò)在深度和寬度上做了改進后形成的具備更強表達能力的卷積網(wǎng)絡(luò)模型,去掉了Alexnet的局部響應(yīng)歸一化方法(Local Response Normalization,LRN),并采用了更小的3×3 的卷積核、2×2的池化核以及步長為1,因此參數(shù)量更少。VGG-19是最深的VGG 網(wǎng)絡(luò)[32],由16 個卷積層和3 個全連接層構(gòu)成,能夠更精準有效地提取特征對圖像進行分類并得到輸入圖像的類別概率值。
根據(jù)全卷積神經(jīng)網(wǎng)絡(luò)的原理,將VGG-19卷積層之后的3 個全連接層轉(zhuǎn)化成3 個卷積層(其中前2 個卷積層卷積核大小為4 096×1×1,第3 個卷積核大小為1 000×1×1)并添加反卷積操作,對特征提取步驟的最后一個卷積層特征圖像進行8倍上采樣,實現(xiàn)無人機遙感梯田影像的端到端、像素到像素級別的分類,并得到與輸入圖像大小相同的語義分割結(jié)果圖。
2.1.1 特征提取
深度學習網(wǎng)絡(luò)模型的特征提取通過卷積層實現(xiàn),卷積層利用卷積核計算降維提取圖像不同頻段的特征。卷積核即濾波器filter,帶有一組固定權(quán)重的神經(jīng)元,多個卷積核疊加形成卷積層。卷積層常用的激活函數(shù)有tanh、sigmoid 和Relu 函數(shù)。但是sigmoid 和tanh 函數(shù)都要對輸入進行歸一化,而Relu函數(shù)則不需要,并且Relu函數(shù)可以去除數(shù)據(jù)中的冗余[33],最大限度地保留數(shù)據(jù)的特征,因此本文方法中的FCN-8s 模型特征提取器每一層卷積都選用Relu 函數(shù)作為激活函數(shù)。Relu 函數(shù)的數(shù)學表達式為:
該特征提取器采用逐層訓練的方式,16個卷積層的卷積核均為3×3,每層特征提取的特征圖示例如圖5。
2.1.2 池化
圖5 卷積層特征提取圖
池化的目的是對輸入的特征圖進行壓縮,同時改善結(jié)果防止過擬合現(xiàn)象的發(fā)生。下采樣是池化層的主要操作,通過下采樣的壓縮簡化了網(wǎng)絡(luò)計算的復雜度并在壓縮過程中再一次提取特征圖的主要特征。池化操作一般有Avy Pooling 和Max Pooling,本文方法FCN-8s模型的池化層采用Max Pooling,池化核是2×2,步長為2,池化操作如圖6所示。模型共有5個池化層,pool1在Conv1-1~1-2 后面,pool2 在Conv2-1~2-2 后面,pool3 在Conv3-1~3-4 后面,pool4 在Conv4-1~4-2 后面,pool5 在Conv5-1~5-4后面。
圖6 池化圖
2.1.3 反卷積
反卷積通過上采樣操作從最后一個卷積層得到的特征圖恢復到輸入圖像的原始尺寸,并通過卷積+補位的操作還原多出的空白像素點。本文方法中FCN-8s模型反卷積操作采用轉(zhuǎn)置卷積的方式并添加crop 操作輔助反卷積,最后使用softmax 函數(shù)作為分類器對每個像素進行分類,softmax函數(shù)的數(shù)學表達式為:
其中,yi是softmax 輸出的分類結(jié)果也稱為預測結(jié)果,Zi是該網(wǎng)絡(luò)層的第i個輸出,wij是第i個神經(jīng)元的第j個權(quán)重,bj是其bias值。
softmax的交叉熵損失函數(shù)表達式為:
本文方法中的FCN-8s 模型結(jié)構(gòu)圖如圖7 所示。輸入樣本圖像首先在Conv1-1~1-2 卷積后在pool1 層第一次下采樣尺寸縮小為原圖像的1/2,接著再經(jīng)過Conv2-1~2-2、pool2 縮小為原圖像的1/4,之后從第三組卷積層開始每組4 次卷積,Conv3-1~3-4、pool3,此時縮小為原圖像的1/8,并儲存pool3 的feature map,繼續(xù)卷積Conv4-1~4-2、pool4,并儲存pool4 的feature map,此時圖像已縮小為原圖像的1/16,最后進行Conv5-1~5-4 四層卷積,并將pool5 池化后縮小為原圖像大小的1/32的圖像改稱為heat map。Heat map 繼續(xù)進行conv6、conv7、conv8三層卷積,完成全卷積過程。
完成全卷積的heat map 經(jīng)過soaftmax 像素級分類生成預測結(jié)果圖,此時的heat map是原圖像大小的1/32,其預測結(jié)果圖也是原圖像大小的1/32。對該結(jié)果圖進行第一次反卷積2倍上采樣恢復到原圖像大小的1/16,并與pool4的feature map生成的預測結(jié)果疊加,將此結(jié)果進行第二次反卷積,經(jīng)2倍上采樣恢復到原圖像大小的1/8,再與pool3 的feature map 預測結(jié)果疊加后進行最后一次反卷積8倍上采樣,最終得到與輸入梯田影像大小相同的梯田預識別結(jié)果圖。
本文方法的FCN-8s 模型在Ubuntu 16.04.5LTS 系統(tǒng),Python2.7 環(huán)境下,采用TensorFlow1.13 版本進行訓練,將訓練集和驗證集輸入網(wǎng)絡(luò),設(shè)置Batch Size 值為2,一次輸入所有數(shù)據(jù),設(shè)置學習率為0.000 1,訓練次數(shù)為66 000次,訓練過程的交叉熵損失函數(shù)值曲線圖如圖8 所示,其橫軸為訓練次數(shù),縱軸為損失函數(shù)值。前5 000 次迭代過程中損失函數(shù)值快速減小,經(jīng)過30 000次迭代已基本收斂,雖然仍有波動出現(xiàn),但隨著迭代次數(shù)的不斷增加,波動的幅度和頻率都逐漸下降,66 000次的交叉熵損失函數(shù)值穩(wěn)定在6.236 51×10-4。
圖7 FCN-8s模型結(jié)構(gòu)圖
圖8 交叉熵損失函數(shù)曲線
條件隨機場(Conditional Random Field,CRF)[34]是圖模型的一種特定類型,通過最小化用戶定義的能量函數(shù)實現(xiàn)模型預測結(jié)果的后驗分布估計,使圖像分割結(jié)果更加精準。與由一階勢函數(shù)和相鄰元素構(gòu)成的勢函數(shù)所組成的基本條件隨機場(Basic Conditional Random Field,BasicCRF)模型不同,DenseCRF 模型的二階勢函數(shù)描述的是每一個像素與其他所有像素的關(guān)系,使用該模型在圖像中的所有像素對上建立點對勢能從而實現(xiàn)極大地細化和分割。
本文方法將FCN-8s模型的預識別結(jié)果作為一階勢函數(shù)構(gòu)建DenseCRF 模型,針對全卷積神經(jīng)網(wǎng)絡(luò)不能充分考慮全局上下文信息,忽略了空間正則化(Spatial Regularization,SR)步驟,缺乏空間一致性的缺點,通過將每個像素點與其他所有像素點均構(gòu)成一條邊的稠密全連接模型,進一步提高梯田識別結(jié)果。
2.3.1 一階勢
DenseCRF 作為一種判別式模型,可以在給定觀測場的條件下,對標記場的后驗概率直接建模。一階勢函數(shù)對單像素點的預測信息和相應(yīng)的標簽之間的關(guān)系進行建模,計算每個像素點的類別概率。
隨機場的Gibbs分布定義如下:
標簽值x對應(yīng)的Gibbs能量表示為:
這里,P(xi=li)為FCN-8s模型預識別結(jié)果中,像素i的標簽。
2.3.2 二階勢
式中,μ(xi,xj)=[xi≠xj]為標簽兼容函數(shù),用來懲罰相鄰相似的像素被標記成不同類型,ω(m)為每個高斯核對應(yīng)的權(quán)重,fi、fj分別表示像素i和像素j具有的特征向量,k(m)為高斯核,公式為:
其中,pi,pj是像素點i,j的位置,θα,θγ是接近度和相似度。
2.3.3 平均近似場算法
本文的DenseCRF 模型使用平均場近似方法[35]求解,計算復雜度為O(N2),該目標函數(shù)的表達式為:
式中,向量fi、fj是像素點i、j的特征向量,ω(m)是線性組合權(quán)重,μ是標簽兼容性函數(shù),
推斷算法如下:
(2)迭代更新:
(3)當算法收斂時,停止迭代。
精度評價是指比較實際數(shù)據(jù)與方法結(jié)果以確定該方法的準確性。本文通過目視解譯,在arcmap10.5中繪制接近于實際梯田的真值圖作為評價樣本。為了做出有效的評估,實驗使用總體精度(Overall Accuracy,OA)、F1分數(shù)和Kappa系數(shù)[36]對本文方法的實驗結(jié)果進行量化評價[37],三種精度的計算方法為:
式中,TP(True Positive)為分類正確的梯田像素點;TN(True Negative)為分類正確的非梯田像素點;FN(False Negative)為分類錯誤的非梯田像素點;FP(False Positive)為分類錯誤的梯田像素點。
為驗證本文方法的有效性,分別選取山脊區(qū)梯田、密集水平梯田和不規(guī)則梯田正射影像作為測試樣區(qū),并在使用相同樣本集的基礎(chǔ)上將本文方法的最終實驗結(jié)果分別與FCN-8s梯田影像預識別結(jié)果,SegNet、DeepLab方法結(jié)果進行對比。圖9 為三個測試區(qū)梯田識別結(jié)果對比圖。
圖中第一行是測試區(qū)1 山脊區(qū)梯田的識別結(jié)果對比圖,識別的誤差主要出現(xiàn)在以紅框1為例的不平整梯田田面和藍框2、黃框3 為例的鄰山脊處梯田。其中DeepLab方法在紅框1處斷裂點最多,識別效果最差,藍框2、黃框3 處,由于緊挨山脊,紋理特征和顏色與其他部分田面有所不同,均錯分為非梯田。SegNet方法在紅框1處識別效果相對于DeepLab方法有所提升,但依然有明顯斷裂,并且在藍框2 和黃框3 處也出現(xiàn)錯分情況。以上兩種方法對于梯田遙感影像的紋理顏色特征容錯性較差,在山脊區(qū)梯田識別中表現(xiàn)不佳。FCN-8s預識別結(jié)果圖中,紅框1處不平整田面部分識別效果明顯提升,藍框2、黃框3 處略有提升,部分田塊邊緣像素點識別正確,但未能識別整塊田面;在本文方法的最終實驗結(jié)果圖中,紅框1處和FCN-8s識別效果相當,藍框2、黃框3 處識別效果明顯提升,可以正確識別整塊田面,識別效果較好。
圖中第二行是測試區(qū)2 密集水平梯田的識別結(jié)果對比圖,識別的誤差主要出現(xiàn)在以紅框4為例的建筑物群和藍框5、黃框6為例的土坎陡坡地形處。其中Deep-Lab 方法在紅框4 處將大部分建筑物錯分為梯田,在藍框5 和黃框6 處將土坎陡坡也錯分為梯田。而SegNet方法在紅框1 處識別效果略有提升,錯分情況有所好轉(zhuǎn),但是在藍框5 土坎陡坡處也將土坎陡坡錯分為梯田,并且將藍框5 左側(cè)的非梯田部分錯分為梯田,在黃框6 處土坎陡坡錯分為梯田的部分相對DeepLab 方法有所減少,但還是明顯存在。FCN-8s 預識別結(jié)果圖中紅框4 處建筑物群基本都能正確識別為非梯田,藍框5和黃框6 的土坎陡坡也正確識別為非梯田,但是藍框5和黃框6之間的梯田區(qū)域都錯分為了非梯田;本文方法的最終實驗結(jié)果圖中,紅框4處建筑物群基本能正確識別為非梯田,藍框5 和黃框6 處大部分土坎陡坡正確識別為非梯田,兩處之間的梯田區(qū)域錯分情況也有所減輕,相比于前三種方法,取得了最好的識別效果。
圖中第三行是測試區(qū)3 不規(guī)則梯田的識別結(jié)果對比圖,由于該樣區(qū)內(nèi)梯田田面有積雪覆蓋,積雪覆蓋區(qū)域紋理平整,顏色接近,識別效果誤差較大,誤差主要出現(xiàn)在以紅框7 為例的斷崖下的梯田,藍框8 為例的積雪未完全消融的濕土梯田田面,黃框9為例的紋理多樣的不規(guī)則小塊梯田區(qū)。其中DeepLab 方法和SegNet 方法在紅框7處、藍框8處均出現(xiàn)錯分情況,在黃框9處,Seg-Net 方法的識別效果比DeepLab 方法略好,但識別效果依然不夠理想。FCN-8s 預識別結(jié)果圖中紅框7 處依然沒有能正確識別斷崖下梯田,藍框8 處和黃框9 處田面的識別效果相比于DeepLab和SegNet方法有所提升,但是比較粗糙;本文方法的最終實驗結(jié)果圖中,紅框7 處能夠正確識別出斷崖下梯田,但是斷崖部分也一并識別為梯田,由于該影像來自于俯視航拍,近于垂直的斷崖不能拍攝到完整斷崖面特征,而拍到的斷崖頂顏色紋理和斷崖下梯田相似,從影像上難以區(qū)分。藍框8處和黃框9 處基本能正確識別,其中藍框8 積雪未完全消融的濕土田面識別效果較為精準,黃框9處多塊不規(guī)則小塊梯田由于紋理顏色各異,識別效果不夠精準,有待進一步提升。
從實驗結(jié)果圖中可以看出,本文方法的識別結(jié)果最接近于人工標記的真值圖像,Deeplab 方法和SegNet方法在測試區(qū)1、2、3的識別中錯分和漏分現(xiàn)象明顯,效果難以令人滿意。FCN-8s 模型預識別效果在測試區(qū)1的識別中表現(xiàn)良好,而測試區(qū)2 和測試區(qū)3 的識別結(jié)果相對較為粗糙,結(jié)合DenseCRF 模型優(yōu)化處理的最終結(jié)果在3個測試區(qū)的識別結(jié)果更細致準確,具有良好的魯棒性。
圖9 測試區(qū)梯田識別結(jié)果對比圖
表1 測試區(qū)梯田識別結(jié)果精度評價%
此外,根據(jù)測試區(qū)正射影像圖分析本文方法的誤差,測試區(qū)1中緊挨山脊處的梯田田面顏色與山脊相近且與非鄰近山脊的其他梯田差異較大,容易被錯識別為非梯田;測試區(qū)2 中土坎陡坡處顏色、紋理和輪廓特征與鄰近的梯田田面十分接近,只是因為坡度變化大且坡平面較窄不利于作物種植所以一般不在土坎陡坡處修建梯田,目視解譯時憑借人工經(jīng)驗將此處劃分為非梯田,如何進一步解決梯田識別中這種典型的同譜異物現(xiàn)象有待在今后的研究中改進。測試區(qū)3 由于受田面積雪覆蓋影響,梯田田面之間顏色和紋理等特征相差較大,進一步提升田面有覆蓋物情況下的梯田識別也要在之后的研究中進行探索。
表1為測試區(qū)梯田識別結(jié)果精度評價表。從表1可以看出,相比于本文方法,Deeplab 方法和SegNet 方法在總體精度、F1分數(shù)和Kappa系數(shù)三種精度的表現(xiàn)都比較差。
與FCN-8s 梯田影像預識別結(jié)果相比,本文方法將FCN-8s與DenseCRF模型結(jié)合后,三個測試區(qū)在總體精度、F1 分數(shù)和Kappa 系數(shù)表現(xiàn)上平均分別提高了5.41、7.29、10.07個百分點。
結(jié)果表明,本文方法在三項精度指標上表現(xiàn)最佳,平均總體精度達到86.85%,平均F1 分數(shù)達到87.28%,平均Kappa系數(shù)值達到80.41%,取得了較好的識別效果。
本文針對無人機高分辨率遙感梯田識別研究中無法進行梯田特征自動學習的問題,根據(jù)梯田識別的特點,制作一套梯田正射影像樣本集,提出一種FCN-8s與DenseCRF模型結(jié)合的深度學習識別方法。
該方法首先在TensorFlow 深度學習框架上搭建FCN-8s網(wǎng)絡(luò)架構(gòu),以VGG-19深度神經(jīng)網(wǎng)絡(luò)模型作為特征選擇器對梯田影像進行預識別,通過模型中的卷積層在梯田正射影像樣本集上完成梯田特征的自動學習,避免了傳統(tǒng)提取方法中復雜的人工處理過程。該步驟將FCN全卷積網(wǎng)絡(luò)中分割最細致的8s架構(gòu)與VGG系列最深的網(wǎng)絡(luò)結(jié)合進行特征提取與預識別,充分利用VGG-19深層學習特征的優(yōu)勢以進行梯田影像二分類的精準區(qū)分。然后以預識別的分類結(jié)果定義每個像素點一階勢函數(shù),用兩種高斯核函數(shù)的線性組合定義二階勢函數(shù),利用全連接條件隨機場考慮豐富的空間上下文信息的特點,抑制更多的分類噪聲,進一步提高梯田識別精度。實驗結(jié)果表明,該方法取得了較好的梯田識別效果,推動了深度學習技術(shù)應(yīng)用于無人機遙感梯田識別方法研究領(lǐng)域。
本文仍有可以改進之處,后續(xù)的研究將從以下幾個方面進行嘗試:(1)能否改進模型以適應(yīng)多源數(shù)據(jù)的輸入和學習,通過將梯田的地形因子數(shù)據(jù)與影像數(shù)據(jù)結(jié)合學習提高識別精度。(2)能否將集成學習與深度學習方法結(jié)合,通過集成學習的投票技術(shù)進一步優(yōu)化梯田識別結(jié)果。(3)在深度學習技術(shù)之外,能否采用半監(jiān)督學習方式進行無人機遙感梯田的識別有待進一步探索。