摘要:針對(duì)傳統(tǒng)全卷積神經(jīng)網(wǎng)絡(luò)無法實(shí)現(xiàn)高分影像耕地精確提取的問題,以高分二號(hào)遙感衛(wèi)星影像為數(shù)據(jù)源,采用融合殘差結(jié)構(gòu)和多種注意力機(jī)制的改進(jìn)U-Net網(wǎng)絡(luò)模型(RMAU-Net網(wǎng)絡(luò)模型)對(duì)研究區(qū)的耕地進(jìn)行精細(xì)提取。使用耕地樣本對(duì)RMAU-Net網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,并用訓(xùn)練后的網(wǎng)絡(luò)模型對(duì)測(cè)試集影像中的耕地進(jìn)行提取。為了驗(yàn)證RMAU-Net網(wǎng)絡(luò)模型提取耕地的效果,選取DeeplabV3+、PSPNet、U-Net 3種傳統(tǒng)的全卷積神經(jīng)網(wǎng)絡(luò)模型與RMAU-Net網(wǎng)絡(luò)模型進(jìn)行對(duì)比分析。結(jié)果表明,RMAU-Net網(wǎng)絡(luò)模型提取的精確率、召回率、交并比、F1 Score分別為90.36%、90.78%、82.57%、90.57%。與DeepLabv3+、PSPNet和U-Net網(wǎng)絡(luò)模型相比,RMAU-Net網(wǎng)絡(luò)模型效果最佳。RMAU-Net網(wǎng)絡(luò)模型為耕地精細(xì)提取提供了新的思路與方法,為農(nóng)作物面積監(jiān)測(cè)和產(chǎn)量估算等實(shí)際應(yīng)用提供基礎(chǔ)數(shù)據(jù)支持。
關(guān)鍵詞:高分影像;耕地提??;深度學(xué)習(xí);注意力機(jī)制;殘差結(jié)構(gòu);RMAU-Net網(wǎng)絡(luò)模型
中圖分類號(hào):TP751" " " " "文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):0439-8114(2023)08-0182-07
DOI:10.14088/j.cnki.issn0439-8114.2023.08.029 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):
High resolution image farmland extraction based on RMAU-Net network model
YUAN Penga, WANG Kea, XIAO Jianb
(a.College of Hydrology and Water Resources;b.College of Computer and Information, Hohai University, Nanjing" 210098, China)
Abstract:In order to solve the problem that the traditional full convolutional neural network could not achieve accurate extraction of cultivated land from high-resolution image, this study used the high-resolution 2 remote sensing satellite imagery as the data source, and used the improved U-Net network model (RMAU-Net network model) that integrated residual structure and multiple attention mechanisms to extract the cultivated land in the study area. The RMAU-Net network model was trained by using cultivated land samples, and cultivated land was extracted from the test set images using the trained network model. In order to verify the effect of RMAU-Net network model in extracting cultivated land, three traditional full Convolutional neural network models, DeeplabV3+, PSPNet and U-Net, were selected for comparative analysis with RMAU-Net network model. The results showed that the accuracy, recall, Intersection over Union, and F1 score of the RMAU-Net network model extraction were 90.36%, 90.78%, 82.57%, and 90.57%, respectively. Compared with DeepLabv3+, PSPNet, and U-Net network models, the RMAU-Net network model performed the best. RMAU-Net network model provided new ideas and methods for precise extraction of cultivated land, and provided basic data support for practical applications such as crop area monitoring and yield estimation.
Key words: high-resolution imaging; extraction of cultivated land; deep learning; attention mechanism; residual structure; RMAU-Net network model
耕地是人類賴以生存的基本資源和物質(zhì)條件,是糧食生產(chǎn)等農(nóng)業(yè)活動(dòng)的根基[1],保護(hù)18億畝耕地紅線是實(shí)現(xiàn)糧食安全的前提[2]。農(nóng)作物識(shí)別、長勢(shì)檢測(cè)和估產(chǎn)等方面的研究必須依托于可靠的耕地?cái)?shù)據(jù)集。耕地地塊的提取研究是實(shí)現(xiàn)精準(zhǔn)農(nóng)業(yè)的基礎(chǔ)和前提。同時(shí),及時(shí)準(zhǔn)確地獲取耕地面積和空間分布信息是解決產(chǎn)量估算、土地利用規(guī)劃和農(nóng)業(yè)生產(chǎn)管理等問題的關(guān)鍵。因此,耕地提取研究具有重要的科研價(jià)值和經(jīng)濟(jì)價(jià)值[3-5]。
傳統(tǒng)實(shí)地調(diào)研獲取耕地信息的方式費(fèi)時(shí)費(fèi)力,實(shí)時(shí)性較差,利用高分辨率遙感影像分類是一種快速且有效的耕地提取方法。由于耕地種植農(nóng)作物的多樣性導(dǎo)致同物異譜現(xiàn)象嚴(yán)重[6],提取耕地特征面臨極大挑戰(zhàn)。傳統(tǒng)機(jī)器學(xué)習(xí)方法,如最大似然[7]、隨機(jī)森林[8]和支持向量機(jī)[9]等都是基于像元分類,往往會(huì)出現(xiàn)椒鹽現(xiàn)象,導(dǎo)致耕地提取精度相對(duì)較低。近年來,深度學(xué)習(xí)方法通過訓(xùn)練大量樣本數(shù)據(jù),可自動(dòng)提取主要特征,并實(shí)現(xiàn)自動(dòng)化信息提取。相對(duì)于傳統(tǒng)方法,深度學(xué)習(xí)方法對(duì)于復(fù)雜多變的情況具有更好的魯棒性,已在計(jì)算機(jī)視覺等領(lǐng)域取得良好成效。同時(shí),在遙感圖像領(lǐng)域也被廣泛應(yīng)用,在人工坑塘[10]、房屋建筑物[11]、水體[12]、道路[13]等地物要素提取中取得良好的效果。當(dāng)前,有學(xué)者已經(jīng)開展了基于深度學(xué)習(xí)和高分辨率遙感影像提取耕地的研究。有學(xué)者利用WorldView-3影像[14]和DeepLabv3+模型[15]提取天津市寶坻區(qū)的耕地,并與傳統(tǒng)的機(jī)器學(xué)習(xí)方法對(duì)比,結(jié)果表明,基于深度學(xué)習(xí)的耕地提取方法總體精度提高了19.18%;Zhang等[16]提出了一種改進(jìn)的金字塔場(chǎng)景解析網(wǎng)絡(luò)模型,實(shí)現(xiàn)了在大尺度上進(jìn)行耕地的高精度自動(dòng)化提?。魂惲崃岬龋?7]提出了一種輕量級(jí)耕地圖斑提取模型(LWIBNet),并采用數(shù)學(xué)形態(tài)學(xué)算法進(jìn)行后處理。通過與傳統(tǒng)模型和經(jīng)典FCN模型對(duì)比,LWIBNet模型比傳統(tǒng)模型的Kappa系數(shù)提高了12%。
盡管深度學(xué)習(xí)技術(shù)在遙感影像耕地提取方面已被證明可行,但是高分辨率遙感影像中的耕地光譜特征和紋理特征因耕地類型、作物種類和生長階段的差異而存在同物異譜等問題。因此,傳統(tǒng)全卷積神經(jīng)網(wǎng)絡(luò)提取耕地的特征難度較大,耕地信息難以精確提取?;诖?,本研究以高分二號(hào)遙感影像數(shù)據(jù)為數(shù)據(jù)源,使用融合殘差結(jié)構(gòu)和多種注意力機(jī)制的改進(jìn)U-Net網(wǎng)格模型(RMAU-Net網(wǎng)絡(luò)模型)對(duì)耕地進(jìn)行精細(xì)提取,并與U-Net、PSPNet和DeepLabv3+全卷積神經(jīng)網(wǎng)絡(luò)模型提取結(jié)果對(duì)比,以驗(yàn)證模型的有效性與優(yōu)越性。
1 U-Net網(wǎng)絡(luò)模型
U-Net[18]的整體結(jié)構(gòu)如圖1所示。U-Net是由對(duì)稱的兩部分組成,前半部分是特征提?。ň幋a器),后半部分是上采樣(解碼器)。由于該網(wǎng)絡(luò)的整體結(jié)構(gòu)類似于英文字母U,因此被命名為U-Net。在編碼器階段,每個(gè)下采樣模塊由2個(gè)3 px×3 px的卷積層和一個(gè)2 px×2 px的最大池化層組成。總共有4個(gè)下采樣模塊,每個(gè)模塊都會(huì)對(duì)前一個(gè)模塊的特征圖進(jìn)行卷積操作,使其通道數(shù)翻倍。卷積操作后,特征圖的寬度和高度保持不變。池化層使用2 px×2 px的最大池化操作,每個(gè)池化層將圖像的寬度和高度減半。在解碼階段,將3 px×3 px的卷積層替換成" "2 px×2 px的卷積層,并采用反卷積對(duì)每階段的特征圖上采樣。此外,跳躍連接是U-Net網(wǎng)絡(luò)的特點(diǎn),這種連接方式連接了編碼器和解碼器不同階段的特征圖,不僅保留了高層語義信息,還將其與低層細(xì)節(jié)信息相結(jié)合,從而彌補(bǔ)因降采樣引起的細(xì)節(jié)信息丟失,提高分割的精度。
2 RMAU-Net網(wǎng)絡(luò)模型
本研究提出了一種融合殘差結(jié)構(gòu)和多種注意力機(jī)制的改進(jìn)U-Net網(wǎng)絡(luò)模型,即RMAU-Net網(wǎng)絡(luò)模型,該模型的整體結(jié)構(gòu)分為編碼器、空洞空間卷積池化金字塔(Atrous spatial pyramid pooling,ASPP)結(jié)構(gòu)、解碼器3個(gè)部分(圖2)。編碼器的主干特征提取網(wǎng)絡(luò)參考ResNet50[19]模型的結(jié)構(gòu),在編碼器每層中融入殘差模塊,每個(gè)殘差模塊由3個(gè)深層結(jié)構(gòu)的殘差單元構(gòu)成,有效加深特征提取網(wǎng)絡(luò)的深度,進(jìn)一步提升網(wǎng)絡(luò)提取耕地特征信息的能力。在最大池化之后,引入卷積塊注意力模塊(Convolutional block attention nodule,CBAM)[20],通過CBAM中的通道注意力模塊和空間注意力模塊加強(qiáng)地物特征提取,抑制其他無效特征,讓模型忽略無關(guān)的背景信息,從而更關(guān)注影像中的目標(biāo)區(qū)域。在網(wǎng)絡(luò)的中間層采用ASPP結(jié)構(gòu),ASPP采用不同膨脹率的空洞卷積提取多尺度信息,避免因耕地邊緣不連續(xù)而導(dǎo)致提取不準(zhǔn)確。在解碼器中,為了解決跳躍連接過程中存在無效語義信息的問題,首先使用自注意力模塊來抑制低維特征中的無效語義信息,然后將其與高維特征連接,以提高耕地提取的準(zhǔn)確性。
2.1 下采樣結(jié)構(gòu)
遙感圖像不同于普通的光學(xué)圖像,具有復(fù)雜的光譜特性,在特征提取過程中會(huì)出現(xiàn)無效特征,如果能使模型關(guān)注重點(diǎn)目標(biāo)區(qū)域,便可以抑制無效特征,提升模型精度,而注意力機(jī)制的本質(zhì)就是讓模型忽略無關(guān)的背景信息,從而更加關(guān)注圖像中的重點(diǎn)目標(biāo)區(qū)域。通過對(duì)不同通道和不同區(qū)域賦予各自的重要性權(quán)重,可以幫助模型識(shí)別出特征圖的重要空間信息和通道信息,抑制對(duì)背景區(qū)域的關(guān)注,幫助模型融合重要的特征信息。因此,本研究設(shè)計(jì)如圖3所示的下采樣結(jié)構(gòu),在特征提取網(wǎng)絡(luò)中引入CBAM模塊,CBAM中的空間注意力模塊(Spatial attention,SA)提取特征圖中的空間特征信息;通道注意力模塊(Channel attention,CA)提取特征圖中的通道特征信息。在下采樣時(shí),首先將最大池化層獲得的特征圖通過CA模塊,得到的通道特征信息與池化結(jié)果相乘,得到融合特征,然后將融合特征通過SA模塊,進(jìn)一步得到空間特征信息,再將空間特征信息與融合特征相乘得到CBAM提取的最終特征,最后將最大池化提取的特征與CBAM提取的最終特征進(jìn)行相加融合。
CBAM模塊中的通道注意力模塊將輸入特征分別通過最大值池化以及平均值池化操作,得到的特征再經(jīng)過相同的全連接網(wǎng)絡(luò)層改變其通道維度,計(jì)算公式如下:
式中,[McF]表示通道注意力模塊輸出結(jié)果;[AvgPoolF]表示平均池化;[MaxPoolF]表示最大池化;[Fcavg]表示平均池化結(jié)果;[Fcmax]表示最大池化結(jié)果;[σ]表示Sigmoid函數(shù);MLP表示全連接網(wǎng)絡(luò)層;F表示輸入特征;[W0]和[W1]表示輸入的共享參數(shù)。
將通道注意力模塊輸出的特征圖作為本模塊的輸入特征圖,首先對(duì)特征圖進(jìn)行基于通道的最大值池化和平均值池化,然后將2個(gè)池化結(jié)果進(jìn)行通道維度的拼接,再將拼接結(jié)果進(jìn)行卷積操作以降維至1個(gè)通道,最后應(yīng)用Sigmoid函數(shù)生成空間注意力特征,計(jì)算公式如下:
式中, [MsF]表示空間注意力模塊輸出結(jié)果;[σ]表示Sigmoid函數(shù);[f7×7]表示濾波器大小為7 px×7 px的卷積運(yùn)算。
2.2 自注意力模塊
圖像語義分割任務(wù)中,通過引入自注意力機(jī)制,可以有效獲取上下文信息,從而提升模型的分割性能,因此,自注意力機(jī)制被廣泛應(yīng)用于圖像語義分割任務(wù)中。針對(duì)圖像的語義分割,自注意力機(jī)制可以從通道和位置2個(gè)維度分別構(gòu)建相應(yīng)的注意力機(jī)制。為了有效利用低維特征信息,抑制低維特征中的無效語義信息,使網(wǎng)絡(luò)專注于提取耕地的特征,提高耕地提取的精度,本研究在網(wǎng)絡(luò)的低維特征向高維特征連接過程中設(shè)計(jì)了自注意力模塊[21],該模塊結(jié)構(gòu)包含通道注意機(jī)制(CAM)和位置注意機(jī)制(PAM)2個(gè)部分,如圖4所示。PAM和CAM在自注意力模塊中并行操作,將特征圖分別送入CAM和PAM中處理,并將處理特征圖進(jìn)行相加操作得到最終的注意力特征圖。
PAM的結(jié)構(gòu)如圖5所示,通過主干網(wǎng)絡(luò)得到特征[X∈RC×H×W],C表示輸入特征的通道數(shù)量, H和W分別表示特征的高和寬,將特征[X]通過卷積操作得到矩陣[K]、Q和V,其中[K,Q,V∈RC×H×W],將K矩陣進(jìn)行維度轉(zhuǎn)換和轉(zhuǎn)置,得到[K∈RN×C],[N=H×W],同時(shí)將Q改變形狀成[Q∈RC×N],將[K]與[Q]做矩陣乘法,然后使用Softmax函數(shù)計(jì)算位置注意力特征[S∈RN×N],計(jì)算公式如下:
式中,[Sji]表示第i個(gè)位置對(duì)第j個(gè)位置的影響因子;[K′i]表示矩陣[K]第i個(gè)位置元素,[Q′j]表示矩陣[Q]第j個(gè)位置元素。進(jìn)一步將矩陣[V]的形狀變成[V∈RC×N],將[V]與[S]的轉(zhuǎn)置矩陣相乘后重新改變形狀成[RC×H×W],同時(shí)將其與可學(xué)習(xí)的縮放參數(shù)[α]相乘并與輸入特征[X]相加得到最終的特征[E1]。位置注意力圖選擇性地聚合上下文信息,采用加權(quán)求和的方式計(jì)算每個(gè)位置的最終特征,其中權(quán)重由位置注意力圖確定。這種聚合方式使相似的語義特征相互促進(jìn),并保持語義一致性。因此,位置注意力機(jī)制是一種有效的機(jī)制,可以在不同位置的語義特征之間建立聯(lián)系,以提高模型的表現(xiàn)。
CAM的結(jié)構(gòu)如圖6所示,先將特征[X]的形狀轉(zhuǎn)變成[X∈RC×N]后,再與[X]的轉(zhuǎn)置矩陣相乘,結(jié)果通過Softmax函數(shù)得到特征[A],計(jì)算公式如下:
式中,[Aji]表示第i個(gè)通道對(duì)第j個(gè)通道的影響因子,[X′i]表示[X]矩陣的第i個(gè)位置的元素值;[XTj]表示[X]的轉(zhuǎn)置矩陣的第j個(gè)元素值,對(duì)A進(jìn)行轉(zhuǎn)置后與[X]做矩陣乘法,將乘法結(jié)果的形狀變換成[RC×H×W]后,相乘一個(gè)可訓(xùn)練參數(shù)[β],再與輸入特征[X]相加得到最終的特征[E2]。通道注意力模塊通過對(duì)所有通道特征和原始通道特征進(jìn)行加權(quán)求和的方式,得到每個(gè)通道的最終特征,其中權(quán)重由通道注意力圖確定。其可以讓不同通道之間的語義信息相互影響,從而增強(qiáng)特征表示。
3 試驗(yàn)設(shè)置
3.1 數(shù)據(jù)預(yù)處理
研究區(qū)位于常州市新北區(qū),研究區(qū)內(nèi)有耕地、建設(shè)用地、河流等地物類型,地物復(fù)雜多樣。試驗(yàn)選用高分二號(hào)(GF-2)遙感影像提取研究區(qū)的農(nóng)業(yè)耕地,GF-2衛(wèi)星搭載了全色相機(jī)和多光譜相機(jī),全色波段波譜范圍為0.45~0.9 mm,分辨率為0.8 m,多光譜波段分別有藍(lán)、綠、紅、近紅外4個(gè)波段。首先,對(duì)全色影像和多光譜影像進(jìn)行輻射校正和幾何校正,將0.8 m的全色波段和3.2 m的多光譜波段進(jìn)行融合,拼接生成0.8 m分辨率的新北區(qū)影像圖。其次,使用ArcMap軟件對(duì)新北區(qū)的耕地進(jìn)行標(biāo)注,以5 120 px ′5 120 px大小選取50塊區(qū)域,按照4∶1劃分訓(xùn)練集和測(cè)試集。最后,將數(shù)據(jù)集裁剪為 512 px×512 px的訓(xùn)練樣本。為了提高模型的訓(xùn)練準(zhǔn)確性,試驗(yàn)中采用數(shù)據(jù)增強(qiáng)的方式,包括旋轉(zhuǎn)、水平翻轉(zhuǎn)和垂直翻轉(zhuǎn)。通過數(shù)據(jù)增強(qiáng)成功將訓(xùn)練數(shù)據(jù)的數(shù)量擴(kuò)展到12 000張。
3.2 評(píng)價(jià)指標(biāo)
本研究采用精確率(Precision,Pr)、召回率(Recall,Re)、F1 Score和交并比(IoU) 4個(gè)評(píng)價(jià)指標(biāo)對(duì)試驗(yàn)結(jié)果進(jìn)行精度評(píng)價(jià),使用ROC曲線和PR曲線衡量模型表現(xiàn)的性能。ROC曲線橫坐標(biāo)為假陽性率(FPR),縱坐標(biāo)為真陽性率(TPR)。PR曲線橫軸代表召回率, 縱軸代表精確率。各個(gè)評(píng)價(jià)指標(biāo)的計(jì)算公式如下:
式中,TP代表真正類(True positive)的數(shù)量;TN代表真負(fù)類(True negative)的數(shù)量;FP代表假正類(False positive)的數(shù)量;FN代表假負(fù)類(False negative)的數(shù)量。
3.3 訓(xùn)練過程
試驗(yàn)采用PyTorch深度學(xué)習(xí)框架對(duì)模型進(jìn)行訓(xùn)練和測(cè)試,硬件環(huán)境為64位Ubuntu 20.04操作系統(tǒng),CPU為Intel(R) Xeon(R) W-2255,內(nèi)存為64 GB,顯卡為英偉達(dá)GeForce RTX2080Ti;試驗(yàn)采用Poly學(xué)習(xí)策略,設(shè)置初始學(xué)習(xí)率為0.001,并使用Adam優(yōu)化器進(jìn)行優(yōu)化。在訓(xùn)練過程中,批量大小設(shè)置為4,損失函數(shù)為交叉熵?fù)p失函數(shù),采用高斯初始化方法對(duì)權(quán)重進(jìn)行初始化。數(shù)據(jù)集訓(xùn)練設(shè)置了100個(gè)迭代周期(Epoch)。網(wǎng)絡(luò)模型在60個(gè)Epoch附近基本收斂,如圖7所示,訓(xùn)練的損失值和交并比趨于收斂。每隔5個(gè)Epoch保存一次模型參數(shù),并通過比較train loss和val loss獲得最佳的模型參數(shù)。
4 結(jié)果與分析
4.1 對(duì)比試驗(yàn)
為了驗(yàn)證本研究提出的RMAU-Net網(wǎng)絡(luò)模型提取耕地的效果,選取了DeeplabV3+、PSPNet、U-Net 3種傳統(tǒng)的全卷積神經(jīng)網(wǎng)絡(luò)模型與RMAU-Net網(wǎng)絡(luò)模型進(jìn)行對(duì)比分析。為了進(jìn)行可視化分析,列舉了4種方法在耕地測(cè)試集上的部分提取結(jié)果,如圖8所示。從整體提取效果分析,4種方法都能準(zhǔn)確提取絕大部分的耕地,但針對(duì)耕地邊界細(xì)節(jié)信息的提取,RMAU-Net網(wǎng)絡(luò)模型表現(xiàn)更出色,更接近標(biāo)簽圖像。
3種經(jīng)典模型與RMAU-Net網(wǎng)絡(luò)模型都準(zhǔn)確提取影像A中的大部分耕地,但在紅色矩形所標(biāo)示的區(qū)域內(nèi),經(jīng)典方法均出現(xiàn)了誤提,即錯(cuò)將部分植被誤分為耕地。PSPNet、DeepLabv3+網(wǎng)絡(luò)模型的誤提情況較嚴(yán)重,U-Net網(wǎng)絡(luò)模型出現(xiàn)少量誤提,而RMAU-Net網(wǎng)絡(luò)模型僅出現(xiàn)1處誤提,且提取的耕地邊界與標(biāo)簽圖像較匹配。影像B中分布大量形狀規(guī)則的耕地,PSPNet網(wǎng)絡(luò)模型出現(xiàn)大量漏提,提取的部分地塊不夠完整,U-Net、DeepLabv3+網(wǎng)絡(luò)模型出現(xiàn)少量的漏提,RMAU-Net網(wǎng)絡(luò)模型沒有出現(xiàn)漏提現(xiàn)象,提取的地塊完整且邊界清晰。影像C是密集的耕地區(qū)域。針對(duì)密集耕地區(qū)域地塊的邊界,PSPNet、DeepLabv3+網(wǎng)絡(luò)模型不能精確提取,U-Net、RMAU-Net網(wǎng)絡(luò)模型能精確提取部分地塊邊界,但對(duì)于密集分布的小地塊邊界,提取的效果欠佳。綜合分析,相較于PSPNet、U-Net、DeepLabv3+網(wǎng)絡(luò)模型,RMAU-Net網(wǎng)絡(luò)模型出現(xiàn)誤提耕地情況較少,耕地提取的效果最好。使用RMAU-Net網(wǎng)絡(luò)模型提取新北區(qū)的耕地,耕地提取的效果如圖9所示。
4.2 定量分析
為了進(jìn)一步定量分析不同的模型耕地提取的效果,計(jì)算了各模型在耕地測(cè)試集上預(yù)測(cè)的精確率、召回率、F1 Score和交并比,如表1所示。
由表1可知,RMAU-Net網(wǎng)絡(luò)模型在耕地測(cè)試集的提取效果最佳,精確率達(dá)90.36%,召回率達(dá)90.78%,F(xiàn)1 Score為90.57%,交并比為82.57%,4個(gè)評(píng)價(jià)指標(biāo)均優(yōu)于其他3個(gè)模型,表明RMAU-Net網(wǎng)絡(luò)模型耕地提取的精度最高。相較于次優(yōu)模型DeepLabv3+,精確率提高了0.68個(gè)百分點(diǎn),召回率提高了0.14個(gè)百分點(diǎn),交并比提高了1.66個(gè)百分點(diǎn),F(xiàn)1 Score提高了1.42個(gè)百分點(diǎn)。研究表明,本研究提出的RMAU-Net網(wǎng)絡(luò)模型能夠提高耕地提取的精度。
5 小結(jié)
針對(duì)傳統(tǒng)全卷積神經(jīng)網(wǎng)絡(luò)無法實(shí)現(xiàn)高分影像耕地精確提取的問題,本研究基于高分二號(hào)遙感影像,使用RMAU-Net網(wǎng)絡(luò)模型對(duì)耕地進(jìn)行提取,并與DeepLabv3+、PSPNet、U-Net網(wǎng)絡(luò)模型進(jìn)行對(duì)比。常州市新北區(qū)的耕地提取結(jié)果顯示,RMAU-Net網(wǎng)絡(luò)模型耕地提取效果最佳,其精確率、召回率、交并比、F1 Score分別為90.36%、90.78%、82.57%、90.57%,本研究方法能夠提高耕地提取的精度。后續(xù)還將使用RMAU-Net網(wǎng)絡(luò)模型對(duì)不同地區(qū)的耕地進(jìn)行精細(xì)提取,以驗(yàn)證RMAU-Net網(wǎng)絡(luò)模型方法的有效性與優(yōu)越性。
參考文獻(xiàn):
[1] 何 蔓, 張軍巖. 全球土地利用與覆蓋變化 (LUCC) 研究及其進(jìn)展[J]. 國土資源, 2005(9): 22-25.
[2] 鄭明雪,沈祥成,羅治情,等. 類城市路網(wǎng)空間中面向平原農(nóng)業(yè)應(yīng)用的耕地地塊邊界提取研究[J]. 湖北農(nóng)業(yè)科學(xué), 2022, 61(23):184-189.
[3] 蔡志文, 何 真, 王文靜, 等. 基于多源國產(chǎn)高分衛(wèi)星時(shí)空信息的米級(jí)分辨率耕地提取[J].遙感學(xué)報(bào),2022,26(7):1368-1382.
[4] 韓衍欣, 蒙繼華. 面向地塊的農(nóng)作物遙感分類研究進(jìn)展[J]. 自然資源遙感, 2019, 31(2): 1-9.
[5] 吳 晗,林曉龍,李曦嶸, 等. 面向農(nóng)業(yè)應(yīng)用的無人機(jī)遙感影像地塊邊界提?。跩]. 計(jì)算機(jī)應(yīng)用, 2019, 39(1): 298-304.
[6] 李倩楠, 張杜娟,潘耀忠, 等. MPSPNet和UNet網(wǎng)絡(luò)下山東省高分辨耕地遙感提?。跩].遙感學(xué)報(bào),2023,27(2):471-491.
[7] JULIEN Y, SOBRINO J A, JIMENEZ-MUNOZ J C. Land use classification from multitemporal Landsat imagery using the yearly land cover dynamics (YLCD) method[J]. International journal of applied earth observation and geoinformation,2011,13(5): 711-720.
[8] HERNANDEZ I E, SHI W. A random forests classification method for urban land-use mapping integrating spatial metrics and texture analysis[J]. International journal of remote sensing, 2018, 39(4): 1175-1198.
[9] 李昌俊, 黃 河, 李 偉. 基于支持向量機(jī)的農(nóng)業(yè)遙感圖像耕地提取技術(shù)研究[J]. 儀表技術(shù), 2018 (11): 5-8.
[10] 楊先增, 周亞男, 張 新, 等. 融合邊緣特征與語義信息的人工坑塘精準(zhǔn)提取方法[J]. 地球信息科學(xué)學(xué)報(bào),2022,24(4): 766-779.
[11] 王振慶, 周 藝, 王世新, 等. IEU-Net 高分辨率遙感影像房屋建筑物提?。跩]. 遙感學(xué)報(bào), 2021, 25(11): 2245-2254.
[12] 何紅術(shù), 黃曉霞, 李紅旮, 等. 基于改進(jìn)U-Net 網(wǎng)絡(luò)的高分遙感影像水體提?。跩]. 地球信息科學(xué)學(xué)報(bào), 2020, 22(10): 2010-2022.
[13] YANG X,LI X, YE Y, et al. Road detection and centerline extraction via deep recurrent convolutional neural network U-Net[J]. IEEE transactions on geoscience and remote sensing,2019,57(9):7209-7220.
[14] DU Z, YANG J, OU C, et al. Smallholder crop area mapped with a semantic segmentation deep learning method[J]. Remote sensing, 2019, 11(7): 888.
[15] CHEN L C, ZHU Y, PAPANDREOU G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[A].Proceedings of the European conference on computer vision[C]. Berlin: Springer,2018.801-818.
[16] ZHANG D,PAN Y, ZHANG J, et al. A generalized approach based on convolutional neural networks for large area cropland mapping at very high resolution[J]. Remote sensing of environment, 2020, 247.DOI:10.1016/j.rse.2020.111912.
[17] 陳玲玲, 施 政, 廖凱濤, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的高分遙感影像耕地提取研究[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(9):168-177.
[18] RONNEBERGER O,F(xiàn)ISCHER P,BROX T.U-Net:Convolutional networks for biomedical image segmentation[A].International con?ferenceon medical image computing and computer-assisted inter?vention[C]. Munich:Springer,2015.234-241.
[19] HE K, ZHANG X, REN S, et al. Deep residual learning for image recogition[A]. Proceedings of the IEEE conference on computer vision and pattern recognition[C]. Piscataway:IEEE,2016.770-778.
[20] WOO S,PARK J,LEE J,et al. CBAM: Convolutional block attention module[A]. Proceedings of the European conference on computer vision [C]. Berlin: Springer,2018.3-19.
[21] FU J, LIU J, TIAN H, et al. Dual attention network for scene segmentation[A]. Proceedings of the IEEE conference on computer vision and pattern recognition[C]. Piscataway:IEEE 2019.3146-3154.
收稿日期:2023-04-05
基金項(xiàng)目:國家自然科學(xué)基金項(xiàng)目(41771358);廣東省水利科技創(chuàng)新項(xiàng)目(2020-04);中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)(B210202011)
作者簡介:袁 鵬(1996-),男,四川南江人,在讀碩士研究生,研究方向?yàn)檫b感圖像信息提取與應(yīng)用,(電話)18705172729(電子信箱)599471929@qq.com;通信作者,王 珂(1982-),男,河南原陽人,教授,博士,主要從事空間關(guān)系理論、遙感數(shù)字圖像處理的研究,(電話)18951847187(電子信箱)kewang@hhu.edu.cn。