毛星 金晶 張欣 戴佩玉 任妮
摘要: 針對實(shí)際遙感耕地信息提取工作中,多源數(shù)據(jù)特征復(fù)雜、樣本標(biāo)注工作繁重等導(dǎo)致高空間分辨率影像解譯精度不高、自動(dòng)化程度不夠的問題,本研究基于DeepLab v3+模型,提出一種融合鄰域邊緣加權(quán)模塊(NEWM)和軸向注意力機(jī)制模塊(CBAM-s)的卷積網(wǎng)絡(luò)模型DEA-Net,結(jié)合遷移學(xué)習(xí)方法進(jìn)行高分辨率遙感影像耕地信息提取。首先,在淺層網(wǎng)絡(luò)結(jié)構(gòu)中加入鄰域邊緣加權(quán)模塊,提升高分辨率下地物的連續(xù)性,細(xì)化邊緣分割粒度;其次,在深層網(wǎng)絡(luò)結(jié)構(gòu)中添加軸向注意力機(jī)制模塊,增加細(xì)小地物的關(guān)注權(quán)重,減少深度卷積導(dǎo)致地物丟失的情況;最后,采用遷移學(xué)習(xí)的思想,降低樣本標(biāo)注工作量,提高模型學(xué)習(xí)能力。利用高分衛(wèi)星土地覆蓋數(shù)據(jù)集(GID)數(shù)據(jù)構(gòu)建源域數(shù)據(jù)集進(jìn)行模型預(yù)訓(xùn)練,將獲取的模型參數(shù)及權(quán)重信息遷移至大數(shù)據(jù)與計(jì)算智能大賽(BDCI)遙感影像地塊分割競賽數(shù)據(jù)集和全國人工智能大賽(NAIC)遙感影像數(shù)據(jù)集制作的2種不同目標(biāo)域數(shù)據(jù)集中,微調(diào)訓(xùn)練后應(yīng)用于耕地信息提取研究。結(jié)果表明,本研究構(gòu)建方法能夠增強(qiáng)模型的空間細(xì)節(jié)學(xué)習(xí)能力,提高耕地語義分割精度的同時(shí),降低2/3以上的訓(xùn)練樣本數(shù)量,為遙感耕地信息提取及農(nóng)業(yè)數(shù)據(jù)智能化利用提供新的思路和方法。
關(guān)鍵詞: 耕地信息提取;遷移學(xué)習(xí);DEA-Net;高分遙感
中圖分類號: S126?? 文獻(xiàn)標(biāo)識碼: A?? 文章編號: 1000-4440(2023)07-1519-11
High-resolution remote sensing arable land information extraction method based on improved DeepLab v3+ model and transfer learning
MAO Xing1,2, JIN Jing1,2, ZHANG Xin1,2, DAI Pei-yu1,2, REN Ni1,2
(1.Institute of Agricultural Information, Jiangsu Academy of Agricultural Sciences, Nanjing 210014, China;2.Key Laboratory of Intelligent Agricultural Technology (Changjiang Delta), Ministry of Agriculture and Rural Affairs, Nanjing 210014, China)
Abstract: ?The complex multi-source data features and heavy sample annotation work in the practical remote sensing arable land information extraction work will lead to low accuracy and insufficient automation of high spatial resolution image interpretation. In view of the above problems, based on DeepLab v3+, we proposed a convolutional network model DEA-Net that incorporated the neighborhood edge weighting module (NEWM) and the axial attention mechanism (CBAM-s), and combined the transfer learning method to extract arable land information of high-resolution remote sensing images. First, the NEWM was added to the shallow network structure to improve the continuity of features under high resolution and refine the granularity of edge segmentation. Then, the CBAM-s was added to the deep network structure to increase the attention weight of fine features and reduce the loss of features due to deep convolution. Finally, the idea of transfer learning was adopted to reduce the sample annotation workload and improve the learning ability of the model. The source domain dataset was constructed using the Gaofen image dataset (GID) for model pre-training, and the acquired model parameters and weight information were migrated to two different target domain datasets produced by big data & computing intelligence contest (BDCI) and national artificial intelligence challenge (NAIC), and fine-tuned and trained for arable land information extraction. The results showed that the method constructed in this study could enhance the spatial detail learning ability of the model, improve the semantic segmentation accuracy of arable land, and reduce the number of training samples by more than 2/3. It can provide new ideas and methods for remote sensing arable land information extraction and intelligent utilization of agricultural data.
Key words: arable land information extraction;transfer learning;DEA-Net;high resolution remote sensing
及時(shí)、準(zhǔn)確獲取耕地信息對于國家糧食安全、農(nóng)業(yè)生產(chǎn)管理、農(nóng)業(yè)資源保護(hù)等具有重要意義[1]。隨著農(nóng)業(yè)現(xiàn)代化的不斷發(fā)展,中低分辨率耕地影像已無法滿足精準(zhǔn)農(nóng)業(yè)對數(shù)據(jù)質(zhì)量的要求。雖然遙感影像的分辨率越來越高,但隨之而來的復(fù)雜空間特征信息對遙感影像的解譯技術(shù)提出了更高要求。
卷積神經(jīng)網(wǎng)絡(luò)出現(xiàn)之前,遙感地物分類提取方法多依賴于分類特征設(shè)計(jì)和機(jī)器學(xué)習(xí)模型[2]。光譜信息和植被指數(shù)是耕地識別中最常見的特征參數(shù)[3],但不同波段組合、不同植被指數(shù)組成的分類特征使耕地識別結(jié)果具有很大隨機(jī)性?;谥С窒蛄繖C(jī)(SVM)[4]、決策樹[5]、隨機(jī)森林[6]等分類器構(gòu)建的機(jī)器學(xué)習(xí)模型雖然降低了分類特征設(shè)計(jì)過程中人為因素的影響,但模型的魯棒性和靈活性存在一定限制,改選數(shù)據(jù)源或者切換應(yīng)用區(qū)域,均需對模型的參數(shù)及輸入特征做出調(diào)整。
近年來,深度學(xué)習(xí)技術(shù)的快速發(fā)展推動(dòng)了遙感語義分割的廣泛應(yīng)用。Long等[7]提出了FCN網(wǎng)絡(luò),用卷積層替換最后一層全連接層,實(shí)現(xiàn)了像素級的圖像分類,但FCN在上采樣過程中忽略了像素之間的關(guān)系。UNet模型采用編碼器—解碼器結(jié)構(gòu),并在上采樣過程中充分利用下采樣提取的特征信息,提高了語義分割精度[8],但沒有考慮圖像的上下文信息。Chen等[9]引入了空洞金字塔池化模塊來增加網(wǎng)絡(luò)的上下文信息感受野,但空洞卷積會丟失部分空間信息,導(dǎo)致影像分割不夠精細(xì)。Yao等[10]在DeepLab v3+的基礎(chǔ)上引入了注意力機(jī)制,增強(qiáng)了特征提取能力,降低了環(huán)境信息的影響。Wang等[11]基于DeepLab v3+提出了一種名為CFAMNet的網(wǎng)絡(luò)模型,使用類特征注意模塊增強(qiáng)了類與類之間的相關(guān)性,采用多并行空洞金字塔池化結(jié)構(gòu)增強(qiáng)了空間相關(guān)性。劉文祥等[12]采用雙注意力機(jī)制,從位置和通道2個(gè)角度增強(qiáng)特征信息的關(guān)注度,提升了模型的訓(xùn)練速度。葉沅鑫等[13]采用R-MCN網(wǎng)絡(luò)結(jié)構(gòu),增大訓(xùn)練的感受野,增加了淺層網(wǎng)絡(luò)特征權(quán)重,進(jìn)一步細(xì)化了地物邊界。雖然,基于DeepLab v3+的遙感影像語義分割技術(shù)已經(jīng)有了一定提高,但大多數(shù)研究針對的目標(biāo)數(shù)據(jù)都是具有相同參數(shù)的少量遙感影像,模型泛化能力有限。多源遙感數(shù)據(jù)不同的成像方式、成像時(shí)間、空間分辨率、光譜波段范圍等對模型的魯棒性提出了較高要求,作物類型、灌溉方式、地形地貌、休耕輪作等也是遙感耕地自動(dòng)化提取中不可避免的難點(diǎn)問題。
基于此,本研究擬提出一種融合鄰域邊緣加權(quán)模塊(NEWM)和軸向注意力機(jī)制模塊(CBAM-s)的高分辨率遙感耕地信息提取方法,利用鄰域邊緣加權(quán)模塊改善淺層網(wǎng)絡(luò)中地物的連續(xù)性,用軸向注意力機(jī)制模塊提高深層網(wǎng)絡(luò)中細(xì)小地物的關(guān)注度,基于遷移學(xué)習(xí)的方法優(yōu)化模型參數(shù),以期在增強(qiáng)語義分割效果的同時(shí),能夠進(jìn)一步提高模型的泛化能力。
1 材料與方法
1.1 數(shù)據(jù)集制作
本研究試驗(yàn)數(shù)據(jù)包括兩部分,第一部分為源域數(shù)據(jù)集,用于模型的預(yù)訓(xùn)練,該數(shù)據(jù)集來自于武漢大學(xué)公布的高分衛(wèi)星土地覆蓋數(shù)據(jù)集(GID),包含了150張像素為7 200×6 800的高分2號衛(wèi)星影像,涵蓋了5種地物類別:水域、農(nóng)田、建筑、草地和林地,具體見圖1。因?yàn)檠芯繉ο笫歉兀赃x擇與之相似的農(nóng)田地塊作為模型預(yù)訓(xùn)練對象。為方便模型的訓(xùn)練,使用像素為256×256的隨機(jī)窗口從原始影像中裁剪出30 000張包含農(nóng)田地塊的樣本圖像,將分類標(biāo)注數(shù)據(jù)二值化為農(nóng)田和其他類別,作為源域數(shù)據(jù)集,并按照8∶1∶1的比例隨機(jī)劃分為訓(xùn)練數(shù)據(jù)、驗(yàn)證數(shù)據(jù)和測試數(shù)據(jù)。第二部分為目標(biāo)域數(shù)據(jù)集,數(shù)據(jù)來源于大數(shù)據(jù)與計(jì)算智能大賽(BDCI)遙感影像地塊分割競賽數(shù)據(jù)集(后文統(tǒng)稱為BDCI數(shù)據(jù)集)和全國人工智能大賽(NAIC)遙感影像數(shù)據(jù)集(后文統(tǒng)稱為NAIC數(shù)據(jù)集),這2個(gè)數(shù)據(jù)集的圖像大小均為256×256(圖2)。BDCI數(shù)據(jù)集是分辨率為2.0 m的遙感圖像,包含7類地物:建筑、耕地、林地、水體、道路、草地和其他地物。NAIC數(shù)據(jù)集由分辨率0.1 m至4.0 m的多種衛(wèi)星及航空數(shù)據(jù)組成,包含8類地物:水體、道路、建筑、耕地、草地、林地、裸土和其他地物。分別從2個(gè)數(shù)據(jù)集中隨機(jī)選取8 000張包含耕地的圖像,將分類標(biāo)注數(shù)據(jù)二值化為耕地和其他類別,作為目標(biāo)域數(shù)據(jù)集,并按照2∶1∶1的比例隨機(jī)劃分為訓(xùn)練數(shù)據(jù)、驗(yàn)證數(shù)據(jù)和測試數(shù)據(jù)。
1.2 DeepLab v3+模型改進(jìn)
本研究提出了一種改進(jìn)的DeepLab v3+模型,名為DEA-Net模型,整體采用編碼器—解碼器結(jié)構(gòu)。圖3顯示,編碼器部分主要包含Xception特征提取網(wǎng)絡(luò)和空洞金字塔池化(ASPP)模塊,解碼器通過2次4倍上采樣得到地物的分割形狀。ASPP模塊包含1個(gè)1×1卷積和3個(gè)擴(kuò)張率分別為6、12、18的3×3卷積以及1個(gè)全局平均池化層。不同擴(kuò)張率的空洞卷積可以有效捕獲影像上下文特征信息,提高地物不同尺度的識別效果[14]。不同尺度影像特征包含不同的空間信息,高分辨率對應(yīng)的淺層特征具有豐富的空間細(xì)節(jié)信息,有利于耕地邊界細(xì)化,但是面對遙感影像同物異譜的情況,容易出現(xiàn)噪聲點(diǎn)[15]。低分辨率對應(yīng)的深層特征包含豐富的全局語義信息[16],能夠有效識別耕地的大致范圍,但下采樣過程中容易導(dǎo)致溝壑、田埂等信息的丟失。因此,本研究設(shè)計(jì)了鄰域邊緣加權(quán)模塊和軸向注意力機(jī)制模塊,對模型的ASPP模塊進(jìn)行改進(jìn),增強(qiáng)模型特征提取能力,提高遙感影像的耕地信息提取精度。NEWM位于ASPP模塊前兩層卷積之后,主要用于改善高分辨率情況下地物的連續(xù)性,CBAM-s則嵌入ASPP中擴(kuò)張率為12、18的3×3卷積之后,以增加深層特征對周邊要素的考慮。
1.2.1 鄰域邊緣加權(quán)模塊 卷積神經(jīng)網(wǎng)絡(luò)中的低級特征容易忽略空間細(xì)節(jié)[17],導(dǎo)致語義分割的邊緣模糊不清。為此,本研究設(shè)計(jì)了鄰域邊緣加權(quán)模塊,增強(qiáng)耕地邊緣權(quán)重,提高空間特征關(guān)注度,改善耕地邊緣識別效果。圖4顯示,首先按照柵格圖像8鄰域規(guī)則,創(chuàng)建8個(gè)不同方向的卷積核,卷積核當(dāng)前方向值為1,其余位置為0,然后對輸入特征進(jìn)行8鄰域二維卷積,卷積結(jié)果與輸入特征相減后疊加,最后經(jīng)過非線性激活生成鄰域邊緣權(quán)重特征。NEWM的計(jì)算公式可表示為:
Ne(M)=σ∑7i=0[Ei(M)-M]M(1)
其中,M表示輸入特征;Ne(M)表示鄰域邊緣加權(quán)后的輸出特征;Ei表示8鄰域二維卷積;σ表示Sigmoid函數(shù);表示矩陣的元素乘法運(yùn)算。
1.3 遷移學(xué)習(xí)
針對樣本數(shù)量有限的條件下,高分辨率遙感耕地信息提取模型存在收斂緩慢、極易過擬合等問題,遷移學(xué)習(xí)可以使用少量訓(xùn)練樣本創(chuàng)建特征學(xué)習(xí)能力更強(qiáng)的深度學(xué)習(xí)模型,最大限度減少目標(biāo)領(lǐng)域?qū)W習(xí)成本[20]。對于給定源域(DS)和學(xué)習(xí)任務(wù)(TS)以及目標(biāo)域(DT)和學(xué)習(xí)任務(wù)(TT),遷移學(xué)習(xí)能夠利用在DS和TS中學(xué)習(xí)的知識幫助改進(jìn)目標(biāo)預(yù)測函數(shù)(FT)在DT中的使用。圖8顯示,本研究將源域數(shù)據(jù)集上預(yù)訓(xùn)練獲得的特征權(quán)重和參數(shù)信息遷移至新的網(wǎng)絡(luò)模型,新模型最大程度復(fù)用預(yù)訓(xùn)練模型的網(wǎng)絡(luò)結(jié)構(gòu)和權(quán)重參數(shù),通過目標(biāo)域數(shù)據(jù)集微調(diào)訓(xùn)練模型參數(shù)學(xué)習(xí)隱含特征,進(jìn)而提高模型性能。
1.4 精度評價(jià)方法
采用像素準(zhǔn)確率(PA)、類別平均像素準(zhǔn)確率(MPA)、平均交并比(MIoU)和Kappa系數(shù)作為精度評價(jià)標(biāo)準(zhǔn)。PA、MPA和MIoU是圖像分割評價(jià)的重要指標(biāo),計(jì)算公式如下:
PA=∑ki=1pii∑ki=1∑kj=1pij(6)
MPA=1k∑ki=1pii∑kj=1pij(7)
MIoU=1k∑ki=1pii∑kj=1pij+∑kj=1(pji-pii)(8)
其中,PA表示像素準(zhǔn)確率;MPA表示類別平均像素準(zhǔn)確率;MIoU表示平均交并比;k表示類別數(shù)量;pii表示預(yù)測正確的像素?cái)?shù)量;pij表示將i類預(yù)測為j類的像素?cái)?shù)量;pji表示將j類預(yù)測為i類的像素?cái)?shù)量。
Kappa系數(shù)是遙感分類中最常用的評價(jià)指標(biāo),計(jì)算公式如下:
Kappa=N∑ki=1Nii-∑ki=1Ni+N+iN2-∑ki=1Ni+N+i(9)
其中,Kappa表示Kappa系數(shù);N表示樣本像素總數(shù);k為類別數(shù)量;Ni+表示第i類的真實(shí)樣本像素?cái)?shù)量;N+i表示預(yù)測為第i類的樣本像素?cái)?shù)量;Nii表示第i類真實(shí)值和預(yù)測值一致的樣本像素?cái)?shù)量。
1.5 試驗(yàn)配置
本研究的試驗(yàn)在Linux操作系統(tǒng)中運(yùn)行,深度學(xué)習(xí)框架采用Pytorch 1.11,處理器為Intel(R) Xeon(R) Gold 5218R CPU @ 2.10 GHz,顯卡為NVIDIA A100-PCIE-40 GB。Python版本為3.8,CUDA版本為11.0。使用Adam函數(shù)作為網(wǎng)絡(luò)優(yōu)化器,初始學(xué)習(xí)率為0.001,單次訓(xùn)練的樣本個(gè)數(shù)為64。
2 結(jié)果與分析
2.1 不同網(wǎng)絡(luò)在源域數(shù)據(jù)集上的對比
為了對比模型的特征學(xué)習(xí)能力,本研究選擇SegNet、UNet、DeepLab v3+網(wǎng)絡(luò)模型進(jìn)行對比試驗(yàn)。每種模型均利用源域數(shù)據(jù)集的訓(xùn)練數(shù)據(jù)和驗(yàn)證數(shù)據(jù)進(jìn)行特征學(xué)習(xí),并在測試數(shù)據(jù)上對其進(jìn)行語義分割試驗(yàn)以及精度評價(jià)。結(jié)果(表1)表明,DEA-Net模型相比其他網(wǎng)絡(luò)模型的PA、MPA、MIoU和Kappa系數(shù)均有所提高,PA、MPA、MIoU分別為88.49%、86.44%、80.11%,Kappa系數(shù)為0.833 7。與DeepLab v3+模型相比,DEA-Net模型的PA提高了1.59個(gè)百分點(diǎn),MPA提高了0.87個(gè)百分點(diǎn),MIoU提高了1.61個(gè)百分點(diǎn),Kappa系數(shù)提高了0.013 8,說明本研究提出的DEA-Net模型在農(nóng)田遙感影像語義分割中具有一定優(yōu)勢。
圖9展示了不同模型的語義分割情況,SegNet模型在上采樣和下采樣過程中未曾關(guān)聯(lián)上下文信息,容易丟失空間特征,造成大片農(nóng)田無法識別。UNet模型融合了編碼、解碼過程的特征,其精度有所提高,但對相似區(qū)域仍存在大量錯(cuò)分、漏分情況。DeepLab v3+模型中ASPP模塊的不同空洞卷積增加了多尺度特征關(guān)聯(lián),其結(jié)果與本研究提出的DEA-Net模型最接近。DEA-Net模型提取的農(nóng)田邊界信息比其他網(wǎng)絡(luò)模型更加清晰,結(jié)果更接近真實(shí)標(biāo)注。
2.2 模型在源域數(shù)據(jù)集上的消融分析
為了研究NEWM和CMAM-s對DEA-Net模型的影響,本研究在源域數(shù)據(jù)集上進(jìn)行了消融試驗(yàn)。采用DeepLab v3+模型為基準(zhǔn)模型,逐步添加NEWM和CMAM-s,驗(yàn)證各模塊的效果。從表2可以看出各模塊對模型精度的貢獻(xiàn)程度,CMAM-s對模型學(xué)習(xí)能力的提升效果優(yōu)于NEWM。從提取結(jié)果中選取了3張代表性影像說明各模塊發(fā)揮的作用,圖10顯示,第一張影像引入NEWM后,細(xì)條狀農(nóng)田被清晰識別出,且農(nóng)田的邊界輪廓鮮明;第二張影像提取結(jié)果顯示,CMAM-s能夠精準(zhǔn)確定農(nóng)田的大致分布范圍;第三張影像的提取結(jié)果可以看出NEWM提高了田埂、道路的識別精度,但有部分非農(nóng)田被誤認(rèn)為是農(nóng)田。CMAM-s可以提高連片農(nóng)田分割效果,但無法區(qū)分農(nóng)田中細(xì)長的其他地物,融合NEWM和CMAM-s 2個(gè)模塊的DEA-Net模型提取的農(nóng)田信息基本接近實(shí)際標(biāo)注范圍。消融試驗(yàn)結(jié)果表明NEWM和CMAM-s均能有效提高模型的農(nóng)田識別精度,但部分場景下2個(gè)獨(dú)立模塊的提取結(jié)果并不理想,而DEA-Net模型能夠融合2個(gè)模塊的優(yōu)勢,提高模型精度。
2.3 目標(biāo)域數(shù)據(jù)集中的耕地信息提取結(jié)果
本研究利用2種目標(biāo)域數(shù)據(jù)集分別進(jìn)行耕地信息提取試驗(yàn),將源域數(shù)據(jù)集上訓(xùn)練得到的模型遷移到目標(biāo)域數(shù)據(jù)集上,通過20次迭代訓(xùn)練并在目標(biāo)域數(shù)據(jù)集的測試數(shù)據(jù)中進(jìn)行模型效果驗(yàn)證。本研究對比了DEA-Net模型和DeepLab v3+模型在目標(biāo)域數(shù)據(jù)集上的精度,結(jié)果(表3)表明,BDCI數(shù)據(jù)集中DEA-Net模型遷移學(xué)習(xí)效果優(yōu)于DeepLab v3+模型,經(jīng)過遷移學(xué)習(xí)DEA-Net模型的PA、MPA、MIoU、Kappa系數(shù)分別提高了1.55個(gè)百分點(diǎn)、1.18個(gè)百分點(diǎn)、2.15個(gè)百分點(diǎn)和0.031 2。NAIC數(shù)據(jù)集中2種模型經(jīng)過遷移學(xué)習(xí)后的精度提升效果更加明顯,DeepLab v3+模型的PA、MPA、MIoU、Kappa系數(shù)分別提高了2.02個(gè)百分點(diǎn)、2.43個(gè)百分點(diǎn)、2.12個(gè)百分點(diǎn)和0.043 5,DEA-Net模型的PA、MPA、MIoU、Kappa系數(shù)分別提高了2.26個(gè)百分點(diǎn)、1.36個(gè)百分點(diǎn)、4.47個(gè)百分點(diǎn)和0.039 5,DEA-Net模型的PA和MIoU提升效果更明顯,說明DEA-Net模型對于目標(biāo)耕地信息的提取效果更好。
為了更直觀地展示不同方法的耕地信息提取效果,從目標(biāo)域數(shù)據(jù)集中選取4個(gè)代表性場景,場景一、場景二來自NAIC數(shù)據(jù)集,場景三、場景四來自BDCI數(shù)據(jù)集。圖11顯示,場景一的耕地中間分布了一片規(guī)則房區(qū),場景二中耕地被不規(guī)則地物隔開,場景三由耕地和林地環(huán)繞分布,場景四擁有2塊不同形態(tài)的耕地。DEA-Net模型的鄰域邊緣加權(quán)模塊能夠有效提高邊緣精度,不論是針對規(guī)則邊緣還是不規(guī)則邊緣都能較好地展示細(xì)節(jié)信息。注意力機(jī)制可以加速不同特征信息學(xué)習(xí),提高“異物同譜、同物異譜”地物的分類準(zhǔn)確性。此外,經(jīng)過遷移學(xué)習(xí)的DEA-Net模型和DeepLab v3+模型的識別效果均明顯提高,但DEA-Net模型的耕地分割結(jié)果與實(shí)際情況更為接近。
2.4 訓(xùn)練樣本數(shù)量分析
為了進(jìn)一步驗(yàn)證DEA-Net模型在目標(biāo)域數(shù)據(jù)集中的適用性,將目標(biāo)域訓(xùn)練數(shù)據(jù)從100張逐步增加至3 000張,驗(yàn)證數(shù)據(jù)和測試數(shù)據(jù)不變,訓(xùn)練迭代次數(shù)設(shè)為20次。圖12展示了BDCI數(shù)據(jù)集和NAIC數(shù)據(jù)集中DEA-Net模型的MIoU隨訓(xùn)練樣本數(shù)量的變化。隨著樣本數(shù)量的增加,模型的精度整體呈增加趨勢。在BDCI數(shù)據(jù)集中,經(jīng)過遷移學(xué)習(xí)后模型的MIoU達(dá)到80%時(shí),樣本為400張影像,而未經(jīng)過遷移學(xué)習(xí)的模型在1 500張樣本以后MIoU才超過79%。在NAIC數(shù)據(jù)集中,經(jīng)過遷移學(xué)習(xí)的模型在樣本超過500張后MIoU達(dá)70%以上,未經(jīng)過遷移學(xué)習(xí)的模型則需要2 000張樣本。因此,本研究提出的方法可以有效減少高分辨率遙感耕地分割的樣本數(shù)量。
此外,在BDCI數(shù)據(jù)集中,樣本數(shù)量超過400張以后,模型精度的提升幅度總體呈減小趨勢。在NAIC數(shù)據(jù)集中,模型精度隨訓(xùn)練樣本數(shù)量的增加總體呈增加趨勢。主要原因是BDCI數(shù)據(jù)集都是分辨率相同的遙感圖像,只需少量訓(xùn)練樣本就能覆蓋大部分樣本類型。NAIC數(shù)據(jù)集包含了高分一號、高分二號、高分六號、高景二號、北京二號以及航空遙感等多源影像,其空間分辨率、光譜載荷、成像方式等差異性較大,樣本類型更加豐富,少量的樣本難以覆蓋全部樣本類型。因此,遷移學(xué)習(xí)雖然能夠降低訓(xùn)練樣本數(shù)量,但面對復(fù)雜多樣的實(shí)際應(yīng)用仍然需要一定規(guī)模的樣本數(shù)據(jù)以擴(kuò)大模型的適用范圍。
3 結(jié)論
本研究以DeepLab v3+模型為基礎(chǔ),引入鄰域邊緣加權(quán)模塊和軸向注意力機(jī)制模塊,提出了一種DEA-Net網(wǎng)絡(luò)結(jié)構(gòu),有效提高了多尺度影像特征信息提取能力,并借助遷移學(xué)習(xí)的思想,在提高模型精度的同時(shí),降低樣本標(biāo)注成本。研究結(jié)果表明,本研究提出的DEA-Net模型在源域數(shù)據(jù)集的語義分割中相比其他幾種主流網(wǎng)絡(luò)模型表現(xiàn)更好,PA、MPA、MIoU分別為88.49%、86.44%、80.11%,Kappa系數(shù)為0.833 7。NEWM可以提高邊緣細(xì)節(jié)關(guān)注度,CBAM-s可以為深層網(wǎng)絡(luò)提供更加豐富的空間特征,能夠?yàn)楦匦畔⑻崛√峁└嗟恼Z義信息。本研究提出的方法能夠有效解決遙感耕地信息提取中樣本數(shù)量不足的問題,減少2/3以上的樣本標(biāo)注工作。
雖然本研究提出的方法可以有效應(yīng)用于遙感影像耕地信息提取工作,但仍有改進(jìn)的空間。首先,本研究僅利用紅、綠、藍(lán)3個(gè)波段數(shù)據(jù),并未完全發(fā)揮遙感影像的多光譜、高光譜優(yōu)勢,未來可從光譜維度方面考慮如何進(jìn)一步提高模型精度。其次,本研究并未對耕地種植類型開展細(xì)化分類,未來可圍繞作物種植類型識別進(jìn)行相關(guān)研究。
參考文獻(xiàn):
[1] 唐華俊. 農(nóng)業(yè)遙感研究進(jìn)展與展望[J]. 農(nóng)學(xué)學(xué)報(bào), 2018, 8(1): 167-171.
[2] 馮權(quán)瀧,牛博文,朱德海,等. 土地利用/覆被深度學(xué)習(xí)遙感分類研究綜述[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(3): 1-17.
[3] ARANGO R B, DAZ I, CAMPOS A, et al. Automatic arable land detection with supervised machine learning[J]. Earth Science Informatics, 2016, 9: 535-545.
[4] 陳 杰,陳鐵橋,劉慧敏,等. 高分辨率遙感影像耕地分層提取方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2015, 31(3): 190-198.
[5] 朱江洪,李江風(fēng),葉 菁. 利用決策樹工具的土地利用類型遙感識別方法研究[J]. 武漢大學(xué)學(xué)報(bào)(信息科學(xué)版), 2011, 36(3): 301-305.
[6] NITZE I, BARRETT B, CAWKWELL F. Temporal optimisation of image acquisition for land cover classification with random forest and MODIS time-series[J]. International Journal of Applied Earth Observation and Geoinformation, 2015, 34: 136-146.
[7] LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[C]. New York: IEEE Press, 2015.
[8] RONNEBERGER O, FISCHER P, BROX T. U-Net: convolutional networks for biomedical image segmentation[C]. Munich: Springer International Publishing, 2015.
[9] CHEN L, PAPANDREOU G, KOKKINOS I, et al. DeepLab: semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834-848.
[10]YAO X, GUO Q, LI A. Light-weight cloud detection network for optical remote sensing images with attention-based DeepLab v3+ architecture[J]. Remote Sensing, 2021, 13. DOI:org/10.3390/rs13183617.
[11]WANG Z, WANG J, YANG K, et al. Semantic segmentation of high-resolution remote sensing images based on a class feature attention mechanism fused with DeepLab v3+[J]. Computers & Geosciences, 2022, 158. DOI:org/10.1016/j.cageo.2021.104969.
[12]劉文祥,舒遠(yuǎn)仲,唐小敏,等. 采用雙注意力機(jī)制 DeepLab v3+算法的遙感影像語義分割[J]. 熱帶地理, 2020, 40(2): 303-313.
[13]葉沅鑫,譚 鑫,孫苗苗,等. 基于增強(qiáng) DeepLab v3網(wǎng)絡(luò)的高分辨率遙感影像分類[J]. 測繪通報(bào),2021(4): 40-44.
[14]WANG Y, GAO L, HONG D, et al. Mask DeepLab: end-to-end image segmentation for change detection in high-resolution remote sensing images[J]. International Journal of Applied Earth Observation and Geoinformation, 2021, 104. DOI:org/10.1016/j.jag.2021.102582.
[15]GUO H, DU B, ZHANG L, et al. A coarse-to-fine boundary refinement network for building footprint extraction from remote sensing imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2022, 183: 240-252.
[16]HUANG J, ZHANG X, SUN Y, et al. Attention-guided label refinement network for semantic segmentation of very high resolution aerial orthoimages[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 4490-4503.
[17]ZHU Q, LIAO C, HU H, et al. MAP-Net: multiple attending path neural network for building footprint extraction from remote sensed imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 59(7): 6169-6181.
[18]WOO S, PARK J, LEE J Y, et al. CBAM : convolutional block attention module[C]. Munich: Springer International Publishing, 2018.
[19]WANG D, CHEN X, JIANG M, et al. ADS-Net: an attention-based deeply supervised network for remote sensing image change detection[J]. International Journal of Applied Earth Observation and Geoinformation, 2021, 101. DOI:org/10.1016/j.jag.2021.102348.
[20]RIBANI R, MARENGONI M. A survey of transfer learning for convolutional neural networks[C]. Rio de Janeiro: IEEE, 2019.
(責(zé)任編輯:王 妮)