Research on Accurate Identification of Tea Gardens Based on Satellite Remote Sensing Images
Li Dongxue',Li Feng2, Zhao Mengjie',Ding Zhaotang3,Ma Qingping'(1. Collge of Agriculture and Biology, Liaocheng University, Liaocheng 2520oo, China;2. Shandong Climate Center, Jinan 250031,China ;3. Tea Research Institute, Shandong Academy of Agricultural Sciences, Jinan 25010o, China)
AbstractDue to the complex and varied textural features and spatial distribution characteristics of tea garden in satelite remote sensing images,it is a challenge to effectively recognize tea garden using traditional methods.Therefore,this study was aimed to achieve precise identification of tea gardens through satelite remote sensing images combined with high-precision semantic segmentation technology.Firstly,according to the satelite images of Rizhao City,the Labelme tool was utilized to accurately annotate the textural information of tea gardens and construct a dataset of tea garden remote sensing images.Based on this dataset,seven semantic segmentation models such as Vgg-unet, Resnet5O-unet and Segformer_b2 were trained using data augmentation techniques for precise identification of tea gardens.The results indicated that among the seven models,Segformer_b2 showed the best property with accuracy of 91.29% ,recall rate of 91.09% ,mean intersection over union(mIoU)of 84.45% and F1-score of 91.20% for tea garden remote sensing image segmentation. To further enhance the performance of the Segformer_b2 model in identifying tea gardens,the multi-head context attention(MCA)mechanism was introduced,and strided convolution was integrated to enhance the model's ability to capture key textural features of tea gardens and its perception and processing capabilities for local details in the images.The improved Segformer-b2 model exhibited enhanced performance in tea garden remote sensing image segmentation with accuracy increased to 91.31% ,recall rate increased to 92.97% ,mIoU increased to 85.87% ,and F1-score increased to 92.12% ,which could achieve the high precision and efficiency identification of tea gardens remote sensing images.This study could not only provide strong support for future precise identification and management of tea gardens,but also showcase the potential of satelite remote sensing technology in the agricultural field.
KeywordsSatellite remote sensing images; Tea garden recognization; Semantic segmentation model
遙感技術(shù)具有信息獲取迅速、觀測范圍廣等優(yōu)點,在資源普查、土地利用規(guī)劃、環(huán)境監(jiān)測等領(lǐng)域得到廣泛應(yīng)用[1-4]。當(dāng)前,我國茶園面積廣,但茶園信息化管理仍面臨諸多挑戰(zhàn),如傳統(tǒng)的茶園識別與面積提取往往依賴于人工實地測量和經(jīng)驗判斷,存在工作量大、成本高、精度低等問題。因此,利用衛(wèi)星遙感和深度學(xué)習(xí)技術(shù)實現(xiàn)茶園的自動化提取和監(jiān)測,對于提高茶園管理效率、降低管理成本具有重要意義。
深度學(xué)習(xí)中的語義分割是計算機視覺研究中的一項基礎(chǔ)但又具有挑戰(zhàn)性的任務(wù)[5],語義分割方法可以更好地應(yīng)用于影像分析、機器視覺識別、視頻監(jiān)控以及農(nóng)業(yè)生態(tài)監(jiān)測等實際任務(wù)[6]。目前,語義分割技術(shù)已經(jīng)在多個領(lǐng)域廣泛應(yīng)用[7-8] ODong等為應(yīng)對城市遙感圖像語義分割的類不平衡挑戰(zhàn),提出DenseU-Net架構(gòu)與MFB_F損失函數(shù)相結(jié)合的方法,這提高了對小目標(biāo)類的識別能力。Li等[10]提出了一種改進的Segformer 網(wǎng)絡(luò),使得算法能夠有效地篩選建筑物的正面信息。沈駿翱等[]利用深度神經(jīng)網(wǎng)絡(luò)識別高分辨率遙感影像信息,同時引入注意力模塊,建立了比現(xiàn)有的U-Net、SegNet、DeeplabV3+等多個模型具有更高準(zhǔn)確率、更快預(yù)測速度的全新深度語義分割模型Samp;CMNet,用于高分辨率遙感圖像水體提取任務(wù)。Wang等[12]提出一種基于DFANet優(yōu)化的圖像語義分割方法,提高了遙感圖像多類別區(qū)域的高效精準(zhǔn)識別。Zhang等[13]設(shè)計的低空遙感農(nóng)田圖像語義分割網(wǎng)絡(luò),以IResNet為編碼器核心,強化了特征提取,提升了農(nóng)田作物與空位的分割精度。
在茶園識別提取中,Chen等[14]利用機器學(xué)習(xí)分類器支持向量機和隨機森林提取茶園分布,總體準(zhǔn)確率分別為 90.79% 和 89.42% ;Yao 等[15]提出R-CNN模型預(yù)測茶園的空間分布,結(jié)果顯示F1分?jǐn)?shù)和平均交并比( ΠmIoU′ )分別為 88.5% 和79.3% ,同時發(fā)現(xiàn)茶園邊界容易與其他地物混合,從而導(dǎo)致茶園分類錯誤。盡管現(xiàn)有方法在茶園遙感監(jiān)測中取得了一定的成果,但仍存在茶園與其他地物錯分、識別準(zhǔn)確率較低等問題。因此,本研究基于日照市的衛(wèi)星遙感影像,選用 ΔVgg-unet 、Resnet50-unet和Segformer_b2等7種經(jīng)典語義分割模型進行訓(xùn)練,首先從中篩選出最適合茶園識別提取的模型,然后引人MCA(Multi-headCon-textAttention)注意力機制,并融合條形卷積(Stri-dedConvolution)對選定模型進行改進,以提高模型對茶園關(guān)鍵紋理特征的捕獲能力和對圖像局部細節(jié)的感知和處理能力,從而為實現(xiàn)茶園的精準(zhǔn)識別和茶園面積的準(zhǔn)確提取提供良好的技術(shù)支持。
材料與方法
1.1 研究區(qū)域概況及數(shù)據(jù)獲取
本研究區(qū)域選在山東省東南部的日照市L (35°04′~36°25′N,118°35′~119°39′E) ,其總面積約為5 358.57km2 。日照市地形多樣,自南向北依次展現(xiàn)出山區(qū)、丘陵、平原的過渡特征,其中山區(qū)和丘陵地帶占據(jù)較大比例,這為茶樹等特色農(nóng)作物的種植提供了得天獨厚的土壤和氣候條件。
本研究選擇日照市2022年9月—2023年8月共計12個月的Planet3B遙感影像以及Google高清影像作為數(shù)據(jù)源,數(shù)據(jù)大小共有5.15GB。
Planet3B影像是由Planet公司提供的正射級數(shù)據(jù)產(chǎn)品,該產(chǎn)品經(jīng)過傳感器、輻射定標(biāo)和正射校正等處理,地面分辨率為 3m ,以GeoTIFF格式提供,包含多波段反射率圖像及相應(yīng)的元數(shù)據(jù),構(gòu)成完整的影像數(shù)據(jù)集。Google高清影像數(shù)據(jù)通過谷歌地球(https://earth.google.com/web/)平臺獲取。
在ArcGIS軟件中利用系統(tǒng)工具箱SpatialAnalystTools.tbx中的影像分割與分類工具導(dǎo)出深度學(xué)習(xí)的訓(xùn)練數(shù)據(jù),切片大小設(shè)置為1024像素 ×1024 像素,導(dǎo)出格式為png,共切出7635張圖片,然后在Labelme軟件中對茶園進行標(biāo)注,共標(biāo)注了1916張茶園。將數(shù)據(jù)集裁剪好后按照9:1劃分為訓(xùn)練集、驗證集,對訓(xùn)練集數(shù)據(jù)進行在線增強,通過隨機變換如平移、旋轉(zhuǎn)等形成新的訓(xùn)練數(shù)據(jù),從而間接提高數(shù)據(jù)的多樣性和模型的泛化能力。
1.2 實驗參數(shù)設(shè)置與模型訓(xùn)練
使用Intel@ CoreTM i5-9300H CPU @ 2.40GHz搭配NVIDIA GeForceGTX1660 Ti 顯存的GPU,在Windows11操作系統(tǒng)下配置深度學(xué)習(xí)環(huán)境,借助 Anaconda 軟件平臺建立虛擬環(huán)境,并選用Py-Torch 框架和 PyCharm Community Edition 2024.1.1版本,對 Vgg-unet、Resnet5O-unet、Mobilenet-psp-net、Resnet5O - pspnet、Mobilenet_Deeplabv3 + !Xception_deeplabv3 + 和Segformer_b2共7種經(jīng)典語義分割模型進行訓(xùn)練,選擇性能最高的模型進行改進。7種經(jīng)典語義分割模型的具體信息見表1。
1.3 改進Segformer_b2模型對茶園進行提取識別
針對篩選出的高性能Segformer_b2模型進行改進:首先,為了增強模型的紋理特征提取能力,引入MCA機制,以捕捉茶園圖像中從微觀細節(jié)到宏觀結(jié)構(gòu)的各種特征,進而更精確地識別茶園邊界和內(nèi)部結(jié)構(gòu);其次,為了進一步提升模型的空間感知能力,融合條形卷積到Segformer_b2模型中,以增強模型對茶園區(qū)域內(nèi)部紋理和形狀特征的感知,有效捕捉圖像中的長距離依賴關(guān)系,幫助模型更好地理解茶園區(qū)域的連續(xù)性和一致性;最后,為了平衡茶園識別任務(wù)中正負(fù)樣本和難易樣本之間的權(quán)重,改進了DiceLoss和FocalLoss的混合損失函數(shù),以優(yōu)化模型對茶園區(qū)域的分割精度。
在模型訓(xùn)練完成后,利用mIoU、精確率(Pre-cision)、召回率(Recall)和F1分?jǐn)?shù)(F1-score)進行性能評估,一般來說,值越高模型的性能越好[16]。其計算公式如下:
式中,TP、FP、FN、TN依次表示正確識別數(shù)目、錯誤識別數(shù)目、目標(biāo)類被識別成其他類的數(shù)目、正確識別其他類的數(shù)目[17];P表示精確率;R表示召回率;F1表示F1分?jǐn)?shù)。
2 結(jié)果與分析
2.1 7種經(jīng)典語義分割模型在茶園識別中的性能比較
用7種不同經(jīng)典語義分割模型對茶園遙感影像數(shù)據(jù)集進行訓(xùn)練,從損失函數(shù)(Loss)的變化曲線(圖1)來看,Mobilenet-pspnet和Mobilenet_Deeplabv3 + 模型在整個訓(xùn)練過程中呈現(xiàn)出較大的波動,表明這兩個模型在訓(xùn)練過程中穩(wěn)定性較差。相比之下, ΔVgg-unet 和Resnet50-unet 模型在前半段波動較大,但隨后逐漸趨于平穩(wěn),顯示出較好的訓(xùn)練穩(wěn)定性。Resnet50-pspnet 和 Xception-deeplabv 3+ 模型在第60個訓(xùn)練輪次(Epoch)后逐漸收斂,loss值穩(wěn)定在 0.10~0.15 之間,表明這兩個模型在訓(xùn)練后期具備較好的收斂性。而 Seg-former_b2模型在整個訓(xùn)練過程中波動較小,訓(xùn)練過程平穩(wěn),顯示出優(yōu)越的擬合效果。
進一步分析mIoU的變化曲線(圖2),發(fā)現(xiàn)Vgg-unet、Resnet5O-unet 和 Xception-deeplabv. 3+ 模型在前60個Epoch中mloU曲線趨勢不穩(wěn)定,波動較大,但在80個Epoch后逐漸趨于平穩(wěn),并達到約 80% 的水平。Mobilenet-pspnet 和 Res-net50-pspnet模型在前40個Epoch內(nèi)表現(xiàn)相對平穩(wěn),但在隨后的20個Epoch中出現(xiàn)了不同程度的波動,其中 Mobilenet-pspnet 的波動幅度超過10% ,而Resnet50-pspnet的波動幅度較小,最終 兩者均穩(wěn)定在 80% 左右。Mobilenet_Deeplabv3 + 和Segformer_b2模型在整個驗證過程中均表現(xiàn)出 穩(wěn)定的mIoU變化曲線,表明其性能更加優(yōu)越
觀察7種語義分割模型在茶園識別提取中的效果(圖3), ΔVgg-unet 和Resnet50-unet模型對茶園存在一定程度的錯分且茶園邊緣分割較粗糙;Resnet5O-pspnet 和 Xception-deeplabv 3+ 模型對茶園邊緣分割較平滑,但也存在少量的茶園錯分;Mobilenet-pspnet和Mobilenet_Deeplabv3 + 模型對茶園邊界的分割較粗糙,且對小范圍茶園的提取不精細;Segformer_b2模型也存在少量茶園邊緣識別不準(zhǔn)確的現(xiàn)象,但總體而言,其邊緣分割效果相較于其他模型更為平滑和精細,能夠準(zhǔn)確捕捉到茶園與周圍環(huán)境的細微差別,從而在邊緣處實現(xiàn)更清晰的分割。相比而言,Segformer_b2模型在茶園識別中的效果最好,
性能指標(biāo)對比結(jié)果(表2)表明,Segformer_b2模型的精確率、召回率、茶園IoU(tea-IoU)、背景IoU( BG-IoU )、mIoU和F1分?jǐn)?shù)最高,分別是91.29% 、91. 09% ! 74.00% 、95. 00% ! 84.45% 和91.20% ,展現(xiàn)出了最優(yōu)的綜合性能。表明 Segformer_b2模型在茶園圖像語義分割任務(wù)中不僅具有較高的準(zhǔn)確性,而且能夠較為全面地識別出圖像中的各類語義區(qū)域
綜合以上分析,Segformer_b2模型在7種經(jīng)典語義分割模型中脫穎而出,不僅在訓(xùn)練過程中展現(xiàn)出優(yōu)異的穩(wěn)定性,而且在mIoU指標(biāo)上也取得了顯著的優(yōu)勢。因此,本研究選用該模型進行改進優(yōu)化,以滿足基于衛(wèi)星遙感影像精準(zhǔn)識別茶園的需求。
2.2 改進Segformer_b2模型在茶園識別中的性能分析
為進一步提高茶園識別的準(zhǔn)確度,本研究引入MCA機制及融合條形卷積對Segformer_b2模型進行改進,同時改進DiceLoss和Focal Loss的混合損失函數(shù)。Segformer_b2模型改進前后的結(jié)構(gòu)見圖4。
改進前后的模型性能對比結(jié)果(表3)顯示,在茶園識別的語義分割任務(wù)中,引入MCA機制和融合條形卷積后,Segformer_b2_MCA_SC模型的mIoU和F1分?jǐn)?shù)均獲得一定程度的提升,分別由84.45% 和 91.20% 提升至 85.58% 和 91.94% ,表明模型在識別茶園區(qū)域時能夠更好地捕捉茶園與背景之間的邊界。改進后的最終模型Segformer_b2_all_mixloss精確率、召回率、 Ω.Tea-IoUΩ,BG-IoU. mloU、F1分?jǐn)?shù)均較Segformer_b2有明顯提升,分別達到 91.31% 1 92.97% ! 76.00% ! 96. 00% !85.87% 、 92.12% ,表明模型能對難以分類的樣本給予更多關(guān)注,從而更全面地覆蓋目標(biāo)區(qū)域,減少識別錯誤和遺漏。
同時,觀察訓(xùn)練曲線(圖5)和mIoU(圖6)發(fā)現(xiàn),改進前后的模型訓(xùn)練損失(trainloss)均隨著迭代次數(shù)的增加而逐漸下降,表明模型在逐步收斂。相較于原始Segformer_b2,引入MCA機制(Segformer_b2_MCA)或融合條形卷積(Segformer_b2_SC)的模型訓(xùn)練損失下降更快,表明這些機制有助于模型更快地收斂;同時引入MCA機制和融合條形卷積的模型(Segformer_b2_MCA_SC)訓(xùn)練損失下降最為迅速,證實了兩者結(jié)合的優(yōu)勢;而進一步改進損失函數(shù)后的Segformer_b2_all_mixloss模型訓(xùn)練損失下降得迅速且平穩(wěn),表明改進損失函數(shù)對模型訓(xùn)練過程有一定的優(yōu)化作用。所有模型的mIoU均隨著迭代次數(shù)的增加而逐漸提高,表明模型的分割性能在逐步增強。相較于 Seg-former_b2,引入MCA機制或融合條形卷積的模型的mIoU均有所提高,表明這些改進機制對模型性能有正面影響;同時引人MCA機制和融合條形卷積的模型mIoU進一步提升,證實了兩者結(jié)合的協(xié)同作用;改進后的Segformer_b2_all_mixloss的mIoU最高,表明引人MCA機制、融合條形卷積和改進損失函數(shù)對模型性能提升作用最好,在訓(xùn)練效率和分割性能上均達到了最優(yōu)。
通過對比改進前的Segformer_b2與改進后的Segformer_b2_all_mixloss模型在茶園特征提取任務(wù)中的分割結(jié)果(圖7),可以清晰地看到,通過引入MCA機制,紅色區(qū)域被進一步細分為多個子區(qū)域,顯示出MCA機制在細節(jié)處理上的優(yōu)勢;融合條形卷積后,在保持地形整體結(jié)構(gòu)的基礎(chǔ)上對地形進行了更為精細的分割,紅色區(qū)域的形狀和大小更加接近原始圖像中的地形特征,顯著提升了茶園分割的精度;改進損失函數(shù)之后的圖像則表現(xiàn)出更全面的分割效果,茶園與其他地物的邊界更為清晰。具體而言,改進后的Segformer_b2_all_mixloss模型在茶園邊界識別和形狀捕捉上更為準(zhǔn)確,使得茶園邊界更加平滑連貫,減少了鋸齒狀和斷裂的現(xiàn)象,同時茶園與背景區(qū)域的界限也更加清晰,有效減少了錯分和漏分的問題??梢姡倪M后的模型在茶園邊緣處理、小目標(biāo)檢測以及復(fù)雜背景下茶園識別等方面表現(xiàn)出明顯提升效果。
3討論與結(jié)論
為了解決茶園面積提取困難與提高茶園管理的問題,本研究提出一種基于衛(wèi)星遙感影像結(jié)合高精度語義分割的茶園識別方法,
首先,本研究對7種經(jīng)典語義分割模型進行性能測試,結(jié)果表明, ΔVgg-unet 在處理復(fù)雜場景如茶園圖像時,其特征提取能力可能受限于VGG網(wǎng)絡(luò)的較淺層次,導(dǎo)致在細節(jié)保留和邊緣分割上略顯不足,進而出現(xiàn)錯分和漏分現(xiàn)象。Resnet50-unet通過引入殘差學(xué)習(xí)機制,有效緩解了深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失問題,增強了網(wǎng)絡(luò)對復(fù)雜特征的提取能力,因此在整體分割準(zhǔn)確率上有所提升,但仍未能在小范圍茶園提取中達到理想效果。Mobilenet-pspnet因結(jié)構(gòu)簡化而犧牲了部分細節(jié)捕捉能力,導(dǎo)致分割結(jié)果不夠精細。Xception-deeplabv 3+ 則結(jié)合了Xception 模塊的高效深度可分離卷積和DeepLab系列的空間金字塔池化(SPP)技術(shù),雖然在許多場景中表現(xiàn)出色,但在茶園的小范圍精細分割上,可能因模型設(shè)計側(cè)重點不同而未能完全發(fā)揮其優(yōu)勢。Segformer_b2模型在茶園圖像語義分割任務(wù)中表現(xiàn)最為出色,主要由于該模型利用Transformer強大的全局上下文建模能力,有效捕捉圖像中的長距離依賴關(guān)系,這對于識別茶園這類具有連續(xù)性和廣泛分布特征的語義區(qū)域尤為重要[18];同時,Segformer通過輕量級的解碼器設(shè)計,保持了較高的計算效率,使得模型能夠在保證精度的同時實現(xiàn)較快的推理速度。因此,選用Segformer_b2作為原始模型。
鑒于Segformer_b2模型仍然存在少量茶園邊緣識別不準(zhǔn)確的現(xiàn)象,本研究在該模型中引入MCA機制,以使模型能更精準(zhǔn)地捕捉茶園區(qū)域的關(guān)鍵紋理特征,從而提高茶園識別的準(zhǔn)確性和魯棒性;同時,融合條形卷積操作,優(yōu)化模型對圖像局部細節(jié)的感知和處理能力,進一步提升分割效果;此外,改進混合DiceLoss和FocalLoss損失函數(shù),有效應(yīng)對類別不平衡問題,進一步提高模型的整體性能。結(jié)果表明,改進后的Segformer all_mixloss模型的茶園識別準(zhǔn)確性明顯提高,精確率、召回率、mIoU和F1分?jǐn)?shù)分別由 91.29% !91.09%.84.45%.91.20% 提升至 91.31%.92.97% 85.87%.92.12% ,在識別衛(wèi)星遙感影像中的茶園尤其小范圍茶園提取中,展現(xiàn)出了較高的精度和魯棒性,可為茶園管理、產(chǎn)量預(yù)測以及資源優(yōu)化配置等提供技術(shù)支撐
綜上所述,通過對 Segformer_b2 模型進行一系列改進,包括引入MCA機制、融合條形卷積以及改進DiceLoss和FocalLoss的混合損失函數(shù),成功地提升了模型的訓(xùn)練穩(wěn)定性和識別性能表現(xiàn),為后續(xù)的茶園管理與分析提供了更為可靠的數(shù)據(jù)支持。改進后的Segformer_b2_all_mixloss模型在茶園遙感圖像語義分割任務(wù)中展示出強大的特征提取和上下文理解能力,能夠更全面地識別出圖像中的各類語義區(qū)域,包括茶園的邊界、內(nèi)部紋理以及與其他地物的區(qū)分。但仍需正視當(dāng)前研究中存在的一些問題,例如如何進一步提高模型在復(fù)雜場景下的泛化能力、如何更好地處理遙感圖像中的噪聲和干擾等,因此未來研究中可以探索新的圖像預(yù)處理技術(shù)、更優(yōu)化的算法以及更高效的特征提取方法等,以進一步降低噪聲干擾,提高圖像質(zhì)量,進而提高茶園遙感影像識別的準(zhǔn)確性和效率。另外,本研究數(shù)據(jù)采用的是 3m 分辨率的衛(wèi)星影像,未來可以考慮采用更高分辨率的衛(wèi)星影像進行研究
參考文獻:
[1]Enoguanbhor E C,Gollnow F,Nielsen JO,et al. Land cover change in the Abuja city-region,Nigeria:integrating GIS and remotely sensed data to support land use planning[J]. Sustainability,2019,11(5):1313.
[2] YaoH,QinRJ,ChenXY.Unmannedaerial vehicleforremote sensingapplications:a review[J].Remote Sensing,2O19,11 (12) :1443.
[3] LiJ,Pei YQ,Zhao S H,et al.A review of remote sensing for environmental monitoring in China[J]. Remote Sensing,2020, 12(7) :1130.
[4] MohanrajanSN,Loganathan A,ManoharanP.SurveyonLand Use/Land Cover(LU/LC) change analysis in remote sensing and GIS environment:techniques and challenges[J]. Environmental Scienceand Pollution Research International,2O20,27 (24):29900-29926.
[5] JingL L,Chen YC,Tian YL. Coarse-to-fine semantic segmentation from image-level labels[J]. IEEE Transactions on Image Processing,2019,29:225-236.
[6] 李旭青,吳冬雪,王玉博,等.基于改進HRNet的遙感影像 冬小麥語義分割方法[J].農(nóng)業(yè)工程學(xué)報,2024,40(3): 193-200.
[7] 張羽豐,楊景,鄧寒冰,等.基于RGB和深度雙模態(tài)的溫室 番茄圖像語義分割模型[J].農(nóng)業(yè)工程學(xué)報,2024,40(2): 295-306.
[8] 王嫣然,陳清亮,吳俊君.面向復(fù)雜環(huán)境的圖像語義分割方 法綜述[J].計算機科學(xué),2019,46(9):11.
[9] Dong R S,Pan X Q,Li F Y. DenseU-Net-based Semantic segmentation of small objects in urban remote sensing images[J]. IEEEAccess,2019,7:65347-65356.
[10]LiML,Rui J,YangSK,etal.Method ofbuildingdetection in optical remote sensing images based on segformer[J]. Sensors, 2023,23(3):1258.
[11]沈駿翱,馬夢婷,宋致遠,等.基于深度學(xué)習(xí)語義分割模型 的高分辨率遙感圖像水體提?。跩].自然資源遙感,2022, 34(4) :129-135.
[12]Wang Z,Guo JX,Huang WZ,et al.High-resolution remote sensing image semantic segmentation based on a deep feature aggregation network[J].Measurement Science and Technology,2021,32:095002.
[13] Zhang X X,Yang Y H,Li Z Y,et al.An improved encoder-decoder network based on strip pool method applied to segmentationof farmland vacancy field[J].Entropy,2021,23(4) :435.
[14]Chen PP,Zhao C J,Duan D D,et al. Extracting tea plantations incomplex landscapes using Sentinel-2 imagery and machine learning algorithms[J]. Community Ecology,2022,23:163- 172.
[15]Yao Z X,Zhu X C,Zeng Y,et al.Extracting tea plantations from multitemporal Sentinel-2 images based on deep learning networks[J].Agriculture,2023,13(1):10.
[16]Wang L,Wang C L,Sun Z Q,et al. An improved Dice loss for pneumothorax segmentation by mining the information of negativeareas[J].IEEEAccess,2020,8:167939-167949.
[17]王鴻雁,車向紅,徐辛超,等.利用DeepLabv3 + 模型提取分 析街景圖像綠視率:以北京三環(huán)內(nèi)為例[J].測繪通報, 2024(3):88-94.
[18]張久丹,王浩宇,李均力,等.基于改進D-UNet模型的典型 洪泛濕地信息提取[J].遙感學(xué)報,2025,29(1):300-313.