DOI:10.3969/j.issn.2095-1191.2025.01.010
摘要:【目的】構(gòu)建無人機(jī)低空遙感影像田塊邊界提取新方法,為解決丘陵山區(qū)小面積田塊邊界信息提取難題提供技術(shù)支持。【方法】利用無人機(jī)低空遙感技術(shù)獲取指定田塊的高分辨率影像,制作單個田塊圖像數(shù)據(jù)集;在深度學(xué)習(xí)邊緣檢測算法RCF模型的基礎(chǔ)上,通過減少池化層、增加注意力機(jī)制模塊,構(gòu)建準(zhǔn)確性能更高的Improve-RCF(IRCF)模型進(jìn)行田塊邊界識別,然后對識別后的邊界圖像進(jìn)行輪廓檢測量化處理,將連續(xù)的邊界線轉(zhuǎn)換成由多個像素點(diǎn)組成的離散化邊界線以便獲取像素坐標(biāo),再通過高斯—克呂格投影轉(zhuǎn)換為適用于農(nóng)機(jī)作業(yè)的平面坐標(biāo),并以田塊有效面積比和坐標(biāo)平均偏差2個指標(biāo)進(jìn)行田塊邊界提取準(zhǔn)確性驗(yàn)證?!窘Y(jié)果】相對于RCF模型,IRCF模型的算法性能得到提升,其檢驗(yàn)結(jié)果不僅在數(shù)據(jù)集尺度最佳(ODS)中的F1值領(lǐng)先1.8368%,在圖像尺度最佳(OIS)中的F1值也領(lǐng)先2.7969%,且平均精度(AP)提升3.8540%。田塊邊界線經(jīng)量化處理后,計算所得的內(nèi)邊界范圍內(nèi)像素總數(shù)為21339個,進(jìn)一步換算求得提取的田塊邊界線圍成面積為1841.32 m2,IRCF模型提取率為91.02%。將IRCF模型與Canny測算子邊界量化相結(jié)合,通過對比分析實(shí)際測量值與提取值,發(fā)現(xiàn)平面坐標(biāo)在X軸方向上的平均偏差為0.613 m,在Y軸方向上的平均偏差為0.744 m,均小于0.800 m,說明能提供較準(zhǔn)確的邊界坐標(biāo)信息?!窘Y(jié)論】基于IRCF模型的無人機(jī)低空遙感田塊邊界提取方法能解決傳統(tǒng)邊緣檢測算法難以識別田塊圖像數(shù)據(jù)集中狹窄田塊邊界的問題,獲得的田塊邊界圖像經(jīng)輪廓檢測量化處理后能實(shí)現(xiàn)田塊邊界平面坐標(biāo)準(zhǔn)確獲取,實(shí)現(xiàn)了丘陵山區(qū)小面積田塊邊界信息的高效率自動提取。
關(guān)鍵詞:田塊邊界;IRCF模型;邊緣檢測算法;無人機(jī)低空遙感影像;坐標(biāo)獲取
中圖分類號:S127文獻(xiàn)標(biāo)志碼:A文章編號:2095-1191(2025)01-0111-13
IRCF-based unmanned aerial vehicle low altitude remote sensing field boundary extraction method
HE Si-han1,HU Jia-hui2,HE Zhong-xiu3,LI Qing-tao4,WANG Shuang4*
(1School of Mechanical Engineering,Xihua University,Chengdu,Sichuan 610039,China;2Sichuan Academy ofAgricultural Machinery Sciences,Chengdu,Sichuan 610066,China;3School of Computer and SoftwareEngineering,Xihua University,Chengdu,Sichuan 610039,China;4Institute of Modern AgriculturalEquipment,Xihua University,Chengdu,Sichuan 610039,China)
Abstract:【Objective】To develop a new method for extracting field boundaries from low-altitude remote sensing ima-ges of unmanned aerial vehicle(UAV),which could provide technical support to address the challenges of extracting boundary information for small fields in hilly and mountainous areas.【Method】Utilized low-altitude remote sensing tech-nology from UAV to acquire high-resolution images of specified fields,creating a single-field image dataset.Based on the RCF model,a deep learning edge detection algorithm,an improved RCF(IRCF)model with higher accuracy and perfor-mance was constructed by reducing pooling layers and incorporating an attention mechanism module for field boundary recognition.Subsequently,the recognized boundary images treated by contour detection and quantization processing,converting continuous boundary lines into discrete boundary lines composed of multiple pixel points to obtain pixel coordi-nates.These coordinates were then transformed into plane coordinates suitable for agricultural machinery operations using the Gauss-Krüger projection.The accuracy of field boundary extraction was validated using 2 indicators:the effective field area rate of field and the average coordinate deviation.【Result】Compared tothe RCF model,the IRCF model demon-strates improved algorithmic performance.Its test results showed a 1.8368%lead in the F1 score at the optimal dataset scale(ODS)and a 2.7969%lead in the F1 score at the optimal image scale(OIS),with an average precision(AP)in-crease of 3.8540%.After quantization processing of the field boundary lines,the total number of pixel points within the in-ner boundary area was calculated to be 21339,which further converted to an extracted field boundary area of 1841.32 m2,with an extraction rate of 91.02%for the IRCF model.By combining the IRCF model with Canny operator boundary quan-tization and comparing the actual measured values with the extracted values,it was found that the average deviation of plane coordinates in the X-axis direction was 0.613 m,and in theY-axis direction was 0.744 m,both were less than 0.800 m,indicating that the model could provide relatively accurate boundary coordinate information.【Conclusion】The low-altitude remote sensing field boundary extraction method based on the IRCF model can address the challenge of traditional edge detection algorithms in identifying narrow field boundaries within field image datasets.The obtained field boundary images,after contour detection and quantization processing,enable accurate acquisition of plane coordinates for field boundaries.This method achieves highly efficient automatic extraction of boundary information for small fields in hilly and mountainous areas.
Key words:field boundary;IRCF model;edge detection algorithm;low-altitude remote sensing images from un-manned aerial vehicle;coordinate acquisition
Foundation items:National Natural Science Foundation of China(51905447);Sichuan Modern Agricultural Equip-ment Engineering and Technology Research Center Project(RX2300001944)
0引言
【研究意義】丘陵山區(qū)地形復(fù)雜,土地面積較小,無法連片耕作,勞動強(qiáng)度大但生產(chǎn)效率低,尤其是近年來農(nóng)村勞動力趨于老齡化,導(dǎo)致丘陵山區(qū)的土地撂荒問題日趨嚴(yán)重。為解決這一問題,戴智勇等(2019)從基本農(nóng)田空間布局優(yōu)化角度出發(fā),建議通過基本農(nóng)田空間布局調(diào)整和綜合質(zhì)量評價來提高丘陵山區(qū)農(nóng)田的連片性;陳學(xué)庚等(2020)從土地宜機(jī)化改造和利用方面出發(fā),建議分類施策以提高小地塊農(nóng)田利用率;劉波等(2023)從農(nóng)機(jī)裝備角度出發(fā),指出開發(fā)適于丘陵山區(qū)農(nóng)田地形復(fù)雜的高效適用裝備是提升丘陵山區(qū)農(nóng)業(yè)發(fā)展的迫切需求。實(shí)現(xiàn)農(nóng)機(jī)上山自主作業(yè)是解決丘陵山區(qū)土地撂荒的有效手段,而準(zhǔn)確的田塊邊界信息是界定無人駕駛農(nóng)機(jī)作業(yè)范圍、制定路徑規(guī)劃的重要依據(jù),也是實(shí)現(xiàn)農(nóng)機(jī)自主作業(yè)的前提條件。因此,探究丘陵山區(qū)小面積田塊邊界信息高效率提取方法,對促進(jìn)丘陵山區(qū)農(nóng)業(yè)機(jī)械化、智能化發(fā)展,推動丘陵山區(qū)無人農(nóng)場建設(shè)具有重要意義?!厩叭搜芯窟M(jìn)展】傳統(tǒng)的田塊邊界提取主要以衛(wèi)星遙感影像為底圖的大面積農(nóng)田區(qū)域?yàn)檠芯繉ο?,通過人工目視解譯來獲取田塊邊界信息(江東等,2017;林家元和程亞男,2022;錢震杰等,2023;王鈺等,2023)。由于丘陵山區(qū)地形條件復(fù)雜,通過衛(wèi)星遙感獲取的田塊影像信息光譜特征不明顯,而無人機(jī)遙感技術(shù)不僅能滿足特定區(qū)域內(nèi)高分辨率影像的獲?。惤艿?,2014;姜妍等,2022),還可避免小面積農(nóng)田衛(wèi)星高空影像光譜特征不明顯及空氣污染導(dǎo)致部分衛(wèi)星高空影像存在盲區(qū)的問題(賀艷花,2023;曾學(xué)亮等,2024),更有利于獲取丘陵山區(qū)特定小面積農(nóng)田的影像。相對于中低分辨率遙感影像,無人機(jī)獲取的高分辨率遙感影像能降低混合像元問題,提供更加豐富的田塊信息和邊界紋理信息(王柯等,2017;楊影,2020)。近年來,隨著人工智能的快速發(fā)展,神經(jīng)網(wǎng)絡(luò)憑借其高效處理圖像高維數(shù)據(jù)及自動學(xué)習(xí)等特點(diǎn),在田塊邊界提取中開辟了新方向(Xu etal.,2023)。李森等(2020)基于全卷積網(wǎng)絡(luò)細(xì)化邊緣檢測模型(Full dilated-rich convolutionalfea-ture,F(xiàn)D-RCF),進(jìn)一步改變模型特征融合方式并采用空洞卷積進(jìn)行耕地邊緣檢測,其檢測結(jié)果在數(shù)據(jù)集尺度最佳(ODS)、圖像尺度最佳(OIS)精度評價的F1值分別為0.8481和0.8502,平均精度(AP)為0.7957,但對于紋理信息復(fù)雜的單個小面積田塊邊界而言,該模型易導(dǎo)致某些田間紋理信息被識別而保留在圖像上。Waldner和Diakogiannis(2020)提出一種數(shù)據(jù)驅(qū)動的通用衛(wèi)星圖像邊界提取方法,使用的ResUNet-a深度卷積神經(jīng)網(wǎng)絡(luò)具有完全連接的UNet主干,通過閾值或分水嶺分割進(jìn)行提取,可從圖像中學(xué)習(xí)復(fù)雜的分層上、下文特征,準(zhǔn)確檢測邊界并丟棄不相關(guān)邊界。Wagner和Oppelt(2020)提出了基于深度學(xué)習(xí)的亞像素級別提取農(nóng)田邊界新方法,即將圖像增強(qiáng)和邊緣檢測技術(shù)與新改進(jìn)的主動輪廓模型及圖論原理相結(jié)合,其提取精度達(dá)86.2%,但該方法在主動輪廓模型和圖論原理中的許多參數(shù)需手動調(diào)整,耗時費(fèi)力,且未對邊界進(jìn)行坐標(biāo)提取。何勇等(2021)利用改進(jìn)的UNet網(wǎng)絡(luò)解碼器反向卷積層間設(shè)置反向殘差塊以訓(xùn)練識別農(nóng)田邊界,再基于關(guān)聯(lián)性算法和RANSAC直線擬合方法確定當(dāng)前二值圖的田側(cè)邊界線和田端邊界線,有效提高了邊界線識別的準(zhǔn)確性,但該方法未將邊界坐標(biāo)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,而無法實(shí)現(xiàn)后續(xù)數(shù)據(jù)共享與集成?!颈狙芯壳腥朦c(diǎn)】至今,國內(nèi)外學(xué)者針對農(nóng)田邊界提取的研究主要以衛(wèi)星影像為數(shù)據(jù)源,進(jìn)行大面積農(nóng)田區(qū)域提取并分析農(nóng)田概況(Gao et al.,2022;Xu et al.,2022;Chen et al.,2023),而針對丘陵山區(qū)小面積田塊邊界信息提取的研究報道較少。【擬解決的關(guān)鍵問題】基于深度學(xué)習(xí)的豐富特征卷積網(wǎng)絡(luò)(Richer con-volutional features,RCF)模型構(gòu)建準(zhǔn)確性能更高的Improve-RCF(IRCF)模型,準(zhǔn)確清晰識別田塊邊界并在已識別的邊界上獲取坐標(biāo)信息,再通過Canny算子輪廓檢測對連續(xù)邊界線進(jìn)行量化處理以便獲取邊界像素坐標(biāo),經(jīng)坐標(biāo)轉(zhuǎn)換后得到便于無人駕駛農(nóng)機(jī)數(shù)據(jù)交換、共享和集成的平面坐標(biāo),最后通過計算田塊有效面積比及坐標(biāo)平均偏差值對田塊邊界提取準(zhǔn)確性進(jìn)行驗(yàn)證,以期獲取更精確、更完整的單個小面積田塊邊界信息,為解決丘陵山區(qū)小面積田塊邊界信息提取難題提供技術(shù)支持。
1材料與方法
1.1研究區(qū)概況
研究區(qū)位于四川省成都市大邑縣安仁鎮(zhèn)(30°35′15.32″N,103°31′14.56″E)和四川省成都市青城山鎮(zhèn)(31°01′07.63″N,103°32′47.37″E)。大邑縣位于成都平原與川西北高原的過渡地帶,地勢為西北高、東南低,依次為山區(qū)、丘陵和平原三大地形區(qū),最高海拔3836 m、最低海拔892 m。青城山鎮(zhèn)位于成都市都江堰市境內(nèi)西南部,以山地地貌類型為主,僅沿山地區(qū)有少量平原;青城山鎮(zhèn)境內(nèi)最高峰為大面山,海拔高2434m,平原地區(qū)最低海拔僅為250m。
1.2關(guān)鍵技術(shù)研究
1.2.1田塊邊界識別技術(shù)RCF模型保留了視覺幾何群(Visual geometry group,VGG)網(wǎng)絡(luò)的主干部分,但去除了VGG網(wǎng)絡(luò)中的全連接層和部分池化層(Liu et al.,2017),每個階段中的卷積層均與1個核大小1×1、通道深度21的卷積層相連接,其次每個階段的特征映射都用1個Eltwise層相加來積累得到混合特征,再使用deconv層對混合特征進(jìn)行上采樣,最后在fusion部分將每個階段的輸出疊加,再通過核大小1×1、通道深度21的卷積將多通道合并,達(dá)到獲取多種混合信息的目標(biāo)。
在IRCF模型中,stage 1-5特征層后加入1個核大小1×1、通道深度21的卷積層,使用Eltwise層相加,并在RCF模型的基礎(chǔ)上,每個Eltwise層后引入注意力機(jī)制模塊,以增強(qiáng)特征表現(xiàn)及提取能力,從而確保模型能充分利用特征圖的信息,有效緩解池化層過多造成深層次特征圖局部信息過度損失等問題。注意力機(jī)制模塊的引入不僅可擴(kuò)大感受野,還能增強(qiáng)對目標(biāo)區(qū)域的檢測能力,有效聚焦于圖像中的關(guān)鍵區(qū)域,幫助模型更好地捕捉到邊界細(xì)節(jié),提高對小面積田塊邊界的提取精度和效率。IRCF模型如圖1所示。
1.2.2田塊邊界量化處理技術(shù)傳統(tǒng)邊緣檢測算子輸出的圖像邊緣線呈離散化,圖像邊緣檢測前還需進(jìn)行灰度化處理等(圖2),過程繁瑣耗時且計算量較大。IRCF模型經(jīng)深度學(xué)習(xí)訓(xùn)練后,可在短時間內(nèi)進(jìn)行圖像邊緣檢測。相對于傳統(tǒng)邊緣檢測算子,IRCF模型檢測得到的田塊邊界圖像去除了大部分環(huán)境干擾,邊界與其他背景區(qū)分明顯且斷點(diǎn)和非目標(biāo)線較少,得到的邊界圖像更清晰(圖3)。
經(jīng)IRCF模型檢測得到的二值圖像邊界呈連續(xù)性,需輸入Canny算子進(jìn)行邊界量化處理,為下一步獲取邊界坐標(biāo)點(diǎn)作準(zhǔn)備。Canny算子常規(guī)步驟如圖4所示。由于輸入的圖像已是邊界識別后的二值圖像,因此在Canny算子檢測中省去了圖像灰度化、高斯濾波去噪、梯度計算及非極大值抑制等步驟,直接對田塊邊界進(jìn)行邊緣連接,有效避免了許多參數(shù)的設(shè)置。經(jīng)Canny算子檢測輸出的圖像邊界轉(zhuǎn)換成帶有像素點(diǎn)坐標(biāo)的離散邊界。
1.2.3技術(shù)路線具體技術(shù)路線流程(圖5)如下:(1)基于大疆御Mavic 3多光譜無人機(jī)進(jìn)行田塊圖像數(shù)據(jù)采集,采集的高分率圖像通過翻轉(zhuǎn)操作進(jìn)行圖像數(shù)據(jù)增強(qiáng),并采用Labelme進(jìn)行標(biāo)注,構(gòu)建數(shù)據(jù)樣本;(2)復(fù)現(xiàn)RCF模型,構(gòu)建IRCF模型,通過隨機(jī)梯度下降法(Stochastic gradient descent,SGD)完成模型訓(xùn)練;(3)將測試集分別輸入訓(xùn)練好的RCF模型和IRCF模型,引入OIS和ODS評估整體的邊緣檢測性能,同時將目標(biāo)圖像輸入RCF模型和IRCF模型分別提取邊界,比較提取效果;(4)提取的田塊邊界通過Canny算子進(jìn)行邊界線量化處理,獲取邊界像素坐標(biāo)后再進(jìn)行坐標(biāo)轉(zhuǎn)換,并對邊界線進(jìn)行優(yōu)化;(5)選擇田塊邊界坐標(biāo)平均偏差值及田塊有效面積比作為評價指標(biāo),對田塊邊界提取效果進(jìn)行評價。
1.3試驗(yàn)方法
1.3.1田塊圖像數(shù)據(jù)采集使用大疆御Mavic 3多光譜無人機(jī)低空遙感拍攝田塊影像作為主要數(shù)據(jù)源,為提高邊緣檢測模型的穩(wěn)定性,無人機(jī)低空田塊影像拍攝的時間選取2023年11月15日10:00、2023年11月18日10:00和17:00,進(jìn)行3次圖像采集。圖像數(shù)據(jù)采集時的天氣包括晴天和陰天,便于獲取不同質(zhì)量的圖像數(shù)據(jù)源,以確保后續(xù)進(jìn)行圖像分割和模型訓(xùn)練時的精度更加準(zhǔn)確。田塊圖像采集區(qū)的田塊構(gòu)成復(fù)雜,以不規(guī)則多邊形田塊為主,其中不規(guī)則田塊又分為弧形邊界和直線多邊形田塊,如圖6所示。
1.3.2田塊圖像數(shù)據(jù)處理在模型訓(xùn)練采集研究區(qū)共采集885張?zhí)飰K圖像數(shù)據(jù),為盡量避免模型訓(xùn)練時出現(xiàn)過擬合情況及增強(qiáng)田塊分割效果,使IRCF模型獲得較高的訓(xùn)練精度和泛化能力,通過幾何變換方式進(jìn)行數(shù)據(jù)增強(qiáng)以擴(kuò)展圖像樣本數(shù)據(jù),即對圖像分別沿X軸和Y軸方向進(jìn)行翻轉(zhuǎn)(圖7),最終得到3000張圖像。
使用Labelme對田塊原始圖像進(jìn)行標(biāo)注,完成田塊邊緣矢量化處理(圖8),然后在Anaconda Prompt虛擬環(huán)境下轉(zhuǎn)換得到原圖(png文件)、標(biāo)簽(png文件)、掩膜(png文件)及標(biāo)簽(txt文件),以完成田塊圖像邊界標(biāo)注數(shù)據(jù)集的制作。
1.3.3模型訓(xùn)練與測試模型訓(xùn)練過程采用SGD隨機(jī)梯度下降法,設(shè)初始學(xué)習(xí)率為1×10-6,學(xué)習(xí)率衰減因子為0.1;Batch size設(shè)為8;學(xué)習(xí)動量取值范圍為0~1.0,常規(guī)取值為0.9。為防止模型過擬合,結(jié)合數(shù)據(jù)集權(quán)重衰減設(shè)為0.0002,模型訓(xùn)練最大迭代次數(shù)為12500次。IRCF模型訓(xùn)練過程中的損失值如圖9所示,剛開始時RCF模型的損失值低于IRCF模型,是由于增加注意力機(jī)制后引入額外計算,增加了模型復(fù)雜性;但迭代次數(shù)到4500次后,IRCF模型的損失值開始低于RCF模型;當(dāng)?shù)螖?shù)達(dá)6200次后,IRCF模型損失值一直低于RCF模型??偟膩碚f,迭代次數(shù)達(dá)到一定次數(shù)后RCF模型和IRCF模型的損失值均趨于平穩(wěn),模型結(jié)構(gòu)收斂,且二者相比以IRCF模型的損失值更低。
1.3.4模型精度評定將測試集分別輸入訓(xùn)練好的RCF模型和IRCF模型中,引入OIS和ODS評估邊緣檢測性能。OIS是將召回率與精確率結(jié)合,其F1值越高,說明模型在召回率和精確率上表現(xiàn)越優(yōu)。ODS的F1值是精確率與召回率的調(diào)和平均值,反映了模型在整個數(shù)據(jù)集上的檢測結(jié)果。由表1可看出,相對于RCF模型,IRCF模型的算法性能得到提升,其檢測結(jié)果不僅在ODS中的F1值領(lǐng)先1.8368%,在OIS中的F1值也領(lǐng)先2.7969%,且AP提升3.8540%,即IRCF模型能有效提高圖像邊緣檢測能力。IRCF模型的算法在精確度和召回率上均超過80.00%,說明IRCF模型在一定程度上能增強(qiáng)田塊邊界的檢測能力。
1.3.5模型檢測結(jié)果分析IRCF模型在增加注意力機(jī)制模塊后,對田塊邊界的學(xué)習(xí)能力明顯增強(qiáng),對邊界信息更專注,在一定程度上能減少非邊界信息的干擾。對IRCF模型進(jìn)行大量數(shù)據(jù)訓(xùn)練學(xué)習(xí)后,將測試目標(biāo)小面積田塊圖像A、B和C分別輸入RCF模型和IRCF模型中進(jìn)行檢測,當(dāng)RCF模型和IRCF模型收斂穩(wěn)定時輸出的圖像,2個模型最終提取到的田塊圖像如圖10所示。由最終提取到的圖像分析可知,IRCF模型提取的圖像邊界更清晰,非邊界線的去除更干凈。
1.3.6田塊邊界線離散化為方便后續(xù)坐標(biāo)配準(zhǔn)與驗(yàn)證,結(jié)合丘陵地區(qū)田塊類型多為不規(guī)則且邊界為弧形,選擇西華大學(xué)實(shí)驗(yàn)田進(jìn)行田塊邊界坐標(biāo)點(diǎn)提取,其邊界線由直線和曲線構(gòu)成。無人機(jī)采集的實(shí)驗(yàn)田影像如圖11-A所示。IRCF模型提取的田塊邊界為二值圖像,邊界線呈連續(xù)性(圖11-B),無法直接進(jìn)行邊界分析,因此,IRCF模型邊緣檢測得到的邊界線圖像還需采用Canny算子進(jìn)行邊界線量化處理。經(jīng)Canny算子量化處理后,田塊邊界線由離散的點(diǎn)組成(圖11-C),可在圖像上直接獲取邊界像素點(diǎn)坐標(biāo),將X和Y坐標(biāo)分別存儲在工作區(qū)中。在Canny算子檢測圖像(圖11-C)中,黃色方框表示Canny算子檢測出的雜亂線條部分即非目標(biāo)邊界線,紅色方框表示4個Canny算子均未檢測到的斷點(diǎn)部分。
1.3.7邊界線條優(yōu)化經(jīng)Canny算子檢測后的田塊邊界圖像仍存在少部分非目標(biāo)邊界線條及邊界線出現(xiàn)斷點(diǎn)的情況,應(yīng)進(jìn)一步去除非目標(biāo)邊界線條和連接斷點(diǎn)。綜合考慮不同田塊因種植作物品種不同導(dǎo)致的田塊邊界復(fù)雜性,故采用連通域面積過濾方式去除非目標(biāo)線條(Rydberg and Borgefors,2001)。去除非目標(biāo)邊界線后的圖像如圖12-A所示。由于邊界坐標(biāo)的準(zhǔn)確提取需在封閉圖形中進(jìn)行,因此要進(jìn)行斷點(diǎn)連接,構(gòu)成封閉圖形便于邊界坐標(biāo)提取。為確保無人駕駛農(nóng)機(jī)作業(yè)安全,選擇以線性十字形結(jié)構(gòu)元素膨脹方式進(jìn)行邊界斷點(diǎn)連接,田塊邊界斷點(diǎn)連接后的圖像如圖12-B所示。
1.3.8邊界像素坐標(biāo)轉(zhuǎn)換通過膨脹方式完成田塊邊界線斷點(diǎn)連接,使邊界線構(gòu)成完整的封閉圖形。由于十字形膨脹方式是以原邊界線為中心向兩邊膨脹(鄧仕超和黃寅,2017),故膨脹后的內(nèi)邊界處于田塊內(nèi)部,外邊界則位于田塊外。為確保無人農(nóng)機(jī)駕駛安全,獲取像素點(diǎn)坐標(biāo)均取位于內(nèi)邊界的像素坐標(biāo)。此外,為便于后續(xù)對轉(zhuǎn)換后的邊界坐標(biāo)準(zhǔn)確性進(jìn)行驗(yàn)證,將獲取的田塊邊界在Matlab中均分為20等份,選取這20個邊界點(diǎn)的像素坐標(biāo)進(jìn)行驗(yàn)證。對內(nèi)邊界提取及坐標(biāo)點(diǎn)標(biāo)注得到的圖像如圖13所示,其中點(diǎn)20為起始點(diǎn),像素坐標(biāo)如表2所示。
1.3.9邊界坐標(biāo)轉(zhuǎn)換選擇邊界坐標(biāo)序號為7、14和20的3個非線性頂點(diǎn)為控制點(diǎn),控制點(diǎn)的經(jīng)緯度坐標(biāo)通過衛(wèi)星定位模塊獲取,其對應(yīng)的像素坐標(biāo)和經(jīng)緯度坐標(biāo)如表3所示。其中,L、B分別代表經(jīng)度和緯度,X、Y分別代表橫坐標(biāo)和縱坐標(biāo)。田塊邊界其余目標(biāo)點(diǎn)的經(jīng)緯度坐標(biāo)信息由3個控制點(diǎn)經(jīng)仿射變換得到(Chen et al.,2018),最后經(jīng)高斯—克呂格投影轉(zhuǎn)換為平面坐標(biāo)值(Hu etal.,2015),自動提取田塊邊界目標(biāo)點(diǎn)平面坐標(biāo)(表4),序號點(diǎn)與圖13相對應(yīng)。
2結(jié)果與分析
2.1田塊提取有效面積結(jié)果
由于目前尚缺乏統(tǒng)一、有效的評價指標(biāo)體系來評估田塊邊界提取效果(張加朋和于鳳芹,2020),本研究將提取田塊邊界后的田塊面積與田塊實(shí)際面積進(jìn)行對比,以評估田塊邊界提取效果。由圖像數(shù)據(jù)可知,單個像素點(diǎn)放大后可視為正方形,通過計算兩坐標(biāo)點(diǎn)間的像素數(shù)量和實(shí)際距離轉(zhuǎn)換求得單個像素點(diǎn)面積。提取邊界后有效面積的計算為膨脹后提取邊界內(nèi)像素總數(shù)與單個像素點(diǎn)面積的乘積,如公式(1)和公式(2)所示。計算所得的內(nèi)邊界范圍內(nèi)像素總數(shù)為21339個,A、B兩點(diǎn)邊界線的像素點(diǎn)為160個,即測得A與B的邊界線距離為47 m,如圖14所示。提取邊界線后的田塊面積為1841.32 m2,通過高精度量地測畝儀測得田塊實(shí)際面積為2023.00 m2,通過公式(3)計算得到IRCF模型提取率(ER)為91.02%。
式中:S1表示提取邊界線后的田塊面積;S表示田塊實(shí)際面積(2023.00 m2);C1表示實(shí)際提取邊界線圍成的像素總數(shù);L表示A、B兩點(diǎn)的實(shí)際距離;C表示A、B兩點(diǎn)間的像素總數(shù)。
2.2邊界坐標(biāo)提取結(jié)果
通過K803高精度定位模塊對邊界坐標(biāo)點(diǎn)的準(zhǔn)確性進(jìn)行驗(yàn)證。如圖15所示,K803高精度定位模塊的基站位于西華大學(xué)實(shí)驗(yàn)樓樓頂平臺,其移動站則安裝在農(nóng)業(yè)機(jī)械小車上。農(nóng)業(yè)機(jī)械小車以序號20為起點(diǎn),每走等距距離即獲取像素點(diǎn)位置坐標(biāo)數(shù)據(jù),遍歷20個像素點(diǎn),獲取每個像素點(diǎn)的實(shí)時經(jīng)緯度信息,再將定位模塊獲取的經(jīng)緯度坐標(biāo)通過高斯—克呂格投影換算成平面坐標(biāo)(陳立頌和任繼山,2013),得到實(shí)際測量的平面坐標(biāo)信息(X和Y),同時在田塊邊界圖像上由像素坐標(biāo)經(jīng)仿射變換得到邊界的配準(zhǔn)坐標(biāo)信息(X'和Y'),二者相減取絕對值,分別得到偏差值L和L'。由表5可看出,IRCF模型提取得到的田塊邊界坐標(biāo)點(diǎn)經(jīng)高斯—克呂格投影等方法換算得到平面坐標(biāo)在X軸方向上的最小偏差為0.021 m,最大偏差為1.304 m,平均偏差為0.613 m;在Y軸方向上的最小偏差為0.055 m,最大偏差為1.639 m,平均偏差為0.744 m,即X軸和Y軸方向上的平均偏差均小于0.800 m,且較大偏差的像素點(diǎn)多位于邊界拐角附近。
3討論
丘陵山區(qū)農(nóng)田面積小、形狀不規(guī)則、光譜特征不明顯,導(dǎo)致農(nóng)田邊界信息提取困難(陳杰等,2014)。無人機(jī)田間作業(yè)需進(jìn)行路徑規(guī)劃及精確識別田塊邊界,以確保作業(yè)效率和準(zhǔn)確性。因此,提取準(zhǔn)確的田塊邊界信息有助于促進(jìn)丘陵地區(qū)智能農(nóng)機(jī)化發(fā)展,實(shí)現(xiàn)農(nóng)機(jī)的精確導(dǎo)航和路徑規(guī)劃,提高作業(yè)效率及減少資源浪費(fèi)(趙欣等,2022)。目前,針對田塊邊界信息的提取主要通過高分辨率遙感影像進(jìn)行識別,以及提取大范圍的農(nóng)田邊界。廖丹(2014)以提取大范圍區(qū)域的農(nóng)田邊界線為目標(biāo),利用面向?qū)ο蠓椒?、全色高通濾波器檢測、全色Sobel檢測和全色Ro-berts檢測4種方法組合分別進(jìn)行不同區(qū)域的耕地邊界線提取,但無法獲取小面積的單個農(nóng)田地塊信息。Xu等(2023)研究證實(shí),基于多任務(wù)的網(wǎng)絡(luò)模型在識別地塊邊界方面表現(xiàn)出色,但在實(shí)際應(yīng)用中仍面臨細(xì)化、自動化和泛化等挑戰(zhàn)。Xie等(2023)研究表明,基于深度學(xué)習(xí)的U-Net3+模型在耕地信息提取中具有明顯優(yōu)勢,但在處理小面積田塊時仍存在不足,表現(xiàn)出較高的遺漏錯誤,且編碼器和解碼器間的特征不兼容而導(dǎo)致一些跳躍連接無效?,F(xiàn)有針對田塊邊界信息的提取多應(yīng)用于精準(zhǔn)農(nóng)業(yè)管理和耕地調(diào)查與統(tǒng)計,僅對田塊邊界進(jìn)行識別,而未提取田塊邊界坐標(biāo)信息,尤其在小面積田塊邊界信息提取上仍存在細(xì)化困難、自動化程度低及泛化能力不足等問題(Wen et al.,2022;Wang et al.,2023)。為此,本研究在深度學(xué)習(xí)邊緣檢測算法RCF模型的基礎(chǔ)上進(jìn)行改進(jìn),使改進(jìn)的IRCF模型更適用于小面積田塊邊界識別;對存在遮擋或陰影所導(dǎo)致的非目標(biāo)邊界線進(jìn)行優(yōu)化,以確保提取的最終田塊邊界線更可靠清晰,同時通過邊界量化處理和坐標(biāo)轉(zhuǎn)換對邊界坐標(biāo)進(jìn)行準(zhǔn)確獲取。IRCF模型是在RCF模型的基礎(chǔ)上減少池化層,但增加了注意力機(jī)制模塊,空間注意力機(jī)制能突出關(guān)鍵特征點(diǎn),削弱背景噪聲,引導(dǎo)模型專注于空間目標(biāo)形狀信息,增強(qiáng)模型的特征提取能力,進(jìn)而提高地塊邊界識別精度,使其更適用于復(fù)雜小面積田塊邊界的提取。在邊界線優(yōu)化過程中,還應(yīng)用形態(tài)學(xué)膨脹以減少邊界累積時的空間誤差,并消除開放邊緣和小區(qū)域的噪聲假陽性邊緣(Xu etal.,2014)。
通過對RCF模型和IRCF模型進(jìn)行訓(xùn)練及對比分析可知,IRCF模型對田塊邊緣檢測結(jié)果在ODS、OIS中的F1值分別為0.803286和0.828325,AP達(dá)0.836843,較RCF模型分別提高了1.8368%、2.7969%和3.8540%,即IRCF模型能有效提高圖像邊緣檢測能力。此外,對田塊邊界線進(jìn)行量化處理時選用線性十字形結(jié)構(gòu)元素二次膨脹進(jìn)行斷點(diǎn)連接(Singh et al.,2014;Liu et al.,2017;Guo et al.,2021),計算所得的內(nèi)邊界范圍內(nèi)像素總數(shù)為21339個,進(jìn)一步換算求得提取的田塊邊界線圍成面積為1841.32 m2,IRCF模型提取率為91.02%。在田塊邊界坐標(biāo)提取過程中,將IRCF模型與Canny算子邊界量化相結(jié)合,通過對比分析實(shí)際測量值與提取值,發(fā)現(xiàn)平面坐標(biāo)在X軸方向上的平均偏差為0.613 m,在Y軸方向上的平均偏差為0.744 m,均小于0.800 m,說明能提供較準(zhǔn)確的邊界坐標(biāo)信息。
基于IRCF模型的無人機(jī)低空遙感田塊邊界提取方法能滿足丘陵山區(qū)小面積、單個農(nóng)田邊界信息的提取,為實(shí)現(xiàn)農(nóng)機(jī)自動化耕作提供作業(yè)環(huán)境數(shù)據(jù),以解決丘陵山區(qū)的土地撂荒問題。本研究是以丘陵山區(qū)小面積、不規(guī)則多邊形田塊為研究對象,其結(jié)論是否適用于復(fù)雜曲形邊界田塊的邊界信息提取還有待進(jìn)一步驗(yàn)證,因此,后續(xù)研究應(yīng)專注于算法優(yōu)化、適用性研究及誤差分析與改進(jìn),以確保其普適性。IRCF模型通過引入注意力機(jī)制模塊而有效增強(qiáng)模型對關(guān)鍵特征的關(guān)注,進(jìn)而提高田塊邊界的檢測精度和完整性;邊界坐標(biāo)點(diǎn)的獲取豐富了田塊邊界信息,能為無人機(jī)路徑規(guī)劃提供更完整的邊界信息。
4結(jié)論
基于IRCF模型的無人機(jī)低空遙感田塊邊界提取方法能解決傳統(tǒng)邊緣檢測算法難以識別田塊圖像數(shù)據(jù)集中狹窄田塊邊界的問題,獲得的田塊邊界圖像經(jīng)輪廓檢測量化處理后能實(shí)現(xiàn)田塊邊界平面坐標(biāo)準(zhǔn)確獲取,實(shí)現(xiàn)了丘陵山區(qū)小面積田塊邊界信息的高效率自動提取。
參考文獻(xiàn)(References):
陳杰,陳鐵橋,梅小明,邵權(quán)斌,鄧敏.2014.基于最優(yōu)尺度選擇的高分辨率遙感影像丘陵農(nóng)田提?。跩].農(nóng)業(yè)工程學(xué)報,30(5):99-107.[Chen J,Chen T Q,Mei X M,Shao Q B,Deng M.2014.Extraction of hilly farmland from high-resolution remote sensing images based on optimal scale selection[J].Transactions of the Chinese Society of Agri-cultural Engineering,30(5):99-107.]doi:10.3969/j.issn.1002-6819.2014.05.013.
陳立頌,任繼山.2013.WGS84、北京54、高斯—克呂格坐標(biāo)系轉(zhuǎn)換算法[J].上海航天,30(5):62-64.[Chen L S,Ren J S.2013.Transfer algorithm of WGS84,Beijing 54 and Guass-Krüger coordinate system[J].Aerospace Shanghai,30(5):62-64.]doi:10.3969/j.issn.1006-1630.2013.05.013.
陳學(xué)庚,溫浩軍,張偉榮,潘佛雛,趙巖.2020.農(nóng)業(yè)機(jī)械與信息技術(shù)融合發(fā)展現(xiàn)狀與方向[J].智慧農(nóng)業(yè)(中英文),2(4):1-16.[Chen X G,Wen H J,Zhang W R,Pan F C,Zhao Y.2020.Advances and progress of agricultural machinery and sensing technology fusion[J].Smart Agri-culture,2(4):1-16.]doi:10.12133/j.smartag.2020.2.4.202 002-SA003.
戴智勇,楊朝現(xiàn),信桂新,魏耀華,熊想想.2019.丘陵山區(qū)土地利用沖突評價及調(diào)控優(yōu)化[J].西南大學(xué)學(xué)報(自然科學(xué)版),41(11):82-91.[Dai Z Y,Yang C X,Xin G X,Wei Y H,Xiong X X.2019.Evaluation of land use conflicts in hilly and mountainous areas and optimization of their con-trol[J].Journal of Southwest University(Natural Science),41(11):82-91.]doi:10.13718/j.cnki.xdzk.2019.11.011.
鄧仕超,黃寅.2017.二值圖像膨脹腐蝕的快速算法[J].計算機(jī)工程與應(yīng)用,53(5):207-211.[Deng S C,Huang Y.2017.Fast algorithm of dilation and erosion for binary image[J].Computer Engineering and Applications,53(5):207-211.]doi:10.3778/j.issn.1002-8331.1508-0007.
何勇,張皙雅,張澤清,方慧.2021.一種農(nóng)田邊界識別方法及系統(tǒng):CN 113221740A[P].2021-08-06.[He Y,Zhang X Y,Zhang Z Q,F(xiàn)ang H.2021.A method and system for identifying farmland boundaries:CN 113221740A[P].2021-08-06.]
賀艷花.2023.基于無人機(jī)圖像生成高精度真正射影像圖研究[J].科技資訊,21(21):25-28.[He Y H.2023.Research on generating high-precision true digital orthophoto maps based on UAV images[J].Science and Technology Infor-mation,21(21):25-28.]doi:10.16661/j.cnki.1672-3791.2304-5042-8510.
江東,丁方宇,郝蒙蒙,付晶瑩,黃耀歡.2017.農(nóng)田遙感識別方法與應(yīng)用[J].甘肅科學(xué)學(xué)報,29(2):43-47.[Jiang D,Ding F Y,Hao M M,F(xiàn)u J Y,Huang Y H.2017.Remotesensing identification method and application in farmland[J].Journal of Gansu Science,29(2):43-47.]doi:10.16468/j.cnki.issn 1004-0366.2017.02.011.
姜妍,王琳,楊月,蔡雨彤,張喜海,王惠中,王紹東.2022.無人機(jī)高光譜成像技術(shù)在作物生長信息監(jiān)測中的應(yīng)用[J].東北農(nóng)業(yè)大學(xué)學(xué)報,53(3):88-96.[Jiang Y,Wang L,Yang Y,Cai Y T,Zhang X H,Wang H Z,Wang S D.2022.Application of UAV hyperspectral imaging technology in crop growth information monitoring[J].Journal of Nor-theast Agricultural University,53(3):88-96.]doi:10.19720/j.cnki.issn.1005-9369.2022.03.010.
李森,彭玲,胡媛,池天河.2020.基于FD-RCF的高分辨率遙感影像耕地邊緣檢測[J].中國科學(xué)院大學(xué)學(xué)報,37(4):483-489.[Li S,Peng L,Hu Y,Chi T H.2020.FD-RCF-based boundary delineation of agricultural fields in high resolution remote sensing images[J].Journal of University of Chinese Academy of Sciences,37(4):483-489.]doi:10.7523/j.issn.2095-6134.2020.04.007.
廖丹.2014.基于高分辨率遙感影像的不同地貌區(qū)田塊邊界提取方法研究[D].成都:四川農(nóng)業(yè)大學(xué).[Liao D.2014.The research on method field boundary extraction in diffe-rent geomorphic types based on high resolution remote sensing images[D].Chengdu:Sichuan Agricultural Unive-rsity.]
林家元,程亞男.2022.基于無人機(jī)遙感影像的裸巖識別及早期石漠化評價[J].西南大學(xué)學(xué)報(自然科學(xué)版),44(12):125-135.[Lin J Y,Cheng YN.2022.Identification of bare rock and evaluation of early rocky desertification using UAV remote sensing image[J].Journal of Southwest Uni-versity(Natural Science),44(12):125-135.]doi:10.13718/j.cnki.xdzk.2022.12.013.
劉波,羅俊,于萍,葉江紅,蔣輝霞,劉宇,李筠.2023.達(dá)州市大竹縣苧麻機(jī)械化收獲現(xiàn)狀及思考[J].四川農(nóng)業(yè)科技,(9):106-108.[Liu B,Luo J,Yu P,Ye J H,Jiang H X,Liu Y,Li Y.2023.Current situation and thoughts on mecha-nized harvesting of ramie in Dazhu County,Dazhou City[J].Science and Technology of Sichuan Agriculture,(9):106-108.]doi:10.3969/j.issn.1004-1028.2023.09.030.
錢震杰,金誠謙,劉政,楊騰祥.2023.無人農(nóng)場中的智能控制技術(shù)應(yīng)用現(xiàn)狀與趨勢[J].智能化農(nóng)業(yè)裝備學(xué)報(中英文),4(3):1-13.[Qian Z J,Jin C Q,Liu Z,Yang T X.2023.Development status and trends of intelligent controltechnology in unmanned farms[J].Journal of Intelligent Agricultural Mechanization(in Chinese and English),4(3):1-13.]doi:10.12398/j.issn.2096-7217.2023.03.001.
王柯,付怡然,彭向陽,左志權(quán),易琳,黃松波.2017.無人機(jī)低空遙感技術(shù)進(jìn)展及典型行業(yè)應(yīng)用綜述[J].測繪通報,(S1):79-83.[Wang K,F(xiàn)u Y R,Peng X Y,Zuo Z Q,Yi L,Huang S B.2017.Overview of UAV low altitude remotesensing technology and application in typical industries[J].Bulletin of Surveying and Mapping,(S1):79-83.]doi:10.13474/j.cnki.11-2246.2017.0621.
王鈺,董亞坤,何紫玲,王鵬,趙昊,曾維軍.2023.基于Senti-nel-2A影像的復(fù)合輪作種植結(jié)構(gòu)提取[J].南方農(nóng)業(yè)學(xué)報,54(8):2490-2498.[Wang Y,Dong Y K,He Z L,Wang P,Zhao H,Zeng W J.2023.Extraction of compound rotation planting structure based on Sentinel-2A image[J].Journal of Southern Agriculture,54(8):2490-2498.]doi:10.3969/j.issn.2095-1191.2023.08.031.
楊影.2020.基于震后無人機(jī)影像的滑坡提取分析研究[D].北京:中國地震局地震預(yù)測研究所.[Yang Y.2020.Research on landslide extraction and analysis based on UAV images after the earthquake[D].Beijing:Institute of Earthquake Forecasting,China Earthquake Administra-tion.]doi:10.27488/d.cnki.ggjfz.2020.000015.
曾學(xué)亮,郭熙,鐘亮,吳俊.2024.基于多源遙感特征融合與卷積神經(jīng)網(wǎng)絡(luò)(CNN)的丘陵地區(qū)水稻識別[J].江蘇農(nóng)業(yè)學(xué)報,40(1):93-102.[Zeng X L,Guo X,Zhong L,Wu J.2024.Rice identification in hilly areas based on multi-source remote sensing feature fusion and convolutional neural networks(CNN)[J].Jiangsu Journal of Agricultural Sciences,40(1):93-102.]doi:10.3969/j.issn.1000-4440.2024.01.010.
張加朋,于鳳芹.2020.基于Canny算子改進(jìn)型的影像測量邊緣檢測[J].激光與光電子學(xué)進(jìn)展,57(24):258-265.[Zhang J P,Yu F Q.2020.Improved image measurement edge detection based on Canny operator[J].Laseramp;Optoelec-tronics Progress,57(24):258-265.]doi:10.3788/LOP57.241024.
趙欣,王萬里,董靚,徐媛媛,王科,翟衛(wèi)欣,吳才聰.2022.面向無人駕駛農(nóng)機(jī)的高精度農(nóng)田地圖構(gòu)建[J].農(nóng)業(yè)工程學(xué)報,38(Z1):1-7.[Zhao X,Wang W L,Dong L,Xu Y Y,Wang K,Zhai W X,Wu C C.2022.High precision farm-land map constrution for unmanned agricultural machinery[J].Transactions of the Chinese Society of Agricultural Engineering,38(Z1):1-7.]doi:10.11975/j.issn.1002-6819.2022.z.001.
Chen L C,Papandreou G,Kokkinos I,Murphy K,Yuille A L.2018.Deeplab:Semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected CRFs[J].IEEE Transactions on Pattern Analysis and Ma-chine Intelligence,40(4):834-848.doi:10.1109/TPAMI.2017.2699184.
Chen L,Song W L,Sun T,Lu Y Z,Jiang W,Liu J,Liu H J,F(xiàn)eng T S,Gui R J,Haider A,Meng L W,Lin S J,He Q.2023.Field patch extraction based on high-resolution imaging and U2-Net++convolutional neural networks[J].Remote Sensing,15(20):4900.doi:10.3390/rs 15204900.
Gao Z T,Guo D L,Ryu D,Western A W.2022.Enhancing the accuracy and temporal transferability of irrigated croppingfield classification using optical remote sensing imagery[J].Remote Sensing,14(4):997.doi:10.3390/rs 14040997.
Guo W H,Ye H L,Cao F L.2021.Feature-grouped network with spectral—Spatial connected attention for hyperspec-tral image classification[J].IEEE Transactions on Geo-science and Remote Sensing,60:1-13.doi:10.1109/TGRS.2021.3051056.
Hu F,Xia G S,Hu J W,Zhang L P.2015.Transferring deep convolutional neural networks for the scene classification of high-resolution remote sensing imagery[J].Remote Sen-sing,7(11):14680-14707.doi:10.3390/rs71114680.
Liu Y,Cheng M M,Hu X W,Bian J W,Zhang L,Bai X.2017.Richer convolutional features for edge detection[J].IEEE Transactions on Pattern Analysis and Machine Intelli-gence,41(8):1939-1946.doi:10.1109/TPAMI.2018.2878 849.
Rydberg A,Borgefors G.2001.Integrated method for boundarydelineation of agricultural fields in multispectral satellite images[J].IEEE Transactions on Geoscience and Remote Sensing,39(11):2514-2520.doi:10.1109/36.964989.
Singh S,Saini A K,Saini R,Mandal A S,Shekhar C,Vohra A.2014.A novel real-time resource efficient implementation of Sobel operator-based edge detection on FPGA[J].Inter-national Journal of Electronics,101(12):1705-1715.doi:10.1080/00207217.2014.888782.
Wagner M P,Oppelt N.2020.Extracting agricultural fields from remote sensing imagery using graph-based growing contours[J].Remote Sensing,12(7):1205.doi:10.3390/rs12071205.
Waldner F,Diakogiannis F I.2020.Deep learning on edge:Extracting field boundaries from satellite images with a convolutional neural network[J].Computer Science,245:111741.doi:10.48550/arXiv.1910.12023.
Wang X Y,Shu L,Han R,Yang F,Gordon T,Wang X C,Xu H Y.2023.A survey of farmland boundary extraction techno-logy based on remote sensing images[J].Electronics,12(5):1156.doi:10.3390/electronics 12051156.
Wen C Y,Lu M,Bi Y,Zhang S N,Xue B,Zhang M J,Zhou Q B,Wu W B.2022.An object-based genetic programming approach for cropland field extraction[J].Remote Sensing,14(5):1275.doi:10.3390/rs 14051275.
Xie D H,Xu H,Xiong X L,Liu M,Hu H R,Xiong M S,Liu L.2023.Cropland extraction in Southern China from very high-resolution images based on deep learning[J].Remote Sensing,15(9):2231.doi:10.3390/rs 15092231.
Xu L L,Yang P,Yu J J,Peng F,Xu J,Song S R,Wu Y X.2023.Extraction of cropland field parcels with high resolu-tion remote sensing using multi-task learning[J].European Journal of Remote Sensing,56(1):2181874.doi:10.1080/22797254.2023.2181874.
Xu L,Ming D P,Du T Y,Chen Y Y,Dong D H,Zhou C H.2022.Delineation of cultivated land parcels based on deep convolutional networks and geographical thematic scene division of remotely sensed images[J].Computers and Electronics in Agriculture,192:106611.doi:10.1016/j.compag.2021.106611.
Xu Q,Varadarajan S,Chakrabarti C,Karam J L.2014.A dis-tributed canny edge detector:Algorithm and FPGA imple-mentation[J].IEEE Transactions on Image Processing,23(7):2944-2960.doi:10.1109/tip.2014.2311656.
(責(zé)任編輯:蘭宗寶)