張 夢(mèng),佘 寶,,*,楊玉瑩,黃林生,朱夢(mèng)琦
(1.安徽理工大學(xué) 空間信息與測(cè)繪工程學(xué)院,安徽 淮南 232001; 2.安徽大學(xué) 農(nóng)業(yè)生態(tài)大數(shù)據(jù)分析與應(yīng)用技術(shù)國家地方聯(lián)合工程研究中心,安徽 合肥 230601)
及時(shí)、準(zhǔn)確地掌握大豆種植區(qū)的空間分布在農(nóng)業(yè)生產(chǎn)監(jiān)測(cè)、精準(zhǔn)農(nóng)業(yè)發(fā)展等方面具有積極意義。目前,人們主要采取以人工統(tǒng)計(jì)方法為主、遙感調(diào)查方法為輔的方式獲取大豆種植信息;但是,人工統(tǒng)計(jì)方法效率低、周期長、成本高,且無法提供空間分布信息。衛(wèi)星遙感技術(shù)具有宏觀、便捷、高效等優(yōu)點(diǎn),在大規(guī)模農(nóng)情監(jiān)測(cè)中應(yīng)用廣泛[1];然而,其分辨率容易形成瓶頸,影像覆蓋頻率受制于平臺(tái)的重訪周期且易受大氣影響[2-3],導(dǎo)致其在作物制圖某些場景下的應(yīng)用受到限制。近年來,無人機(jī)(UAV)遙感技術(shù)的興起為人們獲取地表信息提供了新的手段。與傳統(tǒng)的大型飛機(jī)相比,無人機(jī)尺寸小,成本低,使用靈活[4-5],在土地確權(quán)、精細(xì)農(nóng)業(yè)等領(lǐng)域已有較為成熟的應(yīng)用。
在大豆遙感識(shí)別方面,國內(nèi)外研究多基于衛(wèi)星遙感平臺(tái)展開[21-22]?;跓o人機(jī)平臺(tái)的作物識(shí)別研究多關(guān)注玉米、小麥、水稻等主要經(jīng)濟(jì)作物,在大豆上開展的研究相對(duì)較少,尤其是在作物種植類型復(fù)雜多樣、農(nóng)田景觀破碎的地區(qū),基于無人機(jī)平臺(tái)開展大豆遙感識(shí)別的相關(guān)研究還鮮見報(bào)道。有關(guān)無人機(jī)大豆遙感識(shí)別的方法、算法、辨識(shí)性特征等的探討大多也都還處于起步階段。鑒于此,本文以皖北大豆主產(chǎn)區(qū)——阜陽市太和縣為研究區(qū),針對(duì)研究區(qū)內(nèi)夏季作物種類多樣、農(nóng)田景觀破碎的特點(diǎn),基于無人機(jī)RGB影像與4種機(jī)器學(xué)習(xí)算法構(gòu)建大豆種植區(qū)遙感識(shí)別模型,并借助兩種方法——窗口平滑濾波、特征選擇,對(duì)基于無人機(jī)的大豆遙感識(shí)別方案進(jìn)行優(yōu)化。
阜陽市太和縣(33°04′~33°35′N,115°25′~115°55′E),位于安徽省西北部,地處黃淮海平原南端,屬于暖溫帶半濕潤季風(fēng)氣候。境內(nèi)地勢(shì)平坦,平均海拔33.2 m,氣候溫和,降雨充沛,年平均氣溫14.9 ℃,多年平均降水量839.4 mm,適合多種作物種植。全縣總面積1 867 km2,2019年糧食作物播種面積194 959 hm2,其中,大豆種植規(guī)模(2020年達(dá)6.7萬hm2)在全省縣級(jí)行政單元中排名第二,為該縣第一大經(jīng)濟(jì)類作物。該地的大豆種植于6月中下旬開始,8月中旬大豆開始結(jié)莢,10月初收獲。
于2020年8月27日在太和縣趙廟鎮(zhèn)執(zhí)行無人機(jī)航拍任務(wù),此時(shí)大豆正處于結(jié)莢期,該時(shí)期大豆頂端葉片肥大,株型緊湊,是進(jìn)行大豆種植區(qū)識(shí)別研究的理想時(shí)期[23]。航拍區(qū)域內(nèi)除大豆外,主要作物還有芝麻、玉米、紅薯、藥材等,覆蓋了皖北地區(qū)夏季主要的作物類型,具有代表性。選用DJI 精靈4 RTK小型四旋翼無人機(jī)(深圳市大疆創(chuàng)新科技有限公司)作為作業(yè)平臺(tái)執(zhí)行航拍任務(wù),搭載2 000萬pixel的CMOS傳感器,采集目標(biāo)高清RGB相片。飛行航拍作業(yè)時(shí)間為11:30—12:30,當(dāng)時(shí)天氣晴朗無風(fēng),設(shè)置飛行高度200 m,航拍區(qū)域約1 km×1 km,航向、旁向重疊度均設(shè)置為80%,共獲取358張航攝相片。此外,在航拍區(qū)域均勻布設(shè)9個(gè)像控點(diǎn)用于幾何精校正,像控點(diǎn)坐標(biāo)使用華測(cè)i70型RTK測(cè)量系統(tǒng)(上海華測(cè)導(dǎo)航技術(shù)股份有限公司)測(cè)量。
使用Smart3D軟件對(duì)358張航攝相片進(jìn)行處理,經(jīng)過相片對(duì)齊、像控點(diǎn)平差計(jì)算、構(gòu)建不規(guī)則三角網(wǎng)(TIN)模型、生成密集點(diǎn)云、生成網(wǎng)格、紋理映射等過程,獲得研究區(qū)DSM數(shù)據(jù)和空間分辨率為0.056 m的數(shù)字正攝影像(DOM)。之后,借助ArcGIS 10.6軟件繪制矩形邊界矢量文件并用于裁剪影像,得到邊緣規(guī)整的矩形影像。
首先,對(duì)原始RGB影像進(jìn)行相對(duì)輻射定標(biāo),并基于輻射定標(biāo)結(jié)果計(jì)算9個(gè)可見光植被指數(shù);其次,利用主成分分析(PCA)法對(duì)原始RGB影像進(jìn)行波段信息量評(píng)價(jià);然后,基于PCA第一分量計(jì)算6種紋理特征;接著,將研究區(qū)影像按2∶1的比例劃分成A(目標(biāo)區(qū)域)、B(訓(xùn)練區(qū)域)兩個(gè)區(qū)域(圖1),基于序列前向選擇(SFS)方法進(jìn)行特征篩選并構(gòu)建特征子集,通過滑動(dòng)窗口平滑濾波算法進(jìn)行間隔采樣,在A、B區(qū)分別生成測(cè)試集和訓(xùn)練集數(shù)據(jù),基于多種機(jī)器學(xué)習(xí)算法進(jìn)行訓(xùn)練,選取最佳特征子集和精度最高的分類器,對(duì)目標(biāo)區(qū)域進(jìn)行大豆種植區(qū)識(shí)別,并對(duì)結(jié)果的精度進(jìn)行檢驗(yàn);最后,根據(jù)無人機(jī)航拍作業(yè)時(shí)的典型地物調(diào)查坐標(biāo)數(shù)據(jù),結(jié)合后期無人機(jī)正射影像,建立典型地物的無人機(jī)遙感解譯標(biāo)志,利用LabelMe工具對(duì)影像中的大豆種植區(qū)域進(jìn)行目視解譯判別,得到大豆與非大豆區(qū)域的真實(shí)分布柵格數(shù)據(jù)。
圖1 研究區(qū)的區(qū)域劃分示意圖Fig.1 Schematic of regional division of study area
先前的工作表明,基于原始波段的大豆遙感識(shí)別效果不理想。為此,本文考慮加入色彩空間[24]、紋理、幾何擴(kuò)展特征用于大豆提取。利用ENVI 5.3軟件對(duì)RGB圖像進(jìn)行色彩空間轉(zhuǎn)換和紋理特征計(jì)算,得到色調(diào)(h)、亮度(l)、飽和度(s)3項(xiàng)色彩特征,然后計(jì)算灰度共生矩陣紋理濾波,并通過目視檢驗(yàn)最終保留對(duì)比度(contrast)、相關(guān)性(correlation)、同質(zhì)性(homogeneity)、異質(zhì)性(dissimilarity)、熵(entropy)和角二階矩(ASM)等6種紋理特征,以及1種幾何特征——冠層高度(用DSM指示)。
除上述3類特征外,在前人研究基礎(chǔ)上,本文還選取3個(gè)波段的相對(duì)反射率和9種植被指數(shù)作為候選特征變量。首先,對(duì)原始影像的DN值(數(shù)字量化值)進(jìn)行相對(duì)輻射定標(biāo),得到R、G、B波段的相對(duì)反射率,分別定義為r、g、b[25-26],然后基于此測(cè)算9種可見光植被指數(shù)——過綠指數(shù)(ExG)[27]、過紅指數(shù)(ExR)[28]、歸一化綠藍(lán)差異指數(shù)(NGBDI)[29]、歸一化綠紅差異指數(shù)(NGRDI)[29]、綠藍(lán)比值指數(shù)(GBRI)[30]、藍(lán)紅比值指數(shù)(BRRI)[31]、紅綠藍(lán)植被指數(shù)(RGBVI)[32]、植被提取顏色指數(shù)(CIVE)[33]、可見光波段差異植被指數(shù)(VDVI)[34]。
r=R/(R+G+B);
(1)
g=G/(R+G+B);
(2)
b=B/(R+G+B)。
(3)
VExG=2g-r-b;
(4)
VExR=1.4r-g;
(5)
VNGBDI=(g-b)/(g+b);
(6)
VNGRDI=(g-r)/(g+r);
(7)
VGBRI=g/b;
(8)
VBRRI=b/r;
(9)
VRGBVI=(g2-br)/(g2+br);
(10)
VCIVE=0.441r-0.991g+0.385b+18.787 45;
(11)
VVDVI=(2g-r-b)/(2g+r+b)。
(12)
式(1)~(12)中:R、G、B分別為無人機(jī)影像紅、綠、藍(lán)波段的DN值,VExG、VExR、VNGBDI、VNGRDI、VGBRI、VBRRI、VRGBVI、VCIVE、VVDVI分別為ExG、ExR、NGBDI、NGRDI、GBRI、BRRI、RGBVI、CIVE、VDVI的值。
上述22個(gè)擴(kuò)展特征的加入有效彌補(bǔ)了原始影像信息量的不足,但同時(shí)也使數(shù)據(jù)量增加,導(dǎo)致一定程度的數(shù)據(jù)冗余,會(huì)使得機(jī)器學(xué)習(xí)算法在處理高維度且不平衡的數(shù)據(jù)時(shí)性能受限,從而影響提取精度和執(zhí)行效率。為了平衡數(shù)據(jù)量與提取精度,本文采用與分類器相耦合的特征選擇算法,通過計(jì)算基于單一特征的模型精度(以Kappa系數(shù)作為評(píng)價(jià)指標(biāo)),對(duì)各個(gè)特征的重要性進(jìn)行評(píng)估與排序。在SFS方法的基礎(chǔ)上,每次增加一個(gè)相鄰的權(quán)重稍低或排序靠后的特征組成特征集合輸入模型,計(jì)算模型精度,通過對(duì)不同集合的模型精度進(jìn)行差分計(jì)算,尋找導(dǎo)致模型精度下降特征的位置,并剔除該特征,進(jìn)行多次迭代,直至保留的特征均有利于模型精度的提高。該方法具有較高的靈活性和可移植性,一次可以進(jìn)行多個(gè)不利特征的剔除,提高了運(yùn)算效率。
以22個(gè)候選特征為基礎(chǔ)數(shù)據(jù),通過滑動(dòng)窗口平滑濾波算法進(jìn)行間隔采樣,在A、B區(qū)域分別生成測(cè)試集數(shù)據(jù)和訓(xùn)練集數(shù)據(jù)(比例為2∶1),采用RF、SVM、極端梯度提升(XGBoost)和BP神經(jīng)網(wǎng)絡(luò)(BPNN)4種機(jī)器學(xué)習(xí)算法結(jié)合特征優(yōu)選算法進(jìn)行特征子集優(yōu)選,用訓(xùn)練集數(shù)據(jù)進(jìn)行模型訓(xùn)練,用測(cè)試集數(shù)據(jù)計(jì)算模型分類精度,最后輸出各機(jī)器學(xué)習(xí)算法的特征優(yōu)選子集?;趦?yōu)選特征子集構(gòu)建分類模型,并提取A區(qū)域的大豆種植區(qū),對(duì)提取結(jié)果進(jìn)行精度評(píng)價(jià)。
本文基于Python 3.8平臺(tái)編程實(shí)現(xiàn)上述算法功能。硬件配置:CPU為Intel i7-8700,內(nèi)存16 GB,GPU為NVIDIA RTX 1060。
選擇的定量評(píng)價(jià)指標(biāo)有Kappa系數(shù)、總體分類精度(OA)[35]、制圖精度(PA)和用戶精度(UA)。模型提取結(jié)果的Kappa系數(shù)和OA值越高,說明提取效果相對(duì)越好。
本文在樣本采樣中引入了滑動(dòng)窗口平滑濾波處理,不同窗口尺寸下模型的精度和提取效果不同。因此,首先基于18組窗口大小對(duì)原始分辨率的RGB影像進(jìn)行平滑濾波處理,模擬不同空間尺度(不同航高)的影像,對(duì)比不同空間尺度下分類模型的大豆種植區(qū)提取精度,進(jìn)而確定最優(yōu)空間尺度。
不同窗口尺寸下,4種算法下大豆種植區(qū)的提取精度(以Kappa系數(shù)表征)均隨著窗口的增大而逐漸提高(圖2),在10 pixel ×10 pixel窗口尺寸下的分類精度值達(dá)到0.82,之后提升幅度明顯降低,逐漸趨于平緩。綜合考慮不同窗口大小在4種算法下的表現(xiàn),并盡可能地減少不同地物交界處的鋸齒化和尺度效應(yīng)的影響,將10 pixel ×10 pixel確定為最適合本研究大豆提取的窗口尺寸。
紅色五角星標(biāo)記的是最優(yōu)窗口尺寸。The red stars represent the optimum window size.圖2 不同方法下窗口尺寸與分類精度的關(guān)系Fig.2 Relationships between window size and classification accuracy under different algorithms
依據(jù)1.5節(jié)的特征子集優(yōu)選方法,得到4種算法下各個(gè)特征變量的重要性排序結(jié)果。在4種算法的評(píng)估結(jié)果中,排序均靠前的特征變量有r、BRRI、h、NGRDI、ExR,說明這些特征在大豆識(shí)別中可能具有較大的優(yōu)勢(shì)。其中,r在4種算法下均排名前三。
依據(jù)特征變量的重要性結(jié)果,得到不同特征變量組合形式下的分類精度與特征子集數(shù)量的關(guān)系(圖3)??傮w來看,隨著特征變量的增加,各算法下的提取精度(以Kappa系數(shù)表征)均呈現(xiàn)升高趨勢(shì)。其中,RF、XGBoost算法在依次輸入各特征后,Kappa系數(shù)整體提升相對(duì)穩(wěn)定,只在局部出現(xiàn)小幅降低,分別在輸入的特征變量數(shù)量為22和20時(shí)精度達(dá)到最大值;SVM和BPNN算法下分類器達(dá)到精度最大值時(shí)所對(duì)應(yīng)的特征變量的數(shù)量均為22??梢?在4種算法下實(shí)現(xiàn)最大精度所需的特征維度均較高,且在達(dá)到最大提取精度前,均存在導(dǎo)致分類精度降低的部分特征。按照1.5節(jié)的特征選擇算法,剔除不利于大豆準(zhǔn)確提取或會(huì)導(dǎo)致精度降低的特征,得到4種算法下的特征變量優(yōu)選結(jié)果(圖4、表1)。從數(shù)量來看,RF和XGBoost算法下的優(yōu)選特征個(gè)數(shù)為9,SVM為7,BPNN為6。此時(shí),4種算法均能夠在較高的分類精度與較少的數(shù)據(jù)量之間實(shí)現(xiàn)平衡,且能夠保證分類精度隨特征數(shù)量的增加而穩(wěn)步提升。相對(duì)于特征優(yōu)選前各算法達(dá)到最大精度時(shí)所對(duì)應(yīng)的特征維度,特征優(yōu)選后,RF、XGBoost、SVM、BPNN算法下的數(shù)據(jù)量分別減少了59.1%、55.0%、68.2%、72.7%,RF、XGBoost和BPNN算法分類精度的最大值分別降低了0.000 3、0.007 8、0.007 8,而SVM算法分類精度的最大值還提升了0.020 0,分類精度變化均在可接受范圍內(nèi)。
紅點(diǎn)代表最大精度所對(duì)應(yīng)的特征維度。The red points represent the specific dimension corresponding to the maximum accuracy.圖3 不同機(jī)器學(xué)習(xí)算法下分類精度與特征維度之間的關(guān)系Fig.3 Relationship between classification accuracy and feature dimension under different algorithms
圖4 優(yōu)選特征維度與分類精度的對(duì)應(yīng)關(guān)系Fig.4 Relationship between singled out features dimension and classification accuracy under different algorithms
表1 不同算法的優(yōu)選特征變量子集Table 1 Optimum feature-subsets under different algorithms
從特征子集優(yōu)選結(jié)果來看,r、ExR、BRRI、ASM、NGRDI和DSM至少保留在3種算法的特征優(yōu)選結(jié)果中,表明這些特征對(duì)大豆識(shí)別更有效。
采用4種機(jī)器學(xué)習(xí)算法,將優(yōu)選特征子集與原始RGB波段分別作為輸入,提取得到不同方案所對(duì)應(yīng)的大豆種植區(qū)(A區(qū)域影像)分布結(jié)果(圖5)。與真值對(duì)比后發(fā)現(xiàn),不同方案提取得到的大豆種植區(qū)與真實(shí)分布總體上較為一致,然而不同方法和不同輸入數(shù)據(jù)的提取結(jié)果存在一定差異??傮w來看,4種算法下基于優(yōu)選特征子集的大豆種植區(qū)提取效果均優(yōu)于基于原始RGB波段的提取結(jié)果,其錯(cuò)分和漏分現(xiàn)象明顯減少。值得注意的是,8張分類結(jié)果圖左上方區(qū)域的提取效果均不夠理想,尤其是漏分現(xiàn)象較為嚴(yán)重。與原始影像對(duì)比之后發(fā)現(xiàn),該區(qū)域處于原始拼接結(jié)果影像的邊緣位置,存在較為明顯的色彩偏移,因而在一定程度上影響到了提取效果。相比之下,RF算法結(jié)合優(yōu)選特征子集得到的結(jié)果與真值最為接近,誤差相對(duì)更少。
圖5 不同方案下大豆種植區(qū)的提取效果對(duì)比Fig.5 Comparison of extraction effects of soybean planting areas with different schemes
在最佳窗口條件(10 pixel×10 pixel)下,運(yùn)用不同算法,基于RGB影像和優(yōu)選特征提取大豆種植區(qū),依據(jù)制圖精度、用戶精度、總體精度和Kappa系數(shù)評(píng)價(jià)提取效果的優(yōu)劣。基于優(yōu)選特征獲得的大豆提取精度相較于RGB影像明顯提高,在RF、SVM、XGBoot、BPNN算法下,Kappa系數(shù)分別提高了0.05、0.11、0.05、0.03(表2),以SVM算法下的提升幅度最大。同樣基于優(yōu)選特征進(jìn)行的大豆提取中,SVM算法與RF、XGBoost算法的Kappa系數(shù)持平,但其用戶精度卻明顯略低,說明其錯(cuò)分誤差要較后兩者嚴(yán)重。在本研究所采用的4種算法中,RF算法下基于優(yōu)選特征的大豆種植區(qū)提取結(jié)果的用戶精度和總體精度均最高,分別為96.27%和93.96%,表現(xiàn)相對(duì)更好,且提取結(jié)果也更符合實(shí)際。
表2 不同算法下基于RGB特征和優(yōu)選特征的大豆提取精度Table 2 Soybean extraction accuracy based on RGB image and optimum features under different algorithms
從前述研究也可看出,在RF和XGBoost算法下,當(dāng)加入擴(kuò)展特征后,其分類精度的變化較為平緩。這說明,這兩種算法能夠很好地支持多維度輸入數(shù)據(jù),且其運(yùn)行結(jié)果也表現(xiàn)出較高的穩(wěn)定性,因而更適于特征擴(kuò)展和特征優(yōu)選操作。在SVM和BPNN算法下,當(dāng)加入擴(kuò)展特征后,分類精度的波動(dòng)相對(duì)明顯,說明其提取結(jié)果易受到特征維度和特征數(shù)值范圍的影響。
綜上,優(yōu)選特征有利于在無人機(jī)平臺(tái)上獲取更好的提取效果,RF算法與特征優(yōu)選方法結(jié)合的方案在無人機(jī)大豆識(shí)別中具有較大的應(yīng)用潛力。
先前的有關(guān)大豆分類識(shí)別的研究多以衛(wèi)星平臺(tái)為主[21-22],鮮見基于無人機(jī)平臺(tái)的應(yīng)用。本文利用無人機(jī)平臺(tái)搭載傳統(tǒng)RGB相機(jī)獲取研究區(qū)影像。傳統(tǒng)的RGB相機(jī)像素精細(xì),但其工作波段少,波段跨度大,導(dǎo)致波譜空間的信息量少,不利于遙感影像目標(biāo)信息的有效提取。加入擴(kuò)展特征的目的正是為了充分挖掘原始影像中隱含的信息,擴(kuò)展大豆的候選遙感辨識(shí)性特征。之后,采用特征選擇方法篩選出與各算法相匹配的特征子集,能夠最大限度地釋放各算法的性能。這種基于評(píng)價(jià)指標(biāo)自動(dòng)判別篩選的特征選擇方法在一定程度上能夠減少人為選擇帶來的主觀性。通過加入擴(kuò)展特征并引入特征優(yōu)選方法,本研究在整體上實(shí)現(xiàn)了較高的分類精度與較少的數(shù)據(jù)量之間的平衡,RF、SVM、XGBoost、BPNN算法下提取大豆種植區(qū)的運(yùn)算時(shí)間分別為93、117、79、85 s,且其提取效果均得到了提升。這與其他學(xué)者先前的研究結(jié)論[10,17-19]一致。但是,本文并未就特征的相關(guān)性和信息冗余進(jìn)行分析。今后,可繼續(xù)就上述問題做進(jìn)一步探討。
無人機(jī)超高分辨率引起的細(xì)節(jié)災(zāi)難會(huì)對(duì)分類結(jié)果產(chǎn)生不利影響。同時(shí),傳統(tǒng)機(jī)器學(xué)習(xí)方法的局限也會(huì)導(dǎo)致分類結(jié)果中噪點(diǎn)過多。因此,需要采用一定的策略來減弱上述影響。本文針對(duì)原始影像,采用窗口平滑濾波處理,降低了提取結(jié)果中的噪點(diǎn),使大豆種植區(qū)的提取效果得到改善,同時(shí)又最大限度地保留了空間細(xì)節(jié),RF算法下的Kappa系數(shù)達(dá)到0.87。但是,窗口平滑濾波處理在不同場景下的適用性還需要做進(jìn)一步探討或論證。本研究結(jié)果顯示,各算法對(duì)圖像中間區(qū)域的提取效果較好,“錯(cuò)分”“漏分”主要集中在上、下部分。與原始影像對(duì)比之后發(fā)現(xiàn),容易出現(xiàn)“錯(cuò)分”“漏分”的區(qū)域多處于原始拼接結(jié)果影像的邊緣位置,尤其是上部區(qū)域存在較為明顯的色彩偏移,因而在一定程度上影響到了提取效果。此外,研究區(qū)作物種類多樣、農(nóng)田景觀破碎、地物分布差異的特點(diǎn),也會(huì)導(dǎo)致類間特征值差異較大、樣本分布不均,加上無人機(jī)影像的超高分辨率使得陰影、土壤背景都會(huì)呈現(xiàn)在其中,都可能會(huì)導(dǎo)致前述情況的發(fā)生。后續(xù)研究將進(jìn)一步通過算法參數(shù)調(diào)優(yōu)或采用深度學(xué)習(xí)算法等改善提取效果,進(jìn)一步提升提取精度。
綜上,本研究基于無人機(jī)RGB影像獲取擴(kuò)展特征,基于4種機(jī)器學(xué)習(xí)算法構(gòu)建大豆遙感識(shí)別模型,通過兩種方法——滑窗平滑濾波、特征選擇,實(shí)現(xiàn)了高精度的大豆種植區(qū)提取。在最佳窗口尺寸下,RF結(jié)合優(yōu)選特征的大豆提取表現(xiàn)最好,基于該模型優(yōu)選得到的9個(gè)特征子集的總體精度最高,達(dá)到93.96%,Kappa系數(shù)為0.87,效果優(yōu)于其他3種算法。此外,RF算法在執(zhí)行效率、高維度數(shù)據(jù)支持和噪聲容忍度方面也展現(xiàn)出顯著優(yōu)勢(shì)。這說明,本研究提出的基于RGB影像的RF算法結(jié)合特征優(yōu)選的提取方法在無人機(jī)大豆遙感識(shí)別中表現(xiàn)出較大的應(yīng)用潛力。基于本文所開展的相關(guān)工作已形成一套優(yōu)選方案和技術(shù)路線,可以為復(fù)雜種植結(jié)構(gòu)下無人機(jī)平臺(tái)的大豆遙感識(shí)別研究提供思路與技術(shù)參考。