摘 要:地上生物量反映植被生長(zhǎng)狀況和碳儲(chǔ)量的大小,該參數(shù)的準(zhǔn)確性對(duì)于碳循環(huán)研究以及減緩氣候變化至關(guān)重要。以芭蕉樹為研究對(duì)象,提出一種利用深度學(xué)習(xí)實(shí)現(xiàn)芭蕉樹冠檢測(cè)分割和地上生物量估算的新思路。首先,以深度學(xué)習(xí)算法YOLOv8s-seg為基礎(chǔ)框架改進(jìn),并應(yīng)用無人機(jī)遙感影像,實(shí)現(xiàn)芭蕉樹冠檢測(cè)分割;然后,提取芭蕉樹冠覆蓋面積,結(jié)合實(shí)測(cè)地上生物量數(shù)據(jù)進(jìn)行擬合,使用線性回歸、K最近鄰算法(K-NearestNeighbor ,KNN)、支持向量機(jī)、隨機(jī)森林和XGBoost(eXtreme Gradient Boosting)方法分別建立芭蕉地上生物量估算模型;最后,對(duì)模型估測(cè)結(jié)果進(jìn)行比較分析確定最優(yōu)模型。結(jié)果表明,改進(jìn)后的YOLOv8s-seg模型可以快速有效地對(duì)芭蕉樹冠進(jìn)行檢測(cè)分割。通過驗(yàn)證發(fā)現(xiàn),基于XGBoost的地上生物量估算模型擬合效果和預(yù)測(cè)誤差優(yōu)于其他模型,決定系數(shù)(R2)為0.881 4,均方根誤差(RMSE)為231.37 kg,平均絕對(duì)誤差(MAE)為140.47 kg,能夠更準(zhǔn)確地預(yù)測(cè)地上生物量,更適于進(jìn)行芭蕉地上生物量的反演,進(jìn)一步驗(yàn)證了利用無人機(jī)和深度學(xué)習(xí)方法提取樹冠信息實(shí)現(xiàn)估算地上生物量的可行性。
關(guān)鍵詞:YOLOv8s-seg; 無人機(jī)遙感; 地上生物量; 樹冠覆蓋面積; XGBoost
中圖分類號(hào):S758.5 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.7525/j.issn.1006-8023.2024.05.015
Canopy Segmentation and Biomass Estimation Based on Deep Learning
Abstract: Aboveground biomass reflects the growth of vegetation and the magnitude of carbon storage, and the accuracy of this parameter is crucial for carbon cycle research and climate change mitigation. In this study, a new idea of using deep learning to realize banana canopy detection segmentation and aboveground biomass estimation was proposed. Firstly, the deep learning algorithm YOLOv8s-seg was used as the basic framework improvement, and UAV remote sensing images were applied to realize banana canopy detection segmentation. Then, the canopy coverage area of banana trees was extracted, combined with the measured aboveground biomass data for fitting, and the aboveground biomass estimation model of banana was established by linear regression, K-Nearest Neighbor (KNN), support vector machine, random forest and XGBoost (eXtreme Gradient Boosting). Finally, the model estimation results were compared and analyzed to determine the optimal model. The results showed that the improved YOLOv8s-seg model can quickly and effectively detect and segment banana canopies. Through verification, it was found that the fitting effect and prediction error of the aboveground biomass estimation model based on XGBoost were better than those of other models, with R2 of 0.881 4, root mean square error (RMSE) of 231.37 kg, and mean absolute error (MAE) of 140.47 kg, which could predict the aboveground biomass more accurately and was more suitable for the inversion of the aboveground biomass of bananas, which further verified the feasibility of using UAV and deep learning methods to extract canopy information to estimate the aboveground biomass.
Keywords: YOLOv8s-seg; UAV remote sensing; aboveground biomass; canopy coverage area; XGBoost
0 引言
植被生物量是衡量生態(tài)系統(tǒng)健康和生產(chǎn)力的重要指標(biāo),也是進(jìn)行碳循環(huán)碳儲(chǔ)量研究的基礎(chǔ)[1],主要是指單位面積內(nèi)植被的根、莖、葉、花、果實(shí)、種子和調(diào)落物等的干質(zhì)量總量[2],通常示為kg/m2或 t/hm2。植被生物量包括地上生物量(Above-Ground Biomass,AGB)和地下生物量(Below-Ground Biomass,BGB),其中,地上生物量在植被生物量占較大比重[3],因此,準(zhǔn)確估算植被的地上生物量,對(duì)于了解生態(tài)系統(tǒng)中碳儲(chǔ)存和分配情況,對(duì)于生態(tài)系統(tǒng)健康管理、改善區(qū)域生態(tài)環(huán)境、優(yōu)化生態(tài)工程布局以及全球碳平衡具有重要意義,同時(shí)為氣候變化研究提供重要的數(shù)據(jù)支持,為碳達(dá)峰及碳中和目標(biāo)的實(shí)現(xiàn)提供重要依據(jù)[4-5]。
傳統(tǒng)的地上生物量估算方法主要依賴人工采樣和實(shí)地調(diào)查的稱重測(cè)量,這種方法雖然精度高,但費(fèi)時(shí)費(fèi)力且工作效率低,對(duì)植被有一定的破壞性,僅適用小范圍,在大尺度生物量測(cè)量上存在一定的局限性[6]。隨著地理信息系統(tǒng)的飛速發(fā)展,采用遙感技術(shù)和計(jì)算機(jī)視覺技術(shù)對(duì)植被地上生物量進(jìn)行無損估算已成為一種新的研究方法,主要分為2類:一類是利用相關(guān)遙感衍生變量數(shù)據(jù),如植被指數(shù)、溫度參數(shù)和紋理特征等來建立與地上生物量估算模型[7-9];另一類是通過獲取植被表型信息包括植被高度、胸徑、冠層覆蓋度和葉面積指數(shù)等,分析與植被地上生物量之間的關(guān)系,構(gòu)建生物量估算模型[10-12]。
雖然可以從遙感數(shù)據(jù)中計(jì)算出許多特征信息,但大量特征的提取是一項(xiàng)繁瑣的任務(wù),近年來,越來越多的學(xué)者將遙感技術(shù)與深度學(xué)習(xí)結(jié)合起來[13-14],為實(shí)現(xiàn)植被地上生物量的無損監(jiān)測(cè)提供參考依據(jù)。國(guó)內(nèi)外已有學(xué)者使用Mask R-CNN算法實(shí)現(xiàn)不同目標(biāo)植被的檢測(cè)分割[15-16],這種方法雖然在分割精度上有不錯(cuò)的效果但受限于復(fù)雜場(chǎng)景。受單階段分割模型YOLACT[17]的影響,Mubashiru[18]提出了一種輕量級(jí)的YOLOv5算法,從4種特征相似的植物中準(zhǔn)確分割果實(shí),對(duì)復(fù)雜多變的環(huán)境具有魯棒性,并且能夠快速、準(zhǔn)確地部署在低功耗的計(jì)算平臺(tái)上。雖然該方法獲得了更快的分割速度,但仍需要進(jìn)一步優(yōu)化分割的精度。Yue等[19]提出改進(jìn)的YOLOv8s-Seg網(wǎng)絡(luò),對(duì)番茄果實(shí)進(jìn)行實(shí)時(shí)有效的分割,為番茄的健康監(jiān)測(cè)和智能采收提供了技術(shù)支持。
芭蕉作為一種重要的經(jīng)濟(jì)作物,在許多熱帶和亞熱帶地區(qū)廣泛種植,但是目前關(guān)于芭蕉樹冠分割和地上生物量估算的相關(guān)研究還比較少。因此,本研究以芭蕉作為研究對(duì)象,提出一種利用深度學(xué)習(xí)實(shí)現(xiàn)芭蕉樹冠有效分割和地上生物量估算的新思路,通過改進(jìn)YOLOv8s-seg算法有效地從遙感影像中提取樹冠信息,利用不同方法建立樹冠覆蓋面積-地上生物量模型,找到適合芭蕉的地上生物量估算模型,為芭蕉的撫育管理和資源有效利用提供科學(xué)依據(jù)。
1 研究區(qū)域與數(shù)據(jù)
1.1 研究區(qū)域概況
該研究數(shù)據(jù)來源于公開數(shù)據(jù)集森林碳儲(chǔ)量基準(zhǔn)(ReforesTree)數(shù)據(jù)集[20],該數(shù)據(jù)集包含了厄瓜多爾農(nóng)林業(yè)6個(gè)站點(diǎn)的高分辨率無人機(jī)正射遙感影像以及人工實(shí)地采集的6個(gè)站點(diǎn)的樹木數(shù)據(jù)。研究區(qū)域如圖1所示,每個(gè)站點(diǎn)約0.5 hm2,主要包括芭蕉樹和可可樹,種植于2016—2019年。主要的采集數(shù)據(jù)包括胸徑、林分年、立地ID、樹種、緯度、經(jīng)度和高度信息。無人機(jī)空間分辨率為2 cm。
1.2 芭蕉樹冠標(biāo)注
為確保標(biāo)注結(jié)果與影像的完整信息一致,本研究使用遙感處理軟件ENVI對(duì)研究區(qū)域中無人機(jī)采集的2塊樣地影像中的芭蕉樹冠進(jìn)行標(biāo)注,用于芭蕉樹冠分割模型的構(gòu)建。通過目視解譯手動(dòng)勾勒原始大尺寸遙感影像中的芭蕉樹冠,并將其轉(zhuǎn)換為背景為0、芭蕉樹冠為255的二值掩碼圖像,以便在標(biāo)注過程中保留和捕捉影像的完整信息和上下文,標(biāo)注結(jié)果如圖2所示。將原始遙感影像數(shù)據(jù)以及標(biāo)注好的芭蕉樹冠影像統(tǒng)一裁剪為640×640大小像素。先標(biāo)注后裁剪的目的是保持標(biāo)注的準(zhǔn)確性,利用更全面和豐富的影像信息進(jìn)行后續(xù)模型的訓(xùn)練和分析。如果直接對(duì)裁剪后的小尺寸圖像進(jìn)行標(biāo)注,會(huì)導(dǎo)致信息的丟失和片面性,使得標(biāo)注信息無法準(zhǔn)確地對(duì)應(yīng)到原始大尺寸影像中,從而影響標(biāo)注的準(zhǔn)確性。將制作好的芭蕉樹冠數(shù)據(jù)集按照7∶2∶1劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,分別用于芭蕉樹冠分割模型的訓(xùn)練、驗(yàn)證與測(cè)試。
2 研究方法
在整個(gè)芭蕉地上生物量的估算過程包括樹冠信息提取、回歸建模和精度評(píng)估3個(gè)步驟。首先,在YOLOv8s-seg基礎(chǔ)上,通過引入EMA(Efficient Multi-Scale Attention)高效多尺度注意力模塊對(duì)芭蕉樹冠進(jìn)行檢測(cè)分割,提取芭蕉樹冠的信息,包括樹冠的覆蓋面積和樹冠覆蓋率。然后,采用線性回歸、K最近鄰算法(K-NearestNeighbor,KNN)、支持向量機(jī)、隨機(jī)森林和XGBoost(eXtreme Gradient Boosting)5種回歸建模方法,構(gòu)建基于芭蕉樹冠覆蓋面積的地上生物量的估算模型。最后,根據(jù)評(píng)價(jià)指標(biāo)對(duì)所建立回歸模型的預(yù)測(cè)精度進(jìn)行評(píng)估。研究技術(shù)路線如圖3所示。
2.1 高效多尺度注意力機(jī)制
注意力機(jī)制本質(zhì)上類似于人類的注意力,都能夠從眾多信息里選擇性地關(guān)注當(dāng)前任務(wù)場(chǎng)景中的關(guān)鍵信息。通過引入注意力機(jī)制,為輸入數(shù)據(jù)的不同片段分配不同的權(quán)重來促進(jìn)網(wǎng)絡(luò)模型的學(xué)習(xí)過程,從而使模型能夠優(yōu)先考慮重要信息并增強(qiáng)其性能和泛化能力。
EMA(Efficient Multi-Scale Attention)高效多尺度注意力模塊[21]在保留通道信息的基礎(chǔ)上,將部分通道轉(zhuǎn)化為批量維度,并將通道維度分組為多個(gè)子特征,在降低計(jì)算成本的同時(shí)有效保留通道特定信息,確保使空間語義特征均勻分布在每個(gè)特征組中。EMA模塊采用并行處理結(jié)構(gòu)結(jié)合跨空間學(xué)習(xí),將2個(gè)1×1分支和3×3分支并行放置來提取特征圖的注意力權(quán)重,實(shí)現(xiàn)多尺度的特征聚合,有效減少網(wǎng)絡(luò)深度。在1×1分支中,利用2個(gè)一維全局平均池化操作沿x和y 2個(gè)空間方向?qū)νǖ肋M(jìn)行編碼,然后將沿圖像垂直方向的2個(gè)編碼特征連接起來,共享1×1卷積層,再拆分1×1卷積為2個(gè)向量之后應(yīng)用非線性Sigmoid函數(shù)擬合生成注意力權(quán)重。并行地,3×3分支使用3×3對(duì)分組輸入特征進(jìn)行卷積運(yùn)算以擴(kuò)大特征空間。利用二維全局平均池化操作對(duì)每個(gè)分支的輸出采用Softmax函數(shù)進(jìn)行編碼,最后,通過對(duì)前面提到的并行處理階段的結(jié)果進(jìn)行矩陣點(diǎn)積運(yùn)算,在同一處理階段采集不同尺度的空間信息。EMA模塊結(jié)構(gòu)如圖4所示,G代表通道維度的G個(gè)子特征組;C代表輸入通道數(shù);H、W代表輸入特征圖的高和寬;//代表并行分支。
2.2 基于YOLOv8s-seg的樹冠檢測(cè)分割
傳統(tǒng)的語義分割通常是基于像素級(jí)別的標(biāo)注數(shù)據(jù),通過對(duì)每個(gè)像素進(jìn)行分類,來實(shí)現(xiàn)圖像的語義分割[14,22],考慮到分割性能和輕量化的要求,本研究對(duì)芭蕉樹冠的檢測(cè)分割選用YOLOv8s-seg為基線模型,并在此基礎(chǔ)上加以改進(jìn)。YOLOv8s-seg模型是YOLOv8目標(biāo)檢測(cè)模型的擴(kuò)展,將目標(biāo)檢測(cè)和語義分割的任務(wù)結(jié)合在一個(gè)模型中,利用目標(biāo)檢測(cè)的信息準(zhǔn)確地定位和識(shí)別圖像中的物體,在輸出目標(biāo)檢測(cè)結(jié)果的同時(shí)輸出對(duì)應(yīng)的語義分割結(jié)果,這種結(jié)合大大提高模型的分割性能和效率。
YOLOv8s-seg主要由骨干網(wǎng)絡(luò)Backbone、頸部網(wǎng)絡(luò)Neck和頭部Head組成,其中Backbone由多個(gè)Conv模塊、C2f模塊和1個(gè)空間金字塔池化融合(SPPF)模塊構(gòu)成,負(fù)責(zé)從輸入圖像中提取不同尺寸的特征,Neck將Backbone部分的3個(gè)特征層提取到的不同尺度特征信息進(jìn)行融合,并將這些特征傳遞給Head,進(jìn)行最終的回歸預(yù)測(cè)。在Head設(shè)計(jì)中,采用Anchor-Free和解耦頭的結(jié)構(gòu),可以更好地適應(yīng)不同尺寸和形狀的物體,通過檢測(cè)分支和分割分支分別學(xué)習(xí),檢測(cè)分支預(yù)測(cè)目標(biāo)類別和邊界框,分割分支輸出掩碼系數(shù)和與之對(duì)應(yīng)的原型圖,將掩碼系數(shù)與原型圖相乘后求和,得到圖像分割結(jié)果,大大減少了超參數(shù)的數(shù)量,在提高分割性能的同時(shí)提高了模型的靈活性和穩(wěn)定性。YOLOv8s-seg的基本網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。
2.3 地上生物量估算模型建立
目前,地上生物量估算以統(tǒng)計(jì)模型為主,估算模型分為有確定解析式的參數(shù)模型(線性回歸模型、對(duì)數(shù)模型和指數(shù)模型等)和沒有明確數(shù)學(xué)解析式的非參數(shù)模型(KNN模型、支持向量機(jī)模型、隨機(jī)森林模型和XGBoost模型等)[23]。通過分析樹冠覆蓋面積、樹冠覆蓋率與地上生物量相關(guān)性,而后建立回歸關(guān)系,并計(jì)算決定系數(shù)R2,均方根誤差RMSE和平均絕對(duì)誤差MAE來評(píng)價(jià)不同模型的反演效果,確定最優(yōu)估算模型。
線性回歸模型通過不同特征的線性組合,最佳的擬合訓(xùn)練數(shù)據(jù),使得模型真實(shí)值和預(yù)測(cè)值之間的殘差平方和最小化。K最近鄰算法(K-NearestNeighbor,KNN)作為一種基于實(shí)例的學(xué)習(xí)方法,通過對(duì)訓(xùn)練集中K個(gè)最近鄰的響應(yīng)求平均值得到預(yù)測(cè)值。支持向量機(jī)是一種監(jiān)督學(xué)習(xí)模型,通過將原始空間映射到高維特征空間,然后尋找最優(yōu)超平面,以最小化訓(xùn)練數(shù)據(jù)和映射值之間的誤差。隨機(jī)森林基于多個(gè)決策樹構(gòu)建,最終預(yù)測(cè)值是通過這些樹預(yù)測(cè)結(jié)果進(jìn)行平均來確定的。XGBoost(eXtreme Gradient Boosting)采用決策樹作為弱學(xué)習(xí)器,將多個(gè)決策樹進(jìn)行組合,每個(gè)決策樹都在前一棵樹的殘差基礎(chǔ)上進(jìn)行訓(xùn)練,通過多次迭代逐步減小殘差,最后多個(gè)學(xué)習(xí)器相加進(jìn)行最終預(yù)測(cè)。
本研究中,以樹冠覆蓋面積作為自變量,結(jié)合對(duì)應(yīng)樣地的地上生物量數(shù)據(jù),通過與地上生物量建立回歸關(guān)系來進(jìn)行生物量估算分別構(gòu)建覆蓋面積-地上生物量的線性回歸模型、KNN模型、支持向量機(jī)模型、隨機(jī)森林模型和XGBoost模型,如圖6所示。
2.4 評(píng)價(jià)指標(biāo)
為了檢驗(yàn)?zāi)P蛿M合效果,利用決定系數(shù)(R2)、均方根誤差(RMSE)和平均絕對(duì)誤差(MAE)對(duì)所建立模型的預(yù)測(cè)精度進(jìn)行評(píng)價(jià)。R2取值在0~1,越接近于1,表示該模型的擬合效果越好,均方根誤差(RMSE,式中記為RMSE)和平均絕對(duì)誤差(MAE,式中記為MAE)越小表示模型預(yù)測(cè)精度和穩(wěn)定性越好。其計(jì)算公式為
代表樣本的預(yù)測(cè)值;代表樣本的平均值;n代表樣本數(shù)量。
3 結(jié)果與分析
3.1 改進(jìn)的YOLOv8s-seg_EMA模型
EMA(Efficient Multi-Scale Attention)的優(yōu)點(diǎn)是在不進(jìn)行通道降維的情況下學(xué)習(xí)有效的通道描述,從輸入數(shù)據(jù)中提取與當(dāng)前任務(wù)相關(guān)的重要信息,從而減少不相關(guān)信息對(duì)模型的干擾。通過將EMA高效多尺度注意力模塊添加到C2f模塊中,提出YOLOv8s-seg_EMA模型。由圖7可知,C2f模塊將Bottleneck模塊采用梯度分流連接,在保證輕量化的同時(shí)獲得更加豐富的梯度流,通過對(duì)不同尺度目標(biāo)進(jìn)行有效特征提取和信息融合,使模型更好利用細(xì)節(jié)信息和語義信息。改進(jìn)后的C2f模塊,能夠更加有效聚合多尺度空間結(jié)構(gòu)信息,同時(shí)還保留C2f模塊出色的特征提取和融合能力,顯著提高了模型的分割精度和魯棒性。C2f_EMA模塊結(jié)構(gòu)如圖8所示。
3.2 樹冠分割模型訓(xùn)練與評(píng)估
本試驗(yàn)在Windows操作系統(tǒng)上,搭載Intel(R)Core(TM) i5-8300H CPU@ 2.30GHz處理器,顯卡使用NVDIA Geforce GTX 1050Ti,模型訓(xùn)練基于PyTorch深度學(xué)習(xí)框架,使用Python3.8構(gòu)建網(wǎng)絡(luò),進(jìn)行芭蕉樹冠分割的訓(xùn)練和測(cè)試。在本研究中,使用精確度(precision)、召回率(recall)和平均精度均值(mAP@0.5)來評(píng)估改進(jìn)后的YOLOv8s-seg的性能。3個(gè)參數(shù)越高,分割效果越好,見表1。
由表1可以看出,相同條件下,YOLOv8s-seg原模型對(duì)比YOLOv5s-seg模型的精確度、召回率、平均精度均值分別提高0.002、0.016、0.033,所以本研究選擇在YOLOv8s-seg模型的基礎(chǔ)上進(jìn)行改進(jìn)。加入EMA注意力機(jī)制后的YOLOv8s-seg模型相比于加入CBAM和ECA注意力機(jī)制的模型、YOLOv8-seg原模型,精確度分別提高了0.035、0.028、0.047,召回率分別提高0.003、0.008、0.012,平均精度均值(mAP@0.5)指標(biāo)分別提高0.015、0.025、0.018,綜合比較各指標(biāo),最終選擇YOLOv8s-seg_EMA模型對(duì)芭蕉樹冠進(jìn)行分割。
3.3 樹冠信息提取
3.3.1 樹冠像素統(tǒng)計(jì)
利用YOLOv8s-seg_EMA模型對(duì)測(cè)試集進(jìn)行測(cè)試,輸出文件為txt格式,將格式轉(zhuǎn)換為二值掩碼圖。利用OpenCV計(jì)算二值掩碼圖中白色像素點(diǎn)的數(shù)量獲得樹冠像素點(diǎn)個(gè)數(shù)。本研究中,將手動(dòng)標(biāo)注得到的作為真實(shí)目標(biāo)區(qū)域像素點(diǎn)數(shù),YOLOv8s-seg_EMA模型分割提取得到的樹冠像素作為預(yù)測(cè)值,利用決定系數(shù)(R2)表示樣地內(nèi)像素點(diǎn)數(shù)預(yù)測(cè)值和真實(shí)值之間的關(guān)系,如圖9所示,決定系數(shù)R2為0.95,表明使用改進(jìn)后的YOLOv8s-seg模型提取的像素點(diǎn)數(shù)與真實(shí)值高度一致。
3.3.2 樹冠覆蓋面積與樹冠覆蓋率的計(jì)算
樹冠覆蓋面積是指樹冠實(shí)際的垂直投影面積。GSD為空間分辨率,指一個(gè)像素點(diǎn)代表的空間距離。樹冠覆蓋率是指樣地內(nèi)所有樹冠覆蓋的總面積與土地面積的比例[24]。在目前大多實(shí)際應(yīng)用中,樹冠覆蓋面積根據(jù)樹冠區(qū)域像素?cái)?shù)乘空間分辨率的平方來計(jì)算,樹冠覆蓋率通常用圖像中樹冠所占的像素?cái)?shù)除以圖像的總像素?cái)?shù)得到。其計(jì)算公式分別為
式中:S為樹冠覆蓋面積;Crown area為樹冠區(qū)域像素?cái)?shù);GSD為空間分辨率;Crown cover為樹冠覆蓋率;Image area為圖像像素點(diǎn)數(shù)。
3.3.3 樹冠分割模型應(yīng)用
將研究區(qū)域中6個(gè)站點(diǎn)的遙感影像裁剪大小為4 000×4 000,利用YOLOv8s-seg_EMA樹冠分割模型對(duì)區(qū)域內(nèi)的芭蕉樹冠進(jìn)行檢測(cè)分割,并提取樹冠信息,圖10為芭蕉樹冠分割應(yīng)用示例。
3.4 回歸模型建立與分析
3.4.1 相關(guān)性分析
為了選取芭蕉地上生物量估算模型變量,將樹冠覆蓋面積S、樹冠覆蓋率Crown cover與對(duì)應(yīng)區(qū)域的芭蕉地上生物量AGB進(jìn)行相關(guān)性分析,如圖11所示。圖11中橫縱軸分別對(duì)應(yīng)不同的變量,不同方塊顏色對(duì)應(yīng)不同的相關(guān)系數(shù),中間數(shù)字為2個(gè)變量之間的相關(guān)系數(shù)。相對(duì)系數(shù)取值范圍為[-1,1],絕對(duì)值越接近于1,表明2個(gè)變量之間的線性相關(guān)性越強(qiáng)。由圖11可以看出,AGB與S相關(guān)系數(shù)為0.91,存在顯著的相關(guān)性,AGB與Crown cover相關(guān)系數(shù)僅為0.27,相關(guān)性較弱,所以利用樹冠覆蓋面積作為自變量,用于構(gòu)建芭蕉地上生物量估算模型是可行的。
3.4.2 芭蕉地上生物量估算模型
為了訓(xùn)練和驗(yàn)證模型,將190個(gè)樣本數(shù)據(jù)按接近7∶3的比例隨機(jī)分成訓(xùn)練集和測(cè)試集,其中,133個(gè)作為訓(xùn)練集用于建立覆蓋面積-地上生物量的線性回歸模型、KNN模型、支持向量機(jī)模型、隨機(jī)森林模型和XGBoost模型;57個(gè)作為測(cè)試集用于模型的精度分析。由圖12可知,將各模型獲得的芭蕉地上生物量的預(yù)測(cè)值與真實(shí)值進(jìn)行回歸分析,可以直觀地發(fā)現(xiàn),樣地內(nèi)芭蕉地上生物量預(yù)測(cè)值與真實(shí)值之間呈良好的線性關(guān)系,預(yù)測(cè)值和真實(shí)值之間存在較小誤差。
為了評(píng)估各模型的預(yù)測(cè)精度,通過計(jì)算比較各模型在訓(xùn)練集和測(cè)試集上的R2、RMSE、MAE,對(duì)模型的擬合結(jié)果進(jìn)行評(píng)估,結(jié)果見表2。從整體上比較建模與驗(yàn)證結(jié)果發(fā)現(xiàn),各模型在芭蕉地上生物量估算中均取得了較高精度,各模型訓(xùn)練集的R2在0.829 5~0.928 1。相較于非參數(shù)模型,線性回歸模型可解釋性較強(qiáng),但在訓(xùn)練集上的R2為0.836 3,RMSE為272.81 kg,MAE為171.84 kg,估算精度明顯低于KNN模型、隨機(jī)森林模型和XGBoost模型。XGBoost模型的R2為0.928 1,較其他模型來說,值更接近于1,擬合效果更好,而且RMSE、MAE的表現(xiàn)也優(yōu)于其他模型,值分別為180.76、115.52 kg,相比其他模型的值更小,表明XGBoost模型在訓(xùn)練數(shù)據(jù)上的預(yù)測(cè)誤差較小,即模型對(duì)訓(xùn)練數(shù)據(jù)的擬合程度較好,這說明XGBoost模型能夠更準(zhǔn)確地預(yù)測(cè)訓(xùn)練數(shù)據(jù)中的芭蕉地上生物量。
通過測(cè)試集驗(yàn)證發(fā)現(xiàn),各模型中測(cè)試集的R2均在0.80以上,其中線性回歸模型表現(xiàn)最差,R2為0.800 1,RMSE為300.34 kg,MAE為179.08 kg,XGBoost模型在R2、RMSE、MAE的表現(xiàn)均優(yōu)于其他模型,地上生物量的估測(cè)精度最高,測(cè)試集的R2為0.881 4,RMSE為231.37 kg,MAE為140.47 kg,說明該模型的預(yù)測(cè)誤差較小。出現(xiàn)這種結(jié)果的原因主要是XGBoost通過不斷迭代優(yōu)化損失函數(shù),可以更準(zhǔn)確地捕捉數(shù)據(jù)中的非線性關(guān)系和交互作用,同時(shí),還可以通過控制樹的復(fù)雜度和正則化項(xiàng)來減少過擬合風(fēng)險(xiǎn),進(jìn)一步證實(shí)了XGBoost模型更適于進(jìn)行芭蕉地上生物量的反演,可以作為地上生物量最優(yōu)估測(cè)模型。
4 結(jié)論
植被覆蓋情況反映土地的植被狀況及土地利用類型,地上生物量則代表著植被的生長(zhǎng)狀況和生態(tài)系統(tǒng)的生產(chǎn)力,這2個(gè)參數(shù)也是育種和遺傳研究中評(píng)估植物生長(zhǎng)、產(chǎn)量潛力的重要因素,更是植被碳儲(chǔ)量估算的關(guān)鍵。本研究提出一種利用深度學(xué)習(xí)實(shí)現(xiàn)芭蕉樹冠有效分割和地上生物量估算的新思路,通過改進(jìn)YOLOv8s-seg模型從圖像中快速地分割芭蕉樹冠,進(jìn)而提取樹冠覆蓋面積和樹冠覆蓋率,結(jié)合實(shí)測(cè)地上生物量數(shù)據(jù),建立線性回歸模型、KNN模型、支持向量機(jī)模型、隨機(jī)森林模型和XGBoost模型估測(cè)芭蕉地上生物量,最后對(duì)地上生物量估算模型進(jìn)行驗(yàn)證確定最優(yōu)模型。本研究得出主要結(jié)論如下。
1)通過改進(jìn)YOLOv8s-seg模型,引入EMA注意力機(jī)制,構(gòu)建YOLOv8s-seg_EMA芭蕉樹冠檢測(cè)分割模型。結(jié)果表明,相比于加入CBAM和ECA注意力機(jī)制的模型、YOLOv8s-seg原模型,精確度分別提高了0.035、0.028、0.047,召回率分別提高0.003、0.008、0.012,平均精度均值mAP@0.5指標(biāo)分別提高0.015、0.025、0.018,改進(jìn)后的模型可以快速有效地對(duì)芭蕉樹冠進(jìn)行檢測(cè)分割。
2)基于XGBoost的地上生物量估算模型建模效果和驗(yàn)證精度均優(yōu)于其他模型,在訓(xùn)練集中的R2為0.928 1,RMSE為180.76 kg,MAE為115.52 kg,測(cè)試集中的R2為0.881 4,RMSE為231.37 kg,MAE為140.47 kg。表明XGBoost模型擬合效果和預(yù)測(cè)誤差優(yōu)于其他模型,能夠更準(zhǔn)確地預(yù)測(cè)地上生物量,更適于進(jìn)行芭蕉地上生物量的反演。
本研究結(jié)果驗(yàn)證了利用無人機(jī)和深度學(xué)習(xí)進(jìn)行林分參數(shù)提取和估算地上生物量的可行性,對(duì)其他植物物種的表型分析以及生態(tài)碳匯能力的評(píng)估有一定參考意義。
【參 考 文 獻(xiàn)】
[1] 鄧安健,郭海波,胡潔,等.GOSAT衛(wèi)星數(shù)據(jù)監(jiān)測(cè)中國(guó)大陸上空CO2濃度時(shí)空變化特征[J].遙感學(xué)報(bào),2020,24(3):319-325.
DENG A J,GUO H B,HU J,et al.Temporal and distribution characteristic of CO2 concentration over China based on GOSAT satellite data[J].National Remote Sensing Bulletin,2020,24(3):319-325.
[2] 郭娜,劉劍秋.植物生物量研究概述(綜述)[J].亞熱帶植物科學(xué),2011,40(2):83-88.
GUO N,LIU J Q.A review of research on plant biomass[J].Subtropical Plant Science,2011,40(2):83-88.
[3] MA H Z,MO L D,CROWTHER T W,et al.The global distribution and environmental drivers of aboveground versus belowground plant biomass[J].Nature Ecology & Evolution,2021,5(8):1110-1122.
[4] 趙苗苗,趙娜,劉羽,等.森林碳計(jì)量方法研究進(jìn)展[J].生態(tài)學(xué)報(bào),2019,39(11):3797-3807.
ZHAO M M,ZHAO N,LIU Y,et al.An overview of forest carbon measurement methods[J].Acta Ecologica Sinica,2019,39(11):3797-3807.
[5] 付曉,張煜星,王雪軍.2060年前我國(guó)森林生物量碳庫及碳匯潛力預(yù)測(cè)[J].林業(yè)科學(xué),2022,58(2):32-41.
FU X,ZHANG Y X,WANG X J.Prediction of forest biomass carbon pool and carbon sink potential in China before 2060[J].Scientia Silvae Sinicae,2022,58(2):32-41.
[6] 劉茜,楊樂,柳欽火,等.森林地上生物量遙感反演方法綜述[J].遙感學(xué)報(bào),2015,19(1):62-74.
LIU Q,YANG L,LIU Q H,et al.Review of forest above ground biomass inversion methods based on remote sensing technology[J].National Remote Sensing Bulletin,2015,19(1):62-74.
[7] 張正健,李愛農(nóng),邊金虎,等.基于無人機(jī)影像可見光植被指數(shù)的若爾蓋草地地上生物量估算研究[J].遙感技術(shù)與應(yīng)用,2016,31(1):51-62.
ZHANG Z J,LI A N,BIAN J H,et al.Estimating aboveground biomass of grassland in Zoige by visible vegetation index derived from unmanned aerial vehicle image[J].Remote Sensing Technology and Application,2016,31(1):51-62.
[8] PRAKRITI S,LARRY L,JIYUL C,et al.Above-ground biomass estimation in oats using UAV remote sensing and machine learning[J].Sensors,2022,22(2):601.
[9] 舒時(shí)富,李艷大,曹中盛,等.基于無人機(jī)圖像的水稻地上部生物量估算[J].福建農(nóng)業(yè)學(xué)報(bào),2022,37(7):824-832.
SHU S F,LI Y D,CAO Z S,et al.Estimation of aboveground rice biomass by unmanned aerial vehicle imaging[J].Fujian Journal of Agricultural Sciences,2022,37(7):824-832.
[10] 李濱,劉可寧.基于無人機(jī)光學(xué)遙感的森林生物量估算研究[J].森林工程,2022,38(5):83-92.
LI B,LIU K N.Forest biomass estimation based on UAV optical remote sensing[J].Forest Engineering,2022,38(5):83-92.
[11] 吳培強(qiáng),任廣波,張程飛,等.無人機(jī)多光譜和LiDAR的紅樹林精細(xì)識(shí)別與生物量估算[J].遙感學(xué)報(bào),2022,26(6):1169-1181.
WU P Q,REN G B,ZHANG C F,et al.Fine identification and biomass estimation of mangroves based on UAV multispectral and LiDAR[J].National Remote Sensing Bulletin,2022,26(6):1169-1181.
[12] 余楚瀅,龔輝,曹晶晶,等.基于無人機(jī)影像的無瓣海桑單木提取與地上生物量估算[J].熱帶地理,2023,43(1):12-22.
YU C Y,GONG H,CAO J J,et al.Individual tree crown delineation and aboveground biomass estimation of Sonneratia apetala based on unmanned aerial vehicle remote sensing images[J].Tropical Geography,2023,43(1):12-22.
[13] 南玉龍,張慧春,鄭加強(qiáng),等.深度學(xué)習(xí)在林業(yè)中的應(yīng)用[J].世界林業(yè)研究,2021,34(5):87-90.
NAN Y L,ZHANG H C,ZHENG J Q,et al.Application of deep learning to forestry[J].World Forestry Research,2021,34(5):87-90.
[14] 黃美益.基于深度學(xué)習(xí)算法的圖像傳感器誤差自動(dòng)校正研究[J].自動(dòng)化技術(shù)與應(yīng)用,2023,42(5):8-11.
HUANG M Y.Research on automatic error correction of image sensor based on depth learning algorithm[J].Techniques of Automation and Applications,2023,42(5):8-11.
[15] 陸清嶼,李秋潔,童岳凱,等.基于Mask R-CNN的行道樹實(shí)例分割方法[J].林業(yè)工程學(xué)報(bào),2021,6(5):154-160.
LU Q Y,LI Q J,TONG Y K,et al.Instance segmentation method of street trees based on Mask R-CNN[J].Journal of Forestry Engineering,2021,6(5):154-160
[16] MAR A,JO?O V,LAMMERT K,et al.Estimation of spinach(Spinacia oleracea) seed yield with 2D UAV data and deep learning[J].Smart Agricultural Technology,2023,3(11):100129.
[17] BOLYA D,ZHOU C,XIAO F,et al.YOLACT: real-time instance segmentation[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul,Korea (South),2019:9157-9166.
[18] MUBASHIRU O L.YOLOv5-LiNet: A lightweight network for fruits instance segmentation[J].PloS one,2023,18(3):e0282297.
[19] YUE X,QI K,NA X,et al.Improved YOLOv8-Seg network for instance segmentation of healthy and diseased tomato plants in the growth stage[J].Agriculture,2023,13(8):1643.
[20] REIERSEN G,DAO D,LüTJENS B,et al.ReforesTree: A dataset for estimating tropical forest carbon stock with deep learning and aerial imagery[C]//Proceedings of the 36th AAAI Conference on Artificial Intelligence.2022,36(11):12119-12125.
[21] OUYANG D,HE S,ZHANG G,et al.Efficient multi-scale attention module with cross-spatial learning[C]//ICASSP 2023-2023 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP).IEEE,2023:1-5.
[22] 嚴(yán)毅,鄧超,李琳,等.深度學(xué)習(xí)背景下的圖像語義分割方法綜述[J].中國(guó)圖象圖形學(xué)報(bào),2023,28(11):3342-3362.
YAN Y,DENG C,LI L,et al.Survey of image semantic segmentation methods in the deep learning era[J].Journal of Image and Graphics,2023,28(11):3342-3362.
[23] 郝晴,黃昌.森林地上生物量遙感估算研究綜述[J].植物生態(tài)學(xué)報(bào),2023,47(10):1356-1374.
HAO Q,HUANG C.A review of forest aboveground biomass estimation based on remote sensing data[J].Chinese Journal of Plant Ecology,2023,47(10):1356-1374.
[24] 楊德菲,楊存建,錢可敦.基于無人機(jī)遙感的銀杏樹木株數(shù)及其樹冠覆蓋率估算[J].藝術(shù)科技,2019,32(5):49-50.
YANG D F,YANG C J,QIAN K D.Estimation of the number of Ginkgo biloba trees and their canopy coverage based on UAV remote sensing[J].Art Science and Technology,2019,32(5):49-50.