摘要:
針對雜草和陰影等較復(fù)雜背景影響梨樹冠層圖像信息提取精度的問題,提出一種改進(jìn)DeepLabV3+的梨樹冠層圖像分割方法。該方法將注意力機(jī)制引入到DeepLabV3+編碼部分的主干網(wǎng)絡(luò)與空洞空間金字塔池化模塊之間和解碼部分的主干網(wǎng)絡(luò)之后,重要的特征信息將得到關(guān)注,提高模型分割精度的同時保證分割效率。以Y字形棚架梨園為試驗對象,通過無人機(jī)采集梨樹冠層照片,進(jìn)行冠層分割試驗。結(jié)果表明,提出的CBAM-DeepLabV3+模型對梨樹冠層圖像分割的平均交并比、類別平均像素準(zhǔn)確率和準(zhǔn)確率分別為88.72%、94.56%和96.65%,分割單張圖像時間為0.107 s。CBAM-DeepLabV3+模型分割梨樹冠層的類別平均像素準(zhǔn)確率相比DeepLabV3+和SE-DeepLabV3+分別提高2.28%和0.56%。
關(guān)鍵詞:梨樹冠層;圖像分割;DeepLabV3+;注意力機(jī)制;深度學(xué)習(xí)
中圖分類號:S661.2; TP391.41
文獻(xiàn)標(biāo)識碼:A
文章編號:2095-5553 (2024) 04-0155-07
收稿日期:2022年10月17日" 修回日期:2023年2月2日
基金項目:國家現(xiàn)代農(nóng)業(yè)產(chǎn)業(yè)技術(shù)體系(CARS-28);江蘇省農(nóng)業(yè)科技自主創(chuàng)新資金項目(CX(21)2025)
第一作者:陳魯威,男,1997年生,江蘇新沂人,碩士研究生;研究方向為智能農(nóng)業(yè)裝備與計算機(jī)視覺。E-mail: justchenlw@163.com
通訊作者:呂曉蘭,女,1980年生,山東濰坊人,博士,研究員;研究方向為果園智能農(nóng)機(jī)裝備。E-mail: lxlanny@126.com
Pear canopy segmentation method based on improved DeepLabV3+
Chen Luwei1, 2, Zeng Jin2, 3, Yuan Quanchun2, 3, Xia Ye1, 2, Pan Jian2, Lü Xiaolan1, 2, 3
(1. School of Agricultural Engineering, Jiangsu University, Zhenjiang, 212013, China; 2. Institute of Agricultural
Facilities and Equipment, Jiangsu Academy of Agricultural Science, Nanjing, 210014, China; 3. Key Laboratory of
Modern Horticultural Equipment, Ministry of Agriculture and Rural Affairs, Nanjing, 210014, China)
Abstract:
In order to solve the problem that more complex backgrounds such as weeds and shadows affect the accuracy of pear canopy image information extraction, a pear canopy image segmentation method based on improved DeepLabV3+ is proposed. This method introduces the attention mechanism into the backbone network of the DeepLabV3+ encoding part, between the hole space pyramid pooling module and the backbone network of the decoding part. After that, the important feature information will be paid attention to, which improves the model segmentation accuracy and ensures the segmentation efficiency. Taking the pear orchard with Y-shaped trellis as the test object, the canopy segmentation experiment was carried out by collecting the canopy photos of pear trees by UAV. The results showed that the average intersection ratio, category average pixel accuracy and accuracy of the CBAM-DeepLabV3+ model proposed in this paper for pear canopy image segmentation were 88.72%, 94.56% and 96.65%, respectively, and the segmentation time of a single image was 0.107 s. Compared with DeepLabV3+ and Se DeepLabV3+, the classification average pixel accuracy of CBAM-DeepLabV3+ model for pear canopy segmentation was improved by 2.28% and 0.56%, respectively.
Keywords:
pear tree canopy; image segmentation; DeepLabV3+; attention mechanism; deep learning
0 引言
冠層信息可以直接或間接地反映出梨樹生長發(fā)育的狀況,準(zhǔn)確且高效地獲取梨樹冠層圖像信息,對于快速掌握梨樹生長發(fā)育狀況具有重要意義[1]。然而,當(dāng)前果園的各種信息主要依靠人工獲取,其獲取信息的效率低、精度差、時效差和主觀性等缺點(diǎn)對于果園后續(xù)的決策將造成一定的影響[2]。
無人機(jī)以其效率高、覆蓋區(qū)域廣和成本低等優(yōu)點(diǎn)在農(nóng)業(yè)監(jiān)測和生產(chǎn)中得以廣泛應(yīng)用,是獲取梨樹多種信息的重要手段[3, 4]。準(zhǔn)確和高效獲取梨樹信息對于果園后續(xù)的精準(zhǔn)管理,如施肥、噴藥和修剪等具有重要意義[5]。然而,由于梨樹冠層覆蓋的連續(xù)性較低,受裸露的土地、陰影和雜草等因素干擾[6],其冠層分割的準(zhǔn)確性受到較大干擾,而精準(zhǔn)分割梨樹冠層圖像是實現(xiàn)其信息精準(zhǔn)獲取的重要前提,因此,迫切需要研究一種更加精準(zhǔn)的梨樹冠層分割方法。
近年來,國內(nèi)外學(xué)者對果蔬茶的分割開展了大量研究,主要包括傳統(tǒng)分割方法和基于深度學(xué)習(xí)的分割方法[7-9]。目前,傳統(tǒng)分割方法主要為基于區(qū)域的分割方法、基于閾值的分割方法和基于邊緣等分割方法[10]。束美艷等[11]使用基于區(qū)域分割的分水嶺算法進(jìn)行柑橘單木分割,在分辨率為0.1 m時效果更佳,而在其它分辨率時錯分和漏分現(xiàn)象較多。孫建桐等[12]使用基于邊緣分割的Canny算法對番茄進(jìn)行分割,獲得果實輪廓點(diǎn),一定程度上解決了果實粘連或少量遮擋的分割問題,但是遺漏率較高。隨著計算機(jī)視覺的快速發(fā)展,深度學(xué)習(xí)中的語義分割開始流行,大量的語義分割模型相繼涌現(xiàn)。這些語義分割模型相繼被應(yīng)用到農(nóng)業(yè)及各個領(lǐng)域的圖像分割任務(wù)中[13-15],如DeepLab系列網(wǎng)絡(luò)[16],是如今最為流行的語義分割網(wǎng)絡(luò)模型之一。DeepLabV1[16]模型在主干網(wǎng)絡(luò)中加入空洞卷積,增大感受野,且分辨率不會下降,減少有效信息丟失的問題,DeepLabV2模型提出空洞空間金字塔池化,使用多個采樣率采樣得到的多尺度分割對象獲得了更好的分割效果,DeepLabV3模型改進(jìn)ASPP模塊,將空洞卷積應(yīng)用在級聯(lián)模塊。DeepLabV3+[17]將DeepLabV3作為encoder模塊,并添加簡單有效的decoder模塊,是目前實際應(yīng)用中最為廣泛且有效的語義分割模型之一,在多數(shù)場景下均有較好的分割效果[18],但是在梨樹冠層的圖像分割中鮮有研究,其分割準(zhǔn)確性有待進(jìn)一步提高與驗證。
綜上,為進(jìn)一步提高梨樹冠層圖像分割的準(zhǔn)確性,本文提出將注意力機(jī)制融到DeepLabV3+網(wǎng)絡(luò)中,根據(jù)輸入圖像的每個通道和空間特征的重要程度,賦予不同的權(quán)值,使得改進(jìn)后的模型能夠更好關(guān)注到重要特征,然后將計算資源重點(diǎn)分配給重要的任務(wù),從而提高梨樹冠層分割的準(zhǔn)確性。
1 數(shù)據(jù)采集與預(yù)處理
1.1 數(shù)據(jù)采集
2022年5月5—7日,本試驗在江蘇省農(nóng)業(yè)科學(xué)院Y字形棚架梨園內(nèi)進(jìn)行。果園梨樹栽植密度為3 m×5 m,樹高2.5 m左右。利用大疆精靈4多光譜版無人機(jī)對果園梨樹冠層圖像進(jìn)行采集。本次試驗為低空拍攝,航線設(shè)置飛行高度20 m,采集圖片142張,刪除重復(fù)數(shù)據(jù)及異常樣本后,共得到有效圖像58張,圖像尺寸為1 600像素×1 300像素,圖片保存為JPG格式。
1.2 數(shù)據(jù)預(yù)處理
由于使用深度學(xué)習(xí)方法進(jìn)行圖像分割需要大量的訓(xùn)練樣本才能獲得較好的效果,且為了緩解GPU內(nèi)存占用過多的問題,本試驗將采集到的原始圖像裁切成多個533像素×650像素的圖片,共計348張。
本試驗采用樣本標(biāo)注工具labelme對梨樹冠層圖片進(jìn)行標(biāo)注,為提升模型的魯棒性,將數(shù)據(jù)集樣本的數(shù)量進(jìn)行擴(kuò)充,采用數(shù)據(jù)增強(qiáng)的方法[19, 20],如圖1所示。
對圖片進(jìn)行添加隨機(jī)像素、高斯噪聲、椒鹽噪聲、高斯模糊、水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、等比例縮放、不等比例縮放、隨機(jī)平移和隨機(jī)亮度共10種處理方式,將數(shù)據(jù)集擴(kuò)充到3 480張,并根據(jù)采集時間,按照8∶1∶1的比例劃分為訓(xùn)練集(2 784張)、驗證集(348張)和測試集(348張)。
2 梨樹冠層分割模型
2.1 經(jīng)典的DeepLabV3+模型
DeepLabV3+是語義分割領(lǐng)域中一種典型的網(wǎng)絡(luò)模型[17],其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,該網(wǎng)絡(luò)是在DeepLabV3網(wǎng)絡(luò)的基礎(chǔ)上進(jìn)行的改進(jìn),引入Decoder部分,從而形成Encoder-Decoder架構(gòu),將底層特征和高層特征進(jìn)行融合,改善分割邊界的準(zhǔn)確性。其中Encoder部分采用Xception[18]網(wǎng)絡(luò)對原始數(shù)據(jù)提取特征,然后利用ASPP架構(gòu)對圖像特征進(jìn)行融合,再分別以多種采樣率的并行空洞卷積進(jìn)行特征空間信息提取,最后進(jìn)行1×1卷積通道融合。Decoder部分,將Xception輸入流模塊的輸出淺層特征圖和ASPP架構(gòu)輸出的多尺度特征信息進(jìn)行融合,然后進(jìn)行4倍雙線性插值上采樣,最后輸出分割圖像的最終結(jié)果。
2.2 主干網(wǎng)絡(luò)的選擇
目前主流的主干網(wǎng)絡(luò)有Xception、MobileNet、ResNet和VGGNet等。因Xception主干網(wǎng)絡(luò)參數(shù)量較大,在模型訓(xùn)練過程中對GPU要求較高,且難以滿足在嵌入式設(shè)備中對于實時性具有較高要求的場景,而本試驗GPU算力有限,為加快運(yùn)行速度且方便后續(xù)在移動端或嵌入式設(shè)備中運(yùn)行,本文選擇輕量化網(wǎng)絡(luò)MobileNetV2作為DeepLabV3+的主干網(wǎng)絡(luò)。MobileNetV2是專注于移動端或嵌入式設(shè)備中的輕量化卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN),在準(zhǔn)確率僅有極小幅度降低的情況下,參數(shù)量與運(yùn)算量得到大幅減小。該網(wǎng)絡(luò)采用的是倒殘差結(jié)構(gòu),基本結(jié)構(gòu)如圖3所示。
首先對輸入的特征矩陣使用1×1卷積進(jìn)行升維,增加通道的數(shù)量,其激活函數(shù)為Relu6,然后使用3×3的Dw卷積核進(jìn)行卷積,其激活函數(shù)也為Relu6,最后通過1×1的卷積核降維處理,不再使用Relu6激活函數(shù),而是Linear激活函數(shù)。
2.3 注意力機(jī)制引入
為DeepLabV3+模型更好地應(yīng)用在冠層圖像分割任務(wù)中,仍需進(jìn)一步改進(jìn)來提高其分割準(zhǔn)確率。本文分別引入SE和CBAM兩種注意力模塊,通過對比試驗,比較出性能更優(yōu)的注意力模塊,使得網(wǎng)絡(luò)能夠獲得特征圖更多的注意力信息,以提高梨樹冠層圖像的分割準(zhǔn)確率。
注意力機(jī)制就是在神經(jīng)網(wǎng)絡(luò)傳播中將不同的特征通道或者特征點(diǎn)賦予不同的權(quán)重,對于權(quán)重較大的特征通道或者特征點(diǎn),則將計算資源重點(diǎn)分配過去進(jìn)行處理,而權(quán)重較小的則降低關(guān)注,甚至過濾掉無關(guān)信息,從而提高任務(wù)處理的效率和準(zhǔn)確性。
SE(Squeeze-and-Excitation Module)是一種根據(jù)各種通道重要性的差異來提取通道特征權(quán)重,讓網(wǎng)絡(luò)可以自動獲取每個特征通道重要信息的卷積神經(jīng)網(wǎng)絡(luò)注意力機(jī)制,其結(jié)構(gòu)如圖4所示。
SE注意力機(jī)制包含Squeeze和Excitation兩步操作,首先對特征進(jìn)行壓縮,采用全局平均池化,將一個通道中的整個空間特征H×W×C壓縮成1×1×C的一維特征向量,如式(1)所示,且輸入的特征通道數(shù)與輸出的通道數(shù)相等,然后進(jìn)行激勵操作來獲取各個特征通道之間的關(guān)系,激勵階段由兩個全連接層構(gòu)成,第一個全連接層用來降維,且經(jīng)過ReLU進(jìn)行激活,第二個全連接層則起到恢復(fù)至原始維度的作用,如式(2)所示。再通過Sigmoid激活函數(shù)得到1×1×C的一維向量,最后將各個通道的權(quán)重與激勵部分得到的一維向量進(jìn)行相乘,即可得到H×W×C的輸出特征圖,如式(3)所示。
式中:
x——
尺寸大小為H×W×C的三維特征圖;
xc——
三維特征圖中第c個通道的二維特征矩陣;
z——壓縮后產(chǎn)生的實數(shù);
g——經(jīng)全連接層表達(dá)的非線性函數(shù);
W1、W2——
全連接層中的第一層和第二層權(quán)重參數(shù);
x^——重新標(biāo)定的特征圖;
σ(z^)——?dú)w一化權(quán)重值。
CBAM(Convolutional Block Attention Module)是一種分別根據(jù)通道和空間兩個維度的重要性差異進(jìn)行特征提取的卷積神經(jīng)網(wǎng)絡(luò)注意力機(jī)制,其包含通道注意力機(jī)制(Channel Attention Module,CAM)和空間注意力機(jī)制(Spatial Attention Module,SAM)兩個部分。相較于SE只關(guān)注通道的注意力機(jī)制,CBAM多了空間注意力機(jī)制,在較多場景下可以取得更好的效果。其結(jié)構(gòu)如圖5所示,圖像上半部分為通道注意力機(jī)制,首先對輸入特征分別進(jìn)行全局平均池化和全局最大池化,然后利用共享的全連接層處理,再將獲取到的兩個結(jié)果進(jìn)行相加,接著進(jìn)行Sigmoid運(yùn)算即可獲得輸入特征層每個通道的權(quán)值,最后將權(quán)值與輸入特征層相乘即可獲得輸出特征F′。圖像下半部分為空間注意力機(jī)制,該模塊首先對輸入進(jìn)來的特征F′的每一個特征點(diǎn)的通道上取最大值和平均值,然后將這個兩個結(jié)果堆疊在一起,再使用通道數(shù)為1的卷積調(diào)整通道數(shù),然后進(jìn)行Sigmoid運(yùn)算獲得每個特征點(diǎn)的權(quán)值,最后將權(quán)值與輸入特征層相乘即可得到輸出特征圖。
2.4 改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)
本文通過在DeepLabV3+模型編碼部分的主干網(wǎng)絡(luò)與空洞空間金字塔池化(Atrous Spatial Pyramid Pooling, ASPP)模塊之間和解碼部分的主干網(wǎng)絡(luò)之后引入注意力模塊,分別是SE和CBAM兩種注意力機(jī)制。將SE模塊融入DeepLabV3+模型內(nèi),稱其為SE-DeepLabV3+,將CBAM模塊融入DeepLabV3+模型內(nèi),稱其為CBAM-DeepLabV3+,改進(jìn)后的兩種網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。
3 試驗與結(jié)果分析
3.1 試驗環(huán)境及參數(shù)
本試驗使用Python編程語言并基于深度學(xué)習(xí)框架Pytorch進(jìn)行搭建,環(huán)境的具體配置如表1所示。
為比較不同模型的分割性能與效果,相關(guān)的模型訓(xùn)練參數(shù)均保持一致,模型參數(shù)配置如表2所示。
3.2 評價指標(biāo)
模型的評價指標(biāo)主要有:平均交并比(Mean Intersection over Union, MIoU)、類別平均像素準(zhǔn)確率(Mean Pixel Accuracy, MPA)和準(zhǔn)確率(Accuracy,Acc)。
MIoU是模型的每類預(yù)測結(jié)果和真實值的交集與并集的比值,然后求和再算均值,計算如式(4)所示。
3.3 分割性能結(jié)果分析
為驗證本文提出的DeepLabV3+網(wǎng)絡(luò)中引入SE和CBAM注意力機(jī)制后的SE-DeepLabV3+與CBAM-DeepLabV3+模型的梨樹冠層分割性能,分別將基于DeepLabV3+改進(jìn)的兩種模型與經(jīng)典的DeepLabV3+模型進(jìn)行分割比較。
SE-DeepLabV3+和CBAM-DeepLabV3+兩種模型與經(jīng)典的DeepLabV3+模型在測試集上對梨樹冠層的分割試驗結(jié)果如表4所示。其中SE-DeepLabV3+模型比經(jīng)典的DeepLabV3+模型在平均交并比、類別平均像素準(zhǔn)確率和準(zhǔn)確率上分別提升2.28個、1.72個和0.75個百分點(diǎn),但是SE-DeepLabV3+模型比經(jīng)典的DeepLabV3+模型在參數(shù)量上僅有0.02M的增加,而平均分割時間也只增加0.002s,可知,雖然SE-DeepLabV3+模型中因存在注意力機(jī)制而增加了參數(shù)量,但是圖像分割時間只是略微增加,而SE-DeepLabV3+模型的圖像分割性能相對DeepLabV3+卻有顯著提升。其次CBAM-DeepLabV3+的平均交并比、類別平均像素準(zhǔn)確率和準(zhǔn)確率相比SE-DeepLabV3+模型分別提高1.36個、0.56個和0.45個百分點(diǎn),平均分割時間同時也增加0.003s,這是因為CBAM的網(wǎng)絡(luò)結(jié)構(gòu)相較于SE模塊增加了空間注意力模塊,分別從通道和空間兩種維度提取梨樹冠層的圖像特征,使得CBAM-DeepLabV3+模型可以更好地關(guān)注到重要的特征信息,從而提高圖像分割的準(zhǔn)確率。綜合考量圖像分割精度和分割時間,CBAM-DeepLabV3+模型分割梨樹冠層更具魯棒性。
3.4 分割效果分析
本文分別采用DeepLabV3+、SE-DeepLabV3+和CBAM-DeepLabV3+基于隨機(jī)選取的兩張梨樹冠層圖片進(jìn)行分割,結(jié)果如圖7所示。
從圖7中可以看到,融入注意力機(jī)制的改進(jìn)的DeepLabV3+模型對梨樹冠層圖像的分割效果更好,準(zhǔn)確性具有一定的提升。從矩形框處可以看出,DeepLabV3+模型將多個區(qū)域的背景陰影誤分割為梨樹冠層,而SE-DeepLabV3+模型在圖示樣本1的兩個矩形框處比DeepLabV3+模型更加精準(zhǔn)地分割出了梨樹冠層區(qū)域,但是在圖示樣本2的矩形框處,相較于CBAM-DeepLabV3+模型錯誤地將背景陰影區(qū)域分割為梨樹冠層區(qū)域,從圖示樣本1和樣本2的多個矩形框可以看出,CBAM-DeepLabV3+模型相較于上述兩種模型分割效果更好。
3.5 不同算法對比
為保證算法評價的公平性,將本文提出的改進(jìn)的DeepLabV3+模型(CBAM-DeepLabV3+)與DenseASPP、BiSeNet、DeepLabV3+分割網(wǎng)絡(luò)在梨樹冠層分割任務(wù)中進(jìn)行分割精度對比,結(jié)果如表5所示。
DenseASPP結(jié)合并行和級聯(lián)使用空洞卷積層的優(yōu)點(diǎn),能夠在大范圍產(chǎn)生更多尺度特征,但是分割精度不高,平均交并比僅有83.1%。BiSeNet包含空間路徑和語義路徑兩個并行模塊,兼顧多尺度特征和感受野,DeepLabV3+包含編碼和解碼兩部分結(jié)構(gòu),能夠逐漸獲得清晰的物體邊界,BiSeNet網(wǎng)絡(luò)與其分割精度(MIoU)相近,而本文改進(jìn)后的網(wǎng)絡(luò)相較于上述語義分割算法,平均交并比達(dá)到88.72%,且在MPA和Acc精度指標(biāo)上均具有優(yōu)勢,也再次證明本文提出的在DeepLabV3+模型中融合注意力機(jī)制模塊的重要性。
4 結(jié)論
本文提出一種融合注意力機(jī)制進(jìn)行改進(jìn)的DeepLabV3+模型對梨樹冠層進(jìn)行分割,在DeepLabV3+模型編碼部分的主干網(wǎng)絡(luò)與空洞空間金字塔池化模塊之間和解碼部分的主干網(wǎng)絡(luò)之后引入注意力模塊,對重要的目標(biāo)特征賦予較高的權(quán)值,以獲取梨樹冠層的重要特征信息,并減少復(fù)雜背景信息的干擾,從而提高分割精準(zhǔn)度。
1)" 在梨樹冠層圖像分割測試集上的試驗結(jié)果表明,本文提出的CBAM-DeepLabV3+模型平均交并比、類別平均像素準(zhǔn)確率和準(zhǔn)確率分別為88.72%、94.56%和96.65%,分割單張圖像時間為0.107 s。與融入SE注意力機(jī)制的模型相比,CBAM-DeepLabV3+模型綜合考量分割準(zhǔn)確度和運(yùn)行速度,在運(yùn)行速度變化極小的情況下,分割平均交并比、類別平均像素準(zhǔn)確率和準(zhǔn)確率分別提升3.64%、2.28%和1.2%。
2)" 融入注意力機(jī)制的改進(jìn)DeepLabV3+模型較經(jīng)典的DeepLabV3+模型在平均交并比、類別平均像素準(zhǔn)確率和準(zhǔn)確率上均有顯著提升,所以融入注意力機(jī)制可以使得網(wǎng)絡(luò)關(guān)注到更加重要的特征信息,降低對無關(guān)特征的關(guān)注,從而更加關(guān)注梨樹冠層特征信息,并減少背景信息的干擾。由于注意力的加入將會增加模型的參數(shù)量,將會增加訓(xùn)練模型的權(quán)重,對分割速度會有一定的影響,后續(xù)研究可構(gòu)建更加輕量化的注意力機(jī)制模塊融入DeepLabV3+網(wǎng)絡(luò)中,提高模型運(yùn)行速度的同時提高分割精度。
參 考 文 獻(xiàn)
[1] 史云, 沈磊, 陳山, 等. 基于低空遙感的果樹冠層信息提取方法研究[J]. 中國農(nóng)業(yè)信息, 2022, 34(1): 1-10.
Shi Yun, Shen Lei, Chen Shan, et al. Research on the extraction method of fruit tree canopy information based on low-altitude remote sensing [J]. China Agricultural Informatics, 2022, 34(1): 1-10.
[2] 季金亮, 馮建中, 賀日興, 等. 混合云果園監(jiān)測系統(tǒng)設(shè)計與開發(fā)[J]. 中國果樹, 2021(9): 82-86.
Ji Jinliang, Feng Jianzhong, He Rixing, et al. The design and development of hybrid cloud orchard monitoring system [J]. China Fruits, 2021(9): 82-86.
[3] 白明雄, 張超, 陳棋, 等. 基于無人機(jī)可見光遙感的單木樹高提取方法研究[J]. 林業(yè)資源管理, 2021(1): 164-172.
Bai Mingxiong, Zhang Chao, Chen Qi, et al. Study on the extraction of individual tree height based on UAV visual spectrum remote sensing [J]. Forest Resources Management, 2021(1): 164-172.
[4] Amaral L R, Zerbato C, Freitas R G, et al. UAV applications in Agriculture 4.0 [J]. Revista Ciencia Agronomica, 2020, 51: 1-15.
[5] 楊洲, 李洋, 段潔利, 等. 基于毫米波雷達(dá)的果園單木冠層信息提取[J]. 農(nóng)業(yè)工程學(xué)報, 2021, 37(21): 173-182.
Yang Zhou, Li Yang, Duan Jieli, et al. Extraction of the crown information of single tree in orchard based on millimeter wave radar [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(21): 173-182.
[6] 李美炫, 朱西存, 白雪源, 等. 基于無人機(jī)影像陰影去除的蘋果樹冠層氮素含量遙感反演[J]. 中國農(nóng)業(yè)科學(xué), 2021, 54(10): 2084-2094.
Li Meixuan, Zhu Xicun, Bai Xueyuan, et al. Remote sensing inversion of nitrogen content in apple canopy based on shadow removal in UAV multi-spectral remote sensing images [J]. Scientia Agricultura Sinica, 2021, 54(10): 2084-2094.
[7] Song Z Z, Zhou Z X, Wang W Q, et al. Canopy segmentation and wire reconstruction for kiwifruit robotic harvesting [J]. Computers and Electronics in Agriculture, 2021, 1811(1).
[8] Chen Z J, Ting D V, Newbury R, et al. Semantic segmentation for partially occluded apple trees based on deep learning [J]. Computers and Electronics in Agriculture, 2021, 181: 105952.
[9] Liu X L, Deng Z D, Yang Y H. Recent progress in semantic image segmentation [J]. Artificial Intelligence Review, 2019, 52(2): 1089-1106.
[10] 黃鵬, 鄭淇, 梁超. 圖像分割方法綜述[J]. 武漢大學(xué)學(xué)報(理學(xué)版), 2020, 66(6): 519-531.
Huang Peng, Zheng Qi, Liang Chao. Overview of image segmentation methods [J]. Journal of Wuhan University (Natural Science Edition), 2020, 66(6): 519-531.
[11] 束美艷, 李世林, 魏家璽, 等. 基于無人機(jī)平臺的柑橘樹冠信息提?。跩]. 農(nóng)業(yè)工程學(xué)報, 2021, 37(1): 68-76.
Shu Meiyan, Li Shilin, Wei Jiaxi, et al. Extraction of citrus crown parameters using UAV platform [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(1): 68-76.
[12] 孫建桐, 孫意凡, 趙然, 等. 基于幾何形態(tài)學(xué)與迭代隨機(jī)圓的番茄識別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報, 2019, 50(S1): 22-26, 61.
Sun Jiantong, Sun Yifan, Zhao Ran, et al. Tomato recognition method based on iterative random circle and geometric morphology [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(S1): 22-26, 61.
[13] 薛君蕊, 王昱潭, 曲愛麗, 等. 基于改進(jìn)FCN-8s的靈武長棗圖像分割方法[J]. 農(nóng)業(yè)工程學(xué)報, 2021, 37(5): 191-197.
Xue Junrui, Wang Yutan, Qu Aili, et al. Image segmentation method for Lingwu long jujubes based on improved FCN-8s [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(5): 191-197.
[14] Wang C, Du P, Wu H, et al. A cucumber leaf disease severity classification method based on the fusion of DeepLabV3+ and U-Net [J]. Computers and Electronics in Agriculture, 2021, 189: 106373.
[15] Wu Z, Yang R, Gao F, et al. Segmentation of abnormal leaves of hydroponic lettuce based on DeepLabV3+ for robotic sorting [J]. Computers and Electronics in Agriculture, 2021, 190: 106443.
[16] Chen L C, Papandreou G, Kokkinos I, et al. DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834-848.
[17] Chen L C, Zhu Y, Papandreou G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation [M]. Computer Vision-ECCV, 2018.
[18] 張蕊, 李錦濤. 基于深度學(xué)習(xí)的場景分割算法研究綜述[J]. 計算機(jī)研究與發(fā)展, 2020, 57(4): 859-875.
Zhang Rui, Li Jintao. A survey on algorithm research of scene parsing based on deep learning [J]. Journal of Computer Research and Development, 2020, 57(4): 859-875.
[19] 呂昊遠(yuǎn), 俞璐, 周星宇, 等. 半監(jiān)督深度學(xué)習(xí)圖像分類方法研究綜述[J]. 計算機(jī)科學(xué)與探索, 2021, 15(6): 1038-1048.
Lü Haoyuan, Yu Lu, Zhou Xingyu, et al. Review of semi-supervised deep learning image classification methods [J]. Journal of Frontiers of Computer Science and Technology, 2021, 15(6): 1038-1048.
[20] 陳國防, 陳兆英, 王玉亮, 等. 基于數(shù)據(jù)增強(qiáng)深度學(xué)習(xí)的蘋果花檢測方法研究[J]. 中國農(nóng)機(jī)化學(xué)報, 2022, 43(5): 148-155.
Chen Guofang, Chen Zhaoying, Wang Yuliang, et al. Research on detection method of apple flower based on data-enhanced deep learning [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(5): 148-155.