【摘要】針對(duì)自動(dòng)駕駛車輛目標(biāo)檢測(cè)過程中非機(jī)動(dòng)車因體積小、易被遮擋而導(dǎo)致誤檢和漏檢的問題,為提高非機(jī)動(dòng)車的檢測(cè)精度,對(duì)YOLOv4基礎(chǔ)算法進(jìn)行改進(jìn),利用跨階段連接優(yōu)化特征提取融合網(wǎng)絡(luò),在減少計(jì)算量的同時(shí)提高檢測(cè)性能,并嵌入卷積塊注意力模塊(CBAM),通過通道和空間注意力權(quán)值分配來增大有效特征權(quán)重、提高檢測(cè)精度,同時(shí),利用自建的非機(jī)動(dòng)車數(shù)據(jù)集,在錨框(Anchor)自適應(yīng)匹配的基礎(chǔ)上建立非機(jī)動(dòng)車檢測(cè)模型。最后,為驗(yàn)證模型的有效性,通過消融實(shí)驗(yàn)對(duì)比模型性能,結(jié)果表明,所提出的檢測(cè)模型能夠有效提高非機(jī)動(dòng)車的檢測(cè)和識(shí)別效果,較好地解決誤檢和漏檢問題。
關(guān)鍵詞:非機(jī)動(dòng)車檢測(cè) YOLOv4算法 卷積塊注意力模塊 跨階段連接 消融實(shí)驗(yàn)
中圖分類號(hào):U471.15" 文獻(xiàn)標(biāo)志碼:A" "DOI: 10.20104/j.cnki.1674-6546.20240223
Non-Motor Vehicle Detection Model Based on YOLO Algorithm
Wang Shufeng1, Liang Qingwei1, Wang Yuhang1, Zhou Qian2
(1. Shandong University of Science and Technology, Qingdao 266590; 2. BYD Auto Co., Ltd., Xi’an 710119)
【Abstract】To address the issue of 1 and missed detection of non-motorized vehicles due to the small size and obstructed vision in autonomous vehicle target detection, this research refines YOLOv4 basic algorithm to bolster the accuracy of non-motorized vehicle detection. The optimized algorithm streamlines the feature extraction process through a cross-stage connection, concurrently diminishing computational overhead and bolstering detection efficiency. Additionally, Convolutional Block Attention Module (CBAM) is embedded to increase effective feature weights and improve detection accuracy through channel and spatial attention weights. A non-motorized vehicle detection model is established based on anchor adaptive matching using a self-built non-motorized vehicle dataset. To verify the effectiveness of the model, the performance of the model is compared through ablation experiments. The results show that the proposed detection model substantially improves the detection and recognition performance of non-motor vehicles, effectively solve the problems of missed and 1 detections.
Key words: Non-motor vehicle detection, YOLOv4 algorithm, Convolutional Block Attention Module (CBAM), Cross-stage connection, Ablation experiment
【引用格式】 王樹鳳, 梁慶偉, 王宇航, 等. 基于YOLO算法的非機(jī)動(dòng)車輛檢測(cè)模型[J]. 汽車工程師, 2024(8): 8-14.
WANG S F, LIANG Q W, WANG Y H, et al. Non-Motor Vehicle Detection Model Based on YOLO Algorithm[J]. Automotive Engineer, 2024(8): 8-14.
1 前言
環(huán)境感知是自動(dòng)駕駛汽車安全行駛的關(guān)鍵技術(shù)之一[1],機(jī)動(dòng)車輛、非機(jī)動(dòng)車、行人是各類場(chǎng)景中的主要交通參與者,實(shí)時(shí)、準(zhǔn)確識(shí)別各類目標(biāo)是實(shí)現(xiàn)自動(dòng)駕駛的前提。受交通場(chǎng)景的復(fù)雜性和可變性影響,非機(jī)動(dòng)車輛易被遮擋,從而導(dǎo)致目標(biāo)檢測(cè)算法易出現(xiàn)誤檢、漏檢、魯棒性較差等問題。
隨著深度學(xué)習(xí)技術(shù)的發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法逐漸代替?zhèn)鹘y(tǒng)檢測(cè)方法?;谏疃葘W(xué)習(xí)的目標(biāo)檢測(cè)方法主要分為一步法和兩步法。兩步法先提取候選區(qū)域的圖像特征,再對(duì)目標(biāo)進(jìn)行分類,此類算法精度較高,但速度較慢,其發(fā)展經(jīng)歷了區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Region-based Convolutional Neural Network,R-CNN)、快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Fast R-CNN)、更快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Faster R-CNN)等階段[2]。一步法不需要預(yù)先生成候選框,直接在特征圖上預(yù)測(cè)目標(biāo)位置及其所屬類別,檢測(cè)速度大幅提升。其中,YOLO(You Only Look Once)算法[3]在檢測(cè)精度和速度方面較為均衡,成為目前目標(biāo)檢測(cè)領(lǐng)域中應(yīng)用最廣泛的模型之一。但是,單階段算法不能很好地考慮不同層的特征,難以實(shí)現(xiàn)對(duì)小目標(biāo)的實(shí)時(shí)準(zhǔn)確檢測(cè)。為解決這些問題,YOLO改進(jìn)版本如YOLOv3和YOLOv4等相繼提出,不斷提升目標(biāo)檢測(cè)的性能和精度。袁小平等[4]使用ResNeXt殘差模塊替換原有的殘差模塊,以提升網(wǎng)絡(luò)特征提取能力,提出了改進(jìn)YOLOv3算法;Seo等[5]從重構(gòu)損失函數(shù)的角度對(duì)算法進(jìn)行改進(jìn),提高了對(duì)低分辨率目標(biāo)圖像的檢測(cè)效果,降低了漏檢率,但魯棒性不足;Fu等[6]將注意力機(jī)制嵌入目標(biāo)檢測(cè)模型,在艦船數(shù)據(jù)集中的小目標(biāo)和多目標(biāo)等的檢測(cè)方面取得了較好的效果。
隨著YOLO算法版本不斷升級(jí),在網(wǎng)絡(luò)架構(gòu)和性能上進(jìn)一步優(yōu)化改進(jìn),可提供更加快速和準(zhǔn)確的目標(biāo)檢測(cè)效果,但結(jié)構(gòu)愈發(fā)復(fù)雜,對(duì)設(shè)備的運(yùn)算能力等要求逐步提高。本文以對(duì)設(shè)備要求不高的YOLOv4算法為基礎(chǔ),為解決非機(jī)動(dòng)車實(shí)時(shí)檢測(cè)時(shí)出現(xiàn)誤檢和漏檢的問題,提出一種非機(jī)動(dòng)車檢測(cè)方法。采用跨階段連接優(yōu)化網(wǎng)絡(luò)進(jìn)行特征提取融合,提升網(wǎng)絡(luò)學(xué)習(xí)能力,減輕計(jì)算壓力;在特征融合部分嵌入卷積塊注意力模塊(Convolutional Block Attention Module,CBAM),降低誤檢率、提高特征識(shí)別效率;通過構(gòu)造非機(jī)動(dòng)車檢測(cè)數(shù)據(jù)集,使用K-均值(K-Means)算法計(jì)算合適的錨框(Anchor)參數(shù),對(duì)模型進(jìn)行訓(xùn)練,建立非機(jī)動(dòng)車檢測(cè)模型,最后利用消融實(shí)驗(yàn)驗(yàn)證模型的有效性。
2 YOLOv4基礎(chǔ)算法及改進(jìn)
為提高非機(jī)動(dòng)車檢測(cè)的精度,本文對(duì)YOLOv4算法進(jìn)行優(yōu)化,主要流程如圖1所示。
2.1 YOLOv4基礎(chǔ)算法
YOLOv4采用基于卷積神經(jīng)網(wǎng)絡(luò)的端到端的架構(gòu),在YOLOv3基礎(chǔ)上引入路徑聚合網(wǎng)絡(luò)(Path Aggregation Network,PANet)、空間金字塔池化(Spatial Pyramid Pooling,SPP)、馬賽克數(shù)據(jù)增強(qiáng)(Mosaic Data Augmentation)等多種技術(shù),其特點(diǎn)是檢測(cè)模型高效、泛化能力強(qiáng),可在普通圖形處理單元(Graphics Processing Unit,GPU)上進(jìn)行快速準(zhǔn)確的訓(xùn)練。整體架構(gòu)可以分為3個(gè)主要組件,即主干網(wǎng)絡(luò)(Backbone)、頸部(Neck)和預(yù)測(cè)頭(Head),如圖2所示。
主干網(wǎng)絡(luò)使用CSPDarknet-53進(jìn)行圖像的特征提取,CSPDarknet-53是在Darknet-53的基礎(chǔ)上,通過堆疊和組織卷積塊模塊(Convolutional Block Module,CBM),增加跨階段局部網(wǎng)絡(luò)(Cross Stage Partial Network,CSPNet)結(jié)構(gòu),實(shí)現(xiàn)圖像特征提取。CSPNet可有效緩解梯度消失或爆炸的問題,減少計(jì)算量,同時(shí)增強(qiáng)網(wǎng)絡(luò)學(xué)習(xí)能力,保證準(zhǔn)確率[7]。
頸部使用結(jié)合SPP的PANet結(jié)構(gòu)進(jìn)行特征融合,提取多尺度的特征。PANet通過上采樣(UpSample)卷積塊(CBL)的結(jié)合使用,可以在多個(gè)尺度上提取和融合特征,有助于網(wǎng)絡(luò)捕獲不同大小目標(biāo)的細(xì)節(jié),增強(qiáng)網(wǎng)絡(luò)對(duì)小目標(biāo)的檢測(cè)能力,其中CBL是卷積神經(jīng)網(wǎng)絡(luò)中的基礎(chǔ)模塊,由卷積層、批歸一化和Leaky ReLU激活函數(shù)3個(gè)部分組成。SPP則通過在不同大小的池化窗口上應(yīng)用池化操作來生成多尺度的特征圖。兩者結(jié)合更好地實(shí)現(xiàn)了淺層信息與更高層次語義特征的融合,緩解了小目標(biāo)特征丟失問題,提高了檢測(cè)的準(zhǔn)確性。
預(yù)測(cè)頭用于預(yù)測(cè)目標(biāo)的位置和類別。該結(jié)構(gòu)部分遵循YOLOv3的檢測(cè)機(jī)制,根據(jù)頸部輸出的特征圖進(jìn)行預(yù)測(cè),通常包括多個(gè)卷積層,用于在不同尺度的特征圖上生成邊界框的預(yù)測(cè),使用錨框來預(yù)測(cè)目標(biāo)的位置,以及類別概率。
YOLOv4的整體架構(gòu)通過主干網(wǎng)絡(luò)提取特征,利用SPP網(wǎng)絡(luò)提取多尺度的特征,并使用預(yù)測(cè)頭進(jìn)行目標(biāo)的位置和類別預(yù)測(cè)。端到端的設(shè)計(jì)使得YOLOv4在目標(biāo)檢測(cè)任務(wù)中具有較高的準(zhǔn)確性和實(shí)時(shí)性能。
2.2 跨階段連接優(yōu)化網(wǎng)絡(luò)
在網(wǎng)絡(luò)推理過程中,特征的反復(fù)提取和融合涉及大量計(jì)算,為有效減少計(jì)算量,提高網(wǎng)絡(luò)學(xué)習(xí)能力和檢測(cè)性能,對(duì)YOLOv4的PANet前端進(jìn)行拆分,復(fù)制特征層并采用跨階段連接策略(Cross-Stage Connection Strategy)進(jìn)行融合處理。與CSPNet類似,首先對(duì)主干網(wǎng)絡(luò)特征提取部分的輸出特征映射進(jìn)行復(fù)制和拆分,本文的輸入圖像大小為416×416×3,因此該部分的輸出特征圖為13×13×1 024,該特征圖分為用于跨階段連接的13×13×512短邊卷積特征圖和用于維護(hù)原始特征融合路徑的13×13×512主卷積特征圖。然后,將主干特征圖經(jīng)過3×3和1×1卷積運(yùn)算后輸入SPP模塊,經(jīng)池化運(yùn)算,將主干特征圖進(jìn)行1×1和3×3卷積處理,最后將輸出特征圖與短邊卷積特征圖融合,輸出綜合特征圖??珉A段連接的整體結(jié)構(gòu)如圖3所示。原始網(wǎng)絡(luò)在更新不同層的權(quán)值時(shí),有大量的梯度信息復(fù)用,而跨階段連接優(yōu)化網(wǎng)絡(luò)通過分離梯度流,既保留原網(wǎng)絡(luò)中特征重用的優(yōu)勢(shì),又通過截?cái)嗵荻攘鞣乐惯^多重復(fù)的梯度信息,減輕計(jì)算壓力。
2.3 嵌入卷積塊注意力模塊
CBAM在通道和空間維度上對(duì)特征圖進(jìn)行加權(quán),以增強(qiáng)網(wǎng)絡(luò)對(duì)關(guān)鍵信息的捕捉能力,是一個(gè)輕量化、通用的模塊,可即插即用。CBAM由通道注意力模塊和空間注意力模塊串聯(lián)組成,如圖4所示。其中,通道注意力模塊通過全局平均池化和全局最大池化操作,對(duì)輸入特征層的每個(gè)通道生成權(quán)重,權(quán)重反映了通道的重要性。空間注意力模塊在通道維度上進(jìn)行操作,生成空間上的權(quán)重矩陣,用于強(qiáng)調(diào)或抑制特征圖中的不同區(qū)域。CBAM的核心是先后應(yīng)用通道和空間注意力模塊,集中提取這兩個(gè)維度上的關(guān)鍵特征,然后進(jìn)行兩者的融合,可有效提升模型的性能和泛化能力[8]。
為了提高非機(jī)動(dòng)車等交通參與者的檢測(cè)精度,在頸部與預(yù)測(cè)頭之間嵌入CBAM,如圖5所示。針對(duì)不同尺度的特征層,通過計(jì)算并分配通道和空間注意力權(quán)值來增強(qiáng)有效特征的權(quán)重,抑制無效信息,從而提高檢測(cè)性能。
3 非機(jī)動(dòng)車檢測(cè)模型有效性驗(yàn)證
為了驗(yàn)證改進(jìn)的模型對(duì)非機(jī)動(dòng)車的檢測(cè)效果,首先在已有圖像數(shù)據(jù)集的基礎(chǔ)上,通過攝像頭拍攝非機(jī)動(dòng)車圖像,建立相應(yīng)的數(shù)據(jù)集,然后根據(jù)非機(jī)動(dòng)車的特點(diǎn),使用K-Means聚類算法對(duì)錨框參數(shù)進(jìn)行匹配,根據(jù)評(píng)價(jià)指標(biāo),對(duì)改進(jìn)模型進(jìn)行消融實(shí)驗(yàn),對(duì)比分析不同算法模型的效果。算法模型運(yùn)行全部在配置英特爾至強(qiáng)E5-2609處理器、英偉達(dá)Quadro M2000和64位Windows 10操作系統(tǒng)的環(huán)境下,基于TensorFlow框架使用Python語言完成了模型訓(xùn)練與測(cè)試,除前文提到的圖像大小等參數(shù)外,其他模型參數(shù)采用默認(rèn)配置。
3.1 數(shù)據(jù)集的制作
為實(shí)現(xiàn)對(duì)非機(jī)動(dòng)車輛的有效檢測(cè),本文利用攝像頭等設(shè)備結(jié)合基于網(wǎng)絡(luò)的圖像資源,構(gòu)建了一個(gè)以非機(jī)動(dòng)車輛為主的新數(shù)據(jù)集,重點(diǎn)采集了交叉口、人行道等復(fù)雜的交通場(chǎng)景,該數(shù)據(jù)集共有1 600張圖像,包含7 000余個(gè)檢測(cè)對(duì)象。考慮到現(xiàn)有交通工具的多樣性,本文將平衡車添加到測(cè)試目標(biāo)中。與公共交通數(shù)據(jù)集相比,自行車、摩托車、平衡車、三輪車等數(shù)量較多,形態(tài)差異大,對(duì)應(yīng)騎行者姿態(tài)也有所不同,因此本文對(duì)數(shù)據(jù)集進(jìn)行歸類,如表1所示,采集的圖像如圖6所示。此外,非機(jī)動(dòng)車駕駛員暴露在環(huán)境中時(shí)與行人危險(xiǎn)性相似,均為弱勢(shì)道路交通參與者,因此,本文將非機(jī)動(dòng)駕駛員和行人標(biāo)記為同一類別。然后使用LabelImg標(biāo)注工具對(duì)各種類型的樣本進(jìn)行標(biāo)注。
3.2 基于K-Means聚類的錨框參數(shù)匹配
YOLO模型針對(duì)目標(biāo)檢測(cè)的初始錨框參數(shù)由對(duì)包含80個(gè)類別的公共數(shù)據(jù)集聚類獲得,而本文主要以非機(jī)動(dòng)車為目標(biāo),其類別特征與公共數(shù)據(jù)集中目標(biāo)的大小、形狀和位置不同,其默認(rèn)錨框參數(shù)無法很好地適應(yīng)非機(jī)動(dòng)車數(shù)據(jù)集。為提升檢測(cè)精度,本文利用K-Means聚類算法對(duì)目標(biāo)進(jìn)行自適應(yīng)錨框參數(shù)計(jì)算,結(jié)果如表2所示。
從表2可以看出,重新計(jì)算的錨框參數(shù)與默認(rèn)錨框參數(shù)差異較大,本文在新錨框參數(shù)的基礎(chǔ)上,隨機(jī)選取90%的圖像作為訓(xùn)練集,其余10%作為測(cè)試集,用于訓(xùn)練和測(cè)試改進(jìn)方案的檢測(cè)效果。
3.3 評(píng)價(jià)指標(biāo)
模型評(píng)價(jià)指標(biāo)常用精確率(Precision)、召回率(Recall)、平均精度(Average Precision,AP)、平均精度均值(mean Average Precision,mAP)來評(píng)估檢測(cè)模型的性能。
精確率P和召回率R的計(jì)算公式分別為:
P=NTP/(NTP+NFP) (1)
R=NTP/(NTP+NFN) (2)
式中:NTP、NFP、NFN分別為真正例、假正例、假負(fù)例的數(shù)量。
mAP是評(píng)價(jià)模型整體性能的重要指標(biāo),其表示檢測(cè)模型中所有類別的AP的平均值,數(shù)值越大,表示識(shí)別準(zhǔn)確率越高,計(jì)算公式為:
[PmA=1mq∈mPAq] (3)
式中:m為類別數(shù)量,q為類別序號(hào)。
3.4 消融實(shí)驗(yàn)對(duì)比分析
使用數(shù)據(jù)集訓(xùn)練目標(biāo)檢測(cè)模型,并在測(cè)試集上進(jìn)行驗(yàn)證,采用消融實(shí)驗(yàn)對(duì)比模型性能。首先以YOLOv4原始模型為基線,在原始模型基礎(chǔ)上增加跨階段連接優(yōu)化網(wǎng)絡(luò)的模型記為YOLOv4-b,在原始模型基礎(chǔ)上增加CBAM的模型記為YOLOv4-c,在原始模型基礎(chǔ)上同時(shí)增加CBAM和跨階段連接優(yōu)化網(wǎng)絡(luò)的模型記為YOLOv4-d。通過對(duì)比分析,考察跨階段連接優(yōu)化網(wǎng)絡(luò)和CBAM對(duì)模型性能的影響。圖7所示為目標(biāo)檢測(cè)效果對(duì)比,不同模型檢測(cè)時(shí)平均精度及各類別平均的精確率、召回率、mAP的對(duì)比結(jié)果分別如表3、表4所示。
由表3數(shù)據(jù)分析可知,跨階段連接優(yōu)化網(wǎng)絡(luò)、CBAM均減少了模型對(duì)非機(jī)動(dòng)的誤檢和漏檢,提高了檢測(cè)的精度,其中,CBAM的效果更好。具體來說,對(duì)于非機(jī)動(dòng)車,平衡車、摩托車、三輪車的檢測(cè)精度有較大幅度提升,但是對(duì)汽車的檢測(cè)精度不及行人和自行車的檢測(cè)精度,而且在改進(jìn)模型中,其檢測(cè)精度反而略有下降,主要原因在于自制的數(shù)據(jù)集中圖片以交叉口、人行道等角度拍攝為主,汽車圖像樣本效果較差導(dǎo)致其檢測(cè)精度不高(見圖6)。另外,針對(duì)非機(jī)動(dòng)車設(shè)置的錨框參數(shù)也不利于汽車的檢測(cè)。由表4可知,跨階段連接優(yōu)化網(wǎng)絡(luò)模型、CBAM模型以及組合模型均有效提高了模型檢測(cè)的精確率和召回率,mAP分別提高了4.22百分點(diǎn)、4.26百分點(diǎn)和6.21百分點(diǎn),改進(jìn)模型的mAP可達(dá)93.26%。
跨階段連接優(yōu)化網(wǎng)絡(luò)可以幫助模型更好地融合特征,既保留了骨干網(wǎng)中特征圖的語義信息,又融合了更深層次的特征信息,提高了檢測(cè)的召回率;而CBAM可以更好地關(guān)注目標(biāo)信息,提高了目標(biāo)檢測(cè)的精度;組合后的改進(jìn)模型融合了以上兩種模型的優(yōu)勢(shì),能更準(zhǔn)確地檢測(cè)到目標(biāo)。
4 結(jié)束語
本文以YOLOv4算法為基礎(chǔ),針對(duì)非機(jī)動(dòng)車檢測(cè),增加跨階段連接優(yōu)化網(wǎng)絡(luò)和CBAM對(duì)算法進(jìn)行了改進(jìn),并建立自制的非機(jī)動(dòng)車數(shù)據(jù)集,使用K-Means聚類算法獲得合適的錨框參數(shù),在此基礎(chǔ)上建立非機(jī)動(dòng)車識(shí)別模型,最后利用消融實(shí)驗(yàn)驗(yàn)證改進(jìn)模型的有效性,結(jié)果表明,加入跨階段連接優(yōu)化網(wǎng)絡(luò)和CBAM的非機(jī)動(dòng)車檢測(cè)模型的精確率和召回率均相應(yīng)提升,mAP可達(dá)93.26%,驗(yàn)證了改進(jìn)模型的有效性。
參考文獻(xiàn)
[1]" "ZHU J, LI H Y ZHANG T. Camera, LiDAR, and IMU Based Multi-Sensor Fusion SLAM: A Survey[J]. Tsinghua Science and Technology, 2024, 29(2): 415-429.
[2]" "金沙沙, 龍偉, 胡靈犀, 等. 多目標(biāo)檢測(cè)與跟蹤算法在智能交通監(jiān)控系統(tǒng)中的研究進(jìn)展[J]. 控制與決策, 2023, 38(4): 890-901.
JIN S S, LONG W, HU L X, et al. Research Progress of Detection and Multi-Object Tracking Algorithm in Intelligent Traffic Monitoring System[J]. Control and Decision, 2023, 38(4): 890-901.
[3]" "邵延華, 張鐸, 楚紅雨, 等. 基于深度學(xué)習(xí)的YOLO目標(biāo)檢測(cè)綜述[J]. 電子與信息學(xué)報(bào), 2022, 44(10): 3697-3708.
SHAO Y H, ZHANG D, CHU H Y, et al. YOLO Object Detection Based on Deep Learning[J]. Journal of Electronics and Information Technology, 2022, 44(10): 3697-3708.
[4]" "袁小平, 馬緒起, 劉賽. 改進(jìn)YOLOv3的行人車輛目標(biāo)檢測(cè)算法[J]. 科學(xué)技術(shù)與工程, 2021, 21(8): 3192-3198.
YUAN X P, MA X Q, LIN S. An Improved Algorithm of Pedestrian and Vehicle Detection Based on YOLOv3[J]. Science Technology and Engineering, 2021, 21(8): 3192-3198.
[5]" SEO J, PARK H. Object Recognition in Very Low Resolution Images Using Deep Collaborative Learning[J]. IEEE Access, 2019, 7: 134071-134082.
[6]" FU H X, SONG G Q, WANG Y C. Improved YOLOv4 Marine Target Detection Combined with CBAM[J]. Symmetry, 2021, 13(4): 623.
[7]" WANG C E, LIAO H Y M, WU Y H, et al. CSPNet: A New Backbone that Can Enhance Learning Capability of CNN[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Seattle, WA, USA: IEEE, 2020.
[8]" WANG Y M, ZHANG Z, FENG L W, et al. A New Attention-Based CNN Approach for Crop Mapping Using Time Series Sentinel-2 Images[J]. Computers and Electronics in Agriculture, 2021, 184.
(責(zé)任編輯 斛 畔)
修改稿收到日期為2024年7月11日。