李軍 李志偉 李艷紅
摘要:精確識別與分類復(fù)雜場景下水稻害蟲對水稻病害治理與產(chǎn)量提升具有重要的研究意義,提出一種基于多原型指導(dǎo)的小樣本水稻害蟲識別與分類模型。首先,利用Vision Transformer網(wǎng)絡(luò)作為主干網(wǎng)絡(luò)進(jìn)行特征映射,將水稻害蟲圖片映射到深度特征空間;其次,利用可微分的超像素聚類算法實現(xiàn)深度特征圖中類特定原型的聚類分組,構(gòu)造水稻多類型害蟲的特征表達(dá);再次,提出一種雙通道特征融合注意力模塊實現(xiàn)水稻害蟲支持特征和查詢特征的深度融合;最后,利用無參數(shù)的度量學(xué)習(xí)算法計算待測水稻病蟲害圖片特征與深度融合特征之間的距離,根據(jù)距離值實現(xiàn)待測病蟲害圖片的識別與分類。試驗結(jié)果表明,所提出的水稻害蟲識別模型可以實現(xiàn)0.955的識別準(zhǔn)確率、0.941的精確率、0.949的召回率和0.962的F1值,與AlexNet、ResNet、YOLO v5、Vgg-16、Inception v3和LeNet5等模型相比,所提出模型的各項指標(biāo)表現(xiàn)良好。該方法的提出為農(nóng)作物害蟲的智能化識別提供了新的思路。
關(guān)鍵詞:水稻;害蟲識別;多原型;小樣本學(xué)習(xí);超像素聚類;注意力機(jī)制
中圖分類號:TP391.41文獻(xiàn)標(biāo)志碼:A
文章編號:1002-1302(2023)20-0193-08
水稻是中國乃至世界的主要糧食作物之一,隨著全球氣候變暖,農(nóng)作物病蟲害發(fā)病率逐年上升,嚴(yán)重影響了農(nóng)作物的產(chǎn)量和質(zhì)量[1]。因此,研究水稻病蟲害的定位與識別,可以及時預(yù)防病蟲害對農(nóng)作物的破壞,對提高農(nóng)作物的產(chǎn)量和質(zhì)量具有重要的意義。
傳統(tǒng)的水稻病蟲害檢測工作主要依靠人工經(jīng)驗完成[2-4],該類方法雖然可以實現(xiàn)部分病蟲害的定位與識別,但費時費力、主觀性強、效率低、識別精度不高。之后,隨著機(jī)器學(xué)習(xí)技術(shù)在圖像處理領(lǐng)域的成功應(yīng)用,利用K最近鄰算法[5]、支持向量機(jī)[6]、決策樹算法[7]和隨機(jī)森林[8]等機(jī)器學(xué)習(xí)模型構(gòu)造農(nóng)作物病蟲害圖片的紋理、顏色、形狀等特征的決策模型,并在各類農(nóng)作物病蟲害測試數(shù)據(jù)集中驗證了模型的有效性。然而,該類基于機(jī)器學(xué)習(xí)算法的農(nóng)作物病蟲害識別模型的性能主要依賴人工提取的各種分類特征或復(fù)雜的圖像特征提取算法;然而,農(nóng)田環(huán)境復(fù)雜,并非單一的農(nóng)作物;此外,利用人工拍攝的方式難以將水稻病蟲害的顏色和紋理等特征與其他非病蟲害區(qū)分[9]。因此,基于機(jī)器學(xué)習(xí)算法的農(nóng)作物病蟲害識別模型的性能局限,難以滿足實際生產(chǎn)中的高要求。
近年來,隨著計算機(jī)視覺技術(shù)的快速發(fā)展,將深度學(xué)習(xí)的相關(guān)技術(shù)應(yīng)用到農(nóng)作物病蟲害檢測任務(wù)中成為智慧農(nóng)業(yè)領(lǐng)域的熱點研究課題[10-11]。此外,深度學(xué)習(xí)網(wǎng)絡(luò)可以自動逐層編碼壓縮感知農(nóng)作物病蟲害圖片的深度特征,根據(jù)提取的特征進(jìn)行下游水稻病蟲害的定位與識別。如梁勇等利用YOLO v5設(shè)計了一種多源數(shù)據(jù)集的水稻病蟲識別模型,對不同采樣場景的測試圖像中進(jìn)行了測試,驗證了所提出模型的性能[12]。曾偉輝等針對現(xiàn)有識別模型識別精度低的問題,提出了一種低分辨率的水稻病蟲害識別模型,通過利用生成對抗網(wǎng)絡(luò)對低分辨率圖片進(jìn)行數(shù)據(jù)增強,并借助注意力機(jī)制強化了模型對于目標(biāo)區(qū)域的定位精度[13]。Li等以無人機(jī)采集的水稻圖像為數(shù)據(jù)源,將膠囊網(wǎng)絡(luò)應(yīng)用到水稻圖像的定位與識別任務(wù)中[14]。肖小梅等針對傳統(tǒng)機(jī)器學(xué)習(xí)算法主觀性強和特征提取過程復(fù)雜的問題,通過在每個卷積層后加入歸一化層對AlexNet網(wǎng)絡(luò)進(jìn)行改進(jìn),并將其應(yīng)用到水稻病蟲害圖像識別任務(wù)中,通過在自采集的數(shù)據(jù)集上進(jìn)行測試,驗證了所提出模型的有效性[15]。雖然上述模型均可以自動實現(xiàn)水稻病蟲害的定位與識別,但模型的參數(shù)量較大,導(dǎo)致識別開銷較大,不符合實際生產(chǎn)中對于實時性的要求。為此,Rahman等通過利用深度可分離卷積對卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行改進(jìn),構(gòu)造了一種輕量級的水稻病蟲害識別模型,通過降低模型參數(shù)來緩解時間開銷大的問題[16]。之后,鮑文霞等針對同樣的問題,設(shè)計了一個融合局部和全局多尺度特征的輕量級殘差網(wǎng)絡(luò)的水稻病蟲害識別模型,通過增加卷積層數(shù)和分支數(shù)來提高特征的表達(dá)能力,在多種病蟲害識別數(shù)據(jù)集中驗證了所提出算法的有效性[17]。
雖然上述基于深度學(xué)習(xí)模型的水稻病蟲害定位與識別模型取得了新的突破,但模型的性能仍然依賴訓(xùn)練數(shù)據(jù)集樣本的個數(shù)。然而,田間環(huán)境下,水稻害蟲易動,難以近距離拍攝,并且水稻病蟲害類型多,無疑給數(shù)據(jù)采集人員造成了極大的難度,導(dǎo)致數(shù)據(jù)采集成本較高。針對上述問題,受小樣本學(xué)習(xí)的啟發(fā),本試驗利用小樣本學(xué)習(xí)網(wǎng)絡(luò)構(gòu)建了一種新的水稻病蟲害識別與分類模型。首先,利用Vision Transformer網(wǎng)絡(luò)將水稻病蟲害圖片映射到深度特征空間;其次,利用可微分的超像素聚類算法構(gòu)造不同塊、不同區(qū)域的超像素,用于表示水稻病蟲害的語義類;最后,設(shè)計了一種雙通道特征融合注意力模塊,實現(xiàn)支持圖片和查詢圖片特征的深度融合,利用目標(biāo)任務(wù)強化特征的表達(dá)能力。
1 小樣本水稻害蟲識別與分類模型
1.1 任務(wù)定義
小樣本學(xué)習(xí)網(wǎng)絡(luò)旨在利用少量帶標(biāo)簽的圖片實現(xiàn)大規(guī)模數(shù)據(jù)集相近的性能?,F(xiàn)有小樣本學(xué)習(xí)網(wǎng)絡(luò)大多采用Episodic的訓(xùn)練機(jī)制[18],即將整個數(shù)據(jù)集劃分為Base集和Novel集,并在Base和Novel集中利用相同的學(xué)習(xí)機(jī)制實現(xiàn)支持圖片指導(dǎo)查詢圖片的學(xué)習(xí)過程。假設(shè)Base集為Dbase={(Dbasesi,Dbaseqi)Li=1},Novel集為Dnovel={(Dnovelsj),Dnovelqj}Kj=1,其中Dbasesi表示Base集中的第i個支持集;Dbaseqi表示Base集中的第i個查詢集;Dnovelsj表示Novel集中的第j個支持集;Dnovelqj表示Novel集中的第j個查詢集。此外,Base集中的支持集 Dbasesi={Ibases,Lbases}和查詢集Dbaseqi={Ibaseq,Lbaseq}由支持圖片和標(biāo)簽組成;類似地,Novel集的支持集和查詢集由支持圖片和標(biāo)簽組成,但對于查詢集Dnovelqj,標(biāo)簽僅用于測試階段的模型損失計算。
1.2 絡(luò)模型結(jié)構(gòu)
所提出模型的識別與分類流程如圖1所示。首先,利用Vision Transformer網(wǎng)絡(luò)實現(xiàn)水稻病蟲害圖片的窗口劃分,并采用Vision Transformer編碼器將支持圖片和查詢圖片映射到深度特征空間;其次,改進(jìn)傳統(tǒng)不可微分的超像素聚類算法為可微分算法,便于深度網(wǎng)絡(luò)進(jìn)行端到端訓(xùn)練,并將改進(jìn)后的超像素聚類算法用于生成水稻病蟲害的類特定原型;再次,提出一種新的雙通道特征融合注意力模塊,利用查詢圖片攜帶的目標(biāo)任務(wù)特征來強化類特定原型的表達(dá)能力;最后,借助無參數(shù)度量學(xué)習(xí)算法逐位置對待測的查詢圖片進(jìn)行距離計算,根據(jù)距離值快速識別與分類待測水稻病蟲害圖片的類型。
1.3 水稻害蟲害圖片特征提取
近年來,Vision Transformer(ViT)[19]因其對圖片中像素點位置的編碼能力、區(qū)域間目標(biāo)信息的關(guān)聯(lián)學(xué)習(xí)能力,在語義分割、目標(biāo)檢測和語義理解等任務(wù)中被廣泛應(yīng)用。本試驗嘗試將ViT應(yīng)用到農(nóng)業(yè)病蟲害檢測任務(wù)中,尤其考慮到ViT對本研究的水稻病蟲害小目標(biāo)區(qū)域的特征捕獲能力,通過利用ViT的編碼塊將水稻病蟲害圖片映射到深度特征空間。具體地,為了細(xì)粒度地捕獲輸入圖片的細(xì)節(jié)和邊緣信息,首先對水稻病蟲害圖片Is∈RH×W×C進(jìn)行分塊處理,將Is展開成一個大小為Isp∈RN×(P2×C)的圖像塊序列;其中P2為圖像分辨率,N=HW/P2表示整張圖像分塊的個數(shù)。然后,將每一展開后的圖像塊進(jìn)行線性變換,并嵌入圖像塊的類標(biāo)簽信息和分塊后圖片的位置編碼信息。最后,整合所有信息,作為ViT編碼器的輸入,ViT編碼塊結(jié)構(gòu)如圖2所示,具體計算如公式(1)所示。
(1)
其中,Iclass為圖像塊類標(biāo)簽信息,E∈R(P2×C)×D表示線性變換矩陣,Epos∈R(N+1)×D表示位置編碼。
ViT編碼塊主要由多頭注意力機(jī)制(Multi-Head Attention,MHA)和感知機(jī)(Multilayer Perceptron,MLP)交替連接組成,在特征提取過程中,多頭注意力MHA經(jīng)過迭代L次獲得特征圖Zi′;然后,經(jīng)過多層感知機(jī)MLP與標(biāo)準(zhǔn)化操作后得到更新后的特征圖ZL,即水稻病蟲害圖片的映射特征。具體計算如公式(2)和(3)所示。
1.4 類特定原型生成
大多現(xiàn)有模型通過利用水稻病蟲害圖片的全局特征進(jìn)行建模;然而,相對整張圖片,病蟲害占據(jù)區(qū)域比例較小,極易造成病蟲害的漏報與誤報。為此,在圖像分塊處理的基礎(chǔ)上,利用超像素聚類算法構(gòu)造不同區(qū)域、不同塊的超像素,利用超像素表示當(dāng)前塊的類特定原型,這有助于模型對于小目標(biāo)或小區(qū)域目標(biāo)的識別性能。此處,選擇文獻(xiàn)[20]改進(jìn)的可微分超像素聚類算法,便于深度網(wǎng)絡(luò)進(jìn)行端到端訓(xùn)練。具體流程如下:
(1)假設(shè)支持圖片Is的序列特征為ZL,類標(biāo)簽信息為Iclass,初始化的超像素種子節(jié)點為S0。
(2)計算每個像素p和超像素種子節(jié)點Si之間的關(guān)聯(lián),計算如公式(4)所示。
(3)更新超像素質(zhì)心,計算如公式(5)所示。
通過迭代計算超像素與像素之間的距離,獲得最終的Nsp個超像素,即Nsp個類特定原型。超像素聚類的計算流程如圖3所示。
傳統(tǒng)聚類算法對于種子節(jié)點的選擇按照均勻劃分的策略,即大小為H×W的圖片被均勻劃分為m個大小為h×w的網(wǎng)格,選擇每個網(wǎng)格的中心作為超像素;然而,考慮到水稻害蟲目標(biāo)小、區(qū)域占比小等因素,借鑒MaskSLIC算法對于種子節(jié)點的選取規(guī)則,即利用目標(biāo)識別算法首先粗略確定目標(biāo),并在目標(biāo)區(qū)域進(jìn)行超像素聚類,極大地減少背景噪聲信息的干擾,有效提高目標(biāo)的識別。
1.5 雙通道特征融合注意力
在小樣本學(xué)習(xí)網(wǎng)絡(luò)中,查詢分支的輸入為待識別的目標(biāo)任務(wù),如何充分利用目標(biāo)任務(wù)信息可以有效提升模型對水稻病蟲害的識別性能。此處,本研究提出一種雙通道特征融合注意力網(wǎng)絡(luò),將支持分支捕獲的類特定原型與目標(biāo)直接關(guān)聯(lián)的查詢分支特征進(jìn)行深度融合,提高特征的區(qū)分能力,特征融合流程如圖4所示。
考慮到通道注意力機(jī)制有選擇性地關(guān)注水稻病蟲害目標(biāo)的位置信息,首先將ViT映射的支持特征ZqL與類特定原型S進(jìn)行拼接,并利用大小為1 ×1的卷積進(jìn)行尺度融合得到標(biāo)準(zhǔn)化后的特征圖FZS;然后,采用平均池化操作獲得特征圖的全局表示,并借助sigmoid函數(shù)計算通道維度的注意力權(quán)重矩陣,計算如公式(6)和(7)所示。
式中:wca表示通道維度的權(quán)重注意力矩陣;conv1×1(·)表示1×1的卷積操作,apool(·)表示平均池化操作。
空間注意力機(jī)制通過聚焦特征圖中像素間的關(guān)聯(lián)來強化目標(biāo)的特征表達(dá)。此處,首先采用余弦相似度計算實現(xiàn)多原型與查詢特征之間的關(guān)聯(lián)性度量,并過濾背景信息的干擾,提高模型的識別性能;空間注意力權(quán)重矩陣計算如公式(8)所示。
然后,對通道注意力權(quán)重矩陣和空間注意力權(quán)重矩陣進(jìn)行對應(yīng)位置乘法運算,獲得最終的融合注意力權(quán)重矩陣;最后,將類原型特征表達(dá)與查詢特征分別與注意力權(quán)重矩陣進(jìn)行加權(quán)重組,獲得最終的融合特征F。具體計算如公式(9)和(10)所示。
1.6 度量學(xué)習(xí)
為了減少模型參數(shù)、降低時間開銷、防止模型過擬合,利用無參數(shù)的度量學(xué)習(xí)直接計算待識別水稻病蟲害圖片映射特征與帶標(biāo)簽的支持特征之間的距離,此處采用余弦相似度作為特征間的度量方法。
首先,利用ViT將待識別的查詢圖片映射到深度特征空間;然后,利用余弦相似度逐位置計算映射的查詢特征ZqL與雙通道融合特征F之間的相似度值,并借助Argmax函數(shù)獲得每個位置處的最大值;最后,將所有位置的結(jié)果進(jìn)行拼接,得到水稻病蟲害的識別結(jié)果。具體計算如公式(11)和(12)所示。
式中:cos(·)表示余弦相似度函數(shù);Θ(·)表示拼接函數(shù),h和w表示特征圖的長和寬;此外,為了優(yōu)化多原型指導(dǎo)的小樣本水稻害蟲識別模型的性能,采用交叉熵?fù)p失函數(shù)進(jìn)行損失計算,根據(jù)損失值端到端優(yōu)化模型。
2 試驗結(jié)果與分析
2.1 試驗環(huán)境與評價指標(biāo)
試驗環(huán)境選擇64位Windows 10操作系統(tǒng),40 GB NVIDIA A100 GPU,PyTorch版本為1.11,Python選擇3.9,CUDA版本為11.6。初始學(xué)習(xí)率為1×10-3,batch大小為6。為了防止模型過擬合,選擇Dropout為0.8。圖5給出了模型在訓(xùn)練階段Support集和Query集上的損失和準(zhǔn)確率變化曲線;可以看出,大約經(jīng)過80個Epoch后模型基本收斂,此時對于水稻病蟲害的識別準(zhǔn)確率大約為95%,損失值也達(dá)到了最低;為此,選擇Epoch為80,并且所有試驗均在Epoch為80的基礎(chǔ)上進(jìn)行。
使用準(zhǔn)確率(Accuracy,Acc)、精確率(Precision,P)、召回率(Recall,R)和F1得分來評估所提出模型對于水稻病蟲害的識別性能,計算方法如公式(13)至公式(16)所示。
式中:TP表示模型預(yù)測為正的樣本數(shù),TN表示模型預(yù)測為負(fù)的樣本數(shù),F(xiàn)N為錯誤地將樣本預(yù)測為負(fù)的樣本數(shù),F(xiàn)P表示錯誤地將樣本預(yù)測為正的樣本數(shù)。
2.2 數(shù)據(jù)集介紹
選擇當(dāng)前主流模型使用的開源水稻害蟲數(shù)據(jù)集IP102,該數(shù)據(jù)集包括102種水稻害蟲,總共包括75 000張圖片。本試驗選取其中6種害蟲作為訓(xùn)練集,4種害蟲作為測試集,每種害蟲選擇400張圖片。數(shù)據(jù)集中部分圖像可視化如圖6所示。
2.3 檢測結(jié)果與分析
為了驗證所提出模型的性能,選擇當(dāng)前主流的目標(biāo)檢測模型AlexNet、ResNet、YOLO v5、Vgg-16、Inception v3和LeNet5,并在相同的數(shù)據(jù)集和評價指標(biāo)下進(jìn)行對比分析,結(jié)果如表1所示。此外,為了直觀展示本模型對于每種測試水稻害蟲圖片的識別結(jié)果,繪制圖7所示的混淆矩陣。其中0表示稻赤斑沫蟬、1表示黃脊蝗、2表示鹿蛾、3表示稻水象甲,對角線上的結(jié)果表示模型正確預(yù)測的數(shù)量。
由表1可以看出,與當(dāng)前經(jīng)典的目標(biāo)檢測模型相比,所提出模型在準(zhǔn)確率、召回率和F1值上均有所提升。在準(zhǔn)確率方面,本模型可以獲得0.955的得分,相比LeNet5模型,提升了0.9%;在精確率方面,本模型實現(xiàn)了0.941的得分,相比Inception v3模型,提升了0.3%;雖然在召回率方面,本模型相比LeNet5有所下降,但相比Inception v3和ResNet模型,提升了1.0%;在F1值方面,本模型實現(xiàn)了0.962的得分,相比所有對比模型,優(yōu)勢明顯。究其原因是:(1)本模型直接利用目標(biāo)任務(wù)來強化特征的表達(dá)能力,并從雙通道維度進(jìn)行特征增強;(2)在小樣本學(xué)習(xí)網(wǎng)絡(luò)的基礎(chǔ)上,采用超像素聚類算法生成多個細(xì)粒度類原型,有效強化了小目標(biāo)物體的識別能力;(3)利用的無參數(shù)度量學(xué)習(xí)可以有效減少信息丟失或歧義的問題。
圖8給出了所提出模型對常見水稻病蟲害的泛化性測試試驗,可以看出,所提出模型整體識別精度良好,尤其是對于圖8-a和圖8-c中的小目標(biāo)物體仍然可以保持較高的識別精度,驗證了本設(shè)計模型的合理性。此外,為了進(jìn)一步驗證所提出模型對更具挑戰(zhàn)性樣本(缺陷、低能見度)的測試性能,進(jìn)行了圖9所示的測試試驗。可以看出,所提出模型對于田間環(huán)境中更復(fù)雜的場景,包括水稻害蟲部分遮擋樣本、可見度不強樣本的測試,所提出模型的平均檢測精準(zhǔn)率可以達(dá)到92.47%,對遮擋樣本可以實現(xiàn)93.63%的測試精度,對低能見度樣本可以實現(xiàn)91.30%的測試精度。從試驗結(jié)果中可以看出,能見度對于模型檢測性能的干擾程度較大,主要原因是光照因素會導(dǎo)致病害區(qū)域的顏色發(fā)生變化。此外,雖然缺陷類也會影響模型性能,但目標(biāo)區(qū)域的整體特征依然存在,雖有影響,但影響不大??偟膩碚f,模型整體魯棒性和泛化性能較好,可以為實際場景中對水稻病蟲害檢測提供一定的指導(dǎo)。
2.4 實時性對比與分析
為了測試所提出模型的時間開銷,分別選擇當(dāng)前主流的水稻病害檢測模型AlexNet、ResNet、YOLO v5、Vgg-16、Inception v3和LeNet5。對比結(jié)果如圖10所示。
可以看出,本模型在測試數(shù)據(jù)集上可以實現(xiàn) 41.9 s 的測試時間開銷,相比所有對比模型中時間開銷最低的Inception v3模型,降低了9.2 s,優(yōu)勢明顯。究其原因是在特征匹配階段,所提出模型采用了無參數(shù)的度量學(xué)習(xí)工具(余弦相似度),即通過計算待測試圖片的深度映射特征與所學(xué)病害區(qū)域類的特定語義表示之間的相似度來實現(xiàn)待測圖片病害的定位與識別,該階段無任何可學(xué)習(xí)的參數(shù)參與,有效降低了時間開銷;其次,在特征提取階段,無論支持分支還是查詢分支,均采用了預(yù)訓(xùn)練的主干網(wǎng)絡(luò),進(jìn)一步降低了模型的時間開銷。
2.5 消融試驗
為了分析不同模塊對于基于多原型指導(dǎo)的小樣本水稻害蟲識別模型的性能,進(jìn)行表2所示的消融試驗。特別地,此處選擇單一的ViT映射特征和查詢特征之間的度量計算流程作為基線模型??梢钥闯觯啾然€模型,引入超像素聚類算法提升了11.9百分點的準(zhǔn)確率、19.1百分點的精確率、18.9百分點的召回率和12.2百分點的F1。類似地,雖然引入單一的通道注意力或空間注意力可以進(jìn)一步提高模型的識別性能;然而,模型的最佳識別性能是綜合超像素聚類、通道注意力和空間注意力,通過深度聚焦目標(biāo)任務(wù)和查詢特征之間的關(guān)聯(lián),強化了模型的識別性能。
3 結(jié)論
提出了一種基于多原型指導(dǎo)的小樣本水稻病害識別模型,經(jīng)過試驗得到如下結(jié)論:
(1)針對傳統(tǒng)水稻病害蟲識別模型精度低的問題,在小樣本學(xué)習(xí)網(wǎng)絡(luò)雙分支指導(dǎo)策略的基礎(chǔ)上,引入超像素聚類算法生成多個細(xì)粒度原型,利用多個原型逐像素度量待測圖片的映射特征,有效緩解了水稻病害蟲目標(biāo)小導(dǎo)致信息丟失的問題。
(2)為了進(jìn)一步挖掘目標(biāo)任務(wù)和支持特征的關(guān)聯(lián),采用雙通道特征融合注意力網(wǎng)絡(luò)深度融合雙分支的映射特征,有效強化了特征的表達(dá)能力。
(3)結(jié)果表明,所提出的水稻病蟲害識別模型表現(xiàn)出了較好的性能,平均準(zhǔn)確率達(dá)到了0.955、精確率達(dá)到了0.941、召回率達(dá)到了0.949、F1值達(dá)到了0.962,優(yōu)于AlexNet、ResNet、YOLO v5、Vgg-16、Inception v3和LeNet5等經(jīng)典目標(biāo)檢測模型。
參考文獻(xiàn):
[1]Li D S,Wang R J,Xie C J,et al. A recognition method for rice plant diseases and pests video detection based on deep convolutional neural network[J]. Sensors,2020,20(3):578.
[2]Yang G F,Chen G P,Li C,et al. Convolutional rebalancing network for the classification of large imbalanced rice pest and disease datasets in the field[J]. Frontiers in Plant Science,2021,12:671134.
[3]Li L L,Zhang S J,Wang B. Plant disease detection and classification by deep learning-a review[J]. IEEE Access,2021,9:56683-56698.
[4]Kharim M,Wayayok A,Abdullah A,et al. Predictive zoning of pest and disease infestations in rice field based on UAV aerial imagery[J]. The Egyptian Journal of Remote Sensing and Space Science,2022,25(3):831-840.
[5]Larijani M,Asli A,Kozegar E,et al. Evaluation of image processing technique in identifying rice blast disease in field conditions based on KNN algorithm improvement by K-means[J]. Food Science & Nutrition,2019,7(12):3922-3930.
[6]Xiao D Q,F(xiàn)eng J Z,Lin T Y,et al. Classification and recognition scheme for vegetable pests based on the BOF-SVM model[J]. International Journal of Agricultural and Biological Engineering,2018,11(3):190-196.
[7]Chen J,Lian Y,Li Y M. Real-time grain impurity sensing for rice combine harvesters using image processing and decision-tree algorithm[J]. Computers and Electronics in Agriculture,2020,175:105591.
[8]Sangeetha T,Lavanya G,Mythili K,et al. Detection of pest and disease in banana leaf using convolution Random Forest[J]. Test Eng Manag,2020,83:3727-3735.
[9]Sun D Q,Rickaille M,Xu Z G. Determinants and impacts of outsourcing pest and disease management:evidence from Chinas rice production[J]. China Agricultural Economic Review,2018,10(3):443-461.
[10]He Y,Zhou Z Y,Tian L H,et al. Brown rice planthopper (Nilaparvata lugens Stal) detection based on deep learning[J]. Precision Agriculture,2020,21(6):1385-1402.
[11]衛(wèi)雅娜,王志彬,喬曉軍,等. 基于注意力機(jī)制與EfficientNet的輕量化水稻病害識別方法[J]. 中國農(nóng)機(jī)化學(xué)報,2022,43(11):172-181.
[12]梁 勇,邱榮洲,李志鵬,等. 基于YOLO v5和多源數(shù)據(jù)集的水稻主要害蟲識別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報,2022,53(7):250-258.
[13]曾偉輝,張文鳳,陳鵬,等. 基于SCResNeSt的低分辨率水稻害蟲圖像識別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報,2022,53(9):277-285.
[14]Li Y,Qian M Y,Liu P F et al. The recognition of rice images by UAV based on capsule network[J]. Cluster Computing,2019,22:9515-9524.
[15]肖小梅,楊紅云,易文龍,等. 改進(jìn)的Alexnet模型在水稻害蟲圖像識別中的應(yīng)用[J]. 科學(xué)技術(shù)與工程,2021,21(22):9447-9454.
[16]Rahman C,Arko P,Ali M,et al. Identification and recognition of rice diseases and pests using convolutional neural networks[J]. Biosystems Engineering,2020,194:112-120.
[17]鮑文霞,吳德釗,胡根生,等. 基于輕量型殘差網(wǎng)絡(luò)的自然場景水稻害蟲識別[J]. 農(nóng)業(yè)工程學(xué)報,2021,37(16):145-152.
[18]Chang Z B,Lu Y G,Wang X W,et al. MGNet:Mutual-guidance network for few-shot semantic segmentation[J]. Engineering Applications of Artificial Intelligence,2022,116:105431.
[19]Han K,Wang Y H,Chen H T,et al. A survey on vision transformer[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2022,45(1):87-110.
[20]Li G,Jampani V,Sevilla-Lara L,et al. Adaptive prototype learning and allocation for few-shot segmentation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2021:8334-8343.
收稿日期:2023-01-30
基金項目:山西省重點研發(fā)計劃(編號:201903D211005)。
作者簡介:李 軍(1981—),男,山西澤州人,碩士,講師,研究方向為農(nóng)業(yè)工程。E-mail:lijun198060@163.com。