• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于YOLO v5的水稻害蟲分類

      2024-03-25 13:56:48李濱樊健
      江蘇農業(yè)科學 2024年2期
      關鍵詞:害蟲損失卷積

      李濱 樊健

      摘要: 針對水稻害蟲識別過程中存在的檢測難度大、模型精度低、計算量大等問題,以稻縱卷葉螟等14類水稻害蟲為研究對象, 改進了YOLO v5檢測算法,引入高效通道注意力機制(efficient channel attention,ECA)與EIoU(efficient- IoU)損失函數(shù),并結合Ghost卷積,提出了一種基于改進的YOLO v5水稻害蟲識別方法:(1)通過引入ECA注意力機制實現(xiàn)對水稻害蟲識別過程中重要信息的處理,采用跨通道信息交互,保證模型性能和降低復雜度;(2)引入EIoU損失函數(shù)代替CIoU(complete-IoU)損失函數(shù),從而降低原有CIoU損失函數(shù)存在的回歸精度問題;(3)利用Ghost卷積替換CBS模塊及C3模塊中的標準卷積,實現(xiàn)模型輕量化處理。結果表明,改進后的模型較原始YOLO v5模型精度略微提升,參數(shù)量減少,模型體積降低至7.38 MB,較原模型減少了46%,與YOLO v7、Faster-RCNN模型相比,mAP比YOLO v7高1.49百分點,比Faster-RCNN高12.89百分點,且本研究模型體積最小,檢測速度滿足實時性要求,使水稻害蟲檢測識別能夠更加高效地完成,為水稻害蟲檢測提供了一種更優(yōu)的方法,對于防治水稻害蟲有重要意義。

      關鍵詞: 水稻;害蟲;深度學習;Ghost卷積;YOLO v5;輕量化;ECA注意力機制

      中圖分類號:TP391.41;S126 ?文獻標志碼:A

      文章編號:1002-1302(2024)02-0175-07

      水稻在生長過程中易遭到害蟲的侵蝕,且近年來水稻蟲害的暴發(fā)呈上升趨勢,導致水稻產(chǎn)量和品質下降,給水稻產(chǎn)業(yè)造成了巨大的損失[1]。害蟲領域的檢測識別技術落后,會影響對水稻害蟲類別、破壞程度等的判斷。鑒別害蟲傳統(tǒng)的方法主要是根據(jù)主觀直覺以及積累的經(jīng)驗,這需要耗費大量的人力、物力和時間。因此,開展水稻害蟲識別的研究顯得尤為重要。隨著農業(yè)智能化和數(shù)字化不斷推進,利用計算機圖像識別技術與機器學習方法對病蟲害進行檢測已成為發(fā)展新型農業(yè)的研究熱點[2]。楊英茹等結合顏色紋理特征,提出一種基于支持向量機(SVM)的復雜環(huán)境番茄葉部圖像病害識別方法,該方法計算量小,對系統(tǒng)要求低,準確率達97.5%[3]。Sethy等采用深度特征+SVM的方法對4種水稻病害進行分類[4]。Qing等通過7倍交叉驗證,采用SVM分類器對4種鱗翅目水稻害蟲進行檢測,平均準確率達97.5%[5]。然而,傳統(tǒng)的機器學習方法只能處理小數(shù)據(jù)模型,不能學習特征之間的相互作用,需要依靠人工提取,識別效率不佳。卷積神經(jīng)網(wǎng)絡(convolutional neural networks,CNN)是深度學習的代表算法之一,目前基于卷積神經(jīng)網(wǎng)絡的深度學習模型逐漸應用于水稻害蟲識別領域中[6]。劉曉鋒等提出一種改進的空間殘差網(wǎng)絡,進行農作物病蟲害識別,有效地減少了混合噪聲,提高了模型分類精度[7]。Rahman等提出了一種新型的基于兩階段訓練的輕量級卷積神經(jīng)網(wǎng)絡,精度達93.3%[8]。梁萬杰等設計了一個10層的卷積神經(jīng)網(wǎng)絡識別水稻害蟲,識別精度可達89.14%[9]。Thenmozhi等提出一種高效的深度CNN模型,結合遷移學習,在3種昆蟲數(shù)據(jù)集上的準確率均達95%以上[10]。郭陽等在YOLO v3模型中引入Darknet-53網(wǎng)絡和多尺度融合,實現(xiàn)對水稻害蟲的準確識別,精度可達91.93%[11]。Chen等在MobileNet-V2網(wǎng)絡基礎上添加注意力機制,優(yōu)化損失函數(shù),并對水稻病害進行識別,平均準確率達98.48%[12]。

      對于水稻害蟲檢測識別數(shù)據(jù)集的構建比較困難,若數(shù)據(jù)集過少,會使實際數(shù)據(jù)精度較低,而為了提高卷積神經(jīng)網(wǎng)絡的精度,需要設計較為復雜的神經(jīng)網(wǎng)絡,這使得模型參數(shù)設置困難,計算難度加大[13]。因此,在設備計算能力與存儲空間有限的前提下,模型輕量化很有必要[14]。李衍照等提出Mosaic+Mixup的數(shù)據(jù)增強策略并改進YOLO v5模型,進行金屬焊縫缺陷檢測,其檢測精度達 96.88%[15]。馬曉東等用Mish激活函數(shù)替換YOLO v5 模型中的SiLU激活函數(shù),再融合協(xié)同注意力機制,改進YOLO v5模型,改進后的模型識別精度比原模型提高了3.8%[16]。

      本研究采用YOLO v5模型,并在此基礎上引入高效通道注意力機制(efficient channel attention,ECA)降低模型計算量,通過EIoU損失函數(shù)提高模型精度,并結合GhostNet網(wǎng)絡構建輕量化模型,對原始的所有普通卷積與C3模塊中的普通卷積進行替換,減少參數(shù)量的使用,并且能更好地部署參數(shù),從而降低卷積計算的復雜程度。因此,改進的YOLO v5檢測方法能更好地解決水稻害蟲識別過程中識別難度大、費時費力等問題。

      1 數(shù)據(jù)集的構建

      構建水稻害蟲數(shù)據(jù)集,采用IP102數(shù)據(jù)集中的水稻害蟲圖像,共14類,合計1 248張,蟲類中文名稱及圖片數(shù)量如表1所示。使用LabelImg軟件對圖片進行位置及類別標注,因本次獲取到的圖像數(shù)量過少,為了降低訓練樣本多樣性不足產(chǎn)生的模型過擬合現(xiàn)象,對原始圖像采用縮放、翻轉、對比度等離線增強方式擴充數(shù)據(jù)集,保證樣本空間的一致性,避免因樣本空間不同而對試驗結果造成干擾。

      模型的識別性能在很大程度上由數(shù)據(jù)集決定,為了探討數(shù)據(jù)集大小對害蟲識別精度的影響,設置6組不同大小的數(shù)據(jù)集,分別為1 248、2 496、3 744、4 992、6 240、7 488張,對YOLO v5模型進行訓練,數(shù)據(jù)集以8 ∶ 2的比例劃分訓練集和驗證集,訓練結果見表2。當數(shù)據(jù)集大小為3 744張時,平均精準度(mAP)達到了90%以上,數(shù)據(jù)集大小為7 488張時,mAP高達97.19%,但是訓練時間長達16.57 h,因此本研究采用3 744張的數(shù)據(jù)集進行分析。

      2 水稻害蟲檢測網(wǎng)絡

      2.1 YOLO v5網(wǎng)絡模型

      YOLO v5網(wǎng)絡模型是YOLO系列的第5個版本,其結構主要分為輸入端(input)、主干網(wǎng)絡(backbone)、頸部網(wǎng)絡(neck)和預測網(wǎng)絡(prediction)4個部分(圖1)。輸入端采用Mosaic數(shù)據(jù)增強,其主要思想是任意抽取4張圖片進行隨機裁剪,然后拼接到1張照片上作為訓練數(shù)據(jù),同時也會對每張圖片上的標注框進行相應裁剪,這樣不僅豐富了圖片的背景,也降低了訓練時對批量大?。╞atch size)的依賴性。

      主干網(wǎng)絡對圖像通過深度卷積獲得其特征信息(主要包括Focus模塊、標準卷積(CBS)模塊、C3模塊和SPP模塊)。Focus模塊對輸入的圖像進行切片,將特征圖的通道數(shù)擴充4倍,然后再通過卷積得到2倍下采樣特征圖。CBS模塊由二維卷積(Conv)、批量標準化(batch normalization,BN)和SiLU激活函數(shù)三者組成。C3模塊由一種殘差結構組成,一定程度上減少了計算量,加快了推理速度。SPP模塊也稱為空間金字塔池化,通過大小不同的卷積核提取特征后進行特征融合,一定程度上解決了目標的多尺度問題。

      頸部網(wǎng)絡分為特征金字 塔網(wǎng)絡(feature pyramid network,F(xiàn)PN) 結構和路徑聚合網(wǎng)絡(path aggregation? network,PAN)結構。FPN自上向下傳達強語義特征,PAN從下向上傳達強定位特征。預測網(wǎng)絡生成水稻害蟲的類別概率和位置信息,由3個檢測層組成,對不同尺寸目標進行檢測。

      2.2 改進的YOLO v5算法

      2.2.1 ECA注意力機制

      深度學習中的注意力機制有助于人們在有限的資源下,從大量無關背景區(qū)域中篩選出具有重要信息的目標區(qū)域,幫助人們更高效地處理視覺信息,因此可以借助特定的注意力機制來實現(xiàn)對于水稻害蟲目標對象重要信息的處理。常見的注意力機制有SE-net(squeeze-and-excitation networks)、ECA-net(efficient channel attention networks)、CBAM(convolutional block attention module)等[17],其中ECA模塊能夠避免降維對檢測結果造成的誤差,并且通過大小為k的快速一維卷積獲取局部跨通道的交互信息,并通過Sigmoid激活函數(shù)[如式(1)所示]得到各個通道的權重ω。

      ω=σ[C1Dk(y)]。 ?(1)

      式中:ω表示各通道權重;C1D表示一維卷積;k表示一維卷積的內核大小。這種方法稱為ECA模塊,在計算過程中,其只涉及k個參數(shù)的信息,在k為某一特定值的情況下,ECA模塊能實現(xiàn)與SE-Var同樣的效果,且其模型的復雜程度更低,因此這種跨通道信息交互的方法能有效保證檢測結果與檢測效率。ECA注意力機制能更好地捕捉水稻害蟲圖像的主要信息,有效減小參數(shù)的計算量。因此,本研究在YOLO v5預測網(wǎng)絡前加入ECA注意力機制,其模塊如圖2所示。其中,k的確定是確定通道交互信息大致范圍的必要條件。在固定group數(shù)量的前提下,高維(低維)通道隨著長距離(短距離)卷積的增大而增大,同理,跨通道信息交互覆蓋率k(即一維卷積的內核大?。┮矔S著通道維數(shù)C的增加而增大,即二者存在映射關系,且低維度通道比高維度通道對于卷積作用的影響更小。k可通過ψ(C)進行自適應的確定,如式(2)所示。

      k=ψ(C)= ?log2C γ + b γ ?odd。 ?(2)

      式中:b、γ表示線性擬合中所涉及到的非線性參數(shù);|t|odd表示最接近的奇數(shù)。

      在本研究中,給定b和γ的值,分別為1和2,則k值為5。本研究在引入ECA注意力機制時,采用基于自適應卷積核大小的方法,直接在全局平均池化層之后使用1×1卷積層,去除全連接層,完成跨通道間的信息交互,適當?shù)目缤ǖ澜换タ梢栽诒3中阅艿耐瑫r顯著降低模型的復雜性。

      2.2.2 損失函數(shù)

      損失函數(shù)(loss function)可通過測量實際測量值與預測值之間的誤差,來衡量測量模型與數(shù)據(jù)之間的吻合程度,是深度學習的重要一環(huán),很大程度上決定預測模型的性能[18]。損失函數(shù)針對每個數(shù)據(jù)點進行計算,所得值越高,說明預測結果就越不精確,反之,則說明計算結果越接近真實值??梢栽谟柧毮P蜁r通過引入損失函數(shù)指導模型的優(yōu)化,因為在構建模型的過程中,特征的權重可能會發(fā)生一定的變化,從而導致預測結果發(fā)生相應的變化,此時就需要利用損失函數(shù)來判斷模型中特征權重的具體變化進行相應的調整。

      在本研究中,損失函數(shù)用于描述害蟲圖像檢測框與真實框之間的差距,在檢測網(wǎng)絡中對目標對象的概率進行分類,對目標置信度進行評定,并對檢測框位置進行標定,最后將這3種作為結果輸出。損失函數(shù)包括置信度損失(obj_loss)、邊框定位損失(box_loss)以及分類損失(cls_loss)3個部分[19],置信度損失函數(shù)用來計算對預測模型所設定網(wǎng)絡的置信度,邊框定位損失函數(shù)用來計算預測框與真實框之間的誤差,分類損失函數(shù)用來計算目標框所對應的標定分類是否正確。

      在進行水稻害蟲的識別過程中,由于目標輸出標簽具有互斥性,需要應用softmax函數(shù)將目標置信度得分轉換為總和為1的概率,在YOLO v5中使用多個獨立的邏輯(logistic)分類器用以替換softmax,可使輸出綜合大于1,從而達到計算輸入特定標簽的目的。YOLO v5在計算類別概率和目標置信度得分時,使用二元交叉熵損失函數(shù),也可以有效避免使用softmax所帶來的弊端,進而減小計算量。在原有的YOLO v5中,對于邊框定位損失,選用CIoU Loss作為其損失函數(shù)[20],其計算公式如式(3)所示。

      LCIoU=1-IoU+ ρ2(b,bgt) c2 +αv。 ?(3)

      式中:ρ2(b,bgt)表示2個檢測框中心點的距離;c表示2個檢測框所形成的最小包圍矩形的對角線長度;v表示2個檢測框的寬高比的相似程度,其表達式如式(4)所示;α表示v的重要影響因素,其表達式如式(5)所示。

      v= 4 π ?arctan wgt hgt -arctan w h ?2; ?(4)

      α= v (1-IoU)+v 。 ?(5)

      然而,CIoU損失函數(shù)的長寬比描述的是相對值,存在一定的模糊界限,當預測框的寬和高滿足{(w=kwgt,h=khgt)|k∈ R +}時,CIoU損失函數(shù)的相對比例懲罰項就不起作用[21]。并且CIoU損失函數(shù)中w和h不能保證同時增大或減小,會給訓練過程帶來問題。

      因此,本研究在檢測水稻害蟲模型中引入EIoU Loss,以減小CIoU在定位回歸方面存在的誤差,其在CIoU損失函數(shù)的基礎上可以精確檢測重疊面積、邊長以及中心點之間的差異,并解決CIoU存在的寬和高不能同增同減的問題,從而獲取更高精度的檢測樣本,其定義如式(6)所示。

      LEIoU=LIoU+Ldis+Lasp=1-IoU+ ρ2(b,bgt) c2 + ρ2(w,wgt) c2w + ρ2(h,hgt) c2h 。 (6)

      式中:cw表示同時覆蓋2個矩形框的寬度;ch表示能夠同時覆蓋2個矩形框的寬和高。

      2.2.3 Ghost卷積

      通過引入EIoU損失函數(shù)雖然可以明顯提高YOLO v5模型的識別效率,但是會增加計算量,背離檢測模型輕量化的目的。因此,本研究在應用EIoU損失函數(shù)基礎上引入Ghost卷積替換CBS模塊中的普通卷積進行特征提取,同時,也將C3模塊中的普通卷積替換。Ghost卷積的實現(xiàn)主要由2個部分組成,通過普通的卷積計算生成少量特征圖,稱為本征特征圖,如式(7)所示。

      Y′=X ×f′。 ?(7)

      式中: X 表示輸入特征圖, X ?R h×w×c,且h表示寬度,w表示長度,c表示通道數(shù);f′表示該層網(wǎng)絡的卷積核,f′∈ R c×k×k×m(m表示輸出通道數(shù)); Y ′表示輸出的特征圖, Y ′ R h′×w′×n。

      對本征特征圖Y′進行線性變化得到更多的特征圖,最后對前面所得的2組特征圖進行拼接,形成新的特征圖輸出。Ghost模塊的卷積形成過程如圖3所示。

      相較于原始的普通卷積,Ghost卷積能夠保持較高的相似度,并且能顯著降低模型參數(shù)量,使參數(shù)量更容易分布于終端,從而簡化卷積運算[22]。二者計算量的對比如式(8)所示。

      rs = n·h′·w′·c·k·k ?n s ·h′·w′·c·k·k+(s-1)· n s ·h′·w′·d·d

      = c·k·k ?1 s ·c·k·k+ s-1 s ·d·d ≈ s·c s+c-1 ≈s。 ?(8)

      式中:與Ghost卷積相比,普通卷積計算量是其s倍,在相同參數(shù)的前提下,普通卷積的計算量也是Ghost卷積的s倍,這充分展示出Ghost卷積在計算量方面的優(yōu)勢。因此,應用Ghost卷積代替原始的普通卷積可以有效降低目標的運算量,實現(xiàn)模型輕量化的目的。

      3 結果與分析

      3.1 試驗環(huán)境與設置

      本試驗環(huán)境:InterCoreTM15-12600KF CPU;16 G內存;GPU為NVIDIA GeForce RTX3060,顯存12 G;操作系統(tǒng)為Windows 10,64位操作系統(tǒng);學習框架為Pytorch 1.12.1,Cuda版本11.7,Cudnn版本8.5.0。

      輸入圖像大小調整為640像素×640像素,批量大小設置為16張,初始學習率(learning rate)為0.01,訓練輪次(epoch)為300輪次,采用Adam優(yōu)化,動量(momentum)設為0.937,權重衰減(weight decay)為0.000 5。

      3.2 評價指標

      本試驗在研究過程中主要使用4種評價指標對改進的YOLO v5模型性能進行評價,分別為精確率(precision,P)、召回率(recall,R)、平均精度(average precision,AP)和均值平均精度(mean average precision,mAP)。

      精確率P表示預測樣本中預測正確的正樣本數(shù)量與所有預測出的正樣本數(shù)量的比值,計算公式如式(9)所示。

      P= TP TP+FP 。 ?(9)

      式中:TP(true positive)表示預測正確的正樣本數(shù)量;FP(false positive)表示預測錯誤的正樣本數(shù)量。

      召回率R表示檢測出正確的正樣本數(shù)量與實際正樣本總數(shù)量的比值,計算公式如式(10)所示。

      R= TP TP+FN 。 ?(10)

      式中:FN(false negative)表示樣本中未被檢測出來的正樣本數(shù)量。平均精度AP是P與R圍成的曲線的面積,其計算公式如式(11)所示。

      AP=∫1 0P(R)dR。 ?(11)

      均值平均精度mAP表示各個類別的AP的均值,其衡量指標分為mAP@0.5和mAP@0.5 ∶ 0.95等2種,與P和R不同,mAP可以單獨評價模型的優(yōu)劣,其計算公式如式(12)所示。

      mAP= ∑(AP) n 。 ?(12)

      式中:n表示所檢測類別的數(shù)量,個。

      3.3 Ghost卷積替換部分試驗

      Ghost卷積使用較少的參數(shù)和計算量便可實現(xiàn)對檢測目標特征的識別,從而避免原始模型中存在使用大量卷積核進行采樣與融合等操作的問題,也同時減少了輸出的特征圖中包含冗余特征。但是,Ghost卷積在去除冗余特征實現(xiàn)輕量化的同時,會導致輸出特征圖的精度有所下降、推理速度緩慢等問題。因此,需要后續(xù)進一步進行Ghost卷積部分的替換試驗,探究最佳的Ghost卷積替換部分,從而在實現(xiàn)模型輕量化的同時,也能適當保證其精度。

      本研究應用Ghost卷積模塊對不同位置進行替換并進行試驗,表3直觀地表達出各個位置Ghost卷積替換的精度對比,其中主干網(wǎng)絡表示Ghost卷積模塊替換YOLO v5中主干部分的CBS模塊的普通卷積,頸部網(wǎng)絡表示Ghost卷積模塊替換YOLO v5中頸部CBS模塊的普通卷積,主干網(wǎng)絡+頸部網(wǎng)絡表示Ghost卷積模塊替換YOLO v5所有CBS模塊中的普通卷積。

      3.4 對比試驗

      為進一步驗證本研究提出的改進的YOLO v5算法對水稻蟲害病識別的檢測效果, 將本研究算法與YOLO v5s算法、Faster-RCNN算法以及YOLO v7 算法進行對比。訓練參數(shù)設置一致,批量大小設置為16張,訓練300輪次,初始學習率0.01,得到的模型指標如表4所示。

      YOLO v7是YOLO系列的最新算法。由表4可知,YOLO v7算法在本研究自制數(shù)據(jù)集上的表現(xiàn)不如YOLO v5s,其mAP比YOLO v5s低1.49%。本研究算法較其他算法有更高mAP的值,且模型體積最小,僅7.38 MB。

      圖4、圖5展示了7種水稻害蟲的檢測結果,通過對比可以看出,本研究算法較YOLO v5模型檢測精度整體上升,部分害蟲檢測精度略微下降,如白背飛虱和稻薊馬,但檢測精度僅相差0.04%,滿足實際檢測需求。

      3.5 消融試驗

      為驗證改進YOLO v5算法的有效性,本研究用自制數(shù)據(jù)集設置消融對比試驗,以驗證每個改進策略對模型性能的影響,試驗考慮了ECA模塊、EIoU模 塊、GhostNet-Conv模塊和GhostNet-C3模塊 4??個因素,依次將4個改進策略添加到原YOLO v5s算法模型中,在同一試驗條件下訓練300輪次,訓練結果如表5所示。

      首先,在YOLO v5s模型的檢測網(wǎng)絡前加入ECA注意力機制,增強特征聚合;然后,將邊框損失函數(shù)用EIoU進行替換,加速收斂并提高回歸精度;再次,將YOLO v5s中CBS模塊中的Conv標準卷積換為GhostNet卷積,將模型體積減少3.5 MB;最后,將C3模塊中的所有Conv標準卷積替換為GhostNet卷積,模型體積再次減少2.82 MB。通過消融試驗對各個模塊的優(yōu)化效果的驗證,發(fā)現(xiàn)本研究算法的mAP較YOLO v5s模型提升0.09百分點,模型體積降低到了7.38 MB,且模型的識別速度仍滿足實時性要求。

      4 結論

      本研究選取稻縱卷葉螟、稻葉毛蟲、稻潛葉蠅等14類害蟲構建數(shù)據(jù)集,針對采用傳統(tǒng)神經(jīng)網(wǎng)絡的水稻害蟲識別方法中存在的識別正確率低、效率低等現(xiàn)象,提出一種基于YOLO v5的水稻害蟲識別方法,主要改進如下:(1)在預測網(wǎng)絡前引入ECA注意力機制;(2)邊框損失函數(shù)采用EIoU;(3)將CBS模塊和C3模塊中的標準卷積換為Ghost卷積。與YOLO系列最新的算法YOLO v7、Faster-RCNN進行對比,本研究算法模型擁有最高的mAP(94.21%)和最小的模型體積(7.38 MB)。

      參考文獻:

      [1] 車 琳,蔣沁宏,王 也,等.我國水稻五大產(chǎn)區(qū)蟲害發(fā)生及防控情況差異的比較分析[J]. 植物保護,2022,48(3):233-241.

      [2]Daniya T,Vigneshwari S. A review on machine learning techniques for rice plant disease detection in agricultural research[J]. International Journal of Advanced Science and Technology,2019,28(13):49-62.

      [3]楊英茹,吳華瑞,張 燕,等. 基于復雜環(huán)境的番茄葉部圖像病蟲害識別[J]. 中國農機化學報,2021,42(9):177-186.

      [4]Sethy P K,Barpanda N K,Rath A K,et al. Deep feature based rice leaf disease identification using support vector machine[J]. Computers and Electronics in Agriculture,2020,175:105527.

      [5]Qing Y A O,Jun L V,Liu Q J,et al. An insect imaging system to automate rice lighttrap pest identification[J]. Journal of Integrative Agriculture,2012,11(6):978-985.

      [6]馬佳佳,陳友鵬,王克強,等. 基于優(yōu)化SVM的蟲害圖像識別研究[J]. 中國糧油學報,2022,37(5):10-15.

      [7]劉曉鋒,高麗梅. ?基于改進空間殘差收縮網(wǎng)絡模型的農作物病蟲害識別[J]. 山東農業(yè)大學學報(自然科學版),2022,53(2):259-264.

      [8] Rahman C R,Arko P S,Ali M E,et al. Identification and recognition of rice diseases and pests using convolutional neural networks[J]. Biosystems Engineering,2020,194:112-120.

      [9]梁萬杰,曹宏鑫. 基于卷積神經(jīng)網(wǎng)絡的水稻蟲害識別[J]. 江蘇農業(yè)科學,2017,45(20):241-243,253.

      [10] Thenmozhi K,Reddy U S. Crop pest classification based on deep convolutional neural network and transfer learning[J]. Computers and Electronics in Agriculture,2019,164:104906.

      [11]郭 陽,許貝貝,陳桂鵬,等. 基于卷積神經(jīng)網(wǎng)絡的水稻蟲害識別方法[J]. 中國農業(yè)科技導報,2021,23(11):99-109.

      [12]Chen J,Zhang D F,Zeb A,et al. Identification of rice plant diseases using lightweight attention networks[J]. Expert Systems with Applications,2021,169:114514.

      [13]王江晴,冀 星,莫海芳,等. 基于輕量化VGG的植物病蟲害識別[J]. 中國農機化學報,2022,43(4):25-31.

      [14] 周 維,牛永真,王亞煒,等. 基于改進的YOLO v4-GhostNet水稻病蟲害識別方法[J]. 江蘇農業(yè)學報,2022,38(3):685-695.

      [15]李衍照,于 鐳,田金文. 基于改進YOLO v5的金屬焊縫缺陷檢測[J]. 電子測量技術,2022,45(19):70-75.

      [16]馬曉東,魏利勝,劉小琿. 基于新型YOLO v5算法的磁懸浮球精確識別[J]. 電子測量與儀器學報,2022,36(8):204-212.

      [17]張宸嘉,朱 磊,俞 璐. 卷積神經(jīng)網(wǎng)絡中的注意力機制綜述[J]. 計算機工程與應用,2021,57(20):64-72.

      [18]肖雨晴,楊慧敏. 基于改進YOLO v3算法的交通場景目標檢測[J]. 森林工程,2022,38(6):164-171.

      [19]郭 文,李 冬,袁 飛. 多尺度注意力融合和抗噪聲的輕量點云人臉識別模型[J]. 圖學學報,2022,43(6):1124-1133.

      [20]Wang Z,Sun W,Zhu Q,et al. Face mask-wearing detection model based on loss function and attention mechanism[J]. Computational Intelligence and Neuroscience,2022,2022:2452291.

      [21]孫麗萍,譚少亨,周宏威,等. 基于YOLO v5的林業(yè)有害生物檢測與識別[J]. 森林工程,2022,38(5):104-109,120.

      [22]付思琴,邱 濤,王權順,等. 基于改進YOLO v4的焊接件表面缺陷檢測算法[J]. 包裝工程,2022,43(15):23-32.

      收 稿日期:2023-04-12

      基金項目:黑龍江省哈爾濱市應用技術研究與開發(fā)項目(留學回國創(chuàng)業(yè)人才A類)(編號:2017RALXJ011)。

      作者簡介:李 濱(1975—),男,黑龍江哈爾濱人,博士,副教授,研究方向為先進制造技術及裝備、智能農業(yè)技術及裝備。E-mail:630104635@qq.com。

      猜你喜歡
      害蟲損失卷積
      少問一句,損失千金
      基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
      蝸牛一覺能睡多久?
      好孩子畫報(2021年9期)2021-09-26 12:26:31
      胖胖損失了多少元
      冬季果樹常見蛀干害蟲的防治
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      基于傅里葉域卷積表示的目標跟蹤算法
      棗樹害蟲的無公害防治
      農業(yè)害蟲的冬季防治
      曲阜市| 涪陵区| 大同市| 靖安县| 镇远县| 富川| 河曲县| 汝阳县| 湛江市| 资讯 | 景泰县| 闽清县| 青阳县| 高安市| 东辽县| 木里| 渑池县| 榆中县| 红桥区| 清苑县| 洪洞县| 盈江县| 江都市| 西乡县| 漳平市| 曲阜市| 桑植县| 格尔木市| 莱阳市| 翁源县| 万宁市| 环江| 黑水县| 盐津县| 大方县| 广汉市| 嘉黎县| 宁明县| 宁波市| 黑水县| 晋州市|