• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于空洞卷積下采樣單元的輕量化害蟲圖像識別模型

      2024-12-31 00:00:00孔令旺趙剛
      江蘇農(nóng)業(yè)科學(xué) 2024年11期
      關(guān)鍵詞:輕量化深度學(xué)習(xí)

      摘要:近年來,隨著深度學(xué)習(xí)技術(shù)在計算機(jī)視覺領(lǐng)域的廣泛應(yīng)用,害蟲圖像識別成為農(nóng)業(yè)領(lǐng)域中一項重要任務(wù)。為了解決害蟲圖像識別中傳統(tǒng)深度學(xué)習(xí)模型對計算資源和存儲空間需求過高的問題,本研究提出一種基于空洞卷積下采樣單元的輕量化害蟲圖像識別模型。該模型采用輕量化網(wǎng)絡(luò)架構(gòu),并引入空洞卷積和下采樣技術(shù)來減小計算量和存儲空間。首先,采用MobileNet v2網(wǎng)絡(luò)來替代VGG16網(wǎng)絡(luò),以解決主干特征提取網(wǎng)絡(luò)參數(shù)量過大的問題;其次,設(shè)計空洞卷積下采樣單元對特征圖進(jìn)行降采樣,從而實現(xiàn)模型的多尺度識別;最后,引入空洞卷積更好地捕獲不同尺度的感受野。試驗結(jié)果表明,本研究模型對害蟲的識別準(zhǔn)確率比VGG16模型提高了1.47%;相較于現(xiàn)有深度學(xué)習(xí)模型,該模型在減小50%參數(shù)量的同時,依然能夠保持較高的識別準(zhǔn)確率和實時性能。期待本研究模型可以對農(nóng)業(yè)領(lǐng)域中害蟲的監(jiān)測與預(yù)警等提供一定的實際應(yīng)用價值。

      關(guān)鍵詞:空洞卷積下采樣單元;輕量化;害蟲圖像識別;多尺度識別;深度學(xué)習(xí)

      中圖分類號:TP391.41文獻(xiàn)標(biāo)志碼:A

      文章編號:1002-1302(2024)11-0189-08

      農(nóng)業(yè)是人類生活中不可或缺的一部分,同時也面臨著眾多的挑戰(zhàn),其中之一就是害蟲的威脅[1]。害蟲是指對農(nóng)作物、果樹、蔬菜等農(nóng)業(yè)植物造成損害的昆蟲、螨類、蠕蟲、軟體動物、鳥類等[2]。害蟲的存在對農(nóng)業(yè)生產(chǎn)造成了嚴(yán)重的經(jīng)濟(jì)和生態(tài)問題。首先,害蟲會直接損害農(nóng)作物,這些損害會導(dǎo)致葉片發(fā)黃、干枯、畸形甚至死亡,使植物無法正常生長和發(fā)育,從而影響農(nóng)作物的產(chǎn)量和質(zhì)量[3]。其次,害蟲還會傳播病原體和致病菌,引發(fā)病害的擴(kuò)散。害蟲在吸食農(nóng)作物汁液的過程中,可能帶來病原體并將其傳播到其他健康植物上,這些病原體會引發(fā)病害,導(dǎo)致農(nóng)作物受到更嚴(yán)重的損害[4]。害蟲也會導(dǎo)致農(nóng)作物對其他生物脅迫的敏感性增加,進(jìn)一步加劇農(nóng)作物病害的發(fā)生。

      隨著全球人口的不斷增長和農(nóng)業(yè)生產(chǎn)的持續(xù)發(fā)展,害蟲對農(nóng)作物的威脅日益嚴(yán)重。傳統(tǒng)的害蟲檢測和識別方法往往依賴于人工觀察和手動分類,不僅費時費力,而且很難實現(xiàn)在大規(guī)模農(nóng)田中高效率的害蟲監(jiān)測[5-7]。為了有效控制害蟲對農(nóng)作物的損害,基于計算機(jī)視覺、深度學(xué)習(xí)的害蟲圖像識別技術(shù)被提出和應(yīng)用[8]。新型技術(shù)可以幫助農(nóng)業(yè)生產(chǎn)者及時發(fā)現(xiàn)害蟲的存在,并采取相應(yīng)的防治措施,通過自動化和智能化的害蟲識別系統(tǒng),準(zhǔn)確、高效地監(jiān)測和管理害蟲的威脅,從而提高農(nóng)作物的產(chǎn)量和質(zhì)量[9]。

      戴久竣等提出了一種改進(jìn)的殘差網(wǎng)絡(luò),用于識別葡萄葉片病害;與ResNet50模型相比較,該模型對病害的識別準(zhǔn)確率提高了3.18百分點,達(dá)到了98.20%[10]。陳聰?shù)忍岢鲆环N名為REP-ResNet的改進(jìn)殘差網(wǎng)絡(luò)用于識別蘋果病害,與基準(zhǔn)網(wǎng)絡(luò)模型相比,REP-ResNet模型的識別準(zhǔn)確率提高了2.41百分點;相較于傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò),識別效果有顯著提升[11]。溫艷蘭等提出了一種利用遷移學(xué)習(xí)和改進(jìn)殘差網(wǎng)絡(luò)的蟲害圖像識別方法,通過對圖像進(jìn)行旋轉(zhuǎn)、翻轉(zhuǎn)、亮度變換等數(shù)據(jù)擴(kuò)充操作,使用遷移學(xué)習(xí)方法來訓(xùn)練模型的全部層,取得了99.77%的測試準(zhǔn)確率,為實現(xiàn)復(fù)雜背景下的蟲害識別提供了有價值的參考[12]。

      然而,傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)模型在害蟲圖像識別任務(wù)中通常具有較大的模型參數(shù)量,使得模型在資源受限的設(shè)備上無法高效運行。為了解決這一問題,本研究提出了一種基于空洞卷積下采樣單元的輕量化害蟲圖像識別模型。該模型旨在減輕模型的參數(shù)量和計算復(fù)雜度,同時保持較高的識別精度;通過使用輕量化網(wǎng)絡(luò)架構(gòu)和引入空洞卷積下采樣技術(shù),提高模型的計算效率和實用性。首先,采用MobileNet v2網(wǎng)絡(luò)來替代VGG16網(wǎng)絡(luò)作為主干特征提取網(wǎng)絡(luò)。MobileNet v2網(wǎng)絡(luò)在保持較高識別精度的同時,大大減少網(wǎng)絡(luò)參數(shù)量,使得模型更加輕量化。這樣一來,害蟲圖像識別模型在資源受限的環(huán)境中也能高效運行。其次,設(shè)計空洞卷積下采樣單元,對特征圖進(jìn)行降采樣。通過不同的空洞率和下采樣因子的組合,實現(xiàn)模型的多尺度檢測,并且能夠更好地捕獲不同尺度的感受野。這樣的設(shè)計可以提高模型對害蟲圖像中細(xì)微特征的捕捉能力,從而提高識別準(zhǔn)確度。最后,在害蟲圖像數(shù)據(jù)集上進(jìn)行驗證。驗證結(jié)果表明,本研究提出的模型在害蟲識別準(zhǔn)確率方面實現(xiàn)1.47%的提升。與現(xiàn)有深度學(xué)習(xí)模型相比,本研究提出的模型在大幅度減小參數(shù)量的同時,依然能夠保持較高的識別準(zhǔn)確率和實時性能,這對于實際應(yīng)用中的資源受限環(huán)境具有重要意義,農(nóng)業(yè)生產(chǎn)者能夠借此更及時地采取措施對抗害蟲,從而提高作物產(chǎn)量和質(zhì)量,最終實現(xiàn)農(nóng)業(yè)的可持續(xù)發(fā)展。

      1 試驗數(shù)據(jù)

      1.1 圖像數(shù)據(jù)

      獲取大規(guī)模、準(zhǔn)確的農(nóng)業(yè)害蟲圖像數(shù)據(jù)是進(jìn)行害蟲圖像識別的關(guān)鍵步驟之一。本研究直接采集害蟲的圖像,選擇德國IDS工業(yè)相機(jī)(型號:JAI Spark SP-5000C-GE)作為圖像采集設(shè)備,該相機(jī)具有2 056像素×1 542像素的分辨率,支持GigE接口,適用于高質(zhì)量圖像的傳輸。采集圖像包括害蟲在農(nóng)田、果園、溫室等農(nóng)作物生長環(huán)境下的樣本圖像1 500幅、無成蟲的圖像1 500幅,共計3 000幅清晰彩色圖像,作為本研究的原始數(shù)據(jù)集。圖1為所采集樣本的部分示例。

      1.2 圖像數(shù)據(jù)

      預(yù)處理、數(shù)據(jù)增強(qiáng)是在使用農(nóng)業(yè)害蟲圖像數(shù)據(jù)進(jìn)行訓(xùn)練和建模之前的重要步驟,有助于提高數(shù)據(jù)的質(zhì)量,減少噪聲,增加數(shù)據(jù)的多樣性,并增強(qiáng)模型的泛化能力。農(nóng)業(yè)害蟲圖像數(shù)據(jù)預(yù)處理、數(shù)據(jù)增強(qiáng)的方法和步驟如下。

      第1步,圖像質(zhì)量校正。首先,需要對采集到的農(nóng)業(yè)害蟲圖像進(jìn)行質(zhì)量校正。這包括校正圖像的亮度、對比度、色彩平衡、銳度,以確保圖像的清晰度和標(biāo)準(zhǔn)化。本研究采用直方圖均衡化、自適應(yīng)直方圖均衡化、色彩空間轉(zhuǎn)換等技術(shù)。

      第2步,圖像尺寸調(diào)整。為了使數(shù)據(jù)具有統(tǒng)一的尺寸,可以將農(nóng)業(yè)害蟲圖像調(diào)整為相同的大小。通常情況下,將圖像調(diào)整為固定的尺寸,本研究設(shè)置為300×300,便于輸入模型進(jìn)行訓(xùn)練和評估。

      第3步,數(shù)據(jù)標(biāo)注和標(biāo)簽。對于使用監(jiān)督學(xué)習(xí)方法的害蟲圖像識別任務(wù),需要對圖像進(jìn)行標(biāo)注和打上相應(yīng)的標(biāo)簽。標(biāo)注過程包括確定圖像中害蟲位置的邊界框或像素級別。這樣可以使得模型能夠準(zhǔn)確學(xué)習(xí)害蟲的特征和形狀。

      第4步,數(shù)據(jù)增強(qiáng)。本研究采用的數(shù)據(jù)增強(qiáng)方法包括圖像翻轉(zhuǎn)、旋轉(zhuǎn)、縮放、裁剪、平移、仿射變換、色彩變換等。這些操作可以增加數(shù)據(jù)的多樣性,使模型更具泛化能力,并提高模型對于不同姿態(tài)、光照、尺度等因素的魯棒性。

      2 害蟲圖像識別模型設(shè)計

      2.1 MobileNet v2

      MobileNet v2是一種輕量級的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),特別設(shè)計用于移動設(shè)備和嵌入式系統(tǒng)上進(jìn)行實時圖像識別和分類任務(wù)[13-14]。它是MobileNet系列的第2代網(wǎng)絡(luò),相比于前代,MobileNet v2在保持高性能的同時,進(jìn)一步縮小了模型體積和計算量。MobileNet v2的核心思想是通過使用深度可分離卷積和線性瓶頸結(jié)構(gòu)來提高模型的效率。這些結(jié)構(gòu)使得網(wǎng)絡(luò)在減少參數(shù)和計算量的同時,仍能保持較高的準(zhǔn)確性和推理速度[15]。

      深度可分離卷積由2個主要步驟組成:深度卷積、逐點卷積[16]。給定輸入特征圖M×N×C,使用大小為K×K×C的卷積核,其中C是輸入通道數(shù)。深度卷積的輸出為M×N×C的特征圖,可以用公式(1)表示:

      O(i,j,c)=sum[I(i+s,j+r,c)×df(s,r)]。" (1)

      其中:O(i,j,c)表示深度可分離卷積的輸出特征圖中位置為(i,j)、通道為c的像素值;I(i+s,j+r,c)表示輸入特征圖中位置為(i+s,j+r)、通道為c的像素值;s、r是深度卷積的卷積核在輸入特征圖上滑動的步長;df表示深度卷積。

      深度卷積的輸出特征圖通過逐點卷積來進(jìn)行通道的變換。它使用1×1×C的卷積核對每個位置進(jìn)行卷積,將通道數(shù)C轉(zhuǎn)換為新的通道數(shù)D。逐點卷積的輸出可以用公式(2)表示:

      O(i,j,d)=sum[O(i,j,c)×pf(d,c)]。" (2)

      其中:O(i,j,d)表示線性瓶頸的輸出特征圖中位置為(i,j)、通道為d的像素值;O(i,j,c)表示線性瓶頸的輸入特征圖中位置為(i,j)、通道為c的像素值;s、r是深度卷積的卷積核在輸入特征圖上滑動的步長;pf表示逐點卷積的卷積核參數(shù)。

      MobileNet v2通過堆疊多個線性瓶頸模塊來構(gòu)建網(wǎng)絡(luò),每個模塊包含1個擴(kuò)張卷積、1個線性瓶頸、1個跳躍連接,稱為逆殘差塊結(jié)構(gòu)。詳細(xì)架構(gòu)如圖2所示。

      2.2 下采樣單元

      卷積神經(jīng)網(wǎng)絡(luò)采用分層采樣的方法對物體進(jìn)行特征提取,其中的核心思想是“感受野”。感受野指的是在特征圖上每個像素所能觀察到的局部區(qū)域范圍[17]。若感受野過小,網(wǎng)絡(luò)只能看到局部的信息,可能會導(dǎo)致丟失重要的上下文信息;然而,若感受野過大,會引入大量無用的信息。因此,設(shè)計多尺度網(wǎng)絡(luò)架構(gòu)來捕獲不同大小的感受野,對有效特征提取至關(guān)重要。為了實現(xiàn)多尺度的特征檢測,本研究新設(shè)計下采樣塊。常規(guī)方法是簡單地堆疊步長為2的卷積層或池化層來實現(xiàn)特征圖的下采樣。與常規(guī)方法不同,本研究采用空洞卷積的設(shè)計,以更好地實現(xiàn)下采樣單元的效果??斩淳矸e通過在卷積核內(nèi)部插入間隔的零值來擴(kuò)大感受野,并引入更大的上下文信息,這種設(shè)計能夠有效增加特征圖的有效感受野,更好地捕獲圖像中的細(xì)節(jié)和全局上下文信息[18]。下采樣單元的模塊結(jié)構(gòu)如圖3所示。

      在主干特征提取網(wǎng)絡(luò)中,本研究借鑒了ConvNeXt網(wǎng)絡(luò)[19]的思想。根據(jù)該網(wǎng)絡(luò)的啟示,過多的非線性映射會妨礙網(wǎng)絡(luò)特征的學(xué)習(xí),而且頻繁使用批歸一化會對網(wǎng)絡(luò)性能產(chǎn)生負(fù)面影響。因此,在空洞卷積下采樣單元的設(shè)計中,減少了批歸一化和激活函數(shù)的使用。

      具體而言,首先使用1×1的卷積來減少輸入特征的維度,以降低模型的參數(shù)量。然后,通過批歸一化操作,將特征值置于標(biāo)準(zhǔn)正態(tài)分布中,使得特征值處于激活函數(shù)的敏感范圍內(nèi),以更好地進(jìn)行特征激活。接下來,使用了1個尺寸為3×3、步長為2的空洞卷積對特征進(jìn)行提取和降采樣。這樣可以有效捕捉多尺度信息,并減少特征圖的尺寸。最后,使用1個尺寸為1×1的卷積來調(diào)整特征的維度。以上步驟可以用公式(3)來表示,描述了下采樣單元對輸入特征的處理過程。

      Fo=Conv(ReLU(Dc(BN(Comv(Fi)))))" (3)

      其中:Fi、Fo分別為下采樣單元的輸入特征、輸出特征;Dc表示空洞卷積。

      2.3 空洞卷積下采樣單元的輕量化模型

      為了減少目標(biāo)檢測模型的計算成本和參數(shù)量,并確保模型能夠在資源受限的移動設(shè)備或嵌入式設(shè)備上正常工作,考慮到SSD模型中主干特征提取網(wǎng)絡(luò)VGG16的較大參數(shù)量,采取了一些優(yōu)化措施[20]。首先,使用MobileNet v2網(wǎng)絡(luò)替代VGG16網(wǎng)絡(luò),以實現(xiàn)對參數(shù)量的較大壓縮;這樣可以降低模型的計算成本,并適應(yīng)資源受限的設(shè)備。其次,在輔助網(wǎng)絡(luò)的下采樣部分重新設(shè)計降采樣過程;不同于使用簡單的堆疊方式進(jìn)行降采樣,引入空洞卷積作為基本結(jié)構(gòu)構(gòu)建下采樣單元。通過使用空洞卷積,更好地捕獲不同尺度的感受野,并保留模型的特征提取能力。這樣能夠在提高物體檢測精度和速度的同時,減少模型的參數(shù)量。本研究模型框架如圖4所示。通過以上優(yōu)化措施,能夠明顯減少計算成本和模型參數(shù)量,同時保持較高的害蟲圖像識別精度和速度。

      通過主干網(wǎng)絡(luò)和下采樣單元提取的特征,輸入圖片經(jīng)過處理后,使用卷積層對6種不同尺度的特征進(jìn)行初步預(yù)測與識別。然后,通過應(yīng)用非極大值抑制算法對初步預(yù)測結(jié)果進(jìn)行篩選,最終輸出預(yù)測框的位置和物體的類別。空洞卷積下采樣單元的輕量化網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)如表1所示,可以看出,本研究模型主要由逆殘差結(jié)構(gòu)的瓶頸塊和空洞卷積下采樣單元的堆疊組成。

      本研究模型采用的損失函數(shù)是物體置信度損失和物體位置回歸損失的加權(quán)和,具體表示見公式(4)。

      其中:損失函數(shù)由物體置信度損失Lc和物體位置回歸損失Ll加權(quán)和組成;N表示匹配的默認(rèn)框數(shù)量;x表示默認(rèn)框與不同類別物體真實框的匹配情況,取值為0或1;α表示置信度損失與位置回歸損失的權(quán)重系數(shù),默認(rèn)情況下α取值為1,即物體置信度損失與位置回歸損失的重要程度相同;l表示候選框?qū)?yīng)邊界框的位置坐標(biāo)預(yù)測值;g表示真實框的位置坐標(biāo)參數(shù)。采用公式(5)計算置信度損失。

      其中:p為類別標(biāo)號;xPij表示第i個預(yù)測框與第j個真實框關(guān)于類別p的匹配情況;N為默認(rèn)框的數(shù)量,用于識別目標(biāo)物體;cpi表示第i個默認(rèn)框在類別p上的置信度得分;cNi表示第i個默認(rèn)框在背景類別上的置信度得分。位置回歸損失的計算見公式(6)。

      其中:N表示默認(rèn)框的數(shù)量,用于識別目標(biāo)物體;P表示正樣本集合,指匹配到真實框的默認(rèn)框;xkij表示第i個預(yù)測框與第j個真實框關(guān)于類別k的匹配情況;m是框的位置坐標(biāo)集合;{cx,cy,w,h}表示默認(rèn)邊界框d的中心偏移量和寬高偏移量的集合;SmoothLl表示平滑函數(shù),用于減小邊界框預(yù)測誤差的影響;lmi表示第i個默認(rèn)框的位置坐標(biāo)集合中第m個元素(中心偏移量或?qū)捀咂屏浚┑念A(yù)測值;gmj表示類別j的物體真實框的位置坐標(biāo)集合中第m個元素(中心偏移量或?qū)捀咂屏浚┑恼鎸嵵?。默認(rèn)邊界框的中心偏移量和寬高偏移量的計算方法如公式(7)、公式(8)所示。

      式中:gx、gy分別表示真實框的中心坐標(biāo);dx、dy表示默認(rèn)邊界框的中心坐標(biāo);dw、dh表示默認(rèn)邊界框的寬度、高度;gw、gh分別表示真實框的寬度、高度。

      3 試驗分析

      3.1 試驗設(shè)置

      處理器采用Intel Core i7-8750,操作系統(tǒng)為Windows 10 (64位)。顯卡為NVIDIA GeForce RTX 3060,配置8 GB顯存。在訓(xùn)練環(huán)境中,使用Anaconda3創(chuàng)建并配置了Python 3.7.10版本,使用開源深度學(xué)習(xí)框架PyTorch 1.7.1版本。訓(xùn)練過程分為2個階段,具體訓(xùn)練設(shè)置和參數(shù)見表2。

      3.2 不同模型的識別性能

      為驗證本研究模型的有效性,與ResNet50、ResNet101、VGG16、AlexNet、MobileNet v2模型進(jìn)行對比[21]。訓(xùn)練過程中共進(jìn)行50輪訓(xùn)練,并且采用相同的訓(xùn)練方法(學(xué)習(xí)率設(shè)置為0.001)。圖5為不同模型在訓(xùn)練集和驗證集上的準(zhǔn)確率變化,表3從數(shù)值上展示不同模型的識別準(zhǔn)確率對比??梢钥闯觯狙芯磕P捅憩F(xiàn)出最高的識別準(zhǔn)確率,達(dá)到96.2%,與VGG16模型相比提高了1.47%。這一結(jié)果主要是因為本模型充分利用了空洞卷積、下采樣單元的特性,并經(jīng)過優(yōu)化設(shè)計來提取害蟲圖像的關(guān)鍵特征,從而獲得更精確的分類結(jié)果??斩淳矸e操作可以在不增加參數(shù)數(shù)量的情況下增強(qiáng)模型的感知能力,提取更豐富的特征。因此,模型在訓(xùn)練過程中能夠更好地捕捉害蟲圖像的細(xì)節(jié)信息,有助于提高準(zhǔn)確率。下采樣操作有助于提取圖像的全局特征,捕獲害蟲圖像的整體形狀和結(jié)構(gòu)信息。通過合理設(shè)計和使用下采樣單元,模型能夠更好地學(xué)習(xí)害蟲圖像的特征表示,從而提高準(zhǔn)確率。

      3.3 不同學(xué)習(xí)率對模型性能的影響分析

      對于原始數(shù)據(jù)集,本研究使用了4種不同的學(xué)習(xí)率對模型進(jìn)行訓(xùn)練。表4展示了識別準(zhǔn)確率的情況,而圖6展示了訓(xùn)練集的收斂性曲線。由表4可知,本研究模型在測試集上的平均識別準(zhǔn)確率均達(dá)到95%以上,并且都具有較好的魯棒性。由圖6可知,學(xué)習(xí)率為0.000 3時,訓(xùn)練集、測試集的準(zhǔn)確率能夠穩(wěn)定地維持在較高水平;而學(xué)習(xí)率為0.000 1、0.000 2、0.000 4的模型雖然在訓(xùn)練集上也能夠獲得較高的準(zhǔn)確度,但存在一定的波動,模型的穩(wěn)定性相對較差。綜上,學(xué)習(xí)率為0.000 3時,模型展現(xiàn)出最佳的識別效果。

      3.4 不同批次大小對模型性能的影響分析

      由上述分析可知,當(dāng)學(xué)習(xí)率為0.000 3時,模型表現(xiàn)出最佳識別效果,訓(xùn)練集準(zhǔn)確率均達(dá)到95%以上。在此基礎(chǔ)上,如果對批次大小進(jìn)行對比試驗,試驗結(jié)果并沒有明顯的差別。因此,在學(xué)習(xí)率為0000 3的情況下,采用4種不同批次大小對模型進(jìn)行訓(xùn)練。由圖7可知,隨著批次大小的增加,模型的識別準(zhǔn)確率呈現(xiàn)正態(tài)分布的趨勢。因此,選擇過大或過小的批次大小,都會導(dǎo)致模型的泛化能力降低。

      3.5 輕量化設(shè)計的分析

      由圖8可知,本研究模型在最少的參數(shù)量條件下即可達(dá)到95%以上的識別準(zhǔn)確率,模型在提高計算效率和輕量化程度的同時,在害蟲圖像識別任務(wù)中仍能保持良好的準(zhǔn)確性。針對害蟲圖像識別任務(wù),本研究的輕量化模型經(jīng)過優(yōu)化設(shè)計,去除了冗余的參數(shù)和層,減輕了計算復(fù)雜度;相比傳統(tǒng)卷積模型,在卷積層的設(shè)計上使用空洞卷積和下采樣單元,可以明顯減少參數(shù)量。空洞卷積可以減少卷積核的數(shù)量,同時保持感受野的有效性;下采樣單元能夠縮小特征圖的尺寸, 減少后續(xù)層需要處理的參數(shù)量。綜上所述,總體的模型參數(shù)規(guī)模就會減少。

      4 結(jié)論

      為了解決害蟲圖像識別中傳統(tǒng)深度學(xué)習(xí)模型對計算資源和存儲空間需求過高的問題,本研究提出基于空洞卷積下采樣單元的輕量化害蟲圖像識別模型。采用輕量化網(wǎng)絡(luò)架構(gòu)(即MobileNet v2)作為骨干網(wǎng)絡(luò),代替使用參數(shù)量較大的VGG16模型;進(jìn)一步設(shè)計基于空洞卷積的下采樣單元,對特征圖進(jìn)行降采樣,以便于捕獲不同尺度的感受野,提升模型的識別能力。驗證結(jié)果表明,本研究模型能夠在壓縮模型參數(shù)數(shù)量的同時,達(dá)到理想的識別準(zhǔn)確率。具體來說,與使用VGG16模型相比,在識別精度未損失的條件下,該模型減少了50%的模型參數(shù);同時識別準(zhǔn)確率提升1.47%。本研究模型有效地平衡了資源占用和識別準(zhǔn)確率之間的矛盾,為解決害蟲圖像識別問題提供了一個輕量級的高效解決方案。

      參考文獻(xiàn):

      [1]蕭玉濤,吳 超,吳孔明. 中國農(nóng)業(yè)害蟲防治科技70年的成就與展望[J]. 應(yīng)用昆蟲學(xué)報,2019,56(6):1115-1124.

      [2]呂楠楠,梁 沛,高希武. 主要農(nóng)業(yè)害蟲對茚蟲威的抗性現(xiàn)狀及其治理策略[J]. 植物保護(hù)學(xué)報,2020,47(6):1188-1201.

      [3]桑 文,高 俏,張長禹,等. 我國農(nóng)業(yè)害蟲物理防治研究與應(yīng)用進(jìn)展[J]. 植物保護(hù)學(xué)報,2022,49(1):173-183.

      [4]趙紫華,馬建華,高 峰,等. 害蟲種群區(qū)域性生態(tài)調(diào)控的系統(tǒng)策略[J]. 中國生物防治學(xué)報,2021,37(5):855-862.

      [5]張亞軍. 基于改進(jìn)支持向量機(jī)算法的農(nóng)業(yè)害蟲圖像識別研究[J]. 中國農(nóng)機(jī)化學(xué)報,2021,42(2):146-152.

      [6]李 萍,劉 裕,師曉麗,等. 基于多尺度殘差空間注意力輕量化U-Net的農(nóng)業(yè)害蟲檢測方法[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(3):187-196.

      [7]蔣心璐,陳天恩,王 聰,等. 農(nóng)業(yè)害蟲檢測的深度學(xué)習(xí)算法綜述[J]. 計算機(jī)工程與應(yīng)用,2023,59(6):30-44.

      [8]張永玲,姜夢洲,俞佩仕,等. 基于多特征融合和稀疏表示的農(nóng)業(yè)害蟲圖像識別方法[J]. 中國農(nóng)業(yè)科學(xué),2018,51(11):2084-2093.

      [9]姚 青,姚 波,呂 軍,等. 基于雙線性注意力網(wǎng)絡(luò)的農(nóng)業(yè)燈誘害蟲細(xì)粒度圖像識別研究[J]. 中國農(nóng)業(yè)科學(xué),2021,54(21):4562-4572.

      [10]戴久竣,馬肄恒,吳 堅,等. 基于改進(jìn)殘差網(wǎng)絡(luò)的葡萄葉片病害識別[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(5):208-215.

      [11]陳 聰,于 嘯,宮 琪. 基于改進(jìn)殘差網(wǎng)絡(luò)的蘋果葉片病害識別研究[J]. 河南農(nóng)業(yè)科學(xué),2023,52(4):152-161.

      [12]溫艷蘭,陳友鵬,王克強(qiáng),等. 基于遷移學(xué)習(xí)和改進(jìn)殘差網(wǎng)絡(luò)的復(fù)雜背景下害蟲圖像識別[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(8):171-177.

      [13]Li X P,Du J Z,Yang J L,et al. When Mobilenet v2 meets transformer:a balanced sheep face recognition model[J]. Agriculture,2022,12(8):1126.

      [14]王哲豪,范麗麗,何 前. 基于MobileNet v2和遷移學(xué)習(xí)的番茄病害識別[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(9):215-221.

      [15]Liu J,Wang X W. Early recognition of tomato gray leaf spot disease based on MobileNet v2-YOLO v3 model[J]. Plant Methods,2020,16:83.

      [16]Sunnetci K M,Kaba E,Beyazal eliker F,et al. Comparative parotid gland segmentation by using ResNet-18 and MobileNet v2 based DeepLab v3+ architectures from magnetic resonance images[J]. Concurrency and Computation:Practice and Experience,2023,35(1):e7405.

      [17]MrA,Reiche J,Verbesselt J,et al. A downsampling method addressing the modifiable areal unit problem in remote sensing[J]. Remote Sensing,2022,14(21):5538.

      [18]孟志青,張 晶,邱健數(shù). 多監(jiān)督損失函數(shù)光滑化圖像超分辨率重建[J]. 中國圖象圖形學(xué)報,2022,27(10):2972-2983.

      [19]Fan S J,Liang W,Ding D R,et al. LACN:a lightweight attention-guided ConvNeXt network for low-light image enhancement[J]. Engineering Applications of Artificial Intelligence,2023,117:105632.

      [20]張立杰,周舒驊,李 娜,等. 基于改進(jìn)SSD卷積神經(jīng)網(wǎng)絡(luò)的蘋果定位與分級方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報,2023,54(6):223-232.

      [21]Hu K,Jin J L,Zheng F,et al. Overview of behavior recognition based on deep learning[J]. Artificial Intelligence Review,2023,56(3):1833-1865.

      猜你喜歡
      輕量化深度學(xué)習(xí)
      汽車輕量化集成制造專題主編
      四點接觸球轉(zhuǎn)盤軸承的輕量化材料應(yīng)用
      哈爾濱軸承(2020年4期)2020-03-17 08:13:52
      一種輕量化自卸半掛車結(jié)構(gòu)設(shè)計
      智富時代(2019年2期)2019-04-18 07:44:42
      425輕量化橋軸承座工藝改進(jìn)
      有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
      電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
      MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      梓潼县| 蒙城县| 察雅县| 绵竹市| 蒲江县| 绩溪县| 广平县| 北碚区| 定陶县| 芦山县| 西林县| 庆阳市| 康定县| 大同县| 铜梁县| 集安市| 凉山| 洞口县| 临安市| 清新县| 密云县| 青田县| 陆河县| 衡水市| 汝城县| 滦南县| 通化市| 长泰县| 永德县| 安远县| 博客| 宝山区| 沾益县| 扎赉特旗| 鞍山市| 九龙坡区| 富锦市| 陵川县| 班戈县| 许昌市| 姜堰市|