摘要:傳統(tǒng)圖像處理技術(shù)依靠人工提取特征,費時費力且難以提取到準(zhǔn)確的特征。為準(zhǔn)確實現(xiàn)對甘薯發(fā)芽、霉腐、損傷和正常品質(zhì)的分類,提出一種改進的MobileNetV3—Small(M3S)分類方法。使用高效通道注意力(ECA)模塊替換M3S中的壓縮激勵(SE)模塊,構(gòu)建ECA—M3S模型結(jié)構(gòu);基于遷移學(xué)習(xí)訓(xùn)練模型,并對比不同學(xué)習(xí)率組合的訓(xùn)練效果;測試甘薯品質(zhì)分類模型的性能,同時和多種模型進行對比,并使用Flask設(shè)計網(wǎng)頁界面展示測試結(jié)果。結(jié)果表明,初始學(xué)習(xí)率為0.01,學(xué)習(xí)率衰減速率為0.5時,模型整體性能最優(yōu),驗證準(zhǔn)確率為92.82%,訓(xùn)練損失為0.049 2;和其他10種不同復(fù)雜度的模型進行對比,該模型對4類甘薯品質(zhì)的召回率均高于90%,測試平均準(zhǔn)確率為92.43%,僅比最高的模型低0.79%,比未改進的M3S高3.59%,且模型尺寸僅為4.18 MB,僅比尺寸最小的SqueezeNet模型大1.34 MB。
關(guān)鍵詞:甘薯;外部品質(zhì);MobileNetV3—Small;高效通道注意力;遷移學(xué)習(xí)
中圖分類號:S531; TP391.4" " " 文獻標(biāo)識碼:A" " " 文章編號:2095?5553 (2025) 04?0211?07
External quality classification method of sweet potato based on improved MobileNetV3—Small
Ma Ruijun, Ding Shichun, Chen Yu
(College of Engineering, South China Agricultural University, Guangzhou, 510642, China)
Abstract: Traditional image processing technology relies on manual feature extraction, which is time?consuming, labor?intensive and difficult to extract accurate features. In order to accurately realize the classification of sweet potato germination, mildew, damage and normal quality, an improved MobileNetV3—Small (M3S) online classification method is proposed. The efficient channel attention (ECA) module was used to replace the squeeze and excitation (SE) module in M3S, the ECA—M3S model structure was constructed. The model was trained based on transfer learning, and the training effects of different learning rate combinations were compared. The performance of the trained sweet potato quality classification model was tested and compared with a variety of models, and the web interface was designed by Flask to display the test results. The results show that the overall performance of the model is the best when the initial learning rate is 0.01 and the learning rate attenuation rate is 0.5, the verification accuracy is 92.82%, and the training loss is 0.049 2. Compared with 10 other models of different complexity, the recall rate of the four types of sweet potato quality was higher than 90%, the average test accuracy was 92.43%, only 0.79% lower than the highest, 3.59% higher than the unimproved M3S, and the model size was only 4.18 MB, only 1.34 MB larger than the smallest SqueezeNet model.
Keywords: sweet potato; external quality; MobileNetV3—Small; efficient channel attention; transfer learning
0 引言
中國是世界上最大的甘薯生產(chǎn)國,甘薯外部品質(zhì)的好壞會直接影響其銷售和深加工[1]。目前,甘薯外部品質(zhì)分類仍以人工和傳統(tǒng)機械設(shè)備為主,雖可實現(xiàn)大小、形狀等品質(zhì)的分類,但仍難以避免主觀性強、效率低、成本高和易造成二次損傷等缺點。而機器視覺技術(shù)具有高效、準(zhǔn)確、非接觸和人工干預(yù)較少等優(yōu)勢,在甘薯外部品質(zhì)分類方面具有較高的應(yīng)用價值。
國內(nèi)外眾多研究者已將機器視覺技術(shù)應(yīng)用到薯類品質(zhì)分類中[2, 3],但傳統(tǒng)圖像處理方法由人工提取特征,難以準(zhǔn)確提取出滿足要求的特征,且輕微改變光源強度或角度就會導(dǎo)致分類條件的改變,通常只適合在特定條件下使用,很難滿足實際需求。而卷積神經(jīng)網(wǎng)絡(luò)(CNN)直接將圖像作為輸入,無需人工對圖像進行預(yù)處理和額外特征抽取等復(fù)雜操作,其特有的提取方式還可提取更豐富和更深層次的特征,因而受到廣泛研究和應(yīng)用[4]。有研究者將CNN用于馬鈴薯疾病分類,對灰霉、病斑等分類效果良好[5]。Wang等[6]基于遷移學(xué)習(xí)對正常、損傷和發(fā)芽馬鈴薯進行分類,以效果較好的RFCN ResNet101進行額外測試,使用不同批次樣本、不同檢測區(qū)域和不同光照強度時均有較高的準(zhǔn)確率,表明該模型具有較強的泛化能力。
雖然CNN支持自動提取特征,但從傳統(tǒng)的LeNet[7]、AlexNet模型[8]發(fā)展到在分類任務(wù)中取得較好效果的VGG[9]、ResNet[10]等模型,主要通過卷積堆積的方式來加深網(wǎng)絡(luò)深度,從而提取出更豐富的特征信息。但隨著網(wǎng)絡(luò)的加深,模型參數(shù)量和計算量劇增,導(dǎo)致模型訓(xùn)練困難,也對設(shè)備的存儲和計算性能提出更高的要求,這些缺點使傳統(tǒng)深度CNN很難部署到存儲和計算能力有限的嵌入式設(shè)備。但隨著CNN輕量化[11],合適的大小和計算量使其在嵌入式,甚至是移動端的應(yīng)用更加可行。楊森等[12]提出一種基于Xception模型的馬鈴薯分類方法,通過遷移學(xué)習(xí)訓(xùn)練馬鈴薯數(shù)據(jù)集,模型平均分類準(zhǔn)確率為96.04%,處理速度為6.4幅/s,是ResNet152模型的3.76倍,模型大小為89.6 MB,遠(yuǎn)小于ResNet152的257.8 MB。
此外,將CNN與視覺注意力機制結(jié)合,能夠在不明顯加深網(wǎng)絡(luò)層數(shù)的情況下提升模型性能[13]。彭紅星等[14]在ShuffleNetV2中引入多尺度特征融合模塊,以加強對不同尺度害蟲的特征提取能力,并將改進的自適應(yīng)高效通道注意力嵌入ShuffleNetV2,提高模型的跨通道交互能力。改進后的模型平均準(zhǔn)確率和F1分?jǐn)?shù)分別提高4.0%、3.09%,且參數(shù)量和浮點運算量分別下降30.6%、18.6%,處理單張害蟲圖像的平均時間為11.9 ms,相比ResNet50、GoogleNet等大幅減少,模型更加輕量化,推理速度更快。Woo等[15]提出了卷積塊注意力模塊,可自適應(yīng)調(diào)整輸入特征的通道和空間信息,從而提取出更有意義的深層特征,F(xiàn)aster R—CNN的特征提取網(wǎng)絡(luò)ResNet50加入卷積塊注意力模塊后,在MSCOCO數(shù)據(jù)集上平均精度提高2.0%。
針對甘薯外部品質(zhì),本文利用改進的M3S模型自動提取甘薯外部品質(zhì)信息,通過遷移學(xué)習(xí)的方法訓(xùn)練分類模型,以期完成甘薯外部品質(zhì)的準(zhǔn)確分類。
1 材料和方法
1.1 試驗材料和裝置
試驗用的甘薯購買于廣州市某蔬菜批發(fā)市場,品種為西瓜紅。選擇較常見的發(fā)芽、損傷、霉腐和正常4個類別甘薯進行檢測,分類標(biāo)準(zhǔn):(1)損傷甘薯:表面有大面積破皮或者機械損傷的甘薯;(2)發(fā)芽甘薯:具有不同長度和形狀芽體的甘薯;(3)霉腐甘薯:存在霉菌、腐爛和干腐中的一種或幾種的甘薯;(4)正常甘薯:表面沒有損傷、發(fā)芽和霉腐,僅有輕微破皮或沒有破皮的甘薯。
甘薯圖像采集系統(tǒng)如圖1所示。部分甘薯樣本如圖2所示。為減少外界噪聲的干擾,將采集系統(tǒng)設(shè)計為封閉燈箱,光源采用4根LED燈條,每根LED燈長31 cm,功率為12 W,以首尾相連的形式安裝在箱體頂部。燈箱底部為甘薯圖像采集區(qū)域,在圖像采集區(qū)域的正上方45 cm處安裝型號為MER-132-43U3C的USB3.0數(shù)字相機,分辨率為1 292像素×964像素,相機裝配焦距為4~12 mm的變焦鏡頭,拍攝角度垂直于圖像采集平面。采集圖像時開啟相機自動白平衡,調(diào)節(jié)變焦鏡頭焦距和光圈以得到完整、清晰的圖像。由于甘薯形狀多為長筒形、紡錘形、卵形和球形,所以將甘薯最大長度方向的視圖作為研究視圖。在甘薯實際分類中,甘薯完整的表面信息可通過安裝多個攝像頭從多角度獲取,或者通過輸送機構(gòu)使甘薯翻轉(zhuǎn),以多次拍攝的方式獲取,本研究對此不作深入討論。
共采集4類甘薯圖像1 255幅,其中發(fā)芽445幅,霉腐200幅,損傷325幅,正常285幅。分別從每種品質(zhì)類別樣本中隨機選取60%作為訓(xùn)練集,20%作為驗證集,20%作為測試集。
1.2 模型和試驗平臺
1.2.1 MobileNetV3模型和ECA模塊
MobileNetV3[16]保留MobileNetV1模型中的深度可分離卷積,使模型的參數(shù)量和計算量保持在一個較低的水平,也保留MobileNetV2中具有線性瓶頸的殘差結(jié)構(gòu),此外還引入SE注意力模塊[17],并使用Hard Swish激活函數(shù)代替Swish,提高模型性能的同時減少計算量,是一種性能優(yōu)越的輕量化卷積神經(jīng)網(wǎng)絡(luò),可分為MobileNetV3—Small(M3S)和MobileNetV3—Large。
M3S模型結(jié)構(gòu)如表1所示,主要由bneck結(jié)構(gòu)堆疊而成。bneck結(jié)構(gòu)如圖3所示,首先,對輸入特征進行1×1卷積升維,并進行批歸一化和激活;然后,使用3×3卷積核進行逐通道卷積,并進行激活;接著,將特征輸入SE模塊,SE模塊先進行全局平均池化;再經(jīng)過兩個全連接層激活,提取注意力,并將注意力和輸入SE模塊的特征相乘;最后,使用1×1卷積降維,將初始輸入和最終輸出相加。
SE模塊中兩個全連接層的設(shè)計可捕捉非線性的跨通道交互,還使用降維操作來控制模型的復(fù)雜性,但降維同時也對通道注意的預(yù)測產(chǎn)生副作用,且捕獲所有通道之間的依賴是低效的,也是不必要的。在SE模塊的基礎(chǔ)上,Wang等[18]提出了ECA模塊,其結(jié)構(gòu)如圖4所示。ECA將SE中的全連接層更改為1×1卷積,在學(xué)習(xí)通道注意力信息時,避免了縮減通道維度,且降低了參數(shù)量。
1.2.2 訓(xùn)練平臺
硬件配置包括Intel(R) Core i5-10400F中央處理器,主頻2.90 GHz,GPU采用NVIDIA GeForce GTX 1650,顯存4 GB。軟件配置包括Windows10操作系統(tǒng)、Pytorch1.12框架、Python3.8、MobileNetV3—Small。
1.2.3 模型構(gòu)建及訓(xùn)練
模型訓(xùn)練時,若隨機初始化所有參數(shù)進行訓(xùn)練,需要大量圖像才能收斂,而本研究的甘薯圖像數(shù)量相對較少。為得到最佳分類效果,使用經(jīng)過ImageNet數(shù)據(jù)集訓(xùn)練后的權(quán)重,通過遷移學(xué)習(xí)的方式訓(xùn)練分類模型,從而縮短訓(xùn)練時間,提高模型泛化能力。模型的構(gòu)建和訓(xùn)練具體流程:(1)使用ECA模塊替換M3S模型中的SE模塊,并將M3S的全連接層輸出節(jié)點數(shù)調(diào)整為甘薯品質(zhì)類別數(shù)4,得到ECA—M3S模型。(2)加載經(jīng)過ImageNet數(shù)據(jù)集訓(xùn)練的M3S的預(yù)訓(xùn)練權(quán)重。對訓(xùn)練集進行隨機旋轉(zhuǎn)、隨機水平翻轉(zhuǎn)和隨機垂直翻轉(zhuǎn)處理,且將圖像尺寸統(tǒng)一為224像素×224像素×3通道。(3)設(shè)置0.1、0.01和0.001三種初始學(xué)習(xí)率以及0.1和0.5兩種學(xué)習(xí)率衰減速率,每訓(xùn)練10輪衰減一次。訓(xùn)練優(yōu)化器采用帶動量的隨機梯度下降,動量因子設(shè)置為0.9,batchsize設(shè)置為28,權(quán)重衰減值設(shè)為10-4,預(yù)訓(xùn)練后將最大訓(xùn)練輪次設(shè)置為100。為防止模型過擬合,實際訓(xùn)練時設(shè)置早停模式,即在訓(xùn)練過程中不斷保存驗證集精度最高的模型,若在驗證集精度最高的模型后連續(xù)訓(xùn)練11輪精度不再提高則結(jié)束訓(xùn)練。(4)使用訓(xùn)練集和驗證集對ECA—M3S模型進行訓(xùn)練和驗證,保存模型和相應(yīng)的權(quán)重文件。利用測試集測試所得模型的性能。
1.2.4 模型評價指標(biāo)
以平均準(zhǔn)確率Am、查準(zhǔn)率P、召回率R和F1分?jǐn)?shù)作為模型性能的評價指標(biāo),各指標(biāo)計算方法如式(1)~式(4)所示。
式中: n——品質(zhì)種類數(shù);
Ai——第[i]類品質(zhì)的識別準(zhǔn)確率;
TP——模型檢測為正的正樣本數(shù);
FP——模型檢測為正的負(fù)樣本數(shù);
FN——模型檢測為負(fù)的正樣本數(shù)。
2 結(jié)果與分析
2.1 學(xué)習(xí)率對模型的影響
學(xué)習(xí)率是模型訓(xùn)練階段十分重要的超參數(shù),合理設(shè)置學(xué)習(xí)率可使模型收斂到最小值附近。通常,模型剛開始訓(xùn)練時設(shè)置較大的學(xué)習(xí)率,然后逐漸降低學(xué)習(xí)率有助于模型快速收斂。
圖5為ECA—M3S模型在6種學(xué)習(xí)率組合下的驗證集準(zhǔn)確率和訓(xùn)練損失的變化曲線,初始學(xué)習(xí)率為0.1,衰減速率為0.5時,驗證集準(zhǔn)確率的波動幅度較大,模型無法收斂。而初始學(xué)習(xí)率為0.01,衰減速率為0.1和0.5時,驗證集準(zhǔn)確率較高,且衰減速率為0.5時損失更低。雖然其他學(xué)習(xí)率組合的驗證準(zhǔn)確率和訓(xùn)練損失曲線也比較平滑且能收斂,但總體效果相對較差。
表2為不同學(xué)習(xí)率組合下ECA—M3S模型的分類準(zhǔn)確率,學(xué)習(xí)率組合為0.01+0.5時,訓(xùn)練結(jié)束時的損失為0.049 2,驗證準(zhǔn)確率為92.82%,且模型在測試集上的平均準(zhǔn)確率為92.43%,表明該學(xué)習(xí)率組合下模型整體性能最優(yōu),和圖5分析結(jié)果保持一致。為保證甘薯品質(zhì)分類模型獲得最佳的分類效果,選擇0.01+0.5的學(xué)習(xí)率組合完成模型訓(xùn)練。
2.2 甘薯外部品質(zhì)測試試驗
2.2.1 甘薯外部品質(zhì)分類測試試驗
利用測試集測試ECA—M3S模型對甘薯不同品質(zhì)的分類精度,并統(tǒng)計查準(zhǔn)率、召回率和F1分?jǐn)?shù),結(jié)果如表3所示??梢钥闯觯P蛯p傷和正常甘薯的查準(zhǔn)率分別為88.24%、85.25%,處于相對較低的水平,兩種品質(zhì)之間容易誤識別,主要原因是甘薯容易破皮,正常甘薯通常都有較小面積的破皮,而某些破皮和損傷之間的特征比較相似,因此,容易誤識別。小部分發(fā)芽甘薯被識別為正常甘薯,原因是芽體較小,模型無法提取到足夠的特征。也有霉腐甘薯被識別為損傷甘薯,原因是霉腐發(fā)生在甘薯損傷處,而損傷特征更加顯著。發(fā)芽和霉腐甘薯的F1分?jǐn)?shù)都較高,分別為95.40%、96.10%,表明發(fā)芽和霉腐甘薯的特征相比其他品質(zhì)區(qū)分度更明顯。總體來看,4類甘薯品質(zhì)的F1分?jǐn)?shù)均高于88%,該模型能夠有效完成甘薯品質(zhì)的分類。
2.2.2 不同網(wǎng)絡(luò)模型對比
為進一步驗證ECA—M3S模型分類的有效性,使用相同甘薯數(shù)據(jù)集訓(xùn)練和測試其他10種不同的模型,并進行性能對比。將用于對比的模型按照復(fù)雜度分為3類,其中ResNet50、AlexNet和VGG13為傳統(tǒng)深度CNN,GoogleNet、SqueezeNet、ShuffleNetV2和EfficientNet—b0是其他類別的輕量化CNN,MobileNetV2、MobileNetV3—Large和M3S是MobileNet的不同版本。
表4為不同網(wǎng)絡(luò)模型的性能,傳統(tǒng)深度CNN參數(shù)量、計算量和模型尺寸通常較大,其中ResNet50的測試平均準(zhǔn)確率為93.22%,在所有模型中精度最高,但其模型尺寸為90.0 MB,VGG13更是達到491.0 MB,不利于移植到存儲和計算性能有限的設(shè)備。其他類別的輕量化CNN的測試平均準(zhǔn)確率都相對較高,最低的SqueezeNet也達到88.44%,且其參數(shù)量和模型尺寸在所有模型中最小,分別為0.74 M、2.84 MB,雖然ShuffleNetV2準(zhǔn)確率相比SqueezeNet提高4.78%,但模型尺寸是SqueezeNet的7.25倍,GoogleNet和EfficientNet—b0只有計算量有較大差別,其他性能相似。在MobileNet的不同版本中,MobileNetV2的測試平均準(zhǔn)確率最高,達到93.22%,而本研究模型在測試平均準(zhǔn)確率僅低于MobileNetV2模型0.79%的情況下具有最少的參數(shù)量、計算量以及最小的模型尺寸,相比未改進的M3S模型,測試平均準(zhǔn)確率提高3.59%,參數(shù)量和計算量分別減少0.46 M和4.6 M,模型尺寸減小1.77 MB。本研究模型和尺寸最小的SqueezeNet模型的參數(shù)量和模型尺寸差距較小,但測試平均準(zhǔn)確率比SqueezeNet高3.99%的同時計算量較低,且對4種甘薯品質(zhì)的召回率均高于90%,表明本研究模型性能最佳,更適合移植到存儲和計算性能有限的設(shè)備。
為驗證以ECA模塊替換SE模塊前后模型的效果,結(jié)合Grad—CAM算法輸出M3S和ECA—M3S模型對4種品質(zhì)甘薯的注意力熱圖,如圖6所示。由圖6可知,ECA—M3S模型能更好地注意到發(fā)芽和損傷,注意到正常區(qū)域的較少,兩個模型對霉腐甘薯都注意到背景部分,且ECA—M3S權(quán)重更大,有待進一步增強訓(xùn)練。從熱圖整體來看,兩個模型效果相當(dāng),但結(jié)合表4可知,ECA—M3S模型參數(shù)量和計算量更少,模型尺寸更小,測試平均準(zhǔn)確率更高,證明ECA模塊優(yōu)于SE模塊。
2.2.3 網(wǎng)頁開發(fā)測試
為進一步驗證模型應(yīng)用的可行性,使用Pytorch結(jié)合Flask搭建簡易Web服務(wù)測試模型。Flask是一款輕量級Web應(yīng)用框架,其基于Werkzeug WSGI工具箱和Jinja2模板引擎,目標(biāo)是提供一個簡單、靈活且易于擴展的框架,可以幫助開發(fā)人員快速構(gòu)建Web應(yīng)用程序。
首先,實例化Flask,讀取保存的ECA—M3S模型權(quán)重和類別標(biāo)簽文件。其次,實例化ECA—M3S模型,開啟模型的驗證模式。然后,定義圖像處理函數(shù),該函數(shù)將圖像尺寸轉(zhuǎn)換為224像素×224像素,進行標(biāo)準(zhǔn)化,并將數(shù)據(jù)發(fā)送到GPU。接著,定義結(jié)果預(yù)測函數(shù),該函數(shù)得到模型預(yù)測結(jié)果,并將預(yù)測結(jié)果去除梯度信息后轉(zhuǎn)移到CPU上,顯示每種類別的預(yù)測概率,并按照概率大小進行排序。最后,定義一個路由將預(yù)測結(jié)果發(fā)送到網(wǎng)頁。測試界面如圖7所示,首先,點擊“選擇文件”按鈕選擇圖像,然后,點擊“預(yù)測”按鈕得到預(yù)測結(jié)果,表明本研究模型在網(wǎng)頁端的初步部署是可行的,但要部署到實際生產(chǎn)中還需要進一步優(yōu)化,并配合高性能的WSGI服務(wù)。
3 結(jié)論
為實現(xiàn)發(fā)芽、霉腐、損傷和正常甘薯的分類,使用ECA模塊替換MobileNetV3—Small中的SE模塊,避免縮減通道維度,同時降低參數(shù)量,并重新設(shè)計4個分類結(jié)點的馬鈴薯預(yù)訓(xùn)練模型,利用遷移學(xué)習(xí)方法獲得甘薯外部品質(zhì)分類模型。
1) 對比ECA—M3S模型在不同學(xué)習(xí)率組合下的性能,結(jié)果表明,采用學(xué)習(xí)率組合為0.01+0.5時的訓(xùn)練效果較優(yōu),驗證準(zhǔn)確率為92.82%,訓(xùn)練損失為0.049 2。
2) 使用測試集對ECA—M3S模型性能進行評估,損傷和正常甘薯的查準(zhǔn)率相對較低,容易誤判損傷和正常甘薯??偟膩碚f,發(fā)芽、霉腐、損傷和正常甘薯分類的F1分?jǐn)?shù)分別為95.40%、96.10%、90.23%和88.14%,表明ECA—M3S模型對甘薯外部品質(zhì)分類取得較好效果。
3) 利用相同數(shù)據(jù)集訓(xùn)練其他10種不同復(fù)雜度的模型,并和所提出的ECA—M3S模型進行對比,結(jié)果表明,該模型的平均準(zhǔn)確率為92.43%,相比識別效果較好的ResNet50、ShuffleNetV2和MobileNetV2,僅低0.79%,但參數(shù)量、計算量和模型尺寸顯著降低。相比原始M3S模型,該模型平均準(zhǔn)確率提高3.59%,模型尺寸減小1.77 MB,參數(shù)量和計算量也更小,且對4類甘薯品質(zhì)的召回率均高于90%,表明對M3S模型所做的改進有助于提高甘薯品質(zhì)分類準(zhǔn)確率。綜合模型的召回率、平均準(zhǔn)確率、參數(shù)量、計算量和模型尺寸指標(biāo),表明該模型性能優(yōu)于其他10種模型,并結(jié)合注意力熱圖進一步論證ECA—M3S模型性能優(yōu)于M3S。
4) 結(jié)合Pytorch和Flask開發(fā)網(wǎng)頁測試界面,可選擇甘薯圖像并輸出每種品質(zhì)的預(yù)測概率,表明該模型在網(wǎng)頁端的初步部署是可行的,可為進一步部署到實際生產(chǎn)中提供參考。
基于深度學(xué)習(xí)技術(shù)對甘薯外部品質(zhì)進行分類,具有成本低、準(zhǔn)確率高和運行速度快等優(yōu)點,可為搭建甘薯外部品質(zhì)檢測系統(tǒng)、配置算力等工作提供參考依據(jù)。
參 考 文 獻
[ 1 ] 趙軍, 田海韜. 利用機器視覺檢測馬鈴薯外部品質(zhì)方法綜述[J]. 圖學(xué)學(xué)報, 2017, 38(3): 382-387.
Zhao Jun, Tian Haitao. The applications of potato external quality detection using machine vision [J]. Journal of Graphics, 2017, 38(3): 382-387.
[ 2 ] 周竹, 黃懿, 李小昱, 等. 基于機器視覺的馬鈴薯自動分級方法[J]. 農(nóng)業(yè)工程學(xué)報, 2012, 28(7): 178-183.
Zhou Zhu, Huang Yi, Li Xiaoyu, et al. Automatic detecting and grading method of potatoes based on machine vision [J]. Transactions of the Chinese Society of Agricultural Engineering, 2012, 28(7): 178-183.
[ 3 ] 李玉華, 李天華, 牛子孺, 等. 基于色飽和度三維幾何特征的馬鈴薯芽眼識別[J]. 農(nóng)業(yè)工程學(xué)報, 2018, 34(24): 158-164.
Li Yuhua, Li Tianhua, Niu Ziru, et al. Potato bud eyes recognition based on three?dimensional geometric features of color saturation [J]. Transactions of the Chinese Society of Agricultural Engineering, 2018, 34(24): 158-164.
[ 4 ] Thien P Q, Liou N S. The development of on?line surface defect detection system for jujubes based on hyperspectral images [J]. Computers and Electronics in Agriculture, 2022, 194: 106743.
[ 5 ] Arshaghi A, Ashourin M, Ghabeli L. Detection and classification of potato diseases potato using a new convolution neural network architecture [J]. Traitement du Signal, 2021, 38(6): 1783-1791.
[ 6 ] Wang C L, Xiao Z F. Potato surface defect detection based on deep transfer learning [J]. Agriculture, 2021, 11(9): 863.
[ 7 ] Lecun Y, Bottou L, Bengio Y, et al. Gradient?based learning applied to document recognition [J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.
[ 8 ] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks [J]. Communications of the ACM, 2017, 60(6): 84-90.
[ 9 ] Simonyan K, Zisserman A. Very deep convolutional networks for large?scale image recognition [J]. arXiv preprint arXiv: 1409. 1556, 2014.
[10] He K M, Zhang X Y, Ren S Q, et al. Deep residual learning for image recognition [J]. arXiv preprint arXiv: 1512. 03385, 2015.
[11] 易振通, 吳瑰, 官端正, 等. 輕量化卷積神經(jīng)網(wǎng)絡(luò)的研究綜述[J]. 工業(yè)控制計算機, 2022, 35(10): 109-111, 114.
Yi Zhentong, Wu Gui, Guan Duanzheng, et al. Survey of research on lightweight convolutional neural networks [J]. Industrial Control Computer, 2022, 35(10): 109-111, 114.
[12] 楊森, 馮全, 張建華, 等. 基于輕量卷積網(wǎng)絡(luò)的馬鈴薯外部缺陷無損分級[J]. 食品科學(xué), 2021, 42(10): 284-289.
Yang Sen, Feng Quan, Zhang Jianhua, et al. Nondestructive classification of defects in potatoes based on lightweight convolutional neural network [J]. Food Science, 2021, 42(10): 284-289.
[13] Park J, Woo S, Lee J Y, et al. BAM: Bottleneck attention module [J]. arXiv preprint arXiv: 1807. 06514, 2018.
[14] 彭紅星, 徐慧明, 劉華鼐. 基于改進ShuffleNet V2的輕量化農(nóng)作物害蟲識別模型[J]. 農(nóng)業(yè)工程學(xué)報, 2022, 38(11): 161-170.
Peng Hongxing, Xu Huiming, Liu Huanai. Lightweight agricultural crops pest identification model using improved ShuffleNet V2 [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(11): 161-170.
[15] Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [C]. The European Conference on Computer Vision (ECCV) , 2018: 3-19.
[16] Howard A, Sandler M, Chen B, et al. Searching for MobileNetV3 [C].2019 IEEE/CVF International Conference on Computer Vision, 2019: 1314-1324.
[17] Hu J, Shen L, Albanie S, et al. Squeeze?and?excitation networks [C]. IEEE Conference on Computer Vision and Pattern Recognition, 2018: 7132-7141.
[18] Wang Q L, Wu B G, Zhu P F, et al. ECA—Net: Efficient channel attention for deep convolutional neural networks [J]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 11534-11542.