中圖分類號:S126:TP391.4 文獻(xiàn)標(biāo)識號:A 文章編號:1001-4942(2025)06-0149-09
AbstractAiming at the problems of low detection accuracy and miss and 1 detection caused by overlapping or obscured apples in apple surface defects detection,an improved apple surface defect detection method with YOLOv5s algorithm was proposed in this study.Firstly,the convolutional block atention module (CBAM)was added to the Backbone part of the YOLOv5s model to enhance the detection model's attention to the information of important regions of images,so as to improve the model's abilityto detect defects on the surface of apple. Secondly,a weighted bidirectional feature pyramid network(BiFPN)was introduced to fully integrate the apple surface defect features at diferent scales in orderto reduce missed and 1 detections.Finally,the Soft-NMS algorithm was used instead of the NMS algorithm in the original network to optimize the redundant bounding box screening conditions and further reduce the miss detection rate of the model.The experimental results showed that the proposed algorithm in this paper achieved 95.5% of mean average precision (mAP),which improved by 3.3 percentage point compared to the original algorithm,and the recall rate was improved by 4.6 percentage points,so it could be beter used to detect the surface defects of apples.
KeywordsApple surface defect detection; YOLOv5s; Convolutional atention mechanism;Weightedbidirectional feature pyramid network(BiFPN)
蘋果生長、采摘、運(yùn)輸以及篩選過程中常會遭遇鳥啄食、病蟲害以及磕碰、腐爛等情況,嚴(yán)重影響蘋果品質(zhì)、產(chǎn)量及經(jīng)濟(jì)價值,因此對蘋果表面缺陷進(jìn)行精準(zhǔn)檢測有著重要的意義。但傳統(tǒng)的人工檢測費(fèi)時費(fèi)力,且受主觀因素的影響,檢測標(biāo)準(zhǔn)難以統(tǒng)一,精確度和檢測效率均較低。隨著計(jì)算機(jī)技術(shù)的不斷發(fā)展,目標(biāo)檢測技術(shù)得到迅猛發(fā)展,現(xiàn)已廣泛應(yīng)用于工業(yè)生產(chǎn)檢測、水果蔬菜檢測、面容識別等多行業(yè)。在蘋果表面缺陷檢測中,基于深度學(xué)習(xí)的檢測方法成為目前研究的熱點(diǎn)之一。薛勇等[2為提高蘋果表面缺陷的檢測效率,提出利用GoogLeNet深度遷移模型進(jìn)行檢測,蘋果表面缺陷識別準(zhǔn)確率達(dá)到 91.91% ,與淺層卷積神經(jīng)網(wǎng)絡(luò)及傳統(tǒng)機(jī)器學(xué)習(xí)方法相比具有更好的泛化能力與魯棒性。Zhang等[3」為了解決蘋果表面光線反射不規(guī)則導(dǎo)致的色調(diào)差異以及缺陷面積較小難以提取等問題,提出了一種基于模糊C均值算法和非線性規(guī)劃遺傳算法(FCM-NPGA)結(jié)合多元圖像分析的蘋果缺陷檢測方法,缺陷蘋果的檢測準(zhǔn)確率達(dá)到 95% 以上。周雨帆等4為了解決蘋果表面缺陷檢測準(zhǔn)確率低的問題,提出一種基于輕量級卷積神經(jīng)網(wǎng)絡(luò)的蘋果表面缺陷檢測方法,在AlexNet網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上引入深度可分離卷積代替原有網(wǎng)絡(luò)中的標(biāo)準(zhǔn)卷積,然后利用全局平均池化代替原網(wǎng)絡(luò)中的全連接層,改進(jìn)后網(wǎng)絡(luò)對蘋果缺陷識別精度達(dá)到 98.57% ,訓(xùn)練速度提高32.67% ,在減少模型參數(shù)量的同時還保證了模型的檢測精度和效率。代國威等[5為提高溫室番茄自動化采收的效率,提出一種基于八度卷積與注意力機(jī)制改進(jìn)YOLOv5的溫室番茄檢測方法,平均準(zhǔn)確率達(dá)到 94% 以上,為番茄采摘機(jī)器人的運(yùn)行提供了更高效的技術(shù)支持。杜國真等提出一種改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)用于蘋果表面缺陷檢測,通過引入深度可分離卷積、LeakyReLU激活函數(shù)和全局平均池化等方法,獲得了較高的檢測準(zhǔn)確率和速度,且具有更少的模型參數(shù)量。慕德旭等[7]為實(shí)現(xiàn)在光照不均勻和顏色信息復(fù)雜背景下的蘋果表面疤痕有效檢測,采用改進(jìn)多尺度Retinex圖像增強(qiáng)技術(shù)和支持向量機(jī)分類技術(shù),使蘋果疤痕檢測準(zhǔn)確率達(dá)到 92.8% 。張琪等[8]應(yīng)用改進(jìn)的FasterR-CNN算法實(shí)現(xiàn)了復(fù)雜環(huán)境下蘋果較小缺陷區(qū)域的快速檢測,平均精度值達(dá)到87% 以上,為果園蘋果快速粗分揀設(shè)備開發(fā)提供了技術(shù)支撐。張嘉琪等[9]針對蘋果缺陷檢測經(jīng)常誤檢漏檢、缺陷易混淆等問題,提出一種基于改進(jìn)YOLOv5的蘋果缺陷檢測算法,通過引入NAM(Normalization-basedAttentionModule)注意力機(jī)制、加權(quán)雙向特征金字塔網(wǎng)絡(luò)和TRANS模塊等方法,使得精確度達(dá)到 98% 以上。胡天浩等[10]為實(shí)現(xiàn)快速且高效的蘋果缺陷檢測,提出一種名為ACE-YOLO的自適應(yīng)局部圖像檢測算法,通過采用圖像增強(qiáng)算法和添加小目標(biāo)檢測層等方法,使得平均檢測精度達(dá)到 95% 以上。代東南等[]為實(shí)現(xiàn)在移動端對櫻桃缺陷的快速檢測與精準(zhǔn)識別,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)改進(jìn)的輕量化模型,實(shí)現(xiàn)了較高準(zhǔn)確率和較少參數(shù),適用于櫻桃缺陷檢測與多分類任務(wù),為櫻桃缺陷檢測與品質(zhì)分級研究提供了新思路。
盡管深度學(xué)習(xí)算法在蘋果以及其他圓形果蔬缺陷檢測領(lǐng)域的應(yīng)用逐漸增多,但以往的研究存在缺陷種類較少、蘋果重疊或被遮擋情況下檢測精度低以及誤檢漏檢等問題,鑒于此,本研究以YOLOv5s為基礎(chǔ)網(wǎng)絡(luò),通過引人CBAM和BiFPN以及改用Soft-NMS算法進(jìn)行改進(jìn),增強(qiáng)模型對蘋果表面缺陷區(qū)域的識別,提高復(fù)雜情況下的檢測精度,減少誤檢漏檢,以期為提高蘋果的智能化分級篩選效率提供技術(shù)支持
1材料與方法
1.1 YOLOv5s網(wǎng)絡(luò)及其改進(jìn)
YOLOv5是GlennJocher提出的一種單階段目標(biāo)檢測算法,由輸人端(Input)、骨干網(wǎng)絡(luò)(Backbone)、頸部網(wǎng)絡(luò)(Neck)和檢測頭(Head)四部分組成[12],根據(jù)模型深度和寬度系數(shù)的不同,YOLOv5分為多個版本,其中YOLOv5s因檢測速度快、準(zhǔn)確率高和參數(shù)量小等特點(diǎn),應(yīng)用最為廣泛,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。與其他應(yīng)用較為廣泛的目標(biāo)檢測算法如SSD[13]、Faster R-CNN[14] MaskR-CNN[15]等相比,YOLOv5s的優(yōu)勢主要在于結(jié)構(gòu)簡單速度快、準(zhǔn)確率較高、泛化能力強(qiáng),因此YOLOv5s被廣泛應(yīng)用于各類場景的檢測中但是在背景復(fù)雜或目標(biāo)遮擋重疊嚴(yán)重等情況下其檢測精準(zhǔn)度不夠高,為此,本研究對YOLOv5s網(wǎng) 絡(luò)進(jìn)行如下改進(jìn)。
1.1.1添加CBAM注意力機(jī)制在蘋果表面缺陷檢測的圖像中,通常會有大量的非目標(biāo)區(qū)域和復(fù)雜背景,容易對檢測造成干擾,在此情況下,可以引入注意力機(jī)制,以便模型能夠更有效地聚焦于關(guān)鍵區(qū)域的信息。卷積注意力模塊(Convolu-tional Block Attention Module,CBAM)[16是一種混合注意力機(jī)制模塊,由通道注意力模塊(CAM)和空間注意力模塊(SAM)兩部分組成,具有輕量化和通用性的特點(diǎn)。本研究在YOLOv5s網(wǎng)絡(luò)中引人CBAM注意力機(jī)制,以提高模型對蘋果表面缺陷區(qū)域的識別。CBAM、CAM和SAM模塊的結(jié)構(gòu)分別見圖2、圖3、圖4。
在CAM部分,首先執(zhí)行全局平均池化和全局最大池化操作以獲取特征圖的空間信息;隨后將這些池化結(jié)果傳遞至多層感知機(jī)模塊以進(jìn)行下一步處理;最終將感知機(jī)模塊輸出的特征進(jìn)行合并,并通過Sigmoid激活函數(shù)進(jìn)行處理,得到通道注意力特征 Mc 。
空間注意力特征是對通道注意力特征的補(bǔ)充,反映輸入值在空間維度上的重要性。在CAM之后引入SAM,首先對得到的通道注意力特征進(jìn)行全局平均池化和全局最大池化操作,然后將兩個結(jié)果疊加,再通過Sigmoid激活函數(shù)處理,即可得到空間注意力特征 Ms。
1.1.2引入BiFPN改進(jìn)多尺度特征融合方法在 YOLO[17] 算法模型中,隨著網(wǎng)絡(luò)層數(shù)的加深,降采樣操作不斷增多,導(dǎo)致細(xì)節(jié)信息不斷被破壞,小目標(biāo)物體的檢測效果逐漸變差,而隨著層數(shù)變多,網(wǎng)絡(luò)的感受野逐漸增大,網(wǎng)絡(luò)對具有較多像素的大目標(biāo)物體的認(rèn)識越來越充分,對大目標(biāo)物體的檢測也越來越準(zhǔn)確??梢?,淺層網(wǎng)絡(luò)在捕捉局部細(xì)節(jié)信息和小目標(biāo)物體方面表現(xiàn)出色,這對于目標(biāo)的精確定位至關(guān)重要;而深層網(wǎng)絡(luò)則更擅長提取抽象信息或識別大目標(biāo)物體,有助于目標(biāo)的分類,但可能在細(xì)節(jié)信息的保留上有所欠缺。因此,通過融合淺層網(wǎng)絡(luò)特征與深層網(wǎng)絡(luò)特征,可以顯著提升模型在目標(biāo)檢測任務(wù)中的性能。在比較初級的 YOLOv3[18] 中采用FPN結(jié)構(gòu)(圖5a)進(jìn)行多尺度特征融合,而在 YOLOv4[19] 和 YOLOv5中則采用PANet結(jié)構(gòu)(圖5b),即在FPN的基礎(chǔ)上添加一層自下而上的特征金字塔,以加強(qiáng)高層特征與底層特征的融合,進(jìn)一步提高預(yù)測精度。
蘋果表面顏色豐富,缺陷種類多樣,為了更好地融合特征,本研究引入更為簡單高效的加權(quán)雙向特征金字塔網(wǎng)絡(luò)(BidirectionalFeaturePyramidNetwork,BiFPN),其結(jié)構(gòu)見圖 5c 。BiFPN[20]是在PANet的基礎(chǔ)上進(jìn)行改進(jìn):首先,刪除只有一條輸入邊的節(jié)點(diǎn),簡化網(wǎng)絡(luò);其次,如果兩個節(jié)點(diǎn)處在同一水平上,就添加一條額外的邊,從而在不增加太多額外成本的情況下融合更多的高層和底層的特征信息;然后,BiFPN將每一層雙向路徑視作一個獨(dú)立的特征網(wǎng)絡(luò)層進(jìn)行處理,并通過多次迭代同一層級,達(dá)成更深層次的特征融合。最終得到的特征圖集成了雙向尺度連接以及經(jīng)過權(quán)重歸一化處理后的融合結(jié)果。通過引入BiFPN模塊,可以在不增加額外計(jì)算負(fù)擔(dān)的前提下,實(shí)現(xiàn)特征金字塔網(wǎng)絡(luò)結(jié)構(gòu)的進(jìn)一步優(yōu)化,并加強(qiáng)多尺度特征的融合能力,進(jìn)而顯著提升模型的檢測精度
1.1.3用 Soft-NMS算法替換原始網(wǎng)絡(luò)的NMS算法NMS(non maximum suppression)即非極大值抑制,顧名思義就是抑制和刪除置信度值不是極大值的預(yù)測框,而留下置信度值是極大值的預(yù)測框,在目標(biāo)檢測模型中扮演著至關(guān)重要的角色在YOLOv5s中,NMS算法會根據(jù)置信度對所有預(yù)測框進(jìn)行排序,選出置信度值最大的候選框M,然后直接去掉在預(yù)定閾值范圍內(nèi)與候選框M重疊的框,從而使模型能快速檢測到目標(biāo)物體,
但是傳統(tǒng)的NMS存在一定缺陷,即當(dāng)兩個待檢測的物體距離很近甚至相互重疊時,兩者對應(yīng)的預(yù)測框就會很接近,這時置信度值低的框就會因?yàn)榕c置信度值高的框重疊面積過大而被刪掉,從而導(dǎo)致對該物體的檢測失敗,降低檢測的準(zhǔn)確率。為此本研究引入Soft-NMS[21]替代NMS。Soft-NMS使用一個懲罰函數(shù)來降低與M重疊的預(yù)測框的置信度分?jǐn)?shù),而不是簡單地將其置信度分?jǐn)?shù)設(shè)置為零,所以在目標(biāo)重疊或者遮擋的場景中,使用Soft-NMS可以很好地降低誤檢率,從而提升整體算法的召回率和精確率。
1.1. 4 改進(jìn)后的網(wǎng)絡(luò)整體結(jié)構(gòu) 首先,在YOLOv5s模型的Backbone部分加入CBAM,增強(qiáng)檢測模型對圖像重要區(qū)域信息的關(guān)注程度,提升模型對蘋果表面缺陷的檢測能力。其次,引入BiFPN,充分融合不同尺度的蘋果表面缺陷特征,以達(dá)到減少漏檢和誤檢的目的。最后,使用Soft-
NMS算法替代原始網(wǎng)絡(luò)中的NMS算法,優(yōu)化冗余邊界框篩選條件,進(jìn)一步降低模型的漏檢率。
改進(jìn)后的模型結(jié)構(gòu)如圖6所示
1.2 數(shù)據(jù)集
本研究所用原始圖像數(shù)據(jù)均拍攝于山西省運(yùn)城市的蘋果園,分為健康、褶皺、腐爛、機(jī)械損傷和蟲眼5類,各類的示例圖見圖7。原始數(shù)據(jù)集中總共有5000張圖像,每個類別1000張。為了模擬拍攝過程中遇到的各種不利環(huán)境,增強(qiáng)算法的抗干擾能力,采用高斯噪聲、椒鹽噪聲、變亮、變暗和低像素5種數(shù)據(jù)增強(qiáng)方法來擴(kuò)充數(shù)據(jù)集,示例見圖8。數(shù)據(jù)增強(qiáng)后的數(shù)據(jù)集圖像達(dá)到30000張,然后按照8:1:1的比例隨機(jī)劃分訓(xùn)練集、驗(yàn)證集和測試集。
1.3 實(shí)驗(yàn)環(huán)境及訓(xùn)練參數(shù)設(shè)置
本研究實(shí)驗(yàn)環(huán)境:基于AutoDL云服務(wù)器,使用Ubuntu 操作系統(tǒng),PyTorch1.11.O 框架,Python版本3.8,CUDA版本11.3,GPU為RTXA5000,顯存24GB,CPU的配置為AMDEPYC7543,內(nèi)存30GB 。
訓(xùn)練參數(shù)設(shè)置:訓(xùn)練輪次(Epoch)為150,權(quán)重衰減(Weightdecay)為0.0005,動量參數(shù)(Mo-mentum)為0.937,學(xué)習(xí)率(Learnrate)為0.01,批量大?。˙atch size)為64
1.4 模型評估指標(biāo)
本研究選擇平均精度均值(mean AveragePrecision,mAP)、召回率(Recall,R)和精確率(Precision,P)3個指標(biāo)對模型進(jìn)行評估。召回率主要是針對原樣本進(jìn)行考量,具體指在實(shí)際為正類的樣本中被模型預(yù)測為正類的比例;而精確率則是著眼于預(yù)測結(jié)果,代表的是在模型預(yù)測為正類的所有樣本中,真實(shí)情況下確實(shí)為正類的概率。這兩個指標(biāo)各有側(cè)重,前者體現(xiàn)了模型找出真正類的能力,而后者則反映了模型預(yù)測正類的準(zhǔn)確性,其計(jì)算公式見式(1)、(2),其中 ΔNFN 表示標(biāo)注為正樣本而識別為負(fù)樣本的個數(shù), ΔNTP 表示正樣本被正確識別為正樣本的個數(shù), NFP 表示負(fù)樣本被錯誤識別為正樣本的個數(shù)。mAP的計(jì)算公式見式(3)、(4),其中 n 指需要分類的類別數(shù),AP表示目標(biāo)類的平均精度, mAP 是平均精度均值,是各類別AP的平均值,用于衡量模型在多類別檢測任務(wù)中的綜合性能
2 結(jié)果與分析
2.1 注意力模塊對比實(shí)驗(yàn)
為了驗(yàn)證本研究加人CBAM注意力模塊的有效性,選用SE(通道注意力模塊)、CA(坐標(biāo)注意力模塊)、SimAM(簡單注意力模塊)進(jìn)行注意力模塊的對比試驗(yàn),結(jié)果如表1所示。相較于原始YOLOv5s網(wǎng)絡(luò),加人SE 模塊和CA 模塊后,mAP、精確率、召回率均出現(xiàn)了下降,mAP分別下降0.4、0.2個百分點(diǎn),精確率分別下降3.5、4.1個百分點(diǎn),召回率分別下降2.7、1.2個百分點(diǎn),單張圖片檢測時間略延長;加入SimAM模塊后,mAP提升了0.7個百分點(diǎn),檢測時間無變化,但精確率、召回率仍分別低于原始網(wǎng)絡(luò)2.0、0.4個百分點(diǎn);而加入CBAM模塊后,mAP、精確率、召回率分別提升1.7、0.5、1.8個百分點(diǎn),且檢測時間有所縮短??梢姡尤隒BAM模塊的效果最好,可在保證檢測速度的前提下明顯提升mAP,證明了本研究引人CBAM注意力模塊的有效性
2.2 消融實(shí)驗(yàn)
為了評估本研究各項(xiàng)改進(jìn)措施的有效性,進(jìn)行了消融實(shí)驗(yàn),結(jié)果(表2)顯示,與原始YOLOv5s網(wǎng)絡(luò)相比,僅加人CBAM注意力機(jī)制模塊后,mAP提升了1.7個百分點(diǎn),召回率和精確率分別提升1.8、0.5個百分點(diǎn),模型大小和單張圖片檢測時間與原始網(wǎng)絡(luò)的相當(dāng);僅加入BiFPN模塊后,模型的mAP、召回率和精確率分別提升1.9、1.5、0.9個百分點(diǎn),單張圖片檢測時間增加 0.3ms ,模型大小增加0.1MB;僅改用Soft-NMS算法后,參數(shù)量和模型大小保持不變,而召回率提升了4.4個百分點(diǎn),提升明顯, mAP 、精確率分別提升2.0、0.6個百分點(diǎn),單張圖片檢測時間縮短了 0.5ms ,取得了較好的效果。相比而言,本研究提出的改進(jìn)模型( 雖然參數(shù)量、模型大小、單張圖片檢測時間略有增加,但是mAP、精確率、召回率均明顯高于其他模型,分別達(dá)到了 95.5%.96.4%.92.5% ,模型性能得到明顯提升,進(jìn)一步證明了本研究所提改進(jìn)措施的有效性。
2.3 本研究所提改進(jìn)算法與其他目標(biāo)檢測算法的對比實(shí)驗(yàn)
為了評估本研究所提改進(jìn)算法的有效性,將其與當(dāng)前一些常用的目標(biāo)檢測算法(YOLOv5s、ΥOLOv5m 、YOLOv5n、SSD、YOLOv7、YOLOv7-ti-ny)進(jìn)行比較,結(jié)果(表3)顯示,本研究所提改進(jìn)算法的召回率、精確率和mAP均明顯高于其他算法,而模型大小、參數(shù)量及檢測速度與原始算法相當(dāng),明顯低于 YOLOv5m,SSD,YOLOv7 ,與本研究所提改進(jìn)算法相比,雖然 $\Upsilon _ { ? } 0 \mathrm { L O v } 5 \mathrm { n }$ 具有更快的檢測速度和更小的參數(shù)量,但其精確率、召回率、mAP分別只有 86.6%.84.6%.89.9% ,遠(yuǎn)不能滿足實(shí)際需要;YOLOV7-tiny作為升級版的YOLO模型,雖然具有更小的參數(shù)量且占用的內(nèi)存更小,但是檢測單張圖片用時是本研究所提改進(jìn)算法的1.85倍,且mAP降低3.1個百分點(diǎn)。原始YOLOv5s模型與改進(jìn)模型的PR曲線如圖9所示,圖中各類別后數(shù)值表示PR曲線面積,PR曲線面積越大說明該類別的AP值越高,模型的檢測效果越好,可以看出改進(jìn)后的模型明顯優(yōu)于原模型。綜合來看,本研究所提改進(jìn)算法在檢測蘋果表面缺陷時具有更高的精確度、更小的參數(shù)量以及更快的檢測速度,充分說明了本研究改進(jìn)算法的有效性。
2.4 改進(jìn)模型對蘋果表面缺陷的檢測效果分析
為了進(jìn)一步評估本研究提出的改進(jìn)YOLOv5s模型的有效性,用測試集數(shù)據(jù)對其與原始YOLOv5s的檢測效果進(jìn)行對比分析,結(jié)果如圖
10所示,圖中第一行為原始YOLOv5s的檢測結(jié)果,第二行為本研究所提改進(jìn)模型的檢測結(jié)果觀察比較圖10a(1)和a(2)可知,原始YOLOv5s模型會出現(xiàn)漏檢的問題,未檢測到被遮擋的健康蘋果,而本研究提出的改進(jìn)模型則準(zhǔn)確檢測到了被遮擋的健康蘋果,且檢測到的機(jī)械損傷蘋果的置信度更高;觀察比較圖 10b(1) 和b(2)可知,改進(jìn)YOLOv5s模型的預(yù)測框大小更為合理,且置信度更高;由圖10c(1)和c(2)對比可得,原始YOLOv5s模型會出現(xiàn)誤檢的情況,將蟲眼誤檢成腐爛,并將背景中的半圓形物體誤檢成機(jī)械損傷,而改進(jìn)模型識別準(zhǔn)確且置信度更高;由圖10d(1)和d(2)對比可得,改進(jìn)前后的模型都能準(zhǔn)確檢測到兩個褶皺蘋果,但是原始YOLOv5s模型卻把健康蘋果錯誤檢測成褶皺蘋果。綜上所述,改進(jìn)YOLOv5s模型能很好地避免漏檢誤檢的情況,而且也能很好地檢測到被遮擋或者重疊目標(biāo),具有較高的識別準(zhǔn)確度
3 結(jié)論
為了更好地解決在蘋果表面缺陷檢測任務(wù)中因重疊或遮擋造成的檢測精度低以及誤檢漏檢等問題,本研究在YOLOv5s模型的基礎(chǔ)上進(jìn)行改進(jìn),通過在Backbone部分加人注意力模塊CBAM、引入BiFPN、使用Soft-NMS算法替代原始網(wǎng)絡(luò)中的NMS算法,有效增強(qiáng)了模型對圖像重要區(qū)域信息的關(guān)注程度,充分融合了不同尺度的蘋果表面缺陷特征,優(yōu)化了冗余邊界框篩選條件,從而提升了模型對蘋果表面缺陷的檢測能力,達(dá)到了減少漏檢和誤檢的目的。實(shí)驗(yàn)結(jié)果顯示,改進(jìn)模型的精確率、召回率、mAP分別達(dá)到 96.4% !92.5%.95.5% ,相較于原始模型分別提升了3.2、4.6、3.3個百分點(diǎn),但參數(shù)量、模型大小、單張圖片檢測時間并無明顯增加,表明本研究提出的改進(jìn)模型可以更好地檢測出多種蘋果表面缺陷,具有很好的實(shí)際應(yīng)用價值。今后將進(jìn)一步豐富樣本種類,擴(kuò)充數(shù)據(jù)庫,提高模型的泛化能力,并進(jìn)一步優(yōu)化算法,提高模型在移動端及復(fù)雜情況下的識別準(zhǔn)確度和精度
參考文獻(xiàn):
[1]王壹.中國蘋果產(chǎn)量穩(wěn)居世界第一[N].農(nóng)民日報(bào),2023-11-18(007) .
[2] 薛勇,王立揚(yáng),張瑜,等.基于GoogLeNet深度遷移學(xué)習(xí)的蘋果缺陷檢測方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(7):30-35.
[3] ZhangWZ,Hu J,Zhou GX,et al.Detection ofappledefectsbased on the FCM-NPGA and a multivariate image analysis[J].IEEEAccess,2020,8:38833-38845.
[4] 周雨帆,李勝旺,楊奎河,等.基于輕量級卷積神經(jīng)網(wǎng)絡(luò)的蘋果表面缺陷檢測方法[J].河北工業(yè)科技,2021,38(5):388-394.
[5] 代國威,樊景超,胡林.采用天氣增強(qiáng)與八度卷積改進(jìn)YOLOv5的番茄檢測模型構(gòu)建[J].山東農(nóng)業(yè)科學(xué),2022,54(11):138-149.
[6] 杜國真,盧明星,季澤旭,等.基于改進(jìn)CNN的蘋果缺陷檢測方法研究[J].食品與機(jī)械,2023,39(6):155-160.
[7] 慕德旭,楊蕾,吳志強(qiáng).基于改進(jìn)多尺度Retinex圖像增強(qiáng)和支持向量機(jī)的蘋果表面缺陷檢測[J].食品安全質(zhì)量檢測學(xué)報(bào),2023,14(20):183-191.
[8] 張琪,曹浩.基于改進(jìn)的FasterR-CNN蘋果缺陷區(qū)域目標(biāo)檢測[J].安徽科技學(xué)院學(xué)報(bào),2023,37(3):96-101.
[9] 張嘉琪,徐啟蕾.基于NAM-YOLO網(wǎng)絡(luò)的蘋果缺陷檢測算法[J].計(jì)算機(jī)與現(xiàn)代化,2023(10):53-58,64.
[10]胡天浩,高秀敏,華云松,等.基于深度學(xué)習(xí)的自適應(yīng)蘋果圖像多缺陷檢測[J].山東理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2024,38(1) :42-47.
[11]代東南,馬睿,劉起,等.基于特征融合注意力機(jī)制的櫻桃缺陷檢測識別研究[J].山東農(nóng)業(yè)科學(xué),2024,56(3):154-162.
[12]魏麟,何峻毅,譚任翔,等.基于改進(jìn)YOLOv5的無人機(jī)目標(biāo)識別方法[J].現(xiàn)代信息科技,2024,8(3):84-88.
[13]Liu W,Anguelov D,Erhan D,et al. SSD:single shot multiboxdetector[C]//Computer Vision-ECCV 2016:14th EuropeanConference,Amsterdam,The Netherlands,October 11- 14,2016,Proceedings,Part I 14. Springer International Publish-ing,2016:21-37.
[14]Ren S Q,He K M,Girshick R,et al.Faster R-CNN:towardsreal-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelli-gence,2017,39(6) :1137-1149.
[15]He K M,Gkioxari G,Dollar P,et al.Mask R-CNN[C]//Pro-ceedings of the IEEE International Conference on Computer Vi-sion. IEEE,2017:2980-2988.
[16]Woo S,Park J,Lee J Y,et al. CBAM: Convolutional block at-tention module[C]//Proceedings of the European Conferenceon Computer Vision (ECCV). Springer,2018:3-19.
[17]Redmon J,Divvala S,Girshick R,et al. You Only Look Once:unified,real-time object detection[C]//Proceedingsof the2016 IEEE Conference on Computer Vision and Pattern Recog-nition. IEEE,2016:779-788.
[18]Redmon J,F(xiàn)arhadi A. YOLOv3:an incremental improvement[J/OL]. arXiv:1804.02767[cs.CV],2018.htps://doi.org/10.48550/arXiv.1804.02767.
[19]Bochkovskiy A,Wang C Y,Liao H Y M. YOLOv4:optimalspeed and accuracy of object detection[J/OL].arXiv: 2004.10934[cs.CV],2020.htps://doi.org/10.48550/arXiv.2004.10934.
[20]Tan M X,Pang R M,Le Q V. EficientDet:scalable and effi-cient object detection[C]//Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition.IEEE,2020:10781-10790.
[21] Bodla N,Singh B,Chellappa R,et al. Soft-NMS: improving ob-ject detection with one line of code[C]//Proceedings of the2017IEEE International Conference on Computer Vision.IEEE,2017:5561-5569.