摘要:
為有效辨別水果種類,提高水果產(chǎn)業(yè)商業(yè)化的深加工和線下水果銷售渠道的效率,針對大多數(shù)線下超市在水果售賣過程中主要采用人工識別,其成本高、效率低的問題,提出一種基于語義分割模型(U2-Net)和ResNet-50模型結(jié)合的水果圖像識別方法,實現(xiàn)水果圖像自動識別。使用U2-Net分割出水果的二值圖像,然后結(jié)合OpenCV算法將二值圖中的白色像素值改為水果真實的顏色值,最后通過ResNet-50進(jìn)行水果圖像識別。結(jié)果表明,Alexent、VGG16、GoogLeNet和本模型在訓(xùn)練集上的準(zhǔn)確率分別為99.66%、99.65%、99.9%、99.8%,在驗證集上的準(zhǔn)確率分別為96.5%、99.9%、99.6%、100%。提出的水果圖像識別方法能夠有效提取水果的顏色、形狀、紋理等特征,從而實現(xiàn)對不同種類水果圖像的準(zhǔn)確識別。
關(guān)鍵詞:水果;深度學(xué)習(xí);語義分割;圖像識別;二值圖像
中圖分類號:TP391.41
文獻(xiàn)標(biāo)識碼:A
文章編號:2095-5553 (2025) 01-0198-07
Fruit image recognition based on deep learning
Li Chunyu, Guo Xiaoqin, Yang Jingjing, Li Zhonghua
(School of Information Science and Engineering, Hebei North University, Zhangjiakou, 075000, China)
Abstract:
In order to effectively identify the types of fruits and improve the efficiency of commercial deep processing of fruit industry and offline fruit sales channels, this paper proposes a fruit image recognition method based on the combination of semantic segmentation model (U2-Net) and ResNet-50 model to realize automatic fruit image recognition. U2-Net is used to segment the binary image of fruit, and then the white pixel value in the binary image is changed into the real color value of fruit by OpenCV algorithm. Finally, the fruit image is recognized by ResNet-50. The results show that the accuracy of Alexent, VGG16, GoogLeNet and this model on the training set is 99.66%, 99.65%, 99.9% and 99.8%, and the accuracy of the verification set is 96.5%, 99.9%, 99.6% and 100%, respectively. The result showed that the fruit image recognition method proposed in this paper can effectively extract the color, shape, texture and other features of fruits, thus realizing accurate recognition of different kinds of fruit images.
Keywords:
fruit; deep learning; semantic segmentation; image recognition; binary image
0"引言
傳統(tǒng)的水果識別是通過人工參與,需要大量的人力物力的投入,成本高、效率低[1]。人工識別依靠工作人員的專業(yè)知識進(jìn)行判斷,工作人員對識別標(biāo)準(zhǔn)的理解不同也會使水果識別的準(zhǔn)確率相差甚遠(yuǎn)[2]。通過人工提取特征人力成本高、耗費(fèi)時間長、生產(chǎn)率低而且識別精度不穩(wěn)定,分類性能也極度依賴人工特征的選擇[3]。因此,水果識別難以實現(xiàn)快速、準(zhǔn)確和無損化。特別是有水果存在相互遮擋、重疊的情況下,存在的誤差更大[4]。
近年來,深度學(xué)習(xí)加快了人工智能的發(fā)展,深度學(xué)習(xí)算法在圖像識別和目標(biāo)檢測等方面受到眾多關(guān)注[5],比如水果基因鑒定[6]、水果品種選育[7]。深度學(xué)習(xí)具備很強(qiáng)的學(xué)習(xí)能力,表現(xiàn)非常好,而且適應(yīng)性好,有較好的移植性。之前,已經(jīng)有關(guān)于自動識別水果的相關(guān)研究。這些方法主要通過水果的表面特征來識別水果,如水果的顏色、大小、紋理、形狀等特征[8]。然而,通過表面特征識別水果缺乏普遍性[9]。為此,越來越多的學(xué)者通過深度學(xué)習(xí)技術(shù)自動提取水果的深層特征。林云森等[10]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的水果識別方法,試驗結(jié)果表明,所提出的水果識別方法具有較高的識別準(zhǔn)確率。黃玉富等[11]研究了基于多尺度特征融合的水果圖像識別算法,為避免訓(xùn)練過程中出現(xiàn)欠擬合現(xiàn)象,對Fruits-360中的水果圖像進(jìn)行數(shù)據(jù)擴(kuò)充,并進(jìn)一步灰度歸一化處理以減少計算量,在ResNet-50的骨干網(wǎng)絡(luò)上建立多尺度采樣層的同時,采用梯度下降法優(yōu)化網(wǎng)絡(luò),對水果圖像的識別精度高達(dá)99.4%。陳雪鑫等[12]提出一種基于改進(jìn)的最大類間方差法OTSU對水果圖像進(jìn)行分割,改進(jìn)后的OTSU所得閾值能分割到更加清晰的圖像,圖像分割的運(yùn)行時間明顯縮短,水果圖像識別的平均正確識別率提高15%左右。Hussain等[13]提出一種使用深度卷積神經(jīng)網(wǎng)絡(luò)來識別水果,對包含20個不同類別的水果數(shù)據(jù)集訓(xùn)練模型,達(dá)到96%的識別準(zhǔn)確率,但是把訓(xùn)練的模型在另一個數(shù)據(jù)集上進(jìn)行測試時,識別效果很差。Zhang等[14]提出了一種13層深度卷積神經(jīng)網(wǎng)絡(luò)來識別水果,為防止過擬合使用5種數(shù)據(jù)增強(qiáng)的方式擴(kuò)充數(shù)據(jù)集,并驗證最優(yōu)的卷積層數(shù)以及池化層數(shù),雖然對遮擋圖像能夠達(dá)到92.55%的準(zhǔn)確率,但是對水果數(shù)據(jù)集的清晰度有一定的要求,在模糊的圖像數(shù)據(jù)以及復(fù)雜背景下表現(xiàn)不佳。Xiang等[15]提出了基于MobileNetV2和遷移學(xué)習(xí)技術(shù)的水果圖像識別方法,通過構(gòu)建輕量級的神經(jīng)網(wǎng)絡(luò),在減少參數(shù)量的同時需要較小的計算代價,可以部署在計算受限的設(shè)備以及手機(jī)上,但是只有85.12%的識別精度,識別準(zhǔn)確率較低。Nikhitha等[16]提出了一種通過Inception V3模型對水果數(shù)據(jù)集進(jìn)行訓(xùn)練,該數(shù)據(jù)集是從GitHub上獲取的水果分類數(shù)據(jù)集,試驗表明,只有單個水果時,該模型有較高的準(zhǔn)確率,當(dāng)識別圖像中存在多種類別水果時,識別準(zhǔn)確率沒有單個水果準(zhǔn)確率那么高。Duong等[17]通過EfficientNet和MixNet兩大深度卷積網(wǎng)絡(luò)來識別水果,EfficientNet和MixNet模型在Fruit-360數(shù)據(jù)集上取得99%的識別準(zhǔn)確率,但EfficientNet需要大量的參數(shù),且計算量大,對計算設(shè)備的性能有較高的要求。針對這些問題,本文提出一種基于U2-Net和ResNet-50模型結(jié)合的水果圖像識別方法。
1"關(guān)鍵模塊設(shè)計
提出一種將U2-Net和ResNet-50模型結(jié)合的方式來識別水果。其主要思想是利用語義分割模型U2-Net將水果目標(biāo)與背景進(jìn)行分離,提取圖像中的水果特征,分割出二值圖像。再利用原圖與二值圖進(jìn)行相乘,得到原始圖像中的水果區(qū)域,并作為分類模型的輸入,通過ResNet-50網(wǎng)絡(luò)輸出識別結(jié)果,如圖1所示。U2-Net是基于Unet提出的一種新的網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò)結(jié)構(gòu)呈對稱性,類似UNet結(jié)構(gòu), 在每個小的Block中Encoder和Decoder模塊也類似U形結(jié)構(gòu),是兩層嵌套的U型結(jié)構(gòu),如圖2所示。在En_x中使用一種新的模塊RSU(ReSidual U-blocks),每個RSU的層數(shù)隨著Encoder的層數(shù)的增加而減少,即En_1、En_2、En_3、En_4使用的分別是RSU-7、RSU-6、RSU-5、RSU-4,更加重視高分辨率特征圖的特征提取,并進(jìn)行池化操作,降低尺寸。而En_5、En_6采用的是RSU-4F,沒有下采樣或上采樣,只進(jìn)行特征提取,不改變圖像尺寸。RUS替換了Unet中的卷積塊,可以更好地捕捉全局和局部的信息,通過U形狀結(jié)構(gòu)實現(xiàn)不同尺度不同感受野的特征的混合,能夠捕捉來自更多的不同尺度的全局信息。
通過U2-Net分割水果圖像數(shù)據(jù),訓(xùn)練參數(shù)如表1所示。在整個U2-Net網(wǎng)絡(luò)中,在Encoder階段,每通過一個block后都會通過最大池化層(Maxpool)下采樣2倍;在Decoder階段,在每個block前通過雙線性插值進(jìn)行上采樣2倍。并將每個階段的輸出通過一個3×3的卷積層,卷積層channal的個數(shù)為1,也就意味著通過3×3的卷積之后輸出的feature map的channal為1,然后通過雙線性插值的方法將得到的特征圖還原回輸入圖像的尺寸。最后將特征圖通過Concat進(jìn)行拼接,得到拼接之后的特征圖。再通過1×1的卷積層和Sigmoid激活函數(shù),得到最終融合之后的預(yù)測概率圖。
將U2-Net分割的二值圖像與彩色的圖像(原圖)按通道進(jìn)行點(diǎn)乘,其中,二值圖像與原圖大小相同,水果目標(biāo)區(qū)域為1,其他部分為0,通過與原圖圖像點(diǎn)乘的操作,如圖3所示,將圖像中的水果區(qū)域按實際顏色顯示出來,以提高模型的識別效率。
隨著網(wǎng)絡(luò)層數(shù)的不斷加深,出現(xiàn)梯度消失和梯度爆炸的現(xiàn)象,使網(wǎng)絡(luò)模型很難訓(xùn)練。為解決這一問題,He等[18]提出一種殘差網(wǎng)絡(luò),有Res18、Res34、Res50、Res101和Res152,殘差模塊的引入有效地解決深度卷積網(wǎng)絡(luò)的退化問題,提升模型的特征提取能力。主要采用ResNet-50網(wǎng)絡(luò)模型對水果進(jìn)行識別分析。ResNet-50主要由卷積層、池化層、全連接層和殘差網(wǎng)絡(luò)組成。其中殘差網(wǎng)絡(luò)包括輸入層、卷積層、多個殘差模塊,激活函數(shù)、池化層。它的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,包括5個Stage(Stage0、Stage1、Stage2、Stage3、Stage4),每個階段又分為不同的殘差結(jié)構(gòu),分別有3、4、5、6個瓶頸層。其Stage0的結(jié)構(gòu)比較簡單,是對輸入進(jìn)行預(yù)處理操作,Stage1主要使負(fù)責(zé)對圖像進(jìn)行特征提取,而Stage2、Stage3、Stage4結(jié)構(gòu)相似,分別是提取更深層的特征,對上一階段提取的特征進(jìn)一步加深和提升,再通過全連接層作為輸出,最后通過Softmax處理器將輸出轉(zhuǎn)換為概率分布。
在圖4中,輸入特征矩陣的深度以256為例,通過第一個1×1的卷積層后,特征層的高和寬不變,深度由之前的256降為64,起到降維的作用,再通過一個3×3的卷積層,最后在同一個1×1的卷積層,使輸出與輸入特征矩陣深度一樣,使高度、寬度和深度相同,即可執(zhí)行相加操作。相比之下,該方法參數(shù)數(shù)目是69632,如果以同樣的輸入輸出維度若不使用第一個1×1卷積,而是采用兩個3×3卷積,參數(shù)數(shù)目達(dá)到1179648,相差16.94倍??梢钥闯觯褂?×1卷積的bottleneck計算量比原有的減少5.9%。雖然輸入的特征緯度是之前的4倍,但是通過設(shè)置之后,與之前的算法相比,降低了結(jié)構(gòu)計算量。
2"模型訓(xùn)練
2.1"數(shù)據(jù)獲取與預(yù)處理
本研究使用的水果圖像數(shù)據(jù)集是從Kaggle平臺下載的公共數(shù)據(jù)集。包括以下15種不同種類的水果:Apple、Guava、Mango、Peach、Pear、Persimmon、Plum、Orange、Banana、Carambola、Kiwi、Pitaya、Pomegranate、Tomatoes和muskmelon。該數(shù)據(jù)集包括44460張分辨率為320像素×258像素的水果圖像,涵蓋多種場景,如光線、陰影和陽光等。通過預(yù)處理操作將水果圖像分辨率統(tǒng)一調(diào)整為224像素×224像素,圖像格式為JPG,并剔除無效數(shù)據(jù)。再利用U2-Net將水果從背景中分離,再使用二值圖與原始圖像做點(diǎn)乘,得到原始圖像中的水果區(qū)域。部分分割后的數(shù)據(jù)集樣本如圖5所示。為避免數(shù)據(jù)集類別之間數(shù)據(jù)不平衡,對Carambola、Persimmon、Plum、Pomegranate和muskmelon類別通過翻轉(zhuǎn)、旋轉(zhuǎn)、裁剪、變形和縮放的方式對圖像數(shù)據(jù)進(jìn)行增強(qiáng),從而提高模型魯棒性,降低過擬合風(fēng)險。然后,數(shù)據(jù)集被隨機(jī)分為訓(xùn)練集、驗證集和測試集,比例為60∶20∶20。各類水果在訓(xùn)練、驗證和測試數(shù)據(jù)集中的圖像數(shù)量如表2所示。
2.2"訓(xùn)練參數(shù)配置
使用Window 10操作系統(tǒng),CPU處理器是Intel(R) Xeon(R) CPU E5-2690 v3@2.60GHz,內(nèi)存為32G。GPU為NVIDIA GeForce RTX 3060,顯存容量為12G。采用TensorFlow+Keras深度學(xué)習(xí)開源框架,并使用Python作為編程語言。為保證試驗的有效性,各模型都采用Adam優(yōu)化器,每批同時使用32幅圖像進(jìn)行訓(xùn)練,共迭代60次。Alexnet、VGG16、GoogLeNet和本方法具體訓(xùn)練參數(shù)如表3所示。
2.3"訓(xùn)練精度評估
采用準(zhǔn)確率(Accuracy)、精確率(Precision)、召回率(Recall)和F1值作為模型的評估方法[19]。準(zhǔn)確率為正確預(yù)測的樣本個數(shù)占總樣本個數(shù)的百分比。精確率為在所有預(yù)測為正的樣本中實際為正樣本的概率。召回率為在實際為正的樣本中被預(yù)測為正樣本的概率。F1值為調(diào)和平均值,用于平衡精確率和召回率,如式(1)~式(4)所示。
Accuracy=TP+TNTP+TN+FF+FN
(1)
Precision=TPTP+FP
(2)
Recall=TPTP+FN
(3)
F1=2Precision×RecallPrecision+Recall
(4)
式中:
TP——真實值為正且預(yù)測為正的數(shù)目;
TN——真實值為負(fù)且預(yù)測也為負(fù)的數(shù)目;
FP——真實值為負(fù)但預(yù)測為正的數(shù)目;
FN——真實值為正而預(yù)測值為負(fù)的數(shù)目。
3"結(jié)果與分析
為比較本文方法在水果分類識別中的性能,選擇Alexnet、VGG16、GoogLeNet網(wǎng)絡(luò)來比較模型的性能。四種模型在驗證集上的最佳驗證結(jié)果如表4所示。四種模型在驗證集上的準(zhǔn)確率為99.6%~100%,驗證集上的損失為0.001~0.0118。其中,訓(xùn)練集與驗證集的準(zhǔn)確率差異為0~0.003%,四個模型都表現(xiàn)出很高的識別性能。該方法實現(xiàn)了最高的驗證準(zhǔn)確率,在驗證集上的損失擬合的最好,在水果數(shù)據(jù)集上表現(xiàn)出最優(yōu)效果。
采用測試集中的8869張圖像進(jìn)行批量預(yù)測,計算單張圖像的預(yù)測時間。從表5可知,VGG16網(wǎng)絡(luò)模型參數(shù)量最多,模型最大,訓(xùn)練持續(xù)時間與單張圖像預(yù)測時間最長,因為該模型網(wǎng)絡(luò)復(fù)雜,層數(shù)較深。相比于Alexnet和GoogLeNet,本文方法具有更深的層次,能夠從輸入數(shù)據(jù)中提取更多的特征,并且引入殘差連接,可以有效地解決梯度消失和梯度爆炸的問題。同時,從表4可知,在識別水果圖像中,本文方法驗證準(zhǔn)確率最高,損失值最低,與其他模型相比,本文方法在識別水果圖像中表現(xiàn)出色,并且擁有更好的參數(shù)效率。
Alexnet、VGG16、GoogLeNet與本文方法分別對數(shù)據(jù)集種的前8種水果進(jìn)行對比試驗,結(jié)果如表6所示,本文方法整體的評估得分最高,精確率比Alexnet、VGG16和GoogLeNet分別高出0.2、0.3和0.4個百分點(diǎn),召回率分別高出0.8、0.8和0.4個百分點(diǎn),F(xiàn)1值分別高出0.3、0.7和0.7個百分點(diǎn),本文方法的評價指標(biāo)優(yōu)于Alexnet、VGG16和GoogLeNet。
水果圖像的訓(xùn)練集和驗證集在Alexnet、VGG16、GoogLeNet準(zhǔn)確率和損失變化曲線如圖6和圖7所示。當(dāng)epoch為30時,訓(xùn)練集和驗證集中的準(zhǔn)確率都很穩(wěn)定,損失率擬合較好。其他三種模型在訓(xùn)練集和驗證集上的識別準(zhǔn)確率均低于本文方法。
同時可以看出,Alexnet、VGG16、GoogLeNet在訓(xùn)練集上表現(xiàn)很好,但是在驗證集上準(zhǔn)確率波動較大,存在更高的過度擬合的風(fēng)險。本方法在驗證集上的精度比訓(xùn)練集上高而且接近于1,驗證集上的損失比訓(xùn)練集上低,接近于0。從網(wǎng)絡(luò)的精度和損失結(jié)果來看,本方法可準(zhǔn)確識別水果圖像的具體特征,能夠在多種水果中準(zhǔn)確識別水果的類別,為實現(xiàn)精準(zhǔn)識別水果打下良好基礎(chǔ)。
4"討論
結(jié)合U2-Net和ResNet-50網(wǎng)絡(luò)模型進(jìn)行水果圖像識別的研究,在水果數(shù)據(jù)集上取得較高的識別精度。U2-Net模型能夠提取圖像的邊緣和紋理信息,有助于抽象出有用且具體的特征來區(qū)分不同水果之間的差異;而ResNet-50模型能夠?qū)W習(xí)到更高層次的特征表示,并避免梯度消失的問題。該方法使本模型在數(shù)據(jù)處理和訓(xùn)練層面展示出較好的性能和效率。同時,在對大規(guī)模數(shù)據(jù)集進(jìn)行訓(xùn)練和處理時,該模型也表現(xiàn)出較好的普適性和適應(yīng)性,提高了水果圖像的識別速度和精度。雖然,該方法在水果圖像識別中取得一定的成果,但是在實際應(yīng)用中仍存在一些局限性和不足:(1)水果類別多樣,而且相同水果的外觀和顏色也有差異,因此水果圖像識別的準(zhǔn)確度和魯棒性仍需要不斷提升。(2)與傳統(tǒng)算法相比,所提出的網(wǎng)絡(luò)模型包含大量的參數(shù)和計算操作,這導(dǎo)致該模型在計算資源方面有較高的要求,對于一些低端設(shè)備可能無法滿足需求,會受到一定的限制。
將從以下3方面對水果圖像識別進(jìn)行深入研究:(1)通過引入其他先進(jìn)網(wǎng)絡(luò)模型、多模態(tài)數(shù)據(jù)融合以及減少噪聲等策略,提升模型的準(zhǔn)確度和魯棒性。(2)通過輕量化的方法來減小模型大小以降低計算資源的消耗。采用通道剪枝的方式,計算各個通道的重要性以確定哪些通道對于模型性能的影響較小,將不重要的通道刪除,在損失精度不顯著的情況下,減少通道的數(shù)量,降低模型的計算復(fù)雜度,從而減小模型的大小,加速模型的推理過程。(3)將該網(wǎng)絡(luò)模型部署在小程序端。在小程序中,結(jié)合水果稱對水果的重量進(jìn)行測量,根據(jù)識別結(jié)果和重量,實時計算水果的價格。
5"結(jié)論
1) 傳統(tǒng)圖像識別方法準(zhǔn)確率并不理想,提出一種基于語義分割模型U2-Net和ResNet-50的識別方法。首先使用U2-Net將水果圖像從背景中分離,分割出二值圖像,再通過原圖與二值圖相乘,分割出水果圖像的原始顏色,作為ResNet-50的輸入,通過ResNet-50網(wǎng)絡(luò)輸出識別結(jié)果,在驗證集中準(zhǔn)確率達(dá)到100%。
2) 通過試驗對比分析可知,當(dāng)?shù)螖?shù)為30時,訓(xùn)練集和驗證集中的準(zhǔn)確率都很穩(wěn)定,損失率擬合較好。Alexent、VGG16、GoogLeNet和本模型在訓(xùn)練集上的準(zhǔn)確率分別為99.66%、99.65%、99.9%、99.8%,在驗證集上的準(zhǔn)確率分別為96.5%、99.9%、99.6%、100%??梢詽M足后期對水果圖像識別實際工況下的模型識別檢測要求。
參"考"文"獻(xiàn)
[1]
Miriti E. Classification of selected apple fruit varieties using Naive Bayes [D]. Nairobi:University of Nairobi, 2016.
[2]
Ali M A H, Thai K W. Automated fruit grading system [C]. 2017 IEEE 3rd International Symposium in Robotics and Manufacturing Automation (ROMA). IEEE, 2017: 1-6.
[3]
Saranya N, Srinivasan K,et al. Fruit classification using traditional machine learning and deep learning approach [C]. Computational Vision and Bio-Inspired Computing: Springer International Publishing, 2020: 79-89.
[4]
Jia W, Tian Y, Luo R, et al. Detection and segmentation of overlapped fruits based on optimized mask R-CNN application in apple harvesting robot [J]. Computers and Electronics in Agriculture, 2020, 172: 105380.
[5]
Gill H S, Khehra B S. Fruit image classification using deep learning [J]. Computers, Materials amp; Continua, 2022, 71(3).
[6]
向銳, 孫藝萌, 梁晨, 等. 葡萄PLATZ家族基因鑒定及其在種子發(fā)育過程中的表達(dá)分析[J]. 果樹學(xué)報, 2023, 40(1): 13-24.
Xiang Rui, Sun Yimeng, Liang Chen, et al. Genome-wide identification of grape PLATZ family genes and expression analysis during seed development [J]. Journal of Fruit Science, 2023, 40(1): 13-24.
[7]
韋曉霞, 梁黨弟, 賴瑞聯(lián), 等. 優(yōu)質(zhì)早熟大果百香果新品種蜜語的選育[J]. 果樹學(xué)報, 2023, 40(1): 187-190.
Wei Xiaoxia, Liang Dangdi, Lai Ruilian, et al. A new early-maturing and high-yielding passion fruit cultivar Miyu [J]. Journal of Fruit Science, 2023, 40(1): 187-190.
[8]
Feng J, Zeng L, He L. Apple fruit recognition algorithm based on multi-spectral dynamic image analysis [J]. Sensors, 2019, 19(4): 949.
[9]
Wang Y, Chen Y. Fruit morphological measurement based on three-dimensional reconstruction [J]. Agronomy, 2020, 10(4): 455.
[10]
林云森, 范文強(qiáng), 姜佳良. 基于深度學(xué)習(xí)的水果識別技術(shù)研究[J]. 光電技術(shù)應(yīng)用, 2019, 34(6): 45-48, 58.
Lin Yunsen, Fan Wenqiang, Jiang Jialiang. Research on fruit recognition technology based on deep learning [J].Electro-Optic Technology Application, 2019, 34(6): 45-48, 58.
[11]
黃玉富, 樸燕, 張漢輝. 基于多尺度特征融合的水果圖像識別算法研究[J]. 長春理工大學(xué)學(xué)報(自然科學(xué)版), 2021, 44(1): 87-94.
Huang Yufu, Pu Yan,Zhang Hanhui. Research on fruit image recognition algorithm based on multiscale feature fusion [J]. Journal of Changchun University of Science and Technology, 2021, 44(1): 87-94.
[12]
陳雪鑫, 卜慶凱. 基于改進(jìn)的最大類間方差法的水果圖像識別研究[J].青島大學(xué)學(xué)報(工程技版), 2019, 34(2):33-38, 62.
Chen Xuexin, Bu Qingkai. Fuzzy backstepping position control for flexible joint robots [J].Journal of Qingdao University (Engineering amp; Technology Edition), 2019, 34(2): 33-38, 62.
[13]
Hussain D, Hussain I, Ismail M, et al. A simple and efficient deep learning-based framework for automatic fruit recognition [J]. Computational Intelligence and Neuroscience, 2022(1): 6538117.
[14]
Zhang Y D, Dong Z, Chen X, et al.Image based fruit category classification by 13-layer deep convolutional neural network and data augmentation [J]. Multimedia Tools and Applications, 2019, 78: 3613-3632.
[15]
Xiang Q, Wang X, Li R, et al.Fruit image classification based on Mobilenetv2 with transfer learning technique [C]. Proceedings of the 3rd International Conference on Computer Science and Application Engineering. 2019: 1-7.
[16]
Nikhitha M, Sri S R, Maheswari B U. Fruit recognition and grade of disease detection using inception v3 model [C]. 2019 3rd International conference on Electronics, Communication and Aerospace Technology (ICECA). IEEE, 2019: 1040-1043.
[17]
Duong L T, Nguyen P T,Di Sipio C,et al. Automated fruit recognition using EfficientNet and MixNet [J]. Computers and Electronics in Agriculture, 2020, 171: 105326.
[18]
He K, Zhang X,Ren S,et al.Deep residual learning for image recognition [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.
[19]
Grandini M, Bagli E, Visani G. Metrics for multi-class classification: An overview [J]. arXiv preprint arXiv: 2008.05756, 2020.