關(guān)鍵字:大豆;種子活力;檢測;高光譜;深度學(xué)習(xí);注意力機(jī)制中圖分類號:S127 文獻(xiàn)標(biāo)識碼:A 文章編號:1000-4440(2025)05-0927-10
Abstract:To achieve eficient,accurate,and non-destructive identification of soybean seed vigor,this study used seedsofthesoybeanvariety Williams 82asexperimentalmaterials.Alibraryof soybeanseeds withdiferentlevelsof vigor wasconstructedthroughartificialagingtreatments.HyperspectralimagesandRGBimagesof theseedswerethencollected to generate three image datasets (RGB dataset,SIQ dataset,and ENVIdataset).Four deep learning models (Vg16Net, GoogLeNet,MobileV3Net,and ResNet-34)were employed to detectseed vigor,and theoptimal modelsand datasets were selected.Furthermore,thecoordinate atention(CA)mechanismandlabel smothing loss function were incorporated into theoptimal models toenhancetheirdetectionperformanceandrobustnessTheresultsdemonstratedthatusingtheSIQdata
set and ResNet-34 model,the recognition accuracy reached 97.6% and 96.8% on the training set and validation set,respectively.The detection performance was superiortoothercombinationsofmodelsand datasets.The CA-ResNet-34 model,which incorporated the CA mechanismand label smoothinglossfunction into the ResNet-34 model,achieved a detection accuracy of 98.5% for soy
bean seed vigor based onthe SIQdataset.Thisrepresentedanimprovementof1.7percentage points inaccuracycompared totheoriginal ResNet-34model.Theresultsofthis studycanprovideanew methodfortheaccurate,non-destructive,and efficient detection of soybean seed vigor.
Key words: soybean;seed vigor;detection;hyperspectral;deep learning;atention mechanism
大豆是中國重要的油料作物和經(jīng)濟(jì)作物,2023年中國大豆種植面積達(dá) 1.047×107hm2 ,產(chǎn)量約2.084×107 t。由于大豆種子的種皮較薄,內(nèi)部組織結(jié)構(gòu)較為松散,使得大豆種子在儲存時(shí)對環(huán)境條件比較敏感,極易在儲存時(shí)發(fā)生老化。而種子老化常導(dǎo)致其活力下降、出苗延遲、成苗率低以及幼苗生長勢和抗逆能力下降,進(jìn)而降低大豆的產(chǎn)量和經(jīng)濟(jì)價(jià)值[1-2]。老化種子和非老化種子在外表上并沒有明顯的差異,非專業(yè)人員很難區(qū)分。生產(chǎn)中常通過測定種子的酶活性、浸泡液電導(dǎo)率和發(fā)芽率等來評估種子的質(zhì)量和活力,但這些方法耗時(shí)長、成本高且易對種子造成損害,因此生產(chǎn)中亟需建立一種高效、精準(zhǔn)、無損的大豆種子活力度檢測方法。
近年來,基于高光譜技術(shù)和機(jī)器學(xué)習(xí)方法(包括深度學(xué)習(xí)方法)的作物長勢監(jiān)測、作物營養(yǎng)狀況監(jiān)測、病蟲害監(jiān)測已取得較多成果[3-8]。在基于高光譜技術(shù)和深度學(xué)習(xí)方法的種子活力檢測方面亦得到初步開展。張伏等利用 963~1698nm 的玉米種子光譜數(shù)據(jù),實(shí)現(xiàn)了熱損傷玉米種子的檢測,識別精確率達(dá) 98.33% 。Liu等[10]基于光譜-空間特征提取高光譜圖像,實(shí)現(xiàn)了糯玉米種子機(jī)械損傷檢測。Zhang等[1利用高光譜成像技術(shù)結(jié)合深度森林模型進(jìn)行凍害水稻種子的識別。彭彥昆等[12利用近紅外光譜和PCA-SVM模型實(shí)現(xiàn)熱損傷番茄種子的識別;Peng等[13]利用高光譜成像和深度學(xué)習(xí)方法進(jìn)行缺陷松子的檢測。Al-Amery等[14]利用近紅外光譜數(shù)據(jù),構(gòu)建了大豆種子活力的偏最小二乘回歸(PLSR)分類模型,該模型在區(qū)分高活力與低活力種子方面表現(xiàn)出較高的準(zhǔn)確性,準(zhǔn)確率超過 85% 。然而在進(jìn)行更精細(xì)化的種子活力檢測時(shí)效果并不理想。Zhang等[15]結(jié)合高光譜成像技術(shù)、非靶向代謝組學(xué)方法和機(jī)器學(xué)習(xí)方法等成功實(shí)現(xiàn)自然老化和加速老化甜玉米種子的活力監(jiān)測。Ambrose等[16]利用高光譜成像技術(shù)和PLSDA模型實(shí)現(xiàn)玉米種子活力的快速測定; Xu 等[17]利用高光譜成像結(jié)合多元數(shù)據(jù)分析成功實(shí)現(xiàn)玉米種子活力分類;丁子予等[18]利用玉米種子全光譜信息提取特征光譜,并結(jié)合深度學(xué)習(xí)方法實(shí)現(xiàn)玉米種子活力檢測分類。Qi等[9]利用一種改進(jìn)的DCGAN(深度卷積生成對抗網(wǎng)絡(luò))和近紅外高光譜成像技術(shù)實(shí)現(xiàn)水稻種子活力檢測。此外,高光譜技術(shù)在西瓜、辣椒、甜菜等作物種子的活力檢測中亦有開展[20-22] O
目前利用種子表型進(jìn)行識別的相關(guān)研究很多,但由于大多豆類種子老化后表型并無明顯變化,針對大豆種子活力檢測的研究還比較少,所得結(jié)果難以應(yīng)用到實(shí)際生產(chǎn)中,且基于高光譜成像技術(shù)和深度學(xué)習(xí)方法的大豆種子活力檢測更少。此外,研究人員提出了較多的高光譜圖像處理方法,但不同處理方法所得數(shù)據(jù)對種子活力檢測差異比較的研究較少。因此,本研究以不同活力大豆種子的高光譜圖像為研究對象,結(jié)合深度學(xué)習(xí)方法,通過多個(gè)數(shù)據(jù)集和多個(gè)模型相互交叉訓(xùn)練篩選出最優(yōu)數(shù)據(jù)集和較優(yōu)模型,并對較優(yōu)模型結(jié)構(gòu)以及訓(xùn)練方式加以優(yōu)化實(shí)現(xiàn)對不同活力度大豆種子高效、精準(zhǔn)、無損識別,從而為大豆種子篩選和大豆種子活力檢測儀器的開發(fā)提供參考。
1材料與方法
1.1種子處理
本研究試驗(yàn)所用種子為大豆品種Williams82種子,由省農(nóng)業(yè)科學(xué)院經(jīng)濟(jì)作物研究所提供。2023年8月,挑選大小均勻、顆粒飽滿且無損的大豆種子3900粒,利用3個(gè)小網(wǎng)袋平均分裝后,用 1% 次氯化鈉溶液浸泡 5min 后沖洗干凈,1袋為不作處理對照,另外2袋放入提前預(yù)熱好的溫度( 58±1 ) C 的恒溫水浴鍋中進(jìn)行人工老化處理[23-24],分別水浴 12min 和24min ,取出后平鋪放在通風(fēng)處自然干燥3~5d直至種子含水量降至原狀態(tài),得到未老化種子、老化12min 種子及老化 24min 種子,如圖1所示。從各處理種子中取出100粒,先采集各粒種子的高光譜數(shù)據(jù)及影像數(shù)據(jù),再在恒溫 28°C 智能溫室中進(jìn)行發(fā)芽試驗(yàn),3d后觀察種子的萌發(fā)情況,以種子萌發(fā)的芽長超過自身長度為正常萌發(fā)統(tǒng)計(jì)萌發(fā)率。根據(jù)芽長將種子活力分為高活力、中活力和低活力,對應(yīng)芽長分別為gt;12.1cm.5.1~12.0cm 和 ?5.0cm 。
1.2 圖像采集
利用SpecimIQ手持式高光譜成像儀(芬蘭SPECIM公司產(chǎn)品)采集各處理大豆種子的高光譜圖像和RGB圖像。采集時(shí)利用三腳架固定成像儀后將大豆種子每4粒一組擺放至鏡頭下方垂直
30cm 處,采用Simultaneous參照白板進(jìn)行數(shù)據(jù)采集,最終采集到各粒種子 397~1 004nm 波段的高光譜數(shù)據(jù)和RGB圖像。
1.3數(shù)據(jù)集制作
直接將采集到的RGB圖像導(dǎo)出并裁剪得到RGB初始數(shù)據(jù)集,初始數(shù)據(jù)集經(jīng)過水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、色彩增強(qiáng)、添加噪聲、飽和度調(diào)整等數(shù)據(jù)增強(qiáng)后,每個(gè)處理可得600張RGB圖像數(shù)據(jù),3個(gè)處理共得1800張RGB數(shù)據(jù)。其中 70% 用作訓(xùn)練集,30% 用作測試集。
采集得到的高光譜數(shù)據(jù)集采用兩種方式進(jìn)行處理,一是利用SpecimIQ手持式高光譜成像儀配套的IQStudio高光譜數(shù)據(jù)可視化程序進(jìn)行處理,二是利用ENVI5.3軟件進(jìn)行處理。
IQStudio導(dǎo)人采集的高光譜數(shù)據(jù)后在不同處理的種子表面光線均勻的地方分別選取300個(gè)不同的像素點(diǎn),根據(jù)不同活力種子的高光譜曲線特征(圖2),提取光譜反射率 .gt;75% 的斑塊進(jìn)行標(biāo)記(圖3),并導(dǎo)出和裁剪得到SIQ數(shù)據(jù)集。
將高光譜數(shù)據(jù)導(dǎo)人ENVI5.3軟件后,以不同活力種子整個(gè)表面為感興趣區(qū)域,計(jì)算不同活力種子整個(gè)表面的平均光譜曲線(圖4),構(gòu)建不同活力種子的平均高光譜特征數(shù)據(jù)庫。再根據(jù)種子表面各像素點(diǎn)的高光譜曲線特征,利用光譜角映射分類器進(jìn)行種子表面光譜特征分布分析(圖5),構(gòu)建ENVI數(shù)據(jù)集。
1.4 模型構(gòu)建與評估
1.4.1模型構(gòu)建、選擇與優(yōu)化使用Pytouch3.8平臺構(gòu)建 Vgg16Net[25] 、GoogLeNet[26]、Mobi-leV3Net[27] ! ResNet-34[28] 4個(gè)深度卷積神經(jīng)網(wǎng)絡(luò)模型。然后利用不同模型和數(shù)據(jù)集進(jìn)行大豆種子活力檢測性能分析,篩選出最優(yōu)模型和數(shù)據(jù)集,再進(jìn)一步在最優(yōu)模型中添加坐標(biāo)注意力(Coordinateattention,CA)機(jī)制,模型訓(xùn)練過程中選用標(biāo)簽平滑用作損失函數(shù)的計(jì)算,進(jìn)一步優(yōu)化模型,提升模型檢測性能。
1.4.1.1 標(biāo)簽平滑標(biāo)簽平滑(Label smoothing)是一種正則化技術(shù),用于深度學(xué)習(xí)模型的訓(xùn)練過程中[29]。該技術(shù)能避免模型對訓(xùn)練數(shù)據(jù)中的某些標(biāo)簽過于自信導(dǎo)致過擬合,有助于模型學(xué)習(xí)到更為平滑的決策邊界。標(biāo)簽平滑通常與交叉熵?fù)p失函數(shù)結(jié)合使用,是模型訓(xùn)練過程中損失函數(shù)的重要組成部分[30]
1.4.1.2坐標(biāo)注意力機(jī)制坐標(biāo)注意力(CA)機(jī)制是一個(gè)即插即用的輕量級注意力模塊,是將位置信息嵌入到通道注意力中[31]。與傳統(tǒng)的通道注意力不同,本研究采用的CA機(jī)制通過一維全局池化將輸入特征分解為兩個(gè)特征編碼,分別沿著不同空間方向聚合特征,以保留精確位置信息[32]。CA 機(jī)制結(jié)構(gòu)如圖6所示。維度為 C×H×W 的輸人特征圖首先沿寬度(W)和高度 (H) 分別進(jìn)行全局平均池化,得到維度為 C×H×1 和 C×1×W 的特征圖,然后經(jīng)過特征融合與轉(zhuǎn)換層( Concat+Conv2d) 將兩個(gè)池化后的特征圖像在通道維度上進(jìn)行拼接,得到一個(gè)C/r×1×(W+H) 的特征圖像( r 為調(diào)節(jié)注意力機(jī)制的縮減系數(shù)),進(jìn)一步經(jīng)過批量歸一化與非線性激活層(BatchNorm 1+ Non-linear)對卷積后的特征圖進(jìn)行批量歸一化(BatchNorm)處理和非線性激活處理,以提高模型的表達(dá)能力,再經(jīng)過分裂(Split)與二維卷積模塊(Conv2d)將批量歸一化和激活后的特征圖分裂為兩個(gè)維度分別為 C×1×W 和 C×H×1 的特征圖,再經(jīng)過Sigmoid激活與重標(biāo)定層對兩個(gè)卷積后的特征圖生成兩個(gè)注意力圖,這兩個(gè)圖將分別在寬度和高度上對輸入特征圖進(jìn)行重標(biāo)定;再經(jīng)過特征權(quán)重重新分配層(Re-weight)將Sigmoid激活后的注意力圖輸出為加權(quán)后的維度為 C×H×W 特征圖,此時(shí)特征圖就完成了某些特征的強(qiáng)化或弱化,同時(shí)結(jié)合了原始輸人特征的通道信息和空間位置信息。
CA機(jī)制能夠非常準(zhǔn)確地捕獲到不同通道之間的關(guān)系,而且還考慮到相關(guān)的位置信息,提高了特征表達(dá)的準(zhǔn)確性[33]。憑借其靈活性和輕量化設(shè)計(jì),CA機(jī)制能夠無縫集成到不同的網(wǎng)絡(luò)架構(gòu)中,滿足多樣化的任務(wù)需求。
1.4.1.3 CA-ResNet-34模型結(jié)構(gòu)CA-ResNet-34模型網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示。在CA-ResNet-34模型中,每個(gè)殘差塊包含多個(gè)卷積層和注意力模塊,以及1個(gè)捷徑連接。對于一個(gè)殘差塊,如果輸入和輸出的形狀相同,則捷徑分支中無需添加 1×1 卷積。如果c :通道數(shù)量, 1 :圖像的高度,W:圖像的寬度,r:調(diào)節(jié)注意力機(jī)制的縮減系數(shù), AvgPool :空間池化層, Conv2d:2 維卷積,Concat + Conv2d:特征融合與轉(zhuǎn)換層, BatchNorm+ Non-linear:批量歸一化與非線性激活層,Sigmoid:激活函數(shù),Re-Weight:特征權(quán)重重新分配層,Split:分裂與二維卷積模塊。
輸入和輸出的形狀不同,比如在降采樣或者升維的情況下,則捷徑分支中需要添加 1×1 卷積層,用于匹配輸人和輸出的形狀。
經(jīng)規(guī)范化處理成維度為 3×224×224 的圖片輸人模型,模型由8個(gè)模塊組成,數(shù)據(jù)輸入后首先經(jīng)過卷積核大小為 7×7 的卷積層,再通過1個(gè)最大池化下采樣層,然后經(jīng)過4個(gè)殘差模塊處理,最后經(jīng)過平均池化下采樣層到全連接層實(shí)現(xiàn)特征提取并分類。每個(gè)殘差模塊都有2個(gè)卷積核大小為 3×3 的卷積層和2個(gè)CA機(jī)制模塊組成,相同維度的殘差模塊直接相連,不同維度的殘差模塊通過1個(gè)核大小為 1×1 的卷積層相連,從而實(shí)現(xiàn)升維或降維操作。
1.4.2模型評估本研究采用混淆矩陣和準(zhǔn)確率(Accuracy)精確度(Precision)、召回率(Recall)、特異度(Specificity)等指標(biāo)來評估模型的檢測性能?;煜仃嚹芙沂灸P偷目傮w性能,詳細(xì)展示模型在各個(gè)類別上的預(yù)測準(zhǔn)確性,是衡量模型檢測性能的重要標(biāo)準(zhǔn)之一[34]。準(zhǔn)確率、精確度、召回率、特異度等指標(biāo)的計(jì)算方法如下:
式中, TP 為實(shí)際值為正、預(yù)測結(jié)果為正的樣本數(shù); FP 為實(shí)際值為負(fù)、預(yù)測結(jié)果為正的樣本數(shù);TN為實(shí)際值為負(fù)、預(yù)測結(jié)果為負(fù)的樣本數(shù); FN 為實(shí)際值為正、預(yù)測結(jié)果為負(fù)的樣本數(shù)。
2 結(jié)果與分析
2.1 大豆種子的萌發(fā)
避光萌發(fā)3d后,各處理大豆種子的萌發(fā)情況如圖8所示。從圖中可以看出,未老化處理的CK種子萌發(fā)率達(dá) 99% ,芽長基本在 12cm 以上;老化12min 處理的大豆種子萌發(fā)率為 54% ,且萌發(fā)種子的芽長大多低于 12cm ;老化 24min 處理的大豆種子萌發(fā)率僅為 7% ,基本均為低活力種子。
2.2適宜模型和數(shù)據(jù)集的篩選
不同數(shù)據(jù)集下,4個(gè)模型對大豆種子活力檢測結(jié)果的準(zhǔn)確率如表1所示。從表中可以看出,基于RGB、SIQ、ENVI數(shù)據(jù)集,ResNet-34模型驗(yàn)證集準(zhǔn)確率分別達(dá)到 91.9%9.96.8%.97.4% ,表現(xiàn)最好?;赟IQ數(shù)據(jù)集, ResNet-34 模型的訓(xùn)練集和驗(yàn)證集識別準(zhǔn)確率分別達(dá)到 97.6% 和 96.8% ,效果較好?;赗GB數(shù)據(jù)集、ENVI數(shù)據(jù)集,ResNet-34模型的識別準(zhǔn)確率亦均在 90.0% 以上,但兩者在訓(xùn)練集和驗(yàn)證集上的檢測準(zhǔn)確率差異均在5個(gè)百分點(diǎn)以上,說明基于RGB數(shù)據(jù)集和ENVI數(shù)據(jù)集,ResNet-34模型的大豆種子活力檢測存在一定的欠擬合現(xiàn)象。
基于不同模型和數(shù)據(jù)集的大豆種子活力檢測結(jié)果的混淆矩陣如圖9所示。從圖中可以看出,基于RGB和SIQ數(shù)據(jù)集, Vgg16Net 模型無法正確區(qū)分不同活力的種子,基于ENVI數(shù)據(jù)集, Vgg16Net 模型的分類效果有所改善,但錯(cuò)判情況仍較為嚴(yán)重?;?個(gè)數(shù)據(jù)集,MobileV3Net模型、GoogLeNet模型能較好地進(jìn)行不同活力大豆種子的分類,其中,基于ENVI數(shù)據(jù)集的分類效果更好?;赗GB、SIQ、ENVI3個(gè)數(shù)據(jù)集,ResNet-34模型的大豆種子活力分類效果優(yōu)于其他3個(gè)模型;基于SIQ數(shù)據(jù)集、ENVI數(shù)據(jù)集,ResNet-34模型的誤判比基于RGB數(shù)據(jù)集更少。但由于基于ENVI數(shù)據(jù)集,ResNet-34模型的種子活力檢測準(zhǔn)確率在訓(xùn)練集和驗(yàn)證集上存在較大差異,即模型存在過擬合現(xiàn)象,因此,本研究認(rèn)為,基于SIQ數(shù)據(jù)集的ResNet-34模型大豆種子活力檢測效果最好。
基于RGB數(shù)據(jù)集、SIQ數(shù)據(jù)集和ENVI數(shù)據(jù)集,ResNet-34模型對大豆種子活力檢測的精確度、召回率、特異度如表2所示。從表中可以看出,基于SIQ和ENVI數(shù)據(jù)集的ResNet-34模型大豆種子活力的檢測精確度、召回率、特異度均表現(xiàn)較好,而基于RGB數(shù)據(jù)集,ResNet-34模型的精確度和召回率相對較低??紤]到基于ENVI數(shù)據(jù)集進(jìn)行檢測出現(xiàn)的過擬合現(xiàn)象,本研究認(rèn)為本試驗(yàn)條件下,利用Res-Net-34模型和SIQ數(shù)據(jù)集進(jìn)行大豆種子活力檢測效果較好。
2.3 CA-ResNet-34訓(xùn)練結(jié)果
基于SIQ數(shù)據(jù)集,CA-ResNet-34模型訓(xùn)練集和驗(yàn)證集的準(zhǔn)確率和損失率隨訓(xùn)練迭代次數(shù)的變化如圖10所示。從圖中可以看出,迭代次數(shù)低于100次時(shí),訓(xùn)練集與驗(yàn)證集的準(zhǔn)確率快速增加,而損失率迅速下降,當(dāng)?shù)螖?shù)達(dá)到300次時(shí),訓(xùn)練集與驗(yàn)證集的準(zhǔn)確率和損失率達(dá)到穩(wěn)定,經(jīng)過500次的迭代后,訓(xùn)練集和驗(yàn)證集的準(zhǔn)確率分別高達(dá) 99.0% 和98.5% ,分別比ResNet-34模型提升1.4個(gè)百分點(diǎn)和1.7個(gè)百分點(diǎn)。此外,訓(xùn)練集和驗(yàn)證集的準(zhǔn)確率和損失率保持相同趨勢,說明CA-ResNet-34模型的檢測性能較好。
2.4ResNet-34模型和CA-ResNet-34模型檢測性 能差異
利用SIQ數(shù)據(jù)集,CA-ResNet-34模型對驗(yàn)證集大豆種子活力檢測結(jié)果的混淆矩陣如圖11所示。從圖中可以看出,高活力種子中仍有5個(gè)樣本被誤判為中活力種子,中活力種子中亦有5個(gè)樣本被錯(cuò)誤分類,低活力種子全部正確分類,而原始模型ResNet-34中高活力種子有7個(gè)樣本、中活力種子有12個(gè)樣本被錯(cuò)誤分類,說明改進(jìn)后的模型對大豆種子活力檢測效果更好。
基于SIQ數(shù)據(jù)集,ResNet-34模型和CA-ResNet-34模型對大豆種子活力進(jìn)行檢測得到的精確度、召回率、特異度如表3所示。從表中可以看出,CA-ResNet-34模型的檢測精確度、召回率、特異度分別為 98.1%98.1%99.1% ,比原始模型ResNet-34提升1.3個(gè)百分點(diǎn)、1.3個(gè)百分點(diǎn)、0.7個(gè)百分點(diǎn)。
3 討論與結(jié)論
目前,基于高光譜數(shù)據(jù)與機(jī)器學(xué)習(xí)方法的大豆種子活力檢測已有初步研究。Larios等[35]利用主成分分析(PCA)對原始光譜進(jìn)行預(yù)處理,再結(jié)合傳統(tǒng)機(jī)器學(xué)習(xí)模型(支持向量機(jī)、K最近鄰等)對大豆種子活力進(jìn)行檢測,研究結(jié)果發(fā)現(xiàn)模型能較好區(qū)分高活力種子種子和低活力種子。但當(dāng)分類類別較多時(shí),模型的識別效果較差。Al-Amery等[14]的研究結(jié)果表明,偏最小二乘分類模型無法區(qū)分高活力種子和中活力種子。此外,上述研究中一般多采用傳統(tǒng)機(jī)器學(xué)習(xí)模型,在光譜數(shù)據(jù)的使用上一般先選擇感興趣區(qū)域,再利用主成分分析等算法進(jìn)行光譜數(shù)據(jù)的分析,進(jìn)而提取有效特征光譜,并進(jìn)行檢測,其步驟繁瑣,方法復(fù)雜。本研究首先基于成像高光譜數(shù)據(jù),分析了不同活力種子的高光譜特征,建立了基于成像高光譜的SIQ數(shù)據(jù)集、ENVI數(shù)據(jù)集和RGB數(shù)據(jù)集,再利用 Vgg16Net 、GoogleNet、MobileV3Net、ResNet-344個(gè)深度學(xué)習(xí)模型進(jìn)行大豆種子活力的檢測,發(fā)現(xiàn)基于SIQ數(shù)據(jù)集,ResNet-34模型驗(yàn)證集對大豆種子活力檢測的準(zhǔn)確率為 96.8% 。在Res-Net-34模型中進(jìn)一步引入CA注意力機(jī)制及標(biāo)簽平滑技術(shù)后,優(yōu)化后的模型(CA-ResNet-34)對大豆種子活力檢測的準(zhǔn)確率高達(dá) 98.5% 。本研究還發(fā)現(xiàn)基于RGB 數(shù)據(jù)集、SIQ數(shù)據(jù)集和ENVI數(shù)據(jù)集,Res-Net-34模型在驗(yàn)證集均取得較好的檢測效果,但在訓(xùn)練集與驗(yàn)證集間存在一定的差異,基于SIQ數(shù)據(jù)集,ResNet-34模型驗(yàn)證集和訓(xùn)練集的檢測準(zhǔn)確率基本一致,而基于RGB 數(shù)據(jù)集、和ENVI 數(shù)據(jù)集,Res-Net-34模型在驗(yàn)證集和訓(xùn)練集間檢測準(zhǔn)確率差異較大,說明模型的泛化性不好,因此,實(shí)際應(yīng)用中需要綜合模型驗(yàn)證集和訓(xùn)練集的檢測性能,選擇適宜的
模型和數(shù)據(jù)集。
由于不同品種大豆種子及其老化后的表型差異較大,本研究建立的檢測方法僅適用于表型如品種Williams82的黃色種皮大豆種子,進(jìn)一步的研究中可增加不同表型大豆種子樣本,進(jìn)一步提高模型的識別精度和泛化能力。
參考文獻(xiàn):
[1]高琴梅,盧新雄,朱凌燕,等.大豆種子老化MDA和4-HNE 的 含量變化相關(guān)性研究[J].種子,2019,38(4):1-9.
[2]田桂霞.種子老化的生理化與分子機(jī)理研究進(jìn)展[J].農(nóng)業(yè)與 技術(shù),2018,38(10) :42.
[3]ZHANG G S,XU TY, TIAN Y W. Hyperspectral imaging-based clasification of rice leaf blast severity over multiple growth stages [J].Plant Methods,2022,18(1):123.
[4]YANG M,KANG X Y,QIU XF,et al. Method for early diagnosis of Verticillium wilt in cotton based on chlorophyl fluorescence and hyperspectral technology[J]. Computers and Electronics in Agriculture,2024,216:108497.
[5]GUOAT,HUANG WJ,DONG YY,et al.Wheat yellow rust detection using UAV-based hyperspectral technology[J].Remote Sensing,2021,13(1):123.
[6]GUI JS,XUHR,F(xiàn)EIJY.Non-destructive detection of soybean pestbased on hyperspectral image and attention-ResNet metalearning model[J]. Sensors,2023,23(2) :678.
[7]WANG ZL,F(xiàn)AN S X,AN T,et al. Detection of insect-damaged maize seed using hyperspectral imaging and hybrid 1D-CNN-BiLSTM model[J].Infrared Physics amp; Technology,2024,137: 105208.
[8]NGUYEN H D,NANSEN C. Hyperspectral remote sensing to detect leafminer-induced stress in Bok choy and spinach according to fertilizer regime and timing[J].Pest Management Science,2020, 76(6):2208-2216.
[9]張伏,禹煌,熊瑛,等.熱損傷玉米種子的高光譜無損檢 測[J].光譜學(xué)與光譜分析,2024,44(4):1165-1170.
[10]LIUFS,F(xiàn)UJ,ZHAO RQ.Pixel-wise mechanical damage detection of waxy maize using spectral-spatial feature extraction and hyperspectral image[J]. Computers and Electronics in Agriculture, 2023,209:107853.
[11] ZHANG L, SUN H,RAO Z H,et al. Hyperspectral imaging technologycombined with deep forestmodel to identify frost-damaged rice seeds[J]. Spectrochimica Acta Part A:Molecular and Biomolecular Spectroscopy,2020,229;17973.
[12]彭彥昆,趙芳,李龍,等.利用近紅外光譜與PCA-SVM識 別熱損傷番茄種子[J].農(nóng)業(yè)工程學(xué)報(bào),2018,34(5):159-165.
[13]PENG DD,JIN C,WANG J,et al.Defects recognition of pine nutsusing hyperspectral imaging and deep learning approaches [J].Microchemical Journal,2024,201:110521.
[14]AL-AMERYM,GENEVERL,SANCHESMF,et al. Near-infrared spectroscopyused to predict soybean seed germination and vigour[J]. Seed Science Research,2018,28(3) :245-252.
[15]ZHANG TT,LUL,YANG N,et al. Integration of hyperspectral imaging,non-targeted metabolomicsand machine learning for vigour prediction of naturally and accelerated aged sweetcorn seeds [J].Food Control,2023,153:109930.
[16]AMBROSE A,KANDPAL L M,KIM MS,et al.High speed measurement of corn seed viability using hyperspectral imaging [J]. Infrared Physics amp; Technology,2016,75:173-179.
[17]XUP,ZHANGYP,TANQ,et al.Vigor identification of maize seedsbyusing hyperspectral imaging combined with multivariate dataanalysis[J].InfraredPhysicsamp;Technology,2022,126: 104361.
[18]丁子予,岳學(xué)軍,曾凡國,等.基于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的玉米 種子活力光譜檢測[J].華中農(nóng)業(yè)大學(xué)學(xué)報(bào),2023,42(3):230- 240.
[19]QI HN,HUANG ZH,JINBC,et al. SAM-GAN:an improved DCGAN for rice seed viability determination using near-infrared hyperspectral imaging[J].Computers and Electronics in Agriculture,2024,216:108473.
[20]HONG SJ,PARKS,LEE A,et al.Nondestructive predictionof pepper seed viability using single and fusion information of hyperspectral and X-ray images[J]. Sensors and Actuators A:Physical, 2023,350:114151.
[21]楊波,段明磊,楊童.基于高光譜成像技術(shù)的西瓜種子活 力等級分類方法研究[J].河南農(nóng)業(yè)科學(xué),2022,51(9):151- 158.
[22]周翔,興旺,楊軍,等.甜菜種子活力的測定;基于近紅 外高光譜技術(shù)[J].中國農(nóng)學(xué)通報(bào),2021,37(29):7-12.
[23]黃瑤,喬愛民,孫敏.熱水加速老化黃瓜種子的試驗(yàn)研究 [J].種子,2004,23(8):11-12,26.
[24]董永梅,謝宗銘,王志軍,等.熱水老化對棉花種子活力及遺傳 完整性的影響[J].種子,2018,37(3):19-22,27.
[25]HUANG Y Q,DONG C, LUO X S,et al. Facial expresson recognition algorithm based on improved VGG16 network[C]//IEEE. 2021 6th international symposium on computer and information processing technology. Changsha,China:IEEE,2021:480-485.
[26]SZEGEDY C, LIU W,JIAY Q,et al. Going deeper with convolutions[C]//IEEE. 2015 IEEE conference on computer vision and pattern recognition.Boston,MA,USA:IEEE,2015:1-9.
[27]YI P Y,GU W X, ZHANG K,et al. Improvement and application of MobileNetV3-small model in the field of smart grid[C]//IEEE. 2022 2nd international conference on electrical engineering and control science.Nanjing,China:IEEE,2022:1144-1148.
[28]PATIL O S,LE D M,GRIFFIS E J,et al. Deep residual neural network (ResNet)-based adaptive control: a Lyapunov-based approach[C/OL]//IEEE.2022 IEEE 61st conference on decision and control (CDC).Cancun,Mexico:IEEE,2O22.https://arxiv. org/pdf/2404.07385v2.
[29]WEI YX,LIUQX,ZHANG GX,et al.Label smoothing technique for ordinal classification in cloud assessment[C/OL]// IEEE.IGARSS 2020-2020 IEEE international geoscience and remote sensing symposium.Waikoloa,HI,USA:IEEE,2020.https://ieeexplore.ieee.org/document/9323714.
[30]ATKINSON G,LI X M,METSIS V.Conditional diffusion with label smoothing for data synthesis from examples with noisy labels [C]/IEEE. 2023 31st european signal processing conference (EUSIPCO).Helsinki,F(xiàn)inland:IEEE,2023:1300-1304.
[31]LIU R J, CUI B G,F(xiàn)ANG X,et al. Super-resolution of GF-1 multispectral wide field of view images via a very deep residual coordinate attention network[J]. IEEE Geoscience and Remote Sensing Letters,2022,19:5513305.
[32]WANGEY,SURZ,HUANGBY,et al.EnhancingYOLOv7- based fatigue driving detection through the integration of coordinate attention mechanism[C]//IEEE.2O23 IEEE international conference on image processing and computer applications. Changchun, China:IEEE,2023:725-729.
[33]HOUQB,ZHOUDQ,F(xiàn)ENGJS.Coordinate attention for efficient mobile network design[C]//IEEE.2021 IEEE/CVF conference on computer vision and pattern recognition.Nashville,TN, USA:IEEE,2021. https://arxiv.org/abs/2103.02907.
[34]KRSTINIC D,SERIC L,SLAPNICAR I. Comments on‘MLCM: Multi-Label confusion matrix'[J]. IEEE Access,2023,11:40692- 40697.
[35]LARIOSG,NICOLODELLIG,RIBEIRO M,et al.Soybean seed vigor discrimination by using infrared spectroscopy and machine learningalgorithms[J].Analytical Methods,2020,12(35):4303- 4309.
(責(zé)任編輯:石春林)