摘要:水稻是我國(guó)主要的農(nóng)業(yè)糧食產(chǎn)物,害蟲(chóng)嚴(yán)重影響水稻的產(chǎn)量和質(zhì)量。為了快速、準(zhǔn)確地識(shí)別水稻害蟲(chóng),針對(duì)現(xiàn)有傳統(tǒng)識(shí)別算法中需要依賴(lài)大量訓(xùn)練樣本、訓(xùn)練時(shí)間長(zhǎng)等問(wèn)題,提出一種基于孿生多尺度空洞膠囊網(wǎng)絡(luò)( multi-scale dilated capsule siamese network,MSDCSNet)的水稻害蟲(chóng)識(shí)別方法。首先,該方法采用3個(gè)空洞Inception模塊依次提取圖像的多尺度卷積特征;其次,由膠囊網(wǎng)絡(luò)進(jìn)一步提取特征向量,構(gòu)建圖像的特征向量對(duì);然后通過(guò)孿生網(wǎng)絡(luò)計(jì)算每對(duì)向量圖像的余弦相似度進(jìn)行害蟲(chóng)識(shí)別,該方法集合多尺度空洞卷積、膠囊網(wǎng)絡(luò)和孿生網(wǎng)絡(luò)的優(yōu)勢(shì),可有效克服深度卷積網(wǎng)絡(luò)需要大樣本、訓(xùn)練時(shí)間長(zhǎng)等問(wèn)題;最后在一個(gè)自建的水稻害蟲(chóng)小樣本數(shù)據(jù)集上進(jìn)行測(cè)試,實(shí)現(xiàn)對(duì)水稻5種常見(jiàn)害蟲(chóng)(稻蝗、稻縱卷葉螟、稻棘緣蝽、二化螟、稻飛虱)的識(shí)別,平均識(shí)別率達(dá)到95.6%,與VGG19算法、ACapsNet算法相比,識(shí)別率分別提高20.8、3.6百分點(diǎn)。結(jié)果表明,該方法在小訓(xùn)練樣本集中,具有較強(qiáng)的魯棒性和較高的識(shí)別率,可實(shí)現(xiàn)對(duì)水稻害蟲(chóng)的精確識(shí)別,為其他農(nóng)作物的害蟲(chóng)識(shí)別提供參考。
關(guān)鍵詞:水稻害蟲(chóng)識(shí)別;尺度空洞卷積;膠囊網(wǎng)絡(luò);孿生網(wǎng)絡(luò);多尺度空洞膠囊孿生網(wǎng)絡(luò)
中圖分類(lèi)號(hào):TP391.41;S126文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1002-1302(2024)11-0231-07
我國(guó)是農(nóng)業(yè)大國(guó),水稻是我國(guó)重要的農(nóng)作物之一,提高水稻產(chǎn)量和質(zhì)量對(duì)國(guó)家的糧食安全、農(nóng)民增收和國(guó)民經(jīng)濟(jì)具有重要意義,水稻害蟲(chóng)是降低水稻質(zhì)量和產(chǎn)量的重要因素[1]。傳統(tǒng)病蟲(chóng)害識(shí)別方法已不能滿足智慧農(nóng)業(yè)需求,而基于圖像處理技術(shù)的農(nóng)作物害蟲(chóng)識(shí)別可快速精確地協(xié)助農(nóng)業(yè)人員做好有效的防治措施[2-3]。因?yàn)檗r(nóng)作物害蟲(chóng)具有各種形狀、姿態(tài)和復(fù)雜的背景,所以研究農(nóng)作物害蟲(chóng)檢測(cè)和識(shí)別是一件重要且具有挑戰(zhàn)性的研究課題。
深度學(xué)習(xí)在復(fù)雜圖像的分割和特征提取方面有著明顯的優(yōu)勢(shì),在圖像檢測(cè)和識(shí)別等方面都優(yōu)于目前最有效的傳統(tǒng)模式識(shí)別算法[4]。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像識(shí)別、分割、檢測(cè)和檢索等多種任務(wù)中取得顯著的識(shí)別效果,但卷積核的大小對(duì)CNN有較大的影響[5]。為了解決傳統(tǒng)CNN的缺點(diǎn),Sabour等提出膠囊網(wǎng)絡(luò)(CapsNet),該方法通過(guò)封裝識(shí)別目標(biāo)的狀態(tài)特征并轉(zhuǎn)變成矢量,包括將顏色、形狀、位置、紋理、角度等都編碼成矢量方向,在識(shí)別率和速度上優(yōu)勢(shì)明顯[6-8]。丁永軍等結(jié)合VGG-16模型提高檢測(cè)精度和膠囊網(wǎng)絡(luò)的同變特性,設(shè)置合理的模型參數(shù),在百合病害檢測(cè)中取得較好的檢測(cè)效果[9]。張會(huì)敏等在膠囊網(wǎng)絡(luò)的基礎(chǔ)上,提出基于注意力膠囊網(wǎng)絡(luò)的作物病害識(shí)別方法,該方法將注意力機(jī)制引入到膠囊網(wǎng)絡(luò)中,可提高網(wǎng)絡(luò)的特征表達(dá)與特征提取能力[10]。溫長(zhǎng)吉等將注意力機(jī)制引入膠囊網(wǎng)絡(luò)模型,使用局部約束動(dòng)態(tài)路由算法,降低計(jì)算量,并在植物識(shí)別中獲得較高的識(shí)別率[11]。
膠囊網(wǎng)絡(luò)雖然克服了CNN失去空間位置信息的不足,但和CNN一樣都依賴(lài)于大量的訓(xùn)練樣本[12]。孿生神經(jīng)網(wǎng)絡(luò)(siamese)能夠克服CNN和CapsNet依賴(lài)于大量訓(xùn)練樣本的問(wèn)題。孿生網(wǎng)絡(luò)通過(guò)共享權(quán)值來(lái)實(shí)現(xiàn),能夠從已有的類(lèi)別中學(xué)習(xí)特征的相似性度量,準(zhǔn)確判斷2個(gè)相似的樣本,還能利用先驗(yàn)知識(shí)識(shí)別新樣本的類(lèi)別[13-14],在樣本類(lèi)別多而每類(lèi)的訓(xùn)練樣本較少的情況下取得較好的效果[15]。
針對(duì)目前水稻害蟲(chóng)葉片圖像較少,蟲(chóng)斑大小、形狀、顏色、背景、亮度等環(huán)境差異較大,提出一種融合孿生網(wǎng)絡(luò)和多尺度膠囊網(wǎng)絡(luò)的水稻害蟲(chóng)識(shí)別算法,進(jìn)而減少對(duì)模型訓(xùn)練樣本量的依賴(lài),實(shí)現(xiàn)在有限訓(xùn)練樣本中獲取到多類(lèi)別樣本間的共同特征,并在水稻5種害蟲(chóng)的不同樣本環(huán)境下進(jìn)行試驗(yàn),來(lái)驗(yàn)證本研究算法的有效性。
1 孿生多尺度空洞膠囊網(wǎng)絡(luò)
針對(duì)深度CNN模型訓(xùn)練參數(shù)多,需要大量訓(xùn)練樣本,但從大田水稻種植園難以采集到足夠的害蟲(chóng)葉片圖像,導(dǎo)致基于CNN及其改進(jìn)模型的水稻害蟲(chóng)識(shí)別方法的訓(xùn)練性能較差,容易出現(xiàn)過(guò)擬合等問(wèn)題,提出一種多尺度空洞膠囊孿生網(wǎng)絡(luò)(MSDCSNet),應(yīng)用于水稻害蟲(chóng)識(shí)別。
1.1 相關(guān)技術(shù)
1.1.1 空洞Inception模塊
Inception是一個(gè)多尺度卷積網(wǎng)絡(luò)模塊[16],能夠并行組合不同的卷積層,由不同卷積層提取的特征在深度維度上拼接以形成更深的矩陣,用來(lái)獲取目標(biāo)不同尺度特征,Inception模塊結(jié)構(gòu)見(jiàn)圖1。但在卷積神經(jīng)網(wǎng)絡(luò)中,可以利用空洞卷積代替Inception模塊中的卷積,構(gòu)建一種空洞Inception模塊,其結(jié)構(gòu)見(jiàn)圖2。
1.1.2 膠囊網(wǎng)絡(luò)層
CapsNet以膠囊層為數(shù)據(jù)處理單元,采用動(dòng)態(tài)路由算法在膠囊層之間傳輸數(shù)據(jù),具有比CNN更好的特征表達(dá)能力。CapsNet由編碼器和解碼器組成[10]。膠囊編碼器與解碼器見(jiàn)圖3。膠囊與神經(jīng)元差異見(jiàn)表1。
膠囊基本結(jié)構(gòu)如圖4所示, 卷積模塊用于從輸入圖像中提取分類(lèi)特征,主膠囊模塊用于將提取的分類(lèi)特征表示轉(zhuǎn)換為特征矢量,在數(shù)字膠囊模塊中使用動(dòng)態(tài)路由算法來(lái)實(shí)現(xiàn)網(wǎng)絡(luò)參數(shù)的更新,避免因池化操作而造成的損失,最終輸出特征向量,其長(zhǎng)度為測(cè)試樣本屬于某一類(lèi)的概率。
1.1.3 孿生網(wǎng)絡(luò)
孿生網(wǎng)絡(luò)是通過(guò)同一個(gè)嵌入網(wǎng)絡(luò)將2個(gè)圖像的圖像級(jí)特征映射成2個(gè)向量,根據(jù)2個(gè)向量的絕對(duì)差值,代表2個(gè)圖象的相似度[17-18]。孿生網(wǎng)絡(luò)結(jié)構(gòu)見(jiàn)圖5。孿生網(wǎng)絡(luò)通過(guò)2個(gè)具有相同結(jié)構(gòu)、共享權(quán)重的CNN模型提取2個(gè)輸入圖像的特征向量,然后通過(guò)最小化相同類(lèi)別之間的損失,同時(shí)最大化不同類(lèi)別的樣本的損失訓(xùn)練模型參數(shù),再通過(guò)迭代訓(xùn)練得到能夠判別2個(gè)樣本是否相似的網(wǎng)絡(luò),最后計(jì)算2組特征向量的相似度,進(jìn)行樣本分類(lèi)識(shí)別。
1.2 基于孿生多尺度空洞膠囊網(wǎng)絡(luò)模型的水稻害蟲(chóng)識(shí)別方法
針對(duì)實(shí)際大田作物害蟲(chóng)葉片圖像較少,包含遮擋和復(fù)雜背景,害蟲(chóng)葉片圖像病斑的大小、形狀和顏色等差異較大,提出一種多尺度空洞膠囊孿生網(wǎng)絡(luò)模型(MSDCSNet)的水稻害蟲(chóng)識(shí)別方法。模型的基本構(gòu)架如圖6-a所示,由2個(gè)結(jié)構(gòu)相同的空洞Inception模塊進(jìn)行特征提取,再基于余弦距離的分類(lèi)準(zhǔn)則進(jìn)行害蟲(chóng)檢測(cè)。由圖6-a可以看出該模型由2個(gè)結(jié)構(gòu)相同的卷積層、膠囊層、1個(gè)距離度量層、相似性層和分類(lèi)層構(gòu)成。
卷積層為3個(gè)空洞Inception模塊構(gòu)成,如圖 6-b 所示,其中批量歸一化層加快模型的正向和反向傳播速率。在MSDCSNet中,利用空洞卷積代替Inception模塊中的卷積,采取空洞Inception模塊。
主膠囊層設(shè)置32個(gè)主膠囊,數(shù)字膠囊層有10個(gè)數(shù)字膠囊,每個(gè)膠囊輸入一個(gè)6×6×8張量,輸出16×10的矩陣。由圖像對(duì)的相似度判定待分類(lèi)的圖像的類(lèi)別,通過(guò)計(jì)算2個(gè)特征向量間的余弦距離(dcos)作為相似度,計(jì)算公式如下:
dcos=(x1,x2)/‖x1‖·‖x2‖" (1)
其中,x1、x2代表膠囊網(wǎng)絡(luò)輸出的特征向量。通過(guò)對(duì)比誤差損失函數(shù)Loss進(jìn)行反向優(yōu)化模型參數(shù),表示如下:
式中:l為2個(gè)圖像是否匹配的標(biāo)簽;N是樣本個(gè)數(shù);λ為設(shè)定的閾值,由試驗(yàn)確定,默認(rèn)值為0.5。
設(shè)待識(shí)別圖像映射的特征向量為s,帶標(biāo)簽圖像的特征向量為ti(ti∈[1,C]),C為害蟲(chóng)類(lèi)別數(shù),由相似度dcos(s,t) 打分排序,由最大值判定待識(shí)別圖像的預(yù)測(cè)害蟲(chóng)類(lèi)型:
Labels=max{dcos(s,ti)}" "(3)
式中:dcos(s,ti)為待識(shí)別圖像與帶標(biāo)簽圖像的相似度。
2 試驗(yàn)過(guò)程
為了表明MSDCSNet進(jìn)行水稻害蟲(chóng)識(shí)別的有效性,進(jìn)行了試驗(yàn)驗(yàn)證。MSDCSNet訓(xùn)練的批處理大小設(shè)為25,迭代次數(shù)為3 000,學(xué)習(xí)率設(shè)為1.5×10-4,Adam作為模型的優(yōu)化器。所有方法均在Python 3.9環(huán)境下的Tensorflow 2.0編程實(shí)現(xiàn),CNN網(wǎng)絡(luò)模型Keras搭建,系統(tǒng)為Ubuntu 14.04,核心硬件運(yùn)算平臺(tái)為Intel i7 CPU 1080 Ti GPU。
2.1 數(shù)據(jù)集
稻蝗、稻縱卷葉螟、稻棘緣蝽、二化螟、稻飛虱是水稻常見(jiàn)的5種害蟲(chóng)。本試驗(yàn)數(shù)據(jù)集主要通過(guò)華為、佳能等設(shè)備來(lái)采集圖像,采集地點(diǎn)在陜西省寶雞市農(nóng)業(yè)科學(xué)研究所作物試驗(yàn)基地,在2022年4—6月,從09:00—16:00之間在陜西省寶雞市農(nóng)業(yè)科學(xué)研究所作物試驗(yàn)基地進(jìn)行采集,采集圖像分辨率約為4 552像素×3 645像素,每種害蟲(chóng)100幅葉片圖像,共500幅多樣性害蟲(chóng)圖像來(lái)作為圖像數(shù)據(jù)集。其中部分作物害蟲(chóng)圖片見(jiàn)圖7。
由于人工采集的水稻害蟲(chóng)數(shù)據(jù)集較小,每類(lèi)害蟲(chóng)圖片只有100幅圖像,為了增強(qiáng)泛化能力和避免過(guò)擬合問(wèn)題,利用旋轉(zhuǎn)90°、180°后,變成3幅圖像,再對(duì)3幅圖像分別進(jìn)行模糊、增加噪聲、增強(qiáng)變亮、變暗、翻轉(zhuǎn)等操作,就每一幅圖像擴(kuò)充5幅,因此,可將每一幅圖像擴(kuò)充到18幅圖像。5類(lèi)害蟲(chóng)經(jīng)過(guò)擴(kuò)充得到9 000幅圖像。1幅圖像的18幅擴(kuò)展圖像見(jiàn)圖8。
2.2 對(duì)比試驗(yàn)結(jié)果
2.2.1 有效性試驗(yàn)
為了驗(yàn)證本研究算法的有效性,對(duì)改進(jìn)VGG19[19]、ACapsNet[10]和本研究算法進(jìn)行五折交叉試驗(yàn)驗(yàn)證對(duì)比。從圖9可以看出,當(dāng)?shù)螖?shù)在500次后,本研究算法識(shí)別率達(dá)到70%以上,當(dāng)?shù)螖?shù)達(dá)到1 000次后,開(kāi)始趨于收斂,并且識(shí)別率和收斂效果明顯優(yōu)于其他2種算法,該結(jié)果表明,引入空洞Inception模塊和孿生網(wǎng)絡(luò)后可使膠囊網(wǎng)絡(luò)模型收斂更快,而且害蟲(chóng)識(shí)別率也最高,驗(yàn)證本研究算法的有效性。
2.2.2 小樣本試驗(yàn)
為了驗(yàn)證本研究算法在小樣本情況下具有同樣的優(yōu)勢(shì),將本算法與改進(jìn)VGG19[19]、ACapsNet[10]算法進(jìn)行試驗(yàn)對(duì)比,首次在擴(kuò)充圖像數(shù)據(jù)上隨機(jī)選擇每種害蟲(chóng)200幅圖像,然后在3種算法上進(jìn)行驗(yàn)證試驗(yàn)。其中訓(xùn)練樣本數(shù)和測(cè)試樣本數(shù)之比為x ∶y,其中x為每類(lèi)害蟲(chóng)訓(xùn)練樣本數(shù),y為每類(lèi)害蟲(chóng)測(cè)試樣本數(shù),x ∶y的比值從90 ∶10逐漸調(diào)整到10 ∶90,減少訓(xùn)練樣本數(shù)量,增加測(cè)試樣本數(shù)量,對(duì)比3種算法的識(shí)別率。迭代次數(shù)值為 3 000次,重復(fù)交叉試驗(yàn)5次,計(jì)算每種害蟲(chóng)的識(shí)別率和3種算法的平均識(shí)別率見(jiàn)表2,本研究算法在90 ∶10的情況下,識(shí)別率達(dá)到95.6%。
從圖10和表2可以看出,隨著訓(xùn)練樣本與測(cè)試樣本之比不斷減少,即增加測(cè)試樣本、減少訓(xùn)練樣本的情況下,3種算法的識(shí)別率都呈現(xiàn)下降趨勢(shì),但VGG19和ACapsNet方法的識(shí)別率下降趨勢(shì)更明顯,而本研究算法在訓(xùn)練樣本與測(cè)試樣本比例為 10 ∶90 時(shí),平均識(shí)別率為81.64%,雖然識(shí)別率降低13.96百分點(diǎn),但分別比VGG19和ACapsNet的識(shí)別率高38.48、32.55百分點(diǎn)。說(shuō)明,本研究算法在小樣本環(huán)境下仍取得較高的識(shí)別率,該算法在小樣本情況下依然具有一定的優(yōu)勢(shì)。
2.2.3 可視化結(jié)果
本算法在卷積模塊中,部分卷積可視化效果輸出見(jiàn)圖11。由圖11可知,本算法能夠捕獲水稻害蟲(chóng)的細(xì)節(jié)信息,害蟲(chóng)特征分為低級(jí)卷積特征模塊和高級(jí)卷積特征模塊。低級(jí)卷積特征圖包含了紋理、輪廓等害蟲(chóng)空間特征,而高級(jí)卷積特征包含害蟲(chóng)的細(xì)節(jié)特征。由此可見(jiàn),引入空洞Inception模塊,可使卷積模型的不同卷積核能夠?qū)W習(xí)圖像的不同特征,關(guān)注圖像的不同部分,能夠充分提取各自關(guān)注部分圖像的顯著區(qū)域。
3 結(jié)論
由于水稻害蟲(chóng)圖像復(fù)雜多樣,傳統(tǒng)CNN網(wǎng)絡(luò)需要大量訓(xùn)練樣本。本研究算法在多尺度卷積網(wǎng)絡(luò)、膠囊網(wǎng)絡(luò)和孿生網(wǎng)絡(luò)等技術(shù)的基礎(chǔ)上,提出一種基于多尺度空洞膠囊孿生網(wǎng)絡(luò)(MSDCSNet)的水稻害蟲(chóng)識(shí)別方法。該算法對(duì)比樣本相似度來(lái)擴(kuò)大訓(xùn)練次數(shù),以解決害蟲(chóng)葉片圖像不足的問(wèn)題;采用膠囊網(wǎng)絡(luò)提取特征的空間信息和位置信息,選用余弦距離相似性更好地區(qū)分2個(gè)膠囊向量的差異性;最后采用孿生網(wǎng)絡(luò)判定帶識(shí)別圖像中的預(yù)測(cè)害蟲(chóng)類(lèi)型。試驗(yàn)結(jié)果表明,MSDCSNet具有良好的害蟲(chóng)檢測(cè)相關(guān)性和泛化性,并在小樣本情況下識(shí)別率依然達(dá)到81.64%,具有一定的優(yōu)勢(shì),在水稻害蟲(chóng)精確識(shí)別方面具有重要的參考價(jià)值。下一步工作主要在于優(yōu)化模型,在更多不同作物害蟲(chóng)數(shù)據(jù)集上來(lái)驗(yàn)證模型的有效性。
參考文獻(xiàn):
[1]王大慶,祿 琳,于興龍,等. 基于深度遷移學(xué)習(xí)的EfficientNet玉米葉部病害識(shí)別[J]. 東北農(nóng)業(yè)大學(xué)學(xué)報(bào),2023,54(5):66-76.
[2]翟肇裕,曹益飛,徐煥良,等. 農(nóng)作物病蟲(chóng)害識(shí)別關(guān)鍵技術(shù)研究綜述[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2021,52(7):1-18.
[3]王 祎,李旭偉,劉怡光,等. 融合特征增強(qiáng)模塊的小樣本農(nóng)業(yè)害蟲(chóng)識(shí)別[J]. 四川大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,60(4):57-64.
[4]鮑文霞,黃雪峰,胡根生,等. 基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)模型的玉米葉部病害識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,37(6):160-167.
[5]孟 亮,郭小燕,杜佳舉,等. 一種輕量級(jí)CNN農(nóng)作物病害圖像識(shí)別模型[J]. 江蘇農(nóng)業(yè)學(xué)報(bào),2021,37(5):1143-1150.
[6]Sabour S,F(xiàn)rosst N,Hinton G E. Dynamic routing between capsules[EB/OL]. (2017-11-07)[2023-10-01]. https://arxiv.org/pdf/1710.09829.pdf
[7]楊巨成,韓書(shū)杰,毛 磊,等. 膠囊網(wǎng)絡(luò)模型綜述[J]. 山東大學(xué)學(xué)報(bào)(工學(xué)版),2019,49(6):1-10.
[8]賀文亮,朱敏玲. 膠囊神經(jīng)網(wǎng)絡(luò)研究現(xiàn)狀與未來(lái)的淺析[J]. 計(jì)算機(jī)工程與應(yīng)用,2021,57(3):33-43.
[9]丁永軍,張晶晶,李民贊. 基于卷積膠囊網(wǎng)絡(luò)的百合病害識(shí)別研究[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(12):246-251,331.
[10]張會(huì)敏,謝澤奇,張善文. 基于注意力膠囊網(wǎng)絡(luò)的作物病害識(shí)別方法[J]. 江蘇農(nóng)業(yè)科學(xué),2022,50(6):101-106.
[11]溫長(zhǎng)吉,婁 月,張笑然,等. 基于改進(jìn)稠密膠囊網(wǎng)絡(luò)模型的植物識(shí)別方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2020,36(8):143-155.
[12]程 艷,孫 歡,陳豪邁,等. 融合卷積神經(jīng)網(wǎng)絡(luò)與雙向GRU的文本情感分析膠囊模型[J]. 中文信息學(xué)報(bào),2021,35(5):118-129.
[13]羅會(huì)蘭,龍 珺,梁苗苗. 注意力特征融合的孿生網(wǎng)絡(luò)目標(biāo)跟蹤方法[J]. 計(jì)算機(jī)科學(xué),2023,50(增刊1):475-483.
[14]Chicco D. Siamese neural networks:an overview[J]. Methods in Molecular Biology,2021,2190:73-94.
[15]符 強(qiáng),王 陽(yáng),紀(jì)元法,等. 基于強(qiáng)化特征學(xué)習(xí)和表達(dá)策略的孿生網(wǎng)絡(luò)跟蹤算法[J]. 電子測(cè)量技術(shù),2023,46(6):68-76.
[16]王愛(ài)麗,張宇梟,吳海濱,等. 基于空洞卷積膠囊網(wǎng)絡(luò)的激光雷達(dá)數(shù)據(jù)分類(lèi)[J]. 中國(guó)激光,2021,48(11):186-198.
[17]卞月樓,陸振宇,葛泉波,等. 基于注意力機(jī)制和特征金字塔的孿生卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)跟蹤算法[J]. 計(jì)算機(jī)應(yīng)用與軟件,2023,40(2):178-185.
[18]徐卓飛,李旭東,張嬋嬋,等. 基于孿生網(wǎng)絡(luò)的小樣本滾動(dòng)軸承故障診斷研究[J]. 儀器儀表學(xué)報(bào),2022,43(10):241-251.
[19]楊 雙,王敬東,姜宜君,等. 結(jié)合SoftPool的VGG19與CapsNet相級(jí)聯(lián)的表情識(shí)別模型研究[J]. 半導(dǎo)體光電,2021,42(6):897-903.