摘" 要: 針對傳統(tǒng)及人工方法識別多種類、大量微生物細胞存在耗時長、準確率低等問題,文中提出一種改進YOLOv7的微生物細胞識別算法YOLOv7?PN。通過引入改進的路徑聚合網(wǎng)絡(PANet)提取和融合不同尺度的特征,以捕捉細胞圖像中的多尺度信息,從而提高細胞的檢測精度和魯棒性;在骨干網(wǎng)絡添加注意力模塊(NAM),能夠自適應地學習每個通道的權重,提高細胞的特征表示能力;將傳統(tǒng)的IoU邊界框損失函數(shù)替換為DIoU_Loss,以考慮邊界框之間的距離和重疊程度,能夠更準確地衡量檢測框的精度,從而提高細胞的定位準確性。實驗結果表明,使用BCCD數(shù)據(jù)集進行評估時,文中算法在微生物細胞識別任務中取得了顯著的提升,與基準算法YOLOv7相比,YOLOv7?PN的Precision值提高了1.46%、[F1]值提高了2.61%、Accuracy值提高了0.86%。實驗結果驗證了該算法的有效性和性能優(yōu)勢,為微生物學研究和醫(yī)學診斷等領域的微生物細胞分析提供了有力支持。
關鍵詞: 微生物細胞; YOLOv7; YOLOv7?PN; PANet; NAM; DIoU_Loss
中圖分類號: TN911.7?34; TP391" " " " " " " " " 文獻標識碼: A" " " " " " " " " " "文章編號: 1004?373X(2025)01?0047?08
Microbial cell recognition algorithm based on improved YOLOv7
Lü Yanpeng1, 2, ZHAO Yingtong1, 2, SU Xiaoming1, 3, LIU Zhanying1, 2
(1. Inner Mongolia Autonomous Region Fermentation Industry Energy Saving and Emission Reduction Engineering and Technology Research Center,"Hohhot 010051, China;
2. Inner Mongolia Autonomous Region Engineering Research Center for Green Manufacturing of Bio?fermentation, Hohhot 010051, China;
3. College of Data Science and Application, Inner Mongolia University of Technology, Hohhot 010051, China)
Abstract: It is time?consuming when the traditional and manual methods are used to identify multiple species and large quantity of microbial cells, and the identification accuracy is low. In view of this, a microbial cell recognition algorithm named YOLOv7?PN based on the improved YOLOv7 is proposed. The improved path aggregation network (PANet) is introduced to enable the extraction and fusion of features at different scales in order to facilitate the capture of multi?scale information in cell images, which enhances its detection accuracy and robustness of cells. The incorporation of NAM into the backbone network enables the adaptive learning of weights for each channel, which enhances the feature representation of cells. Furthermore, the replacement of the traditional IoU bounding box loss function with DIoU_Loss allows for the consideration of the distance and overlap between bounding boxes, thereby facilitating more accurate precision measurement, which, in turn, enhances the accuracy of cell localization. The experimental results demonstrate that the algorithm presented in this paper exhibits a notable enhancement in the capacity to recognize microbial cells when evaluated with the BCCD dataset. In comparison to the benchmark algorithm YOLOv7, the YOLOv7?PN demonstrates an improvement. Its precision is increased by 1.46%, its [F1] by 2.61% and its accuracy rate by 0.86%. The experimental results demonstrate the efficacy and superiority of the algorithm. Therefore, the algorithm can provide compelling evidence for its utility in the microbial cell analysis in microbiology research and medical diagnosis, as well as in other fields.
Keywords: microbial cell; YOLOv7; YOLOv7?PN; PANet; NAM; DIoU_Loss
0" 引" 言
微生物細胞的準確識別和分類對于生物學研究、醫(yī)學診斷和環(huán)境監(jiān)測等領域具有重要意義[1]。傳統(tǒng)的鏡檢工作廣泛應用于科研、生物科技、醫(yī)療機構領域。鏡檢工作檢測人員通過肉眼對顯微鏡下的目標直接進行觀察,對視野中的微生物根據(jù)自身經(jīng)驗進行判斷、分類和計數(shù)。這種檢驗方法效率低,檢測過程參雜主觀因素,檢測準確度隨著工作時間的增加出現(xiàn)下降,需要對樣本進行多次重復的檢驗,耗費大量人力物力。在生產(chǎn)過程中,由于檢測樣本多,效率難以進一步提高,影響后續(xù)生產(chǎn)進度。傳統(tǒng)鏡檢方法已經(jīng)難以適用于生物形態(tài)學方面的檢測[2]。
近年來,深度學習作為一種強大的機器學習技術在圖像識別領域取得了顯著的進展,并在醫(yī)學影像分析等領域展現(xiàn)出巨大的潛力[3]。同時,深度學習在細胞識別領域呈現(xiàn)出蓬勃的發(fā)展態(tài)勢,很多學者都提出了創(chuàng)新方法。文獻[4]提出了基于遷移學習的模型,用于準確預測T細胞受體(T Cell Receptor, TCR)與抗原的結合特異性,利用TCR和抗原的序列信息進行訓練,并在實驗中證實了該方法的有效性和準確性。文獻[5]提出了一種基于深度學習的免疫細胞分化方法,通過構建深度神經(jīng)網(wǎng)絡模型,利用免疫細胞的高維數(shù)據(jù),如表面標記物和基因表達,實現(xiàn)對免疫細胞的準確分類和分化狀態(tài)的預測。文獻[6]提出了一種基于物聯(lián)網(wǎng)健康設備驅動的深度學習系統(tǒng),利用遷移學習技術進行宮頸細胞的檢測和分類,通過收集和分析宮頸細胞圖像數(shù)據(jù),結合深度學習模型和物聯(lián)網(wǎng)技術,實現(xiàn)了對宮頸細胞的自動化檢測和分類。文獻[7]提出了一種基于深度學習的全切片圖像分析方法,用于宮頸癌篩查,通過訓練深度學習模型,實現(xiàn)了對宮頸癌細胞的自動檢測和分類,提供了一種高效、準確的篩查方法。文獻[8]提出了一種基于深度學習和典型相關分析的白細胞圖像分類方法,他們利用卷積神經(jīng)網(wǎng)絡、循環(huán)神經(jīng)網(wǎng)絡及典型相關分析技術實現(xiàn)了對白細胞圖像的自動分類。文獻[9]提出了一種基于YOLOv5的鹿食植物細胞識別方法,利用深度學習模型和目標檢測算法實現(xiàn)了對鹿食植物細胞的快速、準確識別,為植物研究和生態(tài)保護提供了有益的圖像分析工具。文獻[10]提出了一種基于Transformer的宮頸異常細胞自動識別方法,通過改進的Transformer編碼器結構和自適應動態(tài)IoU(Intersection over Union)閾值,能夠準確地識別宮頸異常細胞,提高診斷的準確性和效率。文獻[11]提出了一種和人工提取特征相結合的新的宮頸細胞分類方法,能夠提高宮頸細胞分類的準確性和性能,為宮頸癌的早期診斷和預防提供了有效的解決方案。文獻[12]通過遷移學習的方法改進了基于YOLOv5s的植物葉片細胞識別率,通過應用預訓練模型參數(shù)、調整網(wǎng)絡結構和微調參數(shù),顯著提高了植物葉片細胞的識別準確性。
文獻[13]提出了一種基于區(qū)域卷積神經(jīng)網(wǎng)絡的白細胞檢測和分類方法,利用區(qū)域卷積神經(jīng)網(wǎng)絡對白細胞進行檢測和分類,通過對圖像的不同區(qū)域進行局部特征提取和分類,提高了白細胞檢測和分類的準確性。文獻[14]使用殘差網(wǎng)絡(Residual Network, ResNet)的變種進行圖像分類的深度學習,用于結直腸癌的檢測,通過應用ResNet的不同變體進行圖像分類,以提高結直腸癌的檢測準確性。文獻[15]提出了一種改進的YOLOv5算法,用于血細胞的檢測和計數(shù),通過改進的EIoU(Enhanced Intersection over Union)技術,并應用于YOLOv5算法中,實現(xiàn)了對血細胞的準確檢測和計數(shù)。文獻[16]提出了一種基于改進的YOLOv5模型的熒光圖像細胞智能檢測方法,通過對YOLOv5模型進行改進,針對熒光圖像細胞的特點進行優(yōu)化,實現(xiàn)了對熒光圖像中細胞的智能檢測。文獻[17]提出了一種新方法,利用上下文的模式預測TCR和表位之間的識別關系。通過將序列信息和深度學習技術結合起來,能夠準確預測TCR和表位之間的識別關系,為免疫學研究和個體化免疫治療提供了重要的見解。文獻[18]通過應用深度學習技術,開發(fā)了一種能夠準確識別和檢測腫瘤細胞的算法。文獻[19]提出了一種基于色彩空間模型的乳腺癌細胞識別方法,探索了使用色彩空間模型特征來區(qū)分乳腺癌細胞和正常細胞,并通過圖像處理和分類算法實現(xiàn)了乳腺癌細胞的自動識別。文獻[20]通過利用患者診斷標簽來訓練檢測不同類型急性白血病的弱監(jiān)督模型,在弱監(jiān)督下對血片進行自動可靠的分析,成功實現(xiàn)了對急性早幼粒細胞白血病的自動檢測。
上述眾多創(chuàng)新算法的涌現(xiàn),在一定程度上提升了對血細胞的檢測,為深度學習在細胞識別領域的應用開辟了廣闊前景,顯示出巨大的潛力。但仍然存在以下不足之處。
1) 特征表示能力有限。由于微生物細胞的形態(tài)、紋理等特征復雜多變,僅僅依賴傳統(tǒng)的卷積操作無法充分提取和利用這些關鍵信息,導致在識別微生物細胞時可能出現(xiàn)誤判或漏檢的情況。
2) 多尺度特征融合不足。微生物細胞在圖像中可能呈現(xiàn)不同的大小和尺度,難以有效捕捉不同大小微生物細胞的信息,影響檢測精度和魯棒性。
3) 小目標檢測效果不佳。由于細胞的密集分布或拍攝角度等原因,小目標細胞往往占比較小,模型在處理小目標檢測時效果不佳,容易出現(xiàn)漏檢和定位不準確的情況。
針對上述問題,本文提出一種基于YOLOv7框架的高效血細胞檢測算法。首先,通過引入NAM(Normalization?based Attention Module)機制,使得模型能夠自適應地學習每個通道的權重,強調對細胞識別至關重要的特征,并抑制無關或噪聲信息,增強模型對微生物細胞的識別準確性;其次,通過引入改進的路徑聚合網(wǎng)絡(Path Aggregation Network, PANet),提取和融合不同尺度的特征,以捕捉細胞圖像中的多尺度信息,從而提高細胞的檢測精度和魯棒性;最后,采用DIoU_Loss(Distance?IoU Loss)損失函數(shù)代替原有的損失交叉熵函數(shù),充分考慮邊界框之間的距離和重疊程度,能夠更準確地衡量檢測框的精度,從而提高細胞的定位準確性。改進后的YOLOv7模型結合大規(guī)模的微生物細胞圖像數(shù)據(jù)集,提高了微生物細胞識別的準確性和魯棒性。
本文方法旨在為微生物細胞的自動識別和分類提供一個有效的解決方案,為微生物學、醫(yī)學等領域的研究和應用提供有力支持。
1" 改進的YOLOv7?PN結構設計
改進的基于YOLOv7的微生物細胞檢測算法YOLOv7?PN結合了PANet、NAM機制和DIoU_Loss來提升檢測性能。
PANet用于實現(xiàn)多尺度特征融合,提高模型對微生物細胞的多尺度表示能力。通過在網(wǎng)絡中添加跨層連接或金字塔結構,將高層語義信息與低層細節(jié)信息進行融合,以更好地捕捉微生物細胞的細節(jié)和上下文信息。
NAM用于增強模型對微生物細胞的關注能力,通過學習通道間的關系來自適應地調整特征圖中每個通道的重要性,可以幫助模型更好地集中注意力在微生物細胞相關的特征上,提高檢測的準確性。
DIoU_Loss是一種用于目標檢測的損失函數(shù),它在計算目標框之間的IoU時考慮了物體之間的距離。相比傳統(tǒng)的IoU_Loss,DIoU_Loss考慮了目標框之間的緊湊性和位置關系,可以更準確地度量目標檢測的質量[21]。引入DIoU_Loss可以優(yōu)化模型的訓練過程,提高微生物細胞檢測的精度和穩(wěn)定性。
綜上所述,YOLOv7?PN微生物細胞檢測算法通過引入PANet實現(xiàn)了多尺度特征融合,利用NAM機制增強關注能力,并采用DIoU_Loss優(yōu)化檢測的質量。這些技術的引入可以提高微生物細胞檢測的性能,提高準確性和穩(wěn)定性。YOLOv7?PN算法總框架圖如圖1所示。
1.1" PANet
PANet是一種用于目標檢測的多尺度特征融合網(wǎng)絡結構,設計目的是解決目標檢測任務中多尺度目標的檢測問題。
PANet在特征金字塔網(wǎng)絡(Feature Pyramid Network, FPN)[22]的基礎上引入了兩個關鍵組件:自頂向下路徑和橫向連接。自頂向下路徑從網(wǎng)絡的高層逐漸向下傳播,通過上采樣操作將高層特征圖的分辨率逐漸恢復到原始輸入圖像的分辨率;橫向連接則將自頂向下路徑中的特征圖與FPN中對應尺度的特征圖進行融合,實現(xiàn)了多尺度特征的聚合。PANet的主干網(wǎng)絡模型結構圖如圖2所示。
首先,F(xiàn)PN網(wǎng)絡生成一組金字塔特征圖,其中每個特征圖對應一種尺度的特征表示,PANet從最高分辨率的特征圖開始,通過自頂向下路徑將特征圖的分辨率逐漸降低,并在每個層級上執(zhí)行上采樣操作;然后,PANet通過橫向連接將自頂向下路徑的特征圖與FPN中對應尺度的特征圖進行融合,得到更豐富的多尺度特征表示;最后,通過額外的卷積和池化操作對融合后的特征進行進一步處理,以用于目標檢測任務中的分類和定位。
PANet的優(yōu)勢在于它能夠有效地聚合多尺度特征,提升了目標檢測模型對不同尺度目標的感知能力。通過引入自頂向下路徑和橫向連接,PANet能夠在保留高層語義信息的同時,融合不同尺度的細節(jié)信息,從而提高模型在多尺度場景下的檢測性能。
通過引入PANet進行多尺度特征融合,可以提升基于YOLOv7的微生物細胞檢測模型的性能。PANet能夠增強模型對不同尺度微生物細胞的感知能力,利用上下文信息提升細胞檢測的效果,并提高模型在多尺度場景下的魯棒性。
1.2" NAM機制
注意力機制通過模擬人類視覺中的注意力處理方式,篩選出圖像中的重要部分,以便更好地進行判斷。在目標檢測中引入注意力機制可以使模型聚焦于圖像中的關鍵信息,過濾掉無關信息,從而節(jié)省計算資源,并提高對小目標的檢測效果。NAM機制是一種注意力機制的變體,它通過引入規(guī)范化操作來增強注意力的表示能力和魯棒性[23]。在傳統(tǒng)的注意力機制中,通常使用softmax函數(shù)對注意力權重進行歸一化,使其滿足概率分布的性質。然而,softmax操作的一個潛在問題是對于較大或較小的輸入值,它的梯度可能會變得非常小,導致梯度消失或梯度爆炸的問題。
為了解決這個問題,NAM引入了規(guī)范化操作,以更好地處理注意力權重。具體而言,NAM在計算注意力權重之后對權重進行規(guī)范化處理,以確保注意力權重的有效范圍和穩(wěn)定性。這個規(guī)范化操作可以根據(jù)具體的設計選擇不同的方法,例如通過調整權重的范圍或重新縮放權重。通過引入規(guī)范化操作,NAM可以更好地處理注意力權重,提高模型的魯棒性和表示能力。它在各種任務中都可以應用,包括自然語言處理、圖像處理和語音處理等。
NAM是一種輕量級、高效的注意力機制,采用CBAM(Convolutional Block Attention Module)的模塊集成方式,重新設計了通道注意力和空間注意力子模塊,這樣,NAM可以嵌入到每個網(wǎng)絡block的最后。對于殘差網(wǎng)絡,可以嵌入到殘差結構的最后。對于通道注意力子模塊,使用了Batch Normalization中的縮放因子,如式(1)所示,縮放因子反映出各個通道的變化大小,也表示了該通道的重要性??s放因子即BN中的方差,方差越大表示該通道變化得越厲害,那么該通道中包含的信息會越豐富,重要性也越大,而那些變化不大的通道,信息單一、重要性小。
[Bout=BNBin=γBin-μBσ2B+ε+β] (1)
式中:[μB]和[σB]分別為小批量[B]的平均值和標準偏差;[γ]和[β]是可訓練的仿射變換參數(shù)。
通道注意力子模塊如圖3所示,最后得到的輸出特征用式(2)表示:
[IC=SigmoidWθBNM1] (2)
式中:[IC]表示輸出特征;[θ]表示每個通道的縮放因子,其權重為[Wi=θi jθj]。
因此,就可以得到每個通道的權值。如果對空間中的每個像素使用同樣的歸一化方法,就可以得到空間注意力的權重,像素注意力如圖4所示。像素歸一化公式如下:
[IS=SigmoidWφBNSM2] (3)
式中:[IS]表示輸出特征;[φ]表示每個通道的縮放因子,其權重為[Wi=φi jφj]。
首先,NAM可以增強模型對微生物圖像中關鍵信息的關注度,從而提高目標檢測的準確性。通過引入NAM,模型可以更加集中地關注微生物圖像中的重要區(qū)域,過濾掉無關的背景信息,從而提高目標檢測的精度和魯棒性;其次,微生物圖像中的微生物可能具有不同的尺寸和比例,而一些小尺寸的微生物可能更容易被目標檢測模型忽略,NAM可以幫助模型更好地關注小目標,并提高對小尺寸微生物的檢測效果;最后,NAM通過規(guī)范化操作增強了注意力權重的表示能力和穩(wěn)定性,這有助于模型對微生物圖像中的不同特征和變化進行更好的建模,提高模型的魯棒性,從而使模型在不同的微生物檢測場景中表現(xiàn)更好。
1.3" DIoU_Loss
DIoU_Loss是一種用于目標檢測任務的損失函數(shù),它結合了距離損失和IoU損失,以提高目標檢測模型的準確性。
在傳統(tǒng)的目標檢測任務中,常用的損失函數(shù)是IoU損失,它用于度量預測框與真實框之間的重疊程度。然而,IoU損失在處理不同尺度和長寬比的目標時存在一些問題,因為它無法很好地刻畫它們之間的距離差異。為了解決這個問題,DIoU_Loss引入了距離項來度量預測框與真實框之間的距離。具體而言,DIoU_Loss首先計算兩個框之間的距離,然后將距離信息整合到IoU計算中,形成一個綜合的損失函數(shù)。這樣,DIoU_Loss可以同時考慮目標框之間的重疊程度和位置偏差,從而更全面地評估目標檢測的準確性。DIoU_Loss的公式可以表示為:
[DIoU_Loss=1-IoU-D2E2] (4)
IoU損失用于衡量預測框和真實框之間的重疊程度,而DIoU是距離項,用于衡量預測框和真實框之間的距離。DIoU可以通過計算框的中心點距離和寬高差異的函數(shù)來獲得,通過引入DIoU_Loss,可以提高目標定位的準確性。對于微生物細胞檢測任務,這意味著更準確地確定細胞的位置和邊界框,可以減少模型對于位置偏移的敏感性,從而提高模型的魯棒性。在微生物細胞檢測中,細胞的大小和形狀可能會有很大的變化,引入DIoU_Loss可以提升模型對于不同尺度和長寬比細胞的檢測能力。
2" 實驗結果與分析
2.1" 實驗環(huán)境
實驗硬件配置如表1所示,操作系統(tǒng)為Windows 10,開發(fā)語言為Python 3.8,深度學習框架為PyTorch?GPU 2.0.1,CUDA版本為12.1,cuDNN版本為7.6.5。
2.2" 實驗數(shù)據(jù)集
BCCD(Blood Cell Count and Detection)數(shù)據(jù)集是一種常用的血液細胞計數(shù)和檢測數(shù)據(jù)集,用于計算機視覺和機器學習領域的研究和算法評估。該數(shù)據(jù)集共有三類364張圖像:白細胞(White Blood Cell, WBC)、紅細胞(Red Blood Cell, RBC)和血小板(Platelets),三個類別中有4 888個標簽。BCCD血細胞數(shù)據(jù)樣例圖如圖5所示。
2.3" 評價指標
Precision(精確率)指模型預測為正樣本中真正為正樣本的比例,即預測為正樣本且真實為正樣本的數(shù)量與所有預測為正樣本數(shù)量的比值,精確率衡量了模型預測為正樣本的準確性。
[Precision=TPTP+FP] " " (5)
式中:TP(True Positive)為真正例;FP(False Positive)為假正例。
Recall(召回率)是指模型能夠正確預測為正樣本的比例,即預測為正樣本且真實為正樣本的數(shù)量與所有真實為正樣本的數(shù)量的比值。召回率衡量了模型對正樣本的識別能力。
[Recall=TPTP+FN] (6)
式中FN(False Negative)表示假負例。
Accuracy(準確率)是指模型在所有樣本中正確預測的比例,即預測正確的樣本數(shù)量與總樣本數(shù)量的比值。準確率衡量了模型整體的正確性。
[Accuracy=TP+TNTP+TN+FP+FN] (7)
式中TN(True Negative)表示真負例。
在某些情況下,精確率和召回率可能存在相互制約的關系,[F1]值可以幫助在兩者之間進行平衡,它是精確率與召回率的調和平均值,可以綜合評估模型的準確性和召回能力。[F1]值的取值范圍是0~1,數(shù)值越高表示模型的整體性能越好。
[F1=2×(Precision×Recall)Precision+Recall]" " (8)
2.4" 實驗結果分析
2.4.1" 對比實驗結果分析
表2展示了在BCCD數(shù)據(jù)集上進行的微生物細胞識別算法對比實驗結果。其中包括了YOLOv7、DETR、YOLOX、YOLOv5、YOLOv8以及本文提出的YOLOv7?PN算法在Precision、Recall、[F1]和Accuracy四個指標上的表現(xiàn)。
根據(jù)表2中的對比實驗結果可知:在BCCD數(shù)據(jù)集上,YOLOv7?PN在Precision、[F1]和Accuracy方面表現(xiàn)最優(yōu),分別為0.825 5、0.844 8和0.893 2,但在Reacll指標上略遜于DETR模型。對比算法中,YOLOv7模型的Precision值最優(yōu)為0.813 6,YOLOX模型[F1]和Accuracy最優(yōu)為0.823 3和0.885 6;YOLOv7?PN模型相比對比算法最優(yōu)值,Precision值提高了1.46%,[F1]值提高了2.61%,Accuracy值提高了0.86%。證明了本文算法的有效性。
2.4.2" 消融實驗
YOLOv7?PN在BCCD數(shù)據(jù)集上消融實驗的結果如表3所示。由表3可以看出,YOLOv7?PN模型的表現(xiàn)最好,擁有最好的Precision、Recall、[F1]以及Accuracy值,分別為0.825 5、0.865 0、0.844 8和0.893 2。經(jīng)過消融實驗對比,從YOLOv7到YOLOv7?PANet,再到YOLOv7?PANet?NAM,最后到YOLOv7?PN模型,指標值不斷提升,證明YOLOv7?PN是最佳選擇。
2.4.3" 模型預測結果可視化
本文算法YOLOv7?PN模型對血細胞的檢測效果如圖6所示,所測均為驗證集中部分圖片。
3" 自建數(shù)據(jù)集
為進一步驗證本文改進算法在細胞檢測中的提升性能,選擇自建數(shù)據(jù)集進行了驗證實驗。
自建數(shù)據(jù)集圖片主要采用搜索引擎從網(wǎng)絡上獲取。包含白細胞、紅細胞、血小板和鐮狀細胞(Sicklemia)四種不同類型的細胞。通過對采集照片中重復的數(shù)據(jù)及網(wǎng)絡爬取圖片中的噪聲數(shù)據(jù)進行剔除,使用OpenCV工具對圖片采用隨機翻轉、旋轉45°、裁剪與縮放中的一種方式進行擴增,最終得到3 153張圖像;再通過LabelImg工具進行標注并制作成VOC格式的檢測數(shù)據(jù)集。其中,2 853張用于訓練,219張用于驗證,81張用于測試。細胞數(shù)據(jù)樣例圖如圖7所示,自建數(shù)據(jù)集對比實驗結果見表4。
從表4中可以看出,在挑戰(zhàn)性較高的自建細胞數(shù)據(jù)集檢測實驗中,YOLOv7?PN的實驗結果中的所有指標均高于YOLOv7算法,與其他算法相比更具有優(yōu)勢。
為直觀展現(xiàn)檢測效果,本文改進算法和原算法在自建數(shù)據(jù)集上的效果對比如圖8所示??梢悦黠@看出,改進后的YOLOv7?PN算法漏檢和誤檢較少,具有更高的檢測精度和置信度,且在自建數(shù)據(jù)集中也能有效檢測,證明改進算法有較好的泛化性。
4" 結" 語
本文引入了PANet、NAM機制以及DIoU_Loss相結合的策略,提出了YOLOv7?PN模型。首先,通過引入NAM機制,自適應地調整特征圖中每個通道的重要性,增強了模型對微生物細胞的關注能力;其次,引入PANet,實現(xiàn)了多尺度特征融合,從而提高了算法對微生物細胞的感知能力;此外,采用DIoU_Loss作為優(yōu)化目標檢測的損失函數(shù),DIoU_Loss考慮了邊界框之間的距離和重疊程度,能夠更準確地衡量檢測框的精度,提高了細胞的定位準確性和檢測質量。實驗結果表明,YOLOv7?PN模型在圖像數(shù)據(jù)集上都得到了優(yōu)秀的性能,在BCCD數(shù)據(jù)集上,Precision值提高了1.46%,[F1]值提高了2.61%,Accuracy值提高了0.86%。
在自制數(shù)據(jù)集上,Precision值提高了3.29%,[F1]值提高了1.41%,Accuracy值提高了1.40%,顯示出了較高的準確性和穩(wěn)定性。證明了本文提出的算法YOLOv7?PN在處理微生物細胞識別任務中的有效性和適用性??蓪⒏倪M的YOLOv7?PN算法應用于實際應用場景中,例如微生物學研究、醫(yī)學診斷等領域,為實際應用中的微生物細胞檢測提供了新的算法范式。
注:本文通訊作者為蘇曉明、劉占英。
參考文獻
[1] LI J T, CHEN J, BAI H, et al. An overview of organs?on?chips based on deep learning [J]. Research, 2022(1): 9869518.
[2] 周睿洋.生物形態(tài)學圖像分析系統(tǒng)[D].哈爾濱:哈爾濱工業(yè)大學,2019.
[3] SERTE S, SERENER A, AL?TURJMAN F. Deep learning in medical imaging: A brief review [J]. Transactions on emerging telecommunications technologies, 2022, 33(10): e4080.
[4] LU T S, ZHANG Z, ZHU J, et al. Deep learning?based prediction of the T cell receptor–antigen binding specificity [J]. Nature machine intelligence, 2021, 3(10): 864?875.
[5] MASLOVA A, RAMIREZ R N, MA K, et al. Deep learning of immune cell differentiation [J]. Proceedings of the national academy of sciences, 2020, 117(41): 25655?25666.
[6] KHAMPARIA A, GUPTA D, DE ALBUQUERQUE V H C, et al. Internet of health things?driven deep learning system for detection and classification of cervical cells using transfer learning [J]. The journal of supercomputing, 2020, 76(11): 8590?8608.
[7] CHENG S H, LIU S B, YU J Y, et al. Robust whole slide image analysis for cervical cancer screening using deep learning [J]. Nature communications, 2021, 12(1): 5639.
[8] PATIL A M, PATIL M D, BIRAJDAR G K. White blood cells image classification using deep learning with canonical correlation analysis [J]. Innovation and research in biomedical engineering, 2021, 42(5): 378?389.
[9] 王鑫玉,王姝蒙,李文順.基于YOLOv5的鹿食植物細胞識別方法[J].科技資訊,2024,22(1):230?233.
[10] 張崢,陳明銷,李新宇,等.基于Transformer的宮頸異常細胞自動識別方法[J].中國激光,2024,51(3):93?103.
[11] DONG N, ZHAO L, WU C H, et al. Inception v3 based cervical cell classification combined with artificially extracted features [J]. Applied soft computing, 2020, 93: 106311.
[12] WEI G X, YI W L, ZHAO Y D, et al. A method for improving YOLOv5s?based plant leaf cells recognition rate using transfer learning [C]// Third International Conference on Computer Vision and Data Mining (ICCVDM 2022). [S.l.]: SPIE, 2023: 787?791.
[13] KUTLU H, AVCI E, ?ZYURT F. White blood cells detection and classification based on regional convolutional neural networks [J]. Medical hypotheses, 2020, 135: 109472.
[14] SARWINDA D, PARADISA R H, BUSTAMAM A, et al. Deep learning in image classification using residual network (ResNet) variants for detection of colorectal cancer [J]. Procedia computer science, 2021, 179: 423?431.
[15] ZHANG Z, DENG Z J, WU Z P, et al. An improved EIoU?Yolov5 algorithm for blood cell detection and counting [C]// 2022 5th International Conference on Pattern Recognition and Artificial Intelligence (PRAI). New York: IEEE, 2022: 989?993.
[16] 譚鑫平,高志輝,韓航迪,等.基于改進YOLOv5的熒光圖像細胞智能檢測研究[J].半導體光電,2023,44(5):709?716.
[17] SHUI Z Y, ZHENG S Y, YU X X, et al. Deformable proposal?aware P2PNet: A universal network for cell recognition under point supervision [EB/OL]. [2023?11?06]. https://doi.org/10.48550/arXiv.2303.02602.
[18] CHE Y X, REN F, ZHANG X Y, et al. Immunohistochemical HER2 recognition and analysis of breast cancer based on deep learning [J]. Diagnostics, 2023, 13(2): 263.
[19] JOKINEN E, DUMITRESCU A, HUUHTANEN J, et al. TCRconv: Predicting recognition between T cell receptors and epitopes using contextualized motifs [J]. Bioinformatics, 2023, 39(1): btac788.
[20] 魏真.基于深度學習的腫瘤細胞識別與檢測研究[D].天津:天津理工大學,2023.
[21] MANESCU P, NARAYANAN P, BENDKOWSKI C, et al. Detection of acute promyelocytic leukemia in peripheral blood and bone marrow with annotation?free deep learning [J]. Scientific reports, 2023, 13(1): 2562.
[22] LIN T Y, DOLLáR P, GIRSHICK R B, et al. Feature pyramid networks for object detection [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 936?944.
[23] 張嘉琪,徐啟蕾.基于NAM?YOLO網(wǎng)絡的蘋果缺陷檢測算法[J].計算機與現(xiàn)代化,2023(10):53?58.
基金項目:國家自然科學基金項目(32060017);國家級大學生創(chuàng)新創(chuàng)業(yè)訓練計劃項目(202310128011);內(nèi)蒙古自治區(qū)杰出青年基金項目(2022JQ10);內(nèi)蒙古草原英才團隊滾動支持項目;內(nèi)蒙古自治區(qū)科技重大專項(2021ZD0015)
作者簡介:呂彥朋(2003—),男,內(nèi)蒙古巴彥淖爾人,研究方向為圖像處理、深度學習。
蘇曉明(1987—),女,河北張家口人,碩士研究生,講師,研究方向為計算機視覺、多模態(tài)融合。
劉占英(1979—),女,內(nèi)蒙古寧城人,博士研究生,教授,正高級工程師,研究方向為生物質資源化利用。