中圖分類號:S823;TP391.41 文獻標識碼:A 文章編號:2095-5553(2025)08-0128-07
Abstract:Inordertorealizenon-contactandreal-time detectionof individualidentityrecognitionofcow faces indairy farmswith complexenvironments,thispaper proposesahigh-performanceand lightweightrecognitionmodelbasedon YOLOv8s target detection network.In this study,17Holsteincowsare takenas theresearchobject,anda video camera isinstalednexttothefeedingchannelofthecowstoobtainthevideoofthecowsatregularintervalsandautomatically, andthefacialimagesof thecowsareobtainedbyvideoframedecompositiontechnology,andthesimilarity betweenthe images ismeasuredbythestructural similarityindex method,sothatthoseimageswithtoohighsimilarityarerejected, andtheindividual numbersof thecowsarethen manualllabeled.In this paper,theYOLOv8smodel isusedas the basis foradding the attntion mechanism CBAM to the backbone network to improve the accuracy of the algorithm,followed by the introductionof the Slim—Neck design paradigm,which replaces the traditional convolutional module(SC)with the GSConv lightweight convolutional module,and replaces the C2f module with the VoV—GSCSP module based on the designofthe GSConvtoreducetheburden onthemodelwhilemaintaining theaccuracy.The model memory footprintof the improved YOLOv8s is 21.3MB ,which is 1.3MB smaller than that of YOLOv8s,and the FPS, P , R and mAP (20 areimproved by 39.57% , 5.68% , 7.74% and 3.33% ,respectively.The improved YOLOv8s can ensure the lightweightandaccuracyof network model,atthesame time has beterrobustness forthefacialrecognitionofcows,and can realize the individual face recognition of cows in dairy farms with complex environments. Keywords:dairy cow breeding;cow face recognition;YOLOv8s algorithm;lightweight;attention mechanism
0 引言
奶牛養(yǎng)殖業(yè)是我國畜牧業(yè)的重要組成部分,其中奶牛個體身體狀況的數(shù)字化、精細化、智能化管理已成為現(xiàn)代科學養(yǎng)牛的主要發(fā)展方向[1]。一方面,個體牛的識別是肉制品和奶源可追溯的基礎,可以進一步保證牛肉和乳制品的質(zhì)量安全2;另一方面,牛的個體信息管理、保險貸款、疾病控制、繁育、損失恢復等都需要對牛進行快速準確的個體識別3,牛的個體識別也是精細管理和行為分析的基礎[4]。
現(xiàn)有的牛個體識別方法主要分為基于生物特性的方法和傳統(tǒng)的識別方法。傳統(tǒng)的牛個體身份識別主要是通過物理方法進行標記,包括耳標法、截耳法、角部烙字法、刺墨法以及嵌人芯片等。耳標法在使用上容易被污染、破壞,壽命較短;截耳法、角部烙字法、刺墨法等方式對牛的耳朵部位造成很大的傷害且識別效率低;嵌入芯片方式缺點是成本高且不利于大中型奶牛養(yǎng)殖場使用。以上傳統(tǒng)的標注方法費時費力,而且不利于奶牛養(yǎng)殖場自動化管理。為解決傳統(tǒng)牛個體身份識別成本高、易丟失和篡改的問題,研究者們逐漸將目光轉(zhuǎn)移到基于牛生物特征的非接觸式身份識別方法研究上。隨著近年來深度學習算法在計算機視覺領域中的應用,卷積神經(jīng)網(wǎng)絡(CNN)[5]、YOLO等模型在牛個體身份識別中得到廣泛應用[6]。
在檢測牛個體方面,趙凱旋等通過提取奶牛軀干圖像,利用卷積神經(jīng)網(wǎng)絡對奶牛個體進行識別,但是奶牛種類較少,不適用于中等規(guī)模的奶牛養(yǎng)殖場。汪文華8利用YOLOv3模型對構(gòu)建的奶牛數(shù)據(jù)集進行訓練和測試,在23頭奶牛中的平均精度達到 90.17% 。黃俊華等對VGG16網(wǎng)絡進行改進,對21頭奶牛的面部圖像進行識別。茍先太等對FasterR一CNN進行改進,實現(xiàn)多牛場景下的牛臉檢測。Shen等11通過采集奶牛俯視圖圖像,利用YOLO檢測模型對俯視圖像中的奶牛對象進行檢測,然后微調(diào)卷積神經(jīng)網(wǎng)絡對每頭奶牛進行分類,識別率達到 96.65% 。何東健等12提出基于改進YOLOv3模型的奶牛個體識別方法,通過對89頭奶牛的背部圖像進行檢測,該方法的識別準確率達到 95.91% 。楊蜀秦等[13通過改進YOLOv4模型對奶牛面部遮擋情況進行識別,其效果優(yōu)于SSD模型、CenterNet模型、YOLOv4模型和FasterR—CNN模型,識別率達到 92.60% ,但對于遮擋面積大、光線過暗導致面部特征不明顯等情況下的識別精度仍有待提高。在具體應用方面,楊梅14提出基于TFserving的牛臉識別系統(tǒng),完成系統(tǒng)服務器端設計,并通過客戶端APP將牛臉識別功能進行展示,對系統(tǒng)進行現(xiàn)場測試,基本可以滿足需求。
綜上,前人采用人工特征識別奶牛面部的方法對數(shù)據(jù)集收集操作要求較高,在復雜條件下,例如遮擋面積大、光線過暗以及奶牛個體面部特征出現(xiàn)變化時存在識別精度低等問題。同時,大部分牛臉識別算法占用內(nèi)存大,運行速度慢[15],而模型輕量化處理可減小網(wǎng)絡模型的占比和模型參數(shù)量[16],提高模型的執(zhí)行效率[]。有些學者在YOLO系列模型中進行輕量化處理[18],實現(xiàn)果實目標區(qū)域的檢測[19],大幅降低計算量和模型體積[20]
本文基于YOLOv8s網(wǎng)絡,以荷斯坦奶牛為研究對象,對復雜背景下輕量級奶牛面部識別模型進行研究。在模型中擬引入新的輕量級卷積技術GSConv、Slim—Neck模塊[21]和坐標注意力機制CBAM[22],以減輕模型負擔且保持準確性。
1數(shù)據(jù)集與預處理
1.1 數(shù)據(jù)采集
數(shù)據(jù)于2023年4月在山東省青島市萊西市的一家荷斯坦奶牛場收集,環(huán)境如圖1所示。
圖1奶牛養(yǎng)殖場環(huán)境 Fig.1Dairy farm environment
由于奶牛養(yǎng)殖場環(huán)境復雜、面部姿態(tài)變化大、光照條件不一致,因此很難直接采集到高質(zhì)量的牛臉圖像。試驗先用手機和單反相機以30幀/s的速度手動拍攝牛臉視頻,每頭牛拍攝 60s 左右的視頻,共拍攝17頭牛,圖像分辨率為1920像素 ×1080 像素,如圖2所示。
圖2試驗所用17頭牛圖像
Fig.2 Images of the 17 cowsused in the experiment
1.2數(shù)據(jù)集圖像獲取及處理
采集完視頻后,對視頻進行取幀操作獲得數(shù)據(jù)集。在取幀的過程中會出現(xiàn)2張圖片相似性過高的現(xiàn)象,為保證數(shù)據(jù)的多樣性,需要將相似性過高的圖像數(shù)據(jù)進行剔除。圖像相似性是指對2張圖像之間的相似程度進行度量,通過度量的結(jié)果來判斷圖像內(nèi)容的相似程度。采用結(jié)構(gòu)相似性指數(shù)SSIM來度量圖片之間的相似性[23],結(jié)構(gòu)相似性指數(shù)是通過圖像的亮度、對比度和結(jié)構(gòu)3個方面來對圖像間的相似性進行度量,且能夠很大程度上反映圖像間的結(jié)構(gòu)性差異,結(jié)構(gòu)相似性指數(shù)計算如式(1)所示。
(1)式中:μxμy μx,μy-x,y 兩張圖像的像素平均值;σx,σy -方差;xy x 與 y 的協(xié)方差;c1,.c2 1 -常數(shù),避免分母接近0時引起結(jié)果較大的變化。
平均值與方差反映圖像的亮度與對比度,協(xié)方差反映圖像的結(jié)構(gòu)性信息,SSIM的值越接近于1,表示圖像間相似性越高。
使用結(jié)構(gòu)相似性指數(shù)對裁剪的牛臉進行數(shù)據(jù)篩選的具體過程:(1)將提取的每頭牛的第一張牛臉圖像作為基準圖像,設置相似性閾值(根據(jù)經(jīng)驗確定);(2)計算基準圖像與后續(xù)每一張圖像的相似性,剔除大于閾值的牛臉圖像,直至與某一張圖像的相似性小于閾值;(3)將步驟2保留的牛臉圖像作為新的基準圖像,重復步驟2,直至遍歷完一頭牛的所有圖像,最后保留的圖像即為篩選后的牛臉圖像數(shù)據(jù)。通過對圖像進行取幀、裁剪和篩選,共獲得2973張牛臉圖像,如表1所示。
表1數(shù)據(jù)清洗結(jié)果Tab.1 Data cleaning results
1.3 數(shù)據(jù)標注
通過視頻幀的提取后,得到牛臉檢測的圖像數(shù)據(jù)集,還需要制作對應的標簽數(shù)據(jù),即對牛臉檢測圖像數(shù)據(jù)集進行數(shù)據(jù)標注。標注時使用LabelImg工具制作VOC格式數(shù)據(jù)集,文件中包含名稱和位置信息,圖像和標注文件均用于模型訓練和驗證。
1.4 數(shù)據(jù)增強
對標注的數(shù)據(jù)進行隨機裁剪、隨機偏移、Mosaic數(shù)據(jù)增強,將試驗樣本擴容到7117張,其中隨機裁剪、隨機偏移可以提供牛臉面部遮擋、正面、反面等樣本數(shù)據(jù)。Mosaic數(shù)據(jù)增強是把4張試驗圖片拼湊成1張進行訓練,一定程度上提高模型對于小目標的檢測能力,如圖3所示。
圖3部分數(shù)據(jù)處理效果圖Fig.3Graphs of some processing effects
2 試驗方法
2.1YOLOv8s算法原理
YOLOv8是在以前YOLO版本的基礎上,引入新功能和改進,進一步提高性能和靈活性。YOLOv8因快速、準確且易于使用成為各種對象檢測跟蹤、實例分割、圖像分類和姿態(tài)估計的絕佳選擇。
在骨干網(wǎng)絡(Backbone)中,YOLOv8仍然采用CSP的思想,使用C2f模塊替換YOLOv5中的C3模塊,每個階段的模塊個數(shù)從[3,6,9,3]修改為[3,6,6,3],實現(xiàn)進一步的輕量化,同時繼續(xù)使用YOLOv5中的SPPF模塊;在頸部網(wǎng)絡(Neck)中,將YOLOv5的PAN—FPN中的top-down上采樣階段中的卷積刪除,并且將C3模塊替換為C2f模塊;在最后的預測頭網(wǎng)絡(Head),換成目前主流的解耦頭結(jié)構(gòu),將分類和檢測頭分離,同時也拋棄Anchor—Based[24],使用Anchor—Free的思想[25]。YOLOv8在實現(xiàn)模型輕量化與性能平衡方面有很大的研究與改進。
2.2改進YOLOv8s輕量化牛臉識別模型設計
2.2.1 模型改進方法與結(jié)構(gòu)
由于YOLOv8s對復雜目標識別精度低、運算過程中參數(shù)量較大,所以在實際應用中需要對網(wǎng)絡模型進行改進,提升識別精度的同時,降低模型的參數(shù)量,加快模型推理速度。在Backbone部分,將第4個傳統(tǒng)卷積模塊Conv替換為GSConv模塊來減輕模型的復雜度并保持準確性,同時引入CBAM注意力機制模塊,通過將從通道和空間維度得到的注意力特征圖相乘后輸人特征圖中,以此進行自適應特征細化,減少背景特征訓練權(quán)重。在Neck層中,引人Slim一Neck設計范式。Neck部分的C2f替換為可以簡化網(wǎng)絡結(jié)構(gòu)并減少模型計算量的VoVGSCSP模塊,改進的網(wǎng)絡模型結(jié)構(gòu)如圖4所示。
2.2.2 CBAM注意力機制
為解決在復雜背景牛臉圖像特征提取過程中出現(xiàn)的特征冗余問題,在模型上添加CBAM注意力機制模塊。注意力機制模塊可以使神經(jīng)網(wǎng)絡進一步關注奶牛面部的花色信息,著重于每頭牛面部的特征獲取,忽略圖像中其他信息的獲取。CBAM注意力機制有2個子模塊:通道注意力模塊和空間注意力模塊,因此,CBAM注意力機制能夠融合通道維度和空間維度,加強網(wǎng)絡的特征表達能力,可以得到一維的通道注意力圖和二維的空間注意力圖。CBAM注意力機制模塊的整個工作過程如圖5所示。
2.2.3 GSConv + Slim—Neck模塊
Li等2提出了GSConv輕量化卷積模塊,主要結(jié)構(gòu)如圖6所示。使用混洗操作(shuffle)將傳統(tǒng)卷積模塊生成的信息(密集卷積操作)滲透到深度可分離卷積生成的信息的每個部分。輸人通道數(shù)為 c1 ,輸出通道數(shù)為 c2 。首先經(jīng)過一個標準卷積后通道數(shù)變?yōu)?c2/2 通過深度可分離卷積處理后,通道數(shù)不變。然后將第一次卷積后的結(jié)果與深度可分離卷積后的結(jié)構(gòu)進行Concat連接和混洗。最后的混洗操作中,通道信息被均勻打亂,但是多通道信息得到有效保留,增強提取到的語義信息,加強特征信息的融合,提高圖像特征的表達能力。
圖6GSConv模塊 Fig.6 GSConv module
圖7Slim—Neck模塊Fig.7Slim—Neckmodule
Slim—Neck模塊是一種用于目標檢測的神經(jīng)網(wǎng)絡結(jié)構(gòu),首先使用輕量級卷積GSConv來替代傳統(tǒng)卷積Conv,GSConv模塊通過使用分組卷積和深度可分離卷積降低模型的計算成本,實現(xiàn)輕量級的卷積提取。同時,以GSConv為基礎引人輕量級瓶頸層GSbottleneck模塊,如圖7(a)所示。Neck部分的C2f替換為可以簡化網(wǎng)絡結(jié)構(gòu)并減少模型計算量的VoVGSCSP模塊,VoVGSCSP模塊結(jié)構(gòu)如圖7(b)所示,VoVGSCSP模塊降低計算和網(wǎng)絡結(jié)構(gòu)的復雜性,但保持足夠的精度。
Slim一Neck模塊通過結(jié)合GSConv模塊和VoVGSCSP模塊,實現(xiàn)對養(yǎng)殖場奶牛面部更高效的特征提取和分類,兩者組合可以降低模型計算復雜度和參數(shù)量,同時提高模型的性能和泛化能力。
3 試驗結(jié)果與分析
3.1 試驗環(huán)境
訓練和測試硬件平臺為戴爾工作站,主要硬件配置如表2所示。訓練參數(shù)為50輪次,batchsize(批處理)為32,圖像輸入分辨率為640像素 ×640 像素,其他使用原始默認參數(shù)??偱D様?shù)據(jù)圖像2973張,每頭牛按7:2:1比例隨機劃分數(shù)據(jù)集。
表2試驗環(huán)境Tab.2Experimental environmeni
3.2不同模型試驗結(jié)果對比
為深入測試改進模型YOLOv8s的性能,選取精確率 P 、召回率 R 、平均精度均值 !參數(shù)量和檢測速度FPS進行比較。
為有效評估改進YOLOv8s模型的性能,選取目標檢測模型YOLOv5s和YOLOv8s進行比較,其中改進模型與其他模型 mAP@0.5:0.95 訓練曲線變化如圖8所示。
由圖8可知,相比于YOLOv5s和YOLOv8s,雖然收斂速度相差不大,但是改進模型平均精度均值最優(yōu)。在YOLOv8s模型中,編號為1241、30435這兩頭牛的面部識別 mAP 分別為 79.91%.86.10% ,經(jīng)觀察,這兩頭牛的數(shù)據(jù)集亮度不夠,且面部污垢區(qū)域面積較大,因此模型識別效果差。利用改進YOLOv8s模型進行檢測,這兩頭牛的 mAP 分別提高 3.4%.5% ,改進模型在輕量化的同時,整體精確率提高。17頭奶牛不同模型平均精度均值對比如表3所示。
表3不同模型平均精度均值Tab.3Mean average precision for different models %
由表4可知,對牛臉識別時,相比YOLOv8s,改進YOLOv8s的 P,R,mAP 分別提升 5.68%.7.74% /3.33% ,參數(shù)量降低 1.3MB,F(xiàn)PS 提升 39.57% ,相比YOLOv5s,改進YOLOv8s的 P,R,mAP 分別提升8.43%.12.78%.6.11% ,參數(shù)量降低 0.9MB , FPS 提升 71.68% 。綜合來看,改進YOLOv8s模型性能均優(yōu)于其他模型。
表4網(wǎng)絡模型識別精度和性能比較 Tab.4 Network model identification accuracy and performance comparison
3.3 消融實驗
為驗證添加CBAM注意力機制、替換GSConv以及Slim—Neck模塊對YOLOv8s識別精準度的影響和輕量化的有效性,采用消融實驗進行對比,結(jié)果如表5所示??梢钥闯?,以YOLOv8s為基礎模型,添加CBAM注意力機制后, P?R,mAP 分別提升 4.4%.7.12%.3.03% ,但是參數(shù)量增加 22MB , FPS 降低;當替換GSConv和Slim—Neck模塊后 ,P,R,mAP 分別提升 3.35%.6.74% /2.43% ,參數(shù)量降低 5.4MB,F(xiàn)PS 提升 30.22% ;將注意力機制CBAM模塊與GSConv和Slim—Neck模塊共同引入到Y(jié)OLOv8s模型后, .P、R、mAP 分別提升 5.68% 、7.74%.3.33% ,參數(shù)量降低1.3MB,F(xiàn)PS速度提升 39.57% ,進一步驗證改進算法的可行性。
表5消融實驗對比 Tab.5Ablation experiment comparison
為進一步分析改進前后模型的性能,訓練50個迭代周期后,得到Y(jié)OLOv8s和改進YOLOv8s的損失值,如圖9所示。
當epoch為 0~10 時,損失值下降較快;當epoch為 10~40 時,損失值下降趨于平緩;當epoch為 40~ 50時,損失降至基本穩(wěn)定,訓練過程中未出現(xiàn)擬合和欠擬合現(xiàn)象。由圖9可知,改進模型YOLOv8s引入CBAM注意力機制和Slim—Neck結(jié)構(gòu)后,收斂更快且收斂性能優(yōu)于YOLOv8s。
4結(jié)論
提出一種輕量化與算法性能平衡的改進算法。首先在主干網(wǎng)絡加入注意力機制CBAM,提升算法精度;其次引入Slim—Neck設計范式,使用GSConv輕量級卷積模塊替換傳統(tǒng)卷積模塊(SC),并使用基于GSConv設計的VoVGSCSP模塊替換C2f模塊,不僅使模型參數(shù)量有效下降,緩解CBAM注意力機制帶來的計算量提升問題,還加強頸部層的特征融合能力,進一步增強模型的總體性能。
1)在奶牛面部圖像數(shù)據(jù)方面,相比于基線模型YOLOv8s,改進YOLOv8s模型在輕量化和算法性能平衡上具有優(yōu)秀的表現(xiàn)。改進YOLOv8s的模型內(nèi)存占用量為 21.3MB ,比YOLOv8s的占用量小1.3MB,F(xiàn)PS提升 39.57% ,精確率 P 、召回率 R 、平均精度均值 mAP 分別提升 5.68%.7.74%.3.33% 。
2)在牛面部遮擋、光線暗等情況下,改進模型有更高的識別率,泛化能力較強,為養(yǎng)殖場奶牛個體管理提供可行的技術方案,但改進模型在視頻追蹤方面還未進行研究,為下一步奶牛目標追蹤探究以及牛場奶牛管理應用方面奠定良好基礎。
參考文獻
[1]Minnaert B,Thoen B,Plets D,et al.Wireless energy transfer by means of inductive coupling for dairy cow health monitoring[J]. Computers and Electronics in Agriculture, 2018,152:101—108.
[2]Awad A I. From classical methods to animal biometrics:Areview on cattle identification and tracking[J].Computers and Electronics in Agriculture,2O16,123:423-435.
[3]何東健,劉冬,趙凱旋.精準畜牧業(yè)中動物信息智能感知與行為檢測研究進展[J].農(nóng)業(yè)機械學報,2016,47(5):231—244.He Dongjian,Liu Dong, Zhao Kaixuan.Reviewofperceiving animal information and behavior in precisionlivestock farming [J]. Transactions of the Chinese SocietyforAgriculturalMachinery,2016,47(5):231—244.
[4]Yajuvendra S,Lathwal S S,Rajput N,et al.Effectiveandaccurate discrimination of individual dairy cattlethrough acoustic sensing[J]. Applied Animal BehaviourScience,2013,146(1—4):11—18.
[5]鄭遠攀,李廣陽,李曄.深度學習在圖像識別中的應用研究綜述[J].計算機工程與應用,2019,55(12):20—36.Zheng Yuanpan, Li Guangyang, Li Ye. Surveyofapplication of deep learning in image recognition [J].Computer Engineering and Applications,2019,55(12):20-36.
[6]劉棟,李素,曹志冬.深度學習及其在圖像物體分類與檢測中的應用綜述[J].計算機科學,2016,43(12):13-23.Liu Dong,Li Su,Cao Zhidong. State-of-the-art on deeplearning and its application in image object classification anddetection [J].Computer Science,2016,43(12):13—23.
[7]趙凱旋,何東健.基于卷積神經(jīng)網(wǎng)絡的奶牛個體身份識別方法[J].農(nóng)業(yè)工程學報,2015,31(5):181-187.Zhao Kaixuan,He Dongjian. Recognition of individualdairycattle based on convolutional neural networks[J].Transactions of the Chinese Society of AgriculturalEngineering,2015,31(5):181—187.
[8]汪文華.基于身體特征圖像及深度學習的奶牛身份識別方法的研究[D].呼和浩特:內(nèi)蒙古大學,2019.w ang wennua.researcn on cow iuentiicauon Imenou based on body feature image and deep learning [D]. Hohhot: Inner Mongolia University,2019.
[9]黃俊華,田壯.基于改進VGG卷積神經(jīng)網(wǎng)絡的奶牛牛臉 識別研究[J].湖北農(nóng)機化,2019(13):126.
[10]茍先太,黃巍,劉琪芬.一種基于改進NMS的牛臉檢測 方法[J].計算機與現(xiàn)代化,2019(7):43-46. Gou Xiantai ,Huang Wei,Liu Qifen.A cattle face detection method based on improved NMS[J].Computer and Modernization,2019(7):43—46.
[11]Shen W,Hu H,DaiB,etal.Individual identification of dairy cows based on convolutional neural networks [J]. Multimedia Tools and Applications,202O,79(21—22) : 14711—14724.
[12]何東健,劉建敏,熊虹婷,等.基于改進YOLOv3模型的 擠奶奶牛個體識別方法[J].農(nóng)業(yè)機械學報,2020, 51(4):250-260. He Dongjian,Liu Jianmin, Xiong Hongting,et al. Individual identification of dairy cows based on improved YOLOv3 [J].Transactions of the Chinese Society for Agricultural Machinery,2020,51(4):250-260.
[13]楊蜀秦,劉楊啟航,王振,等.基于融合坐標信息的改進 YOLOv4模型識別奶牛面部[J].農(nóng)業(yè)工程學報,2021, 37(15):129—135. Yang Shuqin,Liu Yangqihang, Wang Zhen,et al. Improved YOLOv4 model for face recognition of diary cow byfusing coordinate information [J].Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(15):129—135.
[14]楊梅.基于牛臉圖像的牛身份識別研究[D].呼和浩特: 內(nèi)蒙古科技大學,2022. Yang Mei. Research on cattle identity recognition based on cattle face image[D]. Hohhot: Inner Mongolia University of Science and Technology,2022.
[15]黃小平,馮濤,郭陽陽,等.基于改進YOLOv5s的輕量 級奶牛體況評分方法[J].農(nóng)業(yè)機械學報,2023,54(6): 287-296. Huang Xiaoping,F(xiàn)eng Tao,Guo Yangyang,et al. Lightweight dairy cow body condition scoring method based on improved YOLOv5s [J]. Transactions of the Chinese Society for Agricultural Machinery,2023,54(6): 287-296.
[16]馬宏興,董凱兵,王英菲,等.基于改進YOLOv5s的輕 量化植物識別模型研究[J].農(nóng)業(yè)機械學報,2023, 54(8):267-276. Ma Hongxing,Dong Kaibing,Wang Yingfei,et al. Lightweight plant recognition model based on improved Agricultural Machinery,2023,54(8): 267—276.
[17]劉月峰,劉博,暴祥,等.基于超輕量化孿生網(wǎng)絡的自然 場景奶牛單目標跟蹤方法[J].農(nóng)業(yè)機械學報,2023, 54(10):282-293. Liu Yuefeng,Liu Bo,Bao Xiang,et al.Single target tracking method for dairy cows in natural scenes [J]. Transactions of the Chinese Society for Agricultural Machinery,2023,54(10): 282—293.
[18]羅志聰,李鵬博,宋飛宇,等.嵌入式設備的輕量化百香果 檢測模型[J].農(nóng)業(yè)機械學報,2022,53(11):262—269. Luo Zhicong,Li Pengbo,SongFeiyu,etal. Lightweight passion fruit detectionmodel basedon embedded device[J].Transactions of the Chinese Society for AgriculturalMachinery,2022,53(11):262—269.
[19]武星,齊澤宇,王龍軍,等.基于輕量化YOLOv3卷積神 經(jīng)網(wǎng)絡的蘋果檢測方法[J].農(nóng)業(yè)機械學報,2020, 51(8):17-25. Wu Xing,Qi Zeyu,Wang Longjun,et al. Apple detection method based on light-YOLOv3 convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery,2020,51(8):17—25.
[20]劉莫塵,褚鎮(zhèn)源,崔明詩,等.基于改進YOLOv8—Pose 的紅熟期草莓識別和果柄檢測[J].農(nóng)業(yè)機械學報, 2023,54(S2):244—251. Liu Mochen,Chu Zhenyuan,Cui Mingshi,et al. Red ripe strawberry recognition and stem detection basedon improved YOLOv8—Pose [J].Transactions ofthe Chinese Society forAgricultural Machinery, 2023, 54(S2):244-251.
[21]LiH,LiJ,Wei H,et al.Slim—neck by GSConv:A better designparadigm ofdetector architecturesfor autonomous vehicles [Z]. Ithaca: Cornell University Library,arVix preprint arVix: 2206. O2424,2022.
[22] Woo S,Park J,Lee J Y,et al. CBAM:Convolutional block attention module [J]. Lecture Notes in Computer Science,2018,11211:3-19.
[23]Wang Z,Bovik A C,Sheikh H R,et al. Image quality assessment:Fromerrorvisibilitytostructural similarity [J]. IEEE Transactions on Image Processing, 2004,13(4):600—612.
[24]Zhu C,He Y,Savvides M. Feature selective anchor-free module for single-shot object detection [Z]. Ithaca: Cornell University Library,arXiv.org,2019.
[25] Kong T,Sun F,Liu H,et al. FoveaBox:Beyound anchor-based object detection[J]. IEEE Transactions on Image Processing,2020,29:7389-7398.