中圖分類號:TP399 文獻標志碼:A
Accurate Prediction of Parturition Time for Confined Ewes Based on Livestock Farming Surveillance Videos
WANG Miaomiao,JI Yuhao,LIU Cheng,YUN Xun (SchoolofInformationScienceandEnginering,ShandongAgriculturalUniversity,Taian271OoO,Shandong,China)
Abstract:Addressing the loss of newborn lambs due toaccidents after parturition in confinedewes,basedonreal-time surveillance videos inanimal husbandry,alimitedarea detection algorithm wasfirstlydesigned using the binarysegmentation method.Byapplying masking techniques outsidethe target detection area,the delineation of designated sheepfold regionswas achieved.A tracking technique forthe wandering trajectories of pregnant ewes was adopted based on DeepSORT algorithm,YOLOV5model wasutilized toidentify pregnant ewe targetsand obtain real-time locations of heir activitiessuchas feding and wandering within the targeted sheepfold.Byanalyzingthe walking and stopping rhythm paterns of pregnant ewes before parturition,precise predictions of ewe parturition times were made.The results show that the real-time tracking recognition rate during ewe wandering can reach 92.72% . When the density of ewe increases,the phenomenon of mutualobstruction among individuals intensifies,which afects thepositioning accuracyof the detection model toacertain extent,however,theconfidence level stillremains above O.8 in theend.Asparturition approaches, thefrequencyof dynamicand static behavioral changes inpregnant ewes exhibits distinct characteristic paterns,allowing for precise predictions ofparturition times,whichcanensure timelyasistance during lambing and nursing,thereby improving the survival rate of newborn lambs.
Keywords: multi-target recognition; deep learning; data mining; smart animal husbandry
現(xiàn)代化養(yǎng)殖企業(yè)已經可以對畜禽養(yǎng)殖生態(tài)系統(tǒng)實施完整、全場景的監(jiān)測[1-4]。現(xiàn)代化羊養(yǎng)殖監(jiān)控系統(tǒng)能夠實現(xiàn)指定區(qū)域羊圈整個養(yǎng)殖周期(歷時6個月,每個月按 30d 、每天按 24h 計)的數(shù)據監(jiān)測[5-6]。隨著信息技術的發(fā)展,養(yǎng)殖監(jiān)控系統(tǒng)也得到了較大的改善和普及,利用因特網和物聯(lián)網技術,養(yǎng)殖戶可以通過手機或電腦遠程監(jiān)控畜禽舍內的情況,并進行遠程控制,調整環(huán)境參數(shù),提高生產效率。
目前,基于畜牧養(yǎng)殖監(jiān)控視頻的數(shù)據挖掘應用還是局限在淺層次的利用,例如在行為姿態(tài)方面的識別,在健康精準評估、疾病預警以及飼養(yǎng)管理優(yōu)化等方面,需要更精準、更深層的數(shù)據挖掘技術,因此,如何運用深度機器學習技術對畜牧養(yǎng)殖監(jiān)控視頻數(shù)據挖掘應用,從現(xiàn)有粗糙的低精度識別提升到更精準的高精度分析,從直觀的淺層特征深入到復雜關聯(lián)的深層特征,成為當前畜牧養(yǎng)殖環(huán)境監(jiān)控系統(tǒng)亟待解決的關鍵技術難題。目前基于數(shù)字化監(jiān)控的羊群養(yǎng)殖的經營目標主要有2個:一是以飼養(yǎng)出體大肉多的肥羊,售賣羊肉為目標;二是以提高產出羊羔的數(shù)量,售賣羊羔為目標。無論何種經營目標,產出羊羔的成活率都是羊養(yǎng)殖業(yè)的重要經濟指標,因此保證仔羊的成活率是養(yǎng)殖業(yè)面臨的普遍問題。仔羊的接產與護理是保證仔羊成活率的關鍵[7],尤其是如果在繁育多羔的母羊分娩時能提供及時的助產與護理,就可以大大提高仔羊的成活率,因此,利用智能化養(yǎng)殖監(jiān)控技術,從母羊分娩的整個過程開展理論分析和試驗研究,特別是通過精準預測母羊分娩的時間點,及時對分娩母羊提供助產與護理,已經成為提高仔羊成活率,進而提高羊養(yǎng)殖效益的關鍵。同時,加強對妊娠母羊的體況監(jiān)測,精確預測產羔時間,及時為母羊補充營養(yǎng)并看護新生羊羔[8-9],也是提高羊養(yǎng)殖效益的重要環(huán)節(jié)。
已有研究[1]表明,在現(xiàn)代化的畜牧養(yǎng)殖過程中,母羊在妊娠時期行走、趴臥、站立等行為分配的時間及頻率存在明顯的同步性和規(guī)律性。目前已經有學者對母羊、母豬分娩前后的行為進行實時檢測與研究:文獻[10]中利用可穿戴式三軸加速傳感器統(tǒng)計母羊產前第15、10、5天和分娩當天的不同行為時間分配及行為發(fā)生頻率,結果發(fā)現(xiàn),隨著臨產期的接近,母羊產前行為表現(xiàn)出一定的規(guī)律性,但是還沒有開展基于數(shù)字化監(jiān)控的母羊分娩前后的行為研究。文獻[11]中利用姿態(tài)角度測量傳感器對奶山羊的運動姿態(tài)角及運動行為開展姿態(tài)分析,為奶山羊產前異常行為研究提供數(shù)據基礎。文獻[12]中以母豬為研究對象,實時監(jiān)測母豬產前行為運動信息,采用 K 均值聚類算法分類識別母豬的行為,識別結果證明所設計的算法能夠快速、準確地采集和傳輸母豬運動信息,且對母豬躺臥、站立、吃料、筑窩等典型行為正確識別率達到了 87.93% 。文獻[13]中提出將三軸加速傳感器部署在山羊羊角處來監(jiān)測山羊的躺臥、站立、慢走、采食、跨跳等典型日常行為,以 K 均值聚類算法分類識別采集到的山羊典型日常行為數(shù)據。
如今,幾乎所有的畜牧養(yǎng)殖行業(yè)中都已經配備了全方位、智能化、全天候的養(yǎng)殖環(huán)境監(jiān)控,但是現(xiàn)有的養(yǎng)殖環(huán)境監(jiān)控系統(tǒng)功能非常單一,只能進行簡單的低精度識別,無法實現(xiàn)更深層次的分析。近年來,利用現(xiàn)代化畜牧養(yǎng)殖產業(yè)的數(shù)字監(jiān)控系統(tǒng)可以對指定待產羊圈內的妊娠母羊娩前、娩中、娩后的整個過程進行實時監(jiān)測與記錄。本文中針對目前仍未有基于現(xiàn)代畜牧養(yǎng)殖監(jiān)控的母羊分娩時間精準預測的實證研究現(xiàn)狀,首先利用現(xiàn)代養(yǎng)殖場常規(guī)配備的養(yǎng)殖監(jiān)控設備,記錄和采集待產羊圈的妊娠母羊產仔前 15~30d 的產前活動行為;然后,利用基于YOLOV5模型-DeepSORT算法的羊只游走軌跡跟蹤技術,對妊娠母羊娩前、娩中、娩后的整個過程的實時位置進行實時監(jiān)測與記錄;最后,研究妊娠母羊分娩精準時間特征,利用畜牧養(yǎng)殖的數(shù)字化監(jiān)控記錄妊娠母羊游走動態(tài)和靜態(tài)行為變換頻率,實現(xiàn)通過精準預測母羊分娩的時間點來達到及時助產母羊分娩過程的目的,提高仔羊成活率,進而提高羊養(yǎng)殖效益。
1試驗平臺搭建與數(shù)據采集處理
1. 1 試驗場所
基于畜牧養(yǎng)殖監(jiān)控的母羊分娩時間精準預測研究試驗場所位于省市岱岳區(qū)某村羊場(地理位置為東經 119°23′3′′ 、北緯 33°22′9′′ ),試驗場景如圖1所示。為了獲得較高經濟效益,現(xiàn)代畜禽養(yǎng)殖體系采用小群體分類施策精細化方案,根據小羊、空懷(未受孕)、受孕、分娩(母羊)、公羊(種羊)等分圈飼養(yǎng)[13]。圖1中羊圈監(jiān)控區(qū)域為待產妊娠母羊羊圈,羊圈內有7只待產母羊。
1. 2 數(shù)據采集與標注
試驗數(shù)據采集于2023年10—11月的試驗場7—10號羊圈的監(jiān)控畫面。使用羊場配備的JVS-C-BK1-H3D-AM型監(jiān)控探頭,幀率為 25s-1 ,分辨率為1280像素 ×720 像素。
羊只目標識別的羊群游走視頻集示例如圖2所示。選定的羊圈內有7只待產母羊,通過對母羊整個妊娠過程的動態(tài)行為數(shù)據,使用FFMPEG命令從視頻中提取圖像幀,采用隨機、平均取點的方式獲取羊只圖像集,通過數(shù)據增強技術(如旋轉、縮放、裁剪等)去除不符合標注標準的圖像,最終獲得有效的妊娠母羊標注圖像為1795幅。將有效標注圖像進行劃分,其中訓練集占比為 75% ,驗證集占比為15% ,測試集占比為 10% 。用于通過YOLOV5模型識別妊娠母羊目標,獲取妊娠母羊在目標羊圈食飼、游走等活動的實時位置。
2 研究方法
2.1基于YOLOV5模型的母羊多目標檢測模型
基于YOLOV5模型的母羊多目標檢測模型如圖3所示。為了實現(xiàn)妊娠母羊游走行為的識別與跟蹤,選擇YOLOV5模型[14-15]搭建妊娠母羊的識別和檢測深度學習模型。YOLOV5模型在特征提取層采用跨階段連接(CSP)結構的骨干網絡和自注意力機制壓縮與激勵(SE)模塊[16-17]。CSP 結構不僅能減少計算量,而且能提高特征提取的效率,通過不同大小的卷積核和下采樣操作,在多個層次上捕捉羊群的特征信息。SE模塊通過自適應地調整特征圖的通道權重,增強重要特征的表達能力,抑制無關特征表達。在特征融合層中,為了實現(xiàn)不同尺度的特征高效融合與利用,YOLOV5模型采用特征金字塔網絡結合路徑聚合網絡的結構,通過自底向上和自頂向下的路徑融合不同尺度的特征圖,可以將淺層的細節(jié)特征和深層的語義特征相結合,使得模型在檢測小目標和大目標時都能取得較好的效果。相比于其他目標檢測模型,YOLOV5模型擁有更加輕量級的網絡結構,使得它可以在不犧牲太多準確性的情況下更容易地部署到資源受限的設備上。
2.2 基于YOLOV5模型的有限區(qū)域監(jiān)測
YOLOV5模型可以實現(xiàn)羊圈中妊娠母羊多目標的實時識別與檢測;但是在監(jiān)控畫面中目標檢測區(qū)域以外的羊只會存在干擾,所以本文中提出基于動態(tài)掩模的視覺遮擋方案。該方法借鑒圖像掩模處理技術[18],通過定義頂左(top-left)、頂右(top-right)、底左(bottom-left)、底右(bottom-right)4個特征錨點構建檢測ROI(Regionof Interest)。在具體實現(xiàn)時,以視頻幀左上角為原點建立相對坐標系,將錨點坐標轉化為[0,1]區(qū)間的歸一化比例參數(shù)(如頂左錨點坐標表示為 (m,n),m 為橫向比例, n 為縱向比例),據此生成與視瀕幀等尺寸的二值掩模矩陣。
本文中選取4個錨點來確定目標檢測區(qū)域,對每個像素點 (x,y) ,若位于四點構成的多邊形區(qū)域內(含邊界),則賦值為255,保留原始畫面信息;區(qū)域外像素賦值為0,實現(xiàn)遮擋效果。這種基于坐標比例的動態(tài)掩模機制,既保持了檢測區(qū)域的幾何不變性,又通過逐像素的線性融合,在保留有效檢測區(qū)域的同時消除背景干擾。運算時按像素位置一一對應相乘,逐像素的加權疊加公式為
P′(m,n)=P(m,n)C(m,n),
式中: P′(m,n) 為處理后的圖像在位置 (m,n) 處的像素值; P(m,n) 為原始目標圖像在位置 (m,n) 處的像素值; C(m,n) 為掩模圖像在位置 (m,n) 處的像素值。
算法1 二值分割法添加掩模
輸入:原始圖像image、二值掩模mask
輸出:添加掩模后的圖像masked_image
① import cv2;import numpy as np;
② masked_image create_blank_image_like(im-age);
創(chuàng)建一個空白的圖像,用于存儲添加掩模后的結果 * V
③ for i in range( image. width) ;
for j in range( image. height) ;
ifr nask[i][j]=1 ;/*遍歷原始圖像的每個像素,并根據掩模的像素值修改原始圖像*/
如果 當前像素對應的掩模像素為1,則在添加掩模后的 圖像中保留該像素*/
⑤ Else ;
/*如果當前像素對應的掩模像素為0,則在添加 掩模后的圖像中將該像素設為背景色*/
⑥ returnmasked_image;/*返回添加掩模的結 果*/
2.3基于DeepSORT算法的妊娠母羊游走軌跡跟蹤
本文采用DeepSORT算法實現(xiàn)妊娠母羊多目標 的準確檢測和跟蹤。
首先,基于YOLOV5模型的妊娠母羊多目標識別模型可以提取到妊娠母羊的外觀特征,每個檢測目標的狀態(tài)都被描述為一個預測框,其中包括目標檢測框的水平位置、垂直位置、面積、邊框邊長與高度之比(長高比)以及水平位置、垂直位置和邊界框質心的預測值。利用DeepSORT算法追蹤單只妊娠母羊在游走視頻中每一幀實時位置和檢測框[19-20]。每個羊只目標狀態(tài)向量 E 在一個預測框中描述為
式中: x 為檢測框水平位置; y 為檢測框垂直位置; z 為檢測框面積; s 為檢測框長高比; (x′,y′,z′) 為水平位置、垂直位置和檢測框質心的預測值。
其次,利用卡爾曼濾波器和匈牙利算法進行目標匹配??柭鼮V波器和匈牙利算法是實現(xiàn)準確、高效跟蹤的關鍵工具,其中卡爾曼濾波器主要負責預測和更新羊只的位置狀態(tài),而匈牙利算法則負責將預測和檢測結果進行匹配,兩者相互配合,共同實現(xiàn)對羊只的準確跟蹤[21]。具體而言,當首次檢測到羊只時,每一只羊都被初始化一個對應的卡爾曼濾波器,初始狀態(tài)設置為檢測到的羊只的邊界框中心位置,在處理每一幀新的視頻圖像時,卡爾曼濾波器會根據上一幀的羊只狀態(tài)預測當前幀羊只的位置,將預測位置與深度學習模型提取到的外觀特征進行特征匹配,并不斷重復預測和更新的過程,保持跟蹤的連續(xù)性;在匹配預測和檢測結果時,利用匈牙利算法可以計算每一個預測位置與每一個檢測位置之間的代價,從而找到一個最優(yōu)的匹配方案。
最后,實施迭代特征更新。匹配過程中可能出現(xiàn)預測位置無對應檢測位置,或檢測位置無對應預測位置的情況:前者可能意味著羊只離開畫面,此時可停止對該羊只的跟蹤;后者可能表示有新羊只進入畫面,須要為其初始化新的卡爾曼濾波器實施跟蹤。由此完成羊群場景中準確和實時的多目標跟蹤
2.4 妊娠母羊游走節(jié)拍模型
目前,已有研究利用數(shù)字化監(jiān)控技術和深度學習算法,實時記錄母羊的產前行為,達到預測母羊分娩時間的目的。例如,劉艷秋[1]利用可穿戴式三軸加速傳感器實時、詳細地記錄與研究了母羊產前第15、10、5天和分娩當天的行走、站立、趴臥、刨地等行為的時間分配及行為發(fā)生頻率。
現(xiàn)代畜禽養(yǎng)殖體系采取小群體分類分圈飼養(yǎng)方式,羊的行為受空間尺度影響,不同于在自由放牧條件下的行為。利用畜牧養(yǎng)殖數(shù)字智能化監(jiān)控技術,本文中把妊娠母羊游走行為分為靜態(tài)行為(站立、趴臥、刨地、采食和飲水)和動態(tài)行走行為。利用基于DeepSORT算法的羊游走軌跡跟蹤算法,可以獲取每一幀圖像中的羊只位置,包括檢測框中心點位置坐標、檢測框寬度和高度等。利用曼哈頓距離公式可以計算每只羊目標在每幀圖像里的時空位置與起始源點之間的距離。通過對這些距離數(shù)據的持續(xù)記錄和分析,我們能夠獲取羊只目標在整個游走過程中的位移變化情況,進而描繪出它們的運動軌跡數(shù)據。1表示走,0表示停,用 1/0 表示羊行為的連續(xù)狀態(tài)。數(shù)學模型描述式為
Dt(x,y)=∣It+1(xt+1,yt+1)-It(xt,yt)∣
式中: Dt(x,y) 為 χt 時刻目標移動距離; It(xt,yt) !It+1(xt+1,yt+1) 為 時刻目標位置。
羊游走行為(走、停)在一個時間窗的行為狀態(tài)變化值為
式中: Bt(x,y) 為 χt 時刻羊的運動狀態(tài); T 為羊的運動距離變化閾值。
每只羊在整個游走過程中的位移軌跡如圖4所示。取行為狀態(tài)變化的時間節(jié)點 χt ,代入游走節(jié)拍模型得到行為狀態(tài)變化圖,圖中每個峰值都代表一個羊行為(走、停)變化節(jié)拍。
3 結果與分析
3.1 試驗平臺及參數(shù)設置
本文中構建的妊娠母羊群體行為分析平臺主機搭載銳龍八核處理器,英偉達305012GB顯卡,軟件環(huán)境為64位Window10操作系統(tǒng),具體的深度學習環(huán)境配置為PyTorch1.8.0版本配合CUDA11.8運行時庫和cuDNN8.2深度網絡加速庫,語言選擇Python3.8版本。YOLOV5模型采用隨機梯度下降(SGD)算法,用于優(yōu)化神經網絡參數(shù),通過迭代調整參數(shù)來最小化損失函數(shù),動量為0.9,其作用在于加快SGD在相關方向的收斂速度,同時抑制參數(shù)更新過程中的振蕩現(xiàn)象,使模型訓練更加穩(wěn)定;采用小批量訓練方式,每批處理4幀圖像數(shù)據;損失函數(shù)使用交叉熵損失,它能夠有效衡量模型預測結果與真實標簽之間的差異;激活函數(shù)為修正線性單元(ReLU)函數(shù),具有計算簡單、收斂速度快等優(yōu)點;初始學習率設為0.005,為模型訓練提供一個合適的起始步長;為了防止模型陷入局部最優(yōu)解,同時提高模型的泛化能力,本文中采用學習率衰減策略。具體而言,當測試精度在連續(xù)5個迭代周期內都沒有提升時,學習率將被衰減,衰減率設定為0.2,意味著學習率會按照一定比例逐漸減小,使模型在訓練后期能夠更加精細地調整參數(shù)。
3.2 妊娠母羊游走過程中的多目標識別分析
妊娠母羊游走過程中的多目標識別結果如圖5所示,檢測框右上角為目標檢測的置信度。從圖中可以看到,無論是正常情況的羊群,還是存在一定遮擋的羊群,基于YOLOV5模型的多目標檢測模型都可以穩(wěn)定、有效地檢測出目標羊只,且置信度始終保持在0.8以上。
為了驗證妊娠母羊游走場景下多目標檢測模型的魯棒性和性能表現(xiàn),采用逐漸增加羊只數(shù)量的方法分別給出在2只羊、4只羊和多只羊的情況下檢測模型的召回率,結果如圖6所示。由圖可以看出,當羊只密度增大時,個體間遮擋問題加劇,在一定程度上影響了檢測模型的定位精度。結果表明,在多只羊測試中,系統(tǒng)的召回率始終維持在 80% 以上,可以認為該模型在復雜場景下具有顯著的魯棒特征,能夠保障多目標移動過程中個體識別的可靠性。
3.3 有限區(qū)域劃分
在算法1中,輸入包括原始圖像image和掩模mask,輸出則是添加掩模后的圖像masked_image。算法1接受原始圖像和掩模作為輸入,如果當前像素對應的掩模像素為1,則在添加掩模后的圖像中保留該像素;如果當前像素對應的掩模像素為0,則在添加掩模后的圖像中將該像素設為背景色。最終輸出與原圖等尺寸的掩模圖像添加掩模前、后的識別效果如圖7所示
3.4妊娠母羊的游走節(jié)拍數(shù)據分析
妊娠母羊監(jiān)控視頻數(shù)據隨機選取2023年10月1日17時至17時20分的妊娠母羊實時食飼及游走等活動,將妊娠母羊的游走行為分為靜態(tài)行為(站立、趴臥、刨地、采食和飲水)和動態(tài)行走行為。利用DeepSORT算法對指定區(qū)域的每一個檢測目標,逐一計算其在每個圖像幀中的實時位置,采用曼哈頓距離公式,計算羊只目標在每幀圖像里的時空位置與起始源點之間的距離。通過對這些距離數(shù)據的持續(xù)記錄和分析,我們能夠獲取每只羊目標在整個游走過程中的位移變化,進而得到它們的運動軌跡數(shù)據。單只母羊在單位時間里游走行為的位移軌跡以及對應的游走節(jié)拍變化如圖8所示。在行為變化上,1表示走,0表示停,用1/0表示羊行為的連續(xù)狀態(tài)。從圖中的時間維度上清晰地看出該目標妊娠母羊游走行為(動態(tài)走、靜態(tài)停)的連續(xù)動態(tài)特征,可以從中提取母羊行為(走、停)變化節(jié)拍出現(xiàn)的時間點,進而計算目標羊在單位時間周期內游走動態(tài)行為和靜態(tài)行為轉變的頻率。
3.5 妊娠母羊分娩時間精準預測結果與分析
妊娠母羊監(jiān)控視頻數(shù)據來源分娩前第15天(2023年10月2日)、分娩前第10天(2023年10月7日)、分娩前第5天(2023年10月12日)和分娩當天(2023年10月17日)共4d內所發(fā)生的妊娠母羊的游走軌跡變化和對應的游走節(jié)拍變化。
單只妊娠母羊分娩前第15、10、5天及分娩當天的游走動態(tài)行為和靜態(tài)行為變換頻率曲線如圖9所示。由圖可以看出,母羊分娩前、后不同時期、不同行為的變化規(guī)律有明顯的差別。首先,可以觀察到妊娠母羊分娩前第15、10、5天的動、靜行為變化頻率為一條近似M型曲線,符合母羊在欄內夜間趴臥行為所占比率較高、運動行為發(fā)生次數(shù)較少,每天2次飼喂高峰期時間段的游走動態(tài)、靜態(tài)行為變換頻率高的特征。分娩前第15天,妊娠母羊趴臥行為發(fā)生的頻次較少,每次持續(xù)時間都較長,因此,單位時間周期內游走動態(tài)、靜態(tài)行為變換頻率比較低。分娩前第10、5天,妊娠母羊趴臥行為所分配的時間呈遞減趨勢,母羊的站立及行走行為分配的時間呈增長趨勢,單位時間周期內游走動態(tài)、靜態(tài)行為變換頻率逐漸增加。分娩當天,母羊表現(xiàn)為來回的走動、站立與趴臥行為變換瀕繁,這些運動行為明顯表現(xiàn)為單位時間周期內妊娠母羊的動態(tài)行為發(fā)生頻次逐漸增加,臨近分娩時,動態(tài)行為的發(fā)生頻次顯著增加。綜上分析,利用現(xiàn)代數(shù)字化監(jiān)控的實時檢測結合深度學習算法,可以通過分析妊娠母羊分娩前的走、停節(jié)拍規(guī)律來精準預測母羊分娩時間。
4結論與討論
針對現(xiàn)代畜牧養(yǎng)殖監(jiān)控的母羊分娩時間精準預測缺乏實證的問題,本文利用現(xiàn)代養(yǎng)殖場常規(guī)配備的監(jiān)控設備,記錄和采集待產羊圈的妊娠母羊產仔前15\~30d的產前活動行為。利用基于YOLOV5模型-DeepSORT算法的羊只游走軌跡跟蹤技術,對妊娠母羊娩前、娩中、娩后的整個過程的實時位置進行實時監(jiān)測與記錄。通過詳細研究這些數(shù)據,能夠精準預測母羊分娩的時間點,提高助產效率,提高羊羔的成活率,從而提升養(yǎng)殖效益。本文的主要結論如下:
1)采用YOLOV5模型可以實現(xiàn)妊娠母羊的多目標識別及檢測。2)設計基于二值分割法的有限區(qū)域檢測算法,通過在目標檢測區(qū)域以外添加掩模技術,完成指定目標羊圈的區(qū)域劃分。3)采用基于YOLOV5模型-DeepSORT算法的羊只游走軌跡的跟蹤技術獲取妊娠母羊在目標羊圈食飼活動的實時位置。4)基于現(xiàn)代數(shù)字化監(jiān)控的實時檢測結合深度學習算法,通過分析妊娠母羊分娩前的走、停節(jié)拍規(guī)律可以精準預測母羊分娩時間點,
雖然基于畜牧養(yǎng)殖監(jiān)控視頻的妊娠母羊精準分娩預測研究的準確性較高,但仍然存在一些問題。首先是報警接口功能的開發(fā),應將報警接口實時嵌入到現(xiàn)有的監(jiān)控系統(tǒng)中。要實現(xiàn)此類功能,可以通過引入擴展模塊的方式,將報警接口與監(jiān)控系統(tǒng)緊密結合,確保在檢測到異常情況時,能夠立即觸發(fā)報警機制,并將相關信息迅速傳遞給養(yǎng)殖管理者;其次是可以采用多元化的實時報警方式及時將緊急情況反饋給養(yǎng)殖管理者。傳統(tǒng)的報警方式可能只依賴于單一的渠道,如聲音報警或燈光閃爍等,無法確保養(yǎng)殖管理者在第一時間接收到報警信息,因此,可以利用現(xiàn)代通信技術,如手機短信、應用程序(APP)推送等方式,將報警信息實時發(fā)送給養(yǎng)殖管理者,使他們迅速獲取到養(yǎng)殖場的實時情況,并作出相應的處理決策。
參考文獻:
[1]曹麗桃,程曼,袁洪波,等.可穿戴設備部署位置對羊只行為識別的影響與分析[J].農機化學報,2022,43(12):133.
[2]石紅霄,高方馀,劉同海,等.基于傳感器技術的自由放牧羊行為識別研究進展[J].農業(yè)工程學報,2023,39(17):1.
[3] 王奎.基于聲信號的放牧羊只牧食信息監(jiān)測研究[D].呼和浩特:內蒙古農業(yè)大學,2021.
[4]何春明,趙斌,張麗娜.舍飼綿羊運動狀態(tài)監(jiān)測方法的研究[J].黑龍江畜牧獸醫(yī),2023(7):48.
[5]姬振生.羊只反芻行為監(jiān)測系統(tǒng)設計與識別技術研究[D].呼和浩特:內蒙古農業(yè)大學,2023.
[6] 胡必玲,郭玉堂.基于RFID和無人機的畜牧定位系統(tǒng)[J].計算機測量與控制,2017,25(7):239.
[7]劉月麗.羔羊的接產與護理技術[J].現(xiàn)代農村科技,2022(12):48.
[8] 王慧青.綿羊產前癱瘓發(fā)病情況調查及相關血尿理化指標檢測[D].石家莊:河北農業(yè)大學,2021.
[9]賽漢其其格.規(guī)模化羊場妊娠母羊護理及羔羊接產和培育[J].畜牧獸醫(yī)科學(電子版),2019(21):99.
[10] 劉艷秋.舍飼環(huán)境下母羊產前典型行為識別方法研究[D].呼和浩特:內蒙古農業(yè)大學,2017.
[11] 劉泓鑠.基于深度學習的產前奶山羊典型行為識別研究[D].咸陽:西北農林科技大學,2021.
[12] 劉龍申,沈明霞,姚文,等.基于加速度傳感器的母豬產前行為特征采集與分析[J].農業(yè)機械學報,2013,44(3):192.
[13]覃小英.黑山羊生態(tài)養(yǎng)殖技術要點[J].今日畜牧獸醫(yī),2019,35(9):55.
[14] JOCHER G. Ultralytics/YOLOV5:V6.1-tensorrt,tensorflowedge tpu and openvino export and inference[EB/OL]. (2022-02-22)[2024-05-03]. https://github.com/ultralytics/yolov5.
[15] REDMON J,F(xiàn)ARHADI A. YOLO90OO:better,faster, stronger[C]//2O17 IEEE Conference on Computer Vision and PatternRecognition(CVPR),July21-26,2017,Honolulu,USA.NewYork:IEEE,2017:6517.
[16] WANGCY,MARKLIAOHY,WUYH,etal.CSPNet:anewbackbone that can enhance learningcapability of CNN[C]//2020 IEEE/CVF Conference on Computer Vision and PatternRecognitionWorkshops(CVPRW),June14-19,2020,Seatle,USA.New York:IEEE,2020:1571.
[17]劉斌,李港慶,安澄全,等.基于多尺度特征融合的紅外單