涂淑琴 湯寅杰 李承桀 梁 云 曾揚晨 劉曉龍
(華南農業(yè)大學數學與信息學院, 廣州 510642)
生豬養(yǎng)殖業(yè)是畜牧業(yè)的支柱產業(yè),在國民經濟中占據著舉足輕重的地位[1]。豬只的健康情況決定著生豬養(yǎng)殖業(yè)的發(fā)展與經濟效益,多數生豬疾病的臨床或亞臨床體征表現之前常伴隨行為異常[2],故對豬只的運動、飲食等行為的監(jiān)測有助于判斷豬只健康情況。目前,隨著圖像處理技術的發(fā)展,人工觀察與計算機視覺融合監(jiān)測是大型豬場的主要管理方式,其需要一定的勞動力,同時借助智能耳標(豬只身份識別),采用計算機輔助手段實現半自動化監(jiān)測豬只行為狀態(tài)。為實現高效全自動監(jiān)控豬只健康情況,利用多目標跟蹤技術,完成豬場豬只健康的智能監(jiān)測[3],對實現生豬智慧養(yǎng)殖具有重要意義。
隨著深度學習的發(fā)展,多目標跟蹤技術取得快速進展[4-7]。根據其工作方式不同,主要分為:基于檢測的跟蹤(Tracking by detection,TBD)和檢測跟蹤一體策略(Joint detection and embedding,JDE)。TBD首先用檢測器輸出檢測結果,然后,利用卡爾曼濾波、貝葉斯概率和匈牙利算法等數據關聯算法進行多目標跟蹤。其中,DeepSORT算法[7]采用不同的檢測器,提取目標檢測結果,然后,為改善遮擋目標的跟蹤性能,采用運動和表觀信息進行數據關聯匹配,實現高效的多目標跟蹤。該方法在群養(yǎng)生豬跟蹤中獲得廣泛應用[8-10]。但是,TBD方法一般是分兩個階段,先檢測,再跟蹤,同時跟蹤中采用運動和外觀相似度進行數據關聯匹配,導致多目標跟蹤速度較慢,在大量攝像頭的視頻監(jiān)控環(huán)境下,要達到實時跟蹤效果具有很大的難度[11-13]。
JDE算法是聯合檢測和跟蹤操作實現端對端的一階段方法,其通過修改對象檢測器頭部組件,完成預測對象在下一幀的位置。該方法在一個網絡中同時完成目標檢測和身份重識別(Re-IDfeature)任務,通過共享大部分計算來減少推理時間,達到實時跟蹤。近年來,研究者開發(fā)了多種JDE類方法[14-15]。TransTrack方法[4]基于transformer結構,利用Query-Key機制,追蹤當前幀已經存在的目標,同時完成新目標的檢測。但注意力機制極大地增加模型的復雜度,導致其計算成本較高。JDE類方法在跟蹤性能提升的基礎上,運行速度也有顯著提升。
以上TBD和JDE類方法在獲取目標檢測結果后,會丟棄置信度小于一定閾值的低分框。這些低分框可能是對物體遮擋時產生的框,直接將低分框拋棄,會產生大量的漏檢和軌跡中斷,影響目標跟蹤性能。因此,若使用低分框對追蹤算法進行二次匹配,就能有效解決追蹤過程中由于遮擋造成的錯誤身份(ID)變換問題。針對該問題,ZHANG等[6]提出了ByteTrack方法。該方法在TBD基礎上,改進數據關聯策略,有效利用低分框,提高目標跟蹤性能。其首先采用YOLOX算法[16]作為檢測器,然后設計一種簡單高效的數據關聯算法BYTE。同時,為提高跟蹤速度,僅僅使用運動信息相似度來關聯檢測框,沒有使用外觀特征匹配,獲得了快速的跟蹤性能,在MOT17[17]和MOT20[18]數據集中取得最好的效果。
在真實養(yǎng)殖豬場中,由于光照變化與豬群的密集遮擋,容易造成目標漏檢和誤檢,導致跟蹤中豬只目標ID 錯誤頻繁跳變,降低跟蹤性能。為克服這些挑戰(zhàn),本研究在ByteTrack方法基礎上,設計一種改進的群養(yǎng)生豬多目標跟蹤算法。該方法首先通過YOLOX-X檢測器,輸出群養(yǎng)生豬的4類行為、位置和分類置信度信息,改善漏檢和誤檢操作。然后,改進BYTE數據關聯策略,設計軌跡插值后處理策略和適合生豬的檢測框,提升跟蹤中豬只ID的穩(wěn)定性。最后只采用交并比(Intersection over union,IOU)匹配,未采用外觀匹配,減少算法的推理運行時間,達到實時跟蹤的效果,以期為快速無接觸式自動監(jiān)測群養(yǎng)生豬行為提供技術支持。
實驗數據從文獻[19]的數據集中選擇,篩選保留15段豬只移動較多的有效視頻,每段視頻60 s,每秒5幀。將視頻分辨率裁剪為2 688像素×1 012像素,在視頻段中只保留同一豬舍下的豬只。使用DarkLabel軟件對視頻段進行標注,構建ByteTrack數據集,其中隨機挑選4段不同條件下的視頻作為測試集,用于驗證算法效果,具體信息如表1所示。
表1 測試集Tab.1 Test dataset
本文提出的群養(yǎng)生豬多目標行為跟蹤方法分為目標檢測和多目標跟蹤兩階段,其工作流程如圖1所示。首先,將視頻圖像輸入到目標檢測器,即YOLOX-X檢測器,快速準確地檢測出每頭豬只信息,包括其置信度、檢測框和行為類別。然后,將檢測結果輸入到多目標跟蹤器。多目標跟蹤器采用BYTE數據關聯算法,其將檢測結果分為高分檢測框和低分檢測框,分別采用卡爾曼濾波預測和匈牙利匹配算法,獲得連續(xù)視頻幀圖像的目標軌跡框。最后,輸出多目標跟蹤圖像序列結果。
圖1 群養(yǎng)生豬多目標行為跟蹤流程圖Fig.1 Flow chart of multi-object behavior tracking of group-housed pigs
基于YOLOX-X的目標檢測算法結構如圖2所示。主要部件為特征提取主干網絡、中間多尺度特征融合和解耦頭3個模塊。主干網絡CSPDarknet53負責對輸入圖像進行特征提取,由Focus組件和4個Dark網絡塊組成。中間多尺度特征融合模塊由自頂向下特征金字塔網絡(Feature pyramid networks,FPN)和自底向上的路徑聚合網絡(Path aggregation network,PAN)結構組成,即路徑聚合-特征金字塔網絡(PAFPN),融合不同尺寸特征圖的語義信息和位置信息。解耦頭將根據3個不同尺度的特征,分別輸出目標檢測結果。
圖2 YOLOX-X檢測模型結構圖Fig.2 Structure diagram of YOLOX-X detection model
YOLOX-X在目標檢測中主要有4個優(yōu)點:①YOLOX在網絡輸入部分采用兩種數據增強方法,分別為Mosaic數據增強和MixUp數據增強[20]。Mosaic數據增強通過隨機裁剪、隨機縮放和隨機排布,將多幅圖像融合在一起,增加許多小目標,增強主干網絡魯棒性。MixUp數據增強將2幅圖像通過融合疊加在一起,構建虛擬樣本,其對不同類別和不同樣本之間鄰域關系進行建模,提高模型泛化能力。②采用解耦頭(Decoupled head)檢測。解耦頭具有更好的表達能力,其每一個頭部分支只負責單一功能,收斂速度更快,精度更高。③采用無錨框(Anchor-Free),將每個位置的預測個數從有錨框的3減到1,直接預測目標框的4個值,降低檢測器的參數量,加快檢測速度。④采用標簽分配SimOTA。SimOTA的分配方法能顯著提高檢測模型精度。
2.2.1基本的ByteTrack多目標跟蹤算法
群養(yǎng)生豬多目標跟蹤算法采用BYTE數據關聯策略,該策略能夠較好地跟蹤復雜場景下嚴重遮擋的群養(yǎng)生豬對象,其具體運行過程如下:
(1)將YOLOX-X目標檢測結果分為高分和低分檢測框。檢測結果中,若檢測框置信度大于高分框閾值,則將檢測框放入高得分檢測框集合Dhigh中。檢測框置信度值小于高分框閾值,并且大于低分框閾值,則將該檢測框放入低得分檢測框集合Dlow中。
(2)將Dhigh與已有軌跡進行首次關聯匹配。計算出Dhigh高分框與軌跡集合的IOU距離矩陣,用匈牙利算法進行匹配。對于成功匹配的軌跡,更新其卡爾曼濾波,并放入當前幀軌跡集合中。對未能夠成功匹配的軌跡放入第一次關聯未能匹配的軌跡集合Tremain中,未能夠成功匹配的高得分檢測框放入第1次關聯未能匹配的檢測框集合Dremain中。
(3)將Dlow與Tremain軌跡進行第2次IOU關聯匹配。計算Dlow低分框與Tremain軌跡集合的IOU距離矩陣,用匈牙利算法進行匹配。未能夠成功匹配的軌跡放入丟失軌跡集合Tlost中,未能夠成功匹配的低得分檢測框直接刪除,這個檢測框被認為是背景框。對于成功匹配的軌跡,更新其卡爾曼濾波,并放入當前幀軌跡集合中。
(4)軌跡創(chuàng)建、刪除和合并。對于Dremain中的檢測框,若置信度值大于跟蹤得分閾值,則為其創(chuàng)建一個新的軌跡,并且合并入當前幀軌跡集合中,否則不做處理。對于保留在Tlost里的軌跡,若超出30幀,則認為其為丟失軌跡并刪除。返回當前幀的所有軌跡集合,將其作為下一幀圖像的已有軌跡集合,輸出軌跡集合,進行卡爾曼濾波預測軌跡新位置。
該策略處理流程圖如圖3所示。
圖3 基于BYTE數據關聯算法流程圖Fig.3 Flow chart of algorithm based on BYTE data association
2.2.2改進ByteTrack的多目標跟蹤算法
基于BYTE的數據關聯跟蹤器只能用于跟蹤單類別的行人,無法識別目標對象的行為動作類別,難以識別非行人的目標,因此,需要對BYTE數據關聯算法進行改進。為實現群養(yǎng)生豬多種行為穩(wěn)定跟蹤,改進ByteTrack的多目標跟蹤算法的改進包括兩部分:
(1)設計并實現BYTE數據關聯的軌跡插值后處理策略。針對群養(yǎng)生豬之間存在的嚴重遮擋,導致目標ID錯誤變換,該策略能顯著提升遮擋目標的穩(wěn)定跟蹤性能。其工作原理為:假設軌跡T在t1幀和t2幀之間因遮擋處于丟失狀態(tài),若當前軌跡T恰好處于第t幀(t1 (1) 式中Bt——第t幀的軌跡框坐標(包含4個值,分別是左上和右下坐標值) Bt1——第t1幀的軌跡框坐標 Bt2——第t2幀的軌跡框坐標 與此同時,需要設置一個超參數σ,表示執(zhí)行插值的最大幀數間隔,這意味著只有當t2-t1<σ時才執(zhí)行軌跡插值。 (2)針對豬只形狀,設計適合群養(yǎng)生豬的檢測錨框。原本基于BYTE的數據關聯跟蹤器的檢測框根據行人的窄高特點設計,本文中去除對目標檢測框的形狀限制,同時設計適合生豬的檢測框。同時,在基于BYTE的數據關聯跟蹤器中,增加豬只4類行為類別(躺臥、站立、飲食和其他)跟蹤。首先,在YOLOX-X目標檢測中,采用目標、分類和回歸3個解耦頭,每一個頭部分支負責單一功能。設計群養(yǎng)生豬4種分類行為,分類信息由獨立的一個解耦頭負責。然后,將檢測結果中檢測框坐標和類別信息一起傳入BYTE數據關聯算法中,實現在跟蹤模塊中,對每個軌跡增加類別和置信度信息。使每個軌跡包含坐標信息、ID號、置信度和類別信息,最終實現豬只行為類別跟蹤。 在豬只存在物體遮擋或者其他豬只遮擋時,YOLOX-X可能在相鄰幾幀之間,會出現漏檢或者誤檢的檢測框,其產生無類別或者錯誤的行為類別;將其引入跟蹤模塊,會產生錯誤的ID跟蹤框,其并無類別或者錯誤的類別信息;在這種情況下,利用改進的BYTE數據關聯的軌跡插值后處理,去更正錯誤的ID跟蹤框,在更正軌跡框坐標信息及ID信息時,同時去更正類別信息,實現穩(wěn)定的行為類別跟蹤。其中,更正軌跡T的行為分類信息依據分類信息是離散變量,通過t1幀和t2幀的類別信息,采用最大投票方法修正軌跡T的類別信息。 改進BYTE數據關聯跟蹤器實現效果如圖4所示,圖4a中原本的跟蹤框只能顯示豬只的ID號,而圖4b中的跟蹤框能夠顯示豬只的行為類別和ID號,可以體現出增加行為類別后的跟蹤差異。 圖4 改進ByteTrack算法中增加行為類別跟蹤結果Fig.4 Behavior recognition tracking results based on improved ByteTrack algorithm 基于改進ByteTrack數據關聯策略,將所有檢測框都保留下來,將檢測框分為高分和低分檢測框,提高遮擋物體的穩(wěn)定跟蹤。同時對匹配過程中發(fā)生丟失的軌跡進行靈活處理,提高遮擋物體的跟蹤性能。 實驗采用基于ByteTrack的深度學習多目標跟蹤模型,運行模型的服務器操作系統(tǒng)為Ubuntu18.04,編程語言為Python3.7,深度學習框架為Pytorch1.9.1,cuda版本11.1。服務器的GPU為RTX 3090,內存為64 GB。 圖5 ByteTrack算法跟蹤部分結果Fig.5 Examples of MOT results based on ByteTrack 采用識別平均數比率(Identification F1,IDF1)、召回率(Recall,R)、精確率(Precision,P)、大多數跟蹤(Mostly tracked,MT)、主要丟失目標(Mostly lost,ML)、誤報數(False positives,FP)、漏報數(False negatives,FN)、身份切換(ID switch,IDs)次數、多目標跟蹤準確度(Multiple object tracking accuracy,MOTA)和多目標跟蹤精確度(Multiple object tracking precision,MOTP)進行綜合評價跟蹤模型。其中,IDF1、IDs和MOTA主要反映跟蹤器的性能,IDF1和MOTA數值越高,性能越好,IDs值越小,性能越好;輔助以R、P、MT、ML、FP、FN、MOTP等指標進行跟蹤模型的性能評估,R、P、MT、MOTP值越高,性能越好,ML、FP、FN值越小,性能越好。 為檢驗ByteTrack多目標跟蹤模型性能,將4段不同環(huán)境場景下的群養(yǎng)生豬視頻作為測試視頻,設置軌跡分數閾值為0.76,匹配閾值為0.98,輸入圖像尺寸為1 344像素×506像素,ByteTrack在測試集上的跟蹤結果如表2所示,其中真實豬只數量(Ground truth,GT)代表每個視頻段中共有幾頭豬只。該方法的MOTA和IDF1分別為95.3%和93.9%,說明跟蹤器在豬舍場景中,對于群養(yǎng)生豬跟蹤具有較好的效果。IDs為13,說明模型能持續(xù)跟蹤,性能穩(wěn)定。綜合其他指標結果,該跟蹤器適用群養(yǎng)生豬環(huán)境下的多目標跟蹤。 表2 基于ByteTrack的群養(yǎng)生豬多目標跟蹤結果Tab.2 Pig MOT results based on ByteTrack 利用ByteTrack對不同條件下群養(yǎng)生豬進行跟蹤測試,結果如圖5所示。圖5a為在白天豬只個數較少、存在部分遮擋的情況下,模型可以準確地識別并跟蹤豬只行為,跟蹤效果較好。圖5b為在夜晚豬只個數較多、存在嚴重遮擋的情況下,模型也能夠準確識別出每頭豬只并進行跟蹤,表明該模型能夠很好地處理目標遮擋問題;圖5c、5d為在白天豬只較多、密集擁擠情況下的跟蹤性能。在這些場景下,算法具有較好的跟蹤效果,表明模型對于不同光照也具有較好性能。綜上,ByteTrack模型適用生豬跟蹤。 3.2 基于改進ByteTrack群養(yǎng)生豬多目標行為跟蹤結果 3.2.1基于改進ByteTrack的多目標跟蹤結果分析 基于改進ByteTrack的多目標跟蹤測試結果如表3所示。從表3可以看出,視頻序號0102、0402和0602的IDF1值在92%~93%之間,說明對3個視頻中目標跟蹤保持良好,而視頻序號1502的IDF1達到99%,保持目標跟蹤的時間更長。所有測試視頻IDF1平均值達到94.5%,表明,整體上模型算法的軌跡跟蹤性能較優(yōu)。在P與R方面,所有測試視頻平均值分別為98.0%和98.1%,說明模型能夠準確地識別出豬只目標。在MT和ML上,所有視頻都達到最佳,表明所有軌跡大多數時間都能被正確跟蹤,跟蹤持續(xù)性沒有過大的偏差。 表3 改進ByteTrack的群養(yǎng)生豬多目標跟蹤結果Tab.3 Pig MOT results of improved ByteTrack algorithm 圖6 改進ByteTrack的部分跟蹤效果Fig.6 Examples of MOT results based on improved ByteTrack 在IDs指標方面,4個視頻的IDs總數只有9,而1502視頻段的IDs為0,表明改進ByteTrack跟蹤模型在密集和遮擋復雜環(huán)境下,能對目標持續(xù)跟蹤,不存在丟失,跟蹤性能穩(wěn)定。同時,測試視頻的MOTA均在90%以上,平均值為96.1%,表明模型算法對檢測目標的準確性和保持軌跡穩(wěn)定性很好,MOTP的平均值為0.189,表明位置誤差較小。綜上所述,改進ByteTrack多目標跟蹤模型無論在識別目標的準確度,還是保持軌跡持續(xù)性和穩(wěn)定性方面,都表現較優(yōu)。 改進ByteTrack的群養(yǎng)生豬多目標跟蹤部分效果如圖6所示。其中,視頻0102在第50、150、250幀都保持穩(wěn)定的跟蹤,其最大ID號為7。視頻1502為夜晚密集情況下,在第50、150、250幀一直保持穩(wěn)定的跟蹤,其最大ID號為16,和表3中視頻1502的真實豬只數量GT相同。視頻0402在150幀時,最大ID號為15,和GT值對應,說明該視頻在白天密集情況下,保持軌跡持續(xù)性和穩(wěn)定性。說明改進BYTE數據關聯對群養(yǎng)生豬多目標跟蹤能取得穩(wěn)定的跟蹤性能。 3.2.2改進ByteTrack與ByteTrack效果對比 對測試視頻跟蹤信息進行軌跡插值后處理,可以有效地處理因遮擋而產生的IDs問題,提高IDF1和MOTA值。 應用軌跡插值算法進行處理前和處理后的相應視頻幀對比如圖7所示,圖7a和圖7b由軌跡插值處理前和處理后視頻0102的第264幀所截取,當ID為4的豬只被ID為1的豬只遮擋時,經過軌跡插值處理后,其跟蹤結果仍然能保留ID為4,沒有發(fā)生ID切換。圖7c和圖7d由視頻0402的117幀截取,可以觀察到插值處理前黃色框ID為11的豬只被ID為15的豬只遮擋后軌跡框丟失,而插值處理后沒有造成丟失。因此,運用軌跡插值算法能有效提高跟蹤性能,避免因遮擋問題造成跟蹤框丟失和ID錯誤切換。 與DeepSORT和JDE多目標跟蹤算法不同,改進ByteTrack算法將所有檢測框都保留下來,并將檢測框分為高分檢測框和低分檢測框。檢測分數較低的目標對象往往由一些因素(例如遮擋、運動模糊、行為姿態(tài)變化等)造成,如果簡單地將低分檢測框去除,容易造成目標對象軌跡丟失或身份切換頻繁等問題。而將低分檢測框與軌跡進行關聯,利用位置重合度就能把遮擋的物體從低分框中挖掘出來,保持軌跡連貫性,因此,保留低分檢測框很有必要。表4為JDE和DeepSORT的多目標跟蹤實驗結果。 表4 JDE和DeepSORT的實驗結果對比Tab.4 Experimental results comparison between JDE and DeepSORT 對比表2、4發(fā)現,JDE、DeepSORT和ByteTrack算法的IDF1平均值為66.5%、67.3%和93.9%。改進ByteTrack模型達到94.5%,顯著優(yōu)于其他3種方法,表明改進模型對于目標能保持長時間的跟蹤能力。在IDs方面,改進ByteTrack算法的IDs總數只有9,而 JDE和DeepSORT模型的IDs總數分別達到了232和251,表明ByteTrack模型無論在豬只稀疏、活動較少的場景下,還是豬只密集、遮擋情況較多、活動頻繁等復雜環(huán)境下,ID切換次數非常少,具有穩(wěn)定的多目標跟蹤性能。在MOTA方面,改進ByteTrack算法(96.1%)顯著高于JDE、DeepSORT算法(84.0%、87.9%),這也說明改進ByteTrack算法在檢測精度和保持軌跡的能力都高于其他模型。總體來說,改進ByteTrack模型的所有性能指標都優(yōu)于其他算法模型,適合用于復雜場景下的群養(yǎng)生豬多目標跟蹤。 改進ByteTrack算法與JDE、DeepSORT算法的跟蹤結果如圖8所示。圖8a中DeepSORT和圖8c中JDE在第55幀中,豬只最大ID號都為14,而改進ByteTrack算法中,豬只最大ID號為7(圖8e);在第230幀時,對應圖8b和圖8d,DeepSORT和JDE算法分別為42和59,這表明DeepSORT和JDE在豬只行動活躍的情形下,ID切換十分頻繁,多目標跟蹤穩(wěn)定性差。在圖8f中,改進ByteTrack算法在第230幀中,其最大ID號一直保持在7,這與豬只總數一致,表明ByteTrack在當前場景下發(fā)生ID切換的次數極少,保持跟蹤穩(wěn)定性。同時,圖8b與圖8d中有一因遮擋而導致漏檢的豬只,在圖8f中一直能夠穩(wěn)定跟蹤,因此,改進ByteTrack算法在目標遮擋的情況下,也能很好地跟蹤該目標。 針對夜晚、豬只個數較多(GT為16)、豬群密集擁擠、個別豬只活動較多(對應測試視頻序號1502)的情況,改進ByteTrack算法與JDE、DeepSORT算法的跟蹤結果如圖9所示。 圖8 ByteTrack與JDE、DeepSORT算法跟蹤結果對比(測試視頻0102)Fig.8 Comparison of ByteTrack, JDE and DeepSORT tracking results (test video 0102) 圖9 ByteTrack與JDE、DeepSORT算法跟蹤結果對比(測試視頻1502)Fig.9 Comparison of ByteTrack, JDE and DeepSORT tracking results (test video 1502) 從圖9a與圖9c可以觀察到,DeepSORT與JDE算法在第20幀時,已經產生ID錯誤切換,最高ID數分別為24和28,與豬只個數(16)不符。圖9e中改進ByteTrack算法在第20幀中,其最大ID數為16,與豬只個數一致。在第258幀中,DeepSORT和JDE跟蹤框(圖9b和圖9d)最大ID分別為121和 100,表明跟蹤期間產生頻繁的ID變換。改進ByteTrack算法(圖9f)跟蹤框最大ID號仍保持在16,這說明改進ByteTrack算法在光線較弱、豬只密集擁擠的復雜環(huán)境下,也有穩(wěn)定的跟蹤性能。原因可能是改進ByteTrack算法將低分檢測框與軌跡進行關聯,并采用軌跡插值后處理,把遮擋的物體從低分框中挖掘出來,保持軌跡連貫性。 綜上所述,改進ByteTrack算法相比于DeepSORT與JDE,在復雜場景下更突顯其出色的跟蹤精度,優(yōu)越的跟蹤性能,發(fā)生IDs的情況明顯少于其他算法,并能夠準確地實現跟蹤群養(yǎng)生豬。 (1)提出了一種改進ByteTrack算法的多目標跟蹤模型,該模型基于YOLOX-X和改進ByteTrack算法構成。針對群養(yǎng)生豬密集遮擋的復雜場景,在BYTE數據關聯基礎上,引入行為類別,增加插值后處理,實現群養(yǎng)生豬穩(wěn)定高效的多目標跟蹤性能。 (2)實驗結果表明,在目標跟蹤方面,改進ByteTrack算法實驗結果的MOTA為96.1%,IDF1為94.5%,IDs為9,MOTP為0.189,對比JDE、DeepSORT和ByteTrack算法,改進ByteTrack算法的所有指標都有較好的提升。不同算法跟蹤效果的對比證明了改進ByteTrack算法性能較優(yōu)。 (3)本文所構建群養(yǎng)生豬行為跟蹤算法可以滿足實際養(yǎng)殖環(huán)境中的需要,能夠為無接觸式自動監(jiān)測生豬提供技術支持,在智慧養(yǎng)殖群養(yǎng)生豬中,具有良好的應用前景。2.3 實驗平臺與評價指標
3 結果與分析
3.1 ByteTrack群養(yǎng)豬多目標跟蹤結果與分析
3.3 改進算法和其他多目標跟蹤算法結果比較
4 結論