劉 冬 何東健 陳 晨 STEIBEL Juan SIEGFORD Janice NORTON Tomas
(1.西北農(nóng)林科技大學(xué)機(jī)械與電子工程學(xué)院, 陜西楊凌 712100; 2.魯汶大學(xué)M3-BIORES實(shí)驗(yàn)室, 海弗萊 B-3001;3.農(nóng)業(yè)農(nóng)村部農(nóng)業(yè)物聯(lián)網(wǎng)重點(diǎn)實(shí)驗(yàn)室, 陜西楊凌 712100; 4.江蘇大學(xué)電氣信息工程學(xué)院, 鎮(zhèn)江 212013;5.密西根州立大學(xué)動(dòng)物科學(xué)系, 東蘭辛 MI 48824)
畜禽行為是畜禽對某種環(huán)境刺激的反應(yīng),或與其所在環(huán)境相互作用而造成的某種生活方式的反應(yīng)[1]。當(dāng)生活環(huán)境發(fā)生變化時(shí),畜禽動(dòng)物通常會通過調(diào)節(jié)行為來緩解外界環(huán)境對心理和生理上的壓力,但動(dòng)物的適應(yīng)能力有限,當(dāng)環(huán)境脅迫超過其適應(yīng)限度,則會表現(xiàn)出異常行為[2]。隨著畜禽養(yǎng)殖業(yè)集約化程度的不斷提高,采用籠養(yǎng)、自動(dòng)供水供料以及漏糞地板等措施,改變了傳統(tǒng)養(yǎng)殖環(huán)境,從而影響畜禽動(dòng)物的正常生活習(xí)慣,常常引起動(dòng)物異常行為,導(dǎo)致其生產(chǎn)性能下降,甚至發(fā)生疾病[3],如雞啄羽行為[4]、豬咬尾行為[5]等。研究畜禽動(dòng)物在各種環(huán)境下的活動(dòng)模式,了解其習(xí)性,探索與之對應(yīng)的神經(jīng)內(nèi)分泌機(jī)理,并指導(dǎo)設(shè)計(jì)、創(chuàng)建適于畜禽習(xí)性的環(huán)境條件,可以提高畜禽動(dòng)物的生產(chǎn)性能[1-2]。
傳統(tǒng)動(dòng)物行為學(xué)研究主要依靠觀察員對多個(gè)動(dòng)物的行為同時(shí)進(jìn)行觀察,并記錄行為類別、行為發(fā)出者、行為接受者,以及行為發(fā)生的順序、時(shí)段、頻率以及起止時(shí)間等,然后對記錄結(jié)果進(jìn)行統(tǒng)計(jì)分析[6]。隨著畜禽養(yǎng)殖集約化程度的不斷提高,人工觀察記錄難以滿足現(xiàn)實(shí)需求,國內(nèi)外學(xué)者試圖利用計(jì)算機(jī)視覺技術(shù)量化評估畜禽動(dòng)物對微環(huán)境的響應(yīng)[3]。BLOEMEN等[7]提出的活動(dòng)指數(shù)被廣泛用于評估畜禽動(dòng)物群體的脅迫響應(yīng),并在肉雞和育肥豬對環(huán)境溫度的變化響應(yīng)以及水蚤對水質(zhì)的響應(yīng)研究中驗(yàn)證了方法的有效性。LIND等[8]使用該方法研究了豬對藥物刺激引起的活動(dòng)水平變化。COSTA等[9-10]研究了群養(yǎng)豬對溫度、濕度、空氣流速、通風(fēng)率變化的響應(yīng)行為。CHUNG等[11]研究了豬群的晝夜節(jié)律行為模式。KRISTENSEN等[12]分析了家禽對不同環(huán)境溫度的響應(yīng)。KASHIHA等[13]研究商業(yè)化養(yǎng)雞場中的雞群分布,當(dāng)雞群異常聚集或逃離時(shí),系統(tǒng)向農(nóng)場主發(fā)出警報(bào)。
活動(dòng)指數(shù)的計(jì)算需要人工獲取純背景圖像或采用閾值分割出動(dòng)物目標(biāo),然后通過幀差法計(jì)算相鄰兩幀的“運(yùn)動(dòng)區(qū)域”。然而,畜禽養(yǎng)殖環(huán)境通常伴隨背景環(huán)境的突變或漸變,如一天內(nèi)太陽光強(qiáng)度和角度漸變、照明設(shè)備開關(guān)等干擾[14]。用深度傳感器獲取距離信息,避免光照變化對背景相減法的影響,為長時(shí)間監(jiān)測提供了可行的解決方案。LEE等[15]和CHEN等[16]在深度圖像中采用背景相減法計(jì)算活動(dòng)指數(shù),并對豬攻擊行為進(jìn)行識別,識別準(zhǔn)確率顯著提升。基于距離信息的背景相減法仍然要求維持棚舍設(shè)施恒定,且重新部署系統(tǒng)時(shí)需要人工獲取純背景圖像。因此,采用背景相減法計(jì)算畜禽動(dòng)物活動(dòng)指數(shù)無法適應(yīng)復(fù)雜動(dòng)態(tài)場景,導(dǎo)致很多研究成果難以在實(shí)際養(yǎng)殖場推廣。
利用高斯混合模型(Gaussian mixture model, GMM)[17-19]可以建立動(dòng)態(tài)背景模型,任意像素在時(shí)間域上的分布由若干個(gè)高斯函數(shù)表示,將后一幀的新像素與高斯分布模型進(jìn)行比較,判斷是否服從該分布,進(jìn)而判斷是否屬于背景像素。GMM動(dòng)態(tài)建模思想符合畜禽養(yǎng)殖環(huán)境需求,已經(jīng)被廣泛用于檢測豬[20]和奶牛[21-24]等畜禽動(dòng)物的空間位置。然而,GMM的設(shè)計(jì)初衷是檢測移動(dòng)目標(biāo),其算法機(jī)制決定了模型會最大限度維持運(yùn)動(dòng)像素,按照活動(dòng)指數(shù)定義,模型可使靜止像素快速消融。因此,GMM容易造成累積誤差,無法直接替代基于背景相減法的活動(dòng)指數(shù)模型。
本文提出基于自適應(yīng)學(xué)習(xí)率高斯混合模型(Adaptive learning rate GMM, ALR-GMM)的畜禽動(dòng)物行為識別模型,在保持模型對背景描述能力的前提下判定運(yùn)動(dòng)像素,同時(shí)自適應(yīng)調(diào)節(jié)運(yùn)動(dòng)區(qū)域圖像的學(xué)習(xí)率,加速“運(yùn)動(dòng)區(qū)域”的消融速度,為計(jì)算動(dòng)態(tài)背景環(huán)境下的活動(dòng)指數(shù)提供一種新的方法,并通過試驗(yàn)驗(yàn)證該方法對識別育肥豬攻擊行為的有效性。
經(jīng)典活動(dòng)指數(shù)模型通過圖像處理算法獲取視頻序列中由動(dòng)物運(yùn)動(dòng)造成的像素變化,來衡量評估動(dòng)物對微環(huán)境的適應(yīng)性[7]。圖1為經(jīng)典活動(dòng)指數(shù)計(jì)算過程示意圖。首先,采用背景相減法或閾值分割算法逐幀分割動(dòng)物像素,圖1b為分割后示意圖,其中淺灰色區(qū)域表示動(dòng)物目標(biāo);然后,通過幀差法計(jì)算相鄰圖像中動(dòng)物像素的相對變化,并提取出運(yùn)動(dòng)像素?;顒?dòng)指數(shù)定義為運(yùn)動(dòng)像素在圖像中的百分比
(1)
式中A——活動(dòng)指數(shù),%
Nm——運(yùn)動(dòng)像素?cái)?shù)
Nt——總像素?cái)?shù)
當(dāng)飼養(yǎng)籠舍結(jié)構(gòu)合理、溫度適宜、空間充足、飼料充足且無外界刺激時(shí),畜禽動(dòng)物通常表現(xiàn)為有規(guī)律性的活動(dòng)且活動(dòng)強(qiáng)度較溫和,活動(dòng)指數(shù)在經(jīng)驗(yàn)范圍內(nèi)有規(guī)律的波動(dòng)。但當(dāng)動(dòng)物遭受環(huán)境或疾病等脅迫時(shí),可能表現(xiàn)為群體騷動(dòng)或長時(shí)間躺臥,活動(dòng)指數(shù)會急劇升高或異常平穩(wěn)。然而,飼養(yǎng)員察看、投料及其他未知因素均可能造成動(dòng)物群體性躁亂,導(dǎo)致活動(dòng)指數(shù)短時(shí)間內(nèi)急劇升高??梢?,基于短期觀測結(jié)果的判斷容易造成系統(tǒng)誤警報(bào),采用活動(dòng)指數(shù)評估動(dòng)物對其微環(huán)境的適應(yīng)性必須建立在對長期觀測結(jié)果的統(tǒng)計(jì)性分析上。經(jīng)典活動(dòng)指數(shù)計(jì)算方法依賴純背景圖像,應(yīng)用時(shí)需要營造穩(wěn)定的光照條件,無法滿足實(shí)際需求。
高斯混合模型對每個(gè)像素點(diǎn)建立3~5個(gè)高斯分布模型,并能對當(dāng)前幀的觀測結(jié)果實(shí)時(shí)更新模型參數(shù),建立動(dòng)態(tài)背景模型,滿足長時(shí)間觀測的實(shí)際需求。在基于GMM算法的移動(dòng)目標(biāo)提取應(yīng)用中,要求模型能維持運(yùn)動(dòng)像素,并消除參數(shù)迭代更新造成的前景消融問題[22]。然而,在實(shí)時(shí)更新的背景模型中獲取運(yùn)動(dòng)像素?cái)?shù)時(shí),不僅要求模型能敏感地檢測到相鄰幀間的差異區(qū)域,而且在該區(qū)域接下來的視頻序列呈靜止?fàn)顟B(tài)時(shí),模型要能加速更新該區(qū)域模型參數(shù),使其融入背景。
GMM算法的背景遞歸方程為
(2)
其中
(3)
x(t)——第t幀圖像
α——學(xué)習(xí)率,決定參數(shù)更新速度
β——雙曲正切函數(shù)伸縮系數(shù)
學(xué)習(xí)率α為預(yù)設(shè)固定值且對任何像素均一致,若無法自適應(yīng)差異區(qū)域的模型參數(shù)迭代速度,則會導(dǎo)致已經(jīng)停止運(yùn)動(dòng)的動(dòng)物仍然被判為前景。為解決上述問題,本研究的基本思想是:對圖像背景區(qū)域采用預(yù)設(shè)學(xué)習(xí)率以保證GMM算法的自適應(yīng)背景更新能力,而對差異區(qū)域采用高學(xué)習(xí)率,加快該區(qū)域迭代速度,使差異區(qū)域能盡快融入背景。為此,采用雙曲正切函數(shù)(tanh)自適應(yīng)調(diào)整模型學(xué)習(xí)率α。改進(jìn)后算法流程如圖2所示,如果當(dāng)前像素I(x,y)的檢測結(jié)果為“背景”,則學(xué)習(xí)率保持預(yù)設(shè)值,按式(2)更新背景模型;如果當(dāng)前像素I(x,y)的檢測結(jié)果為“前景”,則學(xué)習(xí)率按式(3)更新背景模型。
采用tanh函數(shù)是因?yàn)樵讦炼x域[0,1]內(nèi),函數(shù)單調(diào)遞增且值域[0,1)仍在α的限制范圍內(nèi),學(xué)習(xí)率經(jīng)迭代不會超過其定義域(圖3)。此外,伸縮系數(shù)β還可以調(diào)節(jié)函數(shù)變化速率,決定了每次迭代對學(xué)習(xí)率α的縮放幅度。圖4為β取不同值時(shí),預(yù)設(shè)學(xué)習(xí)率α隨迭代次數(shù)的變化趨勢??梢姡绻麤]有引入伸縮系數(shù)(相當(dāng)于β=1,圖4中藍(lán)線所示),tanh函數(shù)無法對學(xué)習(xí)率進(jìn)行有效調(diào)整,隨著β的增大,α的變化速率越大。
試驗(yàn)數(shù)據(jù)采集自美國密西根州立大學(xué)養(yǎng)豬教學(xué)與研究中心,采用Intel RealSense D435型深度攝像機(jī)采集群養(yǎng)豬活動(dòng)視頻,攝像機(jī)架設(shè)于豬棚正上方獲取頂視圖像,距地面2.4 m以確保攝像機(jī)視野覆蓋整個(gè)豬棚,采用Intel RealSense SDK編寫Python數(shù)據(jù)采集軟件,采集幀率為30 f/s,圖像分辨率為1 280像素×720像素,視頻存儲格式為MJ2。視頻采集軟件運(yùn)行環(huán)境為Intel Core i5-3570,CPU@3.4 GHz,8 GB內(nèi)存。隨機(jī)選取50幀連續(xù)深度圖像,由人工逐一標(biāo)注。標(biāo)注過程為:采用背景相減法粗略分割前景和背景像素(圖5);圖像二值化;采用Photoshop軟件人工去除圖像孔洞。
為驗(yàn)證本文算法的有效性,逐幀計(jì)算人工標(biāo)注圖像的活動(dòng)指數(shù),作為標(biāo)準(zhǔn)結(jié)果;采用背景相減法作為對照算法,獲取目標(biāo)像素,并按定義計(jì)算活動(dòng)指數(shù)。采用GMM算法獲取運(yùn)動(dòng)像素,探明不同預(yù)設(shè)學(xué)習(xí)率對計(jì)算結(jié)果精度的影響。用本文算法獲取運(yùn)動(dòng)像素,并計(jì)算活動(dòng)指數(shù),評估算法性能。算法實(shí)現(xiàn)環(huán)境為Intel i7-7700HQ CPU @2.80 GHz, 16 GB RAM, NIVIDIA GTX 1050Ti GPU,GMM算法采用OpenCV-Python 4.1.0計(jì)算機(jī)視覺庫實(shí)現(xiàn),ALR-GMM算法在Python 3.6.2環(huán)境下編程。
為測試活動(dòng)指數(shù)的精度,采用平均絕對誤差和平均相對誤差進(jìn)行評價(jià),采用單幀處理時(shí)間衡量實(shí)時(shí)性。
(4)
(5)
式中f——圖像幀序號N——總幀數(shù)
Sf——第f幀活動(dòng)指數(shù)的標(biāo)準(zhǔn)結(jié)果,%
Eα——平均絕對誤差
Rα——平均相對誤差
2.2.1標(biāo)準(zhǔn)結(jié)果和背景相減法
相鄰兩幀原始圖像如圖6a和圖6b所示,標(biāo)準(zhǔn)結(jié)果如圖6c所示。由圖6可知共有4頭豬(3、5、7、8號)發(fā)生了位移。圖6d為背景相減法提取出的運(yùn)動(dòng)像素。圖7為50幀連續(xù)圖像的標(biāo)準(zhǔn)結(jié)果和背景相減法的計(jì)算結(jié)果,平均絕對誤差為0.025 6,平均相對誤差為15.08%。
2.2.2學(xué)習(xí)率對計(jì)算精度的影響
不同預(yù)設(shè)學(xué)習(xí)率下用GMM算法提取運(yùn)動(dòng)像素的結(jié)果如圖8所示。圖9為50幀連續(xù)圖像的活動(dòng)指數(shù)計(jì)算結(jié)果,表1為不同學(xué)習(xí)率下的平均絕對誤差和平均相對誤差。
由圖8、9可知,當(dāng)學(xué)習(xí)率α≤0.1時(shí),計(jì)算誤差主要是檢測誤差。前一幀圖像檢測結(jié)果無法實(shí)時(shí)融入背景模型,而是疊加到當(dāng)前幀檢測結(jié)果,導(dǎo)致運(yùn)動(dòng)像素?cái)?shù)不斷累積,與學(xué)習(xí)率呈負(fù)相關(guān)性(圖8f);當(dāng)學(xué)習(xí)率α≥0.5時(shí),誤差主要源自噪聲。GMM算法能迅速清除前景像素?cái)?shù),檢測結(jié)果趨近標(biāo)準(zhǔn)結(jié)果,但隨著學(xué)習(xí)率增加,模型對任何細(xì)微變化都更加敏感,檢測精度受噪聲影響越來越嚴(yán)重(圖8a)。當(dāng)α≈0.2時(shí),檢測結(jié)果趨近標(biāo)準(zhǔn)結(jié)果,且隨學(xué)習(xí)率繼續(xù)增加,能更精確地檢測到運(yùn)動(dòng)像素,同時(shí)噪聲也明顯增加。
綜上可以得出:①低學(xué)習(xí)率能提高模型的整體抗噪能力,且對背景環(huán)境的微弱變化不敏感,但運(yùn)動(dòng)像素會持續(xù)累加到后續(xù)檢測結(jié)果,造成嚴(yán)重的累積誤差(圖9中紫色曲線累加式上升)。②高學(xué)習(xí)率能提高模型對運(yùn)動(dòng)像素的檢測精度,將已經(jīng)靜止的圖像區(qū)域迅速融入背景,但對背景環(huán)境的微弱變化敏感,造成噪聲誤差(圖9中綠色曲線整體高于標(biāo)準(zhǔn)結(jié)果)。③將學(xué)習(xí)率初始化為較低值,對已經(jīng)檢測到的運(yùn)動(dòng)像素采用高學(xué)習(xí)率可解決上述矛盾。
表1 算法性能比較Tab.1 Algorithm performance comparison
2.2.3本文算法測試結(jié)果
本文算法在不同預(yù)設(shè)學(xué)習(xí)率下的計(jì)算結(jié)果如圖10所示。表1為GMM算法和本文算法在不同初始學(xué)習(xí)率下的平均絕對誤差和平均相對誤差。當(dāng)預(yù)設(shè)學(xué)習(xí)率較小時(shí)(α≤0.2),本文算法能大幅提升檢測精度;當(dāng)預(yù)設(shè)學(xué)習(xí)率較大時(shí)(α≥0.5),對模型的改善效果有限。表明本文算法能有效抑制運(yùn)動(dòng)像素的累積誤差,但無法抑制噪聲誤差。應(yīng)用該算法時(shí),需要優(yōu)先預(yù)設(shè)較低學(xué)習(xí)率,在保留動(dòng)態(tài)建模優(yōu)勢的同時(shí)能抑制隨機(jī)噪聲。此外,可以通過圖像形態(tài)學(xué)或連通域分析等傳統(tǒng)圖像處理算法進(jìn)一步降低噪聲誤差。
分析表1可知,當(dāng)α=0.2時(shí)本文算法達(dá)到最優(yōu)檢測結(jié)果。本文算法相較于背景相減法,平均絕對誤差從0.025 6降到0.023 3,平均相對誤差從15.08%降到14.34%。本文算法相較于GMM算法,平均絕對誤差降低了0.007 3,平均相對誤差降低了3.74個(gè)百分點(diǎn)。本文算法處理1幀圖像的時(shí)間為25 ms,比GMM算法多2 ms。結(jié)果表明,本文算法無需人工提取純背景圖像,實(shí)現(xiàn)了端到端獲取活動(dòng)指數(shù)。
采用球型IP攝像機(jī)(CTP-TLVA29AV型, Cantek Plus公司, 美國)獲取RGB彩色數(shù)據(jù)流,圖像分辨率為1 180像素×830像素,幀率為30 f/s。試驗(yàn)數(shù)據(jù)集視頻時(shí)長共計(jì)8 h,動(dòng)物行為學(xué)專家按照育肥豬行為譜對數(shù)據(jù)進(jìn)行標(biāo)注,包括行為類別、起止時(shí)間和持續(xù)時(shí)間。
由于豬攻擊行為的復(fù)雜性,行為持續(xù)時(shí)間從幾秒到幾分鐘不等。統(tǒng)計(jì)發(fā)現(xiàn),本數(shù)據(jù)集的最小持續(xù)時(shí)間為3 s。因此,將原始視頻分割為若干3 s視頻段,記為一個(gè)行為單元,共9 600個(gè)單元,包含1 200個(gè)攻擊行為單元和8 400個(gè)非攻擊行為單元,供試數(shù)據(jù)示例如圖11所示。為平衡試驗(yàn)數(shù)據(jù),將1 200個(gè)攻擊行為單元進(jìn)行數(shù)據(jù)擴(kuò)增(圖像旋轉(zhuǎn)90°、180°、270°),選取了4 800個(gè)非攻擊行為單元,包括進(jìn)食(480個(gè))、攀爬(480個(gè))、躺臥(960個(gè))、追逐(480個(gè))、快跑(960個(gè))、飲水(480個(gè))及慢跑(960個(gè))。
相較于其他行為,攻擊行為表現(xiàn)為兩頭豬相對位置和形狀快速變化,導(dǎo)致運(yùn)動(dòng)像素的激增,如圖12所示。計(jì)算出每個(gè)行為單元的活動(dòng)指數(shù),并將其最大值、平均值、方差和標(biāo)準(zhǔn)差作為行為特征向量。
本研究采用線性核函數(shù)支持向量機(jī)(SVM)建立分類器,對數(shù)據(jù)標(biāo)準(zhǔn)化處理,限定范圍為[0,1];采用五折交叉驗(yàn)證法測試模型性能,每次驗(yàn)證包括訓(xùn)練集7 680個(gè)行為單元(攻擊行為單元和非攻擊行為單元均為3 840)、測試集1 920個(gè)行為單元(攻擊行為單元和非攻擊行為單元均為960)。統(tǒng)計(jì)測試集的真陽性(True positive, TP)、真陰性(True negative, TN)、假陽性(False positive, FP)和假陰性(False negative, FN),并計(jì)算正確率(Accuracy)、靈敏度(Sensitive)、特效度(Specificity)和精度(Precision),對模型進(jìn)行評估。
表2為用SVM對測試集進(jìn)行分類的結(jié)果,正確率、靈敏度、特效度和精度分別為97.6%、97.9%、97.7%和97.8%。觀察錯(cuò)誤分類樣本發(fā)現(xiàn),造成假陽性的主因是快跑行為,尤其是多頭豬受到外界刺激產(chǎn)生群體性應(yīng)激響應(yīng),導(dǎo)致運(yùn)動(dòng)像素?cái)?shù)量增加造成活動(dòng)指數(shù)激增。假陰性樣本主要是當(dāng)攻擊行為發(fā)生在棚舍角落,沒有足夠的活動(dòng)空間,攻擊行為不能造成運(yùn)動(dòng)像素的激增。
表2 SVM分類結(jié)果和模型評價(jià)參數(shù)Tab.2 SVM classification results and model evaluation metrics
OCAZK等[25]最早采用活動(dòng)指數(shù)特征識別豬只攻擊行為,采用背景相減法計(jì)算該特征,并對小規(guī)模RGB視頻的測試準(zhǔn)確率超過99%。育肥豬的飼養(yǎng)期需要6個(gè)月左右,攻擊行為可能發(fā)生在飼養(yǎng)期的任何時(shí)候,提高算法魯棒性是使研究成果走向產(chǎn)業(yè)應(yīng)用的關(guān)鍵。深度圖像對環(huán)境光照變化不敏感,可以提升算法的環(huán)境魯棒性。為此,LEE等[15]和CHEN等[16]分別采用Kinect和RealSense深度傳感器獲取原始數(shù)據(jù),并采用背景相減法計(jì)算活動(dòng)指數(shù),分類正確率分別為95.2%和97.5%。由此可見,活動(dòng)指數(shù)作為識別群養(yǎng)豬攻擊行為已經(jīng)得到充分的驗(yàn)證,已有研究的正確率均達(dá)到實(shí)用化標(biāo)準(zhǔn)。
本研究采用ALR-GMM算法的正確率為97.6%,達(dá)到實(shí)用化標(biāo)準(zhǔn),證明ALR-GMM算法可完全替代背景相減法計(jì)算活動(dòng)指數(shù)特征。ALR-GMM算法能夠自適應(yīng)學(xué)習(xí)當(dāng)前背景環(huán)境,能夠克服RGB圖像對環(huán)境的敏感性。深度圖像雖然能在一定程度上克服環(huán)境光,但在強(qiáng)光環(huán)境中圖像噪聲大[16],且要求背景設(shè)置固定,當(dāng)監(jiān)測系統(tǒng)部署在不同豬舍時(shí),仍然需要人工設(shè)置純背景,而本文算法的自適應(yīng)性克服了這一缺點(diǎn)。因此,本研究為推進(jìn)豬攻擊行為識別實(shí)用化提供了一個(gè)可靠的技術(shù)方案。
提出了ALR-GMM算法,實(shí)現(xiàn)了動(dòng)態(tài)背景下活動(dòng)指數(shù)的計(jì)算,解決了基于背景相減法的活動(dòng)指數(shù)模型環(huán)境適應(yīng)性差的問題。用人工標(biāo)記圖像測試結(jié)果表明,當(dāng)學(xué)習(xí)率為0.2時(shí),ALR-GMM算法略優(yōu)于背景相減法,平均絕對誤差由0.025 6降到0.023 3,平均相對誤差由15.08%降到14.34%。在養(yǎng)豬場實(shí)際環(huán)境中,進(jìn)行了基于ALR-GMM算法的育肥豬攻擊行為識別試驗(yàn),以視頻單元中活動(dòng)指數(shù)的最大值、平均值、方差和標(biāo)準(zhǔn)差作為行為特征,采用SVM建立分類器,分類正確率、靈敏度、特效度和精度分別為97.6%、97.9%、97.7%和97.8%,說明本文算法可解決動(dòng)態(tài)背景環(huán)境下活動(dòng)指數(shù)難以計(jì)算的問題,能夠滿足實(shí)際應(yīng)用需求。