摘要:豬只行為監(jiān)測是實現豬只智能化、精細化養(yǎng)殖的關鍵技術。采用姿態(tài)傳感器,設計兩種可穿戴設備,分別部署在試驗豬的背部和頸部,采集俯臥、側臥、采食、站立、行走、犬坐和排泄7種日常行為數據。采集的行為數據集有3種,分為單源部署(背部或頸部)和組合部署(背部+頸部)。采集的信號進行小波降噪、數據信號的選取、數據分割、時域特征提取、Relief算法特征選擇等數據處理,其中Relief算法特征選擇結合BP神經網絡和隨機森林算法確定特征保留數,以處理好的數據進行輸入,建立BP神經網絡、隨機森林、卷積神經網絡和極限學習機4種分類模型,比較各模型性能。結果表明,組合部署的總體準確率明顯高于單源部署。BP神經網絡、隨機森林、卷積神經網絡和極限學習機在組合部署的分類準確率分別為90.59%、87.14%、91.67%和82.5%。綜合各種評價指標,組合部署的分類模型以CNN卷積神經網絡最佳。兩個姿態(tài)傳感器組合部署及融合信息可以很好地對豬只行為進行分類,研究結果對豬只日常行為監(jiān)測和健康評估有重要意義。
關鍵詞:豬只行為;部署位置;可穿戴設備;姿態(tài)傳感器;Relief算法;卷積神經網絡
中圖分類號:TP391.41; S828" " " 文獻標識碼:A" " " 文章編號:2095?5553 (2025) 04?0042?08
Research on pig behavior recognition based on the combination of wearable sensors
He Jincheng Yang Wanlin Liu Tao Zhuang Junwei
(1. College of Mechanical and Electrical Engineering, Fujian Agriculture and Forestry University, Fuzhou, 350002, China;
2. Engineering Research Center of Modern Agricultural Equipment, Fujian University, Fuzhou, 350002, China)
Abstract: Pig behavior monitoring is a key technology to realize intelligent and refined pig breeding. In this study, two wearable devices were designed by using posture sensors, which were deployed on the backs and necks of experimental pigs to collect data on seven daily behaviors, including lying prostrate, side lying, feeding, standing, walking, dog sitting and excretion. There are 3 types of behavioral datasets collected, which are divided into single?source deployment (back or neck) and combined deployment (back+neck). The collected signals were processed by wavelet domain denoising, data signal selection, data segmentation, time?domain feature extraction, and feature selection of Relief algorithm, in which the feature selection of Relief algorithm combined with BP neural network and random forest algorithm to determine the feature retention number k, and then the processed data were sent to four classification models of BP neural network, random forest, convolutional neural network and extreme learning machine for analysis. The overall accuracy of the combined deployment (back+neck) was significantly higher than that of single?source deployment (back or neck). The classification accuracy of behavior by using BPNN, RF, CNN, and ELM in the combined deployment was 90.59%, 87.14%, 91.67%, and 82.5%. In this study, the characteristics of the duration of each behavior in pigs were analyzed, and the classification effect of different behaviors required different evaluation indexes for analysis. Combining various evaluation indicators, the classification model deployed by combination is the best CNN convolutional neural network. The combined deployment and fusion of the two attitude sensors can classify pig behavior, and the results of this study are of great significance for the daily behavior monitoring and health assessment of pigs.
Keywords: pig behavior; deployment location; wearable devices; posture sensors; Relief algorithm; CNN
0 引言
豬只的日?;顒优c其健康狀況密不可分,豬只行為可以有效反映其身體狀態(tài),是評估其生長福利條件的直觀體現[1]。豬只行為監(jiān)測是實現豬只智能化、精細化養(yǎng)殖的關鍵技術,通過適時了解豬只行為,優(yōu)化養(yǎng)殖管理方式[2]。
目前對畜禽行為識別的研究主要以接觸式傳感器[3]和機器視覺[4]兩種技術為主,也有研究結合聲音信號[5]進行分析。接觸式傳感器常見的部署位置有頸部[6, 7]、背部[8]、腿部[9]、耳朵[10]等,國內對畜禽行為研究一般是以單個傳感器部署位置為主,也有國外研究學者使用兩個傳感器組合部署來提高牛的行為準確率[11]。閆麗等[6]將傳感器固定頸部,使用支持向量機對豬只的立臥、傾臥、側臥和立姿進行分類。李欣等[5]將加速度傳感器與聲音采集器相結合,采集了運動信息和聲音信息,提取兩者的特征數據,使用支持向量機算法對生豬的采食、飲水和咳嗽等行為進行分類。王凱等[7]將傳感器固定頸部,使用MFO—LSTM算法對母豬發(fā)情行為(立姿、臥姿和爬跨)進行研究。Sun等[12]對母豬夜間活動(站立、趴臥、側臥和低頭)進行分析。潘芷欣等[10]將傳感器綁在耳根后,采用隨機森林識別體動、飲水、采食、哺乳、熟睡和靜臥,這種固定方式不可靠,實際豬只在甩頭后傳感器容易脫落。曹麗桃等[8]將傳感器部署在背部,使用支持向量機對羊的靜止、行走和采食進行分類。王俊等[9]將傳感器用尼龍綁帶固定在腿部,使用最優(yōu)二叉決策樹對奶牛的站立、平躺、慢走、快走、站立和躺臥進行研究。機器視覺用于畜禽行為識別在近幾年興起,Nasirahmadi等[13]通過獲取RGB攝像機的圖片,將豬從背景分離出來,計算豬在圖片中的周長和面積,使用支持向量機對豬的俯臥和側臥進行分類。機器視覺雖然與豬只無接觸,但是豬只的清潔度、復雜的環(huán)境、豬只粘連、光線變化和攝像頭安裝角度都會影響算法檢測行為的準確性。接觸式傳感器一般為加速度傳感器或姿態(tài)傳感器,其具備抗干擾能力強、連續(xù)記錄數據和信息數據傳輸穩(wěn)定等優(yōu)點,與機器視覺技術相比,不受環(huán)境背景、光線等影響。
目前對豬只行為的研究,幾乎是對站立、俯臥、側臥、采食等容易區(qū)分的行為進行研究。立姿包括采食、站立、行走和排泄等,這些行為往往靠一個傳感器不容易分類,采食和排泄的準確分類對于豬只健康又十分重要。因此,為更全面地研究豬只日常行為,本文提出對姿態(tài)傳感器進行組合部署,研究豬只的俯臥、側臥、采食、站立、行走、犬坐和排泄7種日常行為。
1 試驗方法與數據采集
1.1 試驗環(huán)境及條件
2023年10月在養(yǎng)殖專家的建議和指導下于福建農林大學試驗園搭建一處豬舍,豬舍主體為3 m×3 m×3 m的集裝箱,豬舍內部的豬欄規(guī)格為2.6 m×1.6 m。豬舍內部的裝置有食槽、小型立式空調、排氣扇、攝像監(jiān)控、碗式飲水器、溫濕度傳感器等。試驗對象為兩只體重約50 kg的育肥豬,豬只品種為三元豬。通過空調將豬舍環(huán)境溫度控制到20 ℃左右;每日定時開啟排氣扇進行通風,排除舍內有害氣體和異味。豬舍內部環(huán)境如圖1所示。
1.2 數據采集系統(tǒng)的搭建
豬只行為數據采集系統(tǒng)主要包括可穿戴數據采集裝置和監(jiān)視攝像頭??纱┐鲾祿杉b置為維特智能藍牙姿態(tài)傳感器,型號為BWT901 BLECL5.0,集成高精度的3軸加速度計、3軸陀螺儀和3軸地磁場傳感器,測量范圍分別是±16 g、±2 000 °/s、±2 Gauss。電源模塊為3.7 V鋰電池,容量大小為260 mA,續(xù)航時長為10 h。姿態(tài)傳感器尺寸(長×寬×高)為36 mm×36 mm×15 mm。姿態(tài)傳感器的俯仰角(θ)、橫滾角(φ)、航向角(ψ)的詳細參數見表1。豬舍頂部中間安裝型號為CW400的小米高清攝像頭,攝像頭像素為400萬,分辨率為2 560像素×1 440像素,存儲方式為Micro SD卡存儲,可以全天候對豬只活動進行監(jiān)視,為后期人工標記豬只行為分類標簽提供有效的依據。
為獲取豬只背部和頸部上的行為數據,設計兩種佩戴方式:(1)部署在背部的姿態(tài)傳感器通過背帶固定在試驗豬的背部前方。許多研究使用松緊將傳感器固定在背部,通過研究試驗,該佩戴方式容易受到試驗豬的蹭墻、蹭欄桿等行為的影響而導致傳感器偏轉不易復原。背帶的佩戴方式在上述行為的影響下也可以進行輕微的調整和復原。(2)部署在頸部的姿態(tài)傳感器通過綁帶綁在頸部下方,為保證采集數據準確性和試驗豬的舒適度,根據試驗豬的頸部大小調節(jié)綁帶的松緊程度。部署在背部和頸部的姿態(tài)傳感器的坐標系如圖2所示,其中部署在背部的姿態(tài)傳感器的X軸、Y軸、Z軸分別指向試驗豬的右側、前方和上方,部署在頸部的姿態(tài)傳感器的X軸、Y軸、Z軸分別指向試驗豬的左側、前方和下方。
1.3 試驗數據采集
試驗于2023年11月5—17日進行,試驗期間,兩只試驗豬可以在豬欄內自由活動,每日喂食3次,分別在07:30—08:00,12:00—12:30和17:30—18:00喂食濕拌料。試驗前兩日,將可穿戴式裝置佩戴在兩只試驗豬身上使其適應,期間不采集數據。采集數據前,兩個姿態(tài)傳感器均設置相同的參數和初始校準。姿態(tài)傳感器的采集頻率為20 Hz,帶寬頻率為42 Hz,波特率為115 200 bps。初始校準分為加計校準和磁場校準:姿態(tài)傳感器放置水平面進行加計校準,采用東北坐標系通過橢圓擬合法進行磁場校準。加計校準后,X軸、Y軸角度就更加精確;磁場校準后,Z軸角度會更加精確。兩個傳感器分別部署在豬的背部和頸部,上位機可以同時連接兩個姿態(tài)傳感器,每次采樣后通過藍牙模塊向上位機軟件發(fā)送數據,上位機軟件接收數據之后實時保存,兩個數據集分別保存在不同的文件夾。豬只行為數據采集試驗場景如圖3所示。
通過試驗觀察發(fā)現,豬只日?;顒拥男袨橹饕幸韵?種行為:俯臥、側臥、采食、站立、行走、犬坐和排泄,這些行為所占時間比例涵蓋豬只所有行為時間的95%以上。豬只日?;顒哟蟛糠謺r間主要以俯臥、側臥這兩類休息行為為主。豬只7種典型行為的定義與描述如表2所示。
試驗結束后,將背部和頸部所獲取的數據和視頻的時間相匹配,對照視頻里豬只活動狀態(tài),在相應的行為數據中標記分類標簽。試驗一共采集4.2 G的姿態(tài)傳感器原始數據和25 G的視頻錄像。傳感器原始數據包含20種元素,分別為時間、三軸加速度、三軸角加速度、三軸角度、三軸磁場、溫度和四元數等。
為保證各種行為數據集的豐富性、多樣性和真實性,在同一只豬上采集不同的行為數據,每種行為數據在背部和頸部的數據集中選取10~20個時間段,每個時間段20~30 s的數據集。部署在背部的傳感器數據集記為WTA;部署在頸部的數據集記為WTB。每種行為在WTA和WTB上的數據和時間對應。經過后期數據處理,每種行為有400個樣本,總計2 800個樣本。
2 數據處理
2.1 數據降噪
姿態(tài)傳感器在采集豬只的行為數據集時,由于受到周圍環(huán)境或者豬只突然的抖動行為等影響,這些干擾因素會使加速度、角速度和角度等信號產生一定的噪聲,對真實行為數據的精度造成影響,從而干擾對豬只行為的分析和識別。因此,選擇軟件MATLAB R2022a中的小波降噪算法[14]對噪聲信號進行過濾,小波基函數為sym4,分解層為4層,閾值處理方法選擇“sqtwolog”。
2.2 數據信號選取
加速度數據反映豬只的運動狀態(tài)和姿態(tài)變化,角速度數據反映轉身、點頭等細微變化,角度數據反映豬只的姿態(tài)信息。試驗豬在豬欄可以自由活動,同一種行為在Z軸上可以表現為任意角度,Z軸的同一角度也可能對應不同的行為,即Z軸的角度ψ只能表示豬只的身體朝向,對行為分類沒有幫助。為減少數據的冗余和提高分析的準確性,去除在兩個部署位置上姿態(tài)傳感器獲取的原始數據中Z軸角度數據。引入合加速度A,綜合反映豬只行為運動變化情況,計算如式(1)所示。
2.3 數據分割
姿態(tài)傳感器某個時刻的數據只能反映豬只的姿態(tài)信息,只有持續(xù)一段時間的數據才能很好地表現豬只的行為活動,故需要對傳感器數據進行數據分割。
滑窗處理是信號處理最常用的數據分割方法[15],主要用于對時間序列數據進行分段處理和分析?;谝苿哟翱诘母拍?,通過在時間序列數據上滑動固定大小的窗口,將數據分割成連續(xù)的子序列進行處理。窗口大小和滑動步長是滑窗處理的兩個重要參數,窗口大小決定每個子序列的長度,而滑動步長決定窗口之間的重疊程度。窗口大小主要通過豬只的運動頻率來確定,也就是窗口大小基本能涵蓋豬只各種行為的完整數據。通過觀察豬只各行為的持續(xù)周期,7種豬只行為均在2 s內至少完成一個周期,在2 s的窗口內提取特征能很好地保留行為的有效信息,所以確定窗口時間為2 s,滑動間隔為1 s。姿態(tài)傳感器的采樣頻率為20 Hz,故窗口大小設為40,滑動步長設為20,能夠較好地保留原始信號曲線的特征,即傳感器每1 s的信號數據作為1個樣本。
2.4 特征提取
2.5 特征選擇
由于初步提取的特征集其維度較高,包含許多冗余的特征。這些特征對于模型訓練和泛化能力沒有明顯幫助,反而會影響模型性能。高維特征集不僅會增加計算和存儲成本,還可能導致維度災難和過擬合問題。通過特征選擇,減少數據集的維度,提高模型的訓練效率、魯棒性和泛化能力。通過特征選擇出的重要特征可以更好地理解模型預測結果,并得到合理的解釋。本文選擇Relief算法作為特征選擇方法。Relief特征選擇算法是一種經典的特征選擇算法[16],用于從高維數據中選擇對于目標變量預測有顯著區(qū)分度的特征。
為確定保留特征數k在3個特征數據集(F1、F2和F3)的取值,將Relief特征選擇算法結合BP神經網絡和RF隨機森林對3個特征集進行分析。
Relief算法在3種數據集不同k下的測試集準確率如圖4所示。由圖4(a)可知,對于背部特征數據集F1,BP神經網絡在k=40時,準確率最高為84.62%,之后趨于穩(wěn)定;RF隨機森林在k=50時,準確率最高為86.16%,隨后下降,但是與k=40的準確率86%比較接近。綜合考慮下,對背部特征數據集F1的k取值為40。由圖4(b)可知,對于頸部特征數據集F2,BP神經網絡和RF隨機森林均在k=40時,取得準確率最高,分別為75.72%和79.04%。故對頸部特征數據集F2的k取值為40。由圖4(c)可知,對于背部和頸部組合特征數據集F3,BP神經網絡和RF隨機森林均在k=60時,準確率最高,分別為89.34%和88.12%。故對組合特征數據集F3的k取值為60。
如表3所示,3種特征數據集F1、F2和F3分別在k值取40、40和60下的特征重要性排序,相對應地,更新特征集變?yōu)镕4、F5和F6。即新的特征數據集F4、F5和F6的特征維度為40、40和60。
2.6 分類模型
使用BP神經網絡[17]、隨機森林[18]、卷積神經網絡[19]和極限學習機[20]4種分類模型對豬只行為進行分類。訓練集和測試集按照7∶3進行劃分,總樣本為2 800個,訓練集1 960個,測試集840個。為消除數據特征之間的量綱差異并且提升模型的性能和收斂速度,對輸入數據進行歸一化。通過網格搜索選擇F4、F5和F6三種特征數據集在4種分類模型的最佳參數組合。
BP神經網絡的結構和參數為:輸入層和輸出層根據3種特征集確定,隱藏層設置兩層,每層隱藏層神經元為10個;RF隨機森林的結構和參數為:決策數目為100,F4、F5特征數據集的最小葉子數為20,F6特征數據集的最小葉子數為30;卷積神經網絡的結構和參數為:輸入層根據3種特征集特征維度確定,第1個卷積層的卷積核大小為2×1,卷積核深度為16;使用ReLU函數作為激活函數層;第1層和第2層池化層過濾器大小為2×1,步長為2;第2個卷積層的卷積核大小為2×1,卷積核深度為32;全連接層為7層,通過Sofmax連接輸出層;極限學習機的結構和參數為:隱藏層節(jié)點個數設為50,激活函數選用sigmoid函數。
3 試驗結果分析
3.1 模型評價指標
常見的分類模型評價指標為準確率、精確率、召回率、F1—score和混淆矩陣。準確率表示分類模型在所有樣本中正確分類的比例,準確率越高說明分類模型的分類結果越準確。精確率表示被預測為正類樣本中真實為正類樣本所占的比例。召回率表示正類樣本中被預測為正類樣本所占的比例。通常精確率和召回率是一組矛盾指標,往往提高其中一個指標就會降低另一個指標,所以需要根據具體情況,選擇重視精確率還是召回率。F1—score作為精確率和召回率的調和平均值,是二者結合的綜合指標?;煜仃噷⒎诸惸P托阅苓M行可視化,可以更清晰觀察分類結果信息。
實際上豬只主要以俯臥、側臥這類休息行為為主,采食、站立、行走、犬坐的時間次之,排泄時間最少。在這種情況下,俯臥和側臥的召回率比精確率更重要,即分類器能準確檢測到這兩種行為。對于采食、站立、行走和犬坐,精確率比召回率更重要,如果幾個分類算法的精確率相近,以F1—score評價指標為主。由于排泄時間太少,不希望其他行為數據誤判為排泄,故更看重精確率,即分類器將這些行為標記為對應行為應該更加準確。
3.2 部署方式評價
不同部署方式的姿態(tài)傳感器數據在對豬只行為分類識別的效果各有不同。表4為不同部署方式的特征數據集在BP、RF、CNN和ELM四種分類模型下的對比試驗結果。對于背部F4特征數據集來說,RF分類模型的測試集準確率最高,為86.78%,相較于BP、CNN和ELM分別提升2.14%、0.83%、6.31%。對于頸部F5特征數據集來說,CNN分類模型的測試集準確率最高,為82.68%,相較于BP、RF和ELM分別提升7.62%、4.65%、12.62%。對于組合部署的F6特征數據集來說,CNN分類模型的測試集準確率最高,為91.67%,相較于BP、RF和ELM分別提升1.08%、4.53%、9.17%。通過3種數據集的測試準確率對比可知,組合部署的準確率gt;背部部署的準確率gt;頸部部署的準確率。
單源部署下背部F4特征集和頸部F5特征集的算法對比結果如表5所示。背部F4特征集在4種分類模型下精確率、召回率、F1—score均比頸部F5特征集的效果好。背部F4特征集在RF隨機森林的準確率最高,頸部F5特征集在CNN卷積神經網絡的準確率最高(圖5)。
圖5展示背部F4特征集在RF隨機森林的混淆矩陣和頸部F5特征集在CNN卷積神經網絡的混淆矩陣,混淆矩陣右邊為各分類標簽的召回率,下面為各分類標簽的精確率。如圖5(a)所示,背部F4特征集在俯臥、側臥和犬坐分類效果較好,但是同為站姿的采食、站立和走動3種行為區(qū)分效果不是很好,三者精確率分別為80.5%、63.1%和84.9%。排泄行為的精確率為85.2%,有部分采食和站立標記為排泄,可能是因為有時候采食和站立出現低頭導致弓著身子,與排泄姿態(tài)數據相似。如圖5(b)所示,頸部F5特征集在俯臥和側臥的召回率不到90%,采食、站立、走動和犬坐的精確率為81%、72.3%、76.4%和79.6%。綜合指標分析,頸部F5特征集的分類效果比背部F4特征集的分類效果差。
組合部署特征集F6在4種算法下的豬只行為識別結果由表6所示。從總體準確率的角度上看,CNN卷積神經網絡的分類效果最好,為91.67%;BP神經網絡分類效果比CNN卷積神經網絡差一點點,為90.59%;其次是RF隨機森林模型和極限學習機ELM,分別為87.14%和82.5%。對比CNN卷積神經網絡和BP神經網絡的行為分類效果,兩者俯臥和側臥的召回率均在95%以上,CNN卷積神經網絡在站立、行走、犬坐和排泄的精確率分別比BP神經網絡高11.92%、6.13%、0.76%、0.77%,但是采食的精確率卻低6.5%。CNN卷積神經網絡在采食、站立、行走和排泄的F1—score均比BP神經網絡高,只有犬坐略低。
圖6展示組合部署特征集F6在4種分類模型的混淆矩陣。如圖6(c)所示,CNN卷積神經網絡對于120個采食行為樣本正確判斷105個,對于120個站立行為樣本正確判斷82個,可能是有些時候站立姿勢和頭部輕微運動,會與采食和慢走進行混淆,分類模型不能較好地進行分類,其余行為都有很高的正確判斷率。圖6(a)與圖6(c)分類情況類似,圖6(b)和圖6(d)中站立的識別率很低。結合各種評價指標,CNN卷積神經網絡在組合部署的行為分類效果最好。
3.3 分類模型在不同豬只適用性的探討
由3.2節(jié)可確定使用姿態(tài)傳感器組合部署(背部+頸部)的方式并采用卷積神經網絡分類模型取得的行為分類效果最好。為探討不同豬只可能存在的行為差異對分類模型泛化能力的影響,對兩只豬采用姿態(tài)傳感器組合部署(背部+頸部)的方式各采集每種行為200個樣本,然后使用卷積神經網絡分類模型進行行為分類。兩只豬的行為分類結果對比見表7,同品種的育肥豬日常行為表現沒有明顯差異,使用卷積神經網絡分類模型的行為分類效果一致。
4 結論
1) 設計兩種可穿戴設備,分別部署在試驗豬的背部和頸部,采集俯臥、側臥、采食、站立、行走、犬坐和排泄7種豬只行為數據。將采集的行為信號通過小波降噪、數據信號的選取、數據分割、特征提取、特征選擇等數據處理,在特征選擇階段,采用Relief算法結合BP神經網絡和RF隨機森林,確定背部特征數據集、頸部特征數據集和組合部署特征數據集的特征保留數為40、40和60。
2) 將降維后的特征數據集分別送入BP神經網絡、RF隨機森林、CNN卷積神經網絡和ELM極限學習機的分類模型進行分析。試驗結果表明,組合部署(背部+頸部)的總體準確率明顯高于單源部署(背部或頸部)。綜合各種評價指標,組合部署的分類模型以CNN卷積神經網絡最佳,總體準確率達到91.67%。其中,俯臥和側臥的召回率為98.33%和99.17%,采食、站立、行走、犬坐和排泄的精確率為80.77%、82.00%、91.13%、99.12%和96.77%。
參 考 文 獻
[ 1 ] 何東健, 劉冬, 趙凱旋. 精準畜牧業(yè)中動物信息智能感知與行為檢測研究進展[J]. 農業(yè)機械學報, 2016, 47(5): 231-244.
He Dongjian, Liu Dong, Zhao Kaixuan. Review of perceiving animal lnformation and behavior in precision livestock farming [J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(5): 231-244.
[ 2 ] Mao A, Huang E, Wang X, et al. Deep learning?based animal activity recognition with wearable sensors: Overview, challenges, and future directions [J]. Computers and Electronics in Agriculture, 2023, 211: 108043.
[ 3 ] 汪開英, 趙曉洋, 何勇. 畜禽行為及生理信息的無損監(jiān)測技術研究進展[J]. 農業(yè)工程學報, 2017, 33(20): 197-209.
Wang Kaiying, Zhao Xiaoyang, He Yong. Review on noninvasive monitoring technology of poultry behavior andphysiological information [J]. Transactions of the Chinese Society of Agricultural Engineering, 2017, 33(20): 197-209.
[ 4 ] 肖德琴, 馮愛晶, 楊秋妹, 等. 基于視頻追蹤的豬只運動快速檢測方法[J]. 農業(yè)機械學報, 2016, 47(10): 351-357.
Xiao Deqin, Feng Aijing, Yang Qiumei, et al. Fast motion detection for pigs based on video trackin [J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(10): 351-357.
[ 5 ] 李頎, 王丹聰. 基于多傳感器的豬只行為辨識[J]. 黑龍江畜牧獸醫(yī), 2018(9): 95-99.
[ 6 ] 閆麗, 沈明霞, 姚文, 等. 基于MPU6050傳感器的哺乳期母豬姿態(tài)識別方法[J]. 農業(yè)機械學報, 2015, 46(5): 279-285.
Yan Li, Shen Mingxia, Yao Wen, et al. Recognition method of lactating sows' posture based on sensor MPU6050 [J]. Transactions of the Chinese Society for Agricultural Machinery, 2015, 46(5): 279-285.
[ 7 ] 王凱, 劉春紅, 段青玲. 基于MFO—LSTM的母豬發(fā)情行為識別[J]. 農業(yè)工程學報, 2020, 36(14): 211-219.
Wang Kai, Liu Chunhong, Duan Qingling. Identification of sow oestrus behavior based on MFO—LSTM [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(14): 211-219.
[ 8 ] 曹麗桃, 程曼, 袁洪波, 等. 可穿戴設備部署位置對羊只行為識別的影響與分析[J]. 中國農機化學報, 2022, 43(12): 133-141.
Cao Litao, Cheng Man, Yuan Hongbo, et al. Influence and analysis of deployment location of wearable devices on sheep behavior recognition [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(12): 133-141.
[ 9 ] 王俊, 張海洋, 趙凱旋, 等. 基于最優(yōu)二叉決策樹分類模型的奶牛運動行為識別[J]. 農業(yè)工程學報, 2018, 34(18): 202-210.
Wang Jun, Zhang Haiyang, Zhao Kaixuan, et al. Cow movement behavior classification based on optimal binary decision?tree classification model [J]. Transactions of the Chinese Society of Agricultural Engineering, 2018, 34(18): 202-210.
[10] 潘芷欣, 陳薈慧, 鐘委釗. 基于可穿戴設備的母豬產后行為識別[J]. 農業(yè)工程學報, 2022, 38(S1): 209-217.
Pan Zhixin, Chen Huihui, Zhong Weizhao. Recognition of the behaviour of lactating sows using wearable devices [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(S1): 209-217.
[11] Tran D, Nguyen T N, Khanh P C P, et al. An iot?based design using accelerometers in animal behavior recognition systems [J]. IEEE Sensors Journal, 2021, 22(18): 17515-17528.
[12] Sun G, Shi C, Liu J, et al. Behavior recognition and maternal ability evaluation for sows based on triaxial acceleration and video sensors [J]. IEEE Access, 2021, 9: 65346-65360.
[13] Nasirahmadi A, Sturm B, Olsson A, et al. Automatic scoring of lateral and sternal lying posture in grouped pigs using image processing and support vector machine [J]. Computers and Electronics in Agriculture, 2019, 156: 475-481.
[14] 陳曉曦, 王延杰, 劉戀. 小波閾值去噪法的深入研究[J]. 激光與紅外, 2012, 42(1): 105-110.
[15] Banos O, Galvez J, Damas M, et al. Window size impact in human activity recognition [J]. Sensors, 2014, 14(4): 6474-6499.
[16] 姜萬錄, 王友榮, 王振威, 等. 基于Relief F算法和相關度計算結合的故障特征降維方法及其應用[J]. 液壓與氣動, 2015(12): 18-24.
[17] Hecht?Nielsen R. Theory of the backpropagation neural network [J]. Neural Networks, 1988: 593-605.
[18] Breiman L. Random forests [J]. Machine Learning, 2001, 45: 5-32.
[19] Basha S S, Dubey S R, Pulabaigari V, et al. Impact of fully connected layers on performance of convolutional neural networks for image classification [J]. Neurocomputing, 2020, 378: 112-119.
[20] Huang G, Zhu Q, Siew C. Extreme learning machine: theory and applications [J]. Neurocomputing, 2006, 70(1-3): 489-501.