摘 ?要:不同性別雛雞在生產(chǎn)生活中的價值及培育方向均有較大差別,盡早無損傷高效地分辨出雛雞性別從而進行定向培育,實現(xiàn)產(chǎn)業(yè)利益最大化。傳統(tǒng)的肛門鑒別法、伴性性狀鑒別法、蛋內(nèi)尿囊液檢測法和核磁共振測定法均有其不足之處。受肛門鑒別法中對肛部圖片兩大特性傳統(tǒng)人眼檢測方案的啟發(fā),在對原始圖像數(shù)據(jù)進行關(guān)鍵區(qū)域特征增強和圖像增廣后,依托于LeNet深度學(xué)習(xí)模型的強大圖像處理能力實現(xiàn)極高效率的雛雞性別識別。
關(guān)鍵詞:雛雞性別鑒定;深度學(xué)習(xí);圖像識別;圖像增廣;LeNet
中圖分類號:TP391.41 ? ? 文獻標識碼:A 文章編號:2096-4706(2020)23-0064-03
The Gender Intelligence Recognition of Chicks Based on
the LeNet Deep Learning Model
YANG Luye
(Shanghai University,Shanghai ?200444,China)
Abstract:Different gender chicks have a large difference in the value and cultivation direction in production and life,and distinguish the gender of chicks as early as possible and efficiently without damage,so as to carry out directional cultivation and realize the maximization of industrial benefits. The traditional methods of anal identification,sex-linked charateristics identification,egg allantoic fluid detection and nuclear magnetic resonance detection have their shortcomings. Inspired by the traditional human eye detection scheme of anal image two characteristics in anal identification method,after the key area feature enhancement and image expansion of the original image data,relying on the powerful image processing ability of LeNet deep learning model to realize highly efficient chicks gender recognition.
Keywords:gender identification of chicks;deep learning;image recognition;image augmentation;LeNet
0 ?引 ?言
雛雞性別的識別在傳統(tǒng)及現(xiàn)代養(yǎng)雞業(yè)中均屬核心技能[1]。由于雌雞和雄雞所產(chǎn)生的商業(yè)價值不盡相同,且雄雞和雌雞培育所需的環(huán)境、養(yǎng)殖中的側(cè)重點也存在較大差異。所以盡早知曉雛雞的性別并加以分類培育可以優(yōu)化生產(chǎn)布局,達到商業(yè)產(chǎn)能最大化以及提升工業(yè)效益的目的。
2 ?現(xiàn)有解決方案
目前工業(yè)界和生產(chǎn)生活中經(jīng)典的方法包括:
(1)肛門鑒別法(又稱“翻肛法”)。該鑒別法須在雛雞出殼后12小時內(nèi)進行,重點是通過觀察雛雞有無生殖突起及生殖突起的組織形態(tài)來區(qū)別其雄雌。
(2)伴性性狀鑒別法。該鑒別法是依據(jù)伴性遺傳原理,分別培育雌雄品系,通過多品系間雜交,依據(jù)初生雛雞的羽毛顏色及其生長速度來判別其雌雄。
(3)蛋內(nèi)尿囊液檢測法。該檢測法的原理為檢測尿囊內(nèi)雌激素水平,以此來判斷雞胚的性別。
(4)核磁共振(MRI)測定雞胚性別。該檢測法運用兩套不同的核磁共振成像系統(tǒng),對處于特定時期的胚盤定位后再對其進行性別篩查[2]。
但上述四種方法在實際生產(chǎn)工作中均有其不足之處。肛門鑒別法在很大程度上依賴檢測人員的鑒別技能,經(jīng)驗不足的檢測人員難以達到工業(yè)級的準確率,且最頂尖的檢測人員的篩選效率也只有30~35只每小時[3],遠低于工業(yè)化生產(chǎn)要求,難以推廣到大型雞場。伴性性狀鑒別法檢測時間周期較長,需要等到雞雛長出足以鑒別性別的性狀如羽色、羽速后方可以實現(xiàn)鑒別性別的目的,無法實現(xiàn)及早篩分雛雞的預(yù)期目標;尿囊液體檢測法有嚴格的時間限制,若對在始孵化早期的雞胚進行細胞采樣則會影響雞胚發(fā)育;核磁共振測定法中的關(guān)鍵步驟即對雞胚的操作必須在外形完整的蛋中進行,此技術(shù)尚處于研發(fā)階段,無法落實到生產(chǎn)應(yīng)用中。
3 ?算法模型介紹
近年來,深度學(xué)習(xí)在各個學(xué)科領(lǐng)域的應(yīng)用中展現(xiàn)了巨大的可能性,突破了諸多瓶頸,有力的推動了諸如計算機視覺、自動語音識別、強化學(xué)習(xí)、自然語言處理等領(lǐng)域的研究。計算機視覺作為深度學(xué)習(xí)的重要領(lǐng)域,其中的圖像識別、甄選、分割等細分領(lǐng)域均已取得了諸多杰出的成果。因此,我們想將其中成熟的算法模型遷移到雛雞雄雌鑒別領(lǐng)域,將深度學(xué)習(xí)算法模型與傳統(tǒng)翻肛法的有效經(jīng)驗相結(jié)合,用大量已準確標注的雞雛性別圖片訓(xùn)練雞雛雄雌判別模型。通過不斷優(yōu)化迭代,使判別模型能夠達到智能判別雞雛性別的功效,取代現(xiàn)有繁瑣且代價高昂的人力密集型的傳統(tǒng)解決方案,將經(jīng)典方法提升推廣到工業(yè)級、流水線級的通用解決方案中。
LeNet是一個經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[4,5],對于輸入的二維三通道圖像,經(jīng)過兩次卷積層到線性整流層和池化層,再經(jīng)過全連接層,最后使用softmax分類器進行分類。
3.1 ?卷積層
卷積層是卷積神經(jīng)網(wǎng)絡(luò)各層的基礎(chǔ)組成單元,其中每個卷積元參數(shù)均由反向傳播算法迭代優(yōu)化取得。卷積運算可以實現(xiàn)高效的特征提取,低層級卷積層可以從圖像中取得基礎(chǔ)特征如邊緣、角度及線條等,多層級卷積層可以從圖像中獲得如圖像風(fēng)格等高維特征,為后續(xù)圖像分類,分割等任務(wù)提供底層信息。
3.2 ?線性整流層
線性整流層是每層神經(jīng)網(wǎng)絡(luò)之間的激活函數(shù)族,通過非線性變換,將神經(jīng)網(wǎng)絡(luò)模型所能表達的范圍從線性函數(shù)推廣至一般函數(shù)域,更加符合真實生產(chǎn)環(huán)境中的需求,讓模型在真實建模過程中有更強的魯棒性。
3.3 ?池化層
池化層是以取平均值、最小值、最大值等降維方法將由卷積層傳遞而來的高維特征降低到合適的維度的單元,減少后續(xù)計算迭代的時間消耗,提升效率。
3.4 ?全連接層
全連接層是將全局特征和優(yōu)化后的參數(shù)進行點乘計算后得到可信度結(jié)果,進而判斷圖片所歸屬的種類的一種結(jié)構(gòu)。
3.5 ?算法原理
在本次模型設(shè)計中,底層卷積層負責(zé)從輸入層的雞雛圖片數(shù)據(jù)中抽取圖像低維特征(如圖片邊角位置、總體亮度等),后將RGB三維通道信息轉(zhuǎn)化為高維數(shù)據(jù)向量并將其傳輸?shù)骄€性整流層。線性整流層通過非線性變換將圖片中的低維信息擴展,映射,整合到新的向量空間中,提升基礎(chǔ)信息的復(fù)雜度,豐富數(shù)據(jù)維度。池化層將從網(wǎng)絡(luò)前端傳遞來的512維高位數(shù)據(jù)向量通過平均池化的方法快速降維后,再將其傳遞到全連接層,加速整體模型運算速度,確保模型不會陷入維數(shù)災(zāi)難。全連接層作為輸出層前的最后分類器通過反復(fù)迭代優(yōu)化,進而得最佳的匹配參數(shù),結(jié)合前端傳遞下來的特征向量,判別圖像所屬種類后傳遞到到輸出層。
4 ?實驗驗證
我們獲取的原始圖像信息如圖1和圖2所示,經(jīng)由雛雞判別專家一一標注后分為雄雞雛雞組和雌雞雛雞組。
我們先對所有標注好的圖像數(shù)據(jù)進行數(shù)據(jù)平衡,保證雄雌數(shù)據(jù)所占比重相同,再利用5-folder cross-validation法,將數(shù)據(jù)隨機無偏分地劃為測試集和驗證集作為輸入,來防止過擬合問題,最終使用LeNet作為特征抽取的深度學(xué)習(xí)模型進行二分類訓(xùn)練。但最終獲得的結(jié)果不太理想,測試準確率僅為60%~65%,與隨機判別(50%)所得結(jié)果差距不大,歸其原因在于信息本身噪音較大,如測試數(shù)據(jù)集中部分圖片有雛雞尾羽陰影,原圖總體亮度對比度均不高,導(dǎo)致關(guān)鍵信息未顯著體現(xiàn),現(xiàn)有數(shù)據(jù)量較?。ㄉ儆? 500張),而模型本身參數(shù)量大,導(dǎo)致數(shù)據(jù)過擬合。
與雞雛分類技術(shù)人員溝通后,我們發(fā)現(xiàn)傳統(tǒng)人工識別主要依靠觀測倒八形狀區(qū)域和圓形突起兩個特殊樣式來區(qū)別雄雌,如圖3所示。
為了能夠最大限度地凸顯關(guān)鍵性狀,我們對所有圖片使用OpenCV進行以下數(shù)據(jù)預(yù)處理:對于遮罩外部噪音區(qū)域采光口所導(dǎo)致的取樣點區(qū)別,統(tǒng)一以內(nèi)切圓形為采樣標準,消除外部干擾,如圖4所示。
通過反復(fù)測試處理效果,確定了使用Sobel算子對所有重采樣后的圖像進行優(yōu)化處理,突出其關(guān)鍵性狀,如圖5所示。
由于圖像所代表類別具有旋轉(zhuǎn)不變性,即圖像旋轉(zhuǎn)后所代表雞雛性別不變,且在保留關(guān)鍵性狀的情況下對圖片進行局部放大、縮小操作也不會改變圖像所歸屬的種類,故由此對原圖像數(shù)據(jù)進行包括旋轉(zhuǎn)、放縮等合適的自增操作,如圖6所示。
對原有圖像數(shù)據(jù)進行這樣的圖像預(yù)處理后得到增廣后的圖像數(shù)據(jù)集,再利用新的圖像數(shù)據(jù)重新訓(xùn)練模型,實驗數(shù)據(jù)如表1所示。在迭代300次以后,得到了較好的結(jié)果,模型準確率在測試集達到了94.1%,在驗證集達到了92.5%,檢測效率超過110張/分鐘,達到了預(yù)期的目的。
5 ?結(jié) ?論
為了尋找準確且高效的雞雛雌雄判別方案,同時也保障方案本身的可擴展性和可推廣性,我們通過學(xué)習(xí)經(jīng)典的人力翻肛法判別經(jīng)驗,應(yīng)用計算機視覺輔助程序從源數(shù)據(jù)中環(huán)割選取圓形標準圖像集,依托Sobel算子對劃選好的雛雞圖像進行圖像預(yù)處理以突出其中關(guān)鍵性征,再借由其旋轉(zhuǎn)性狀不變的特點進行隨機旋轉(zhuǎn)圖像增廣,最后使用LeNet深度模型架構(gòu)進行算法優(yōu)化迭代訓(xùn)練,得到有強識別能力的智能雛雞圖像雌雄判別模型。該模型在雞雛性別識別中獲得超過94%的識別準確率和0.085秒/張的平均檢測效率,且未出現(xiàn)明顯過擬合現(xiàn)象,給雞雛識別的領(lǐng)域提供了一條新的思路,打通了人工智能和傳統(tǒng)家禽養(yǎng)殖業(yè)的墻壁。目前該模型在全新數(shù)據(jù)集上的檢測效果仍然有待提升。未來通過更加精細化的雛雞種類劃分和更加全面的雞雛圖像數(shù)據(jù)初期收集,以及調(diào)用更多種成熟的深度學(xué)習(xí)模型來進行多模型組合預(yù)測,我們相信能夠獲得更加高效且魯棒的雞雛識別模型,并將其應(yīng)用到真實的生產(chǎn)生活中。
參考文獻:
[1] 王健,漠縱泉,肖小珺,等.雞胚性別鑒定——家禽科學(xué)研究的新視點 [J].中國家禽,2003(14):26-36.
[2] 姜桂苗,何劍斌,馬振乾,等.家禽性別控制的研究進展 [J],黑龍江動物繁殖,2010,18(5):14-16.
[3] 燕海峰,肖兵南,TREFIL P,等.家禽的性別鑒定方法 [J].動物學(xué)雜志,2001(6):58-61.
[4] ZHANG A,LI M,Lipton Z C,等. 動手學(xué)深度學(xué)習(xí) [M].人民郵電出版社,2019:15-188.
[5] 鄭睿,余童,程龍閱.基于改進LeNet-5的形狀類似物體識別方法 [J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(6):31-37+43.
作者簡介:楊陸野(1993—),男,漢族,上海人,初級工程師,碩士,研究方向:計算機視覺。