黃雙萍,孫 超,齊 龍,馬 旭,汪文娟
?
基于深度卷積神經(jīng)網(wǎng)絡(luò)的水稻穗瘟病檢測方法
黃雙萍1,孫 超2,齊 龍2※,馬 旭2,汪文娟3
(1. 華南理工大學(xué)電子與信息學(xué)院,廣州510641;2. 華南農(nóng)業(yè)大學(xué)工程學(xué)院,廣州 510642; 3. 廣東省農(nóng)業(yè)科學(xué)院植物保護(hù)研究所,廣州 510640)
穗瘟是一種嚴(yán)重影響水稻產(chǎn)量及品質(zhì)的多發(fā)病害,有效地檢測穗瘟是水稻病害防治的重要任務(wù)。該文提出基于深度卷積神經(jīng)網(wǎng)絡(luò)GoogLeNet模型的水稻穗瘟病檢測方法,該方法利用Inception基本模塊重復(fù)堆疊構(gòu)建主體網(wǎng)絡(luò)。Inception模塊利用多尺度卷積核提取不同尺度穗瘟病斑分布式特征并進(jìn)行級聯(lián)融合。GoogLeNet利用其結(jié)構(gòu)深度和寬度,學(xué)習(xí)復(fù)雜噪聲高光譜圖像的隱高維特征表達(dá),并在統(tǒng)一框架中訓(xùn)練Softmax分類器,實(shí)現(xiàn)穗瘟病害預(yù)測建模。為驗(yàn)證該研究所提方法的有效性,以1 467株田間采集的穗株為試驗(yàn)對象,采用便攜式戶外高光譜成像儀GaiaField-F-V10在自然光照條件下拍攝穗株高光譜圖像,并由植保專家根據(jù)穗瘟病害描述確定其穗瘟標(biāo)簽。所有高光譜圖像-標(biāo)簽數(shù)據(jù)對構(gòu)成GoogLeNet模型訓(xùn)練和驗(yàn)證的原始數(shù)據(jù)集。該文采用隨機(jī)梯度下降算法(SGD, stochastic gradient descent)優(yōu)化GoogLeNet模型,提出隨機(jī)扔棄1個(gè)波段圖像和隨機(jī)平移平均譜圖像亮度的2種數(shù)據(jù)增強(qiáng)策略,增加訓(xùn)練數(shù)據(jù)規(guī)模,防止模型過擬合并改善其泛化性能。經(jīng)測試,驗(yàn)證集上穗瘟病害預(yù)測最高準(zhǔn)確率為92.0%。試驗(yàn)結(jié)果表明,利用GoogLeNet建立的深度卷積模型,可以很好地實(shí)現(xiàn)水稻穗瘟病害的精準(zhǔn)檢測,克服室外自然光條件下利用光譜圖像進(jìn)行病害預(yù)測面臨的困難,將該類研究往實(shí)際生產(chǎn)應(yīng)用推進(jìn)一大步。
病害;模型;圖像處理;高光譜成像;穗瘟病檢測;深度卷積神經(jīng)網(wǎng)絡(luò);GoogLeNet
稻瘟病是中國南北稻作區(qū)危害最嚴(yán)重的病害之一,其年平均發(fā)生面積達(dá)380×104hm2,稻谷年損失數(shù)億公斤。如果遭遇病害流行年份,一般減產(chǎn)10%~20%,嚴(yán)重時(shí)達(dá)40%~50%,甚至絕收[1]。穗瘟發(fā)生在穗頸、穗軸、枝?;蛩肓I希『χ苯佑绊懰井a(chǎn)量和質(zhì)量,因而加強(qiáng)對穗瘟病防治是水稻安全生產(chǎn)的重要環(huán)節(jié)。準(zhǔn)確地檢測穗瘟病害,對評估水稻品種的穗瘟抗性,以及生產(chǎn)過程中水肥或農(nóng)藥等農(nóng)資資源的合理精量施用管理等具有指導(dǎo)性作用。
目前,穗瘟病害檢測主要由人工完成,因穗瘟病判定有嚴(yán)格技術(shù)規(guī)范,普通人很難進(jìn)行可靠病害判定。由植保專家和農(nóng)技人員分析評判, 則需要花費(fèi)大量時(shí)間和精力?,F(xiàn)代農(nóng)業(yè)生產(chǎn)對穗瘟病害預(yù)測預(yù)報(bào)的準(zhǔn)確率要求越來越高,這對水稻病害診斷技術(shù)提出了新的要求[2-6]。
穗瘟病害由真菌病原侵入引發(fā),導(dǎo)致穗株發(fā)生一系列形態(tài)、生理和生化方面的變化。這些變化因處于不同病害侵入階段而呈現(xiàn)非視覺可見的隱性癥狀,或視覺可見顯性癥狀,甚至導(dǎo)致外部形態(tài)發(fā)生明顯變化。高光譜成像基于水稻穗瘟病害脅迫下表現(xiàn)出的光譜特性差異,利用掃描式成像傳感器獲取水稻三維光譜圖像,既包含連續(xù)光譜信息,又提供植物病害空間分布信息;既能獲得病害顯癥,又能獲得病害隱癥。因此,高光譜成像成為穗瘟病害定量信息獲取的重要手段。
基于光譜成像的植物病害檢測研究工作在過去的20多年間從未間斷過?;谄紤],僅對利用光譜成像進(jìn)行稻瘟病檢測的研究工作進(jìn)行綜述。馮雷等[7]應(yīng)用多光譜成像技術(shù)對水稻葉瘟病檢測分級方法進(jìn)行了研究。張浩等[8]研究了水稻穗頸瘟,并利用多光譜圖像分割結(jié)果估測穗頸瘟發(fā)病程度。Qi等[9-10]對水稻單株感病樣本和健康樣本多光譜圖像特征進(jìn)行分析,建立了葉瘟病分級檢測模型;對單株樣本接種病菌后的各波段圖像灰度隨時(shí)間的變化規(guī)律進(jìn)行分析,建立了單株樣本早期檢測模型,實(shí)現(xiàn)對稻瘟病害分級和早期識(shí)別,在實(shí)驗(yàn)室條件下取得良好精度。這些研究工作基于多光譜成像,獲取3~5個(gè)波段的離散圖譜信息,且局限于實(shí)驗(yàn)室固定光照條件下病害信息獲取和分析。許多科研工作者直接利用高光譜圖像進(jìn)行稻瘟病害分析的研究工作[11-16]。楊燕[11]用近紅外高光譜圖像檢測水稻苗瘟。Kobayashi等[12]用機(jī)載高光譜系統(tǒng)拍攝大面積田間稻穗,評價(jià)穗瘟分布及嚴(yán)重程度。鄭志雄等[13]利用HyperSIS高光譜成像系統(tǒng)采集不同病害等級的水稻葉片高光譜圖像,通過分析葉瘟病斑區(qū)域與正常葉片區(qū)域的光譜特征,對差異較大的550和680 nm波段進(jìn)行二維散點(diǎn)圖分析,提取只含病斑的高光譜圖像;在此圖像上提取延伸率和受害率2個(gè)參數(shù),據(jù)此對水稻葉瘟病害進(jìn)行分級。黃雙萍等[14-15]提出光譜詞袋(bag of spectrum words, BoSW)模型分析稻穗高光譜圖像,這種基于詞典學(xué)習(xí)的特征建模方法,引入數(shù)據(jù)驅(qū)動(dòng)的學(xué)習(xí)機(jī)制,使得基于光箱操作采集高光譜圖像的穗瘟檢測方法取得良好效果。然而,這些研究工作仍局限于數(shù)十或百數(shù)量級的樣本規(guī)模,并局限于固定光源光箱操作獲取高光譜圖像的應(yīng)用場景,與實(shí)際生產(chǎn)仍有一定距離。
自20世紀(jì)90年代,Lecun等在論文中確定卷積神經(jīng)網(wǎng)絡(luò)(CNNs, convolutional neural networks)基本架構(gòu)[17]后,CNNs就成為最流行的深度學(xué)習(xí)算法。最近,CNNs在圖像識(shí)別,語音識(shí)別和自然語言處理等模式識(shí)別領(lǐng)域取得顯著成果[18-28]。CNNs能夠直接從原始數(shù)據(jù)中,通過深度網(wǎng)絡(luò)參數(shù)不斷學(xué)習(xí)優(yōu)化,提取數(shù)據(jù)隱含語義概念的分布式特征。Krizhevsky等[18]提出AlexNet深度卷積神經(jīng)網(wǎng)絡(luò)經(jīng)典結(jié)構(gòu),克服CNNs難以訓(xùn)練的困難,并在圖像識(shí)別任務(wù)上取得重大突破。自AlexNet取得成功后,研究人員先后提出許多著名的CNNs變種網(wǎng)絡(luò)模型[19-21,29]。其中GoogLeNet[21]是一個(gè)22層的深度網(wǎng)絡(luò),相比只有8層的AlexNet卻少了12倍模型參數(shù),其核心思想是增加大量Inception模塊,找出最優(yōu)局部稀疏結(jié)構(gòu)并稠密化。同時(shí),在需要大量計(jì)算核卷積運(yùn)算前靈活運(yùn)用1×1卷積進(jìn)行合理降維,并調(diào)整不同層的線性程度。
本文提出用深度卷積神經(jīng)網(wǎng)絡(luò)GoogLeNet進(jìn)行穗瘟特征學(xué)習(xí),建立穗瘟病害檢測模型,并驗(yàn)證模型有效性,以期解決因便攜高光譜成像帶來更為復(fù)雜的數(shù)據(jù)噪聲引致的建模困難問題。
廣東省廣州市從化呂田鎮(zhèn)蓮麻村地處23°53′N, 113°59′E位置,海拔高度350~400 m,年均降水量1 800~2 200 mm,年平均溫度19.5~21.4 ℃。該地濕度較大,雨量充沛,氣候溫暖,成為稻瘟病自然誘發(fā)的天然病區(qū)。廣東省農(nóng)業(yè)科學(xué)院在面積約為3 133 m2的試驗(yàn)田種植了71個(gè)水稻品種。水稻種植采取灌溉圃移栽法,每份水稻插植30叢(每份水稻6行,每行水稻分屬5科),2次重復(fù)。每列各品種每行兩邊插植1~2棵誘發(fā)品種,誘發(fā)品種為感病品種CO39。病圃材料進(jìn)入黃熟初期后進(jìn)行穗瘟樣本采集。這種自然環(huán)境下大田樣本采集的試驗(yàn)研究方式,有利于研究本文方法在大田環(huán)境下的有效性。2015年11月13日,從呂田試驗(yàn)田采集1 467株稻穗樣本,這些樣本覆蓋全部71個(gè)水稻品種。在進(jìn)行簡單泥水清理后即進(jìn)行連續(xù)3日的光譜圖像采集。采集過程白天在自然光環(huán)境下完成,晚上在白熾燈照明條件下完成。在3 d持續(xù)拍攝和穗瘟定標(biāo)過程中,先后出現(xiàn)部分穗株發(fā)霉,水分損失的現(xiàn)象。為了模擬真實(shí)生產(chǎn)場景的差異性和復(fù)雜性,只扔棄了發(fā)霉嚴(yán)重的穗株,對不同干濕程度和略有發(fā)霉的樣本繼續(xù)進(jìn)行樣本采集和標(biāo)定,這種無過多約束的光譜圖像采集過程等同于在數(shù)據(jù)中混入了因含水量或霉變引發(fā)樣本外觀及生化變化而帶來的復(fù)雜噪聲,引起數(shù)據(jù)較為嚴(yán)重的降質(zhì)。因此,后續(xù)病害建模將面臨更大挑戰(zhàn),但也是實(shí)際生產(chǎn)應(yīng)用必須面對的困難。本文希望通過這種更加接近實(shí)際應(yīng)用場景的研究方式尋找更為魯棒的穗瘟檢測方法,以期向?qū)嶋H生產(chǎn)應(yīng)用跨進(jìn)一步。
由于樣本采摘的隨意性、品種的多樣性,采集的1 467個(gè)穗株樣本外觀尺寸差異較大。圖像尺寸寬度為600~900像素,高度為700~1 000像素。圖1列出了部分穗株樣本的高光譜平均譜圖像,該圖像是沿著三維光譜圖像的波段軸對空間像素點(diǎn)求算術(shù)平均獲得。從圖中可以看出,稻穗樣本的顆粒密度、側(cè)枝及主軸形態(tài)、相對分布位置等均呈現(xiàn)較大差異。這些外觀差異導(dǎo)致樣本在高光譜圖像空間維度內(nèi)的多樣性。從圖1可看出,在變化的自然光照條件下高光譜圖像樣本呈現(xiàn)明顯差異性。這些因素均會(huì)給高光譜圖像穗瘟病害建模帶來困難。
圖1 平均高光譜圖像外觀及亮度多樣性示例
穗株高光譜圖像測定采用四川雙利合譜科技有限公司的GaiaField-F-V10便攜式戶外高光譜成像系統(tǒng),其核心器件采自芬蘭Specim透射式光柵成像光譜儀,覆蓋從可見光到近紅外光的波段區(qū)域(400~1 000 nm),光譜分辨率為4 nm,光譜波段數(shù)達(dá)260個(gè)。試驗(yàn)搭建的測試平臺(tái)如圖2所示。從圖2中看出,該測試平臺(tái)包括三腳架支撐的高光譜相機(jī),安裝光譜分析軟件的筆記本電腦和反射白板上掛著的穗株,測試過程在自然光源條件下完成。測試過程用自動(dòng)調(diào)焦實(shí)現(xiàn)對物距的測量,自動(dòng)調(diào)焦模組15 s內(nèi)自動(dòng)完成對焦,只需一鍵單擊即可全自動(dòng)完成測試過程。從測試過程看,樣本測試光照條件不可控,太陽光照因時(shí)段和天氣均可發(fā)生變化;白天太陽光源和晚上白熾燈光環(huán)境也引起拍攝條件的巨大差異。
1.高光譜相機(jī) 2.反射板 3.三角架 4.筆記本 5.穗株樣本
高光譜圖像數(shù)據(jù)處理在ENVI 5.1(Research System Inc,Boulder,Co.,USA)和Matlab 2016a(The Math Works,Natick,USA)軟件平臺(tái)完成。每棵穗株高光譜圖像是260個(gè)波段重疊起來的圖像,可以看成有3個(gè)軸的立方體數(shù)據(jù),包括表示圖像像素位置的、軸以及譜方向軸。不同病害程度的稻穗樣本平均光譜有差異,需要合適的數(shù)據(jù)分析方法進(jìn)行區(qū)分。本文試驗(yàn)總共采集1 467個(gè)樣本,分成染病和無染病2個(gè)病級,其中染病樣本1 220個(gè),無染病樣本247個(gè)。
穗瘟病害標(biāo)定以國際水稻所關(guān)于水稻穗瘟抗性定級標(biāo)準(zhǔn)[30]為基礎(chǔ),凡是有發(fā)病癥狀、無論枝梗,穗主軸、穗頸基部等位置有病斑,或者水稻顆粒有感染,都標(biāo)定為病害樣本。病斑位置和感染顆粒比率的差異性,組合出病害樣本的極大多樣性。無病害樣本因稻穗顆粒豐滿程度,枝梗等不同分布也呈現(xiàn)較大多樣性。這些多樣決定樣本空間的復(fù)雜性,用固定規(guī)則的手工特征將高光譜圖像抽象成特征數(shù)據(jù)會(huì)面臨較大挑戰(zhàn)。為了更加形象地描述病害和非病害樣本差異及因此而呈現(xiàn)的多樣性,圖3給出了1種無病害和3種不同病斑分布的示意圖。圖中黃色表示病害侵染部位。病害標(biāo)簽由植保專家根據(jù)上述描述標(biāo)定,作為預(yù)測目標(biāo)真實(shí)值。
圖3 穗瘟標(biāo)定示意圖
試驗(yàn)中以光譜維度方向計(jì)算高光譜圖像的平均譜圖像,作為深度卷積神經(jīng)網(wǎng)絡(luò)的建模輸入。考慮到原始高光譜圖像空間分辨率較大,在進(jìn)行數(shù)據(jù)建模之前,對原始圖像進(jìn)行簡單粗裁切,去除無稻穗的背景部分。切割處理后,光譜圖像的空間分辨率降低為寬度400~900像素,高度200~800像素。粗切割后光譜圖像空間分辨率直方圖見圖4。根據(jù)直方圖,光譜圖像寬度主要集中于200像素附近,高度集中于600像素附近,故確定將平均高光譜圖像尺寸歸一化為200×600像素,以取得分類效果和速度的平衡。
圖4 粗切割后平均高光譜圖像寬高尺寸直方圖
本文試驗(yàn)包括1 467個(gè)高光譜圖像-穗瘟病害標(biāo)定數(shù)據(jù)對,構(gòu)成論文試驗(yàn)數(shù)據(jù)集。其中247個(gè)未染病樣本,其標(biāo)簽為0;1 220個(gè)不同程度的穗瘟染病樣本,其標(biāo)簽為1。從2類樣本中各隨機(jī)選取100個(gè)樣本構(gòu)成測試集,剩余部分構(gòu)成訓(xùn)練集。因此,訓(xùn)練集包括147個(gè)0類樣本(亦稱“負(fù)樣本”)和1 120個(gè)1類樣本(亦稱“正樣本”)。對于采用GoogLeNet建模的2分類問題,有如下要點(diǎn)需要考慮:第一,GoogLeNet是一個(gè)深度卷積神經(jīng)網(wǎng)絡(luò)模型,需基于大數(shù)據(jù)和標(biāo)定監(jiān)督機(jī)制進(jìn)行模型訓(xùn)練,充分的訓(xùn)練數(shù)據(jù)是該方法發(fā)揮知識(shí)挖掘能力的前提。由于原始穗株高光譜數(shù)據(jù)采集過程耗時(shí),耗力且高成本,僅僅依靠原始數(shù)據(jù)采集保證充足的數(shù)據(jù)量不太現(xiàn)實(shí)。本研究現(xiàn)有數(shù)據(jù)規(guī)模相對深度網(wǎng)絡(luò)尚顯不夠;第二,兩類問題模型訓(xùn)練過程正負(fù)樣本均衡對無偏模型訓(xùn)練并取得較好預(yù)測效果影響明顯。本文試驗(yàn)1 120和147的正負(fù)訓(xùn)練樣本比將近8,容易引發(fā)模型訓(xùn)練失偏。本文將在數(shù)據(jù)增強(qiáng)過程中彌補(bǔ)訓(xùn)練數(shù)據(jù)不平衡的狀況,達(dá)到正負(fù)樣本基本平衡。
針對訓(xùn)練樣本數(shù)量不夠,本文提出了2個(gè)數(shù)據(jù)增強(qiáng)策略:隨機(jī)扔棄波段圖像和隨機(jī)平移平均高光譜圖像亮度。隨機(jī)扔棄波段的數(shù)據(jù)增強(qiáng)策略是從高光譜圖像260個(gè)波段中隨機(jī)扔棄1個(gè)波段信息,再計(jì)算平均譜圖像。這種數(shù)據(jù)增強(qiáng)策略提出依據(jù)是高光譜成像儀具有超高光譜維度上的分辨率,例如,本研究使用的GaiaField-F-V10光譜儀分辨率最高達(dá)2.8 nm。因此,穗株高光譜立方體圖像中,包括大量數(shù)據(jù)冗余。隨機(jī)扔棄某個(gè)單一波段信息,對這種超多維光譜立方體圖像而言,導(dǎo)致的信息損失可通過鄰近波段攜帶的相關(guān)信息進(jìn)行一定程度彌補(bǔ),不會(huì)引起數(shù)據(jù)點(diǎn)“質(zhì)”的變化。從數(shù)據(jù)的角度,這種隨機(jī)扔棄某個(gè)單一波段的策略可理解為引進(jìn)隨機(jī)數(shù)據(jù)噪聲,這對于本研究采用的數(shù)據(jù)驅(qū)動(dòng)深度卷積神經(jīng)網(wǎng)絡(luò)而言,適度數(shù)據(jù)噪聲和因此帶來的數(shù)據(jù)多樣性,會(huì)使訓(xùn)練的模型具有更強(qiáng)的泛化能力。在后續(xù)試驗(yàn)中,隨機(jī)扔棄波段圖像信息形成樣本副本,其穗瘟病害標(biāo)簽不變,與副本數(shù)據(jù)構(gòu)成一個(gè)獨(dú)立數(shù)據(jù)對。
根據(jù)隨機(jī)扔棄單一波段的數(shù)據(jù)增強(qiáng)操作模式,147個(gè)未染病穗瘟樣本通過一輪隨機(jī)扔棄波段操作可增強(qiáng)為294個(gè)。1 120個(gè)染病穗株樣本則可增強(qiáng)為2 240個(gè)??紤]到2分類對正負(fù)樣本平衡性的要求,本文試驗(yàn)對負(fù)樣本進(jìn)行15輪隨機(jī)操作,這樣總共得到2 352個(gè)負(fù)樣本;正樣本進(jìn)行1輪隨機(jī)操作,總共得到2 240個(gè)正樣本。這樣,正負(fù)樣本基本達(dá)到平衡。
本文提出的第2個(gè)數(shù)據(jù)增強(qiáng)策略是隨機(jī)平移平均光譜圖像亮度。便攜戶外高光譜儀采集穗株高光譜圖像在動(dòng)態(tài)變化的自然光條件下進(jìn)行,因此,平均譜圖像呈現(xiàn)明顯亮度差異,如圖1所示。為增強(qiáng)GoogLeNet模型對光照變化的適應(yīng)性,隨機(jī)平移光譜圖像亮度增強(qiáng)數(shù)據(jù),增加數(shù)據(jù)在光照亮度維方面的多樣性。圖5 給出平均光譜圖像3次隨機(jī)平移亮度后的效果示意圖。利用這種增強(qiáng)策略,可以增加成倍訓(xùn)練數(shù)據(jù)量,增加樣本多樣性,提升模型泛化能力。
a. 原始平均譜圖像a. Original average spectrum imageb. 隨機(jī)亮度平移衍生譜圖像b. Derivative spectrum image after random light shifting
本文試驗(yàn)將隨機(jī)扔棄波段得到的增強(qiáng)訓(xùn)練數(shù)據(jù)集再做一次隨機(jī)亮度平移操作,得到本文實(shí)際訓(xùn)練數(shù)據(jù)集,即:負(fù)樣本4 704,正樣本4 480,總樣本9 184。
圖6給出了GoogLeNet模型訓(xùn)練所用的增強(qiáng)數(shù)據(jù)集形成流程圖。圖中實(shí)線框及實(shí)線箭頭表示數(shù)據(jù)處理相關(guān)操作及信息流向,虛線框及虛線箭頭表示深度模型相關(guān)信息及數(shù)據(jù)處理流向。
GoogLeNet在經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)LeNet-5[17]的基礎(chǔ)上,增加網(wǎng)絡(luò)寬度和深度,克服因深度和寬度增加帶來的參數(shù)量爆炸和優(yōu)化計(jì)算量劇增問題,提高深度網(wǎng)絡(luò)模型質(zhì)量。GoogLeNet通過設(shè)計(jì)Inception模塊,引入多尺度卷積提取多尺度局部特征。本文所使用的Inception模塊結(jié)構(gòu)如圖7。Inception模塊在整個(gè)深度網(wǎng)絡(luò)結(jié)構(gòu)中多次重復(fù)堆疊出22層深度的網(wǎng)絡(luò)結(jié)構(gòu)。Inception結(jié)構(gòu)模塊中所有參數(shù)都經(jīng)過優(yōu)化訓(xùn)練得到。
圖6 用于GoogLeNet優(yōu)化的增強(qiáng)數(shù)據(jù)集形成過程
圖7 Inception模塊結(jié)構(gòu)示意圖
從圖7中看出,Inception模塊設(shè)計(jì)1×1、3×3和5×5卷積核分支,對穗瘟在不同部位的不同尺度病斑結(jié)構(gòu)進(jìn)行特征提取和學(xué)習(xí)。由此可知Inception模塊的多尺度設(shè)計(jì)非常適合這種穗瘟病害在稻穗圖像空間上的分散式、多形態(tài)、多尺度分布特點(diǎn)。圖7中顯示 Inception模塊3×3,5×5卷積和3×3最大池化分支中均額外設(shè)計(jì)1個(gè)1×1卷積核,構(gòu)成級聯(lián)關(guān)系。這種1×1卷積核一方面用來增加網(wǎng)絡(luò)深度,改善網(wǎng)絡(luò)非線性程度;另一方面用以減少大卷積核(例如3×3,5×5)卷積對象的維度,降低運(yùn)算量。這是本文GoogLeNet網(wǎng)絡(luò)模型在深度和寬度上得以拓展,但參數(shù)總量比經(jīng)典VGG網(wǎng)絡(luò)成倍少的重要原因。Inception模塊接受前一層輸入,通過不同尺度和功能分支的并行處理后級聯(lián)形成該Inception模塊輸出,實(shí)現(xiàn)多尺度特征融合。
GoogLeNet主體部分由多個(gè)Inception模塊堆疊而成,隨著層次越靠近輸出預(yù)測,其學(xué)習(xí)得到的特征抽象程度越高,與標(biāo)定語義間關(guān)聯(lián)性越發(fā)突出。GoogLeNet總體網(wǎng)絡(luò)結(jié)構(gòu)如圖8所示。從圖8中看出,在靠近平均光譜圖像輸入層,采用傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)基本模塊,即卷積和池化層??紤]到GoogLeNet網(wǎng)絡(luò)層次比較深,該網(wǎng)絡(luò)增加局部歸一化層,規(guī)避因網(wǎng)絡(luò)深度導(dǎo)致的配準(zhǔn)漂移??紤]到中間層次的特征已經(jīng)具備一定程度的鑒別能力,同時(shí)考慮到因網(wǎng)絡(luò)層次過深易導(dǎo)致隨機(jī)梯度下降算法優(yōu)化過程中的梯度消失問題,GoogLeNet在主干網(wǎng)絡(luò)的旁側(cè)增加2條額外的全連接Softmax分類器(圖8中虛線框所示)。模型優(yōu)化過程中,用主干與分支分類器損失函數(shù)梯度之和更新網(wǎng)絡(luò)模型參數(shù)。測試過程中,則去掉相應(yīng)分支分類器,只用主干分類器進(jìn)行穗瘟病害預(yù)測。
圖8 GoogLeNet網(wǎng)絡(luò)結(jié)構(gòu)圖
由前述章節(jié)知,參與GoogLeNet模型訓(xùn)練的數(shù)據(jù)集包括4 480個(gè)穗瘟病害樣本,4 704個(gè)無穗瘟病害樣本。其中包括2種數(shù)據(jù)增強(qiáng)策略獲得的衍生樣本。測試數(shù)據(jù)集包括穗瘟病害正負(fù)樣本各100個(gè),用以評估模型穗瘟病害預(yù)測性能,驗(yàn)證方法的有效性。
試驗(yàn)選定“分類準(zhǔn)確率”作為評價(jià)指標(biāo)。訓(xùn)練GoogLeNet模型時(shí),采用隨機(jī)梯度下降(SGD, stochastic gradient descent)算法進(jìn)行優(yōu)化。根據(jù)測試精度最優(yōu)原則,設(shè)定動(dòng)量參數(shù)momentum為0.9,初始學(xué)習(xí)率為 (1e-5),學(xué)習(xí)率采取步進(jìn)階梯調(diào)節(jié)策略step,即每隔3 000個(gè)訓(xùn)練迭代調(diào)整一次學(xué)習(xí)率,學(xué)習(xí)率調(diào)整因子為0.96。梯度下降每次迭代更新樣本批包含樣本數(shù)量設(shè)為32,epoch數(shù)設(shè)為14。試驗(yàn)分析了模型優(yōu)化過程中隨著迭代次數(shù)增加,測試準(zhǔn)確率和損失函數(shù)的變化趨勢,同時(shí)比較了本文方法和詞袋模型方法的穗瘟識(shí)別精度[14-15]。
采用SGD算法優(yōu)化GoogLeNet模型,對迭代過程中損失函數(shù)值的變化進(jìn)行趨勢分析,對中間模型在測試數(shù)據(jù)集上進(jìn)行穗瘟預(yù)測精度測試,以分析訓(xùn)練過程模型性能的變化。圖9中藍(lán)色和橙色曲線分別表示迭代次數(shù)-損失函數(shù)值(Iterations-Loss)和迭代次數(shù)-測試準(zhǔn)確率(Iterations-Accuracy)曲線。
圖9 損失函數(shù)值及精度隨迭代次數(shù)的變化
從圖9中看出,訓(xùn)練過程中訓(xùn)練損失函數(shù)呈下降趨勢,反應(yīng)模型在優(yōu)化過程中通過小批次樣本損失函數(shù)梯度的更新,其預(yù)測損失偏差逐步變小。同時(shí),隨著迭代次數(shù)增加,模型在測試集上的預(yù)測準(zhǔn)確率呈整體上升趨勢。訓(xùn)練損失函數(shù)下降與測試集上預(yù)測精度的上升,反應(yīng)模型在不斷迭代更新參數(shù)過程中性能得以優(yōu)化。通過數(shù)據(jù)增強(qiáng)技術(shù)增加大量偽樣本,數(shù)據(jù)規(guī)模增加,數(shù)據(jù)多樣性突出等減少了深度GoogLeNet模型的過擬合,訓(xùn)練出的模型具有較好泛化性能,因此對原始測試數(shù)據(jù)有很好的預(yù)測性能。當(dāng)?shù)螖?shù)達(dá)到4000時(shí),其測試集上的最高準(zhǔn)確率達(dá)到92.0%,根據(jù)Loss變化和測試精度變化趨勢,基本達(dá)到收斂狀態(tài)。
為驗(yàn)證論文方法的有效性,進(jìn)行GoogLeNet模型與詞袋模型方法的精度比較分析。詞袋模型的主要思想見參考文獻(xiàn)[9-10],本試驗(yàn)中的參數(shù)設(shè)置與文獻(xiàn)[9]相同,即詞典大小為450,微結(jié)構(gòu)方格大小為16×16,金字塔層選擇1,SVM分類器采用卡方核函數(shù)等。詞袋模型參數(shù)基于最佳測試結(jié)果原則設(shè)定。將2種方法的試驗(yàn)比較結(jié)果列于表1中。
為驗(yàn)證論文方法的有效性,在本文采集的1 467對高光譜圖像-標(biāo)簽數(shù)據(jù)集上進(jìn)行GoogLeNet模型與詞袋模型的穗瘟預(yù)測精度比較。詞袋模型的主要思想見參考文獻(xiàn)[14-15],試驗(yàn)設(shè)置與文獻(xiàn)[15]相同,即詞典大小為450,微結(jié)構(gòu)方格大小為16×16,金字塔層選擇1,SVM分類器采用卡方核函數(shù)等。試驗(yàn)結(jié)果表明,GoogLeNet模型精度為92.0%,BoSW模型精度為78.3%。本論文提出的方法取得比BoSW高將近14個(gè)百分點(diǎn)的穗瘟預(yù)測準(zhǔn)確率。
詞袋模型通過均勻劃分穗株空間位置上的病斑微結(jié)構(gòu)高光譜曲線,利用-means聚類算法學(xué)習(xí)得到表征典型微結(jié)構(gòu)的光譜詞集合,計(jì)算二維圖像空間中典型詞的直方圖分布,來表達(dá)穗株高光譜圖像。詞袋方法中嵌入基于數(shù)據(jù)的學(xué)習(xí)思路獲得詞典,但高光譜圖像的最終特征表達(dá)采用無學(xué)習(xí)機(jī)制的簡單直方圖統(tǒng)計(jì)。這種方法在室內(nèi)光環(huán)境條件下的高光譜成像穗瘟檢測精度達(dá)96.4%[15],但在室外任意動(dòng)態(tài)自然光環(huán)境下高光譜圖像穗瘟檢測精度僅為78.3%,表明室外便攜式高光譜成像數(shù)據(jù)噪聲更強(qiáng),多樣性更突出,帶來穗瘟檢測困難。本論文提出深度卷積GoogLeNet網(wǎng)絡(luò)模型,并基于平均高光譜圖像進(jìn)行模型參數(shù)學(xué)習(xí)。平均譜圖像由沿著波段軸計(jì)算三維高光譜圖像的算術(shù)平均得到。該過程一定程度上降低了數(shù)據(jù)信噪比,且削弱了圖像可用性。但是,若不采用平滑處理,具有密集波段的光譜圖像中將含有大量冗余信息,帶來數(shù)據(jù)表達(dá)的降質(zhì)。同時(shí),三維高光譜數(shù)據(jù)量過大,不利于后續(xù)建模分析。本論文采用波段方向平均的高光譜圖像數(shù)據(jù)簡約處理,考慮了穗瘟病斑在植株上分散分布的特點(diǎn),保留了像素空間分布。為彌補(bǔ)波段方向平滑操作導(dǎo)致的數(shù)據(jù)信噪比降低,本論文進(jìn)一步采用建模能力強(qiáng)的深度卷積學(xué)習(xí)方法,強(qiáng)化后端模型學(xué)習(xí)能力并提升對噪聲的處理能力。試驗(yàn)結(jié)果表明,數(shù)據(jù)驅(qū)動(dòng)的CNN模型結(jié)合數(shù)據(jù)增強(qiáng)策略獲得足量樣本的方法更好地克服了戶外拍攝高光譜圖像進(jìn)行穗瘟檢測面臨的挑戰(zhàn),取得較好的穗瘟預(yù)測精準(zhǔn)度。
1)本研究利用GoogLeNet模型進(jìn)行穗瘟病害檢測。該方法著重解決一種更加貼近實(shí)際應(yīng)用場景的穗瘟病害檢測問題,即:室外任意光照條件下便攜拍攝穗株高光譜圖像、樣本規(guī)模達(dá)千級、樣本因數(shù)據(jù)采集條件和水稻品種多樣等因素呈現(xiàn)突出多樣性。試驗(yàn)結(jié)果表明,本文方法取得高達(dá)92.0%的穗瘟病害檢測精度,相比最新詞袋模型穗瘟檢測方法提高14個(gè)百分點(diǎn)。
2)本研究提出隨機(jī)扔棄1個(gè)波段圖像和隨機(jī)平移平均譜圖像亮度的高光譜數(shù)據(jù)增強(qiáng)技術(shù)。前者充分利用高光譜圖像連續(xù)波段間的信息冗余;后者則契合戶外高光譜采集數(shù)據(jù)的光環(huán)境動(dòng)態(tài)特點(diǎn),增強(qiáng)模型對光照條件的自適應(yīng)性。2種數(shù)據(jù)增強(qiáng)策略共同解決高光譜標(biāo)注圖像采集昂貴、費(fèi)時(shí)而帶來的樣本規(guī)模不夠的問題。
本文雖然開創(chuàng)性地將通用視覺領(lǐng)域的深度卷積神經(jīng)網(wǎng)絡(luò)用于穗瘟病害檢測并結(jié)合領(lǐng)域知識(shí)提出數(shù)據(jù)增強(qiáng)策略,取得較好結(jié)果,但有如下問題需要在后續(xù)研究中解決:第一,考慮到高光譜圖像的三維立體結(jié)構(gòu),應(yīng)考慮用三維卷積和池化操作代替GoogLeNet中二維圖像卷積和池化操作,在波段維逐層提取高層抽象特征,充分利用波段細(xì)節(jié)信息進(jìn)行穗瘟病害檢測;第二,考慮到穗瘟抗性鑒定的需要,應(yīng)將此方法擴(kuò)展應(yīng)用于更加精細(xì)的定級分析當(dāng)中。
[1] 吳降星. 水稻病蟲識(shí)別與防治圖譜[M]. 杭州:浙江科學(xué)技術(shù)出版社,2006:1-104.
[2] 吳迪,曹芳,張浩,等. 基于可見-近紅外光譜技術(shù)的水稻穗頸瘟染病程度分級方法研究[J]. 光譜學(xué)與光譜分析,2009,29(12):3295-3299.
Wu Di, Cao Fang, Zhang Hao, et al. Study on disease level classification of rice panicle blast based on visible and near infrared spectroscopy [J]. Spectroscopy and Spectral Analysis, 2009, 29(12): 3295-3299. (in Chinese with English abstract)
[3] 劉立波. 基于圖像的水稻葉部病害診斷技術(shù)研究[D]. 北京:中國農(nóng)業(yè)科學(xué)院,2010.
Liu Libo. Research of Diagnostic Technologies for Rice Leaf Diseases Based on Image[D]. Beijing: Chinese Academy of Agricultural Sciences, 2010. (in Chinese with English abstract)
[4] 劉立波,周國民. 基于多層感知神經(jīng)網(wǎng)絡(luò)的水稻葉瘟病識(shí)別方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2009,25(13):213-217.
Liu Libo, Zhou Guomin. Identification method of rice leaf blast using multilayer perception neural network[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2009, 25(13): 213-217. (in Chinese with English abstract)
[5] 邱靖,吳瑞武,黃雁鴻,等. 混沌理論與BP網(wǎng)絡(luò)融合的稻瘟病預(yù)測模型[J]. 農(nóng)業(yè)工程學(xué)報(bào),2010,26(14):88-93.
Qiu Jing, Wu Ruiwu, Huang Yanhong, et al. Forecasting model on rice blast based on BP neural network and chaos theory[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2010, 26(14): 88-93. (in Chinese with English abstract)
[6] 譚峰,才巧玲,孫雪成,等. 基于拉曼光譜分析寒地水稻葉瘟病害植株特征[J]. 農(nóng)業(yè)工程學(xué)報(bào),2015,31(4):191-196.
Tan Feng, Cai Qiaoling, Sun Xuecheng, et al. Analyzing plant characteristics of rice suffering leaf blast in cold area based on Raman spectrum[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(4): 191-196. (in Chinese with English abstract)
[7] 馮雷,柴榮耀,孫光明,等. 基于多光譜成像技術(shù)的水稻葉瘟檢測分級方法研究[J]. 光譜學(xué)與光譜分析,2009,29(10):2730-2733.
Feng Lei, Chai Rongyao, Sun Guangming, et al. Identification and classification of rice leaf blast based on multi spectral imaging sensor[J]. Spectroscopy and Spectral Analysis, 2009, 29(10): 2730-2733. (in Chinese with English abstract)
[8] 張浩,姚旭國,毛雪琴,等. 基于多光譜圖像的水稻穗頸瘟嚴(yán)重度識(shí)別研究[J]. 湖南農(nóng)業(yè)科學(xué),2009(1):65-68. Zhang Hao, Yao Xuguo, Mao Xueqin, et al. Measurement of Rice Neck Blasts Severity by Using Multi-spectral Imagine[J]. Hunan Agricultural Sciences, 2009(1): 65-68. (in Chinese with English abstract)
[9] Qi Long, Ma Xu. Rice Blast Detection Using multispectral imaging sensor and Support Vector Machine[C]// American Society of Agricultural and Biological Engineers Annual International Meeting, 2009: 1489-1496.
[10] 齊龍,馬旭,梁柏,等. 稻瘟病監(jiān)測預(yù)測方法研究現(xiàn)狀及流行風(fēng)險(xiǎn)評估體系構(gòu)建初探[J]. 中國農(nóng)學(xué)通報(bào),2011,27(33):213-216.
Qi Long, Ma Xu, Liang Bai, et al. Research on present status of rice blast monitoring and prediction methods and preliminary establishment of disease epidemic Risk Assessment System[J]. Chinese Agricultural Science Bulletin, 2011, 27(33): 213-216. (in Chinese with English abstract)
[11] 楊燕. 基于高光譜成像技術(shù)的水稻稻瘟病診斷關(guān)鍵技術(shù)研究[D]. 杭州:浙江大學(xué),2012.
Yang Yan. The Key Diagnosis Technology of Rice Blast Based on Hyper-spectral Image[D]. Hangzhou: Zhejiang University, 2012. (in Chinese with English abstract)
[12] Kobayashi T, Sasahara M, Kanda E, et al. Assessment of rice panicle blast disease using airborne hyperspectral imagery[J]. The Open Agriculture Journal, 2016, 10: 28-34.
[13] 鄭志雄,齊龍,馬旭,等. 基于高光譜成像技術(shù)的水稻葉瘟病病害程度分級方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2013,29(19):138-144.
Zheng Zhixiong, Qi Long, Ma Xu, et al. Grading method of rice leaf blast using hyperspectral imaging technology[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2013, 29(19): 138-144. (in Chinese with English abstract)
[14] 黃雙萍,齊龍,馬旭,等. 基于高光譜成像的水稻穗瘟病害程度分級方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2015,31(1):212-219.
Huang Shuangping, Qi Long, Ma Xu, et al. Grading method of rice panicle blast severity based on hyperspectral image[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(1): 212-219. (in Chinese with English abstract)
[15] Huang Shuangping, Qi Long, Ma Xu, et al. Hyperspectral image analysis based on BoSW model for rice panicle blast grading[J]. Computers and Electronics in Agriculture, 2015, 118: 167-178.
[16] 袁建清,蘇中濱,賈銀江,等. 基于高光譜成像的寒地水稻葉瘟病與缺氮識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2016,32(13):155-160.
Yuan Jianqing, Su Zhongbin, Jia Yinjiang, et al. Identification of rice leaf blast and nitrogen deficiency in cold region using hyperspectral imaging[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(13): 155-160. (in Chinese with English abstract)
[17] Lecun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.
[18] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[C]// Proceedings of the 25th International Conference on Neural Information Processing Systems, 2012: 1097-1105.
[19] Zeiler M D, Fergus R. Visualizing and understanding convolutional networks[C]. European Conference on Computer Vision, 2014.
[20] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[C]. International conference on learning representations, 2015.
[21] Szegedy C, Liu W, Jia Y Q, et al. Going deeper with convolutions[C]// IEEE Conference on Computer Vision and Pattern Recognition, 2015.
[22] Kalchbrenner N, Grefenstette E, Blunsom P A convolutional neural network for modeling sentences[C]//Association for Computational Linguistics, 2014, 1: 655-665.
[23] Kim Y. Convolutional neural networks for sentence classification[C]. Conference on Empirical Methods on Natural Language Processing, 2014.
[24] Palaz D, Magimai M, Collobert R. Analysis of CNN-based speech recognition system using raw speech as input[C]// Proceedings of Interspeech, 2015: 11-15.
[25] Qian Y, Bi M, Tan T. Very deep convolutional neural networks for noise robust speech recognition[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2016, 24(12): 2263-2276.
[26] He K, Wang Y, Hopcroft J. A powerful generative model using random weights for the deep image representation[C]. Advances in Neural Information Processing Systems, 2015.
[27] Li D, Huang J, Li Y, et al. Weakly supervised object localization with progressive domain adaptation[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2016: 3512-3520.
[28] Shen W, Liu R. Learning residual images for face attribute manipulation[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2016.
[29] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2015.
[30] International Rice Research Institute (IRRI), Standard Evaluation System for Rice (SES)[Z]. Philippines: Rice Science for a better world, 2002.
Rice panicle blast identification method based on deep convolution neural network
Huang Shuangping1, Sun Chao2, Qi Long2※, Ma Xu2, Wang Wenjuan3
(1.510641,; 2.510642,; 3.510640,)
Rice panicle blast is one of the most serious diseases in the period of rice growth.To effectively identify the rice panicle blast is one of the important prerequisites for rice disease controlling. In this study, a novel identification method for panicle blast based on hyperspectral imaging technology is proposed. The method applies a deep convolutional neural network model GoogLeNet to learn the representation of hyperspectral image data and the binary panicle blast/non-blast classifier is trained as well in a unified framework. The GoogLeNet is 22-layer deep convolutional neural network, which repeatedly stacks basic Inception module to deepen and widen the network to enhance its representation power. The core Inception architecture uses a series of kernel filters of different sizes in order to handle multiple scales macro structure and all of filter parameters are learned. In our GoogLeNet model for the panicle blast identification, the filter sizes are set to 1×1, 3×3 and 5×5 based on the consideration of lesion microstructure size rendered on the rice spike. In order to reduce the expensive computing cost of 3×3 and 5×5 convolutions, an extra 1×1 convolution is used to reduce the map dimension in each branch of Inception module before 3×3 and 5×5 convolutions. Further, all the output filter banks are concatenated into a single output vector forming the input of the next stage. As these Inception modules are stacked on top of each other, features of higher abstraction are captured by higher layers. Finally, an average pooling layer plus a fully connected layer is stacked on the last Inception module and a softmax based classifier is used to predict the panicle blast. From the statement, feature and classifier learning are seamlessly integrated in a unified framework and both of them are trained jointly under the supervision of blast label, which makes the two reach the harmoniously optimal state and helps to improve the blast prediction performance. To verify the acclaim of the proposed GoogLeNet method, a total of 1 467 fresh rice panicles covering more than 71 cultivars are collected from an experimental field for the performance evaluation. The experimental field is located in regional testing area for the evaluation of rice cultivars in Guangdong Province. Therefore, all the rice plants in this area are naturally inoculated as the area is a typical source of rice blast fungus. The hyperspectral images of all the rice panicles are acquired using outdoor portable GaiaField-F-V10 imaging spectrometer. In consideration that the spatial resolution is large, we coarsely crop the background area. Then the average spectrum images are computed, acting as the original input of the deep GoogleNet network. Two-class label of hyperspectral image sample is determined by plant protection expert according to the description of blast infection. In our experiments, totally 200 samples are randomly selected for test, with 100 for infected and non-infected class respectively. The rest are for training. When the training samples are scarce, deep GoogLeNet model is easily trapped in the overfitting, worsening the panicle blast prediction performance. To this end, we proposed 2 data augmentation methods, i.e., the method of randomly abandoning single band and the method of randomly translating luminance of average hyperspectral image. The combination of 2 methods can produce hundreds of thousands of data sample pairs. The rich and diverse samples are used to train the deep convolutional model to reduce the overfitting and improve the prediction results. Experimental results show that the proposed GoogLeNet based method achieves a high classification accuracy of 92.0%. This result is much better than the recent state-of-art BoSW (bag of spectra words) method, demonstrating the proposed GoogLeNet method together with the 2 data augmentation techniques solves the panicle blast identification problem under the situation of outdoor hyperspectral image collection. Moreover, the proposed GoogleNet BoSW based method demonstrates strong robustness to rice cultivars, which is vital for the wide and practical application. This research improves the classification accuracy of rice panicle blast identification and overcomes the difficulty caused by the hyperspectral image collection under the natural light outdoor. This work will advance the research of panicle blast identification to the practical application of production with a big step.
diseases; models; image processing; hyperspectral image; panicle blast identification; deep convolutional neural networks; GoogLeNet
10.11975/j.issn.1002-6819.2017.20.021
S24
A
1002-6819(2017)-20-0169-08
2017-05-02
2017-09-15
廣東省科技計(jì)劃公益研究與能力建設(shè)專項(xiàng)(2014A020208112);現(xiàn)代農(nóng)業(yè)產(chǎn)業(yè)技術(shù)體系建設(shè)專項(xiàng)資金資助(CASRS-01-33)資助
黃雙萍,女,湖南邵陽人,副教授,博士,主要從事農(nóng)業(yè)智能信息處理和數(shù)據(jù)挖掘、計(jì)算機(jī)視覺等方面的研究。Email:eehsp@scut.edu.cn。中國農(nóng)業(yè)工程學(xué)會(huì)高級會(huì)員:黃雙萍(E041200596S)。
※通信作者:齊龍,男,黑龍江哈爾濱人,研究員,博士,主要從事現(xiàn)代農(nóng)業(yè)技術(shù)與智能裝備的研究。Email:qilong@scau.edu.cn
黃雙萍,孫 超,齊 龍,馬 旭,汪文娟. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的水稻穗瘟病檢測方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2017,33(20):169-176. doi:10.11975/j.issn.1002-6819.2017.20.021 http://www.tcsae.org
Huang Shuangping, Sun Chao, Qi Long, Ma Xu, Wang Wenjuan. Rice panicle blast identification method based on deep convolution neural network[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(20): 169-176. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2017.20.021 http://www.tcsae.org