劉莫塵 許榮浩 李法德 宋占華 閆銀發(fā) 韓守強
(1.山東農(nóng)業(yè)大學機械與電子工程學院, 泰安 271018; 2.山東省園藝機械與裝備重點實驗室,泰安 271018)
為提高蠶繭質(zhì)量,我國推廣使用方格蔟用于蠶蟲上蔟,方格蔟具有孔格數(shù)目多、結(jié)構(gòu)合理、吸水性好、保存方便等特點,但我國的方格蔟多為紙板方格蔟,并且紙質(zhì)質(zhì)量良莠不齊,方格蔟在使用過程中極易發(fā)生扭曲變形,造成方格分布不規(guī)則,當采繭機械對變形的方格蔟進行蠶繭采摘時,由于擠壓會直接導致方格蔟破損,因此我國對蠶繭的采摘主要以人工為主,效率低下。我國雖然已有多款蠶繭采摘設(shè)備,但是,這些蠶繭采摘設(shè)備智能化水平較低,采繭過程中,對變形的方格蔟會造成二次損害[1],使其失去使用價值。
國外蠶繭采繭機報道較少,只有日本一直推行著省力化蠶繭技術(shù),其采繭機的研制也由來已久,并發(fā)展了多種類型的采繭機[2]。日本的方格蔟均為竹制方格蔟和硬紙板方格蔟,框架比較堅固,不易發(fā)生變形,利于機構(gòu)采收。而我國方格蔟多為紙板,且質(zhì)量差,易發(fā)生變形損壞,日本的采繭機械并不適用于我國方格蔟。為改善我國蠶繭采摘設(shè)備落后,易損傷方格蔟的現(xiàn)狀,研制一種適用于我國紙制方格蔟的蠶繭采摘設(shè)備極為重要。
機器視覺作為農(nóng)業(yè)機器人外部傳感器最大信息源,是農(nóng)業(yè)機器人研究領(lǐng)域的關(guān)鍵技術(shù)之一。但由于農(nóng)業(yè)對象的多樣性及作業(yè)環(huán)境的復雜性,尚未有一種通用的目標識別算法[3]。近年來,國內(nèi)學者通過機器視覺對采摘后的蠶繭進行分類,金航峰[4]通過光譜和高光譜圖像技術(shù)對蠶繭品質(zhì)的無損檢測進行了研究。宋亞杰等[5]通過采集單個蠶繭圖像并對其進行處理,根據(jù)數(shù)學形態(tài)學的方法,判斷蠶繭的質(zhì)量。周志宇等[6]對單個蠶繭圖像進行采集處理,將蠶繭看成橢圓形從而求其表面積。甘勇[7]利用光電技術(shù)和圖像處理技術(shù)計算蠶繭干繭繭殼厚度。喬樂領(lǐng)[8]通過圖像處理技術(shù)提出了一種對采摘后的蠶繭進行篩選計數(shù)的系統(tǒng)。陳浩等[9]通過圖像處理對蠶繭表面污斑面積進行自動檢測,得到了一種智能化的選繭輔助檢驗方法。
綜上所述,目前并未有將機器視覺應(yīng)用于蠶繭采摘機械中的相關(guān)研究。
為提高蠶繭采摘設(shè)備的智能化水平,減少采繭設(shè)備對方格蔟的損傷,探索將機器視覺直接應(yīng)用于蠶繭采摘中,對方格蔟中的蠶繭進行精確定位采摘,解決變形方格蔟蠶繭無法使用機械采繭的難題,本文提出一種基于顏色與面積特征的方格蔟蠶繭分割定位算法,直接對方格蔟與其中的蠶繭進行分割,并進行視覺測量和蠶繭定位,消除方格蔟變形對蠶繭定位的影響。
方格蔟由山東農(nóng)業(yè)大學馬莊蠶桑實驗站提供,尺寸為540 mm×390 mm,采用Omnivision 公司的ov5647型攝像頭,視場角為160°。在室內(nèi)自然光下拍攝整張方格蔟圖像時,攝像頭位于方格蔟中心上方75 cm處,圖像分辨率為640像素×320像素。用于圖像處理的硬件平臺為Raspberry Pi 3b,Raspbian操作系統(tǒng),ARM Cortex-A53 1.2 GHz處理器,軟件為Python2.7和OpenCV3.2機器視覺庫。蠶繭采摘設(shè)備為直角坐標式方格蔟自動采繭機,如圖1所示。X軸導軌為2個由傳動軸連接的同步導軌,長1 m;Y軸導軌帶有電磁采摘器,長1 m,于X軸導軌上運動。電磁采摘器由一個行程60 mm、單次往返時間0.5 s的電磁鐵和一個采繭頭組成,用于采摘蠶繭。X軸導軌、Y軸導軌和電磁采摘器共同組成直角坐標式蠶繭采摘機構(gòu)。
圖1 直角坐標式自動采繭機Fig.1 Cartesian coordinate automatic cocoon harvestor1.機架 2.工作臺 3.X軸導軌 4.X軸步進電動機 5.傳動軸6.攝像頭 7.Y軸導軌 8.Y軸步進電動機 9.電磁采摘器 10.蠶繭方格蔟 11.方格蔟夾持裝置
Raspberry Pi 3b控制攝像頭采集方格蔟圖像,并對圖像中方格蔟蠶繭進行分割和視覺測量定位,生成方格蔟中蠶繭中心點坐標,進而控制X軸、Y軸步進電動機將電磁采摘器定位到蠶繭位置,控制電磁采摘器接通電源,實現(xiàn)電磁采摘器對蠶繭的定位采摘,然后切斷電磁采摘器電源,釋放電磁采摘器準備下一個蠶繭的采摘。其工作流程圖如圖2所示。
圖2 直角坐標式自動采繭機工作流程圖Fig.2 Flow chart of Cartesian coordinate automatic cocoon harvestor
因為需要對蠶繭進行視覺測量定位,而蠶繭在圖像上的坐標與蠶繭在笛卡爾空間的三維坐標關(guān)系由攝像機成像幾何模型決定,該幾何模型的參數(shù)稱為攝像機參數(shù),求取這些幾何參數(shù)需要通過攝像機標定實現(xiàn)[10]。攝像機相對于世界坐標系的位置及標定精度直接影響著機器視覺的定位精度。
由于攝像機實際拍攝的圖像會存在畸變[11],而在攝像機鏡頭具有大畸變時,如果忽略畸變而求取攝像機的內(nèi)外參數(shù),必然會因為引入畸變系數(shù)而使求得的參數(shù)存在很大誤差。因此可以先進行畸變矯正再標定其他參數(shù)。利用圖像空間的Brown畸變模型的畸變矯正方法[12]對圖像進行矯正,再在無畸變的圖像上進行攝像機其他線性參數(shù)的標定,這樣的標定不需要在線性參數(shù)與畸變參數(shù)之間進行反復標記,計算量較小,效率較高[13]。
攝像機鏡頭的畸變包括徑向畸變和切向畸變,Brown畸變模型考慮了徑向畸變和切向畸變。圖像空間下的Brown畸變模型為
(1)
其中
(ud,vd)=(u,v)-(u0,v0)
(u′d,v′d)=(u′,v′)-(u0,v0)
式中(u′d,v′d)——消除畸變后相對參考點的圖像坐標
(ud,vd)——畸變圖像相對參考點的圖像坐標
k1——2階徑向畸變系數(shù)
k2——4階徑向畸變系數(shù)
k3——6階徑向畸變系數(shù)
p1、p2——切向畸變系數(shù)
r——圖像到參考點的距離
(u,v)——實際圖像坐標
(u0,v0)——光軸中心點圖像坐標
(u′,v′)——消除畸變后的圖像坐標
圖3a為攝像機采集的原始圖像,經(jīng)過矯正后的圖像如圖3b所示,減小了徑向畸變對視覺測量的影響。
圖3 畸變矯正Fig.3 Distortion rectifying
3.1.1圖像預處理
圖像預處理將畸變矯正后的圖像灰度化。在數(shù)字圖像處理中一般先將各種格式的圖像轉(zhuǎn)換成灰度圖像,以減少處理圖像的數(shù)據(jù)量[14]?;叶葓D像的描述與彩色圖像一樣仍然反映了整幅圖像的整體和局部的色度和亮度等級的分布和特征。假設(shè)f(x,y)代表一幅圖像,Y(x,y)表示點(x,y)處的灰度,R(x,y)表示點(x,y)處的R分量值,G(x,y)表示點(x,y)處的G分量值,B(x,y)表示點(x,y)處的B分量值,則點(x,y)處的灰度為
Y(x,y)=0.299R(x,y)+0.587G(x,y)+0.114B(x,y)
(2)
畸變矯正后的圖像如圖4a所示,經(jīng)過灰度變換后的圖像如圖4b所示。
圖4 圖像預處理Fig.4 Images preprocessing
3.1.2圖像Mean Shift聚類
Mean Shift是一種基于非參數(shù)核函數(shù)的密度估計算法[15],將Mean Shift算法應(yīng)用于圖像分割時,灰度圖像如圖5a所示,Mean Shift聚類后圖像如圖5b所示。
圖5 Mean Shift聚類Fig.5 Mean Shift clustering
假設(shè)圖像由像素x組成,取核函數(shù)為K(s),定義Mean Shift偏移向量為
(3)
式中w(s)——權(quán)值函數(shù)
S——x的子集
對圖5a灰度圖像進行Mean Shift聚類后,結(jié)果如圖5b所示,可以看出Mean Shift聚類突出了蠶繭區(qū)域,保留了蠶繭的基本特征,并消除了光照及圖像背景對蠶繭圖像的影響。
3.1.3蠶繭與方格蔟閾值分割和形態(tài)學處理
對于暗背景上由亮物體組成的圖像f(x,y),從背景提取目標的方法是選取閾值T來分離這2類圖像[16]。滿足f(x,y)≥T的任何圖像點被稱為物體點,其他的點稱為背景點(在亮背景上的暗物體也一樣)。閾值處理后的圖像被定義為
(4)
式中a——目標像素值
b——背景像素值
為了便于處理,使分割后的圖像以白色為目標,黑色為背景,故令a=1(白),b=0(黑),T為常數(shù)[17]。選取T=135,對Mean Shift聚類后的灰度圖像進行閾值分割,結(jié)果如圖6a所示。
圖6 圖像閾值分割及開運算結(jié)果Fig.6 Threshold segmentation and opening operation
對蠶繭圖像進行初步閾值分割后,刪除了方格蔟邊框及對蠶繭產(chǎn)生影響的其他區(qū)域,只保留了蠶繭區(qū)域。因蠶繭區(qū)域灰度存在不同,容易對灰度較小的區(qū)域造成過分割,故對分割后的二值圖像進行一系列形態(tài)學操作修飾,以刪除過分割的部分,保持蠶繭的基本形狀。圖像的形態(tài)學操作是由一組形態(tài)學的代數(shù)運算子組成的[18],基本操作包括膨脹、腐蝕、開運算和閉運算,其中腐蝕和膨脹是兩種最基本也是最重要的形態(tài)學運算,開運算與閉運算都是由膨脹和腐蝕復合而成[19]。本文中,首先對圖像進行閾值分割,然后對分割后的二值圖像進行開運算,去除噪點并使分割后的蠶繭保持它們的基本形狀[20]。
開運算是先腐蝕后膨脹,使用結(jié)構(gòu)元素S對A進行開運算,記作A°S,可表示為
A°S=(A?S)⊕S
(5)
式中A——待處理的圖像區(qū)域
開運算先用S對A進行簡單的腐蝕操作,然后用S對得到的結(jié)果進行膨脹操作。
將像素在圖像中的整型位置坐標用z=(z1,z2)表示,z∈Z,其中Z為二元整數(shù)有序偶集合。將一幅圖像或者圖像中1個感興趣的區(qū)域稱為集合,用大寫字母A、B、C等表示。
對于Z上的集合A和S,使用S對A進行膨脹,記作
A⊕S={()z∩A≠?}
(6)
對于Z2上的集合A和S,使用S對A進行腐蝕,記作
A?S={z|(S)z?A}
(7)
開運算后的圖像如圖6b所示。
圖7 圖像面積特征提取結(jié)果Fig.7 Feature extraction of image area
3.1.4基于面積閾值的蠶繭提取
對圖像進行開運算處理后,仍有許多像素以噪聲的形式存在,主要是目標對象或蠶繭部分被誤判為背景而形成的[22],如圖7a所示。選擇面積法濾波[23]提取蠶繭,一個連通域的面積定義為連通域中像素的數(shù)目,設(shè)定面積閾值(m1,m2),m2>m1,計算蠶繭區(qū)所有白色連通域的面積M,則蠶繭面積與噪點面積關(guān)系為
(8)
為了更好地消除噪點對蠶繭的影響,經(jīng)過多次試驗,面積閾值選取(100,600)時,對蠶繭提取效果最好,經(jīng)過面積法的提取,可以得到提取后的蠶繭圖像及各蠶繭連通域的中心點如圖7b所示。
3.2.1攝像機標定方法
視覺系統(tǒng)涉及3個坐標系:世界坐標系(Xw,Yw,Zw),攝像機坐標系(Xc,Yc,Zc),圖像坐標系(u,v)[24]。方格蔟固定在工作臺上,方格蔟垂直方向Z的值固定不變,因此蠶繭在方格蔟內(nèi)水平面的位置只由X、Y坐標決定,可采用單目二維視覺系統(tǒng)。對于單目二維視距測量,其攝像機垂直于工作臺平面安裝,攝像機的位置和內(nèi)外參數(shù)[25]固定。采集原理如圖8所示。
圖8 單目二維視覺測量坐標系Fig.8 Monocular two-dimensional vision measurement coordinate system
世界坐標到圖像坐標的轉(zhuǎn)換關(guān)系[26]為
(9)
其中
式中n——Xw軸在攝像機坐標系OcXcYcZc的方向向量
o——Yw軸在攝像機坐標系OcXcYcZc的方向向量
a——Zw軸在攝像機坐標系OcXcYcZc的方向向量
t——OwXwYwZw的坐標原點在攝像機坐標系OcXcYcZc中的位置
對于圖8所示的單目二維視覺測量系統(tǒng),有
式中d——光軸中心點Oc到景物中心點Ow距離
將R、t代入式(9),化簡后得
(10)
式中f——攝像機焦距
內(nèi)參數(shù)采用四參數(shù)攝像機模型,對于工作平面上的兩點P1(xw1,yw1,0)和P2(xw2,yw2,0),由式(10)可得P1與P2兩點圖像坐標之間的關(guān)系為
(11)
式中kx——X軸方向的放大系數(shù)
ky——Y軸方向的放大系數(shù)
(u1,v1)——點P1的圖像坐標
(u2,v2)——點P2的圖像坐標
kxd與kyd的計算公式為
(12)
其中
式中kxd、kyd——標定的攝像機參數(shù)
因此理論上只需確定兩點在世界坐標中的距離和在圖像坐標中對應(yīng)的距離,就可以通過式(12)計算攝像機參數(shù)。
為了減小攝像機標定參數(shù)的誤差,得到更加精確的攝像機參數(shù),可采用取多個點求平均值的方法,來確定攝像機標定參數(shù)。方法如下:采集i組點,每組點包含2個坐標點Pi1和Pi2,其世界坐標為(xi1,yi1,0)和(xi2,yi2,0),對應(yīng)的圖像坐標為(ui1,vi1)和(ui2,vi2),則可由式(12)得到i個kxd和i個kyd,則第i個kxd記作kxdi,第i個kyd記作kydi。則kxd、kyd的平均值計算公式為
(13)
3.2.2蠶繭視覺測量與定位算法
設(shè)第k個蠶繭中心點圖像坐標為Cck(uk,vk),世界坐標原點所對應(yīng)的圖像坐標為Oc(u0,v0),則第k個蠶繭的世界坐標Cwk(xwk,ywk)為
(14)
采用特征點的實際坐標與標定坐標之間的歐氏距離作為標定偏差D[27]。則標定偏差D為
(15)
式中(Xi,Yi)——實際坐標值
(xi,yi)——標定坐標值
圖像坐標系以圖像左上角第一個像素點作為原點,世界坐標系則以圖像左上角第一個蠶繭的中心點為原點,在方格蔟上尋找10個蠶繭中心點作為已知點,使用游標卡尺分別測出10個已知蠶繭中心點的空間坐標(Xi,Yi)(i=1,2,…,10)。已知10個蠶繭中心點在圖像上的坐標(ui,vi),通過式(14)分別計算得到10個已知點的標定坐標(xi,yi),通過式(15)分別計算10個蠶繭中心點標定坐標與世界坐標的標定偏差。得到的蠶繭質(zhì)心位置坐標信息如表1所示。由表1可知,蠶繭質(zhì)心位置坐標標定偏差最大為6.0 mm。
表1 蠶繭質(zhì)心的位置坐標信息Tab.1 Location information of centroid of cocoon
通過基于機器視覺的直角坐標式方格蔟自動采繭機對算法進行試驗測試,采繭機如圖9所示。
圖9 基于機器視覺的直角坐標式方格蔟自動采繭機樣機Fig.9 Mock-up of Cartesian coordinate automatic cocoon harvestor based on machine vision
隨機選取10張方格蔟,使用基于顏色與面積特征的方格蔟蠶繭分割算法對方格蔟內(nèi)的蠶繭進行識別、定位和采摘試驗,并對試驗數(shù)據(jù)進行整理。
使用檢測正確率[28]衡量蠶繭被識別的程度。檢測正確率為單張方格蔟中被識別蠶繭數(shù)與總蠶繭數(shù)之比,計算公式為
(16)
式中Rs——檢測正確率
Ns——單張方格蔟中被識別的蠶繭數(shù)
Nc——單張方格蔟中的總蠶繭數(shù)
檢測統(tǒng)計結(jié)果如表2所示,蠶繭檢測正確率為96.88%,滿足蠶繭采摘對蠶繭檢測正確率的要求。
表2 蠶繭檢測正確率Tab.2 Correct ratio of cocoon detection
使用整體最大偏差衡量定位精度,整體最大偏差定義為所有方格蔟標定偏差的最大值
Er=max(er1,er2,…,erN)
(17)
式中Er——整體最大偏差
N——方格蔟個數(shù)
er——某張方格蔟的最大定位偏差
本文隨機選取10張方格蔟,故N=10。計算統(tǒng)計結(jié)果如表3所示,10張方格蔟中蠶繭定位坐標的最大偏差為6.0 mm,滿足蠶繭采摘定位精度的要求。
對選取的10張方格蔟蠶繭進行采摘試驗,試驗過程中,樣機運行平穩(wěn),能夠有效地完成蠶繭定位采摘。試驗結(jié)果如表4所示,效果如圖10所示。
表3 整體最大偏差Tab.3 Overall maximum deviation
在蠶繭采摘過程中,對蠶繭檢測正確率可達96.88%,蠶繭位置坐標最大定位誤差為6.0 mm,滿足蠶繭采摘精度要求。采摘一張方格蔟所需時間小于等于50 s,比人工采繭效率提高4~5倍。
圖10 蠶繭采摘效果圖Fig.10 Picking effect images
(1) 提出的基于顏色與面積特征的方格蔟蠶繭分割算法,消除方格蔟變形對蠶繭定位的影響。通過Brown畸變模型對采集到的原始圖像進行畸變矯正,然后采用Mean Shift聚類、閾值分割、形態(tài)學處理及面積閾值法對矯正后的圖像進行處理,對復雜背景下的方格蔟和蠶繭進行有效分割,滿足將蠶繭從變形方格蔟中分割的要求。
(2) 提出的蠶繭視覺測量及定位算法,通過攝像機標定及取多個點求平均值方法,對蠶繭進行定位,定位準確,定位誤差小于6.0 mm,可用于蠶繭采摘機械對蠶繭進行定點采摘。
(3) 隨機選取 10張方格蔟,通過基于機器視覺的直角坐標式方格蔟自動采繭機對方格蔟中的蠶繭進行分割與定位試驗,蠶繭分割檢測正確率為96.88%,蠶繭位置坐標最大定位誤差為6.0 mm,滿足蠶繭采摘機械對蠶繭進行定位采摘的精度要求。
1陳超科. 方格蔟自動采繭機的研制[D]. 泰安:山東農(nóng)業(yè)大學,2017.
2川名茂, 沈云岳. 全自動選繭機的開發(fā)[J]. 絲綢,1988(11): 44-45.
3蔡健榮,周小軍,李玉良,等. 基于機器視覺自然場景下成熟柑橘識別[J]. 農(nóng)業(yè)工程學報,2008, 24(1): 175-178.
CAI Jianrong, ZHOU Xiaojun, LI Yuliang, et al. Recognition of mature orange in natural scene based on machine vision[J]. Transactions of the CSAE, 2008, 24(1): 175-178.(in Chinese)
4金航峰. 基于光譜和高光譜圖像技術(shù)的蠶繭品質(zhì)無損檢測研究[D]. 杭州:浙江大學,2013.
5宋亞杰,謝守勇,冉瑞龍. 機器視覺技術(shù)在蠶繭無損檢測中的應(yīng)用研究[J]. 現(xiàn)代農(nóng)業(yè)裝備,2006(9):48-51.
SONG Yajie, XIE Shouyong, RAN Ruilong. Applied research on machine vision technology in non-destructive test of cocoon [J]. Modern Agricultural Equipments, 2006(9): 48-51. (in Chinese)
6周志宇,劉喜昂,楊東鶴. 機器視覺在蠶繭表面積測量中的應(yīng)用[J]. 紡織學報,2006, 27(12): 29-31.
ZHOU Zhiyu, LIU Xi’ang, YANG Donghe. Application of machine vision in measurement of cocoon superficial area[J]. Journal of Textile Research, 2006, 27(12): 29-31. (in Chinese)
7甘勇.基于圖像處理技術(shù)的干繭繭殼厚度計算方法[J]. 絲綢,2006(11):46-48.
GAN Yong. Calculation method for shell thickness of dried cocoon based on image processing[J]. Journal of Silk, 2006(11): 46-48. (in Chinese)
8喬樂領(lǐng). 基于圖像處理的蠶繭自動計數(shù)系統(tǒng)的研究[D]. 杭州:浙江理工大學,2013.
9陳浩,楊崢,劉霞,等. 基于MATLAB的桑蠶繭選繭輔助檢驗方法的研究[J]. 絲綢,2016(3): 32-36.
CHEN Hao, YANG Zheng, LIU Xia, et al. Study on auxiliary testing method for mulberry silkworm cocoon sorting based on MATLAB[J]. Journal of Silk, 2016(3): 32-36. (in Chinese)
10馬頌德,張正友. 計算機視覺——計算理論與算法基礎(chǔ)[M]. 北京:科學出版社,1998:52.
11CHATTERJEE C, ROYCHOWDHURY V P. Algorithms for coplanar camera calibration[J]. Machine Vision and Applications, 2000, 12(2): 84-97.
12高瞻宇,顧營迎,劉宇航,等. 采用簡化Brown模型及改進BFGS法的相機自標定[J]. 光學精密工程,2017, 25(9):2532-2540.
GAO Zhanyu, GU Yingying, LIU Yuhang,et al. Self-calibration based on simplified Brown non-linear camera model and modified BFGS algorithm[J]. Optics and Precision Engineering, 2017,25(9): 2532-2540. (in Chinese)
13XU D, LI Y F, TAN M. A method for calibration cameras with large distortion in lens[J]. Optical Engineering, 2006, 45(4): 0436021-0436028.
14呂朝輝,陳曉光,吳文福,等.基于雙目立體視覺的秧苗直立度自動測定系統(tǒng)[J]. 農(nóng)業(yè)機械學報,2002, 33(1): 60-62.
Lü Chaohui, CHEN Xiaoguang, WU Wenfu, et al. Automatic measuring system of seeding perpendicularity based on bonocular stereo vision[J]. Transactions of the Chinese Society for Agricultural Machinery, 2002, 33(1): 60-62. (in Chinese)
15CONMANICIU D, MEER P. Mean shift: a robust approach toward feature space analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(5): 603-619.
16胡煉,羅錫文,曾山,等. 基于機器視覺的株間機械除草裝置的作物是別與定位方法[J]. 農(nóng)業(yè)工程學報,2013,29(10): 12-18.
HU Lian, LUO Xiwen, ZENG Shan, et al. Plant recongnition and localization for intra-row mechanical weeding device based on machine vision[J]. Transactions of the CSAE, 2013, 29(10): 12-18. (in Chinese)
17丁為民,趙思琪,趙三秦,等. 基于機器視覺的果樹樹冠體積測量方法研究[J/OL]. 農(nóng)業(yè)機械學報,2016, 47(6): 1-10. http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?flag=1&file_no=20160601&journal_id=jcsam. DIO:10.6041/j.issn.1000-1298.2016.06.001.
DING Weimin, ZHAO Siqi, ZHAO Sanqin, et all. Measurement methods of fruit tree canopy volume based on machine vision[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(6): 1-10. (in Chinese)
18MARAGOS P. Differential morphology and image processing[J]. IEEE Transactions on Image Processing, 1996, 5(6): 922-937.
19李冠林,馬占鴻,王海光. 基于支持向量機的小麥條銹病和葉銹病圖像識別[J]. 中國農(nóng)業(yè)大學學報,2012,17(2): 72-79.
LI Guanlin, MA Zhanhong, WANG Haiguang. Image recognition of wheat stripe rust and wheat leaf rust based on support vector machine[J]. Journal of China Agricultural University, 2012,17(2): 72-79. (in Chinese)
20宋宇,劉永博,劉路,等. 基于機器視覺的玉米根莖導航基準線提取方法[J/OL]. 農(nóng)業(yè)機械學報,2017,48(2): 38-44.http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?flag=1&file_no=20170205&journal_id=jcsam. DOI:10.6041/j.issn.1000-1298.2017.02.005.
SONG Yu, LIU Yongbo, LIU Lu, et al. Extraction method of vavigation baseline of corn roots based on machine vision[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2017, 48(2): 38-44. (in Chinese)
21GONZALEZ R C, WOODS R E. 數(shù)字圖像處理[M]. 阮秋琦, 阮宇智,譯. 2版. 北京: 電子工業(yè)出版社, 2003: 423-424.
22蔣煥煜,彭永石,申川,等. 基于雙目立體視覺技術(shù)的成熟番茄識別與定位[J]. 農(nóng)業(yè)工程學報,2008, 24(8): 279-283.
JIANG Huanyu, PENG Yongshi, SHEN Chuan, et al. Recognizing and locating ripe tomatoes based on binocular stereo vision technology[J]. Transactions of the CSAE, 2008, 24(8): 279-283. (in Chinese)
23沈?qū)殗?,陳樹人,尹建軍,? 基于顏色特征的棉田綠色雜草圖像識別方法[J]. 農(nóng)業(yè)工程學報,2009, 25(6): 163-167.
SHEN Baoguo, CHEN Shuren, YIN Jianjun, et al. Image recognition of green weeds in cotton fields based on color feature[J]. Transactions of the CSAE, 2009, 25(6): 163-167. (in Chinese)
24SUN Qiucheng,HOU Yueqian,TAN Qingchang. A new method of camera calibration based on segmentation model[J]. Optik, 2013, 124(24): 6991-6995.
25湯一平,王偉羊,朱威,等. 基于機器視覺的茶隴識別與采茶機導航方法[J/OL]. 農(nóng)業(yè)機械學報,2016, 47(1): 45-50.http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?flag=1&file_no=20160107&journal_id=jcsam. DOI:10.6041/j.issn.1000-1298.2016.01.007.
TANG Yiping, WANG Weiyang, ZHU Wei, et al. Tea ridge identification and navigation method for tea-plucking machine based on machine vision[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(1): 45-50. (in Chinese)
26王躍勇,于海業(yè),劉媛媛. 基于雙目立體視覺的機械手移栽穴盤定位方法[J]. 農(nóng)業(yè)工程學報,2016, 32(5): 43-49.
WANG Yueyong, YU Haiye, LIU Yuanyuan. Mechanical transplanting plug tray localization method based on binocular stereo vision[J]. Transactions of the CSAE, 2016, 32(5): 43-49. (in Chinese)
27尹建軍,沈?qū)殗?,陳樹人,? 基于機器視覺的田間雜草定位技術(shù)[J]. 農(nóng)業(yè)機械學報, 2010,41(6): 163-166.
YIN Jianjun, SHEN Baoguo, CHEN Shuren, et al. Position technology of filed weed based on machine vision[J]. Transactions of the Chinese Society for Agricultural Machinery, 2010, 41(6): 163-166. (in Chinese)
28黃福珍,蘇劍波. 人臉檢測[M]. 上海:上海交通大學出版社,2006:12.