張尋夢 趙子皓 江曉東
摘要:為了便捷準確地計算番茄果實長度、寬度和投影面積表型參數(shù)并模擬果實重量,以番茄粉冠F1為試驗材料,利用YOLOv3深度學習模型檢測和裁切番茄果實圖像,利用像素計算來分割番茄果實區(qū)域,將計算果實區(qū)域的6個特征參數(shù)輸入線性回歸模型、BP神經(jīng)網(wǎng)絡模型、支持向量機(SVM)模型中反演果實重量,以期從圖像中獲取番茄果實表型參數(shù)及重量模擬結果。結果表明,YOLOv3模型對番茄果實檢測的平均精確度(AP)為90.06%;用果實長度、寬度、投影面積計算的平均相對誤差分別為3.37%、5.65%、5.49%;用線性回歸模型、BP神經(jīng)網(wǎng)絡模型、SVM模型模擬得到的果實重量的平均相對誤差分別為44.68%、17.38%、6.45%。研究結果證實,從圖像處理中獲取番茄果實長度、寬度、投影面積表型參數(shù)是可行的,SVM模型對番茄果實重量的模擬精度較高。
關鍵詞:番茄;果實;表型參數(shù);重量;YOLOv3模型;支持向量機模型
中圖分類號:TP391;S126文獻標志碼:A
文章編號:1002-1302(2023)10-0193-09
作物表型參數(shù)對產(chǎn)量、品質的預估具有重要意義,傳統(tǒng)作物表型參數(shù)和產(chǎn)量主要通過人工觀測或遙感反演得到[1-2],遙感反演往往用于較大面積的作物產(chǎn)量反演[3],且難以反演室內(nèi)的設施作物產(chǎn)量。要計算果實表型參數(shù),首先要檢測圖像中的果實。圖像目標物檢測可以分為利用圖像色彩、形狀、紋理等特征進行判別的傳統(tǒng)圖像處理算法[4-5],以及利用深度學習模型對目標物進行檢測的算法[6-7]。傳統(tǒng)圖像處理算法應用得較早[8],Chien等設計了一種基于“橢圓形的霍夫變換”算法,對作物葉片進行識別[9];劉濤等利用色彩特征和紋理特征對圖像中的小麥穗進行了識別[10];王獻鋒等從圖像中提取了35個顏色、形狀、紋理參數(shù),并利用判別分析方法對黃瓜的霜霉病、褐斑病和炭疽病進行了識別,效果較好[11]。傳統(tǒng)圖像處理算法的計算速度較慢,利用深度學習方法可以實現(xiàn)更精準、更快速的檢測[12-14]。1998年,Lecun等較早地提出了LeNET5網(wǎng)絡,主要用于手寫文字的圖像識別[15]。深度學習模型不斷發(fā)展,相較以往的深度學習模型,YOLOv3模型同時提高了計算速度和精度,已被廣泛用于蘋果果實、番茄果實、生姜幼苗等目標檢測,在作物目標檢測上取得了良好效果[13,16-19]。
大部分深度學習模型僅標注目標物的上下左右范圍,難以計算目標物的投影面積。因此,傳統(tǒng)圖像處理算法具有更為靈活的優(yōu)勢。胡維煒等利用K-means聚類方法將大豆健康葉片和病葉區(qū)分開,并計算了病葉的像素面積,但是并沒有將結果計算為物理面積[20]。張萬紅等利用灰度二值化處理,實現(xiàn)了蘋果葉片的分割,并計算了蘋果葉片的物理面積[21]。傳統(tǒng)圖像處理算法的目標檢測精確度不及深度學習模型,而僅利用深度學習模型又難以精確計算作物目標物的表型參數(shù),這2種方法各有利弊。本研究將傳統(tǒng)圖像處理算法與YOLOv3深度學習模型結合,使其發(fā)揮各自的優(yōu)勢,建立通過圖像計算果實長度、寬度、投影面積表型參數(shù)和重量模擬的方法,以期為便捷準確地觀測作物果實表型參數(shù)和重量模擬提供科學依據(jù)。
1材料與方法
1.1資料來源
圖像于2021年4—5月拍攝于南京信息工程大學農(nóng)業(yè)氣象試驗站人工溫室內(nèi),選用的番茄品種為粉冠F1。在番茄結果至成熟期間晴天、多云、雨天的8:00、14:00、18:00分別多次拍攝不同光照條件下帶有果實的番茄作物圖像。圖像由2臺Alpha7RM3相機(Sony,JPN)及SEL50F12GM鏡頭(Sony,JPN)拍攝得到。采用類似人眼視角的50mm焦距定焦鏡頭,設置圖像分辨率為3840×2160像素。
用于訓練YOLOv3番茄果實檢測模型的圖像為8000張,圖像從不同距離和角度拍攝,其中6000張圖像作為訓練集,剩余2000張作為測試集。用于計算番茄果實表型參數(shù)及模擬果實重量的圖像為含有56個番茄果實的番茄全株圖像,圖像按照雙目視覺要求拍攝。雙目視覺系統(tǒng)(圖1)由帶有云臺、水平儀和滑軌的雙目相機支架固定型號相同的左目、右目相機組成,左右相機光軸互相平行,且相機坐標系定義相同[22],可通過對x坐標軸的平移得到。相機架設高度都為0.70m,相機間距20.00cm。試驗期間記錄被攝果實的長度、寬度、投影面積及重量。在果實與左目相機間連線(利用細線實物連線),果實長度、寬度用游標卡尺在垂直于連線的平面上測量。果實長度通過測量果實直徑最長的位置得到,果實寬度通過測量果實最長直徑的垂直方向上寬度最大的位置得到。果實投影面積通過統(tǒng)計投影面的網(wǎng)格數(shù)進行測量,將底板按照垂直于果實與相機連線的平面置于果實后方,將果實固定在底板上,摘下果實后,確保果實在底板的投影形狀與相機拍攝的圖像一致。用細鉛筆芯在底板上帶有已知邊長(1mm)的網(wǎng)格紙上垂直描繪果實邊緣線,用統(tǒng)計的邊緣線內(nèi)網(wǎng)格數(shù)乘以單位網(wǎng)格的面積,得到果實投影面積。用電子天平稱取果實重量。果實長度、寬度、投影面積、重量均重復觀測3次,取平均值。
1.2處理方法
1.2.1相機標定和畸變校正首先利用林中豪等的方法[23]標定相機及校正圖像。本研究采用的標定板網(wǎng)格邊長為25mm。利用OpenCV對雙目相機分別進行標定和畸變校正。以左目相機拍攝的標定板網(wǎng)格圖像為例,校正效果見圖2。校正后圖像四周受到小幅度拉伸。經(jīng)過校正,標定板左上角黑色方格的左上角頂點像素分別僅向上、向左移動了圖像高度、寬度的0.60%、0.52%,可見圖像畸變較輕微。
1.2.2YOLOv3深度學習模型YOLOv3模型將輸入圖片的分辨率轉化為416×416并劃分為S×S個網(wǎng)格后輸入以Darknet53為基礎的主干網(wǎng)絡,模型取消了池化層和最后的全連接層,采用步長為2的卷積運算進行下采樣,在減少計算量的同時,保留了圖片不同尺度的語義信息[24]。模型得到13×13、26×26、52×52等3種尺度的特征圖,每個單元格設置3個錨框,共有10647個邊界框,對小目標的檢測效果得到一定增強。將YOLOv3模型檢測的目標范圍適當擴大,裁切出矩形番茄果實區(qū)域用于傳統(tǒng)圖像處理計算。
本研究用LabelImg軟件標注訓練集圖像,保存為VOC數(shù)據(jù)集。設置學習率(lr)為0.001,錨框數(shù)量和尺寸為默認值,迭代次數(shù)為3000次。試驗系統(tǒng)為Ubantu20.04,測試的框架為Tensorflow和Pytorch1.7版本,采用CUDA11.1版本并行計算框架,配合CUDNN7.4版本深度神經(jīng)網(wǎng)絡加速庫,主要硬件環(huán)境見表1。
式中:P為準確率;R為召回率;TP為真實的正樣本數(shù)量;FP為虛假的正樣本數(shù)量;FN為虛假的負樣本數(shù)量。
YOLOv3模型對測試集圖像番茄果實的檢測效果見圖3,可見不同光照條件下的番茄果實都能被準確檢測。模型的AP為90.06%。由于YOLOv3的損失函數(shù)考慮真實邊框與檢測邊框的歐氏距離,損失函數(shù)值與果實大小有一定關系,因此有可能遺漏小尺度目標。
1.2.3傳統(tǒng)圖像處理算法的構建
1.2.3.1構建粗糙度參數(shù)用于分割番茄果實對參數(shù)二值化處理是常用的圖像分割方法[25]。由于番茄果實比其他區(qū)域更光滑,因此通過計算目標像素在一定范圍內(nèi)(7×7像素區(qū)域)灰度值的標準差構建粗糙度參數(shù)。為了減少計算量及背景干擾,僅對綠色(G)和紅色(R)像素進行計算,當像素藍色(B)大于R、G時不計算。經(jīng)過對樣本的處理分析,將粗糙度小于7的像素標記為光滑區(qū)域,效果較好。由于通過YOLOv3模型裁切的圖像中果實占據(jù)絕大部分面積,因此可以通過保留面積最大的光滑區(qū)域,并對其進行填充得到果實區(qū)域。
分別選取紅色輕微遮擋(簡稱為A果,圖4-A至圖4-E)、綠色無遮擋(簡稱為B果,圖4-F至圖4-J)、綠色較嚴重遮擋(簡稱為C果,圖4-K至圖4-O)的果實進行演示。圖4-A、圖4-F、圖4-K為原圖,圖4-B、圖4-G、圖4-L為利用Sobel算子得到的邊緣線,利用Sobel算子不僅不能得到完整的番茄果實邊緣線,還會產(chǎn)生過多的錯誤邊緣線。從圖4-C、圖4-H、圖4-M可以看出,番茄果實被粗糙度高值區(qū)域包圍。由粗糙度得到的二值圖見圖4-D、圖4-I、圖4-N,可以看出,其中黃色區(qū)域為光滑區(qū)域,番茄果實內(nèi)部的光滑區(qū)域與外部的光滑區(qū)域被完全分割開,沒有粘連。番茄果實區(qū)域的提取結果見圖4-E、圖4-J、圖4-O。經(jīng)過對其余番茄果實圖像的處理和分析得出,在不同光照條件下,無論是成熟還是未成熟的番茄果實都能得到較好的提取。
1.2.3.2被遮擋區(qū)域的修復隨機三點定圓方法是水果遮擋區(qū)域修復的方法之一[26](本研究簡稱為“圓形法”)。圓形法將邊緣線至質心距離的突變點作為缺口的端點[27-28],刪除缺口后在正確的邊緣線上隨機取3點求解圓的方程[26],重復計算50次取圓心、半徑均值。本研究將邊緣線上相鄰5個像素內(nèi)到質心距離變化幅度超過平均距離3%的位置記作缺口端點。但是由于番茄果實形狀不規(guī)則,為了更好地利用原本正確的邊緣線,本研究還用圓形法得到的半徑繪制圓弧連接缺口端點,以此修復缺口,本研究簡稱為“圓弧法”。
圖5-A、圖5-D、圖5-G為修復前的果實邊緣線;圖5-B、圖5-E、圖5-H為圓弧法修復得到的果實邊緣線,可見線條與番茄果實邊緣貼合較好;圖5-C、圖5-F、圖5-I為利用圓形法修復得到的果實邊緣線。經(jīng)過對各樣本的處理和分析,發(fā)現(xiàn)由于圓弧法可以保留正確的果實邊緣線,僅對缺口進行修復,因此得到的線條更貼合果實邊緣,效果優(yōu)于圓形法,對不同光照條件下拍攝的圖像處理效果都較好。
1.2.3.3果實最長、最寬位置的確定連接果實邊緣線上距離最遠的2個點作為果實最長距離,沿果實最長位置的垂直方向計算距離最大的垂線作為果實最寬距離,詳見圖6。
1.2.3.4利用雙目視覺計算果實表型參數(shù)雙目視覺原理見圖7。
設視差值為d,目標物P到相機平面的深度為Z,由相似三角形原理可得相關公式如下:
l-dl=Z-fZ。
基于標定得到的相機參數(shù),使用OpenCV提供的stereoRectify、remap函數(shù)進行圖像的立體校正,使圖像的行得以對準,并得到重投影矩陣Q[23]。利用OpenCV提供的SGBM算法進行立體匹配,利用下列公式可以計算像素坐標對應的三維(3D)深度,其中W為非零常數(shù),Q為重投影矩陣,d為視差值,(u,v)為目標點坐標,目標點的三維坐標為(X/W,Y/W,Z/W)[23]。使用reprojectImageTo3D函數(shù)實現(xiàn)三維坐標計算,計算果實最長、最寬處軸線端點對應的三維坐標位置,并計算果實的長度、寬度。計算單位像素代表的物理投影面積,根據(jù)圖像中果實的像素投影面積計算物理投影面積。
Quvd1=XYZW
1.2.3.5果實亮度變化趨勢的計算由于不同厚度的果實在圖像上的陰影變化不同,果實區(qū)域亮度的變化可以間接反映出果實的厚度,對提高模型模擬能力有幫助。圖像處理中常用的亮度計算公式如下:
L=0.299×R+0.587×G+0.114×B。
式中:L為亮度;R為紅色分量的值;G為綠色分量的值;B為藍色分量的值。
計算果實區(qū)域像素的亮度值,由低到高排序,計算亮度變化的斜率(k),用于反映果實區(qū)域像素亮度的變化趨勢。不同投影面積的果實亮度變化斜率見圖8,可見果實區(qū)域亮度變化的斜率隨果實投影面積增大而減小。這是由于投影面積較大的
果實半徑較大,所以亮度變化較慢。
1.2.3.6果實色彩參數(shù)的計算果實區(qū)域RG差值(R減G)、RB差值(R減B)見圖9??傮w而言,RG差值、RB差值隨果實投影面積增大呈增大的趨勢。這是由于一般而言,投影面積更大的果實更接近成熟,紅色值越大。由于存在體積較大的綠色番茄,RG、RB差值與果實投影面積沒有明顯關系,但色彩參數(shù)能夠反映果實的發(fā)育階段信息,間接反映不同發(fā)育階段的含水量差異等,在輸入機器學習模型后,對提高果實重量模擬準確性有幫助。
1.2.4模擬果實重量選用線性回歸、BP神經(jīng)網(wǎng)絡、SVM模型3種方法對果實重量進行模擬。選用果實長度、寬度、投影面積、亮度變化斜率(k)、RG差值和RB差值共6個參數(shù)輸入模型,調(diào)試各模型參數(shù),使模型能夠準確模擬果實重量。將番茄數(shù)據(jù)分為訓練集(占75%)及測試集(占25%),通過訓練集數(shù)據(jù)訓練3種模型,利用測試集數(shù)據(jù)驗證模型的準確性。
2結果與分析
2.1果實投影面積的計算
利用圓弧法修復遮擋區(qū)域后果實投影面積的計算結果見圖10-a,計算值與觀測值的r2為0.99,平均絕對誤差為0.31cm2,平均相對誤差為5.49%,均方根誤差(RMSE)為0.57cm2。利用圓形法修復遮擋區(qū)域后果實投影面積的計算結果見圖10-b,計算值與觀測值的r2為0.97,平均絕對誤差為0.65cm2,平均相對誤差為6.58%,RMSE為0.91cm2。利用圓弧法修復果實遮擋區(qū)域的效果優(yōu)于圓形法,這是由于圓形不能很好地貼合果實邊緣,因此本研究選用圓弧法對果實遮擋區(qū)域進行修復。
2.2果實長度、寬度計算
利用雙目視覺算法重建圖像的三維坐標,計算果實的長度、寬度。果實長度計算值與觀測值的關系見圖11-a,r2為0.98,平均絕對誤差為0.12cm,平均相對誤差為3.37%,RMSE為0.15cm。果實寬度計算值與觀測值的關系見圖11-b,r2為0.97,平均絕對誤差為0.17cm,平均相對誤差為5.65%,RMSE為0.19cm??梢钥闯觯秒p目視覺算法得到的果實長度、寬度較為準確。
2.3果實重量模擬
調(diào)試模型參數(shù),設置BP神經(jīng)網(wǎng)絡的訓練次數(shù)為15萬次,中間層節(jié)點數(shù)為15個,學習率(lr)為0.0001。調(diào)試SVM模型的C、γ參數(shù)。3種模型的訓練效果見圖12,線性回歸、BP神經(jīng)網(wǎng)絡、SVM模型的r2分別為0.95、0.97、0.99。3種模型訓練集對果實重量模擬的評價見表2,線性回歸模型誤差最大,平均相對誤差為48.59%。SVM模型的誤差最小,平均相對誤差為5.29%。線性回歸模型、BP神經(jīng)網(wǎng)絡模型對較輕的果實重量模擬效果較差,導致平均相對誤差較大。
3種模型對測試集果實重量的模擬值與觀測值對比見圖13。線性回歸模型的r2較小,為0.92,BP神經(jīng)網(wǎng)絡、SVM模型的r2分別為0.97、0.99。3種模型測試集對果實重量模擬的評價見表3,可見線性回歸模型對果實重量模擬誤差最大,平均相對誤差為44.68%。SVM模型誤差最小,平均相對誤差為6.45%。由此可見,SVM模型對果實重量的模擬精度較高,能夠滿足需求。
3討論與結論
YOLOv3模型的檢測精高、速度快[24],對番茄果實檢測的AP為90.06%。利用YOLOv3模型的目標檢測結果能夠有效縮小傳統(tǒng)圖像處理算法的計算區(qū)域,減少背景干擾,在提高處理速度的同時減小處理難度[29]。
利用粗糙度參數(shù)分割番茄果實具有較強的適用性,這是由于不同光照條件、生長發(fā)育階段的番茄果實都比葉片等背景物更光滑。如果利用Sobel算子、Canny算子、Prewitt算子等傳統(tǒng)邊緣檢測算法[30],則會出現(xiàn)較多錯誤的邊緣線[31]。如果在這些邊緣線基礎上利用各種圓形檢測方法來分割番茄果實,則會導致較大誤差,這是由于圓形不能緊貼果實邊緣。
利用圓弧連接果實邊緣線缺口端點可以有效對果實區(qū)域的缺口進行修補,效果優(yōu)于利用正圓形。采用隨機三點定圓的方法確定圓心和半徑,可以實現(xiàn)對邊緣線的自適應,在保證結果準確性的同時,能夠避免霍夫變換等方法需要較大計算量和儲存空間的缺點[32]。
利用雙目視覺原理計算目標物長度、寬度及投影面積表型參數(shù)是可行的。對果實長度、寬度、投影面積計算的平均相對誤差分別為3.37%、5.65%、5.49%。雙目視覺算法可以實現(xiàn)對圖像數(shù)據(jù)的自適應,可以構建用不同距離、角度拍攝目標物的空間坐標信息,在實際應用中適用性較強。
在線性回歸、BP神經(jīng)網(wǎng)絡、SVM等3種模型中,SVM模型對番茄果實重量的模擬效果最好,平均相對誤差為6.45%。不同機器學習模型有各自的特征。例如BP神經(jīng)網(wǎng)絡具有可處理數(shù)據(jù)量大、計算較快的優(yōu)勢,但模型結構復雜,學習能力強,容易造成過擬合,模型調(diào)參過程繁瑣,調(diào)參不當容易導致誤差。SVM模型計算結果準確,且適用于小樣本數(shù)據(jù),在僅有幾十個樣本數(shù)據(jù)的情況下也能取得較好的模擬效果[33]。支持向量機模型的模擬結果可以由少數(shù)支持向量來決定,而不是所有的輸入數(shù)據(jù),這樣可以抓住關鍵樣本數(shù)據(jù),避免模型學習到錯誤樣本的信息,降低過擬合現(xiàn)象發(fā)生的可能性,但SVM在數(shù)據(jù)量過大時計算速度較慢。由此可見,選取合適的果實重量模擬模型十分重要。
由于裁切出的果實圖像基本小于200×200像素,傳統(tǒng)圖像算法程序的處理時間得到控制。在本研究數(shù)據(jù)和硬件環(huán)境下,YOLOv3模型處理1張圖像平均耗時0.11s,果實分割與遮擋區(qū)修復、雙目匹配和三維重建等程序耗時3.16s。雖然不能用于對視頻的實時處理,但是考慮到番茄果實的表型參數(shù)和重量變化緩慢,且該方法能夠有效分割番茄果實并計算表型參數(shù)和重量,因此也能夠滿足實際生產(chǎn)中的需要。
研究結果表明,利用YOLOv3模型檢測番茄果實位置是可行的,檢測的AP為90.06%,計算速度快。利用雙目視覺算法計算果實表型參數(shù)準確度較高,對果實長度、寬度、投影面積計算的平均相對誤差分別為3.37%、5.65%、5.49%。利用支持向量機模型模擬番茄果實重量的精度較高,平均相對誤差為6.45%,可以滿足應用需求。
參考文獻:
[1]任建強,陳仲新,周清波,等.MODIS植被指數(shù)的美國玉米單產(chǎn)遙感估測[J].遙感學報,2015,19(4):568-577.
[2]WengertM,PiephoHP,AstorT,etal.AssessingspatialvariabilityofbarleywholecropbiomassyieldandleafareaindexinsilvoarableagroforestrysystemsusingUAV-borneremotesensing[J].RemoteSensing,2021,13(14):2751.
[3]何亞娟,潘學標,裴志遠,等.基于SPOT遙感數(shù)據(jù)的甘蔗葉面積指數(shù)反演和產(chǎn)量估算[J].農(nóng)業(yè)機械學報,2013,44(5):226-231.
[4]FuHY,WangCF,CuiGX,etal.RamieyieldestimationbasedonUAVRGBimages[J].Sensors,2021,21(2):669.
[5]周彤,程萬強,劉濤,等.基于圖像技術的葡萄生長監(jiān)測研究進展[J].北方園藝,2018(24):156-161.
[6]TellaecheA,Burgos-ArtizzuXP,PajaresG,etal.Avision-basedmethodforweedsidentificationthroughtheBayesiandecisiontheory[J].PatternRecognition,2008,41(2):521-530.
[7]KamalNA,KaranS,GaneshCB,etal.Weedrecognitionusingimage-processingtechniquebasedonleafparameters[J].JournalofAgriculturalScienceandTechnologyB,2012,2(8):899-908.
[8]MeyerGE,DavisonDA.Anelectronicimageplantgrowthmeasurementsystem[J].TransactionoftheASAE,1987,30(1):242-248.
[9]ChienCF,LinTT.Non-destructivegrowthmeasurementofselectedvegetableseedlingsusingorthogonalimages[J].TransactionoftheASAE,2005,48(5):1953-1961.
[10]劉濤,孫成明,王力堅,等.基于圖像處理技術的大田麥穗計數(shù)[J].農(nóng)業(yè)機械學報,2014,45(2):282-290.
[11]王獻鋒,張善文,王震,等.基于葉片圖像和環(huán)境信息的黃瓜病害識別方法[J].農(nóng)業(yè)工程學報,2014,30(14):148-153.
[12]鄭遠攀,李廣陽,李曄.深度學習在圖像識別中的應用研究綜述[J].計算機工程與應用,2019,55(12):20-36.
[13]AravindKR,RajaP,AniirudhR.Tomatocropdiseaseclassificationusingpre-traineddeeplearningalgorithm[J].ProcediaComputerScience,2018,133:1040-1047.
[14]LiDS,WangRJ,XieCJ,etal.Arecognitionmethodforriceplantdiseasesandpestsvideodetectionbasedondeepconvolutionalneuralnetwork[J].Sensors,2020,20(3):578-598.
[15]LecunY,BottouL.Gradient-basedlearningappliedtodocumentrecognition[J].ProceedingsoftheIEEE,1998,86(11):2278-2324.
[16]AnnaK,TatianaM,VladimirS.UsingYOLOv3algorithmwithpre-andpost-processingforappledetectioninfruit-harvestingrobot[J].Agronomy,2020,10(7):1016-1034.
[17]LiuGX,JosephCN,PhilippeLTM,etal.YOLO-tomato:arobustalgorithmfortomatodetectionbasedonYOLOv3[J].Sensors,2020,20(7):2145-2164.
[18]侯加林,房立發(fā),吳彥強,等.基于深度學習的生姜種芽快速識別及其朝向判定[J].農(nóng)業(yè)工程學報,2021,37(1):213-222.
[19]TianYN,YangGD,WangZ,etal.AppledetectionduringdifferentgrowthstagesinorchardsusingtheimprovedYOLO-V3model[J].ComputersandElectronicsinAgriculture,2019,157:417-426.
[20]胡維煒,張武,劉連忠,等.利用圖像處理技術計算大豆葉片相對病斑面積[J].江蘇農(nóng)業(yè)學報,2016,32(4):774-779.
[21]張萬紅,姬洪飛,劉勇剛.基于Matlab解析數(shù)字圖像求解蘋果葉面積的方法[J].北方園藝,2017(3):15-18.
[22]岳麗清,賈馨,苗洋,等.機械臂雙目視覺系統(tǒng)內(nèi)外參高精度標定[J].紅外與激光工程,2021,50(9):262-268.
[23]林中豪,高曉陽,邵世祿,等.葡萄園田間機器人雙目測距系統(tǒng)設計[J].中國農(nóng)機化學報,2019,40(4):179-183.
[24]宋栓軍,侯中原,王啟宇,等.改進YOLOV3算法在零件識別中的應用[J].機械科學與技術,2022,41(10):1608-1614.
[25]FanJL,LeiB.Amodifiedvalley-emphasismethodforautomaticthresholding[J].PatternRecognitionLetters,2012,33(6):703-708.
[26]劉振宇,丁宇祺.自然環(huán)境中被遮擋果實的識別方法研究[J].計算機應用研究,2020,37(增刊2):333-335,339.
[27]RajneeshB,WonSL,SaumyaS.GreencitrusdetectionusingfastFouriertransform(FFT)leakage[J].PrecisionAgriculture,2013,14(1):59-70.
[28]夏雪,周國民,丘耘,等.自然環(huán)境下蘋果作業(yè)機器人雙果重疊目標偵測方法[J].中國農(nóng)業(yè)科技導報,2018,20(7):63-73.
[29]劉芳,劉玉坤,張白.基于D-YOLOv3檢測網(wǎng)絡的溫室葉菜幼苗圖像檢測[J].江蘇農(nóng)業(yè)學報,2021,37(5):1262-1269.
[30]YangS,HsiaoSH.266/VVCfastintrapredictionusingSobeledgefeatures[J].ElectronicsLetters,2020,57(1):11-13.
[31]BaoP,ZhangL,WuXL.Cannyedgedetectionenhancementbyscalemultiplication[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2005,27(9):1485-1490.
[32]王拓.基于改進霍夫變換的幾何形狀檢測算法研究[D].南京:南京航空航天大學,2017.
[33]楊梅,李廣.小麥產(chǎn)量預測模型的仿真研究[J].計算機仿真,2013,30(10):382-385.