摘要:快速、準(zhǔn)確、大范圍地獲取棉花苗期株數(shù)對(duì)于棉花早期育種決策以及實(shí)現(xiàn)棉田的精準(zhǔn)管理起著至關(guān)重要的作用。針對(duì)棉花苗期田間存在蓋地膜等干擾易對(duì)株數(shù)提取造成影響,提出一種基于過(guò)紅指數(shù)和超綠指數(shù),結(jié)合圖像處理方法對(duì)無(wú)人機(jī)RGB影像進(jìn)行棉花株數(shù)統(tǒng)計(jì)的方法。利用新疆阿克蘇地區(qū)阿瓦提縣的棉田無(wú)人機(jī)影像進(jìn)行研究,對(duì)采集到的數(shù)據(jù)進(jìn)行預(yù)處理、超綠指數(shù)(ExG)和過(guò)紅指數(shù)(ExR)計(jì)算、Otsu閾值分割等處理,經(jīng)處理后的二值圖像噪點(diǎn)以及蓋地膜產(chǎn)生的誤分類像選擇采用Majority分析處理進(jìn)行去噪,其中對(duì)Majority分析中的3×3、5×5、7×7、9×9不同大小的變換核的去噪效果進(jìn)行對(duì)比分析,實(shí)現(xiàn)對(duì)棉花苗期株數(shù)的提取。經(jīng)試驗(yàn)得出在過(guò)紅指數(shù)9×9變換核處理下棉花株數(shù)提取效果最好,統(tǒng)計(jì)的株數(shù)準(zhǔn)確率達(dá)到97.84%。超綠指數(shù)在不同大小的變換核處理后的棉花株數(shù)統(tǒng)計(jì)準(zhǔn)確率都在95%以上,其中基于5×5變換核提取的棉花株數(shù)準(zhǔn)確率達(dá)到98.86%。本方法不僅能夠提高棉花株數(shù)統(tǒng)計(jì)的準(zhǔn)確性,也可為棉田早期育種,精準(zhǔn)管理提供技術(shù)支撐。
關(guān)鍵詞:棉花育種;棉田精準(zhǔn)管理;棉花株數(shù);過(guò)紅指數(shù);超綠指數(shù);閾值分割
中圖分類號(hào):S252" " " 文獻(xiàn)標(biāo)識(shí)碼:A" " " 文章編號(hào):2095?5553 (2024) 10?0269?06
Research on extraction of cotton seedling plant number based on UAV RGB image
Yang Guang, Li Xiaojuan, Liang Zhi, Liu Bo
(College of Mechanical Engineering, Xinjiang University, Urumqi, 830000, China)
Abstract: Rapid, accurate and large?scale acquisition of cotton seedlings number plays a vital role in the decision?making of early cotton breeding and the realization of precise management of cotton fields. Aiming at the interference of mulching film and other disturbances in the field of cotton seedlings, which can easily affect the extraction of plant numbers, this paper proposes a method based on the over?red index and ultra?green index, combined with image processing methods" for counting the number of cotton plants in UAV RGB images. This article uses the UAV images of cotton fields in Awati County, Aksu Prefecture, Xinjiang to conduct research, and preprocesses the collected data, and calculates the Excess green index (ExG) and Excess red index (ExR), Otsu threshold segmentation and other processing, and then the processed binary image noise and misclassified images generated by the mulch film are selected to use Majority analysis processing for denoising, among which, the denoising effect of 3×3、 5×5、 7×7、 9×9 transformation kernels with different sizes in the Majority analysis is compared and analyzed, and finally the the number of cotton seedlings is extracted. The experiment shows that the extraction effect of cotton plant number is the best under the redness index 9×9 conversion kernel treatment, and the accuracy rate of statistical plant number reaches 97.84%. The statistical accuracy rate of the super green index for the number of cotton plants after different sizes of transformed kernels is above 95%, and the accuracy rate of cotton plant numbers extracted based on the 5×5 transformed kernels reaches 98.86%. The results show that this method can not only improve the accuracy of counting the number of cotton plants, but also provide technical support for early breeding and precise management of cotton fields.
Keywords: cotton breeding; cotton field precise management; number of cotton plants; Excess red index; Excess green index; threshold segmentation
0 引言
棉花是新疆的支柱產(chǎn)業(yè)。據(jù)統(tǒng)計(jì),截止2022年,新疆棉花播種面積為2 496.9 khm2,棉花產(chǎn)量達(dá)5 391 kt,占全國(guó)總產(chǎn)量的90.2%[1]。新疆棉花產(chǎn)業(yè)與當(dāng)?shù)剞r(nóng)業(yè)的發(fā)展息息相關(guān),是當(dāng)?shù)剞r(nóng)戶的重要經(jīng)濟(jì)來(lái)源之一。近年來(lái),隨著遙感技術(shù)的不斷發(fā)展,無(wú)人機(jī)遙感技術(shù)以快速、準(zhǔn)確、覆蓋面積大、清晰度較高等優(yōu)勢(shì),已經(jīng)廣泛應(yīng)用于農(nóng)作物農(nóng)情監(jiān)測(cè)領(lǐng)域,如作物長(zhǎng)勢(shì)監(jiān)測(cè)[2?4]、產(chǎn)量估算[5?7]、作物生長(zhǎng)脅迫監(jiān)測(cè)[8?10]等方面。
在利用無(wú)人機(jī)遙感提取株數(shù)方面,趙必權(quán)等[11]通過(guò)植被指數(shù)進(jìn)行油菜目標(biāo)識(shí)別,并提取了其形態(tài)特征信息,采用逐步回歸分析方法,建立了油菜株數(shù)與遙感特征信息之間的關(guān)系。劉帥兵等[12]使用HSV色彩空間變換獲取的二值圖,然后通過(guò)尺度縮放變換去噪、優(yōu)化骨架識(shí)別算法等工作使得最后采用角點(diǎn)檢測(cè)獲取玉米株數(shù)的總體識(shí)別率達(dá)到了97.8%。萬(wàn)祖毅等[13]通過(guò)多尺度分割算法和鄰域分析法分別提取研究區(qū)株數(shù),用目視解譯的結(jié)果作為參考數(shù)據(jù)來(lái)驗(yàn)證精度。研究結(jié)果表明,鄰域分析法優(yōu)于多尺度分割算法,且其提取效率也更高。在樣地株數(shù)提取方面,鄰域分析法的總體精度達(dá)到了88.29%。胡馨月等[14]提出了一種將Mean Shift算法與分水嶺分割算法相結(jié)合的林木株數(shù)統(tǒng)計(jì)方法,樹木株數(shù)提取精度在92.74%左右。Mukhtar等[15]提出了一種基于交叉一致性的半監(jiān)督方法用于植物計(jì)數(shù),在半監(jiān)督性質(zhì)下,標(biāo)準(zhǔn)差為0.94,計(jì)數(shù)絕對(duì)差的平均值為0.87。Luthfan等[16]使用無(wú)人機(jī)遙感數(shù)據(jù)、衛(wèi)星遙感數(shù)據(jù)和氣候數(shù)據(jù)建立了一個(gè)植物密度測(cè)量模型。研究結(jié)果表明建立的模型對(duì)于植物密度的估算具有較高預(yù)測(cè)精度。付虹雨等[17]利用面向?qū)ο蠖喑叨确指钏惴▽?duì)劍麻圖像進(jìn)行分割,將中心區(qū)域和其他區(qū)域分別提取出來(lái),并通過(guò)采樣定義類別特征空間,實(shí)現(xiàn)了劍麻株數(shù)的識(shí)別。結(jié)果表明采用這種面向?qū)ο蠖喑叨确指钏惴ㄌ崛β橹陻?shù)的精度可以達(dá)到87.1%。Reza等[18]提出了一種基于形態(tài)運(yùn)算和連通分量邊界的水稻移栽后自動(dòng)圖像處理方法對(duì)水稻進(jìn)行株數(shù)統(tǒng)計(jì)。結(jié)果表明該算法F-measure的性能為89%,對(duì)應(yīng)的精度為87%。上述的研究中在利用無(wú)人機(jī)對(duì)植物進(jìn)行株數(shù)提取的精度還有待提高,且沒(méi)有針對(duì)棉花作物的蓋地膜易對(duì)株數(shù)提取造成一定干擾的分析,并且構(gòu)建的算法較為復(fù)雜,構(gòu)建的模型容易過(guò)擬合,普適性較差。
對(duì)于新疆特色棉花產(chǎn)業(yè),評(píng)估棉花播種效果時(shí),株數(shù)是一項(xiàng)重要的評(píng)價(jià)指標(biāo)。但新疆棉田大多采用機(jī)械化播種,蓋地膜對(duì)株數(shù)提取造成一定的干擾,故提出一種基于植被指數(shù)結(jié)合圖像處理并用Majority分析來(lái)處理蓋地膜及噪點(diǎn)對(duì)株數(shù)提取造成干擾的無(wú)人機(jī)RGB遙感影像的棉花株數(shù)提取方法。該方法不但可為行距、株距、出苗率等播種效果的評(píng)估提供一個(gè)可視化指標(biāo),而且可以為后續(xù)棉田精準(zhǔn)管理打下基礎(chǔ)。
1 原材料與方法
1.1 研究區(qū)概況與數(shù)據(jù)來(lái)源
本研究的影像數(shù)據(jù)于2021年5月26號(hào)在新疆阿克蘇阿瓦提縣(40.041 63°N,80.449 34°E)的棉花種植基地通過(guò)大疆M600六旋翼無(wú)人機(jī)(DJI-Innovations)RGB遙感影像采集平臺(tái)獲取。M600在無(wú)風(fēng)情況下水平飛行速度可達(dá)18 m/s,并可承受最大風(fēng)速為8 m/s,最大負(fù)載質(zhì)量為6 kg,M600在最大負(fù)載質(zhì)量下能夠持續(xù)飛行16 min。此外,該飛行器最大飛行高度可達(dá)2 500 m。與無(wú)人機(jī)平臺(tái)集成的RGB相機(jī)是禪思X5S(ZENMUSE X5S)相機(jī),其有效像素可達(dá)到2 080萬(wàn),圖像分辨率為5 280像素×3 956像素。無(wú)人機(jī)飛行參數(shù)為航向重疊率與旁向重疊率設(shè)為80%,飛行高度為40 m。
1.2 研究方法
利用低空無(wú)人機(jī)遙感平臺(tái)搭載可見光相機(jī)獲取的高分辨率影像數(shù)據(jù),運(yùn)用圖像處理技術(shù)提取影像植被指數(shù),閾值分割,圖像降噪等處理實(shí)現(xiàn)對(duì)棉花苗期株數(shù)的提取,技術(shù)路線如圖1所示。并結(jié)合人工目視解譯棉花株數(shù)進(jìn)行精度驗(yàn)證。
1.3 數(shù)據(jù)預(yù)處理
無(wú)人機(jī)獲取的棉田高清影像數(shù)據(jù)是很多張棉田局部影像圖,需要進(jìn)行圖像拼接工作。首先通過(guò)圖像拼接軟件Agisoft PhotoScan進(jìn)行處理,主要操作步驟為添加照片,對(duì)齊圖像,構(gòu)建密集點(diǎn)云,生成網(wǎng)格,生成紋理,最后生成研究區(qū)正射影像圖(Digital Orthophoto Map, DOM)。拼接好的無(wú)人機(jī)影像邊界不規(guī)則,利用ENVI軟件中ROI工具將研究區(qū)域正射影像裁剪出來(lái),研究區(qū)正射影像如圖2所示。研究區(qū)內(nèi)按照等距種植方式,按照一膜六行種植,根據(jù)人工目視解譯統(tǒng)計(jì),該研究區(qū)內(nèi)棉花株數(shù)共計(jì)4 563株,除棉花植株外,還有裸土、蓋地膜等背景。
1.4 基于過(guò)紅植被指數(shù)、超綠植被指數(shù)的計(jì)算
植被指數(shù)是通過(guò)運(yùn)用兩個(gè)或多個(gè)不同波長(zhǎng)范圍內(nèi)的地物反射率組合,以增強(qiáng)植被的某一特性或細(xì)節(jié)[19]。其有助于進(jìn)一步統(tǒng)計(jì)棉花株數(shù)。此研究中采用了兩種植被指數(shù),如表1所示。其中,過(guò)紅指數(shù)(ExR)在強(qiáng)化紅波段特性的同時(shí),減弱綠波段的影響。由于藍(lán)波段不參與植被指數(shù)的計(jì)算,因此可以完全消除藍(lán)波段的影響。另一方面,超綠指數(shù)(ExG)則著重突出綠波段的特性,可以減弱紅波段和綠波段對(duì)于圖像的影響,提取綠色植物圖像效果更佳。同時(shí),它也可以抑制背景干擾,如陰影和土壤等,更好地區(qū)分目標(biāo)植物和土壤[20]。
1.5 基于OTSU閾值分割的棉花植株目標(biāo)分割
為了提取經(jīng)過(guò)過(guò)紅指數(shù)、超綠指數(shù)計(jì)算后的棉田遙感圖中的棉花目標(biāo),將其與其他背景分隔開,選擇使用閾值分割法。OTSU算法是一種基于全局的二值化算法,它可以自動(dòng)確定二值化的閾值。該算法基于最大類間方差的方法將圖像分為目標(biāo)和背景兩個(gè)部分。記目標(biāo)與背景的分割閾值為T,目標(biāo)點(diǎn)數(shù)占圖像比例為w0,平均灰度為u0;背景點(diǎn)數(shù)占圖像比例為w1,平均灰度為u1,圖像的總平均灰度為u,目標(biāo)和背景圖像的方差為g。則有[22]
[u=w0×u0+w1×u1] (1)
[g=w0×(u0-u)2+w1×(u1-u)2] (2)
聯(lián)立式(1)、式(2)可得
[g=w0×w1×(u0-u1)2] (3)
當(dāng)方差g最大時(shí),灰度T為最佳閾值,且認(rèn)為這時(shí)目標(biāo)與背景的差異最大。由于這種方法對(duì)噪聲以及目標(biāo)大小較敏感,因此在進(jìn)行閾值分割處理后的圖像中可能會(huì)出現(xiàn)一些噪聲,也會(huì)出現(xiàn)蓋地膜、土地分割線以及一些椒鹽點(diǎn)等較為明顯的背景信息。為了消除這些噪聲和背景信息造成的干擾,需要對(duì)閾值分割處理后的圖像進(jìn)行去噪處理,以保證分割結(jié)果的準(zhǔn)確性和可靠性。
1.6 Majority分析處理
選了Majority分析法作為圖像去噪的方法,因?yàn)樗軌蛴行コ朦c(diǎn)和誤分類,同時(shí)保留圖像中的細(xì)節(jié)信息。此外還對(duì)不同大小的變換核進(jìn)行比較,以選擇最佳的去噪?yún)?shù)。Majority分析采用類似于卷積濾波的方法將較大類別中的虛假像元?dú)w到該類中,定義一個(gè)變換核尺寸,在確定的區(qū)域里面再確定一個(gè)中心像元區(qū)域,主要分析(Majority Analysis)用變換核中占主要地位(像元數(shù)最多)的像元類別代替中心像元的類別。在此選擇采用3×3、5×5、7×7、9×9大小的變換核對(duì)閾值分割后的圖像進(jìn)行Majority分析處理。
2 結(jié)果與分析
2.1 植被指數(shù)計(jì)算結(jié)果
為了將通過(guò)構(gòu)建指數(shù)進(jìn)行計(jì)算的效果展示出來(lái),選擇了研究區(qū)內(nèi)的局部示意圖進(jìn)行展示。使用表1中構(gòu)建的過(guò)紅植被指數(shù)和超綠植被指數(shù)計(jì)算公式對(duì)該樣區(qū)進(jìn)行計(jì)算,計(jì)算出的兩種植被指數(shù)的灰度空間局部示意如圖3所示。
從圖3可以看出,通過(guò)過(guò)紅指數(shù)灰度圖的顯示,可以明顯區(qū)分出棉花植株和其他背景。在該灰度圖中,棉花植株呈黑色,裸土為灰色,而蓋地膜則呈白色。另一方面,超綠指數(shù)灰度圖的空間分布從黑色到白色相間。其中,棉花植株為零星的白色斑點(diǎn),而其他背景,如掩蓋地裸土等,則呈現(xiàn)大片黑色背景。這些結(jié)果表明,過(guò)紅指數(shù)和超綠指數(shù)都能有效地將棉花植株信息凸顯出來(lái)。
2.2 棉花目標(biāo)識(shí)別與分割
2.2.1 OTSU閾值分割
通過(guò)OTSU閾值分割處理,能夠有效地將過(guò)紅指數(shù)和超綠指數(shù)圖像中的棉花植株與背景進(jìn)行分割。此外,從圖4可以看出,過(guò)紅指數(shù)圖像在閾值分割后仍保留部分蓋地膜背景和裸土陰影,這可能會(huì)對(duì)后續(xù)的株數(shù)提取造成一定的影響。相比之下,超綠指數(shù)圖像在閾值分割后只保留的噪點(diǎn)較少,并且對(duì)于蓋地膜與棉花植株的分割效果較好。因此還需對(duì)閾值分割結(jié)果進(jìn)行去噪處理。
2.2.2 Majority分析處理
通過(guò)使用不同大小的變換核,即3×3、5×5、7×7和9×9的核函數(shù)的Majority分析,對(duì)經(jīng)過(guò)OTSU閾值分割后的圖像進(jìn)行去噪處理。隨著變換核大小的增大,圖像變得越平滑,噪點(diǎn)和誤分類得到了有效的去除。然而,當(dāng)變換核過(guò)大時(shí),一些棉花植株也會(huì)被誤分類為噪點(diǎn)而被去除,從而影響株數(shù)的提取精度。因此需要選擇合適的變換核大小以達(dá)到最佳的去噪效果和株數(shù)提取精度,選擇不同變換核去噪處理后的局部結(jié)果如圖5所示。
根據(jù)圖5顯示的結(jié)果,經(jīng)過(guò)Majority分析處理后,過(guò)紅指數(shù)與超綠指數(shù)的閾值分割圖像隨著變換核的增大,蓋地膜造成的誤分類像素得到了有效去除。但是在這個(gè)過(guò)程中,一些不清晰的棉花植株也被誤認(rèn)為噪點(diǎn)而被去除了。經(jīng)過(guò)試驗(yàn),發(fā)現(xiàn)過(guò)紅指數(shù)9×9與超綠指數(shù)5×5處理效果較好,能夠有效去除誤分類像素,同時(shí)保留棉花植株的有效信息。
2.2.3 棉花植株提取效果
將經(jīng)過(guò)Majority分析處理后的圖像將矢量圖疊加到原圖中,選取提取精度最高的過(guò)紅指數(shù)9×9與超綠指數(shù)5×5效果如圖6所示,過(guò)紅指數(shù)與超綠指數(shù)都能有效的將棉花植株提取出來(lái)。
2.3 株數(shù)統(tǒng)計(jì)精度驗(yàn)證
將統(tǒng)計(jì)的棉花株數(shù)與人工目視解譯后的株數(shù)進(jìn)行精度驗(yàn)證,如式(4)所示。
[R=X-YY×100%] (4)
式中: R——準(zhǔn)確率;
X——提取株數(shù);
Y——實(shí)際株數(shù)。
株數(shù)精度統(tǒng)計(jì)結(jié)果如表2所示。
過(guò)紅指數(shù)由于圖像中噪點(diǎn)較多,其中蓋地膜造成的干擾較大,故誤差率較大,其精度較依賴于Majority分析處理去噪的效果。超綠指數(shù)經(jīng)閾值分割后的二值圖像噪點(diǎn)較少,蓋地膜、裸土等背景與棉花植株分割效果較好,故基于超綠指數(shù)提取株數(shù)效果較為穩(wěn)定,準(zhǔn)確率都在95%以上。
3 結(jié)論
將無(wú)人機(jī)遙感技術(shù)應(yīng)用于棉田農(nóng)情監(jiān)測(cè),能有效識(shí)別棉花的出苗株數(shù),為后續(xù)棉花播種效果的快速、準(zhǔn)確評(píng)估提供技術(shù)支持。構(gòu)建基于過(guò)紅指數(shù)和超綠指數(shù)兩種植被指數(shù)的棉田棉花株數(shù)統(tǒng)計(jì)方法,結(jié)合OTSU閾值分割以及不同大小變換核的Majority分析處理。
1) 基于過(guò)紅指數(shù)的棉花苗期株數(shù)圖像中噪點(diǎn)較多,并受裸土、蓋地膜等背景干擾影響較大,經(jīng)過(guò)Majority變換核9×9去噪處理后,株數(shù)提取精度達(dá)到97.84%。
2) 基于超綠指數(shù)的棉花苗期株數(shù)圖像受背景影響較小,總體株數(shù)提取精度達(dá)到了95%以上,其中經(jīng)Majority變換核5×5去噪處理后,株數(shù)提取精度達(dá)到98.86%。
綜上所述,本文提出方法對(duì)棉田棉花株數(shù)信息的提取是可行的,能夠有效解決蓋地膜等干擾對(duì)于株數(shù)提取造成的影響,并且在精度方面相較于大多數(shù)株數(shù)提取研究有進(jìn)一步提高。而無(wú)人機(jī)遙感技術(shù)在農(nóng)作物農(nóng)情監(jiān)測(cè)方面具有巨大的發(fā)展?jié)摿?。未?lái),無(wú)人機(jī)遙感為棉花乃至其他農(nóng)作物的種植管理帶來(lái)更多的實(shí)際應(yīng)用價(jià)值。同時(shí),無(wú)人機(jī)遙感技術(shù)在農(nóng)業(yè)領(lǐng)域的應(yīng)用也將逐步擴(kuò)展到其他作物的種植管理、病蟲害監(jiān)測(cè)、土壤質(zhì)量評(píng)估等方面,并為農(nóng)業(yè)生產(chǎn)的智能化和高效化提供更加全面和精準(zhǔn)的技術(shù)支持。
參 考 文 獻(xiàn)
[ 1 ] 梁亞軍, 龔照龍, 王俊鐸, 等. 2022年新疆棉花生產(chǎn)概況及存在問(wèn)題與對(duì)策[J]. 中國(guó)棉花, 2023, 50(8): 4-8.
Liang Yajun, Gong Zhaolong, Wang Junduo, et al. General situation, problems and strategies of cotton production of Xinjiang in 2022 [J]. China Cotton, 2023, 50(8): 4-8.
[ 2 ] 陳成, 楊棟淏, 李亞強(qiáng), 等. 基于無(wú)人機(jī)遙感技術(shù)的玉米長(zhǎng)勢(shì)監(jiān)測(cè)研究[J]. 湖北農(nóng)業(yè)科學(xué), 2022, 61(20): 179-181, 210.
Chen Cheng, Yang Donghao, Li Yaqiang, et al. Study on maize growth monitoring based on UAV remote sensing technology [J]. Hubei Agricultural Sciences, 2022, 61(20): 179-181, 210.
[ 3 ] 陶惠林, 徐良驥, 馮海寬, 等. 基于無(wú)人機(jī)高光譜長(zhǎng)勢(shì)指標(biāo)的冬小麥長(zhǎng)勢(shì)監(jiān)測(cè)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2020, 51(2): 180-191.
Tao Huilin, Xu Liangji, Feng Haikuan, et al. Monitoring of winter wheat growth based on UAV hyperspectral growth index [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(2): 180-191.
[ 4 ] 徐云飛, 程琦, 魏祥平, 等. 變異系數(shù)法結(jié)合優(yōu)化神經(jīng)網(wǎng)絡(luò)的無(wú)人機(jī)冬小麥長(zhǎng)勢(shì)監(jiān)測(cè)[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(20): 71-80.
Xu Yunfei, Cheng Qi, Wei Xiangping, et al. Monitoring of winter wheat growth under UAV using variation coefficient method and optimized neural network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(20): 71-80.
[ 5 ] 王來(lái)剛, 徐建華, 賀佳, 等. 基于無(wú)人機(jī)遙感的玉米葉面積指數(shù)與產(chǎn)量估算[J]. 玉米科學(xué), 2020, 28(6): 88-93.
Wang Laigang, Xu Jianhua, He Jia, et al. Estimating leaf area index and yield of maize based on remote sensing by unmanned aerial vehicle" [J]. Journal of Maize Sciences, 2020, 28(6): 88-93.
[ 6 ] 嚴(yán)海軍, 卓越, 李茂娜, 等. 基于機(jī)器學(xué)習(xí)和無(wú)人機(jī)多光譜遙感的苜蓿產(chǎn)量預(yù)測(cè)[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 38(11): 64-71.
Yan Haijun, Zhuo Yue, Li Maona, et al. Alfalfa yield prediction using machine learning and UAV multispectral remote sensing [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(11): 64-71.
[ 7 ] 宋勇, 陳兵, 王瓊, 等. 基于無(wú)人機(jī)多光譜影像的病害棉田產(chǎn)量損失估算[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 38(6): 175-183.
Song Yong, Chen Bing, Wang Qiong, et al. Estimation of yield loss in diseased cotton fields using UAV multi?spectral images [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(6): 175-183.
[ 8 ] 郭偉, 高春鳳, 喬紅波, 等. 基于無(wú)人機(jī)數(shù)碼影像的棉葉螨嚴(yán)重度監(jiān)測(cè)[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào), 2022, 43(8): 143-150.
Guo Wei, Gao Chunfeng, Qiao Hongbo, et al. Severity monitoring of cotton spider mite based on UAV digital image [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(8): 143-150.
[ 9 ] 郭偉, 朱耀輝, 王慧芳, 等. 基于無(wú)人機(jī)高光譜影像的冬小麥全蝕病監(jiān)測(cè)模型研究[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2019, 50(9): 162-169.
Guo Wei, Zhu Yaohui, Wang Huifang, et al. Monitoring model of winter wheat take?all based on UAV hyperspectral imaging [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(9): 162-169.
[10] 郭偉, 喬紅波, 趙恒謙, 等. 基于比值導(dǎo)數(shù)法的棉花蚜害無(wú)人機(jī)成像光譜監(jiān)測(cè)模型研究[J]. 光譜學(xué)與光譜分析, 2021, 41(5): 1543-1550.
Guo Wei, Qiao Hongbo, Zhao Hengqian, et al. Research on UAV imaging spectral monitoring model of cotton aphids based on ratio derivative method [J]. Spectroscopy and Spectral Analysis, 2021, 41(05): 1543-1550.
[11] 趙必權(quán), 丁幼春, 蔡曉斌, 等. 基于低空無(wú)人機(jī)遙感技術(shù)的油菜機(jī)械直播苗期株數(shù)識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2017, 33(19): 115-123.
Zhao Biquan, Ding Youchun, Cai Xiaobin, et al. Seedlings number identification of rape planter based on low altitude unmanned aerial vehicles remote sensing technology [J]. Transactions of the Chinese Society of Agricultural Engineering, 2017, 33(19): 115-123.
[12] 劉帥兵, 楊貴軍, 周成全, 等. 基于無(wú)人機(jī)遙感影像的玉米苗期株數(shù)信息提取[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2018, 34(22): 69-77.
Liu Shuaibing, Yang Guijun, Zhou Chengquan, et al. Extraction of maize seedling number information based on UAV imagery [J]. Transactions of the Chinese Society of Agricultural Engineering, 2018, 34(22): 69-77.
[13] 萬(wàn)祖毅, 田永中, 劉旭東, 等. 基于輕小型無(wú)人機(jī)影像的柑橘樹株數(shù)提取[J]. 湖北農(nóng)機(jī)化, 2020(7): 140-144.
[14] 胡馨月, 倪海明, 戚大偉. 基于無(wú)人機(jī)影像的樹木株數(shù)提取[J]. 森林工程, 2021, 37(1): 6-12.
[15] Mukhtar H ," Khan M Z ," Khan M , et al. Wheat plant counting using UAV images based on semi?supervised semantic segmentation [C]. 2021 1st International Conference on Artificial Intelligence and Data Analytics (CAIDA), 2021.
[16] Luthfan N H, Tomoya W, Tsutomu M, et al. Machine learning techniques to predict soybean plant density using UAV and satellite?based remote sensing [J]. Remote Sensing, 2021, 13: 2548.
[17] 付虹雨, 崔國(guó)賢, 崔丹丹, 等. 基于無(wú)人機(jī)遙感影像的劍麻株數(shù)識(shí)別[J]. 中國(guó)麻業(yè)科學(xué), 2020, 42(6): 249-256.
[18] Reza M N , Na I S , Lee K H . Automatic counting of rice plant numbers after transplanting using low altitude UAV images [J]. International Journal of Contents, 2017, 13.
[19] 牛亞曉, 張立元, 韓文霆, 等. 基于無(wú)人機(jī)遙感與植被指數(shù)的冬小麥覆蓋度提取方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2018, 49(4): 212-221.
Niu Yaxiao, Zhang Liyuan, Han Wenting, et al. Fractional vegetation cover extraction method of winter wheat based on UAV remote sensing and vegetation index [J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(4): 212-221
[20] 應(yīng)興亮, 黃菲, 余啟源. 基于無(wú)人機(jī)遙感植被指數(shù)的松材線蟲病枯死木自動(dòng)提取研究[J]. 廣東蠶業(yè), 2023, 57(1): 57-61.
[21] 敖登, 楊佳慧, 丁維婷, 等. 54種植被指數(shù)研究進(jìn)展綜述[J]. 安徽農(nóng)業(yè)科學(xué), 2023, 51(1): 13-21, 28.
Ao Deng, Yang Jiahui, Ding Weiting, et al. Review of 54 vegetation indices [J]. Journal of Anhui Agricultural Sciences, 2023, 51(1): 13-21, 28.
[22] 韓青松, 賈振紅, 楊杰, 等. 基于改進(jìn)的Otsu算法的遙感圖像閾值分割[J]. 激光雜志, 2010, 31(6): 33-34.
Han Qingsong, Jia Zhenhong, Yang Jie, et al. Remote sensing image thresholding segmentation based on the modified Otsu algorithm [J]. Laser Journal, 2010, 31(6): 33-34.