• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學習的農(nóng)作物受災區(qū)域檢測方法研究

    2024-08-30 00:00:00曲錦旭
    互聯(lián)網(wǎng)周刊 2024年14期

    摘要:農(nóng)作物容易受到自然災害影響,導致減產(chǎn)、絕產(chǎn)等后果,給糧食安全造成一定影響。為了對災后受災區(qū)域進行快速客觀準確的識別,本文基于DeepLab v3+網(wǎng)絡提出農(nóng)作物受災區(qū)域分割方法,采用MobileNet v2作為骨干模型,基于多種數(shù)據(jù)增強技術(shù)擴充數(shù)據(jù)集,并通過MobileNet v2、Xception_65和Xception_71三種特征提取網(wǎng)絡對比,發(fā)現(xiàn)MobileNet v2的識別準確率最高,識別速度最快,能實現(xiàn)實時分割效果。

    關(guān)鍵詞:農(nóng)作物受災;深度學習;DeepLab v3+

    引言

    近年來,我國農(nóng)業(yè)快速發(fā)展,成為全球糧食生產(chǎn)的關(guān)鍵力量,然而,隨著全球氣候變化加劇,自然災害如洪水、干旱和臺風等對農(nóng)業(yè)造成的威脅愈發(fā)嚴重,頻繁發(fā)生的極端天氣事件導致糧食減產(chǎn)絕產(chǎn)等后果[1]。面對這些挑戰(zhàn),我國出臺了許多政策,其中《中央財政農(nóng)業(yè)保險保費補貼管理辦法》[2]第三十七條提到:“鼓勵各省和承保機構(gòu)采取有效措施,加強防災減損工作”,可見國家對農(nóng)業(yè)保險領(lǐng)域?qū)嵤┻^程的重視。

    隨著計算機技術(shù)發(fā)展,深度學習[3]在計算機視覺領(lǐng)域受到了研究人員廣泛關(guān)注,與傳統(tǒng)算法相比,深度學習方法的識別率、可靠性更高,同時基本解決了傳統(tǒng)方法的邊界問題。深度學習在圖像領(lǐng)域中的主要應用包括圖像識別和分類、目標檢測、圖像分割、圖像生成、圖像增強和恢復、姿態(tài)估計、視覺問答系統(tǒng)等。本文采用深度學習框架對農(nóng)作物受災區(qū)域進行圖像分割[4-5],將深度學習技術(shù)應用于農(nóng)業(yè)實際問題[6-7],提高對農(nóng)作物受災區(qū)域檢測的客觀性和可回溯性。

    本文以玉米、大豆、水稻三種農(nóng)作物在受到自然災害如旱澇災、風災影響后的受災區(qū)域圖像作為研究對象,使用DeepLab v3+框架進行圖像分割,框架中分別使用MobileNet v2、Xception_65和Xception_71三種特征提取網(wǎng)絡進行對比實驗,研究DeepLab v3+框架在農(nóng)作物受災區(qū)域快速識別的可行性。

    1. 數(shù)據(jù)與方法

    1.1 數(shù)據(jù)采集及預處理

    農(nóng)作物受災區(qū)域圖像數(shù)據(jù)來源于無人機在不同季節(jié)、不同地點、不同光照角度情況下拍照,共取得原始圖像數(shù)據(jù)642張。圖像數(shù)據(jù)集中包括11種圖像分割標簽,包括大豆倒伏、玉米倒伏、水稻倒伏、大豆缺苗、玉米缺苗、水稻缺苗、水溝、樹林、房屋建筑、道路、其他植物。本文是圖像分割實驗,除原數(shù)據(jù)集圖像外,還需要對原始圖像數(shù)據(jù)進行手動標注、生成標簽、合成掩碼圖。使用Labelme軟件標注、制作與生成分割標簽,通過Python自動化腳本生成7c88ea7e54ed20a3787ad9f314d613b6對應掩碼圖。

    為防止網(wǎng)絡訓練出現(xiàn)過擬合現(xiàn)象,必須提供大量的訓練數(shù)據(jù)。但是,由于本實驗圖像數(shù)據(jù)無法在實驗室環(huán)境中簡單復現(xiàn)且收集難度較大,所以本文使用自動化隨機圖像增強技術(shù)對原始數(shù)據(jù)集和對應掩碼圖進行同步擴充,使用的數(shù)據(jù)增強技術(shù)主要包括旋轉(zhuǎn)、縮放、裁剪,最終得到3萬張圖片及對應掩碼圖。部分圖片及其掩碼圖如圖1所示。

    1.2 PyTorch與環(huán)境搭建

    PyTorch框架提供了靈活的API和豐富的預構(gòu)建組件,通過調(diào)用Python的torch標準庫中各種函數(shù),實現(xiàn)不同功能。本實驗使用PyTorch框架實現(xiàn)了DeepLab v3+圖像分割框架,并通過封裝的方式將不同骨干網(wǎng)絡各自封裝成類。在train.py中可以指定訓練中的所有參數(shù),包括預訓練模型路徑、是否使用Cuda、標簽種類、骨干模型、下采樣倍數(shù)、圖片輸入大小,指定后直接運行即可開始訓練。

    深度學習是一種基于人工神經(jīng)網(wǎng)絡的機器學習技術(shù),通過模擬人腦處理和分析大量數(shù)據(jù)的能力,來實現(xiàn)復雜任務的學習。這一過程需要大量計算資源,特別是在處理大規(guī)模數(shù)據(jù)集和復雜網(wǎng)絡結(jié)構(gòu)時,GPU(圖形處理單元)扮演了關(guān)鍵角色。與傳統(tǒng)的CPU相比,GPU具有更多的計算核心,能夠并行處理大量數(shù)據(jù),特別適合進行深度學習訓練中的矩陣運算和大規(guī)模數(shù)據(jù)處理。GPU顯著加速了深度學習模型的訓練過程,使研究者和開發(fā)者能夠在更短的時間內(nèi)訓練出更復雜、性能更優(yōu)的模型,加快了深度學習技術(shù)的發(fā)展和應用。本實驗訓練的軟硬件配置如表1所示。

    2. 結(jié)果與分析

    本文使用的圖像分割框架DeepLab v3+網(wǎng)絡架構(gòu)如圖2所示,主要分為三個核心部分:深度卷積神經(jīng)網(wǎng)絡(骨干網(wǎng)絡)、ASPP(空洞)空間金字塔池化模塊、解碼器模塊。該模型在其編碼器部分繼承了DeepLab v3的設計,并通過加入空洞卷積和 ASPP模塊來增強對環(huán)境上下文的理解和捕捉能力。解碼器部分則采用了上采樣和特征融合技術(shù),用于恢復圖像的分辨率和提升細節(jié)表現(xiàn)。通過這種編解碼機制和多尺度處理,DeepLab v3+旨在提升語義分割任務中的準確性和處理效率。

    基于預處理和數(shù)據(jù)增強后的3萬張圖像數(shù)據(jù)集,使用DeepLab v3+框架,分別使用MobileNet v2、Xception_65和Xception_71三種特征提取網(wǎng)絡進行特征提取,使用預選函數(shù)的形狀調(diào)整學習率,初始學習率lr_min和lr_max分別為、0.07×e-3、7×e-3,圖像分割訓練過程中的損失函數(shù)如圖3所示。圖中50輪次出現(xiàn)波動是由于訓練機器的性能不足,為了在顯存小的情況下正常使用大的batch_size訓練,在訓練過程中的50輪次前凍結(jié)了主干網(wǎng)絡,只對網(wǎng)絡參數(shù)進行微調(diào),50輪次開始恢復正常的batch_size,網(wǎng)絡的所有參數(shù)開始有比較大的改變。

    利用驗證集對各個標簽類別對應顏色以及最終mIoU評估結(jié)果如表2所示,表中MIoU以玉米倒伏、水稻倒伏、大豆倒伏、水稻缺苗、玉米缺苗、大豆缺苗的IoU為依據(jù)計算得出。

    根據(jù)表2中過濾分類極值后的評估結(jié)果,MobileNet v2作為骨干網(wǎng)絡的訓練評估結(jié)果MIoU,比Xception_65高3%,比Xception_71高14%,并且對于大部分分割類別同樣都有較明顯提升,說明MobileNet v2作為骨干網(wǎng)絡的泛化能力更強,并能夠準確識別出小目標。

    3. 結(jié)論和展望

    本文以深度學習為基礎,通過采集三種農(nóng)作物的受災區(qū)域圖像進行研究,采用DeepLab v3+圖像分割框架作為主體框架,分別使用MobileNet v2、Xception_65和Xception_71三種骨干網(wǎng)絡作為特征提取網(wǎng)絡,并進行對比實驗。通過訓練過程與評估結(jié)果的對比,得到結(jié)論為,基于DeepLab v3+框架的農(nóng)作物受災區(qū)域分析中,MobileNet v2作為骨干網(wǎng)絡時所有分類的MIoU都是最優(yōu),且訓練分割速度也最快。由此可見,MobileNet v2的識別準確率最高,識別速度最快,能實現(xiàn)實時分割效果。

    未來相關(guān)研究應當著重考慮以下幾個方面:

    首先,研究更高效、更準確的算法,提高受災區(qū)域分析結(jié)果的準確性和效率。

    其次,研究如何更好整合不同源的數(shù)據(jù),如衛(wèi)星遙感源、地面監(jiān)測源,以提供更全面、更細致的災害評估。

    最后,加強跨領(lǐng)域合作,如氣候科學、經(jīng)濟管理學,特別是農(nóng)學與信息技術(shù)相融合,以提高受災分析的預測能力、橫向評估能力。

    參考文獻:

    [1]曾小艷,郭興旭.氣候變化、農(nóng)業(yè)風險與天氣指數(shù)保險創(chuàng)新[J].農(nóng)村經(jīng)濟與科技,2017,28(15):209-212.

    [2]財政部關(guān)于印發(fā)《中央財政農(nóng)業(yè)保險保費補貼管理辦法》的通知(財金〔2021〕130號)[A/OL].(2021-12-31)[2024-06-03].https://www.gov.cn/gongbao/content/2022/content_5683856.htm.

    [3]周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡研究綜述[J].計算機學報,2017,40(6): 1229-1251.

    [4]黃鵬,鄭淇,梁超.圖像分割方法綜述[J].武漢大學學報(理學版),2020,66(6): 519-531.

    [5]王秋萍,張志祥,朱旭芳.圖像分割方法綜述[J].信息記錄材料,2019,20(7):12-14.

    [6]湯文靜.遙感技術(shù)在農(nóng)業(yè)領(lǐng)域的應用研究[J].中國農(nóng)業(yè)信息,2016(23):112.

    [7]鄭二功,田迎芳,陳濤.基于深度學習的無人機影像玉米倒伏區(qū)域提取[J].河南農(nóng)業(yè)科學,2018,47(8):155-160.

    作者簡介:曲錦旭,碩士研究生,研究實習員,研究方向:圖像處理。

    晋中市| 松阳县| 波密县| 凌源市| 南开区| 竹山县| 平果县| 青海省| 栾川县| 富宁县| 栾城县| 专栏| 长岛县| 察雅县| 吉林省| 同仁县| 孝义市| 铜梁县| 金乡县| 安化县| 含山县| 新民市| 泾源县| 惠州市| 忻州市| 百色市| 萍乡市| 呼和浩特市| 额济纳旗| 和静县| 萝北县| 威信县| 邳州市| 乐清市| 金寨县| 巴彦淖尔市| 永兴县| 丹巴县| 威海市| 南靖县| 宁晋县|