• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于無人機(jī)影像和深度學(xué)習(xí)的渭北旱塬區(qū)土地利用精準(zhǔn)分類

    2022-03-09 02:06:50張志博趙西寧姜海晨高曉東石亮亮牛雨婷
    關(guān)鍵詞:分類深度模型

    張志博,趙西寧,姜海晨,袁 浩,楊 龍,高曉東,石亮亮,牛雨婷

    基于無人機(jī)影像和深度學(xué)習(xí)的渭北旱塬區(qū)土地利用精準(zhǔn)分類

    張志博1,趙西寧2,姜海晨3,袁 浩4,楊 龍5,高曉東2※,石亮亮4,牛雨婷3

    (1. 西北農(nóng)林科技大學(xué)旱區(qū)農(nóng)業(yè)水土工程教育部重點(diǎn)實(shí)驗(yàn)室,楊凌 712100;2. 中國科學(xué)院水利部水土保持研究所,楊凌 712100;3. 西北農(nóng)林科技大學(xué)資源環(huán)境學(xué)院,楊凌 712100;4. 西北農(nóng)林科技大學(xué)信息工程學(xué)院,楊凌 712100;5. 西北農(nóng)林科技大學(xué)經(jīng)濟(jì)管理學(xué)院,楊凌 712100)

    為明確基于無人機(jī)影像的旱塬區(qū)土地利用精準(zhǔn)分類方法,尤其是算法的選擇,該研究通過獲取渭北旱塬區(qū)白水縣通積村不同航拍高度無人機(jī)正射遙感影像,利用多種深度學(xué)習(xí)算法和機(jī)器學(xué)習(xí)算法對土地利用分類進(jìn)行研究。首先,采用大疆御2Pro獲取研究區(qū)80和160 m不同高度航拍影像;然后對不同航拍高度目視解譯結(jié)果和多種深度學(xué)習(xí)、機(jī)器學(xué)習(xí)模型預(yù)測結(jié)果進(jìn)行對比分析;最后,基于表現(xiàn)最佳算法對其進(jìn)行創(chuàng)新和改進(jìn)。結(jié)果表明:深度學(xué)習(xí)算法的表現(xiàn)遠(yuǎn)遠(yuǎn)優(yōu)于傳統(tǒng)機(jī)器學(xué)習(xí)算法,其中深度學(xué)習(xí)算法中表現(xiàn)最好的DeepLabv3+像素精度為90.06%,比隨機(jī)森林(Random Forest,RF)和支持向量機(jī)(Support Vector Machine,SVM)分別高出24.65和21.32個(gè)百分點(diǎn)?;贒eepLabv3+改進(jìn)的DeepLabv3+_BA模型整體分類效果最好,其像素精度為91.37%,比FCN、SegNet、UNet和DeepLabv3+分別高出7.43、10.12、2.27和1.31個(gè)百分點(diǎn)。各種算法在160 m數(shù)據(jù)集上各指標(biāo)精度高于80 m。改進(jìn)模型DeepLabv3+_BA具有較高的地物分類精度及較強(qiáng)的魯棒性,該研究可為基于無人機(jī)影像和深度學(xué)習(xí)的土地利用信息普查提供技術(shù)參考。

    無人機(jī);遙感;土地利用;可見光影像;深度學(xué)習(xí);機(jī)器學(xué)習(xí)

    0 引 言

    實(shí)時(shí)準(zhǔn)確的土地利用空間分布信息是土地資源現(xiàn)代化管理的基礎(chǔ),因此土地利用精準(zhǔn)分類識別是國土資源遙感的研究熱點(diǎn)之一[1]。目前常使用衛(wèi)星多光譜影像作為土地利用信息提取的基礎(chǔ)數(shù)據(jù)[2-3]。由于受數(shù)據(jù)獲取成本、空間分辨率和回訪周期的限制[4],常用的衛(wèi)星數(shù)據(jù)無法識別精細(xì)尺度的作物細(xì)節(jié),且數(shù)據(jù)獲取過于依賴衛(wèi)星過境時(shí)的天氣狀況[5],實(shí)時(shí)性和準(zhǔn)確性均受到限制。近年來低空無人機(jī)遙感技術(shù)迅速發(fā)展[6],具有靈活性高、操作簡單、空間分辨率高,且在云下操作等優(yōu)勢[7],彌補(bǔ)了傳統(tǒng)衛(wèi)星遙感的應(yīng)用限制,成為目前小區(qū)域土地利用遙感數(shù)據(jù)獲取的主要手段[8]。當(dāng)采用無人機(jī)影像進(jìn)行土地利用分類時(shí),相比于中低分辨率遙感影像,高分辨率無人機(jī)影像的紋理、形狀及上下文關(guān)系等信息更加豐富[9],可用于構(gòu)建可見光影像的分類特征。

    利用無人機(jī)影像進(jìn)行土地利用分類常用的方法包括機(jī)器學(xué)習(xí)方法和深度學(xué)習(xí)方法。機(jī)器學(xué)習(xí)方法主要以支持向量機(jī)(Support Vector Machine,SVM)[10]和隨機(jī)森林(Random Forest,RF)[11]為代表,這兩種監(jiān)督分類方法都需要對分類地區(qū)有一定的先驗(yàn)知識,利用樣本區(qū)干預(yù)分類類別及結(jié)果,存在“椒鹽”現(xiàn)象,且對圖像的特征提取不夠全面[12-13]。近年來,源于多層人工神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法,具有多層非線性網(wǎng)絡(luò)結(jié)構(gòu)能夠從大量數(shù)據(jù)中學(xué)習(xí)數(shù)據(jù)本質(zhì)特征的能力[14]。其中,深度學(xué)習(xí)中常用的語義分割模型,如FCN_8s[15]、SegNet[16]、UNet[17]、DeepLabv3+[18]等模型被廣泛應(yīng)用在醫(yī)學(xué)、生物學(xué)、遙感等領(lǐng)域,并取得了穩(wěn)定可信的研究成果[19-20]。目前,深度學(xué)習(xí)語義分割模型逐漸被用于無人機(jī)遙感影像的土地利用分類提取中[21-22]。如田琳靜等[23]利用卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)方法對農(nóng)業(yè)區(qū)土地利用進(jìn)行監(jiān)測分類,總體分類精度達(dá)93%以上;王協(xié)等[24]提出一種多尺度學(xué)習(xí)與深度卷積神經(jīng)網(wǎng)絡(luò)的多尺度神經(jīng)網(wǎng)絡(luò)模型,對超高分辨率遙感影像進(jìn)行土地利用分類,總體精度達(dá)91.97%。

    在復(fù)雜背景中對多種地物進(jìn)行同步分類提取時(shí)仍存在諸多問題。首先,在復(fù)雜背景中對多種地物進(jìn)行同步分類提取,傳統(tǒng)影像分類方法需要具備該領(lǐng)域先驗(yàn)知識的專家對特征進(jìn)行設(shè)計(jì)和挑選,因此,設(shè)計(jì)什么類型的特征無疑是一項(xiàng)巨大的工程量;其次,設(shè)計(jì)和挑選的特征是目標(biāo)相關(guān)的[25],每一個(gè)特征參數(shù)的組成均針對一種特定的目標(biāo)進(jìn)行探測,如何對待分類影像上關(guān)鍵類別的重要特征進(jìn)行全面覆蓋是令人困擾的難題;再次,很多人工設(shè)計(jì)的低層特征用于分類時(shí)需要閾值的參與,從而分類也將變成一種經(jīng)驗(yàn)性和主觀的結(jié)果,加之高分遙感影像由于地物細(xì)節(jié)豐富,導(dǎo)致同物易譜和同譜異物現(xiàn)象時(shí)有發(fā)生,針對多種影像地物確定閾值無疑增加了高分影像分類自動(dòng)化的難度[26];最后,也是最重要的一點(diǎn),人工設(shè)計(jì)的低層特征和高級語義之間存在著語義鴻溝[27],這是利用低層特征進(jìn)行高分遙感影像語義分割的重要障礙之一。而深度學(xué)習(xí)避免了人工對特征描述的設(shè)計(jì),更好的利用了原始數(shù)據(jù)本身特征去挖掘地物分類所需條件,而且通過層次化的端到端構(gòu)建方式,跨越了語義鴻溝[28]。本研究結(jié)合已有研究成果,使用多種機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)算法,以渭北旱塬區(qū)為典型區(qū)域,對多種地物(建筑用地、蘋果園、裸地、道路、草地、喬木、麥茬地、玉米地)進(jìn)行分類提取研究,以期獲得基于無人機(jī)可見光影像多種地物同步分類的最佳算法,為渭北旱塬區(qū)種植結(jié)構(gòu)優(yōu)化和土地利用精準(zhǔn)管理提供技術(shù)參考。

    1 研究區(qū)及數(shù)據(jù)來源

    1.1 研究區(qū)概況

    研究區(qū)位于陜西省渭南市白水縣,該區(qū)位于109°16′E~109°45′E,35°4′N~35°27′N。白水縣屬于陜西渭北旱塬區(qū),為關(guān)中平原與陜北黃土高原的過度地帶,溫帶大陸性季風(fēng)氣候,年均氣溫11.6 ℃,年均降水量598.2 mm,日照時(shí)數(shù)2 309.5 h,雨熱同季,蒸發(fā)量大,晝夜溫差大,光照充足,是國內(nèi)外公認(rèn)的世界蘋果最佳優(yōu)生區(qū)[29-30]。白水縣植被覆蓋度為36.3%,森林覆蓋率為28.8%,主要為多年生草本、灌木、少量喬木和以蘋果為主的經(jīng)濟(jì)林[29]。本研究進(jìn)行航拍時(shí),研究區(qū)內(nèi)主要作物物候特征:小麥處于成熟期、玉米處于拔節(jié)期、蘋果樹處于果實(shí)膨大期。

    1.2 數(shù)據(jù)獲取

    于2021年6月23日和24日上午在西北農(nóng)林科技大學(xué)白水蘋果實(shí)驗(yàn)站西北方向2.1 km處的通積村進(jìn)行拍攝,飛行平臺為大疆御2 Pro四旋翼無人機(jī)系統(tǒng),三軸穩(wěn)定云臺,俯仰角度為-90°至+30°,最大水平飛行速度72 km/h,最長飛行時(shí)間為31 min。影像傳感器為哈蘇2.54×10-2m CMOS可見光RGB相機(jī),有效像素2 000萬,視角約77°,機(jī)載內(nèi)存64 GB。拍攝當(dāng)天,天氣均陰,地面風(fēng)速均小于2級,滿足航攝要求。試驗(yàn)設(shè)計(jì)飛行高度為80和160 m,飛行高度為80 m時(shí):航線96條,航線總長42.43 km,航向重疊度75%,旁向重疊度60%,共2 248幅航攝原始相片;飛行高度為160 m時(shí),航線20 條,航線總長17.90 km,航向重疊度70%,旁向重疊度55%,共502幅航攝原始相片。2種高度均在同一地點(diǎn)航攝,大疆御2 Pro拍攝的照片自帶POS數(shù)據(jù),像片控制點(diǎn)的地理定位采用卓林A8手持北斗GPS定位儀,根據(jù)像控點(diǎn)選取原則結(jié)合研究區(qū)大小、地形特點(diǎn)和邊界條件,共布設(shè)9個(gè)控制點(diǎn),將以上數(shù)據(jù)導(dǎo)入軟件PhotoScan1.4.5進(jìn)行幾何定位配準(zhǔn)和拼接,然后得到數(shù)字正射影像(Digital Orthophoto Map,DOM),其幅寬長約1.65 km,寬約0.91 km,總面積為1.5 km2。研究區(qū)地理位置、正射影像、高空局部航片如圖1所示。

    圖1 研究區(qū)概況示意圖

    1.3 數(shù)據(jù)預(yù)處理

    80 m航片拼接生成DOM的空間分辨率為0.020 m,160 m高度的航片拼接生成DOM的空間分辨率為0.042 m,為保證2種高度用于模型提取的DOM具有相同的空間分辨率和提高后續(xù)處理效率,均重采樣至0.12 m。為了分析航攝原始相片不同高度對模型精度的影響,從80和160 m高度的航攝原始相片中分別挑選出400幅具有代表性的圖像,根據(jù)研究區(qū)現(xiàn)有地物類型劃分不同類別,使用Python第三方開源標(biāo)注工具labelme4.5.6,對挑選出的圖像進(jìn)行逐像素點(diǎn)標(biāo)注。為保證與拼接生成DOM的空間分辨率相同,挑選出的圖像和與之對應(yīng)的標(biāo)簽圖像均重采樣至0.12 m,重采樣之后圖像尺寸為1 024像素×682像素。

    為了讓模型學(xué)習(xí)到更多的特征和增強(qiáng)模型的魯棒性,本研究利用飽和度變換和幾何變換的數(shù)據(jù)增強(qiáng)方式,使用工具為數(shù)據(jù)增強(qiáng)庫Augmentor。分別對挑選出的80和160 m高度圖像進(jìn)行數(shù)據(jù)擴(kuò)充,2種高度分別擴(kuò)充至1 000幅。數(shù)據(jù)集劃分方式均采用5折交叉驗(yàn)證,首先將全部圖像隨機(jī)分成5份,每份200幅圖像,每份圖像從原圖和擴(kuò)大后圖像按照4∶6比例挑選,然后每次不重復(fù)地取其中一份做測試集,其余4份做訓(xùn)練集,即每次按照8∶2的比例劃分為訓(xùn)練集和測試集,且每次從訓(xùn)練集中隨機(jī)選出20%的圖像作為模型訓(xùn)練的驗(yàn)證集,用以確定模型的超參數(shù),驗(yàn)證集不參與每次結(jié)果的測試,共循環(huán)5次,保證每種高度的所有圖像都進(jìn)行過訓(xùn)練和測試,得到5個(gè)評價(jià)模型,最后將5次評價(jià)的性能均值作為最后評價(jià)結(jié)果,數(shù)據(jù)集有效類別數(shù)為8。

    2 研究方法

    2.1 研究方案

    在計(jì)算機(jī)視覺領(lǐng)域中,遙感圖像語義分割與圖像分類不同,語義分割是基于像素級的分類任務(wù)[27-28]。用于圖像分類的輸入圖像通常只包含一個(gè)目標(biāo)主題,即給定一組圖像都標(biāo)記為單個(gè)類別,輸出通常是圖像所屬類別的概率值,而語義分割可以實(shí)現(xiàn)端到端的輸入和輸出[15],即輸入是圖像輸出也是圖像,首先根據(jù)影像中不同類別區(qū)域的特征進(jìn)行定義標(biāo)簽,然后通過分割算法實(shí)現(xiàn)對一整張圖進(jìn)行像素級別的分割預(yù)測??傮w研究方案如圖2所示。

    2.2 機(jī)器學(xué)習(xí)分割算法

    在計(jì)算機(jī)視覺領(lǐng)域,機(jī)器學(xué)習(xí)分割算法種類很多,如K最近鄰(K-Nearest Neighbor,KNN)、決策樹(Decision Tree,DT)、SVM、RF,這些算法的特點(diǎn)不同,其適用情景也不同。KNN分類算法特點(diǎn)是完全跟著數(shù)據(jù)走,并沒有進(jìn)行數(shù)學(xué)建模,只適合小數(shù)據(jù)集;DT一般由3個(gè)步驟組成:特征選擇、決策樹生成、決策樹修剪,其特點(diǎn)是它總是在沿著特征做切分,隨著層層遞進(jìn),其劃分越來越細(xì),它容易出現(xiàn)過擬合,特別是當(dāng)類別太多時(shí),錯(cuò)誤的可能就會增加比較快,DT更大的用處是作為一些更有用算法的基石,比如RF;RF是一種集成算法,在現(xiàn)實(shí)分析中被大量使用,它首先隨機(jī)選取不同特征和訓(xùn)練樣本,生成大量的決策樹,然后綜合這些決策樹的結(jié)果來進(jìn)行最終分類,相對于決策樹,RF在準(zhǔn)確性上有了很大的提升;SVM的應(yīng)用也非常廣泛,它在支持向量的幫助下,通過類似于深度學(xué)習(xí)中的梯度下降優(yōu)化方法,找到最優(yōu)的分類超平面-具體目標(biāo)就是令支持向量到超平面之間的垂直距離最寬,其可以通過內(nèi)積核函數(shù)向高維空間做非線性映射,在樣本訓(xùn)練集上具有一定的魯棒性。

    注:PA為像素精度;IoU為交并比;CA為每個(gè)類別的精度;MIoU為平均交并比;F1為精確率(Precision)和召回率(Recall)的調(diào)和平均值;SVM為支持向量機(jī);RF為隨機(jī)森林。

    SVM的最優(yōu)分類函數(shù)計(jì)算式如下:

    RF的決策計(jì)算式為

    在本研究數(shù)據(jù)集上分別對KNN、DT、RF和SVM分類算法做了預(yù)試驗(yàn),結(jié)果表明RF和SVM分類效果優(yōu)于KNN和RF,這與多數(shù)研究人員的研究結(jié)果一致[31],因此,本研究選擇機(jī)器學(xué)習(xí)分割算法中的RF和SVM。

    2.3 深度學(xué)習(xí)語義分割算法

    基于深度學(xué)習(xí)經(jīng)典分類的卷積神經(jīng)網(wǎng)絡(luò)中有很多全連接層,而全連接層往往會給網(wǎng)絡(luò)帶來巨大的參數(shù)量。相比于卷積神經(jīng)網(wǎng)絡(luò),全卷積神經(jīng)網(wǎng)絡(luò)把全連接層全部替換為反卷積層,參數(shù)量也少了很多,因此可以對遙感影像進(jìn)行逐像素的語義分類,從而將深度學(xué)習(xí)方法應(yīng)用于語義分割。本研究選用FCN_8s、SegNet、UNet、DeepLabv3+四種經(jīng)典的語義分割模型完成研究區(qū)土地利用精準(zhǔn)分類,這4種模型均為編碼-解碼結(jié)構(gòu),編碼器主要由卷積層、池化層、激活函數(shù)等部件組成進(jìn)行特征提取,對像素位置信息和輸入圖像特征進(jìn)行編碼;解碼器主要由反卷積或反池化、激活函數(shù)等部件組成,反卷積或反池化將經(jīng)過編碼的低分辨率特征圖解碼為高分辨率的特征圖,并得到最終的預(yù)測分割圖。

    2.4 基于DeepLabv3+模型的改進(jìn)

    本研究根據(jù)實(shí)際需求對機(jī)器學(xué)習(xí)分割算法和深度學(xué)習(xí)語義分割算法中表現(xiàn)最優(yōu)的DeepLabv3+進(jìn)行改進(jìn)。DeepLabv3+是DeepLab系列模型的第四代產(chǎn)品,其與FCN_8s、SegNet、UNet相比最大的改進(jìn)之處就是引入了空洞卷積空間金字塔池化(Atrous Spatial Pyramid Pooling,ASPP),ASPP增大了模型的感受野,不會造成信息損失,同時(shí)對不同層級特征進(jìn)行融合,合并更多上下文信息。DeepLabv3+的骨干網(wǎng)絡(luò)為Xception,Xception分為Entry flow、Middle flow 以及Exit flow三個(gè)部分。Entry flow前兩層卷積層分別由32和64個(gè)3×3的卷積構(gòu)成,緊隨其后的是3個(gè)深度可分離卷積結(jié)構(gòu),每個(gè)深度可分離卷積結(jié)構(gòu)由3層3×3的深度可分離卷積層構(gòu)成,并在1×1的卷積層后進(jìn)行跳躍連接;Middle flow由16個(gè)深度可分離卷積結(jié)構(gòu)構(gòu)成,不進(jìn)行卷積操作直接進(jìn)行跳躍連接;Exit flow由一個(gè)深度可分離卷積結(jié)構(gòu)構(gòu)成,在其后有3個(gè)3×3深度可分離卷積層。

    2.4.1 去掉DeepLabv3+中的BN層

    批量歸一化層(Batch Normalization,BN)專注于標(biāo)準(zhǔn)化任何特定層的輸入,原始DeepLabv3+模型中的BN層計(jì)算過程如式(3)~(6)。首先計(jì)算樣本均值,然后計(jì)算樣本方差,其次進(jìn)行樣本數(shù)據(jù)標(biāo)準(zhǔn)化處理,最后進(jìn)行平移和縮放處理。BN層在每次訓(xùn)練迭代時(shí)計(jì)算批量統(tǒng)計(jì)信息(batch_size的均值和方差),因此在訓(xùn)練時(shí)需要更大的batch_size,以便有效的逼近小批量的總體均值和方差[32]。本研究輸入模型中的圖像尺寸為1 024像素× 628像素,圖像尺寸較大,而語義分割算法是逐像素點(diǎn)的分類,相應(yīng)的所需參數(shù)量更大,因此在訓(xùn)練時(shí)設(shè)置的batch_size最大為2,其值較小,而較小的batch_size通過BN層計(jì)算出的均值和方差不足以代表整個(gè)數(shù)據(jù)分布,反而會導(dǎo)致最終的訓(xùn)練結(jié)果不佳。

    據(jù)此,本文在原始DeepLabv3+模型的Xception部分中,把Entry flow中前2層單獨(dú)卷積層后的BN層去掉;去掉Exit flow中后3層單獨(dú)卷積層后的BN層;在ASPP中,去掉每一層空洞卷積層后的BN層。這使得模型更適用于本研究數(shù)據(jù)集,在batch_size較小時(shí)能得到較好結(jié)果,在訓(xùn)練時(shí)速度更快更穩(wěn)定,且均值和方差的計(jì)算與訓(xùn)練集相差變小。

    2.4.2 修改ASPP模塊各層空洞率

    DeepLabv3+給出的ASPP模塊4層空洞率分別為1、6、12、18,是在COCO(Microsoft Common Objects in Context)數(shù)據(jù)集上進(jìn)行試驗(yàn)分析得到的,這樣組合設(shè)計(jì)目的是為了更好地適用于COCO數(shù)據(jù)集特點(diǎn)和使網(wǎng)絡(luò)具有更大感受野[33],對一些大物體有較好的分割效果,而對小物體來說其效果還有待提高。該數(shù)據(jù)集在語義方面與遙感影像差距較大,因此原有的組合設(shè)計(jì)1、6、12、18并不適用于本研究語義豐富的遙感影像場景。

    對于遙感影像這樣組合設(shè)計(jì)的空洞率過大,較大的感受野反而不利于遙感圖像中微小物體的分割。因此,如何調(diào)整ASPP模塊中的空洞率,同時(shí)平衡好大小物體之間關(guān)系是空洞率組合設(shè)計(jì)的關(guān)鍵,本文將ASPP模塊4層空洞率分別設(shè)置為1、3、6、9,修改后的ASPP如圖3所示。

    注:Conv表示卷積運(yùn)算;rate表示空洞率。

    重新組合后的空洞率從一定程度上降低了網(wǎng)絡(luò)的感受野,同時(shí)處理好了大小物體之間的敏感度。減小空洞率使采樣輸入信號更密集,緩解了卷積失效,提高了網(wǎng)絡(luò)對小物體的分割效果。

    2.5 試驗(yàn)環(huán)境與模型訓(xùn)練

    模型訓(xùn)練的電腦參數(shù):NVIDIA GeForce RTX 3090 顯卡24 GB 顯存,64 GB 內(nèi)存,6T硬盤,Intel(R) Core(TM) i7-9700K CPU @ 3.60GHz。本研究使用Pytorch 1.7.0框架搭建深度學(xué)習(xí)語義分割網(wǎng)絡(luò),使用的深度神經(jīng)網(wǎng)絡(luò)GPU加速庫版本和CUDA版本分別為8.0.5和11.0,初始學(xué)習(xí)率設(shè)為1×10-4,選用Adam優(yōu)化器,使用交叉熵?fù)p失函數(shù),以2幅圖像為1個(gè)批次(batch)進(jìn)行100次完整迭代,為防止訓(xùn)練后期學(xué)習(xí)率過大導(dǎo)致網(wǎng)絡(luò)參數(shù)錯(cuò)過全局最優(yōu)解,調(diào)整策略為每迭代30個(gè)epoch之后,學(xué)習(xí)率變?yōu)樵瓉淼?.5倍,權(quán)重衰減率10-4,動(dòng)量0.9。

    機(jī)器學(xué)習(xí)分割算法SVM和RF本研究均應(yīng)用Python語言的第三方機(jī)器學(xué)習(xí)庫sklearn和計(jì)算機(jī)視覺庫skimage、numpy實(shí)現(xiàn)分割過程。SVM分類算法實(shí)現(xiàn)基于libsvm[34],libsvm是mayank等開發(fā)的一個(gè)調(diào)試使用SVM的軟件包,該軟件包提供了很多默認(rèn)參數(shù),利用該軟件包可以較快速地進(jìn)行支持向量機(jī)相關(guān)的試驗(yàn),利用函數(shù)自帶的參數(shù)可以對很多問題進(jìn)行快速調(diào)試。訓(xùn)練時(shí)SVM參數(shù)設(shè)置如表1所示,SVM模型訓(xùn)練函數(shù)為

    model = SVC(=1.0, kernel='rbf', degree=3, gamma='auto_deprecated', coef0=0.0, shrinking=True, probability=False, tol=0.001, cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape='ovr', random_state=None).fit(X, y) (7)

    表1 SVM模型訓(xùn)練參數(shù)

    訓(xùn)練時(shí)RF參數(shù)設(shè)置如表2所示,RF模型訓(xùn)練函數(shù)為

    model = RandomForestClassifier(n_estimators=250, max_depth=12, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features="auto", max_leaf_nodes=None, min_impurity_decrease=0.0, bootstrap=True, oob_score=True, n_jobs=None, random_state=42, verbose=0, warm_start=False, class_weight=None, ccp_alpha=0.0, max_samples=None,).fit(X, y) (8)

    表2 RF模型訓(xùn)練參數(shù)

    2.6 評價(jià)指標(biāo)

    為了客觀合理地評價(jià)語義分割模型在無人機(jī)土地利用影像上的分類與分割精度,本研究采用ISPRS提供的評價(jià)指標(biāo),像素精度(Pixel Accuracy,PA)、各類別交并比(Intersection over Union,IoU)、平均交并比(Mean Intersection over Union,MIoU)、各類別精度(Class Accuracy,CA),平均類別精度(Mean Class Accuracy,MCA),F(xiàn)1值,計(jì)算式分別為

    式中表示目標(biāo)的類別數(shù),共有+1個(gè)類別(含目標(biāo)和背景);、均表示類別號;p正確分類的像素;pp均表示分類錯(cuò)誤的像素;F1值是查準(zhǔn)率precision和查全率recall的調(diào)和平均值。以上指標(biāo)能較好地反映不同利用類型土地利用區(qū)域上分割的準(zhǔn)確性和完整性。

    3 結(jié)果與分析

    本節(jié)的結(jié)果與分析均在160 m高度的數(shù)據(jù)集上進(jìn)行,80 m高度的數(shù)據(jù)集和160 m高度的數(shù)據(jù)集不同航拍高度對模型分類性能的影響放在第“4”節(jié)討論中進(jìn)行分析。

    3.1 模型對比分析

    本研究將經(jīng)過改進(jìn)后的DeepLabv3+命名為DeepLabv3+_BA。在測試集上對7種模型的分類結(jié)果進(jìn)行精度評價(jià),及基于深度學(xué)習(xí)方法所需訓(xùn)練和預(yù)測時(shí)間對5種深度學(xué)習(xí)模型性能進(jìn)一步進(jìn)行分析評價(jià),結(jié)果如表3和表4所示。由表中結(jié)果可知,這7種方法均能識別研究區(qū)土地利用類型,但深度學(xué)習(xí)方分類精度普遍優(yōu)于機(jī)器學(xué)習(xí)方法,其中,DeepLabv3+模型的像素精度為90.06%,比機(jī)器學(xué)習(xí)模型SVM和RF分別高出21.32和24.65個(gè)百分點(diǎn);DeepLabv3+_BA模型的像素精度為91.37%,比機(jī)器學(xué)習(xí)模型SVM和RF分別高出22.63和25.96個(gè)百分點(diǎn)。

    表3 不同模型的分類精度和訓(xùn)練預(yù)測時(shí)間

    注:PA表示像素精度,MCA表示平均類別精度,MIoU表示平均交并比。下同。

    Note: PA represents Pixel Accuracy, MCA represents Mean Class Accuracy, MIoU represents Mean Intersection over Union. Same as below.

    橫向?qū)Ρ瓤梢钥闯?,不同模型的同一種評價(jià)指標(biāo)和同一種地物類型的分類精度差別較大。其中,本研究改進(jìn)模型DeepLabv3+_BA的平均交并比最高為75.23%,比SVM、RF、FCN、SegNet、UNet和DeepLabv3+分別高出12.05、13.8、3.73、5.20、2.11和1.09個(gè)百分點(diǎn)。深度學(xué)習(xí)模型FCN、SegNet、UNet、DeepLabv3+及DeepLabv3+_BA的像素精度PA和平均類別精度明顯優(yōu)于機(jī)器學(xué)習(xí)模型SVM和RF,且深度學(xué)習(xí)模型除SegNet的平均類別精度為75.41%外,其余深度學(xué)習(xí)模型的像素精度和平均類別精度均穩(wěn)定在80%以上。表明將深度學(xué)習(xí)方法用于基于無人機(jī)可見光影像的土地利用分類相比于傳統(tǒng)機(jī)器學(xué)習(xí)方法更有優(yōu)勢。

    表4 不同模型在不同類別上的F1值

    縱向?qū)Ρ瓤梢钥闯觯荒P驮诓煌匚镱愋蜕媳憩F(xiàn)也有所不同。其中,不同模型在蘋果園這一地物上分類精度較高,DeepLabv3+_BA的精度為93.86%;不同模型在草地這一類別分類精度較低。造成這種現(xiàn)象的原因是不同地物類型有不同的特征和邊界條件,且同一種模型對不同地物類型的敏感程度也不同。蘋果園在影像上高程較高,與周圍地物差別較大易于區(qū)分,而草地低矮,與周圍的玉米地、喬木等在形態(tài)和紋理上差別較小,容易造成錯(cuò)分漏分。實(shí)際分類影像中各類別占比也不同,本文使用計(jì)算機(jī)視覺開源庫numpy 1.21.3和Pillow 8.4.0對訓(xùn)練時(shí)各類別樣本數(shù)量占比關(guān)系進(jìn)行計(jì)算和統(tǒng)計(jì),統(tǒng)計(jì)結(jié)果如下:分類精度較高的蘋果園在模型訓(xùn)練時(shí)占比也較高,為29.98%,其余各類別占比分別為建筑用地(10.64%)、裸地(9.45%)、道路(9.58%)、草地(9.60%)、喬木(8.20%)、麥茬地(12.74%)和玉米地(9.81%)。

    3.2 分類效果分析

    圖4為不同深度學(xué)習(xí)模型訓(xùn)練時(shí)在8種類別上的精度隨迭代次數(shù)變化和訓(xùn)練損失曲線變化。由圖4可知,隨著訓(xùn)練輪數(shù)的增加,不同深度學(xué)習(xí)模型在8種類別上的精度數(shù)值均逐漸收斂,其中DeepLabv3+_BA在訓(xùn)練集模型預(yù)測建筑用地、蘋果園、裸地、道路、草地、喬木、麥茬地、玉米地分別為98.80%、99.47%、99.54%、98.14%、98.89%、99.28%、98.82%,訓(xùn)練集和驗(yàn)證集模型預(yù)測平均交并比分別為93.83%、92.71%,訓(xùn)練集和驗(yàn)證集模型預(yù)測損失值分別為0.045和0.043。FCN、SegNet、UNet、DeepLabv3+在訓(xùn)練集上平均交并比分別為84.61%、89.00%、86.87%、91.77%。說明5種深度學(xué)習(xí)模型在設(shè)置相同超參數(shù)時(shí)均能被正確訓(xùn)練。

    從圖4可以看出,8種土地利用類型中,蘋果園在不同模型開始訓(xùn)練時(shí)精度最高且收斂速度最快;5種深度學(xué)習(xí)模型第一次訓(xùn)練后損失值最小的為DeepLabv3+_BA且其相較于其他4種深度學(xué)習(xí)模型收斂速度最快。5種深度學(xué)習(xí)模型對建筑用地、麥茬地和蘋果園這3種地物分類效果較好,在迭代20次之后,5種模型均達(dá)到收斂,說明深度學(xué)習(xí)模型在訓(xùn)練時(shí)能夠快速正確地學(xué)習(xí)到這3種地物的特征。相對而言,不同模型對于草地和裸地分類效果還存在不足,主要是由于這兩種地物分布于農(nóng)田邊緣、道路及水渠兩側(cè)的洼地里,地勢較低,且形態(tài)特征不易被區(qū)分,造成深度學(xué)習(xí)模型訓(xùn)練時(shí)對這兩種地物有效特征的學(xué)習(xí)難度加大。SegNet模型在訓(xùn)練時(shí)對于各類均會出現(xiàn)精度突然下降的凹點(diǎn),與損失曲線突然上升的凸點(diǎn)相對應(yīng),其原因是由于該模型與其他4種深度學(xué)習(xí)模型相比使用的是“Sigmoid”作為全局激活函數(shù)而非“ReLU”,這會導(dǎo)致模型在訓(xùn)練時(shí)激活范圍過大,造成梯度消失彌散,從而損失曲線表現(xiàn)出震蕩的變化規(guī)律。

    圖4 不同類別精度和不同模型訓(xùn)練損失值

    FCN、UNet、SegNet、DeepLabv3+和DeepLabv3+_BA其模型主結(jié)構(gòu)均為編碼-解碼結(jié)構(gòu)。他們編碼器的主要功能都是進(jìn)行特征提取,主要區(qū)別在解碼器和上采樣操作的不同。FCN上采樣時(shí)是以像素相加的方式進(jìn)行特征融合,用這種方式直接進(jìn)行上采樣會導(dǎo)致對細(xì)節(jié)提取不夠精細(xì);UNet是以通道數(shù)進(jìn)行拼接以形成更厚的特征,這會造成特征冗余和消耗更多顯存;SegNet在解碼器和上采樣中的最大改進(jìn)是將最大池化指數(shù)轉(zhuǎn)移至解碼器中,這雖然改善了分割分辨率,但其評價(jià)指標(biāo)并不如FCN。以上3種語義分割算法均沒有充分考慮像素與像素之間的關(guān)系,忽略了在通常的基于像素分類的分割方法中使用的空間規(guī)整步驟,缺乏空間一致性。DeepLabv3+在解碼器和編碼器之間引入ASPP,優(yōu)化了網(wǎng)絡(luò)對不同空間尺度的目標(biāo)分割效果,使網(wǎng)絡(luò)具有了更強(qiáng)的表征能力,DeepLabv3+也參考了目標(biāo)檢測中非常常見的特征融合策略,使網(wǎng)絡(luò)保留了比較多的淺層信息。本研究基于DeepLabv3+改進(jìn)得到的DeepLabv3+_BA去掉了編碼器和ASPP中的BN層,并對空洞率組合進(jìn)一步優(yōu)化,讓其更加適用于語義豐富的遙感影像場景。以上模型的不同特點(diǎn),也決定了它們最終結(jié)果的不同表現(xiàn)。

    研究區(qū)不同模型和目視解譯分類結(jié)果如圖5所示。從研究區(qū)分類效果圖看,深度學(xué)習(xí)模型FCN、UNet、SegNet、DeepLabv3+和DeepLabv3+_BA分類出的各種地物地塊邊界較為完整,其分類效果整體上要好于機(jī)器學(xué)習(xí)模型SVM、RF。從全圖來看,DeepLabv3+_BA算法的誤分小斑塊最少,RF和SVM雖然同為機(jī)器學(xué)習(xí)方法,但RF的誤分小斑塊較多,為所有模型之最,且有區(qū)域性誤分現(xiàn)象。從類別來看,在5種深度學(xué)習(xí)模型中,蘋果園誤分小斑塊數(shù)量明顯少于其他地物,其原因可能與蘋果園的種植模式、冠層形態(tài)及物候等因素有關(guān),蘋果園為人工種植,具有固定的行距與株距,蘋果6月下旬處于果實(shí)膨大期,該時(shí)期較易識別;雖然小麥和玉米為機(jī)械直播式,也具有固定的行距和株距,但小麥?zhǔn)崭詈蟮柠湶珉s亂無序,且顏色與裸地較為相似,容易造成錯(cuò)分和漏分,玉米6月下旬處于拔節(jié)期,長勢稀疏,冠層低矮,未到最佳識別期。

    圖5 研究區(qū)不同模型和目視解譯分類結(jié)果

    4 討 論

    通過不同模型在測試集上分類結(jié)果可以看出,表現(xiàn)最好的為DeepLabv3+模型,因此在DeepLabv3+的基礎(chǔ)上對算法進(jìn)行改進(jìn),在“2.4.1”的改進(jìn)下,對ASPP中空洞率進(jìn)行調(diào)整。試驗(yàn)中不同組合空洞率選擇為1、2、4、6,1、3、6、9,1、5、10、15,1、6、12、18四類進(jìn)行試驗(yàn)。不同組合空洞率分類結(jié)果如表5所示。從分類結(jié)果可以看出,A、B兩組在像素精度、平均類別精度、平均交并比上均高于C、D兩組,但最小空洞率組合A組和最大空洞率組合D組其結(jié)果都不是最佳。B組的像素精度、平均類別精度、平均交并比均高于其他3組,因此最終選擇空洞率組合為1、3、6、9的ASPP模塊。

    因?yàn)椴煌脚母叨全@取的原始相片空間分辨率和視野大小都不同,基于不同航拍高度制作的訓(xùn)練樣本,會對模型精度有不同影響[33-34]。而航拍高度高低直接影響土地利用調(diào)查時(shí)地工作效率,如果航拍高度過低,對同一任務(wù)區(qū)而言,就需要規(guī)劃并執(zhí)行更多小測區(qū)任務(wù),才能對任務(wù)區(qū)進(jìn)行完整航拍;如果航拍高度太高,原始相片中地物類型就會較難區(qū)分,給目視解譯帶來困難。因此,本研究設(shè)置80和160 m兩種高度分別進(jìn)行航拍,探明不同高度對模型精度的影響,結(jié)果如圖6所示。雖然80 m高度的數(shù)據(jù)集分辨率高于160 m,但160 m高度時(shí),各深度學(xué)習(xí)模型分類效果均好于80 m。其原因可能是由于同一張?jiān)枷嗥?60 m具有更大視野,此時(shí)相片中地物大小也較為適中。更大視野的相片輸入模型訓(xùn)練時(shí),會使模型具有更大的感受野,更大感受野的相片在經(jīng)過一系列卷積池化操作后形成的特征圖會保留有更多有效信息,對模型精度有正反饋影響。

    表5 不同組合空洞率分類結(jié)果

    圖6 不同高度對模型分類性能的影響

    無人機(jī)航拍高度與視口面積、視口長度和視口寬度之間的關(guān)系如表6所示[35-36]。獲取同一區(qū)域的DOM,較高的航拍高度相比低高度飛行時(shí)設(shè)置同樣的航向重疊度和旁向重疊度,其航片數(shù)量就越少,工作效率就越高,如本研究80 m高度航片數(shù)量為2 248張,而160 m僅為502 張,其效率大大提高,但較高的航拍高度會導(dǎo)致較低的分辨率,低分辨率會給目視解譯帶來困難,進(jìn)而影響模型精度。對黃土高原的多個(gè)地區(qū),如通渭、正寧、扶風(fēng)、長武、耀州、白水、洛川、延安、子州、綏德、米脂和靈寶等地,利用無人機(jī)采取過多種航拍高度對樣點(diǎn)進(jìn)行航拍,高度有40、60、80、100、120、150、160、190、230、260、300 m,發(fā)現(xiàn)超過200 m時(shí)目視解譯時(shí)某些地物類型難以區(qū)分。因此,在基于無人機(jī)影像和深度學(xué)習(xí)模型進(jìn)行土地利用分類時(shí),建議采用150~200 m作為航拍高度,此時(shí)可以較好地權(quán)衡航拍效率和模型精度。

    表6 航拍高度與視口長度、寬度和面積之間關(guān)系

    注:大疆御2Pro的FOV值為75°。

    Note: The FOV value of DJI Mavic 2Pro is 75°.

    5 結(jié) 論

    本文基于無人機(jī)獲取的高分辨率可見光影像,充分利用豐富的空間、紋理和色彩信息構(gòu)建了用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)算法訓(xùn)練的不同高度數(shù)據(jù)集,訓(xùn)練多種分類模型,并進(jìn)行精度評價(jià),篩選出表現(xiàn)最優(yōu)的模型為DeepLabv3+,結(jié)合本研究數(shù)據(jù)集特點(diǎn)改進(jìn)和優(yōu)化其模型結(jié)構(gòu),獲得了基于無人機(jī)可見光影像的渭北旱塬區(qū)土地利用最佳分類模型DeepLabv3+_BA,主要結(jié)論如下:

    1)本文所用的7種分類方法均能識別研究區(qū)土地利用類型,但深度學(xué)習(xí)方法各精度指標(biāo)均優(yōu)于機(jī)器學(xué)習(xí)方法,其中像素精度、平均類別精度、平均交并比整體上平均比機(jī)器學(xué)習(xí)方法分別高出20%、18%、10%以上。

    2)DeepLabv3+在所用深度學(xué)習(xí)方法中分類效果最佳。結(jié)合本研究數(shù)據(jù)集特點(diǎn),從兩個(gè)方面對DeepLabv3+進(jìn)行改進(jìn),去掉DeepLabv3+中的批歸一化層和修改ASPP模塊各層空洞率,得到DeepLabv3+_BA,其各精度指標(biāo)、訓(xùn)練和預(yù)測所花費(fèi)時(shí)間都優(yōu)于改進(jìn)前。

    3)5種深度學(xué)習(xí)方法對蘋果園、裸地、道路和麥茬地等土地利用類型分類效果較好,且5種深度學(xué)習(xí)方法的像素精度均穩(wěn)定在80%以上。深度學(xué)習(xí)方法可以很好地用于無人機(jī)可見光影像土地利用分類,后續(xù)可結(jié)合不同地區(qū)土地利用特點(diǎn)和多時(shí)相影像分析進(jìn)一步提升分類精度。

    [1] 劉舒,朱航. 基于超高空間分辯率無人機(jī)影像的面向?qū)ο笸恋乩梅诸惙椒╗J]. 農(nóng)業(yè)工程學(xué)報(bào),2020,36(2):87-94.

    Liu Shu, Zhu Hang. Object-oriented land use classification based on ultra-high resolution images taken by unmanned aerial vehicle[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(2): 87-94. (in Chinese with English abstract)

    [2] Gudmann A, Csikos N, Szilassi P, et al. Improvement in satellite image-based land cover classification with landscape metrics[J]. Remote Sensing, 2020, 12(21): 2072-4292.

    [3] Alhassan V, Henry C, Ramanna, S, et al. A deep learning framework for land-use/land-cover mapping and analysis using multispectral satellite imagery[J]. Neural Computing & Applications, 2020, 32(12): 8529-8544.

    [4] 戴建國,張國順,郭鵬,等. 基于無人機(jī)遙感可見光影像的北疆主要農(nóng)作物分類方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2018,34(18):122-129.

    Dai Jianguo, Zhang Guoshun, Guo Peng, et al. Classification method of main crops in northern Xinjiang based on UAV visible waveband images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(18): 122-129. (in Chinese with English abstract)

    [5] 李冰,梁燕華,李丹丹,等. 多時(shí)相GF-1衛(wèi)星PMS影像提取農(nóng)作物種植結(jié)構(gòu)[J]. 中國農(nóng)業(yè)資源與區(qū)劃,2017,38(9):56-62.

    Li Bing, Liang Yanhua, Li Dandan, et al. Crop planting structure extraction based on multi-temporal GF-1 PMS remote sensing images[J]. Journal of China Agricultural Resources and Regional Planning, 2017, 38(9): 56-62. (in Chinese with English abstract)

    [6] 郭鵬,武法東,戴建國,等. 基于無人機(jī)可見光影像的農(nóng)田作物分類方法比較[J]. 農(nóng)業(yè)工程學(xué)報(bào),2017,33(13):112-119.

    Guo Peng, Wu Fadong, Dai Jianguo, et al. Comparison of farmland crop classification methods based on visible light images of unmanned aerial vehicles[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(13): 112-119. (in Chinese with English abstract)

    [7] 韓文霆,郭聰聰,張立元,等. 基于無人機(jī)遙感的灌區(qū)土地利用與覆被分類方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2016,47(11):270-277.

    Han Wenting, Guo Congcong, Zhang Liyuan, et al. Classification method of land cover and irrigated farm land use based on UAV remote sensing in irrigation[J]. Transactions of the Chinese Society of Agricultural Machinery, 2016, 47(11): 270-277. (in Chinese with English abstract)

    [8] 顧錚鳴,金曉斌,楊曉艷,等. 基于無人機(jī)遙感影像監(jiān)測土地整治項(xiàng)目道路溝渠利用情況[J]. 農(nóng)業(yè)工程學(xué)報(bào),2018,34(23):85-93.

    Gu Zhengming, Jin Xiaobin, Yang Xiaoyan, et al. Monitoring roads and canals utilization condition for land consolidation project based on UAV remote sensing image[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(23): 85-93. (in Chinese with English abstract)

    [9] 田琳靜,宋文龍,盧奕竹,等. 基于深度學(xué)習(xí)的農(nóng)業(yè)區(qū)土地利用無人機(jī)監(jiān)測分類[J]. 中國水利水電科學(xué)研究院學(xué)報(bào),2019,17(4):312-320.

    Tian Linjing, Song Wenlong, Lu Yizhu, et al. Rapid monitoring and classification of land use in agricultural areas by UAV based on deep learning method[J]. Journal of China Institute of Water Resources and Hydropower Research, 2019, 17(4): 312-320. (in Chinese with English abstract)

    [10] 李楠,朱秀芳,潘耀忠,等. 人工蜂群算法優(yōu)化的SVM遙感影像分類[J]. 遙感學(xué)報(bào),2018,22(4):559-569.

    Li Nan, Zhu Xiufang, Pan Yaozhong, et al. Optimized SVM based on artificial bee colony algorithm for remote sensing image classification[J]. National Remote Sensing Bulletin, 2018, 22(4): 559-569. (in Chinese with English abstract)

    [11] 馬玥,姜琦剛,孟治國,等. 基于隨機(jī)森林算法的農(nóng)耕區(qū)土地利用分類研究[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2016,47(1):297-303.

    Ma Yue, Jiang Qigang, Meng Zhiguo, et al. Random forest classification of land use in farming area[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(1): 297-303. (in Chinese with English abstract)

    [12] 耿仁方,付波霖,蔡江濤,等. 基于無人機(jī)影像和面向?qū)ο箅S機(jī)森林算法的巖溶濕地植被識別方法研究[J]. 地球信息科學(xué)學(xué)報(bào),2019,21(8):1295-1306.

    Geng Renfang, Fu Bolin, Cai Jiangtao, et al. Object-based karst wetland vegetation classification method using unmanned aerial vehicle images and random forest algorithm[J]. Journal of Geo-information Science, 2019, 21(8): 1295-1306. (in Chinese with English abstract)

    [13] 高晗. 基于SVM的圖像分類算法[D]. 長春:吉林大學(xué),2019.

    Gao Han. lmage Classification Based on SVM[D]. Changchun: Jilin University, 2019. (in Chinese with English abstract)

    [14] LeCun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015,521(7553): 436-444.

    [15] Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 37(4): 640-651.

    [16] Badrinarayanan V, Kendall A, Cipolla R. SegNet: A deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481-2495.

    [17] Ronneberger O, Fischer P, Brox T. U-Net: Convolutional networks for biomedical image segmentation[C]. International Conference on Medical Image Computing and Computer-assisted Intervention. Springer, Cham 2015, 234-241.

    [18] Chen L C, Zhu Y, Papandreou G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//2018 European Conference on Computer Vision (ECCV), 2018: 801-818.

    [19] 郭慶華,金時(shí)超,李敏,等. 深度學(xué)習(xí)在生態(tài)資源研究領(lǐng)域的應(yīng)用:理論、方法和挑戰(zhàn)[J]. 中國科學(xué)(地球科學(xué)),2020,50(10):1354-1373.

    Guo Qinghua, Jin Shichao, Li Mi, et al. Application of deep learning in ecological resource research: Theories, methods, and challenges[J]. Scientia Sinica(Terrae), 2020, 50(10): 1354-1373. (in Chinese with English abstract)

    [20] Zhang L, Zhang L, Du B. Deep learning for remote sensing data a technical tutorial on the state of the art[J]. IEEE Geoscience and Remote Sensing Magazine, 2016, 4(2): 22-40.

    [21] 馮權(quán)瀧,牛博文,朱德海,等. 土地利用/覆被深度學(xué)習(xí)遙感分類研究綜述[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(3):1-17.

    Feng Quanlong, Niu Bowen, Zhu Dehai, et al. Review for deep learning in land use and land cover remote sensing classification[J]. Transactions of the Chinese Society of Agricultural Machinery, 2022, 53(3): 1-17. (in Chinese with English abstract)

    [22] 劉文萍,趙磊,周焱,等. 基于深度學(xué)習(xí)的無人機(jī)土地覆蓋圖像分割方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(2):221-229.

    Liu Wenping, Zhao Lei, Zhou Yan, et al. Deep learning based unmanned aerial vehicle land cover image segmentation method[J]. Transactions of the Chinese Society of Agricultural Machinery, 2020, 51(2): 221-229. (in Chinese with English abstract)

    [23] 田琳靜,宋文龍,盧奕竹,等. 基于深度學(xué)習(xí)的農(nóng)業(yè)區(qū)土地利用無人機(jī)監(jiān)測分類[J]. 中國水利水電科學(xué)研究院學(xué)報(bào),2019,17(4):312-320.

    Tian Linjing, Song Wenlong, Lu Yizhu, et al. Rapid monitoring and classification of land use in agricultural areas by UAV based on deep learning method[J]. Journal of China Institute of Water Resources and Hydropower Research, 2019, 17(4):312-320. (in Chinese with English abstract)

    [24] 王協(xié),章孝燦,蘇程. 基于多尺度學(xué)習(xí)與深度卷積神經(jīng)網(wǎng)絡(luò)的遙感圖像土地利用分類[J]. 浙江大學(xué)學(xué)報(bào)(理學(xué)版),2020,47(6):715-723.

    Wang Xie, Zhang Xiaocan, Su Cheng. Land use classification of remote sensing images based on multi-scale learning and deep convolution neural network[J]. Journal of Zhejiang University(Science Edition), 2020, 47(6): 715-723. (in Chinese with English abstract)

    [25] Zhao W, Du S. Spectral-spatial feature extraction for hyperspectral image classification: A dimension reduction and deep learning approach[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(8): 4544-4554.

    [26] 陶翊婷. 基于深度學(xué)習(xí)的高空間分辨率遙感影像分類方法研究[D]. 武漢:武漢大學(xué),2019.

    Tao Yiting. Research on Very High Spatial Resolution Remote Sensing Image Classification Method based on Deep Learning[D]. Wuhan: Wuhan University, 2019. (in Chinese with English abstract)

    [27] 孫顯,付琨,王宏琦. 高分辨率遙感圖像理解[M]. 北京:科學(xué)出版社,2011:225-260.

    [28] Sun W, Wang R. Fully convolutional networks for semantic segmentation of very high resolution remotely sensed images combined with DSM[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(3): 474-478.

    [29] 董紅梅,趙景波,宋友桂,等. 黃土高原白水縣不同種植年限蘋果園土壤重金屬含量特征與風(fēng)險(xiǎn)評價(jià)[J]. 水土保持研究,2021,28(5):205-211.

    Dong Hongmei, Zhao Jingbo, Song Youjia, et al. Characteristics and risk assessment of heavy metal content in soils of apple orchard with different cultivating years in Baishui County on the Loess Plateau[J]. Research of Soil and Water Conservation, 2021, 28(5): 205-211. (in Chinese with English abstract)

    [30] 夏利恒,劉京,尉芳,等. 陜西渭北旱塬區(qū)耕地時(shí)空格局變化分析[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,37(5):256-264.

    Xia Liheng, Liu Jing, Wei Fang, et al. Spatiotemporal pattern change of cultivated land in Weibei Dryland of Shaanxi Province[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(5): 256-264. (in Chinese with English abstract)

    [31] Fernandez-Delgado M, Cernadas E, Barro S, et al. Do we need hundreds of classifiers to solve real world classification problems?[J]. Journal of Machine Learning Research, 2014, 15: 24-31.

    [32] Ioffe S, Szegedy C. Batch normalization: Accelerating deep network training by reducing internal covariate shift[C]. International Conference on Machine Learning, 2015: 448-456.

    [33] 熊風(fēng)光,張鑫,韓燮,等. 改進(jìn)的遙感圖像語義分割研究[J]. 計(jì)算機(jī)工程與應(yīng)用,2022,58(8):185-190.

    Xiong Fengguang, Zhang Xin, Han Xie, et al. Research on lmproved semantic segmentation of remote sensing[J]. Computer Engineering and Applications, 2022, 58(8): 185-190. (in Chinese with English abstract)

    [34] Mayank S, Sumit S, Jayadeva J. Minimal complexity machines under weight quantization[J]. IEEE Transactions on Computers, 2021, 70(8): 1189-1198.

    [35] 姚莉娜,鄭皓科,廖辰靖,等. 無人機(jī)航拍的最佳飛行高度研究[J]. 機(jī)電信息,2020(11):114-115.

    Yao Lina, Zheng Haoke, Liao Chenjing, et al. Study on the optimal flying altitude of UAV aerial photography[J]. Mechanical and Electrical Information, 2020(11): 114-115. (in Chinese with English abstract)

    [36] 孫坤君,王朝,陳勝軍,等. 無人機(jī)高度與視口率定的快速量測[J]. 中國水土保持科學(xué),2022,20(3):81-87.

    Sun Kunjun, Wang Chao, Chen Shengjun, et al. Rapid measurement of UAV height and Viewport calibration[J]. Science of Soil and Water Conservation, 2022, 20(3): 81-87. (in Chinese with English abstract)

    Precise classification of land use in Weibei Dryland using UAV images and deep learning

    Zhang Zhibo1, Zhao Xining2, Jiang Haichen3,Yuan Hao4, Yang Long5, Gao Xiaodong2※, Shi Liangliang4, Niu Yuting3

    (1.,,,712100,;2.,,712100,;3.,,712100,;4.,,712100,;5.,,712100,)

    Accurate land use classification is highly required using Unmanned Aerial Vehicle (UAV) images, especially the data selection. In this study, the UAV orthographic remote sensing images were acquired at different aerial heights in Tongji Village, Baishui County, Weibei dry land, China. The land use was then classified using a variety of deep learning and machine learning. The DJI Mavic 2Pro was used to obtain 80 and 160m aerial images in the study area. There were 96 routes, the total length of routes was 42.43 km, the heading overlap degree was 75%, the side overlap degree was 60%, and a total of 2 248 original aerial photos were taken at a flight height of 80 m. At 160 m flight height, there were 20 routes with a total length of 17.90 km, the heading overlap degree was 70%, the side overlap degree was 55%, and a total of 502 original aerial images were taken in this case. The geo-positioning of the photo control points was performed on the Zhuolin A8 handheld Beidou GPS locator. Agisoft PhotoScan 1.4.5 software was used to splice and process the original single-image data. A comparison was made on the visual interpretation of different aerial photography heights and the prediction of various deep learning and machine learning models. Labelme4.5.6 software was used for the visual interpretation. As such, the best performance was achieved during this time. The results show that the performance of deep learning was far better than that of traditional machine learning. The best-performing of deep learning (DeepLabv3+) presented a pixel accuracy of 90.06%, which was 24.65, and 21.32 percentage points higher than that of random forest (RF) and support vector machine (SVM), respectively. The improved DeepLabv3+_BA model performed the best overall classification. The improvement of deep learning was attributed to two aspects. Firstly, the BN layer was removed after the first two separate convolution layers in the Entry flow in the encoder Xception part of the original DeepLabv3+ model. The BN layer was removed in ASPP after the last three separate convolutional layers in the Exit flow. The BN layer was removed after each dilated convolutional layer. Secondly, the ASPP atrous rate combination design was re-optimized, according to the characteristics of the data set. The pixel accuracy of the improved model was 91.37%, which was 7.43, 10.12, 2.27, and 1.31 percentage points higher than those of FCN, SegNet, UNet, and DeepLabv3+, respectively. The number of iterations required for the best accuracy was reduced by about 50%, compared with the other four deep-learning models. Taking the extraction of apple orchard as an example, the F1 value of DeepLabv3+_BA was 89.10%, which was 19.94, 23.68, 2.04, 2.97, 2.4, and 0.78 percentage points higher than those of SVM, RF, FCN, SegNet, UNet, and DeepLabv3+, respectively. The accuracy of various algorithms was higher than 80 m on 160 m datasets. The performance of various deep learning on the test set demonstrated that the accuracy of DeepLabv3+_BA reached more than 90% for the apple orchard, bare field, stubble field, and road ground object classification. The improved model DeepLabv3+_BA presented higher accuracy and robustness of ground object classification. This finding can also provide a strong reference for the land use information census using UAV images and deep learning.

    UAV; remote sensing; land use; visible light image; deep learning; machine learning

    10.11975/j.issn.1002-6819.2022.22.022

    TP79

    A

    1002-6819(2022)-22-0199-11

    張志博,趙西寧,姜海晨,等. 基于無人機(jī)影像和深度學(xué)習(xí)的渭北旱塬區(qū)土地利用精準(zhǔn)分類[J]. 農(nóng)業(yè)工程學(xué)報(bào),2022,38(22):199-209.doi:10.11975/j.issn.1002-6819.2022.22.022 http://www.tcsae.org

    Zhang Zhibo, Zhao Xining, Jiang Haichen, et al. Precise classification of land use in Weibei Dryland using UAV images and deep learning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(22): 199-209. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2022.22.022 http://www.tcsae.org

    2022-09-22

    2022-11-09

    國家重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(2021YFD1900700);國家杰出青年科學(xué)基金項(xiàng)目(42125705)

    張志博,博士生,研究方向?yàn)檗r(nóng)業(yè)遙感技術(shù)與圖像分割。Email:zhang_zhibo@nwafu.edu.cn

    高曉東,研究員,博士生導(dǎo)師,研究方向?yàn)楹祬^(qū)農(nóng)田水土過程與調(diào)控。Email:gao_xiaodong@nwafu.edu.cn

    猜你喜歡
    分類深度模型
    一半模型
    分類算一算
    深度理解一元一次方程
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    分類討論求坐標(biāo)
    深度觀察
    深度觀察
    深度觀察
    數(shù)據(jù)分析中的分類討論
    精品一品国产午夜福利视频| 久久久久国内视频| e午夜精品久久久久久久| av又黄又爽大尺度在线免费看| 精品久久久久久电影网| 久久精品国产亚洲av香蕉五月 | 99国产极品粉嫩在线观看| 精品一品国产午夜福利视频| 亚洲中文av在线| 亚洲人成77777在线视频| 欧美在线一区亚洲| 一进一出抽搐动态| 精品国产一区二区久久| 多毛熟女@视频| 国产成人av激情在线播放| 久久青草综合色| 在线十欧美十亚洲十日本专区| 高清在线国产一区| 亚洲成人手机| av电影中文网址| 在线观看免费视频日本深夜| 色老头精品视频在线观看| 午夜激情av网站| 老司机在亚洲福利影院| 亚洲五月色婷婷综合| 女人被躁到高潮嗷嗷叫费观| 老熟妇仑乱视频hdxx| 欧美成人午夜精品| 不卡一级毛片| 好男人电影高清在线观看| 久久久精品免费免费高清| 久久毛片免费看一区二区三区| 午夜福利乱码中文字幕| 午夜福利一区二区在线看| 极品人妻少妇av视频| tube8黄色片| 精品国产超薄肉色丝袜足j| 少妇 在线观看| 国产精品一区二区精品视频观看| 一级a爱视频在线免费观看| 飞空精品影院首页| 伊人久久大香线蕉亚洲五| 亚洲欧美色中文字幕在线| 男女无遮挡免费网站观看| 国产精品免费一区二区三区在线 | 国产亚洲精品一区二区www | 法律面前人人平等表现在哪些方面| 国产精品欧美亚洲77777| 窝窝影院91人妻| 美女国产高潮福利片在线看| 丝袜在线中文字幕| 国产在线观看jvid| 搡老岳熟女国产| 少妇被粗大的猛进出69影院| 日韩精品免费视频一区二区三区| 成年动漫av网址| 亚洲视频免费观看视频| 99精品欧美一区二区三区四区| 亚洲av日韩精品久久久久久密| 18禁美女被吸乳视频| 又大又爽又粗| 国产色视频综合| 99香蕉大伊视频| 高清av免费在线| 不卡av一区二区三区| 国产一区有黄有色的免费视频| 叶爱在线成人免费视频播放| 亚洲精品乱久久久久久| www日本在线高清视频| 国产成人系列免费观看| 亚洲七黄色美女视频| 午夜激情久久久久久久| 日韩中文字幕欧美一区二区| 捣出白浆h1v1| aaaaa片日本免费| 大片免费播放器 马上看| 自线自在国产av| 90打野战视频偷拍视频| 欧美一级毛片孕妇| 久热爱精品视频在线9| 少妇被粗大的猛进出69影院| 久久香蕉激情| 色综合婷婷激情| 乱人伦中国视频| 中文字幕另类日韩欧美亚洲嫩草| 免费av中文字幕在线| 变态另类成人亚洲欧美熟女 | 人人澡人人妻人| 精品国产超薄肉色丝袜足j| 日本黄色日本黄色录像| 成人手机av| 黄色怎么调成土黄色| 午夜视频精品福利| 亚洲九九香蕉| 国产成人啪精品午夜网站| 国产精品98久久久久久宅男小说| www.999成人在线观看| 国产欧美日韩一区二区精品| 黑人操中国人逼视频| 极品少妇高潮喷水抽搐| 丝袜美腿诱惑在线| 大片电影免费在线观看免费| 亚洲精品国产区一区二| 久久中文字幕一级| 国产激情久久老熟女| 欧美精品亚洲一区二区| 欧美日本中文国产一区发布| 精品国产一区二区三区四区第35| 一个人免费在线观看的高清视频| 777米奇影视久久| 手机成人av网站| 国产av一区二区精品久久| 欧美亚洲 丝袜 人妻 在线| 人人妻人人添人人爽欧美一区卜| 老汉色∧v一级毛片| 视频区欧美日本亚洲| 国产成人免费观看mmmm| 成年版毛片免费区| 日本黄色日本黄色录像| 婷婷丁香在线五月| 精品少妇一区二区三区视频日本电影| 黄色视频不卡| 少妇的丰满在线观看| 9热在线视频观看99| 1024香蕉在线观看| 亚洲一卡2卡3卡4卡5卡精品中文| 夜夜骑夜夜射夜夜干| 欧美在线黄色| 欧美乱妇无乱码| 高潮久久久久久久久久久不卡| 欧美+亚洲+日韩+国产| 日韩欧美免费精品| 9色porny在线观看| 日韩成人在线观看一区二区三区| 一区二区三区精品91| 久久99热这里只频精品6学生| 久久人人97超碰香蕉20202| 亚洲九九香蕉| 久久人人爽av亚洲精品天堂| 97在线人人人人妻| 桃红色精品国产亚洲av| 啦啦啦视频在线资源免费观看| 人人妻,人人澡人人爽秒播| 丝袜美腿诱惑在线| 欧美久久黑人一区二区| 在线亚洲精品国产二区图片欧美| 69av精品久久久久久 | 成在线人永久免费视频| av一本久久久久| 亚洲国产欧美日韩在线播放| 久久精品国产亚洲av高清一级| 亚洲精品国产色婷婷电影| 久久婷婷成人综合色麻豆| 露出奶头的视频| 欧美一级毛片孕妇| 999精品在线视频| 久久国产精品大桥未久av| 欧美另类亚洲清纯唯美| 三上悠亚av全集在线观看| 国产亚洲精品久久久久5区| 久久久精品94久久精品| 久久久久久久国产电影| 一级片免费观看大全| 天堂8中文在线网| 丝瓜视频免费看黄片| 99精国产麻豆久久婷婷| 黑人欧美特级aaaaaa片| 大型黄色视频在线免费观看| 国产成人精品久久二区二区91| 久久ye,这里只有精品| 大型黄色视频在线免费观看| 亚洲av第一区精品v没综合| 91大片在线观看| 999久久久国产精品视频| 少妇裸体淫交视频免费看高清 | 国产黄频视频在线观看| 欧美人与性动交α欧美软件| 国产伦理片在线播放av一区| 国产成人免费观看mmmm| 丝袜在线中文字幕| 久久天躁狠狠躁夜夜2o2o| 亚洲色图综合在线观看| 午夜福利一区二区在线看| 亚洲av欧美aⅴ国产| 国产一区二区三区在线臀色熟女 | 国产黄频视频在线观看| 18禁黄网站禁片午夜丰满| 18禁裸乳无遮挡动漫免费视频| 黄色丝袜av网址大全| 一本久久精品| 日韩中文字幕欧美一区二区| 国产一卡二卡三卡精品| 久久久久久久精品吃奶| 国产精品秋霞免费鲁丝片| 午夜成年电影在线免费观看| 99国产精品99久久久久| 动漫黄色视频在线观看| 午夜福利一区二区在线看| 丝袜美腿诱惑在线| 国产成人av教育| 青青草视频在线视频观看| 黑人巨大精品欧美一区二区mp4| 亚洲国产看品久久| 久久精品91无色码中文字幕| 国产亚洲欧美精品永久| 亚洲 国产 在线| 男女下面插进去视频免费观看| 久久人人爽av亚洲精品天堂| 极品少妇高潮喷水抽搐| 久久久国产成人免费| 757午夜福利合集在线观看| 美女高潮喷水抽搐中文字幕| 国产激情久久老熟女| 日韩免费av在线播放| 欧美精品人与动牲交sv欧美| 日日摸夜夜添夜夜添小说| h视频一区二区三区| 操出白浆在线播放| 国产精品免费视频内射| 免费观看人在逋| 黄片播放在线免费| 国产又爽黄色视频| 视频区图区小说| 老熟妇乱子伦视频在线观看| 国产精品一区二区在线观看99| 国产精品 欧美亚洲| 亚洲 国产 在线| 1024视频免费在线观看| 老司机深夜福利视频在线观看| 他把我摸到了高潮在线观看 | 国产精品1区2区在线观看. | 久久久久久久国产电影| 国产精品二区激情视频| 久久天躁狠狠躁夜夜2o2o| 少妇的丰满在线观看| 精品少妇内射三级| 久久久精品区二区三区| 日韩欧美一区视频在线观看| 男女免费视频国产| 欧美黄色淫秽网站| 精品国产国语对白av| 亚洲国产成人一精品久久久| 久久av网站| 亚洲精华国产精华精| 国产精品一区二区在线不卡| av线在线观看网站| 免费观看a级毛片全部| 一边摸一边抽搐一进一出视频| 性高湖久久久久久久久免费观看| 成人18禁在线播放| 美女午夜性视频免费| 国产国语露脸激情在线看| 少妇 在线观看| 欧美激情高清一区二区三区| 亚洲av片天天在线观看| 日本黄色日本黄色录像| 国产日韩一区二区三区精品不卡| 天天影视国产精品| 18禁裸乳无遮挡动漫免费视频| 12—13女人毛片做爰片一| 交换朋友夫妻互换小说| 王馨瑶露胸无遮挡在线观看| 少妇被粗大的猛进出69影院| 国产精品成人在线| 亚洲一卡2卡3卡4卡5卡精品中文| 51午夜福利影视在线观看| 日本一区二区免费在线视频| 真人做人爱边吃奶动态| a级片在线免费高清观看视频| 日韩大片免费观看网站| 亚洲精品在线观看二区| 日本一区二区免费在线视频| 女人被躁到高潮嗷嗷叫费观| 后天国语完整版免费观看| 国产精品98久久久久久宅男小说| 中文字幕另类日韩欧美亚洲嫩草| 亚洲欧美一区二区三区久久| 午夜福利在线免费观看网站| 精品国内亚洲2022精品成人 | 国产淫语在线视频| 亚洲国产欧美在线一区| 国产成人系列免费观看| 日本撒尿小便嘘嘘汇集6| 亚洲国产欧美日韩在线播放| 制服诱惑二区| 亚洲欧美精品综合一区二区三区| 夜夜爽天天搞| 精品福利观看| 久久久久久久精品吃奶| 在线 av 中文字幕| 最近最新中文字幕大全免费视频| 高清欧美精品videossex| 视频区欧美日本亚洲| 我的亚洲天堂| 深夜精品福利| 国产日韩一区二区三区精品不卡| kizo精华| 欧美大码av| 国产又色又爽无遮挡免费看| 大码成人一级视频| 国产又爽黄色视频| 大码成人一级视频| 久久国产精品男人的天堂亚洲| 国产成人一区二区三区免费视频网站| 欧美日韩亚洲高清精品| 亚洲色图 男人天堂 中文字幕| 欧美精品亚洲一区二区| a级毛片在线看网站| www日本在线高清视频| 久久中文字幕人妻熟女| 午夜福利影视在线免费观看| 国产av精品麻豆| 日日夜夜操网爽| 亚洲av美国av| 50天的宝宝边吃奶边哭怎么回事| 人人妻人人爽人人添夜夜欢视频| 最近最新中文字幕大全电影3 | 亚洲精品国产精品久久久不卡| 两个人看的免费小视频| 美女高潮喷水抽搐中文字幕| 久久人人爽av亚洲精品天堂| 天堂动漫精品| 国产99久久九九免费精品| 亚洲男人天堂网一区| 男女高潮啪啪啪动态图| 成年动漫av网址| 欧美一级毛片孕妇| 久久狼人影院| √禁漫天堂资源中文www| 精品亚洲成a人片在线观看| 操出白浆在线播放| 大型黄色视频在线免费观看| 免费观看a级毛片全部| 热re99久久精品国产66热6| 一边摸一边抽搐一进一小说 | kizo精华| 国产精品一区二区免费欧美| 99国产精品免费福利视频| 久久人妻av系列| 精品视频人人做人人爽| 制服诱惑二区| 9191精品国产免费久久| tube8黄色片| 男女之事视频高清在线观看| 亚洲avbb在线观看| 免费在线观看影片大全网站| 精品国产一区二区三区久久久樱花| 免费av中文字幕在线| 少妇粗大呻吟视频| 亚洲人成77777在线视频| 精品久久蜜臀av无| 亚洲专区国产一区二区| 十八禁网站免费在线| 亚洲人成伊人成综合网2020| 下体分泌物呈黄色| 久久久水蜜桃国产精品网| 十分钟在线观看高清视频www| 一二三四在线观看免费中文在| 亚洲久久久国产精品| 日本撒尿小便嘘嘘汇集6| 九色亚洲精品在线播放| 国产欧美日韩精品亚洲av| 久久久国产一区二区| 日韩一区二区三区影片| 香蕉丝袜av| 99久久99久久久精品蜜桃| 午夜福利在线免费观看网站| 国产免费视频播放在线视频| 成人亚洲精品一区在线观看| 香蕉久久夜色| 在线看a的网站| 成年人午夜在线观看视频| 国产成人精品久久二区二区91| 老司机亚洲免费影院| 亚洲av第一区精品v没综合| 国产精品熟女久久久久浪| 在线看a的网站| 岛国在线观看网站| 视频在线观看一区二区三区| 日韩中文字幕欧美一区二区| 久久九九热精品免费| 国产亚洲一区二区精品| 精品熟女少妇八av免费久了| 日韩欧美国产一区二区入口| 久久精品国产99精品国产亚洲性色 | av欧美777| 亚洲欧洲日产国产| 国产精品免费一区二区三区在线 | 国产亚洲精品一区二区www | av一本久久久久| 91麻豆精品激情在线观看国产 | 美女扒开内裤让男人捅视频| av视频免费观看在线观看| 国产高清videossex| 欧美午夜高清在线| 9色porny在线观看| 美女高潮到喷水免费观看| 大片免费播放器 马上看| 精品国产一区二区三区久久久樱花| 日韩免费高清中文字幕av| 欧美激情高清一区二区三区| 成年版毛片免费区| 国产精品偷伦视频观看了| 999精品在线视频| 精品熟女少妇八av免费久了| 免费看a级黄色片| 国产97色在线日韩免费| 啦啦啦免费观看视频1| 人妻久久中文字幕网| 午夜福利一区二区在线看| 最近最新中文字幕大全电影3 | 亚洲一卡2卡3卡4卡5卡精品中文| 亚洲 国产 在线| av片东京热男人的天堂| 国产又色又爽无遮挡免费看| 搡老乐熟女国产| 91精品三级在线观看| 啦啦啦视频在线资源免费观看| 国产成人精品在线电影| 在线十欧美十亚洲十日本专区| 老鸭窝网址在线观看| 麻豆成人av在线观看| 香蕉国产在线看| 在线亚洲精品国产二区图片欧美| 99久久精品国产亚洲精品| 丁香欧美五月| 制服人妻中文乱码| 日本黄色日本黄色录像| av电影中文网址| 大型av网站在线播放| 黄色视频在线播放观看不卡| 成人手机av| 天天躁夜夜躁狠狠躁躁| 精品久久蜜臀av无| 18禁国产床啪视频网站| 91精品国产国语对白视频| 亚洲九九香蕉| 亚洲精品一卡2卡三卡4卡5卡| 久久性视频一级片| 国产深夜福利视频在线观看| 大片电影免费在线观看免费| 人妻一区二区av| 少妇猛男粗大的猛烈进出视频| 久久中文字幕人妻熟女| 国产精品一区二区精品视频观看| 成人黄色视频免费在线看| 伊人久久大香线蕉亚洲五| 少妇的丰满在线观看| av视频免费观看在线观看| 在线观看免费视频日本深夜| 两性夫妻黄色片| 久久久久久久大尺度免费视频| 美女主播在线视频| 国产成人系列免费观看| 高清在线国产一区| 国产三级黄色录像| 亚洲va日本ⅴa欧美va伊人久久| 久久天躁狠狠躁夜夜2o2o| 美女视频免费永久观看网站| 日本vs欧美在线观看视频| 日韩成人在线观看一区二区三区| 欧美精品av麻豆av| 亚洲av日韩精品久久久久久密| 久久99热这里只频精品6学生| a级片在线免费高清观看视频| 黄片播放在线免费| 久久中文字幕人妻熟女| 日韩免费高清中文字幕av| 久久国产精品大桥未久av| 美国免费a级毛片| 电影成人av| 国产成人欧美| 亚洲伊人久久精品综合| 两个人免费观看高清视频| 黄色怎么调成土黄色| 精品国产一区二区三区久久久樱花| 手机成人av网站| 久久午夜亚洲精品久久| 久久久国产欧美日韩av| 久久影院123| 成人亚洲精品一区在线观看| 欧美日韩av久久| 最新的欧美精品一区二区| 亚洲欧美日韩另类电影网站| 日韩人妻精品一区2区三区| 香蕉国产在线看| 99国产精品99久久久久| 人人妻人人爽人人添夜夜欢视频| 国产高清videossex| 午夜福利视频在线观看免费| 男人操女人黄网站| 欧美日韩精品网址| 欧美激情高清一区二区三区| 久久青草综合色| 亚洲精品一二三| 亚洲精品国产一区二区精华液| 99国产极品粉嫩在线观看| 精品国产一区二区久久| 国产成人欧美| 制服诱惑二区| 日韩中文字幕欧美一区二区| 黄片大片在线免费观看| 亚洲中文字幕日韩| 如日韩欧美国产精品一区二区三区| 久热爱精品视频在线9| 久久天躁狠狠躁夜夜2o2o| 亚洲专区国产一区二区| 亚洲精品自拍成人| 欧美日韩av久久| 亚洲黑人精品在线| 成年版毛片免费区| 日韩人妻精品一区2区三区| 9热在线视频观看99| av网站免费在线观看视频| 97人妻天天添夜夜摸| 日韩人妻精品一区2区三区| 老司机在亚洲福利影院| 午夜福利在线观看吧| 亚洲精品成人av观看孕妇| 亚洲一区二区三区欧美精品| 在线观看免费视频日本深夜| 高清毛片免费观看视频网站 | 在线看a的网站| 亚洲精品中文字幕在线视频| 久久久久国产一级毛片高清牌| 欧美黑人欧美精品刺激| 久久精品亚洲熟妇少妇任你| 免费观看a级毛片全部| 巨乳人妻的诱惑在线观看| 日本av手机在线免费观看| 一夜夜www| 欧美亚洲日本最大视频资源| 大码成人一级视频| 在线天堂中文资源库| 美女国产高潮福利片在线看| 99热国产这里只有精品6| 成年动漫av网址| 91精品国产国语对白视频| av网站免费在线观看视频| 亚洲 国产 在线| 黑人猛操日本美女一级片| 人人妻人人澡人人爽人人夜夜| 一级a爱视频在线免费观看| 久久这里只有精品19| 他把我摸到了高潮在线观看 | 久久精品91无色码中文字幕| 人人妻,人人澡人人爽秒播| 国产精品一区二区在线不卡| 香蕉丝袜av| 欧美日韩黄片免| 久久久久国产一级毛片高清牌| 国产欧美日韩精品亚洲av| 国产老妇伦熟女老妇高清| 99热国产这里只有精品6| 国产主播在线观看一区二区| 亚洲国产欧美网| 欧美日韩成人在线一区二区| 国产精品麻豆人妻色哟哟久久| 日本av手机在线免费观看| 大型av网站在线播放| 91字幕亚洲| 国产人伦9x9x在线观看| 91av网站免费观看| 12—13女人毛片做爰片一| www.精华液| 国产男女超爽视频在线观看| 一边摸一边做爽爽视频免费| 国产成人欧美在线观看 | 精品国产乱码久久久久久小说| 一区二区日韩欧美中文字幕| 91精品国产国语对白视频| 1024视频免费在线观看| 在线观看人妻少妇| 啦啦啦中文免费视频观看日本| 欧美精品人与动牲交sv欧美| 日韩欧美国产一区二区入口| 久久热在线av| 亚洲七黄色美女视频| 男人舔女人的私密视频| 丰满人妻熟妇乱又伦精品不卡| 99国产综合亚洲精品| 在线观看www视频免费| 久久这里只有精品19| 男女无遮挡免费网站观看| 久久人妻av系列| 色94色欧美一区二区| 下体分泌物呈黄色| 久久午夜亚洲精品久久| 国产日韩欧美亚洲二区| 亚洲欧洲日产国产| 99在线人妻在线中文字幕 | 欧美亚洲日本最大视频资源| 女人精品久久久久毛片| 日韩欧美一区二区三区在线观看 | 久久久精品94久久精品| 99re6热这里在线精品视频| 亚洲精品av麻豆狂野| 久久中文字幕人妻熟女| 色婷婷久久久亚洲欧美| a级毛片在线看网站| 麻豆乱淫一区二区| 两性夫妻黄色片| 精品亚洲乱码少妇综合久久| 亚洲国产欧美在线一区| 人妻 亚洲 视频| 一级毛片女人18水好多| 久久中文字幕人妻熟女| 水蜜桃什么品种好| 国产欧美日韩一区二区精品| 97在线人人人人妻| 亚洲欧洲日产国产| 一二三四社区在线视频社区8| av又黄又爽大尺度在线免费看| 无遮挡黄片免费观看| 夫妻午夜视频|