摘" 要: 由于遙感圖像具有高分辨率,卷積層需要擴大感受野以捕獲更豐富的語義信息。 在進行遙感圖像分割時,DeepLabV3+模型采用較大的空洞率以獲得更大感受野,導致網格偽影問題。因此,提出一種優(yōu)化網格偽影的改進DeepLabV3+模型。首先,在空間空洞金字塔池化(ASPP)之前引入了一個平滑網格偽影模塊,以減輕網格偽影對分割任務的影響;接著,在ASPP模塊的每個空洞卷積之后添加了一個逐點卷積,以保留更多的空間信息;其次,替換空洞卷積的激活函數為LeakyReLU;最后,在DeepLabV3+中引入了ECA注意力機制。通過在GID15和Postdam遙感數據集上的驗證,相對于基礎的DeepLabV3+模型,改進模型在準確度和平均交并比方面均取得了顯著提升,證明所提出的網絡調整能有效提高遙感圖像分割的精度。
關鍵詞: 遙感圖像; 語義分割; 網格偽影; 空間空洞金字塔池化; ECA注意力機制; DeepLabV3+模型
中圖分類號: TN911.73?34; TP391" " " " " " " " " "文獻標識碼: A" " " " " " " " " 文章編號: 1004?373X(2024)11?0051?08
Remote sensing image segmentation method based on improved DeepLabV3+
XI Yubin1, ZHAO Liangjun1, NING Feng2, HE Zhongliang1, LIANG Gang1, ZHANG Yun1, HU Yueming3
(1. School of Computer Science and Engineering, Sichuan University of Science amp; Engineering, Yibin 643002, China;
2. School of Automation and Information Engineering, Sichuan University of Science amp; Engineering, Yibin 643002, China;
3. School of Tropical Agriculture and Forestry, Hainan University, Haikou 570208, China)
Abstract: Because of the high resolution of remote sensing images, convolutional layers need to enlarge their receptive fields to capture richer semantic information. In the process of remote sensing image segmentation, the larger dilation rate is adopted for the DeepLabV3+ model to achieve a larger receptive field, leading to the issue of grid pseudo?artifacts. Therefore, an optimized DeepLabV3+ model is proposed with improvements to address the problem of grid pseudo?artifacts. A smoothing grid pseudo?artifact module is introduced before the atrous spatial pyramid pooling (ASPP) to mitigate the impact of grid pseudo?artifacts on segmentation tasks. Subsequently, a pointwise convolution is added after each dilated convolution in the ASPP module to retain more spatial information. The activation function of dilated convolutions is replaced with LeakyReLU. The efficient channel attention (ECA) mechanism is introduced into DeepLabV3+. By validation on the GID15 and Postdam remote sensing datasets, the improved model demonstrates significant enhancements in terms of accuracy and mean intersection over union (MIoU) in comparison with the baseline DeepLabV3+ model. This validates that the proposed network adjustments can effectively improve the accuracy of remote sensing image segmentation.
Keywords: remote sensing image; semantic segmentation; grid artifact; ASPP; ECA mechanism; DeepLabV3+ model
0" 引" 言
近年來,隨著遙感技術和深度學習的迅速發(fā)展,遙感圖像分割在土地利用、城市規(guī)劃、資源管理等領域中變得越來越重要。遙感圖像分割的目標是將圖像中的每個像素分配到相應的類別,以實現對地物的準確辨別和定量分析[1?2]。在這一領域,深度學習技術的應用取得了顯著的突破,而改進算法則更是成為提高分割精度和泛化能力的重要途徑[3]。其中,卷積神經網絡(CNN)在遙感圖像分割領域有著廣泛應用,使準確性和泛化能力得到了顯著的改進[4]。
通過對卷積網絡的改進提出了全卷積神經網絡(Full Convolutional Network, FCN),文獻[5]基于FCN以及高效判別式概率模型條件隨機場(Conditional Random Field, CRF)提出了FCN?CRF算法,在針對高光譜遙感影像分割方面表現出較高的分割精度,且具有較低的參數量和高運行效率。在植物主體部分分割準確,但會在不同農作物類型交界處產生一定程度的像元混同。文獻[6]提出了一種名為Separable Dense U?Net(SD?UNet)的方法,通過在U?Net中引入密集連接、可分離卷積、批歸一化層和Tanh激活函數,解決了深度學習在城市植被提取中存在的問題,如超細植被遺漏、計算負擔沉重和模型性能不穩(wěn)定等。文獻[7]為應對高分辨率遙感圖像建筑物分割精度低和邊緣模糊問題。在SegNet網絡基礎上改進,采用GELU激活函數、改進的殘差瓶頸結構和跳躍連接提取更多建筑特征,同時引入邊緣校正模塊進一步提高邊緣完整性。文獻[8]針對DeepLabV3+在遙感圖像建筑物分割中存在的小目標漏分、誤分和邊界粘合問題。采用密集空洞金字塔池化和條形池化模塊增強感受野和依賴關系,引入SE通道注意力模塊獲取更豐富的邊緣特征,提升了分割性能。
針對遙感圖像分辨率高、種類較多和背景復雜而導致的分割準確率低,容易出現錯分的問題。本文提出了一種新穎而有效的方法,通過平滑網格偽影來提升分割的準確度,改進主要體現在如下四個方面:
1) 在ASPP模塊之前引入了平滑網格偽影模塊(Smooth Grid Artifact Module, SGAM);
2) 優(yōu)化ASPP,在空洞卷積之后加入逐點卷積;
3) 針對空洞卷積之后的激活函數進行優(yōu)化,使用LeakyReLU替代原有激活函數;
4) 引入ECA注意力機制。
1" 基礎網絡結構
DeepLabV3是一種用于語義分割的卷積神經網絡(CNN),由Google團隊開發(fā)。它是DeepLab系列的第三個版本,旨在實現高精度的語義分割,特別是在圖像的細節(jié)和邊界方面[8]。DeepLabV3+是DeepLab系列的進一步改進版本,專注于提高語義分割任務的性能[1]。該架構繼承了DeepLabV3的核心思想,但通過引入一系列創(chuàng)新性的改進來解決其前身的一些限制。
首先,在編碼階段,本文選擇了MobileNetV2網絡,相較于Xception網絡,MobileNetV2具有相對較小的模型大小和參數量[9],它通過使用深度分離卷積和線性瓶頸設計,以及倒殘差結構,實現了在相對小的模型尺寸和參數量下提供良好性能的目標[10]。其次,DeepLabV3+引入了空洞空間金字塔池化(ASPP)編碼器[1]。這一新的編碼器結構通過整合空洞卷積和空間金字塔池化,增強了網絡對不同尺度上下文信息的捕獲能力。此外,ASPP編碼器進一步擴展了感受野,提高了網絡對圖像語境的理解。在ASPP編碼器中,不僅保留了高級特征,還引入了一個編碼器,專注于處理低級細節(jié)特征,從而使網絡對細節(jié)和邊緣的感知更為敏銳[2]。另外,DeepLabV3+在圖像金字塔池化方面進行了改進,以更好地處理多尺度信息。通過優(yōu)化圖像金字塔池化,網絡能夠更全面地捕獲不同尺度上的上下文信息,增強了對各種尺寸對象的適應性。
在解碼階段,DeepLabV3+引入了解碼器模塊,以更好地應對語義分割任務中的像素級定位需求。解碼器模塊通過上采樣和編碼器特征級聯的方式,有效地提高了分割結果的分辨率[11]。這個改進有助于網絡更準確地定位對象的邊界,提高語義分割的精確性。
在訓練階段,DeepLabV3+仍然保持了多尺度輸入圖像的策略,使網絡更具魯棒性。這一綜合性的改進使得DeepLabV3+在各種場景中能夠更準確地理解圖像內容,實現更細致的語義分割。
2" 本文網絡結構
2.1" 改進后的DeepLabV3+
本文在DeepLabV3+的基礎上進行了四個方面的改進。首先,引入了一個網格偽影平滑模塊,以消除由空洞卷積引起的網格偽影,從而提升分割精度;其次,在ASPP模塊的空洞卷積之后,加入了逐點卷積,以保留更多的空間信息;然后,采用了ECA(Efficient Channel Attention)注意力機制,以增強模型對關鍵特征的感知能力;最后,替換了空洞卷積之后的激活函數,將原有的ReLU替換為LeakyReLU,以進一步改進模型的性能,如圖1所示。
2.2" 平滑網格偽影模塊
在深度卷積神經網絡(DCNN)中,空洞卷積是一種常見且廣泛應用的技術,常用于圖像語義分割、目標檢測、音頻生成、視頻建模和機器翻譯等領域。然而,由于其特殊的采樣方式,可能會導致輸出特征圖上出現規(guī)則的網格狀圖案,這種現象被稱為網格偽影問題??斩淳矸e是通過在卷積核中引入空洞(也稱為膨脹率)來擴大感受野而不增加參數數量的一種技術。然而,當膨脹率較大時,由于卷積核的稀疏采樣,網絡輸出的特征圖上可能出現規(guī)律性的網格狀結構,而不是期望的平滑輸出。這可能對一些任務,特別是圖像生成或分割等需要高質量輸出的任務,產生負面影響[12]。
為了解決這個問題,本文設計了一種簡單而有效的去網格偽影方法,通過兩個不同空洞率的空洞卷積串聯,捕捉不同尺度的特征,從而減輕網格偽影問題,如圖2所示。
首先,通過MobileNetV2模塊的處理,圖像獲得了一個320維的特征圖;接著,本文引入了兩個空洞卷積層,分別設置空洞率為1和3,確保它們空洞率的最大公約數不大于1。這樣的設計旨在充分利用不同的感受野,以實現對圖像特征的多尺度提取,特別是在細節(jié)信息方面。同時,這個設計還有助于減輕網格偽影對分割任務的影響??斩绰蕿?的卷積層通常用于捕捉局部細節(jié),因為它等效于傳統(tǒng)的普通卷積,直接關注輸入特征圖的每個像素。這有助于保留圖像中的精細紋理和局部結構。而空洞率為3的卷積層則在更大的感受野范圍內進行卷積操作,能夠捕捉更廣泛的上下文信息。這對于理解目標物體的整體結構和關系非常有幫助,尤其是在處理全局語境時。通過這樣的設計,在網絡中融合了不同尺度的信息,實現了對細節(jié)和全局特征的全面感知[13]。在隨后使用空洞率為6、12和18的卷積層時,這種多尺度的設計還有助于減輕可能出現的網格偽影問題,使得模型在提取特征時更加平滑而精確。
2.3" 逐點卷積
逐點卷積在圖像分割領域具有多重優(yōu)勢:首先,通過在網絡瓶頸層采用逐點卷積,可以有效降低特征圖的通道數,從而顯著減少計算復雜性,提高訓練和推理效率[14],特別適用于處理大規(guī)模圖像數據集;其次,逐點卷積提供了靈活的參數控制機制,通過調整輸出通道數,可以對特征圖的深度進行精準調控,使得模型更易訓練,且不容易過擬合;最后,盡管逐點卷積本身是線性的,但在其后通常添加非線性激活函數,從而引入非線性映射,有助于學習更復雜的圖像特征和語義信息,提高模型感知能力[15]。此外,逐點卷積并不改變輸入圖像的空間尺寸,因此有助于保留更多的空間信息,對于像素級別的圖像分割任務至關重要。綜合這些優(yōu)勢,逐點卷積在圖像分割領域具有廣泛的適用性和出色的性能。
2.4" ECA注意力機制
ECA注意力機制是一種用于卷積神經網絡的注意力機制,旨在更有效地捕捉輸入特征圖中不同通道之間的關系。它在注意力機制的基礎上引入了輕量級的計算方式,以降低計算成本和參數數量[16?17]。ECA注意力機制的主要思想是通過考慮每個通道內的全局信息,來為每個通道分配不同的權重。具體細節(jié)如圖3所示。
首先,通過全局平均池化(GAP)對輸入特征圖的每個通道進行處理,從而得到每個通道的全局信息;接著,通過一個簡單的一維卷積層對全局信息進行處理,這一步驟有助于學習通道之間的關系,同時相較于全連接層,計算代價較小[17];隨后,對卷積層的輸出應用Sigmoid激活函數,將權重值映射到(0,1)的范圍,得到的Sigmoid輸出與輸入特征圖相乘,生成每個通道的注意力權重;最終,將這些通道注意力權重乘以輸入特征圖,以獲得經過調整的特征圖,完成了對不同通道關系的自適應調整。這一系列步驟構成了ECA注意力機制。通過輕量級計算和參數操作,實現了在通道維度上的注意力引入,以提高模型對輸入特征的表達能力,為提高圖像分割的準確性和效率提供了有力支持。
2.5" Leaky ReLU激活函數
Leaky ReLU(Leaky Rectified Linear Unit)是對傳統(tǒng)ReLU激活函數的一種改進,旨在解決ReLU在負數輸入時輸出為零可能導致的“死亡神經元”問題。其原理在于引入一個小的負斜率,使得在負數輸入時,Leaky ReLU允許一小部分的負數通過[18?19]。Leaky ReLU的數學表達式如下:
[f(x)=x," " " " " "xgt;0α?x," " " x≤0]" " " " " " (1)
式中:[α]是一個小的正數,通常設置為較小的常數值,如0.01。Leaky ReLU在正數輸入時與ReLU相同,而在負數輸入時,不再將輸出完全截斷為零,而是乘以[α]。這樣,Leaky ReLU允許激活函數在負數部分具有一定的斜率,使得梯度不會完全消失。Leaky ReLU的引入可以提高模型的泛化能力,在本文所采用的三種數據集上,相較于傳統(tǒng)的ReLU激活函數,準確度均有所提升。
3" 實驗環(huán)境與結果分析
3.1" 數據集
本文的數據來源主要包括Gaofen?2衛(wèi)星拍攝的GID?15數據集和Postdam數據集。GID?15數據集使用的是基于分辨率為1 m的全色圖像和4 m的多光譜圖像進行融合后的圖像。覆蓋我國60多個城市,包含15個不同的場景類別,從而提供了豐富的土地覆蓋多樣性,這對于模型的訓練具有挑戰(zhàn)性。同時,還引入了Postdam數據集,該數據集通過無人機拍攝,分辨率為5 cm,涵蓋了Postdam地區(qū)的大規(guī)模建筑群和密集街道,包含5個不同的場景類別。通過在這兩個數據集上進行訓練和預測,驗證模型在處理不同城市、場景、分辨率和拍攝方式的遙感圖像時的魯棒性和泛化能力。在預處理階段,將圖像裁剪為512×512 pixel,以適應遙感圖像的普遍尺寸,并以9∶1的比例劃分為訓練集和驗證集。這樣的數據處理策略有助于確保模型在面對多樣性數據時的性能表現。
3.2" 實驗設置與環(huán)境
本文實驗是在Windows下搭建的Pytorch框架上訓練的,總迭代次數為150次,初始學習率為5×10-4,采用余弦退火的方法調整學習率。處理器為Intel[?] Core i5?12 400 2.60 GHz,顯卡為NVIDIA RTX 3060 Ti(顯存大小為8 GB),內存大小為32 GB,編程語言為Python 3.9,cuda版本為11.8。
3.3" 評價指標
評價指標的選取對遙感圖像分割的精度評估有著重要作用,本文采用了三個遙感圖像分割領域常用的評價指標:Accuracy、mPA(Mean Pixel Accuracy)、MIoU (Mean IoU score),其公式分別為:
[Accuracy=TP+TNTN+TP+FP+FN]" (2)
[mPA=1k+1i=0kTP+TNTN+TP+FP+FN]" (3)
[MIoU=1k+1i=0kTPFN+FP+TP]" " (4)
式中:TP表示真實值為Positive,預測為Positive,稱作是正確的Positive(True Positive, TP);FN表示真實值為Positive,預測為Negative,稱作是錯誤的Negative(False Negative, FN);FP表示真實值為Negative,預測為Positive,稱作是錯誤的Positive(False Positive, FP);TN表示真實值為Negative,預測為Negative,稱作是正確的Negative(True Negative, TN)[14,17];[k+1]表示類別數。
3.4" 消融實驗對比
為了驗證模型的泛化能力,本文使用了兩個數據集來評價模型。通過逐步添加平滑網格偽影模塊、改進后的ASPP、ECA注意力機制以及替換激活函數到原模型中進行消融實驗,實驗結果表明,本文所使用的改進策略都能對DeepLabV3+模型進行準確度提升。具體評價指標如表1、表2所示。
從表1可以看出,通過往原始模型中添加改進的模塊,都可以使模型的MIoU、mPA以及Accuracy得到提升。平滑網格偽影模塊通過減少圖像中的噪音或平滑不規(guī)則結構來改善分割效果。改進ASPP模塊的整合增強了模型對復雜場景的上下文信息理解能力。ECA注意力機制的加入有助于模型更好地集中注意力于圖像關鍵區(qū)域,提高了語義分割性能。Leaky ReLU激活函數的使用有助于更好地處理梯度消失問題,使得模型更容易訓練。這些模塊的整合可能共同作用,提供了更強大、更魯棒的特征表示,從而顯著改善了遙感圖像的語義分割效果。
本文從GID15數據集中選取了幾張具有不同地物特征的遙感圖像如圖4所示。
從圖4可以看出,由于GID15數據集具有高分辨率,原模型在分類中容易出現錯分的情況,通過逐步改進原模型,最終模型的分割效果已經非常接近標簽圖像。
表2是在Postdam數據集上進行的消融實驗結果。表2的實驗結果表明,對DeepLabV3+的改進在Postdam數據集上依然有效。
從圖5可以看出,與原模型對比,改進后的模型在邊緣輪廓部分的分割精度更高,這表明新引入的模塊有效地增強了模型對復雜場景的理解和對細微結構的捕捉能力。改進后的模型在圖像邊緣區(qū)域呈現出更為準確和連貫的分割結果,進一步提升了在Postdam數據集上的語義分割性能。
在本次實驗中,經過改進的模型在兩種數據集上都表現出更高的準確性,成功減少了原始模型中的錯誤分類并提高了邊緣細節(jié)部分的分割精度。這表明所引入的改進措施,無論是針對高分辨率的處理能力,還是對復雜場景的理解能力,都產生了積極的影響,使得最終模型的分割效果更加接近標簽圖像。
3.5" 主流分割算法模型對比
在本節(jié)中將對比多個語義分割模型在性能指標上的表現,通過評估不同主干網絡結構對模型性能的影響。選取了一系列經典的模型,包括PSPNet、U?Net、Hrnet、DeepLabV3+以及本文提出的模型(Ours),并在主干網絡上采用了不同的架構,例如MobileNetV2、Resnet50、VGG等。通過比較模型在MIoU、mPA以及Accuracy上的表現,深入了解各模型對于遙感圖像語義分割任務的適應能力。與其他模型相比,經過改進的DeepLabV3+在MIoU、mPA和Accuracy分數上都取得了顯著的提升,如表3和表4所示。這表明改進措施對于模型整體性能的提升起到了積極的作用。在MIoU指標上,改進后的DeepLabV3+展現出更為精確的像素級別分割效果,而在mPA和Accuracy方面也取得了更高的綜合性能。這一系列實驗結果強化了改進后的DeepLabV3+模型在遙感圖像語義分割任務中的卓越表現,為深入理解其性能提供了重要的實證支持。
從表3、表4可以明顯看出,本文方法在GID和Postdam數據集上的表現都不錯,在GID15數據集上,PSPNet結合Resnet50以及U?Net結合Resnet50分別達到了61.68%和64.71%的MIoU,顯示了對于分類復雜、種類較多的遙感圖像,Resnet50主干網絡的優(yōu)越性能。而在Postdam數據集上,相同模型達到了更高的MIoU(72.54%和68.13%),表明其在不同場景中的適應性。此外,Hrnet模型在兩個數據集上都呈現出對hrnetv2_w32配置更好的適應性,這表明對于一些復雜地理環(huán)境,更深的網絡結構可能更有優(yōu)勢。本文模型在兩個數據集上均取得了最佳性能,分別為GID15數據集上的67.21%和Postdam數據集上的74.13%的MIoU,說明本文模型在不同環(huán)境中都能取得顯著效果。
圖6展示了不同算法在分割效果上的對比。從圖6a)可以觀察到,由于遙感圖像背景復雜、種類繁多,導致所有算法在這一數據集上的分割效果普遍較差。但是對于其中大面積的植被、耕地或者水面分割效果較好,對于輪廓邊緣分割效果較差。圖6b)展示了在Postdam數據集上的分割效果圖,其空間分辨率相對較高,能夠呈現地面信息的更多細節(jié)。
在這個數據集上,所有的算法都展現出了不錯的分割效果,特別是在汽車這一類別的分割方面表現得非常出色。然而,相較之下,其他算法在低植被和樹木分割的邊緣效果相對較差。本文通過對模型的改進,在空間細節(jié)方面的表現要優(yōu)于其他網絡,其邊界更加清晰,幾乎沒有出現錯分的情況。
4" 結" 語
本文針對遙感圖像具有高分辨率的特性,為了獲取更多的語義信息,在DeepLabV3+模型中使用較大空洞率而出現的網格偽影問題,提出了DeepLabV3+的改進模型。在DeepLabV3+模型的基礎上增加了平滑網格偽影模塊,保留了不同尺度空間信息,有助于緩解潛在的網格偽影問題,從而使模型在進行特征提取時表現得更加平滑而準確。同時,對ASPP模塊中的空洞卷積進行了優(yōu)化,在空洞卷積之后,引入了逐點卷積,以保留更多的細節(jié)信息。此外,替換了空洞卷積后的激活函數,采用LeakyReLU代替原有的ReLU。最后,引入了ECA注意力機制,進一步提高了模型的準確率。
注:本文通訊作者為趙良軍。
參考文獻
[1] 宦海,朱蓉蓉,張浩,等.多尺度特征融合網絡的遙感圖像林地檢測[J].現代電子技術,2022,45(4):165?170.
[2] 劉丹英,劉曉燕.基于U?net卷積神經網絡的多尺度遙感圖像分割算法[J].現代電子技術,2023,46(21):44?47.
[3] WANG Z M, WANG J S, YANG K, et al. Semantic segmentation of high?resolution remote sensing images based on a class feature attention mechanism fused with Deeplabv3+ [J]. Computers amp; geosciences, 2022, 158: 104969.
[4] ZHANG J L, LI Y X, ZHANG B W, et al. CD?MQANet: Enhancing multi?objective semantic segmentation of remote sensing images through channel creation and dual?path encoding [J]. Remote sensing, 2023, 15(18): 4520.
[5] 雒萌,張圣微,霍雨,等.融合全卷積網絡與條件隨機場的高光譜語義分割[J].遙感信息,2023,38(3):69?76.
[6] LIN N, QUAN H, HE J, et al. Urban vegetation extraction from high?resolution remote sensing imagery on SD?UNet and vegetation spectral features [J]. Remote sensing, 2023, 15(18): 4488.
[7] WU S, HUANG X, ZHANG J. Application and research of the image segmentation algorithm in remote sensing image buildings [J]. Scientific programming, 2022(1): 22?26.
[8] 郭江,辛月蘭,謝琪琦.改進DeepLabV3+的遙感圖像建筑物分割[J/OL].激光雜志,1?10[2023?05?17].http://kns.cnki.net/kcms/detail/50.1085.TN.20230517.1001.002.html.
[9] 汝承印,張仕海,張子淼,等.基于輕量級MobileNet?SSD和MobileNetV2?DeeplabV3+的絕緣子故障識別方法[J].高電壓技術,2022,48(9):3670?3679.
[10] 陳毅夫,何敬,劉剛,等.融合Swin?Transformer網絡模型的水體高光區(qū)域提取[J].遙感信息,2023,38(4):129?136.
[11] WANG J X, FENG Z X, JIANG Y, et al. Orientation attention network for semantic segmentation of remote sensing images [J]. Knowledge?based systems, 2023, 267: 110415.
[12] LIANGZHE Y, WENJIE Z, HAO C, et al. DRE?Net: A dynamic radius?encoding neural network with an incremental training strategy for interactive segmentation of remote sensing images [J]. Remote sensing, 2023, 15(3): 801.
[13] 吳寧,羅楊洋,許華杰.基于多尺度特征融合的遙感圖像語義分割方法[J].計算機應用,2024,44(3):737?744.
[14] 厙向陽,馬亦駿.改進的遙感圖像語義分割算法[J].計算機工程與科學,2023,45(3):504?511.
[15] HE X, ZHOU Y, ZHAO J Q, et al. Swin transformer embedding UNet for remote sensing image semantic segmentation [J]. IEEE transactions on geoscience and remote sensing, 2022, 60: 1?15.
[16] 高廣尚.深度學習推薦模型中的注意力機制研究綜述[J].計算機工程與應用,2022,58(9):9?18.
[17] ZHOU G Q, LIU W G, ZHU Q, et al. ECA?MobileNetV3 (large)+ SegNet model for binary sugarcane classification of remotely sensed images [J]. IEEE transactions on geoscience and remote sensing, 2022, 60: 1?15.
[18] LU H, MA Y, ZHANG S C, et al. Daytime sea fog identification based on multi?satellite information and the ECA?TransUnet model [J]. Remote sensing, 2023, 15(16): 3949.
[19] NAYEF B H, ABDULLAH S N H S, SULAIMAN R, et al. Optimized leaky ReLU for handwritten Arabic character recognition using convolution neural networks [J]. Multimedia tools and applications, 2022, 81(2): 1?30.
作者簡介:席裕斌(1999—),男,碩士研究生,研究方向為圖像處理和遙感技術。
趙良軍(1980—),男,博士研究生,副教授,碩士研究生導師,高級工程師,研究方向為衛(wèi)星遙感、深度學習和圖像處理。
寧" 峰(2000—),男,碩士研究生,研究方向為目標檢測和深度學習。
何中良(1995—),男,碩士研究生,研究方向為遙感技術和深度學習。
梁" 剛(1999—),男,碩士研究生,研究方向為計算機視覺和圖像處理。
張" 蕓(1998—),女,碩士研究生,講師,研究方法為遙感圖像處理、深度學習。