中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):2095-2945(2025)18-0022-07
Abstract:Withtherapid developmentofdeeplearning technology,transfer learning hasalsobeensucesfullyappliedin thefieldofimageprocessingbasedondeeplearning.Inordertoverifythefeasibilityofdeeplearningtechnologycombnedwith transferleaninginground-basedcloudspeciesidentification,andtheefectivenessandadvancementcomparedwithtraditional machine learning methods,thispaperconductsmachine learningandtransferdeep learningonthe SWIMCATground-based clouddataset.Experimentalcomparisonoflearningmethods,experimentalcomparisonoftransferlearningandnon-transfer learning,andvisualanalysisofthecharacteristicsofground-basedcloudsinconvolutionaleuralnetworks.Theadvantagesnd disadvantagesofmachinelearningandtransferdeeplearninginground-basedcloudrecognitionarecomparedandanalyzed throughxperiments,layingatheoreticalfoundationforsubsequentin-depthresearchondeeplearningground-basedcloud recognition algorithms.
Keywords: deep learning; transfer learning; machine learning; ground-based cloud map; visualization
近年來(lái),云及其特性的研究成為各學(xué)者的研究重點(diǎn),尤其是在云檢測(cè)與分類、云量估計(jì)、云移動(dòng)軌跡預(yù)測(cè)以及云類型演變趨勢(shì)預(yù)測(cè)等動(dòng)態(tài)行為預(yù)測(cè)領(lǐng)域。這些研究對(duì)未來(lái)天氣變化的預(yù)測(cè)具有重要意義。云圖是分析云相關(guān)信息的重要載體,由于地基云的種類繁多,不同類別間的形狀相似且會(huì)不斷變化,所以對(duì)地基云的準(zhǔn)確識(shí)別一直具有很大的挑戰(zhàn)。
隨著機(jī)器學(xué)習(xí)和深度學(xué)習(xí)技術(shù)的發(fā)展,這些方法也被應(yīng)用于地基云識(shí)別領(lǐng)域。機(jī)器學(xué)習(xí)主要使用各種特征提取方法來(lái)提取選擇好的特征,然后使用分類器進(jìn)行識(shí)別。Singh和Glennen等4使用自相關(guān)、共現(xiàn)矩陣、邊緣頻率和運(yùn)行長(zhǎng)度編碼,4種經(jīng)典的紋理特征提取方法進(jìn)行云圖特征提取。Zhuo等引入顏色普查變換和自動(dòng)塊分類方法提取紋理和結(jié)構(gòu)信息,對(duì)6種天空條件進(jìn)行識(shí)別。Heinle等對(duì)多種特征進(jìn)行測(cè)試,提取了包括光譜特征、基于共現(xiàn)矩陣的特征和云量特征的多個(gè)云圖特征。Cheng和 Yu 等使用貝葉斯分類器對(duì)6種天空條件進(jìn)行識(shí)別,最終準(zhǔn)確率達(dá)到 90% 。Taravat等分別使用多層感知機(jī)和SVM對(duì)250張?jiān)茍D樣本進(jìn)行識(shí)別,準(zhǔn)確率達(dá)到 93.66% 。
深度學(xué)習(xí)方法在地基云識(shí)別領(lǐng)域的成功應(yīng)用使得云圖的多種特征可以被卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)提取,大大提高了地基云識(shí)別的準(zhǔn)確率。Ye等提出了 Deep-Cloud特征提取方法,通過(guò)模式挖掘和選擇策略從多個(gè)卷積層采集局部視覺(jué)特征,并使用Fisher向量進(jìn)行編碼來(lái)實(shí)現(xiàn)云識(shí)別。Li等采用SENet網(wǎng)絡(luò),增大有效特征圖的權(quán)重,同時(shí)減小無(wú)效特征圖的權(quán)重。Zhang等[12]設(shè)計(jì)了一種輕量級(jí)的卷積神經(jīng)網(wǎng)絡(luò)模型LCCNet,在
11類云識(shí)別任務(wù)中達(dá)到 97.25% 的準(zhǔn)確率。Zhang等[13]通過(guò)集成多個(gè)卷積神經(jīng)網(wǎng)絡(luò)和殘差神經(jīng)網(wǎng)絡(luò),提升了云識(shí)別準(zhǔn)確率,超過(guò)了任何單一深度學(xué)習(xí)模型。
為評(píng)估深度學(xué)習(xí)在云識(shí)別領(lǐng)域的有效性和先進(jìn)性,本文使用3種機(jī)器學(xué)習(xí)方法與6種使用了遷移學(xué)習(xí)的CNN模型在SWIMCAT數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,遷移學(xué)習(xí)與深度學(xué)習(xí)結(jié)合的識(shí)別效果顯著優(yōu)于傳統(tǒng)機(jī)器學(xué)習(xí)方法。同時(shí),通過(guò)CNN可視化地基云圖像各卷積層的激活特征,分析了淺層和深層網(wǎng)絡(luò)所提取的不同特征所表達(dá)的含義,為后續(xù)進(jìn)行深度學(xué)習(xí)地基云識(shí)別算法的深入研究奠定理論基礎(chǔ)。
1地基云分類的機(jī)器學(xué)習(xí)方法
詞袋模型(Bagofwords,BOW)[4],局部二值模式(Localbinarypattern,LBP)[5]、完全局部二值模式(CompletedLocal Binary Pattern,CLBP)[等機(jī)器學(xué)習(xí)方法在地基云分類任務(wù)中應(yīng)用較為廣泛。
1.1 詞袋模型
詞袋模型是一種常用的地基云特征提取方法,最初用于文本分類。其假定忽略文本的詞序和語(yǔ)法,將文本視為詞匯集合,統(tǒng)計(jì)詞匯出現(xiàn)頻次并形成多維直方圖,再進(jìn)行分類。
在圖像處理領(lǐng)域,BOW將圖像視作一篇文檔,圖像特征相當(dāng)于文檔中的句子,也就是將圖像當(dāng)成一個(gè)局部圖像塊的無(wú)序集合。詞袋模型通過(guò)特征聚類生成包含SIFT特征描述符的詞典,再基于詞典統(tǒng)計(jì)特征出現(xiàn)頻率,將BOW構(gòu)建為一個(gè)直方圖,最終通過(guò)分類器進(jìn)行分類。BOW模型的主要步驟如下: ① 提取圖像的特征; ② 聚類生成視覺(jué)詞典; ③ 統(tǒng)計(jì)詞典中每個(gè)詞的出現(xiàn)頻率,將圖像表示為多維直方圖。
如圖1所示,B0W將每幅圖像轉(zhuǎn)換為一個(gè)多維直方圖后,通過(guò)分類器進(jìn)行分類并識(shí)別,常用分類器包括KNN、SVM等。
1.2 局部二值模式
局部二值模式是常用的圖像局部紋理特征提取方法之一。LBP將圖像劃分為多個(gè)小區(qū)域,通過(guò)比較每個(gè)區(qū)域內(nèi)像素值與其周圍像素的大小關(guān)系來(lái)生成LBP值:若像素值大于周圍像素,則置為1,反之則為0,從而構(gòu)建特征向量。LBP的具體流程如圖2所示。
得到的LBP特征向量可用于分類任務(wù)。目前較為常用的LBP形式為圓形LBP,通過(guò)將圖像劃分為圓形的小區(qū)域,來(lái)增加旋轉(zhuǎn)不變性。圓形LBP的2個(gè)核心參數(shù) P 和 R ,分別表示中心像素點(diǎn)周圍的采樣點(diǎn)數(shù)量及采樣區(qū)域的半徑。計(jì)算圓形LBP像素值的計(jì)算公式如下所示
式中: {gc} 表示中心像素的灰度值, gp 表示鄰域像素的灰度值。一般情況下,參數(shù) P 和 R 的比值設(shè)為8:1。使用LBP方法提取圖像的LBP像素值后,對(duì)圖像中所有的LBP像素值進(jìn)行遍歷,建立一個(gè)表示圖像的紋理特征的直方圖,最后,選擇合適的分類器對(duì)圖像進(jìn)行分類。
1.3 完全局部二值模式
完全局部二值模式是LBP的改進(jìn)版本,其可以提取到LBP遺漏的部分圖像信息。CLBP由3個(gè)描述子組成,包括全局對(duì)比度(CLBP_C)、幅度二值(CLBP_M)和正負(fù)二值(CLBP_S)。其中CLBP_M和CLBP_S由鄰域像素和中心像素的差值分出的符號(hào)分量和梯度分量得來(lái),CLBP_C由中心像素灰度計(jì)算得出。3個(gè)描述子的公式如下所示
式中: 是中心像素的灰度值, cI 為圖像像素的平均灰度值, sp 為符號(hào)分量, mp 為梯度分量, c 為自適應(yīng)閾值,P 是鄰域點(diǎn)數(shù), R 是鄰域半徑。
得到這3個(gè)描述子后,可以通過(guò)串聯(lián)、并聯(lián)等方式得到融合的特征直方圖,最后利用分類器對(duì)特征進(jìn)行分類。
2地基云分類的深度學(xué)習(xí)方法
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN),是一種專為處理圖像和類似數(shù)據(jù)設(shè)計(jì)的深度學(xué)習(xí)模型,通過(guò)卷積層提取局部特征、池化層減少特征維度,以及全連接層實(shí)現(xiàn)分類或回歸任務(wù)。目前CNN的深度模型經(jīng)過(guò)不斷改良和創(chuàng)新,有越來(lái)越多的優(yōu)秀模型被提出,這些模型在地基云識(shí)別領(lǐng)域被應(yīng)用并獲得了令人滿意的效果。
2.1卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)
卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)如圖3所示,CNN的基本結(jié)構(gòu)主要由三維神經(jīng)元組成,輸入的高度、寬度和深度對(duì)應(yīng)彩色圖像的RGB三色通道。CNN包含:卷積層、池化層和全連接層,堆疊這些層即可構(gòu)成一個(gè)簡(jiǎn)單的CNN模型。
2.1.1 卷積層
卷積層(ConvolutionLayer)是卷積神經(jīng)網(wǎng)絡(luò)的核心組件,主要由多個(gè)卷積核組成,用于提取輸入的特征。當(dāng)數(shù)據(jù)到達(dá)卷積層時(shí),該層將每個(gè)卷積核在輸入的空間維度上進(jìn)行卷積,以生成2D激活映射,即該層的特征圖。
在矩陣計(jì)算中,卷積層卷積計(jì)算過(guò)程如圖4所示,隨著卷積核在輸人上的滑動(dòng),每一次滑動(dòng)就會(huì)計(jì)算該卷積核中每個(gè)標(biāo)量與輸入的標(biāo)量的積,也就是說(shuō),卷積操作會(huì)保持輸人數(shù)據(jù)和卷積核相同位置上的值,即大于等于1的值,而其他值被置為0。
圖4中, x (如 x1、x2、x3、x4 )表示卷積核里的權(quán)重參數(shù),y(如 y1、y2、y3、y4 )表示輸入矩陣?yán)锏脑刂担潦浅朔ǚ?hào)。卷積操作在連續(xù)區(qū)間的公式如下
式中: (f?g)(t) 表示卷積對(duì)象 f 與 g 被卷積對(duì)象在連續(xù)時(shí)間 Φt 的卷積運(yùn)算 表示對(duì)積分變量 τ 執(zhí)行從負(fù)無(wú)窮到正無(wú)窮的積分 ?I(τ) 表示輸入函數(shù)。
在卷積神經(jīng)網(wǎng)絡(luò)中,卷積操作是在離散區(qū)間的。給定一個(gè)多維輸入和卷積核,卷積層中卷積計(jì)算公式 (6)
式中:輸出 s 通常由特征圖表示。
由于人工神經(jīng)網(wǎng)絡(luò)的神經(jīng)元采用完全連接,較大網(wǎng)絡(luò)模型會(huì)因?yàn)閰?shù)量過(guò)大而難以訓(xùn)練。而在卷積層中,每個(gè)神經(jīng)元僅連接到前一層的小區(qū)域,稱為感受野,這大大減少了計(jì)算參數(shù)量。例如,輸入大小為 224× 224×3 ,感受野為 7×7 時(shí),卷積層每個(gè)神經(jīng)元有147個(gè)權(quán)重( 7×7×3 ,而人工神經(jīng)網(wǎng)絡(luò)則有150528個(gè)權(quán)重,因此卷積層顯著降低了計(jì)算復(fù)雜度。
2.1.2 池化層
池化層(PoolingLayer)的主要目的是減少卷積層之間的連接數(shù)量來(lái)降低計(jì)算復(fù)雜度,并通過(guò)降低特征映射分辨率實(shí)現(xiàn)移位不變性。池化層通常位于2個(gè)卷積層之間,該層的每個(gè)特征映射都與前一個(gè)卷積層對(duì)應(yīng)的特征映射相連接。常見(jiàn)的池化方法有最大池化和平均池化。最大池化通過(guò)選取 2×2 過(guò)濾器內(nèi)的最大值形成新的矩陣,保持圖像的關(guān)鍵特征;平均池化則計(jì)算過(guò)濾器內(nèi)所有值的平均值。圖5展示了最大池化和平均池化過(guò)程。
2.1.3 全連接層
全連接層(FullyConnectedLayer)首先通過(guò)展平操作,將多維數(shù)據(jù)展平為一維。全連接層結(jié)構(gòu)與ANN中的層結(jié)構(gòu)類似,每個(gè)相鄰的層的神經(jīng)元互相連接,
并嘗試從激活中得到類分?jǐn)?shù),用于最終的分類。在全連接層中使用激活函數(shù)如Relu、Softmax等可以顯著提高網(wǎng)絡(luò)的性能。
2.2 常見(jiàn)的分類卷積神經(jīng)網(wǎng)絡(luò)
深度學(xué)習(xí)方法中,常用的CNN模型包括 VGG16[18] ,VGG19 [9]ResNet5O[20]、ResNet101[1]InceptionV3 [2]和Xception23,其中VGG16和VGG19通過(guò)堆疊多個(gè) 3×3 卷積核替代大卷積核,減少了參數(shù)并提高了適應(yīng)性。ResNet50和ResNet101引入殘差連接,使淺層輸出可直接傳遞至深層,充許更深的網(wǎng)絡(luò)結(jié)構(gòu)并提高性能。InceptionV3通過(guò)將大卷積分解為小卷積,減少計(jì)算量并增強(qiáng)非線性表示能力。Xception使用深度可分離卷積分開(kāi)處理通道和空間相關(guān)性,進(jìn)一步提升網(wǎng)絡(luò)性能。表1為各種典型CNN網(wǎng)絡(luò)參數(shù),其中Top-5錯(cuò)誤率均是在ImageNet數(shù)據(jù)集上的測(cè)試結(jié)果
2.3地基云在GNN中的激活特征
卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)的代表算法,本質(zhì)上是由多個(gè)卷積層組成的特征提取機(jī)制,不同的卷積層提取不同的特征圖像,因此,可視化CNN中不同卷積層的激活特征對(duì)地基云識(shí)別研究具有重要意義。
為對(duì)地基云在CNN中的激活特征進(jìn)行可視化,如圖6所示,設(shè)計(jì)了一個(gè)包含5個(gè)卷積塊的CNN模型,每個(gè)卷積塊有2個(gè)卷積層和1個(gè)池化層。輸入地基云圖像后,得到各卷積層的特征圖。如圖7所示,第一個(gè)卷積塊中的卷積層conv1_1和convl_2提取的特征圖顯示了清晰的邊緣和紋理信息,而后續(xù)卷積層的紋理特征逐漸變得模糊,直到最后一個(gè)卷積塊的卷積層conv5_1,提取的特征變得更加抽象。因此得出結(jié)論,CNN的淺層提取地基云的紋理特征,而深層提取抽象語(yǔ)義特征。
2.4 遷移學(xué)習(xí)
遷移學(xué)習(xí)(TransferLearning)是一種旨在將已經(jīng)在某一領(lǐng)域或任務(wù)中學(xué)到的知識(shí)遷移到新的但相關(guān)的領(lǐng)域或任務(wù)中的技術(shù),特別適用于目標(biāo)任務(wù)數(shù)據(jù)不足或模型訓(xùn)練資源有限的情況
傳統(tǒng)的機(jī)器學(xué)習(xí)或深度學(xué)習(xí)方法需要在同一任務(wù)和領(lǐng)域的大量數(shù)據(jù)上從零開(kāi)始訓(xùn)練,而遷移學(xué)習(xí)通過(guò)重用預(yù)訓(xùn)練模型的特征、參數(shù)或結(jié)構(gòu),可以快速適應(yīng)新的任務(wù)。其基本思想是從原領(lǐng)域提取知識(shí),轉(zhuǎn)移到目標(biāo)領(lǐng)域,遷移學(xué)習(xí)通過(guò)預(yù)訓(xùn)練模型在源任務(wù)中學(xué)到的通用特征,可以為目標(biāo)任務(wù)提供有用的信息,并且通過(guò)遷移預(yù)訓(xùn)練模型,降低對(duì)目標(biāo)任務(wù)大規(guī)模標(biāo)注數(shù)據(jù)的依賴,同時(shí)減少模型訓(xùn)練時(shí)間和計(jì)算資源。目前遷移學(xué)習(xí)已被廣泛用于計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理等多個(gè)領(lǐng)域,遷移學(xué)習(xí)的架構(gòu)如圖8所示。
3機(jī)器學(xué)習(xí)與深度學(xué)習(xí)實(shí)驗(yàn)對(duì)比
為了驗(yàn)證機(jī)器學(xué)習(xí)方法與深度學(xué)習(xí)方法在地基云識(shí)別中的優(yōu)劣,分別使用常用的機(jī)器學(xué)習(xí)方法與深度學(xué)習(xí)方法在SWIMCAT數(shù)據(jù)集上進(jìn)行對(duì)比,將數(shù)據(jù)集的訓(xùn)練集與測(cè)試集的比值劃分為4:1。
3.1 SWIMCAT數(shù)據(jù)集
2020年之前,國(guó)內(nèi)外常用的標(biāo)準(zhǔn)云圖小數(shù)據(jù)集主要有SWIMCAT23]和CCSN[24]。近些年新發(fā)布的大規(guī)模地基云數(shù)據(jù)集有MGCD[2、GCD[和HBMCD[]等。SWIMCAT數(shù)據(jù)集的全稱為新加坡全天空成像分類數(shù)據(jù)集,由Dev等2利用廣角高分辨率天空成像設(shè)備WSI收集制作。該數(shù)據(jù)集包含784張精選云圖,被劃分為5類:晴空(clearsky)混合云(patternedclouds)厚黑云(thickdarkclouds)厚白云(thickwhiteclouds)和薄云(veil clouds)。
數(shù)據(jù)集樣本云圖如圖9所示,數(shù)據(jù)集信息見(jiàn)表2。
3.2 分類評(píng)定指標(biāo)
在多分類任務(wù)中,準(zhǔn)確率是用來(lái)評(píng)定分類模型的分類性能好壞最常用的指標(biāo)。準(zhǔn)確率(Accuracy)表示為所有正確預(yù)測(cè)的數(shù)量除于數(shù)據(jù)集的總數(shù)。準(zhǔn)確率計(jì)算公式如下所示
式中: TP,F(xiàn)P,F(xiàn)N,TN 為二分類中混淆矩陣根據(jù)真實(shí)值與預(yù)測(cè)值的不同包括的真正類、假負(fù)類、假正類和真負(fù)類4種,具體定義見(jiàn)表3。
3.3 實(shí)驗(yàn)設(shè)置
為驗(yàn)證遷移學(xué)習(xí)技術(shù)在地基云識(shí)別領(lǐng)域上的優(yōu)越性,在SWIMCAT數(shù)據(jù)集上分別進(jìn)行了使用遷移學(xué)習(xí)技術(shù)與不適用遷移學(xué)習(xí)技術(shù)實(shí)現(xiàn)地基云識(shí)別的實(shí)驗(yàn),設(shè)置訓(xùn)練集、測(cè)試集、驗(yàn)證集比例為3:1:1,使用VGG16網(wǎng)絡(luò)進(jìn)行訓(xùn)練。
在SWIMCAT數(shù)據(jù)集上訓(xùn)練前,每個(gè)CNN模型使用遷移學(xué)習(xí)加載預(yù)訓(xùn)練權(quán)重,并以學(xué)習(xí)率0.0001訓(xùn)練20輪,學(xué)習(xí)率衰減設(shè)置每個(gè)步長(zhǎng)衰減值為0.96,優(yōu)化器使用Adam,損失函數(shù)使用交叉熵?fù)p失。對(duì)比實(shí)驗(yàn)的機(jī)器學(xué)習(xí)方法有BOW、LBP、CLBP三種,其中LBP和CLBP的參數(shù) P 和 R 的比值設(shè)為8:1,直方圖的維度設(shè)為256,3種方法的分類器都使用SVM分類。
3.4 結(jié)果分析
非遷移學(xué)習(xí)與遷移學(xué)習(xí)的實(shí)驗(yàn)的訓(xùn)練曲線如圖10所示,圖中橫坐標(biāo) x 表示訓(xùn)練輪次,縱坐標(biāo) y 表示準(zhǔn)確率,圖中用小數(shù)表示,計(jì)算方式為( (y×100)% 。在測(cè)試集上非遷移學(xué)習(xí)得到了 87.90% 的識(shí)別準(zhǔn)確率,而遷移學(xué)習(xí)得到了 99.36% 的識(shí)別準(zhǔn)確率。
從實(shí)驗(yàn)結(jié)果可知,遷移學(xué)習(xí)在訓(xùn)練速度上也顯著優(yōu)于非遷移學(xué)習(xí),非遷移學(xué)習(xí)訓(xùn)練了8輪才收斂,而遷移學(xué)習(xí)只用了2到3輪就成功收斂。由此可以看出,在利用深度學(xué)習(xí)對(duì)地基云進(jìn)行識(shí)別時(shí),遷移學(xué)習(xí)能夠使模型的準(zhǔn)確率迅速提升,同時(shí)加快收斂速度,并顯著提高最終的分類精度。采用遷移學(xué)習(xí)加載預(yù)訓(xùn)練權(quán)重的模型,其初始權(quán)重相比隨機(jī)初始化或常規(guī)初始化方法生成的權(quán)重,更接近于訓(xùn)練后的理想權(quán)重。此外,遷移學(xué)習(xí)能夠有效將損失降低到局部最小值,從而顯著提升模型的訓(xùn)練效率和分類性能。
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的實(shí)驗(yàn)結(jié)果見(jiàn)表4。可以看出,6種結(jié)合遷移學(xué)習(xí)的CNN模型在SWIMCAT數(shù)據(jù)集上的準(zhǔn)確率均超過(guò) 98% ,遠(yuǎn)高于3種機(jī)器學(xué)習(xí)方法的最高準(zhǔn)確率 (73.89% )。這是因?yàn)闄C(jī)器學(xué)習(xí)方法依賴于手工特征,特征提取有限,而CNN能自動(dòng)從圖像中提取特征,遷移學(xué)習(xí)使得CNN的初始權(quán)重更接近預(yù)測(cè)值,減少了梯度消失和過(guò)擬合等問(wèn)題,大大提高了識(shí)別精度和速度。通過(guò)對(duì)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的實(shí)驗(yàn)對(duì)比,可以證明,在地基云分類領(lǐng)域遷移學(xué)習(xí)與深度學(xué)習(xí)方法結(jié)合的性能顯著優(yōu)于機(jī)器學(xué)習(xí)方法。
4結(jié)論
本文在SWIMCAT數(shù)據(jù)集上對(duì)比了3種機(jī)器學(xué)習(xí)方法和6種基于遷移學(xué)習(xí)的CNN模型。實(shí)驗(yàn)結(jié)果顯示,深度學(xué)習(xí)方法在地基云識(shí)別領(lǐng)域具有顯著優(yōu)勢(shì),結(jié)合遷移學(xué)習(xí)能使模型的準(zhǔn)確率快速上升,曲線快速收斂,并且可以顯著提高最終識(shí)別的準(zhǔn)確率。深度學(xué)習(xí)卓越的性能和簡(jiǎn)便的實(shí)驗(yàn)操作使其成為研究者們的首選,這種優(yōu)勢(shì)也激勵(lì)研究者們探索更多網(wǎng)絡(luò)結(jié)構(gòu)和深度學(xué)習(xí)算法,以進(jìn)一步推進(jìn)地基云識(shí)別任務(wù)的研究,為后續(xù)進(jìn)行地基云識(shí)別算法的深入研究奠定理論基礎(chǔ)。
參考文獻(xiàn):
[1] LI S,WANG M, SUN S, et al.CloudDenseNet: Lightweight Ground-Based Cloud Classification Method for Large-Scale Datasets Based on Reconstructed DenseNet[J]. Sensors,2023,23(18):7957.
[2] MORF H. Sunshine and cloud cover prediction based on Markov processes[J]. Solar Energy,2014,110:615-626.
[3]邵東威.協(xié)同GAN與自注意力時(shí)空LSTM的臺(tái)風(fēng)云圖預(yù)測(cè) 研究[D].:,2021.
[4] SINGH M,GLENNEN M. Automated ground-based cloud recognition[J].Pattern analysis and applications,2Oo5,8:258- 271.
[5] ZHUO W,CAO Z, XIAO Y. Cloud classification of ground -based images using texture-structure features [J]. Journal of Atmospheric and Oceanic Technology,2014,31 (1):79-92.
[6]HEINLE A,MACKE A,SRIVASTAV A. Automatic cloud classification of whole sky images[J]. Atmospheric Measurement Techniques,2010,3(3):557-567.
[7] CHENG H Y,YU C C.Block-based cloud classification withstatistical features and distribution of local texture features [J]. Atmospheric Measurement Techniques,2O15,8(3): 1173-1182.
[8] TARAVAT A,DEL FRATE F,CORNARO C,et al. Neural networks and support vector machine algorithms for automatic cloud classification of whole-sky ground-based images[J].IEEE Geoscience and remote sensing letters,2014,12 (3):666-670.
[9] DENGL,YUD.Deep learning:methods and applications[J]. Foundations and trends in signal processing,2014,7(3/4): 197-387.
[10] YE L,CAO Z,XIAO Y.DeepCloud:Ground-based cloud image categorization using deep convolutional features [J].IEEE Transactions on Geoscience and Remote Sensing,2017,55(10):5729-5740.
[11]LI G.A novel computer-aided cloud type classification methodbasedonconvolutional neuralnetworkwith squeeze-and-excitation [Cl//Journal of Physics: Conference Series.IOP Publishing,2021,1802(3):032-051.
[12]ZHANGL,JIAK,LIUP,etal.Cloud recognitionbased onlightweight neural network [C]//2O2O Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC). IEEE,2020:1033-1042.
[13] ZHANG J,LIU P,ZHANG F,etal.Ensemble meteorological cloud classification meets internet of de pendable and controllable things[J].IEEE Internet of Things Journal,2020,8(5):3323-3330.
[14] LI W,GONG Y,LIUJ,et al.Peripheral and central pathological mechanisms of chronic low back pain:a narrativereview[J].Journal ofPain Research,2O21:1483-1494.
[15] HE F,LIU T,TAO D.Why resnet works? residuals generalize [J].IEEE transactions on neural networks and learningsystems,2020,31(12):5349-5362.
[16] KUNCAN M. An intelligent approach for bearing fault diagnosis: combination of 1D-LBP and GRA [J]. IEEE Access,2020,8:137517-137529.
[17] GAN J,LU W,LIQ,et al.Cloud type classification of total-sky images using duplex norm-bounded sparse coding[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2017,10(7):3360-3372.
[18]SIMONYAN K,ZISSERMAN A.Very deep convolutional networks for large-scale image recognition. arXiv 2014[J]. arXivpreprintarXiv:1409.1556,2019,1556.
[19]BANSALM,KUMARM,SACHDEVA M,et al.Transfer learning for image classification using VGG19:Caltech101 image data set [J].Journal of ambient intelligence and humanized computing,2021:1-12.
[20] HE K,ZHANG X,REN S,et al. Deep residual learning forimage recognition [C]//Proceedings of the IEEE conference on computer vision and pattern recognition.2016: 770-778.
[21] ZHANG Q. A novel ResNet1O1 model based on dense dilated convolution for image classification[J]. SN Applied Sciences,2022,4:1-13.
[22] WANG C,CHEN D,HAO L,et al. Pulmonary image classification based on inception-v3 transfer learning model[J].IEEE Access,2019,7:146533-146541.
[23]胡樹(shù)貞,馬舒慶,陶法,等.地基雙波段測(cè)云系統(tǒng)及其對(duì)比試 驗(yàn)[J].應(yīng)用氣象學(xué)報(bào),2012,23(4):441-450.
[24] ZHANG J,LIU P,ZHANG F,et al. CloudNet:Groundbased cloud classification with deep convolutional neural network [J].Geophysical Research Letters,2018,45(16): 8665-8672.
[25] DEV S,LEE Y H,WINKLER S. Categorization of cloud image patches using an improved texton-based approach[C] //2015 IEEE international conference on image processing (ICIP).IEEE,2015:422-426.
[26] LIU S,DUAN L,ZHANG Z,et al. Ground-based remote sensing cloud classification via context graph attention network [J].IEEE Transactions on Geoscience and Remote Sensing,2021,60:1-11.