• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于Swin-Transformer與生成對(duì)抗網(wǎng)絡(luò)的地震隨機(jī)噪聲壓制方法

    2024-02-03 13:09:44周鴻帥程冰潔徐天吉
    石油物探 2024年1期
    關(guān)鍵詞:注意力損失卷積

    周鴻帥,程冰潔,徐天吉

    (1.成都理工大學(xué)地球勘探與信息技術(shù)教育部重點(diǎn)實(shí)驗(yàn)室,四川成都610059;2.電子科技大學(xué)資源與環(huán)境學(xué)院,四川成都611731;3.電子科技大學(xué)長(zhǎng)三角研究院(湖州),浙江湖州313000)

    隨機(jī)噪聲廣泛分布在采集的地震數(shù)據(jù)中,它們與有效信號(hào)混疊,掩蓋了地震數(shù)據(jù)的有效細(xì)節(jié)信息,嚴(yán)重影響地震數(shù)據(jù)的信噪比與分辨率,阻礙后續(xù)地震數(shù)據(jù)處理及資料解釋,所以如何有效消除隨機(jī)噪聲,最大限度保留有效信息是提高地震數(shù)據(jù)處理解釋準(zhǔn)確性的關(guān)鍵步驟之一。目前地震數(shù)據(jù)隨機(jī)噪聲去除方法主要分為兩類,即基于先驗(yàn)知識(shí)的傳統(tǒng)去噪方法與基于網(wǎng)絡(luò)訓(xùn)練的深度學(xué)習(xí)類方法。

    傳統(tǒng)去噪方法主要包括時(shí)域去噪、變換域去噪與稀疏表示去噪。時(shí)域去噪類方法利用地震數(shù)據(jù)在時(shí)域的分布特點(diǎn)構(gòu)造濾波函數(shù)去除噪聲,例如非局部均值濾波[1]。變換域類去噪方法建立在固定基函數(shù)上,利用數(shù)學(xué)模型將地震信號(hào)轉(zhuǎn)換至變換域,利用變換域的稀疏性對(duì)信號(hào)進(jìn)行去噪,主要包括傅里葉變換[2]、小波變換[3]和曲波變換[4]等。稀疏表示類方法使用字典代替?zhèn)鹘y(tǒng)的固定基函數(shù),具有一定的自適應(yīng)處理能力,其中包括K-奇異值分解(K-SVD)[5]和在線字典學(xué)習(xí)(ODL)[6]等。以上方法受制于各自的缺陷,對(duì)數(shù)據(jù)特征提取能力較弱,在面對(duì)噪聲分布復(fù)雜、噪聲干擾嚴(yán)重的地震數(shù)據(jù)時(shí),往往會(huì)出現(xiàn)噪聲壓制不足及損傷有效信號(hào)的情況,不能滿足勘探精度的要求。

    深度學(xué)習(xí)類方法包括基于卷積神經(jīng)網(wǎng)絡(luò)[7]的去噪方法,基于生成對(duì)抗網(wǎng)絡(luò)[8]以及基于Transformer[9]的去噪方法。與基于先驗(yàn)知識(shí)的傳統(tǒng)方法不同,深度學(xué)習(xí)類方法通過(guò)構(gòu)造端到端的映射關(guān)系,或是從數(shù)據(jù)內(nèi)部挖掘信息,依靠大量數(shù)據(jù),用網(wǎng)絡(luò)的模式,以損失函數(shù)為指標(biāo)學(xué)習(xí)含噪到無(wú)噪的映射關(guān)系,得到一個(gè)能夠一定程度自適應(yīng)去噪的網(wǎng)絡(luò)模型。目前在地震數(shù)據(jù)去噪領(lǐng)域,深度學(xué)習(xí)方法已有諸多應(yīng)用成果。韓衛(wèi)雪等[10]將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于去除地震數(shù)據(jù)隨機(jī)噪聲,應(yīng)用效果優(yōu)于傳統(tǒng)地震數(shù)據(jù)去噪方法。WANG等[11]對(duì)地震數(shù)據(jù)進(jìn)行預(yù)處理,使用殘差深度卷積神經(jīng)網(wǎng)絡(luò)去噪,殘差學(xué)習(xí)[12]解決了網(wǎng)絡(luò)梯度消失的問(wèn)題,使網(wǎng)絡(luò)層數(shù)更深,特征提取能力更強(qiáng)。WANG等[13]詳細(xì)討論了損失函數(shù)對(duì)網(wǎng)絡(luò)模型性能的影響,指出L1,L2損失會(huì)導(dǎo)致結(jié)果過(guò)度平滑,產(chǎn)生虛高的峰值信噪比(PSNR)與結(jié)構(gòu)相似性(SSIM)值。在噪聲干擾嚴(yán)重的地震數(shù)據(jù)中,弱細(xì)節(jié)信息會(huì)因過(guò)度平滑而丟失,形成同相軸假象。張巖等[14]使用聯(lián)合誤差定義損失函數(shù),并使用擴(kuò)充卷積,以不同尺寸的卷積核提取地震數(shù)據(jù)特征,提高了地震數(shù)據(jù)去噪效果。楊翠倩等[15]提出一種結(jié)合全局上下文和注意力機(jī)制的深度卷積神經(jīng)網(wǎng)絡(luò)。實(shí)驗(yàn)結(jié)果表明,網(wǎng)絡(luò)能夠更有效壓制隨機(jī)噪聲,并保留更多局部細(xì)節(jié)信息。徐彥凱等[16]使用由兩個(gè)子網(wǎng)絡(luò)組成的雙通道網(wǎng)絡(luò)模型,并在下通道子網(wǎng)絡(luò)中引入空洞卷積增大感受野,增加了對(duì)有效信號(hào)的保護(hù)。ALSAIARI等[17]使用生成對(duì)抗網(wǎng)絡(luò)對(duì)圖像去噪,對(duì)抗損失的加入使網(wǎng)絡(luò)有效恢復(fù)了細(xì)節(jié)信息。俞若水等[18]使用深度卷積生成對(duì)抗網(wǎng)絡(luò)(DC-GAN)去除瑞雷波信號(hào)隨機(jī)噪聲,取得了較好的效果。吳學(xué)峰等[19]在傳統(tǒng)對(duì)抗損失的基礎(chǔ)上,添加循環(huán)一致性損失,提升了網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定性。

    以上方法均基于卷積神經(jīng)網(wǎng)絡(luò),是目前地震數(shù)據(jù)去噪領(lǐng)域的主流應(yīng)用方法,利用多層卷積提取地震數(shù)據(jù)的主要特征,取得了優(yōu)于傳統(tǒng)方法的應(yīng)用效果。但卷積以卷積核為基礎(chǔ),是一種局部操作,受限于卷積核的感受野,缺少對(duì)數(shù)據(jù)的全局特征分析,因此在特征提取能力上仍有較大提升空間。Swin-Transformer是圖像領(lǐng)域新發(fā)展起來(lái)的方法,在地震數(shù)據(jù)處理領(lǐng)域還鮮有研究。DOSOVITSKIY等[20]提出Vision Transformer(VIT),將Transformer應(yīng)用于圖像分類任務(wù),該方法把圖像塊比作自然語(yǔ)言處理(NLP)中的token,使用標(biāo)準(zhǔn)Transformer編碼器處理token,并據(jù)此進(jìn)行圖像分類。LIU等[21]提出Swin-Transformer,使用窗口自注意力機(jī)制,降低了Tansformer的計(jì)算復(fù)雜度。LIANG等[22]將Swin-Transformer應(yīng)用于圖像復(fù)原任務(wù),在圖像去噪任務(wù)中取得了良好的效果。

    本文借鑒圖像處理領(lǐng)域技術(shù),引入Swin-Transformer方法,針對(duì)L1,L2損失函數(shù)造成過(guò)度平滑而引起地震數(shù)據(jù)局部構(gòu)造變形的問(wèn)題,融入生成對(duì)抗網(wǎng)絡(luò)的思想,提出ST-GAN(Swin-Transformer and Generative Adversarial Networks)網(wǎng)絡(luò)模型。在ST-GAN網(wǎng)絡(luò)模型中,Swin-Transformer作為生成網(wǎng)絡(luò)對(duì)地震數(shù)據(jù)去噪。Transformer的注意力模塊是一種自適應(yīng)濾波,權(quán)重由兩個(gè)區(qū)域的相關(guān)性決定,能有效提取數(shù)據(jù)的全局特征,并能與卷積神經(jīng)網(wǎng)絡(luò)優(yōu)勢(shì)互補(bǔ),提升網(wǎng)絡(luò)的特征提取能力。判別網(wǎng)絡(luò)基于卷積神經(jīng)網(wǎng)絡(luò),損失函數(shù)由L1損失與對(duì)抗損失一同構(gòu)成,使網(wǎng)絡(luò)在有效壓制隨機(jī)噪聲的同時(shí)保留和恢復(fù)更多的細(xì)節(jié)信息。

    1 方法原理與網(wǎng)絡(luò)結(jié)構(gòu)

    1.1 方法原理

    1.1.1 卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)是一種局部操作,一般由輸入層、卷積層和輸出層構(gòu)成。輸入為地震數(shù)據(jù)圖像,輸出為特征圖,卷積層通過(guò)卷積核完成對(duì)輸入數(shù)據(jù)的局部特征提取。運(yùn)算過(guò)程如圖1所示,運(yùn)算表達(dá)式為:

    圖1 卷積運(yùn)算示意

    y=wx+b

    (1)

    式中:x是輸入數(shù)據(jù)中的元素矩陣;w是卷積核;b是偏置;y是特征提取結(jié)果。

    1.1.2 生成對(duì)抗網(wǎng)絡(luò)

    生成對(duì)抗網(wǎng)絡(luò)的核心思想是博弈,它由生成網(wǎng)絡(luò)(Generator)和判別網(wǎng)絡(luò)(Discriminator)組成。如圖2 所示,生成網(wǎng)絡(luò)從輸入的含噪地震數(shù)據(jù)中生成去噪地震數(shù)據(jù)。判別網(wǎng)絡(luò)的輸入有兩部分,一是生成網(wǎng)絡(luò)的結(jié)果,二是映射目標(biāo)。判別網(wǎng)絡(luò)判斷輸入是生成網(wǎng)絡(luò)的結(jié)果還是真實(shí)的映射目標(biāo),即估計(jì)樣本屬于某類的條件概率分布。

    圖2 生成對(duì)抗網(wǎng)絡(luò)

    1.1.3 多頭自注意力機(jī)制

    自注意力機(jī)制[23](Self-Attention)是Transformer的核心模塊,可以捕捉各向量之間的相關(guān)關(guān)系,是一種全局操作。

    在Self-Attention計(jì)算中,向量根據(jù)同其余向量之間的相關(guān)關(guān)系權(quán)重進(jìn)行加權(quán)求和。如圖3所示,a1,…,ai是各個(gè)patch轉(zhuǎn)化的向量序列。ai首先經(jīng)過(guò)Wq,Wk,Wv共3個(gè)權(quán)值共享的初始化矩陣轉(zhuǎn)換為qi,ki,vi,提升向量在匹配計(jì)算中的魯棒性。qi,ki相互匹配,經(jīng)激活函數(shù)Softmax得到相關(guān)關(guān)系權(quán)重向量,與vi加權(quán)求和即得到Self-Attention值。qi,ki,vi3個(gè)向量中的元素繼續(xù)劃分為qij,kij,vij構(gòu)成多個(gè)Head,對(duì)每一個(gè)head做Self-Attention,即為多頭自注意力機(jī)制(Multi-headed Self-Attention)[24]。

    圖3 多頭自注意力機(jī)制

    計(jì)算公式為:

    (2)

    式中:qi=aiWq,ki=aiWk,vi=aiWv。Qij=(q1j,q2j,…,qij),Kij=(k1j,k2j,…,kij),Vij=(v1j,v2j,…,vij);d為向量長(zhǎng)度。

    1.1.4 Swin-Transformer

    Swin-Transformer(Swin-T)采用窗口多頭自注意力模塊(W-MSA/SW-MSA),與Transformer的全局自注意力計(jì)算不同,Swin-T在非重疊的局部窗口內(nèi)進(jìn)行多頭自注意力計(jì)算(圖4)。圖4a 為全局自注意力,圖中每一個(gè)patch與其余patch進(jìn)行自注意力計(jì)算。圖4b為窗口自注意力(W-MSA),其每一個(gè)patch之間的自注意力計(jì)算在窗口內(nèi)(即圖中紅色方框)進(jìn)行。圖4c為移位窗口自注意力(SW-MSA),窗口進(jìn)行了移動(dòng),不同窗之間的信息得到融合。

    圖4 窗口自注意力示意a 全局自注意力; b 窗口自注意力; c 移位窗口自注意力

    窗口形式的計(jì)算將全局計(jì)算的二次復(fù)雜度轉(zhuǎn)化為線性復(fù)雜度,大大降低了計(jì)算成本,擁有更加優(yōu)異的擴(kuò)展性。

    1.2 網(wǎng)絡(luò)結(jié)構(gòu)及損失函數(shù)

    1.2.1 Swin-Transformer網(wǎng)絡(luò)結(jié)構(gòu)

    圖5是Swin-Transformer(Swin-T)的網(wǎng)絡(luò)結(jié)構(gòu),該網(wǎng)絡(luò)完成對(duì)含噪地震數(shù)據(jù)的去噪處理。網(wǎng)絡(luò)的核心部分由若干個(gè)殘差Swin-T塊(RSTB)構(gòu)成,RSTB則由多個(gè)殘差連接的Swin-T層(STL)與卷積層構(gòu)成。

    圖5 Swin-Transformer網(wǎng)絡(luò)結(jié)構(gòu)

    地震數(shù)據(jù)首先經(jīng)過(guò)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,所得特征圖由圖6所示轉(zhuǎn)換為二維向量矩陣。在RSTB中,向量矩陣依次經(jīng)過(guò)殘差連接的LN層(LayerNorm)與多頭自注意力模塊(MSA),以及殘差連接的LN層與多層感知機(jī)(MLP)。

    圖6 Patch轉(zhuǎn)向量矩陣

    LN層完成對(duì)數(shù)據(jù)的歸一化,提升網(wǎng)絡(luò)的穩(wěn)定性。在MSA模塊中,向量矩陣中的各向量相互匹配計(jì)算注意力權(quán)重,MSA與SW-MSA交替使用。殘差連接提升了網(wǎng)絡(luò)的深度,有效緩解了梯度消失問(wèn)題。MLP融合向量不同維度的信息,使網(wǎng)絡(luò)能夠提取更多的非線性特征和組合特征信息,加強(qiáng)網(wǎng)絡(luò)的表征能力。

    1.2.2 ST-GAN網(wǎng)絡(luò)模型及損失函數(shù)

    ST-GAN網(wǎng)絡(luò)模型結(jié)構(gòu)如圖7所示,其中:包含卷積神經(jīng)網(wǎng)絡(luò),生成對(duì)抗網(wǎng)絡(luò)與Swin-T。Swin-T作為生成對(duì)抗網(wǎng)絡(luò)中的生成網(wǎng)絡(luò),判別網(wǎng)絡(luò)基于卷積神經(jīng)網(wǎng)絡(luò),判別結(jié)果作為損失函數(shù)的一部分指導(dǎo)生成網(wǎng)絡(luò)更新。

    圖7 ST-GAN網(wǎng)絡(luò)模型結(jié)構(gòu)

    卷積神經(jīng)網(wǎng)絡(luò)通過(guò)卷積核提取地震數(shù)據(jù)的淺層局部特征。Swin-T通過(guò)自注意力模塊使Patch相互匹配,得到不同數(shù)據(jù)塊之間的相關(guān)關(guān)系。卷積神經(jīng)網(wǎng)絡(luò)的局部操作與Swin-T的全局操作相互補(bǔ)充,提升了網(wǎng)絡(luò)模型對(duì)數(shù)據(jù)的特征提取能力。生成對(duì)抗網(wǎng)絡(luò)為整個(gè)網(wǎng)絡(luò)提供了新的訓(xùn)練策略,判別網(wǎng)絡(luò)的加入使生成網(wǎng)絡(luò)更新不再局限于某一種損失函數(shù),而是以網(wǎng)絡(luò)的形式對(duì)生成網(wǎng)絡(luò)的結(jié)果進(jìn)行判定,進(jìn)而反饋信息指導(dǎo)生成網(wǎng)絡(luò)更新。生成對(duì)抗網(wǎng)絡(luò)提升了網(wǎng)絡(luò)模型對(duì)地震數(shù)據(jù)細(xì)節(jié)信息恢復(fù)的能力。

    損失函數(shù)是網(wǎng)絡(luò)訓(xùn)練的重要組成部分,依據(jù)網(wǎng)絡(luò)生成結(jié)果與映射目標(biāo)之間的差異反饋信息指導(dǎo)網(wǎng)絡(luò)更新。在地震數(shù)據(jù)去噪任務(wù)中一般使用L1,L2損失函數(shù)?;谀繕?biāo)值與預(yù)測(cè)值差異的損失函數(shù)通常能得到較好的結(jié)果,但同時(shí)也會(huì)產(chǎn)生過(guò)度平滑,存在PSNR與SSIM指標(biāo)虛高的問(wèn)題。在噪聲干擾嚴(yán)重的地震數(shù)據(jù)中,弱細(xì)節(jié)信息會(huì)因過(guò)度平滑而丟失,形成同相軸假象。

    針對(duì)該問(wèn)題,對(duì)損失函數(shù)進(jìn)行了調(diào)整,融入生成對(duì)抗網(wǎng)絡(luò)的思想,增添了對(duì)抗損失。對(duì)抗損失可以使網(wǎng)絡(luò)提取更深層次的潛在特征,從而有效恢復(fù)細(xì)節(jié)信息,避免因過(guò)度平滑造成同相軸假象。

    整體的損失函數(shù)構(gòu)成為:

    Loss=lam*Lcon+beta*Ladv+(1-lam)*Lcha

    (3)

    式中:Lcha[25]是L1損失函數(shù)的變體,用于計(jì)算的目標(biāo)值與預(yù)測(cè)值之間絕對(duì)差值的總和,如(4)式。它增添了常量ε,使函數(shù)擁有更高的穩(wěn)定性。Lcon[26]是內(nèi)容損失,用于計(jì)算地震數(shù)據(jù)的深層特征提取結(jié)果之間的差異,它能夠提升網(wǎng)絡(luò)對(duì)細(xì)節(jié)信息恢復(fù)的能力,如(5)式。其中,φ為特征提取網(wǎng)絡(luò),l為層數(shù),Ladv為對(duì)抗損失,如(6)式。其中,D為判別網(wǎng)絡(luò)。

    (4)

    (5)

    (6)

    1.3 網(wǎng)絡(luò)訓(xùn)練與測(cè)試

    訓(xùn)練數(shù)據(jù)集的質(zhì)量很大程度上決定網(wǎng)絡(luò)模型的性能。利用合成地震數(shù)據(jù)構(gòu)建訓(xùn)練集與測(cè)試集,經(jīng)過(guò)對(duì)無(wú)噪的合成地震數(shù)據(jù)添加噪聲水平為15,20,25的高斯白噪聲,構(gòu)造含噪到無(wú)噪的映射關(guān)系。訓(xùn)練時(shí)對(duì)數(shù)據(jù)按照步長(zhǎng)為1,大小為6464進(jìn)行滑動(dòng)裁剪,同時(shí)進(jìn)行幅值歸一化處理,并使用旋轉(zhuǎn)和翻轉(zhuǎn)進(jìn)行數(shù)據(jù)增強(qiáng)。裁剪后樣本數(shù)量總計(jì)為5720,訓(xùn)練集與測(cè)試集按照8∶2的比例進(jìn)行劃分,使地震數(shù)據(jù)特征充分覆蓋訓(xùn)練集與測(cè)試集,保證網(wǎng)絡(luò)模型訓(xùn)練的有效性。部分訓(xùn)練樣本如圖8所示。其中,包含斷層、薄層和褶皺等多種不同地質(zhì)模型。

    圖8 訓(xùn)練集中部分樣本

    圖9是不同網(wǎng)絡(luò)模型(包括DnCNN,Swin-T,ST-GAN)的訓(xùn)練損失函數(shù)值變化趨勢(shì)。其中,DnCNN與Swin-T使用的損失函數(shù)為L(zhǎng)1范數(shù)損失。從圖9可以看出,Swin-T模型的損失函數(shù)值不僅起始值最小,而且在整個(gè)訓(xùn)練過(guò)程中一直低于DnCNN。在融入生成對(duì)抗網(wǎng)絡(luò)后,損失函數(shù)增添了對(duì)抗損失,整體網(wǎng)絡(luò)模型結(jié)構(gòu)及損失函數(shù)的構(gòu)成更為復(fù)雜,從圖9中展示的曲線可以看出,ST-GAN網(wǎng)絡(luò)模型的初始損失函數(shù)值略高于Swin-T模型,但在整體上仍低于DnCNN,這表明網(wǎng)絡(luò)模型在訓(xùn)練中能夠迅速收斂。

    圖9 不同網(wǎng)絡(luò)模型訓(xùn)練損失函數(shù)變化趨勢(shì)

    測(cè)試集上的峰值信噪比(PSNR)和結(jié)構(gòu)相似性(SSIM)性能曲線如圖10a和圖10b所示。隨訓(xùn)練輪次的增加,各個(gè)網(wǎng)絡(luò)的PSNR與SSIM都顯著提升,這表明網(wǎng)絡(luò)在去噪性能上得到了增強(qiáng)。對(duì)比曲線之間的差異,Swin-T網(wǎng)絡(luò)的PSNR和SSIM比DnCNN分別高2dB和0.07。表明在有限的訓(xùn)練輪次下,Swin-T網(wǎng)絡(luò)的特征提取能力以及去噪性能比DnCNN更加優(yōu)異。在融入生成對(duì)抗網(wǎng)絡(luò)之后,ST-GAN網(wǎng)絡(luò)模型的PSNR與SSIM較Swin-T略微下降。

    圖10 峰值信噪比(a)與結(jié)構(gòu)相似性(b)

    這是由于在僅使用L1損失作為損失函數(shù)的情況下,過(guò)度平滑效應(yīng)會(huì)導(dǎo)致虛高的PSNR和SSIM值。如圖11所示,DnCNN與Swin-T的結(jié)果圖上均顯示出不同程度的平滑,導(dǎo)致地震圖像中的局部構(gòu)造發(fā)生變形,形成同相軸假象。ST-GAN網(wǎng)絡(luò)模型融入生成對(duì)抗網(wǎng)絡(luò),在損失函數(shù)上增添了對(duì)抗損失,降低了PSNR與SSIM值,但同時(shí)提升了網(wǎng)絡(luò)對(duì)細(xì)節(jié)信息的恢復(fù)能力。如圖11e所示,地震數(shù)據(jù)局部構(gòu)造恢復(fù)良好。

    圖11 測(cè)試集結(jié)果a 原始數(shù)據(jù); b 含噪數(shù)據(jù); c DnCNN; d Swin-Transformer; e ST-GAN

    2 實(shí)際應(yīng)用

    為測(cè)試ST-GAN網(wǎng)絡(luò)模型的去噪性能,選用Marmous模型作為測(cè)試對(duì)象。圖12a為Marmous模型的局部地震成像剖面;圖12b為相應(yīng)的含噪局部地震成像剖面。其含有噪聲水平為25的隨機(jī)噪聲,PSNR為22.62dB,SSIM為0.2946。從圖12中可以看出,地震剖面上含有曲線同相軸以及破碎帶,受噪聲干擾,同相軸連續(xù)性差,破碎帶中弱信號(hào)被噪聲掩蓋,難以識(shí)別有效信息。我們使用傳統(tǒng)去噪方法(包括小波變換和字典學(xué)習(xí))、經(jīng)典去噪網(wǎng)絡(luò)(DnCNN)、Swin-T與ST-GAN網(wǎng)絡(luò)模型對(duì)含噪信號(hào)進(jìn)行處理,并對(duì)噪結(jié)果進(jìn)行對(duì)比分析。

    圖12 局部地震成像剖面a 無(wú)噪局部地震成像剖面; b 含噪局部地震成像剖面

    表1為不同方法處理結(jié)果的峰值信噪比與結(jié)構(gòu)相似性。分析表1可以得出,傳統(tǒng)方法的PSNR與SSIM明顯低于深度學(xué)習(xí)類方法。說(shuō)明在去噪效果方面,深度學(xué)習(xí)類方法優(yōu)于傳統(tǒng)方法。將經(jīng)典去噪網(wǎng)絡(luò)DnCNN與Swin-T進(jìn)行對(duì)比,Swin-T的PSNR與SSIM比DnCNN分別高3.14dB與0.0962,說(shuō)明Swin-T的去噪性能優(yōu)于DnCNN。而在融入生成對(duì)抗網(wǎng)絡(luò)后,PSNR與SSIM相比較Swin-T降低了1.66dB與0.0446,但仍比DnCNN高出1.48dB與0.0516。

    表1 不同方法去噪后的PSNR與SSIM

    圖13a與圖13b分別為小波變換與字典學(xué)習(xí)兩種傳統(tǒng)方法的去噪結(jié)果,其中小波變換使用小波閾值去噪,字典學(xué)習(xí)采用小批量在線字典學(xué)習(xí)去噪。分析圖示結(jié)果可知,小波閾值去噪與字典學(xué)習(xí)均成功去除了大部分噪聲,但在噪聲干擾嚴(yán)重的弱信號(hào)區(qū)域仍有較多噪聲殘留,導(dǎo)致特征不明顯,難以辨識(shí)有效信息。

    圖13 不同去噪方法處理后的結(jié)果a 小波變換; b 字典學(xué)習(xí); c DnCNN; d Swin-Transformer;e ST-GAN

    圖13c至圖13e依次為DnCNN,Swin-T以及ST-GAN網(wǎng)絡(luò)模型的去噪結(jié)果。相比較傳統(tǒng)的去噪方法,深度學(xué)習(xí)類方法在對(duì)噪聲的去除上已經(jīng)有了明顯提升,邊緣清晰,噪聲殘留少。但DnCNN壓制噪聲的過(guò)程中,同樣對(duì)噪聲與有效信號(hào)交疊嚴(yán)重的弱信號(hào)區(qū)域恢復(fù)不足,將有效信號(hào)作為噪聲一同去除,導(dǎo)致局部構(gòu)造信息丟失。由圖13d可以看出,Swin-T在對(duì)噪聲壓制的性能上進(jìn)一步提升,噪聲殘留少,同相軸連續(xù)清晰,并且PSNR與SSIM值均比其它方法高,但與圖12a對(duì)比可以發(fā)現(xiàn),去噪結(jié)果有著明顯的過(guò)度平滑,細(xì)節(jié)信息未能正確恢復(fù),一些同相軸信息屬于假象。圖13e為ST-GAN網(wǎng)絡(luò)模型的去噪結(jié)果。對(duì)比其余4種方法的去噪結(jié)果,ST-GAN網(wǎng)絡(luò)模型在濾除更多噪聲的同時(shí),避免了因過(guò)度平滑產(chǎn)生虛假同相軸的現(xiàn)象發(fā)生,減輕了對(duì)有效信號(hào)的損害,信號(hào)的局部結(jié)構(gòu)以及有效信息得以正確恢復(fù),證明了ST-GAN網(wǎng)絡(luò)模型的優(yōu)勢(shì)。

    圖14為不同方法去噪后的殘差剖面。圖14a中含有較多的地震數(shù)據(jù)有效信息,說(shuō)明小波變換去噪時(shí)損傷了有效信號(hào)。圖14b中存在少量地震數(shù)據(jù)信號(hào),噪聲含量較少,說(shuō)明字典學(xué)習(xí)去噪時(shí)對(duì)噪聲壓制不足。圖14c與圖14d噪聲含量多,但同樣包含地震數(shù)據(jù)細(xì)節(jié)信息,說(shuō)明DnCNN與Swin-T在壓制噪聲的同時(shí)損傷了有效信號(hào),無(wú)法正確恢復(fù)細(xì)節(jié)信息。圖14e 含噪量較高的同時(shí),只在局部區(qū)域包含較少的地震數(shù)據(jù)信號(hào),說(shuō)明ST-GAN網(wǎng)絡(luò)模型在有效壓制噪聲的同時(shí)擁有更加優(yōu)異的細(xì)節(jié)恢復(fù)和保持能力。

    圖14 不同方法去噪后的殘差剖面a 小波變換; b 字典學(xué)習(xí); c DnCNN; d Swin-Transformer; e ST-GAN

    圖15顯示了原始數(shù)據(jù)、含噪數(shù)據(jù)以及不同去噪方法的二維中心化頻譜分析的結(jié)果。頻譜圖的中心為低頻,離中心越遠(yuǎn),頻率越高,圖像顏色代表能量大小,能量延伸方向一定程度指示地震數(shù)據(jù)剖面中同相軸方向與變化趨勢(shì)。

    圖15 原始數(shù)據(jù)、含噪數(shù)據(jù)以及不同去噪方法處理后的二維中心化頻譜分析a 原始數(shù)據(jù); b 含噪數(shù)據(jù); c 小波變換; d 字典學(xué)習(xí); e DnCNN; f Swin-Transformer; g ST-GAN

    從圖15a中可以看出,地震數(shù)據(jù)的能量主要集中在低頻,并向左上與右下方向延伸。經(jīng)噪聲干擾后(圖15b),地震數(shù)據(jù)的能量在中心點(diǎn)處向四周彌散,整體能量衰弱。圖15c是小波變換去噪后的頻譜分析結(jié)果。能量四周彌散,未能正確收斂,高頻能量缺失,說(shuō)明去噪過(guò)程中損傷了地震數(shù)據(jù)有效信號(hào)。圖15d 是字典學(xué)習(xí)去噪處理后的頻譜分析結(jié)果,能量向左上與右下延伸,高頻能量有所恢復(fù),說(shuō)明地震數(shù)據(jù)細(xì)節(jié)信息得到了一定恢復(fù),但在低頻中心處仍有能量發(fā)散,說(shuō)明地震數(shù)據(jù)仍有噪聲殘留。圖15e為DnCNN去噪處理后的頻譜分析結(jié)果,高頻能量恢復(fù)不足。圖15f為Swin-T去噪處理后的頻譜分析結(jié)果,圖中低頻區(qū)域能量集中,且明顯向左上與右下方向延伸,與圖15a相比,圖15f中的能量過(guò)度收斂和過(guò)度延伸,說(shuō)明在去噪過(guò)程中,有虛假的同相軸產(chǎn)生,細(xì)節(jié)信息被破壞。圖15g為ST-GAN網(wǎng)絡(luò)模型去噪處理后的頻譜分析結(jié)果,圖中低頻能量收斂,高頻能量恢復(fù)良好,未出現(xiàn)能量彌散與過(guò)度延伸現(xiàn)象,說(shuō)明了該方法在有效壓制噪聲的同時(shí)對(duì)地震數(shù)據(jù)細(xì)節(jié)信息恢復(fù)良好,顯示了ST-GAN網(wǎng)絡(luò)模型的有效性。

    3 結(jié)論

    1) Transformer是全局操作,能與卷積神經(jīng)網(wǎng)絡(luò)優(yōu)勢(shì)互補(bǔ)。Transformer中的注意力單元是一種自適應(yīng)濾波,匹配權(quán)重由兩個(gè)patch間的相關(guān)性決定,擁有更強(qiáng)的建模能力。相比較小波變換、字典學(xué)習(xí)和DnCNN網(wǎng)絡(luò),Swin-Transformer擁有更強(qiáng)的特征提取能力,去噪效果更優(yōu)。

    2) ST-GAN引入生成對(duì)抗網(wǎng)絡(luò),損失函數(shù)由對(duì)抗損失與L1損失一同構(gòu)成,提升了網(wǎng)絡(luò)的細(xì)節(jié)恢復(fù)能力,緩解了L1損失造成的過(guò)度平滑問(wèn)題。在噪聲干擾嚴(yán)重的弱地震信號(hào)區(qū)域,局部細(xì)節(jié)紋理有效恢復(fù),地震數(shù)據(jù)分辨率得以提高。

    ST-GAN需要人工構(gòu)建數(shù)據(jù)集進(jìn)行訓(xùn)練,訓(xùn)練集的質(zhì)量極大程度影響網(wǎng)絡(luò)去噪性能。由于地震數(shù)據(jù)噪聲復(fù)雜度高,因此如何構(gòu)建映射關(guān)系使網(wǎng)絡(luò)得到有效訓(xùn)練是ST-GAN網(wǎng)絡(luò)模型的關(guān)鍵問(wèn)題。在以后的工作中,將建立更加有效的訓(xùn)練集,以及改進(jìn)網(wǎng)絡(luò)使其擁有更強(qiáng)的魯棒性與特征提取能力是進(jìn)一步研究的方向。

    猜你喜歡
    注意力損失卷積
    少問(wèn)一句,損失千金
    讓注意力“飛”回來(lái)
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    胖胖損失了多少元
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    玉米抽穗前倒伏怎么辦?怎么減少損失?
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
    A Beautiful Way Of Looking At Things
    一般自由碰撞的最大動(dòng)能損失
    内黄县| 公安县| 星座| 托克托县| 遵义市| 班戈县| 临朐县| 咸丰县| 石楼县| 黄陵县| 黑龙江省| 隆安县| 松原市| 双流县| 洛扎县| 邢台县| 吉林省| 通城县| 保定市| 双辽市| 咸丰县| 桃园市| 确山县| 祁连县| 吐鲁番市| 紫金县| 永胜县| 馆陶县| 余庆县| 富蕴县| 西林县| 洞口县| 沈丘县| 博乐市| 海原县| 巴青县| 鄯善县| 沽源县| 冀州市| 芒康县| 永靖县|