羅仁澤,李陽(yáng)陽(yáng)
(西南石油大學(xué)油氣藏地質(zhì)及開(kāi)發(fā)工程國(guó)家重點(diǎn)實(shí)驗(yàn)室,西南石油大學(xué)地球科學(xué)與技術(shù)學(xué)院,四川成都610500)
地震數(shù)據(jù)采集過(guò)程中,采集環(huán)境導(dǎo)致地震資料通常含有很多隨機(jī)噪聲。而隨機(jī)噪聲的存在對(duì)地震資料的后續(xù)處理和解釋工作會(huì)帶來(lái)不利影響。針對(duì)此問(wèn)題,研究者們提出了諸多壓制隨機(jī)噪聲的方法。常見(jiàn)的方法有:f-k域?yàn)V波、f-x域去噪、小波變換、曲波變換和離散余弦變換等。何潮觀(guān)[1]設(shè)計(jì)并應(yīng)用f-k濾波器對(duì)地震記錄進(jìn)行二維濾波,為加強(qiáng)其二維濾波效果,設(shè)計(jì)了f-k陷波器;康冶等[2]提出了一種將地震數(shù)據(jù)擬線(xiàn)性化變換后進(jìn)行f-x域預(yù)測(cè)去噪的方法;夏洪瑞等[3]研究了小波變換在地震資料去噪中的應(yīng)用問(wèn)題;閆興等[4]提出將最優(yōu)估計(jì)理論與第2代小波變換相結(jié)合的方法,改善了地震資料處理的效果;劉鑫等[5]提出在多層小波變換中引入雙變量概率分布模型的復(fù)數(shù)小波變換局域自適應(yīng)收縮去噪算法;彭才等[6]提出基于曲波變換的地震數(shù)據(jù)去噪方法,并驗(yàn)證了曲波變換壓制隨機(jī)噪聲的可行性;陸文凱[7]提出基于離散余弦變換的地震隨機(jī)噪聲壓制方法,與f-k域預(yù)測(cè)濾波相比,離散余弦變換不僅效果好,而且能夠更好地保護(hù)有效波。除上述方法外,關(guān)于地震資料隨機(jī)噪聲壓制問(wèn)題,ZHU等[8-9]提出基于字典學(xué)習(xí)的自適應(yīng)基變換算法;汪金菊等[10]提出雙樹(shù)復(fù)小波域雙變量方法對(duì)地震信號(hào)中的隨機(jī)噪聲進(jìn)行壓制;ZHOU等[11]提出基于圖像分割的思想壓制地震隨機(jī)噪聲的方法。這些方法在壓制地震資料噪聲時(shí),都取得了很好的效果,但仍存在去噪能力不足、不能有效保護(hù)有效信號(hào)等問(wèn)題。
深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)分支,近年來(lái)成為計(jì)算機(jī)領(lǐng)域的研究熱點(diǎn)。鑒于深度學(xué)習(xí)在圖像識(shí)別、語(yǔ)義分割、語(yǔ)音識(shí)別等領(lǐng)域的優(yōu)異表現(xiàn),地球物理領(lǐng)域的研究者們也將該技術(shù)引入到地震資料的處理和解釋工作中。MAURICIO等[12]提出直接由單炮記錄利用深度學(xué)習(xí)反演斷層的方法,跳過(guò)了常規(guī)地震資料處理解釋的步驟;XIONG等[13]提出用卷積神經(jīng)網(wǎng)絡(luò)(CNN)識(shí)別三維地震數(shù)據(jù)中的斷層區(qū)域,并在合成數(shù)據(jù)和實(shí)際地震數(shù)據(jù)中驗(yàn)證了該方法的可行性;WU等[14]利用卷積神經(jīng)網(wǎng)絡(luò)將合成斷層數(shù)據(jù)作為訓(xùn)練集,推廣到真實(shí)數(shù)據(jù)中進(jìn)行測(cè)試,取得了不錯(cuò)的效果。在地震資料去噪研究中,SI等[15]利用去噪卷積神經(jīng)網(wǎng)絡(luò)(DnCNN)壓制合成地震數(shù)據(jù)中的隨機(jī)噪聲;韓衛(wèi)雪等[16]提出基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的地震資料隨機(jī)噪聲去除方法,取得了很好的效果;王鈺清等[17]提出基于數(shù)據(jù)增廣和基于卷積神經(jīng)網(wǎng)絡(luò)的U型網(wǎng)絡(luò)(Unet)壓制地震資料中隨機(jī)噪聲的方法,為解決深度學(xué)習(xí)中的數(shù)據(jù)標(biāo)簽問(wèn)題提供了一種思路。但對(duì)于深度學(xué)習(xí)而言,模型的泛化性是一項(xiàng)非常重要的指標(biāo),訓(xùn)練集和測(cè)試集均來(lái)自同一塊數(shù)據(jù)體,雖然測(cè)試效果很好,但模型的泛化性受限。
本文借鑒上述研究成果,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的殘差U型網(wǎng)絡(luò)(RUnet)壓制隨機(jī)噪聲的方法?;舅枷胧窃赨net卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)上加入殘差塊,增加對(duì)卷積層所提取的隨機(jī)噪聲特征的再次學(xué)習(xí),進(jìn)而增強(qiáng)網(wǎng)絡(luò)對(duì)隨機(jī)噪聲的捕獲能力。以含噪地震數(shù)據(jù)作為輸入,預(yù)處理后的地震數(shù)據(jù)作為輸出,即數(shù)據(jù)標(biāo)簽。然后對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,計(jì)算損失函數(shù),并對(duì)其進(jìn)行最優(yōu)化處理。訓(xùn)練完成后,將測(cè)試數(shù)據(jù)輸入到網(wǎng)絡(luò)模型中進(jìn)行測(cè)試,輸出即為去噪之后的結(jié)果。最后通過(guò)實(shí)驗(yàn),驗(yàn)證了本文算法的可行性,并與其它算法進(jìn)行對(duì)比,驗(yàn)證了本文算法的去噪性能。
含隨機(jī)噪聲的地震數(shù)據(jù)可以表示為:
y=x+n
(1)
式中:y表示含隨機(jī)噪聲的地震數(shù)據(jù);x表示地震數(shù)據(jù)中的有效信號(hào);n表示地震數(shù)據(jù)中所含隨機(jī)噪聲。去噪算法的目標(biāo)是盡可能精確地從含噪數(shù)據(jù)中恢復(fù)出有效信號(hào)[17]。深度學(xué)習(xí)地震數(shù)據(jù)去除噪聲的過(guò)程就是通過(guò)對(duì)樣本的學(xué)習(xí),試圖建立起含噪信號(hào)和有效信號(hào)之間的映射關(guān)系,然后通過(guò)建立起來(lái)的映射關(guān)系,將含噪信號(hào)作為輸入,輸出有效信號(hào),完成對(duì)隨機(jī)噪聲的壓制工作。
Unet卷積神經(jīng)網(wǎng)絡(luò)是一種被廣泛應(yīng)用于圖像分割的端到端的學(xué)習(xí)網(wǎng)絡(luò),能夠融合不同尺度的特征,達(dá)到更好的學(xué)習(xí)效果。本文在Unet卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)上,結(jié)合殘差網(wǎng)絡(luò)(ResNet)[18-19]的殘差塊,構(gòu)建一種比Unet卷積神經(jīng)網(wǎng)絡(luò)更深層的網(wǎng)絡(luò)。CNN能夠提取低級(jí)特征、中級(jí)特征和高級(jí)特征,隨著層數(shù)的增加,能夠提取到不同層級(jí)的特征,并且越深的網(wǎng)絡(luò)提取的特征更為抽象,越具有物理意義。但簡(jiǎn)單地增加深度,會(huì)導(dǎo)致梯度彌散或梯度爆炸?;诖?本文提出將Unet卷積神經(jīng)網(wǎng)絡(luò)和ResNet網(wǎng)絡(luò)的特點(diǎn)相結(jié)合的RUnet卷積神經(jīng)網(wǎng)絡(luò),其結(jié)構(gòu)如圖1所示。
圖1 RUnet卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
RUnet卷積神經(jīng)網(wǎng)絡(luò)在整體上包括一個(gè)編碼過(guò)程和一個(gè)解碼過(guò)程。編碼過(guò)程由5組殘差塊構(gòu)成,每組殘差塊由5個(gè)卷積層和1個(gè)池化層構(gòu)成,將[256×256]維的輸入數(shù)據(jù)編碼為[16×16]維特征信息,卷積核大小設(shè)置為3×3,步長(zhǎng)設(shè)置為1。每經(jīng)過(guò)一次殘差塊操作,特征圖的大小壓縮為上一次操作的1/2,相應(yīng)的特征圖的通道數(shù)是上一次殘差塊操作的2倍,保證特征信息不丟失。特征解碼過(guò)程由4組殘差塊組成,每個(gè)殘差塊由1個(gè)反卷積層和5個(gè)卷積層組成,將由編碼過(guò)程生成的[16×16]維特征信息,上采樣到[256×256]維的輸出數(shù)據(jù)。與編碼過(guò)程相對(duì)稱(chēng),每經(jīng)過(guò)一次殘差操作,特征圖的上采樣大小為上一次殘差操作的2倍,特征圖的通道數(shù)變?yōu)樯弦淮螝埐畈僮鞯?/2。與Unet卷積神經(jīng)網(wǎng)絡(luò)類(lèi)似,將編碼部分對(duì)應(yīng)位置的特征圖加入到解碼部分的特征圖中,融合不同尺度的特征信息。最后的輸出由一個(gè)卷積核大小為1×1、步長(zhǎng)為1的卷積層和激活函數(shù)tanh完成,該層的作用類(lèi)似于全連接層。
神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程實(shí)質(zhì)上是損失函數(shù)最小化的過(guò)程。本文算法將均方誤差函數(shù)作為損失函數(shù),其數(shù)學(xué)定義為:
(2)
損失函數(shù)的優(yōu)化采用自適應(yīng)矩估計(jì)(Adam)算法,該算法是隨機(jī)梯度下降算法的擴(kuò)展,與隨機(jī)梯度下降算法不同的是,隨機(jī)梯度下降算法保持單一的學(xué)習(xí)率更新所有參數(shù),并且訓(xùn)練過(guò)程中學(xué)習(xí)率保持不變;而Adam算法通過(guò)計(jì)算梯度的一階矩估計(jì)和二階矩估計(jì)為不同的參數(shù)設(shè)計(jì)獨(dú)立的自適應(yīng)學(xué)習(xí)率,適合解決大規(guī)模數(shù)據(jù)和參數(shù)的優(yōu)化問(wèn)題,超參數(shù)可以直觀(guān)地解釋,并且基本上只需極少量的調(diào)參。
本文采用信噪比和峰值信噪比來(lái)評(píng)價(jià)算法的去噪性能。其數(shù)學(xué)定義如下:
(3)
(4)
式中:SSNR為信噪比;PSNR為峰值信噪比;y為不含噪聲的地震數(shù)據(jù);yn為含隨機(jī)噪聲的地震數(shù)據(jù);N為地震數(shù)據(jù)的采樣點(diǎn)。
1) 在殘差塊之后,增加批規(guī)范化層。批規(guī)范化是深度學(xué)習(xí)中的一種訓(xùn)練技巧,是指在采用梯度下降法訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)(DNN)時(shí),對(duì)網(wǎng)絡(luò)層中每個(gè)批處理(batch)的數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,使其均值變?yōu)?,方差變?yōu)?,其主要作用是緩解DNN訓(xùn)練中的梯度消失或爆炸的現(xiàn)象,加快模型的訓(xùn)練速度,有利于提高模型對(duì)斷層特征的敏感性。數(shù)學(xué)定義為:
(5)
式中:zi為規(guī)范化后的數(shù)據(jù);xi為上一層輸入的數(shù)據(jù);γ,β為重構(gòu)參數(shù);m為batch的大小;ε為保持?jǐn)?shù)值穩(wěn)定而添加到batch方差的常數(shù)。
2) 原始Unet卷積網(wǎng)絡(luò)中采用線(xiàn)性整流(ReLU)激活函數(shù),本文將帶泄露整流函數(shù)(Leaky ReLU)作為激活函數(shù),數(shù)學(xué)定義為:
(6)
式中:fi為激活函數(shù)的輸出;ci為激活函數(shù)的輸入;α為泄露系數(shù),0<α<1。
與ReLU激活函數(shù)相比,Leaky ReLU激活函數(shù)對(duì)于小于0的值具有一定的容忍性,并不會(huì)將負(fù)值設(shè)置為0,使得負(fù)軸的信息不會(huì)全部丟失,如圖2所示。
圖2 激活函數(shù)a ReLU激活函數(shù); b Leaky ReLU激活函數(shù)
本文從Parihaka三維疊后地震數(shù)據(jù)中提取子集作為網(wǎng)絡(luò)訓(xùn)練的訓(xùn)練集。訓(xùn)練集的制作過(guò)程如下:在時(shí)間維度選取256個(gè)采樣點(diǎn),同時(shí)在Crossline測(cè)線(xiàn)上選取256道數(shù)據(jù),構(gòu)成一個(gè)二維數(shù)據(jù)樣本,然后在Inline測(cè)線(xiàn)上選取900道數(shù)據(jù),構(gòu)成900組訓(xùn)練樣本數(shù)據(jù)。設(shè)置迭代次數(shù)(epochs)為1000次,批大小(batch size)為16,為了減小網(wǎng)絡(luò)的過(guò)擬合,采用交叉驗(yàn)證的訓(xùn)練方法,訓(xùn)練集與驗(yàn)證集的比例設(shè)置為7∶3,學(xué)習(xí)率初始化為1×10-4。實(shí)驗(yàn)軟件采用Keras深度學(xué)習(xí)框架,硬件采用GEFORCE RTX2080Ti型GPU進(jìn)行加速計(jì)算,訓(xùn)練時(shí)間為116分鐘。根據(jù)添加高斯噪聲的水平不同,訓(xùn)練了3個(gè)模型,利用訓(xùn)練好的模型對(duì)測(cè)試集進(jìn)行測(cè)試,測(cè)試集來(lái)自同一塊地震數(shù)據(jù)。模型訓(xùn)練過(guò)程如圖3所示。從圖3中可以看出,在迭代1000次之后,峰值信噪比和信噪比趨于收斂狀態(tài)。將測(cè)試結(jié)果分別與小波變換(軟閾值大小為0.5244,小波類(lèi)型為sym5,分解層數(shù)為2)、離散余弦變換和Unet卷積神經(jīng)網(wǎng)絡(luò)算法結(jié)果進(jìn)行比較,其中,添加了噪聲水平為25%的實(shí)驗(yàn)結(jié)果如圖4所示。
由圖4可見(jiàn),小波變換去噪算法在一定程度上壓制了隨機(jī)噪聲,但是有效信號(hào)損失明顯;離散余弦變換算法的隨機(jī)噪聲壓制效果較小波變換更好,但與原始地震數(shù)據(jù)相比,仍有隨機(jī)噪聲殘余,局部存在一定程度的有效信號(hào)損失;Unet卷積神經(jīng)網(wǎng)絡(luò)去噪算法壓制了大部分隨機(jī)噪聲,但仍有殘余;本文提出的RUnet卷積神經(jīng)網(wǎng)絡(luò)算法的去噪結(jié)果與加噪前的數(shù)據(jù)更為接近,基本上壓制了隨機(jī)噪聲,保護(hù)了有效信號(hào)。
表1對(duì)比了4種算法在不同噪聲水平下的去噪性能。加噪之后的地震數(shù)據(jù)經(jīng)過(guò)4種算法對(duì)隨機(jī)噪聲進(jìn)行壓制,峰值信噪比和信噪比都有一定程度的提高。其中本文提出的RUnet卷積神經(jīng)網(wǎng)絡(luò)算法提高的幅度最大,相比于Unet卷積神經(jīng)網(wǎng)絡(luò)提高了0.8~1.0dB;相比于離散余弦變換算法提高了1.4~2.2dB。
圖3 RUnet卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程
圖4 各種算法去噪實(shí)驗(yàn)結(jié)果a 原始地震數(shù)據(jù); b 加噪地震數(shù)據(jù); c 小波變換去噪結(jié)果; d 離散余弦變換去噪結(jié)果; e Unet卷積神經(jīng)網(wǎng)絡(luò)算法去噪結(jié)果; f 本文算法去噪結(jié)果
表1 地震數(shù)據(jù)去噪性能對(duì)比
續(xù)表1
注:PSNR_IN為輸入地震數(shù)據(jù)的峰值信噪比;SNR_IN為輸入地震數(shù)據(jù)的信噪比;PSNR_OUT為輸出地震數(shù)據(jù)的峰值信噪比;SNR_OUT為輸出地震數(shù)據(jù)的信噪比。
本文采用RUnet卷積神經(jīng)網(wǎng)絡(luò)去噪算法分別對(duì)疊后和疊前地震數(shù)據(jù)進(jìn)行隨機(jī)噪聲壓制實(shí)驗(yàn),并與離散余弦變換、三維塊匹配(BM3D)算法和Unet卷積神經(jīng)網(wǎng)絡(luò)算法進(jìn)行對(duì)比。由于疊后地震數(shù)據(jù)與疊前地震數(shù)據(jù)之間的差異性,需要分別進(jìn)行訓(xùn)練。
實(shí)驗(yàn)采用Kerry三維疊后地震數(shù)據(jù)中的部分?jǐn)?shù)據(jù)(數(shù)據(jù)尺寸為256個(gè)采樣點(diǎn)×256道)進(jìn)行測(cè)試。首先采用LIU等[20]提出的估計(jì)噪聲水平的方法估計(jì)該地震數(shù)據(jù)的噪聲水平,輸入到訓(xùn)練好的模型中,輸出測(cè)試結(jié)果;然后將其與離散余弦變換和Unet卷積神經(jīng)網(wǎng)絡(luò)算法進(jìn)行對(duì)比,如圖5所示。
對(duì)比圖5中3種算法的去噪結(jié)果可以發(fā)現(xiàn),3種算法均具有一定的去噪效果。離散余弦變換在去除隨機(jī)噪聲的同時(shí),部分有效信號(hào)遭到破壞;Unet卷積神經(jīng)網(wǎng)絡(luò)算法的去噪結(jié)果中還有隨機(jī)噪聲存在,并且一定程度上破壞了有效信號(hào);而本文提出的RUnet卷積神經(jīng)網(wǎng)絡(luò)算法在對(duì)隨機(jī)噪聲進(jìn)行有效壓制的同時(shí),較其它兩種算法能更好地保護(hù)有效信號(hào)。另外,從去噪效果上看,在與訓(xùn)練集來(lái)自同一塊數(shù)據(jù)體的測(cè)試集中,Unet卷積神經(jīng)網(wǎng)絡(luò)與RUnet卷積神經(jīng)網(wǎng)絡(luò)差別并不大,但是測(cè)試集來(lái)自另一塊數(shù)據(jù)體的測(cè)試中,Unet卷積神經(jīng)網(wǎng)絡(luò)和RUnet卷積神經(jīng)網(wǎng)絡(luò)差別就很大。在訓(xùn)練條件同等的情況下,Unet卷積神經(jīng)網(wǎng)絡(luò)會(huì)出現(xiàn)過(guò)擬合現(xiàn)象,導(dǎo)致泛化性比較差,而RUnet卷積神經(jīng)網(wǎng)絡(luò)的泛化性能更強(qiáng),產(chǎn)生該結(jié)果的原因是RUnet卷積神經(jīng)網(wǎng)絡(luò)具有更深的網(wǎng)絡(luò)結(jié)構(gòu),加入了殘差塊,學(xué)習(xí)到的隨機(jī)噪聲的特征更接近隨機(jī)噪聲的本質(zhì)特征。
圖5 疊后地震數(shù)據(jù)測(cè)試結(jié)果a 原始數(shù)據(jù); b 離散余弦變換去噪結(jié)果; c Unet卷積神經(jīng)網(wǎng)絡(luò)算法去噪結(jié)果; d 本文算法去噪結(jié)果; e 離散余弦變換去除的噪聲; f Unet卷積神經(jīng)網(wǎng)絡(luò)算法去除的噪聲; g 本文算法去除的噪聲
采用部分Mobil海上疊前數(shù)據(jù)集作為訓(xùn)練集,樣本量為256組數(shù)據(jù),數(shù)據(jù)尺寸設(shè)置為256個(gè)采樣點(diǎn)×256道。與疊后地震數(shù)據(jù)訓(xùn)練過(guò)程一致。訓(xùn)練完成后,應(yīng)用部分PGS海上疊前數(shù)據(jù)作為測(cè)試集,測(cè)試數(shù)據(jù)尺寸設(shè)置為256個(gè)采樣點(diǎn)×256道。將測(cè)試結(jié)果與BM3D算法[21]和Unet卷積神經(jīng)網(wǎng)絡(luò)算法進(jìn)行對(duì)比,如圖6所示。
圖6 疊前地震數(shù)據(jù)測(cè)試結(jié)果a 原始含噪數(shù)據(jù); b BM3D算法去噪結(jié)果; c Unet卷積神經(jīng)網(wǎng)絡(luò)算法去噪結(jié)果; d 本文算法去噪結(jié)果; e BM3D算法去除的噪聲; f Unet卷積神經(jīng)網(wǎng)絡(luò)算法去除的噪聲; g 本文算法去除的噪聲
對(duì)比圖6中3種算法的去噪結(jié)果可以發(fā)現(xiàn),BM3D算法和Unet卷積神經(jīng)網(wǎng)絡(luò)算法保留了地震信號(hào)的主體特征,但在去噪的過(guò)程中,損失了地震數(shù)據(jù)的細(xì)節(jié)部分,而本文算法在有效去除噪聲的同時(shí),保留了地震數(shù)據(jù)的細(xì)節(jié)。與疊后地震數(shù)據(jù)去噪實(shí)驗(yàn)相比,由于疊前地震數(shù)據(jù)在形態(tài)分布上相似度較高,而疊后地震數(shù)據(jù)往往會(huì)反映不同的地下地質(zhì)結(jié)構(gòu)(比如在疊后地震數(shù)據(jù)去噪實(shí)驗(yàn)中,本文采用的訓(xùn)練數(shù)據(jù)地質(zhì)結(jié)構(gòu)較為平坦,而測(cè)試數(shù)據(jù)地質(zhì)結(jié)構(gòu)比較雜亂),兩組實(shí)驗(yàn)雖然都在與訓(xùn)練集不同的數(shù)據(jù)集中測(cè)試,但是疊后實(shí)驗(yàn)的兩組數(shù)據(jù)集相似度較低,從縱向上對(duì)比,本文算法對(duì)疊前數(shù)據(jù)去噪的效果比疊后數(shù)據(jù)去噪效果更好。
本文提出的RUnet卷積神經(jīng)網(wǎng)絡(luò)去噪算法能夠有效壓制隨機(jī)噪聲。通過(guò)疊前和疊后數(shù)據(jù)的兩組實(shí)驗(yàn)可以得出以下結(jié)論:
1) 相較于小波變換去噪算法、離散余弦變換去噪算法、BM3D算法和Unet卷積神經(jīng)網(wǎng)絡(luò)去噪算法,本文算法在保護(hù)有效信號(hào)的同時(shí),可以更好地去除地震資料中的隨機(jī)噪聲。
2) 相較于小波變換、離散余弦變換和BM3D算法,RUnet卷積神經(jīng)網(wǎng)絡(luò)去噪性能的優(yōu)勢(shì)得益于卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的特征捕獲能力;對(duì)比Unet卷積神經(jīng)網(wǎng)絡(luò)去噪算法,RUnet卷積神經(jīng)網(wǎng)絡(luò)去噪性能的優(yōu)勢(shì)在于引入了殘差塊,對(duì)上一層所提取的隨機(jī)噪聲進(jìn)行二次消化學(xué)習(xí),盡可能地保留了一次學(xué)習(xí)可能損失的隨機(jī)噪聲特征。上述RUnet卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)結(jié)合Unet卷積神經(jīng)網(wǎng)絡(luò)多尺度融合的特點(diǎn),使得RUnet卷積神經(jīng)網(wǎng)絡(luò)對(duì)地震資料中的隨機(jī)噪聲的特征學(xué)習(xí)更接近噪聲的本質(zhì)特征。RUnet卷積神經(jīng)網(wǎng)絡(luò)的這些特點(diǎn)使得其在與訓(xùn)練集不同的另一塊地震數(shù)據(jù)中具有更好的泛化性。
在對(duì)地震資料進(jìn)行去噪處理時(shí),往往不同類(lèi)型的噪聲使用不同的方法,基于深度學(xué)習(xí)強(qiáng)大的特征提取能力,下一步的研究將針對(duì)地震資料中的所有類(lèi)型噪聲進(jìn)行一次性處理。