• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    互補(bǔ)盲點(diǎn)策略和U型Transformer的地震數(shù)據(jù)去噪

    2025-07-28 00:00:00高磊許軒羅芯閔帆
    關(guān)鍵詞:跡線掩碼卷積

    中圖分類號:TP399 文獻(xiàn)標(biāo)志碼:A 文章編號:1001-3695(2025)07-018-2056-08

    doi: 10.19734/j. issn.1001-3695.2024.12.0516

    Abstract:Randomnoisedenoisingcanefectivelyimprovesthesignal-to-noiseratio(SNR)ofseismicdata.Blindspot-driven unsuperviseddenoising methodsdonotrequirelabeleddataandcanautomaticallextractfeatures,buttheyignore noisecorrelations,leading tosuboptimalperformance.Toaddress thisisse,thispaperproposed thecomplementaryblindspotstrategy andU-shapedTransformerseismicdenoising framework(CBUTS).Firstly,thecomplementaryblind-spotstrategyusedtrace maskingandrandommaskingforcomplementarysamplingtoefectivelyweakenthespatialconnectionsof noise.Secondly,visibleblindspotlossfunction integrateddenoisedresultsfromboth non-blindandblindspots,reducing informationlo.Finall, the Transformer-based U-shaped blindspotnetwork(STU-Net)enhancedthecaptureof globalandlocal features,further weakened thenoisecorrelations,andmore accuratelypredictedvalidsignals.Experimentalresultsshow that,compared to classicalandadvancedsupervisedand unsupervised methods,CBUTSachievesbeterperformance indenoising noiseand preserving thecontinuityofseismicevents.Analysisandcomparisonconfirmtheapplicabilityof the method toseismicdata denoising.

    Keywords:seismic data denoising;unsupervised;blind spot strategy;Transformer

    0引言

    由于勘探環(huán)境和測量設(shè)備等因素的影響,地震數(shù)據(jù)在采集過程中不可避免地會引入隨機(jī)噪聲。受噪聲干擾的地震數(shù)據(jù)信噪比(SNR)較低,影響后續(xù)地震數(shù)據(jù)的處理和解釋。去除噪聲可以提升地震數(shù)據(jù)的質(zhì)量,是地震數(shù)據(jù)處理的一個(gè)重要環(huán)節(jié)。

    目前,去除隨機(jī)噪聲的方法主要有傳統(tǒng)方法和深度學(xué)習(xí)方法兩大類。傳統(tǒng)方法是根據(jù)地震數(shù)據(jù)的特性及各種先驗(yàn)知識設(shè)計(jì)而成的[1,大體可劃分為三個(gè)大類。a)基于預(yù)測的濾波方法,如 f-x 反卷積濾波[2、t-x預(yù)測濾波[3]、非平穩(wěn)預(yù)測濾波[4等。該類方法利用有效信號線性或擬線性生成預(yù)測濾波器來去除噪聲,但是其預(yù)測的結(jié)果受到參數(shù)選擇的影響[2]。

    b)是基于稀疏變換的濾波方法,如傅里葉變換[5、小波變換[、Radon變換[7]等。該類方法能夠利用地震數(shù)據(jù)和噪聲在變換域的差異來去除噪聲,但當(dāng)?shù)卣饠?shù)據(jù)和背景噪聲處于同一頻率范圍時(shí),難以區(qū)分信號和噪聲[8]。c)矩陣降秩的方法,如多通道奇異譜分析、阻尼多通道奇異譜分析1、阻尼降秩方法[1]等。該類方法利用地震數(shù)據(jù)的低秩特性,在降階過程中去除噪聲,去噪效果受限于去噪模型和超參數(shù)的選擇。以上方法受限于參數(shù)選擇、先驗(yàn)知識及其有限的自適應(yīng)能力,限制了它們在去噪領(lǐng)域的應(yīng)用。

    隨著深度學(xué)習(xí)廣泛應(yīng)用于地震領(lǐng)域,基于卷積神經(jīng)網(wǎng)絡(luò)(convolutionalneuralnetwork,CNN)的方法在復(fù)雜地震數(shù)據(jù)的去噪方面相較于傳統(tǒng)方法展現(xiàn)出明顯優(yōu)勢。CNN在訓(xùn)練過程中不斷優(yōu)化模型參數(shù),通過構(gòu)建帶噪數(shù)據(jù)與有效信號之間的多維映射,自動(dòng)提取特征,從而有效分離噪聲和信號。去噪卷積神經(jīng)網(wǎng)絡(luò)(denoisingconvolutional neural network,DnCNN)[12在CNN的基礎(chǔ)上引人殘差學(xué)習(xí),緩解深層網(wǎng)絡(luò)的梯度消失的問題,提高了地震數(shù)據(jù)的去噪效果。 U-Net[13] 結(jié)合編碼-解碼結(jié)構(gòu),通過多層次特征提取,改善地震數(shù)據(jù)的去噪性能。這些方法都是基于有監(jiān)督學(xué)習(xí)模型,需要大量標(biāo)簽數(shù)據(jù),而高質(zhì)量的標(biāo)簽數(shù)據(jù)往往難以獲取[14]

    自監(jiān)督學(xué)習(xí)無須干凈的標(biāo)簽即可訓(xùn)練,被廣泛應(yīng)用于數(shù)據(jù)去噪。其中,noise2noise[14]通過從數(shù)據(jù)本身構(gòu)建標(biāo)簽,取得了與監(jiān)督學(xué)習(xí)去噪相當(dāng)?shù)男阅??;趎oise2noise,開發(fā)了許多基于盲點(diǎn)策略去噪方法[15\~17],通過動(dòng)態(tài)掩蔽和重建機(jī)制靈活去除噪聲。但這些方法在掩蓋數(shù)據(jù)時(shí)忽略了被遮蔽區(qū)域的結(jié)構(gòu)信息,降低了去噪性能。blind2unblind[18]預(yù)設(shè)固定盲點(diǎn)并結(jié)合可見盲點(diǎn)損失函數(shù)降低了信息損失,但其固定掩碼方式缺乏靈活性。為了適應(yīng)復(fù)雜的地震數(shù)據(jù),可見盲點(diǎn)地震數(shù)據(jù)去噪框架(complementary mask unsupervised learning framework based onvisibleblind spot,CMVB)[19]在其基礎(chǔ)上提出了隨機(jī)互補(bǔ)掩碼策略,通過掩碼的隨機(jī)性,靈活學(xué)習(xí)復(fù)雜地震數(shù)據(jù)中的細(xì)節(jié)特征,提升了去噪效果。然而,以上方法假設(shè)噪聲獨(dú)立且隨機(jī)分布,忽略地震數(shù)據(jù)中噪聲空間相關(guān)性;且均采用基于CNN的網(wǎng)絡(luò)提取盲點(diǎn)信息,網(wǎng)絡(luò)受限于局部感受野難以捕捉數(shù)據(jù)中的長距離依賴關(guān)系[20]。這些局限性限制了模型的去噪能力。

    為此,本文提出了一種結(jié)合互補(bǔ)盲點(diǎn)策略與U型Trans-former的地震數(shù)據(jù)去噪框架(unsuperviseddenoisingframeworkbasedonhybridmaskblindspotstrategy,CBUTS),以提升地震數(shù)據(jù)去噪能力。首先,考慮到不同掩碼方式對數(shù)據(jù)不同位置進(jìn)行掩碼,能夠打破噪聲不同方向相關(guān)性[21]。因此,本文依據(jù)地震數(shù)據(jù)的特點(diǎn),提出一種互補(bǔ)盲點(diǎn)策略,結(jié)合隨機(jī)掩碼和跡線掩碼生成多樣化的訓(xùn)練樣本,避免噪聲在空間上聚集。其中,隨機(jī)掩碼通過引入隨機(jī)性,引導(dǎo)模型關(guān)注信號細(xì)節(jié)特征;跡線掩碼模擬地震數(shù)據(jù)跡線缺失,引導(dǎo)模型利用跡線間的相似性恢復(fù)地震信號。其次,Transformer無須假設(shè)噪聲分布,其全局感受野能夠捕捉全局特征[22],更適合從具有長程依賴關(guān)系的地震數(shù)據(jù)中提取盲點(diǎn)信息。因此,本文提出了一種基于Transformer的U型分層結(jié)構(gòu)的去噪網(wǎng)絡(luò)(Transformer-basedU-shapedseis-micdenoisingnetwork,STU-Net),其將局部擴(kuò)張窗口多頭自注意力塊(local dilated windowed multi-head self-attention block,LDWTB)融入編碼器和解碼器中。該塊有效增加了網(wǎng)絡(luò)感受野,并結(jié)合擴(kuò)張卷積的優(yōu)勢,增強(qiáng)了對地震數(shù)據(jù)全局和局部特征捕獲能力。

    本文貢獻(xiàn)如下:

    a)提出一種數(shù)據(jù)采樣與重組方法。該方法針對地震數(shù)據(jù)的特點(diǎn),設(shè)計(jì)跡線掩碼和隨機(jī)掩碼進(jìn)行互補(bǔ)采樣,以削弱噪聲相關(guān)性。同時(shí),通過提取預(yù)測的盲點(diǎn)結(jié)果,重建地震信號。

    b)引入可見盲點(diǎn)損失函數(shù),將盲點(diǎn)數(shù)據(jù)與非盲點(diǎn)數(shù)據(jù)相結(jié)合,以有效降低盲點(diǎn)策略造成的信息損失。

    c)提出STU-Net,其核心模塊LDWTB由窗口多頭自注意力(windowedmulti-headself-attention,W-MSA)和局部增強(qiáng)擴(kuò)張前饋網(wǎng)絡(luò)(localenhanceddilatedfeedforwardnetwork,LEDFF)組成。W-MSA通過劃分窗口捕捉信號的長程依賴提取全局特征并降低了傳統(tǒng)Transformer的計(jì)算復(fù)雜度;LEDFF通過改進(jìn)傳統(tǒng)Transformer塊中前饋神經(jīng)網(wǎng)絡(luò)(feedforward-neural-network,F(xiàn)FN)的線性結(jié)構(gòu)并引入擴(kuò)張深度卷積(dilateddepth-wisecon-volution,DDWC),提升了網(wǎng)絡(luò)局部特征感知能力。

    1方法

    圖1展示了CBUTS框架的實(shí)現(xiàn)流程。首先,在數(shù)據(jù)采樣階段,對地震數(shù)據(jù)互補(bǔ)采樣,生成多樣化的訓(xùn)練數(shù)據(jù);接著,通過去噪網(wǎng)絡(luò)STU-Net生成預(yù)測結(jié)果,提取關(guān)鍵信息重組得到盲點(diǎn)結(jié)果;最后,利用可見盲點(diǎn)損失函數(shù)整合盲點(diǎn)和非盲預(yù)測結(jié)果,優(yōu)化訓(xùn)練過程并引導(dǎo)網(wǎng)絡(luò)參數(shù)更新。經(jīng)過CBUTS訓(xùn)練后,地震數(shù)據(jù)使用推斷得到的STU-Net生成去噪結(jié)果。本章將具體介紹CBUTS三個(gè)重要部分:數(shù)據(jù)采樣與重組、可見盲點(diǎn)損失函數(shù)和STU-Net。

    圖1 CBUTS框架結(jié)構(gòu)Fig.1Structure of the CBUTS framework

    1.1 數(shù)據(jù)采樣與重組

    盲點(diǎn)驅(qū)動(dòng)的去噪方法假設(shè)噪聲獨(dú)立且隨機(jī)分布,而實(shí)際地震數(shù)據(jù)中的噪聲具有空間相關(guān)性。為削弱其相關(guān)性,CBUTS提出一種互補(bǔ)盲點(diǎn)策略進(jìn)行采樣,分為數(shù)據(jù)采樣與重組兩個(gè)部分。

    在數(shù)據(jù)采樣部分,設(shè)計(jì)了一種互補(bǔ)掩碼策略對地震數(shù)據(jù)預(yù)處理,其由跡線掩碼和隨機(jī)掩碼組成。首先,采用跡線掩碼隨機(jī)掩蓋單個(gè)訓(xùn)練樣本 25% 的跡線。接著,對于剩余部分,采用兩種隨機(jī)掩碼的組合進(jìn)行掩蓋。隨機(jī)掩碼的掩蓋區(qū)域與跡線掩碼掩蓋的區(qū)域互補(bǔ),保證了掩蓋后的區(qū)域與訓(xùn)練樣本的尺寸一致?;パa(bǔ)掩碼能夠?qū)⒃肼暦植荚诓煌臉颖局g,避免噪聲在空間上聚集,減弱噪聲之間的空間聯(lián)系[21]。此外,跡線掩碼能夠幫助模型利用地震道之間的時(shí)空相似性進(jìn)行信號恢復(fù);隨機(jī)掩碼通過增加噪聲的不確定性,提升模型在復(fù)雜噪聲環(huán)境下的魯棒性。

    在數(shù)據(jù)重組部分,從不同掩碼方法的預(yù)測結(jié)果中提取與掩碼位置相關(guān)的信息。并將這些信息合并,最終得到去噪后的結(jié)果。圖2描述了數(shù)據(jù)采樣與重組的工作流程,原始地震數(shù)據(jù)用y∈RT×S 表示,其中 T 地震道數(shù),S表示樣點(diǎn)數(shù)。

    數(shù)據(jù)采樣的詳細(xì)步驟如下:

    a)創(chuàng)建一個(gè)全0采樣矩陣 ,將 劃分個(gè)數(shù)為 T/ 2?×?S/2? 不重疊的 2×2 單元。在每個(gè)單元中,隨機(jī)將一半的元素置為1,另外一半元素保持為 0 。得到處理后的采樣矩陣 。在 中,0表示掩碼處理,1則不進(jìn)行掩碼處理。

    b)創(chuàng)建一個(gè)全1矩陣 I∈RT×S ,則 的補(bǔ)充采樣矩陣為

    c)將矩陣 I 中一定比例的元素列置為0得到采樣矩陣 和 I 得到采樣矩陣 I ) 。通過對 y 采樣得到 ,其中, ? 表示元素點(diǎn)積 ,y=y(1)+y(2)+y(3) 。跡線掩碼比例對去噪效果的影響將在2.3節(jié)討論。經(jīng)過數(shù)據(jù)采樣得到 (y(1),y(2),y(3) )。通過去噪器得到去噪結(jié)果 。

    數(shù)據(jù)重組的詳細(xì)步驟如下:

    a)在去噪結(jié)果 (fθ(y(1)),fθ(y(2)),fθ(y(3)) )中提取對應(yīng)的盲點(diǎn)結(jié)果 。具體來說 ,其中, 與采樣中的矩陣一致。

    b)合并 ,形成完整的盲點(diǎn)結(jié)果 。

    圖2數(shù)據(jù)采樣與重組流程Fig.2Process of data sampling and reconstruction

    1.2基于可見盲點(diǎn)的損失函數(shù)

    盲點(diǎn)策略通過掩碼操作在輸入數(shù)據(jù)中創(chuàng)建缺失區(qū)域,促使網(wǎng)絡(luò)在缺失信息的情況下進(jìn)行重建。而盲點(diǎn)區(qū)域往往包含潛在的結(jié)構(gòu)信息,忽視這些信息可能限制全局信息的有效利用,從而影響信號的準(zhǔn)確恢復(fù)。

    為了降低由盲點(diǎn)采樣帶來的信息缺失,引入可見盲點(diǎn)損失函數(shù)[18],其將非盲點(diǎn)去噪結(jié)果 和盲點(diǎn)去噪結(jié)果 , )融合。其優(yōu)化目標(biāo)為

    (1)其中: λ 為可調(diào)超參數(shù),初值為1,終值為 20 。在訓(xùn)練過程中 λ 的增大會逐步引人更多的可見信息。較小的 λ 值使模型主要依賴盲點(diǎn)去噪結(jié)果恢復(fù)信號;隨著 λ 增大,非盲點(diǎn)區(qū)域的權(quán)重增加,網(wǎng)絡(luò)開始結(jié)合更多可見信息進(jìn)行信號恢復(fù),從而提升模型對數(shù)據(jù)分布的學(xué)習(xí)能力。同時(shí) 作為參考結(jié)果,不進(jìn)行梯度更新,確保網(wǎng)絡(luò)專注于盲點(diǎn)信息的恢復(fù),避免非盲點(diǎn)區(qū)域干擾訓(xùn)練過程,以提升模型的泛化能力。

    考慮到在盲點(diǎn)向非盲點(diǎn)轉(zhuǎn)化的過程中,可能出現(xiàn)的不穩(wěn)定的梯度變化,引入 L2 損失函數(shù)為

    L2 能夠減少訓(xùn)練的梯度波動(dòng),提高訓(xùn)練穩(wěn)定性。最終損失函數(shù):

    (3)其中 σ:μ 為固定超參數(shù)。

    1.3 網(wǎng)絡(luò)結(jié)構(gòu)

    1.3.1 STU-Net

    如圖3(a)所示,STU-Net為一種U型去噪網(wǎng)絡(luò),其中編碼器和解碼器之間設(shè)有跳躍連接。具體來說,給定輸入數(shù)據(jù) I∈ (204號 R1×H×W ,其中1表示通道數(shù), H×W 表示地震數(shù)據(jù)空間維度。STU-Net首先通過一個(gè) 3×3 卷積核和一個(gè)LeakyReLU層提取淺層特征,輸出尺寸為 R32×H×W 。接著,經(jīng)過四個(gè)編碼器,得到尺寸為 的低分辨率特征,每個(gè)編碼器包含一個(gè) LD-WTB和一個(gè)下采樣層。每個(gè)下采樣層由一個(gè) 4×4 卷積核組成,降低空間維度并將通道數(shù)加倍,以便有效提取更深層次的特征。隨后,低分辨率特征通過一個(gè)LDWTB進(jìn)行處理,此時(shí)窗口大小接近特征空間維度,LDWTB能夠捕獲全局的依賴關(guān)系。接下來,通過四個(gè)解碼器得到尺寸為 R64×H×W 的特征,每個(gè)解碼器由一個(gè)上采樣層和一個(gè)LDWTB組成。每個(gè)上采樣層采用 4×4 轉(zhuǎn)置卷積,逐層將通道數(shù)減半并逐步恢復(fù)數(shù)據(jù)到原始采樣率。此外,跳躍連接能夠結(jié)合低層次的特征信息,有利于深層網(wǎng)絡(luò)學(xué)習(xí)更豐富的特征表示,并緩解梯度消失的問題。最后,通過 3×3 的深度卷積核進(jìn)一步處理細(xì)化特征,得到最終去噪結(jié)果,尺寸為R1×H×W

    1.3.2 LDWTB

    基于CNN的去噪網(wǎng)絡(luò)通常受限于局部感受野,難以捕捉數(shù)據(jù)長距離依賴,當(dāng)具有局部相關(guān)性的噪聲淹沒微弱信號時(shí),網(wǎng)絡(luò)難以準(zhǔn)確識別噪聲和信號。Transformer通過捕獲信號的全局相似性,有效打破噪聲空間相關(guān)性,進(jìn)而識別并恢復(fù)微弱信號。然而,標(biāo)準(zhǔn)Transformer的全局計(jì)算方式存在兩個(gè)缺點(diǎn):a)處理高分辨率地震數(shù)據(jù)時(shí),計(jì)算復(fù)雜度顯著增加[23;b)全局信息建模忽略對局部細(xì)節(jié)信息的捕捉[24]。為了緩解這些問題,如圖3(a)所示,提出了局部擴(kuò)張窗口多頭自注意力塊(LDWTB),能夠同時(shí)捕獲全局和局部特征,提升盲點(diǎn)信息的恢復(fù)能力。LDWTB由W-MSA和LEDFF組成,對于輸入特征 x 計(jì)算方式如下:

    (4)其中: x,x′′ 分別代表為W-MSA、LDWTB輸出特征。其使用殘差連接避免梯度消失并有效保留輸入特征。LN為層歸一化,有效提升網(wǎng)絡(luò)的穩(wěn)定性。

    過度強(qiáng)調(diào)全局信息可能模糊細(xì)節(jié)紋理與局部噪聲的邊界,導(dǎo)致去噪結(jié)果中產(chǎn)生虛假的相位信息。W-MSA[24]通過局部窗口計(jì)算自注意力,具有兩個(gè)優(yōu)點(diǎn):a)能夠在局部范圍內(nèi)捕捉全局特征,精確建模全局信息并細(xì)致捕捉局部細(xì)節(jié),從而更好地平衡信號恢復(fù)與噪聲抑制,提升去噪效果;b)局部化的多頭自注意力計(jì)算有效降低了計(jì)算復(fù)雜度,在處理高維數(shù)據(jù)時(shí)提高了效率。

    W-MSA計(jì)算過程如圖3(b)所示。首先,將輸入特征 x∈ (204號 RC×H×W 分割為 n 個(gè)大小為 p2 的窗口,其中 n=H×W/p2 。然后,通過層歸一化將每個(gè)窗口數(shù)據(jù)轉(zhuǎn)換為一維特征向量,重新表示為 x={x1,x2,x3,…,xn} ,其中 xi∈Rp2×c 。接著, xi 通過線性映射轉(zhuǎn)換為query 、value (V) :它們的維度分別為 Qi∈Rp2×c,Ki∈Rp2×c,Vi∈Rp2×c

    其中 代表第 h 個(gè)頭可學(xué)習(xí)的映射矩陣;dh=C/h 是第 h 個(gè)頭處理的特征維度。然后,通過并行計(jì)算 h 個(gè)頭的自注意力,第 h 個(gè)頭的輸出計(jì)算公式為

    其中: B 是位置編碼; Qih(KihT 為 Qih 和 Kih 通過計(jì)算點(diǎn)積得到相似度,相似度越高,權(quán)重越大; Vih 為輸入數(shù)據(jù)特征表示。為了避免生成不合理的權(quán)重,通過除以 穩(wěn)定相似度的梯度變換,從而避免生成不合理的權(quán)重;通過softmax函數(shù)非線性運(yùn)算和歸一化處理,使得模型強(qiáng)化有效信息并抑制不相關(guān)信息。最終與 Vih 加權(quán)求和得到第 h 個(gè)頭的輸出 oih 。所有頭輸出通過拼接操作(concat)得到多頭自注意力機(jī)制的輸出 oi=concat (oi1,…,oih)Wi,Wi 用于將多頭輸出映射到新的空間, n 個(gè)窗口的輸入通過計(jì)算得到最終的輸出 o={o1,o2,o3…,on} 。將其重構(gòu)就可得到o∈RC×H×W

    在傳統(tǒng)的全局自注意力機(jī)制中,輸入的每個(gè)位置都會與其他所有位置進(jìn)行交互,計(jì)算復(fù)雜度為 O((HW)2 )。W-MSA將輸入劃分為 n 個(gè)大小為 p2 的窗口進(jìn)行計(jì)算,窗口內(nèi)計(jì)算復(fù)雜度為 O(p2×p2) 。W-MSA的整體計(jì)算復(fù)雜度為 O((HW/p2)× p4)=O(HW×p2) 。因此,處理高分辨率地震數(shù)據(jù)時(shí)通過窗口化注意力機(jī)制可以提升計(jì)算效率。

    圖3STU-Net的網(wǎng)絡(luò)結(jié)構(gòu)Fig.3Network structureof STU-Net

    Transformer中的FFN對W-MSA進(jìn)行特征提取,通過逐點(diǎn)線性變換處理每個(gè)輸入特征。然而,單一的線性變換缺乏上下文信息交互,而這些信息對恢復(fù)高分辨率信號至關(guān)重要。因此,提出LEDFF,通過增強(qiáng)局部特征提取和擴(kuò)展感受野,促進(jìn)更多相鄰數(shù)據(jù)的交互,具體表示為

    其中: x∈RC×H×W ;BN批量歸一化;GELU為激活函數(shù);conv 為1×1 卷積核;DDConv代表 3×3 擴(kuò)張深度卷積核。

    如圖3(c)所示,LEDFF通過引入擴(kuò)張卷積以提高特征提取能力。輸入 x ,首先采用 1×1 卷積提取淺層信息。然后,使用 3×3 擴(kuò)張深度卷積核捕捉廣泛的局部細(xì)節(jié)特征,擴(kuò)張卷積的計(jì)算公式如下:

    s=d×(k-1)+1

    其中: k 為卷積核大小; s 為 k 的等效感受野; d 為擴(kuò)張因子。與傳統(tǒng)深度卷積相比,擴(kuò)張深度卷積在保持計(jì)算效率的同時(shí),擴(kuò)大了局部感受野,從而提升了網(wǎng)絡(luò)對局部特征的敏感性,最后,1×1 卷積對特征進(jìn)行細(xì)化,得到輸出 。

    在前向傳播過程中,網(wǎng)絡(luò)通過BN對每個(gè)卷積層的線性輸出進(jìn)行歸一化,穩(wěn)定訓(xùn)練并加速收斂,接著應(yīng)用GeLU進(jìn)行非線性激活,增強(qiáng)網(wǎng)絡(luò)的非線性表達(dá)能力,進(jìn)一步提升復(fù)雜特征的捕捉能力。

    2實(shí)驗(yàn)

    本章首先介紹訓(xùn)練數(shù)據(jù)集,并解釋其在網(wǎng)絡(luò)訓(xùn)練中的整合方式。接著,簡要說明本實(shí)驗(yàn)中使用的評價(jià)指標(biāo)。隨后,通過消融實(shí)驗(yàn)分析了CBUTS對去噪性能的影響。最后,評估了CBUTS的有效性,不僅與 f-x 反卷積[2]和 DRR[11] 等傳統(tǒng)方法進(jìn)行了對比,還與noisy2noisy[17]、 CMVB[12] 等無監(jiān)督方法以及DnCNN[13]、U-Net[14]等監(jiān)督學(xué)習(xí)方法進(jìn)行比較。

    2.1 數(shù)據(jù)集與訓(xùn)練細(xì)節(jié)

    本文使用來自開源平臺(https://wiki.seg.org)的合成與野外地震數(shù)據(jù)。為提高數(shù)據(jù)集質(zhì)量,訓(xùn)練集以合成數(shù)據(jù)為主,并加入一定比例的真實(shí)數(shù)據(jù),以增強(qiáng)模型泛化能力。由于地震數(shù)據(jù)規(guī)模龐大,將數(shù)據(jù)集劃分為符合網(wǎng)絡(luò)輸入要求的訓(xùn)練樣本。表1詳細(xì)列出了合成訓(xùn)練數(shù)據(jù)集的信息,包括數(shù)據(jù)名稱、樣本數(shù)量、地震道數(shù)、采樣點(diǎn)和采樣間隔等。表2展示了測試數(shù)據(jù)集的詳細(xì)情況。

    表1合成地震數(shù)據(jù)訓(xùn)練集Tab.1Synthetic seismic data training set
    表2地震數(shù)據(jù)測試集"

    實(shí)驗(yàn)在PyTorch環(huán)境下進(jìn)行,使用了配備36GB內(nèi)存的NVIDIAGeForceRTX4090GPU平臺。網(wǎng)絡(luò)的訓(xùn)練參數(shù)如表3所示,其中數(shù)據(jù)切片大小為 128×128 ,批量大小為16,迭代次數(shù)為100,學(xué)習(xí)率在訓(xùn)練過程中從 10-3 變化到 10-4 ,并采用Adam優(yōu)化器。超參數(shù) η 設(shè)置為 1,λ 設(shè)置為20,達(dá)到了較好的去噪效果。

    表3網(wǎng)絡(luò)訓(xùn)練參數(shù)Tab.3Network training parameters

    2.2 評價(jià)標(biāo)準(zhǔn)

    為了定量評估不同方法在合成數(shù)據(jù)上的去噪性能。本實(shí)驗(yàn)選擇信噪比(SNR)和結(jié)構(gòu)相似度(SSIM)作為評價(jià)指標(biāo)。信

    噪比表示為

    結(jié)構(gòu)相似度表示為

    其中: d 為干凈地震數(shù)據(jù); d* 為去噪后地震數(shù)據(jù) ;μd 和 μd* 分別為 d 和 d* 的平均; σd 和 σd* 為 d 和 d* 的方差; σdd* 為 d 和 d* 的協(xié)方差; C1=(Lk12 和 C2=(Lk22 表示穩(wěn)定性常數(shù) L 為地震數(shù)據(jù)取值區(qū)間 ;k2,k1 分別為0.01和 0.03 。

    此外,通過局部相似性圖評估去噪效果,信號泄露越多,圖中顏色越紅。比較野外數(shù)據(jù)的去噪性能時(shí),采用f-k頻譜分析識別信號的頻率成分,更好評估去噪效果。

    2.3 消融實(shí)驗(yàn)

    為了驗(yàn)證互補(bǔ)掩碼的比例、去噪網(wǎng)絡(luò)、LEDFF對去噪效果的影響,在測試數(shù)據(jù)集上進(jìn)行了消融實(shí)驗(yàn),并使用SNR和SSIM進(jìn)行評估。

    當(dāng)跡線掩碼比例過大時(shí),波形中結(jié)構(gòu)特征明顯的部分可能被過度掩蓋,從而導(dǎo)致預(yù)測結(jié)果不準(zhǔn)確。因此選擇跡線掩碼比例為 10%~50% 進(jìn)行消融實(shí)驗(yàn),隨機(jī)掩碼根據(jù)跡線掩碼比例互補(bǔ)性自動(dòng)調(diào)整。表4展示了在測試數(shù)據(jù)集上的去噪性能。當(dāng)跡線掩碼比例為 25% 左右時(shí),SNR和SSIM都達(dá)到較佳的表現(xiàn)。這表明,在互補(bǔ)盲點(diǎn)策略中,通過跡線掩碼與隨機(jī)掩碼的互補(bǔ)采樣有效削弱了噪聲的空間聚集性,從而實(shí)現(xiàn)更優(yōu)的去噪效果。

    表4不同的掩碼比例對去噪性能的影響Tab.4Influence of different denoising methods at different maskingratic

    去噪網(wǎng)絡(luò)對去噪性能的影響:為評估STU-Net對去噪性能的提升,本文基于CNN的U-Net、SCU-Net,和基于Transformer的STU-Net進(jìn)行對比實(shí)驗(yàn)。圖4展示了CBUTS框架使用不同的網(wǎng)絡(luò)的效果,使用STU-Net時(shí),SNR和SSIM均優(yōu)于U-Net和SCU- ??Net 。驗(yàn)證了STU-Net能夠利用局部信息和全局特征有效提取盲點(diǎn)信息,從而顯著提升去噪性能。

    圖4不同的去噪網(wǎng)絡(luò)對去噪性能的影響Fig.4Denoising performance comparison on different denoising networks

    LEDFF對去噪性能的影響:為評估LDWTB中引入擴(kuò)張卷積對去噪性能的提升,本文通過對比LEDFF和FNN進(jìn)行對比實(shí)驗(yàn)。圖5展示了在測試數(shù)據(jù)集上的去噪性能,使用LEDFF的去噪效果在SNR和SSIM指標(biāo)上均優(yōu)于FFN。進(jìn)一步說明LEDFF通過引入擴(kuò)張卷積,增強(qiáng)了相鄰信息的交互并改善了去噪性能。

    圖5不同的前饋神經(jīng)網(wǎng)絡(luò)對去噪性能的影響Fig.5Denoising performance comparison on different feedforward neural network

    2.4合成數(shù)據(jù)的去噪結(jié)果

    首先,根據(jù)Marmousi2模型合成的地震數(shù)據(jù)進(jìn)行實(shí)驗(yàn),并采用滑動(dòng)窗口分割的切片數(shù)據(jù)來測試訓(xùn)練效果。圖6(a)展示了所選Marmousi2數(shù)據(jù)的測試樣本。圖6(b)顯示了在原始數(shù)據(jù)中加入高斯噪聲后,生成信噪比為5dB的噪聲數(shù)據(jù)。

    圖6Marmousi2的合成數(shù)據(jù)實(shí)例Fig.6Synthetic data forMarmousi2圖7比較不同方法的去噪結(jié)果、殘差剖面和結(jié)構(gòu)相似圖

    圖7(a)\~(d)分別展示了不同方法在合成數(shù)據(jù)上的去噪效果。通過紅色標(biāo)注區(qū)域可以發(fā)現(xiàn),在圖7(a)中,DRR去噪的結(jié)果在微弱的信號被隨機(jī)噪聲淹沒時(shí),提取有效的地震信號變得困難,導(dǎo)致細(xì)節(jié)信息無法準(zhǔn)確恢復(fù)。圖7(e)中為DRR去噪之后的殘差圖,整體而言,雖然大部分噪聲被去除,但局部較強(qiáng)的信號出現(xiàn)存在丟失。圖7(b)使用noisy2noisy進(jìn)行去噪,可以明顯觀察到提取的有效信號較弱且不連續(xù)。圖7(f)中殘差圖表明,噪聲未被有效去除,導(dǎo)致有效信號連續(xù)性較差。圖7(c)展示CMVB的去噪效果,結(jié)果清晰,但邊緣信息未有效恢復(fù)。圖7(g)為CMVB的殘差圖,可以發(fā)現(xiàn),有少量有效信號殘余。圖7(d)展示了CBUTS去噪效果,紅色箭頭所指部分保留了原有的紋理信息,同時(shí)去除了隨機(jī)噪聲(見電子版)。

    圖7(i)\~(1)展示了DRR、noisy2noisy、CMVB、CBUTS的局部相似圖。圖7(i)和(k)區(qū)域大都顯示為綠色,說明大部分有效信號較好地保留,但少部分區(qū)域仍存在能量泄露。根據(jù)圖7(j)中noisy2noisy的局部相似圖的結(jié)果,較多區(qū)域顯示為紅色,表明在有效信號和去除的噪聲相似度較高,存在明顯的能量泄露。

    圖7(k)存在少量區(qū)域?yàn)榧t色,說明有效信號較好地保留。圖7(1)為CBUTS局部相似圖,顯示該方法能量泄露更低,表明信號保留更完整。

    本文選擇采用DnCNN、U-Net經(jīng)典的有監(jiān)督方法進(jìn)一步評估,以更好地對比去噪性能。為了比較這些方法在不同噪聲水平下的去噪結(jié)果,將不同等級高斯噪聲添加到合成數(shù)據(jù)集中。將去噪結(jié)果的SNR和SSIM作為評價(jià)依據(jù)。表5、6展示在不同噪聲水平下的去噪結(jié)果。CBUTS去噪結(jié)果中的SNR和SSIM高于其他方法。

    表6不同噪聲水平下不同去噪方法的結(jié)構(gòu)相似性
    表5不同噪聲水平下不同去噪方法的信噪比"

    2.5野外數(shù)據(jù)的去噪結(jié)果

    為了驗(yàn)證CBUTS實(shí)際應(yīng)用效果,本次實(shí)驗(yàn)采用野外示例來自四川的疊前數(shù)據(jù)。該數(shù)據(jù)共收集了30個(gè)炮點(diǎn)。圖8(a)顯示的是其中一個(gè)單炮信息,由384個(gè)地震道組成,每道有1536個(gè)采樣點(diǎn),采樣間隔為 1mm 。通過觀察,野外數(shù)據(jù)受到各種復(fù)雜因素干擾,包含隨機(jī)噪聲和背景噪聲。這使得野外數(shù)據(jù)可解釋性較差。如圖8(b)所示, f-x 反卷積的整體噪聲抑制效果并不明顯。紅色邊框1中地震信號保留較弱,紅色箭頭所指區(qū)域紋理不清晰。圖8(c)顯示了DRR的結(jié)果。DRR成功去除大量背景噪聲,但同時(shí)存在部分有效信號跟隨背景噪聲一同去除。圖8(d)顯示了noisy2noisy的去噪結(jié)果,邊界框1中的一些殘留噪聲影響了事件紋理的平滑度,且箭頭所示區(qū)域有效信號連續(xù)性較差。圖8(e)顯示了CMVB的去噪效果。整體來看去噪效果清晰,但存在局部細(xì)節(jié)未被有效恢復(fù),邊框1中區(qū)域證實(shí)了這個(gè)結(jié)論。圖8(f為CBUTS的去噪效果圖。在邊框1展示CBUTS抑制隨機(jī)噪聲的同時(shí),同相軸更為連續(xù)。紅色箭頭所指方向也體現(xiàn)出地震信號的細(xì)節(jié)保留能力更好。

    圖9(a)\~(e)分別顯示了圖8中邊框2放大部分的不同去噪結(jié)果。圖9(f)~(j)分別顯示了不同結(jié)果去噪后的殘差。

    f-x反卷積的去噪結(jié)果中,去噪效果較差,地震信號不連續(xù)。DRR去噪效果較為清晰,但從其殘差中發(fā)現(xiàn),過多的微弱地震信號未被有效保留。noisy2noisy去噪效果中紋理保存較為完整,但其殘差中發(fā)現(xiàn)細(xì)節(jié)信息丟失。CMVB能夠保留能量較強(qiáng)的地震信號,但殘差中少量微弱地震信號無法保留。相比之下,CBUTS表現(xiàn)優(yōu)異,在有效抑制隨機(jī)噪聲的同時(shí),能夠清晰地保留有效信號的細(xì)節(jié)。

    局部相似性,如圖10所示,用于計(jì)算去噪數(shù)據(jù)與殘留數(shù)據(jù)之間的相似性。圖10(a)\~(c)表明, f-x 反卷積、DRR和noisy-2noisy方法都存在較高的能量泄漏。表明這些方法在保留有效信號方面效果不佳。圖10(d)顯示CMVB抑制能量泄漏方面表現(xiàn)較好。在圖10(e)中,相比于其他方法,CBUTS能夠有效降低能量泄露,在去除隨機(jī)噪聲的同時(shí),更好地保持同相軸的連續(xù)性。

    圖11野外數(shù)據(jù)f-k譜去噪前后對比Fig.11Beforeandafterdenoising f-k spectra of fielddata

    圖11(a)表示去噪之前的f-k頻譜圖,圖11(b)\~(f)分別 噪結(jié)果的 f-x 頻譜圖。相比之下,CBUTS展示了該方法對去陌表示使用 f-x 反卷積、DRR、noisy2noisy、CMVB、CBUTS方法去 低頻和高頻的噪聲都取得了不錯(cuò)的效果。

    3結(jié)束語

    本文提出了一種互補(bǔ)盲點(diǎn)和U型Transformer的地震數(shù)據(jù)去噪框架(CBUTS)。首先,提出一種互補(bǔ)掩碼盲點(diǎn)策略,其通過結(jié)合跡線掩碼和隨機(jī)互補(bǔ)掩碼對訓(xùn)練樣本采樣,能夠有效削弱噪聲相關(guān)性,并引導(dǎo)模型關(guān)注不同的數(shù)據(jù)特性。其次,引入可見盲點(diǎn)損失函數(shù)有效降低了信息損失。最后,提出一種基于Transformer的U型盲點(diǎn)網(wǎng)絡(luò)STU-Net進(jìn)一步削弱噪聲相關(guān)性,LDWTB是網(wǎng)絡(luò)的核心模塊,每個(gè)塊包含窗口多頭自注意力(W-MSA)和局部增強(qiáng)擴(kuò)張前饋網(wǎng)絡(luò)(LEDFF)。其中,W-MSA通過對地震數(shù)據(jù)全局特征分析預(yù)測盲點(diǎn)信息;LEDFF對FFN改進(jìn)并引入擴(kuò)張卷積增強(qiáng)其地震細(xì)節(jié)信息的提取能力。實(shí)驗(yàn)證明,CBUTS與經(jīng)典以及先進(jìn)的有監(jiān)督和無監(jiān)督方法進(jìn)行比較,有效地去除隨機(jī)噪聲并保留有效信號。在未來的研究中,將考慮相干噪聲去除,以進(jìn)一步提升去噪框架的泛化能力。

    參考文獻(xiàn):

    [1]薛亞茹,蘇軍利,馮璐瑜,等.三維地震數(shù)據(jù)頻域無監(jiān)督隨機(jī)噪 聲壓制方法[J].石油地球物理勘探,2023,58(6):1322-1331. (XueYaru,SuJunli,F(xiàn)engLuyu,etal.Anunsupervised random noisesuppression method in frequency domain for 3D seismic data [J].Oil Geophysical Prospecting,2023,58(6):1322-1331.)

    [2]Naghizadeh M,Sacchi M.Multicomponent f-x seismic random noise attenuation via vector autoregressive operators[J].Geophysics, 2012,77(2):91-99.

    [3]AbmaR,Claerbout J.Lateral prediction for noise attenuation by t-x and f- X techniques[J].Geophysics,1995,60(6):1887-1896.

    [4]Liu Guochang,Chen Xiaohong. Noncausal f-x-y regularized nonstationaryprediction filtering for random noise attenuationon 3D seismic data[J].JournalofAppliedGeophysics,2013,93:60-66.

    [5]SacchiMD,UlrychTJ,WalkerCJ.Interpolationand extrapolation usingahigh-resolution discrete Fourier transform[J].IEEE Trans onSignal Processing,1998,46(1):31-38.

    [6]Guo Daifei,Zhu Weihong,Gao Zhenming,etal.Astudy of wavelet thresholdingdenoising[C]//Proc of the5th International Conference onSignal Processing Proceedings and the 16th World ComputerCongress 2000.Piscataway,NJ:IEEE Press,200O:329-332.

    [7].Trad DO,Ulrych TJ,SacchiMD.Accurate interpolation with highresolution time-variant Radon transforms[J]. Geophysics,2002, 67(2): 644-656.

    [8]謝晨,徐天吉,錢忠平,等.基于多尺度卷積自編碼器的地震噪 聲智能壓制方法及應(yīng)用[J]:石油物探,2024,63(1):79-90. (XieChen,Xu Tianji,Qian Zhongping,etal.Anintelligent denoisingmethod based on multi-scale convolutional auto-encoder and its application[J].Geophysical Prospecting for Petroleum,2024, 63(1):79-90.)

    [9]Oropeza V,Sacchi M. Simultaneous seismic data denoising and reconstruction via multichannel singular spectrum analysis[J].Geophysics,2011,76(3):25-32.

    [10]HuangWeilin,WangRunqiu,ChenYangkang,etal.Damped multichannel singularspectrum analysis for 3D random noise attenuation [J].Geophysics,2016,81(4):261-270.

    [11]Chen Yangkang,HuangWeilin,Yang Liuqing,et al.DRR:an open-source multi-platform package for the damped rank-reduction method and its applications in seismology[J].Computersamp; Geosciences,2023,180:105440.

    [12]Yu Siwei,Ma Jianwei,Wang Wenlong.Deep learning for denoising [J].Geophysics,2019,84(6):333-350.

    [13]Ronneberger O,F(xiàn)ischer P,Brox T.U-Net:convolutional networks forbiomedical image segmentation[M]//Navab N.,HorneggerJ, WellsW,et al. Medical Image Computing and Computer-Assisted Intervention-MICCAI 2015.Cham:Springer,2015:234-241.

    [14]Lehtinen J,Munkberg J,Hasselgren J,et al.noise2noise:learning image restoration without clean data[EB/OL].(2018-03-12). https:// arxiv.org/abs/1803.04189.

    [15] Shao Dan, Zhao Yuxing,Li Yue,et al.noisy2noisy:denoise prestack seismic data without paired training data with labels[J].IEEE Geoscience and Remote Sensing Letters,2022,19:8026005.

    [16]Xie Yaochen,Wang Zhengyang,Ji Shuiwang.noise2same:optimizing a self-supervised bound for image denoising[EB/OL]. (2020- 10-22). https://arxiv.org/abs/2010.11971.

    [17]Krull A,Buchholz TO,JugF.noise2void-learningdenoising from single noisy images [C]/1 Proc of IEEE/CVF Conference on Computer Vision and Pattrn Recognition. Piscataway,NJ: IEEE Press, 2019:2124-2132.

    [18]Wang Zejin,Liu Jiazheng,LiGuoqing,et al.Blind2unblind:selfsupervised image denoising with visible blind spots [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,,NJ: IEEE Press,2022:2017-2026.

    [19]Gao Lei,Liang Dongsheng,Min Fan.Unsupervised denoising for seismic data with complementary mask blind spot strategy[J].Journal of Applied Geophysics,2024,221:105307.

    [20]Wang Zichun,F(xiàn)u Ying,Liu Ji,et al.LG-BPN: local and global blind-patch network for self-supervised real-world denoising[C]// Procof IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2023:18156-18165.

    [21]Zhang Dan,Zhou Fangfang,Jiang Yuwen,et al.MM-BSN:selfsupervised image denoising forreal-world with multi-mask based on blind-spot network [C]// Proc of IEEE/CVF Conference on ComputerVision and Pattern Recognition Workshops.Piscataway,NJ:IEEE Press,2023:4189-4198.

    [22]Vaswani A,Shazeer N,Parmar N,et al.Attention is all you need [EB/OL].(2023-08-02).https://arxiv.org/abs/1706.03762.

    [23]高磊,喬昊煒,梁東升,等.融合梯度預(yù)測和無參注意力的高效 地震去噪Transformer[J].計(jì)算機(jī)科學(xué)與探索,2025,19(3): 1342-1352.(Gao Lei,Qiao Haowei,LiangDongsheng,et al.An efficient seismic denoising Transformer with gradient prediction and parameter-free attention[J].Journal of Frontiers of Computer Science and Technology,2025,19(3):1342-1352.

    [24]Liu Ze,Lin Yutong,Cao Yue,et al. Swin Transformer: hierarchical vision Transformer using shifted windows [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2021: 9992-10002.

    猜你喜歡
    跡線掩碼卷積
    融合注意力機(jī)制的MacBERT一DPCNN農(nóng)業(yè)文本分類模型
    基于時(shí)間圖卷積網(wǎng)絡(luò)的交通流時(shí)空預(yù)測模型
    基于圖卷積的自適應(yīng)特征融合MRI腦腫瘤分割方法
    基于YOLOX的輕量化目標(biāo)檢測算法及其應(yīng)用
    面向可重構(gòu)陣列的CNN多維融合數(shù)據(jù)復(fù)用方法
    聯(lián)邦學(xué)習(xí)中隱私保護(hù)聚合機(jī)制綜述
    表層土壤翻埋深度及分布與預(yù)測分析
    亚洲国产色片| 最近最新免费中文字幕在线| 免费不卡的大黄色大毛片视频在线观看 | 久久精品国产99精品国产亚洲性色| 嫩草影院精品99| 国产精品综合久久久久久久免费| 日韩在线高清观看一区二区三区 | av专区在线播放| 亚洲精品456在线播放app | 国产白丝娇喘喷水9色精品| 国产av麻豆久久久久久久| 日本黄色片子视频| 国产真实乱freesex| 在现免费观看毛片| 亚洲aⅴ乱码一区二区在线播放| 乱人视频在线观看| 日本 av在线| 国产一区二区在线观看日韩| 色哟哟哟哟哟哟| 亚洲av五月六月丁香网| 久久久久久久久中文| 久久久精品大字幕| 中出人妻视频一区二区| 18禁黄网站禁片午夜丰满| 97热精品久久久久久| 日本精品一区二区三区蜜桃| 日本免费一区二区三区高清不卡| 欧美日韩综合久久久久久 | 欧美精品啪啪一区二区三区| 午夜激情欧美在线| 中文字幕熟女人妻在线| 美女黄网站色视频| 一a级毛片在线观看| 亚洲精品一区av在线观看| 久久精品人妻少妇| 国产午夜福利久久久久久| 又紧又爽又黄一区二区| 免费无遮挡裸体视频| 色5月婷婷丁香| 中文字幕高清在线视频| 久久国产精品人妻蜜桃| 午夜久久久久精精品| 久久精品国产亚洲av天美| 成年女人毛片免费观看观看9| 1024手机看黄色片| 99在线视频只有这里精品首页| 性插视频无遮挡在线免费观看| 少妇裸体淫交视频免费看高清| 极品教师在线免费播放| 99国产精品一区二区蜜桃av| 69人妻影院| 亚洲自偷自拍三级| 免费电影在线观看免费观看| 国产不卡一卡二| av国产免费在线观看| 亚洲国产精品sss在线观看| 亚洲精品成人久久久久久| 国产精品av视频在线免费观看| 国产精品一及| 国产成年人精品一区二区| 国产免费av片在线观看野外av| 少妇丰满av| 亚洲精品成人久久久久久| 国产一区二区三区av在线 | 日日干狠狠操夜夜爽| 国产高清有码在线观看视频| 18禁裸乳无遮挡免费网站照片| 天天躁日日操中文字幕| 日本免费a在线| 国内毛片毛片毛片毛片毛片| 亚洲精品国产成人久久av| 18禁在线播放成人免费| 麻豆国产av国片精品| 老司机福利观看| 久久久久精品国产欧美久久久| 又爽又黄a免费视频| 国产在视频线在精品| 亚洲国产精品久久男人天堂| 国产精品永久免费网站| 亚洲在线自拍视频| 成人美女网站在线观看视频| 久久人妻av系列| 啦啦啦观看免费观看视频高清| 淫妇啪啪啪对白视频| 免费在线观看日本一区| 九色国产91popny在线| 淫妇啪啪啪对白视频| 亚洲国产精品久久男人天堂| av黄色大香蕉| 亚洲在线自拍视频| 免费观看精品视频网站| 成人一区二区视频在线观看| 成人精品一区二区免费| 日韩一区二区视频免费看| 可以在线观看毛片的网站| 中文字幕av在线有码专区| 窝窝影院91人妻| 国产精品不卡视频一区二区| 免费看光身美女| 国语自产精品视频在线第100页| av天堂中文字幕网| 色哟哟哟哟哟哟| av在线观看视频网站免费| 久久精品久久久久久噜噜老黄 | 国产亚洲av嫩草精品影院| 免费高清视频大片| www.色视频.com| 欧美bdsm另类| 免费电影在线观看免费观看| 搡女人真爽免费视频火全软件 | 亚洲av二区三区四区| 一级黄色大片毛片| 精品不卡国产一区二区三区| 免费一级毛片在线播放高清视频| 欧美一级a爱片免费观看看| 又黄又爽又刺激的免费视频.| 亚洲在线自拍视频| 日韩大尺度精品在线看网址| 亚洲精华国产精华液的使用体验 | 少妇的逼好多水| 中文字幕熟女人妻在线| 淫秽高清视频在线观看| 校园人妻丝袜中文字幕| 一区二区三区四区激情视频 | 国产乱人伦免费视频| 欧美日韩黄片免| av在线观看视频网站免费| 精品久久久久久久久亚洲 | 女生性感内裤真人,穿戴方法视频| 香蕉av资源在线| 女生性感内裤真人,穿戴方法视频| 舔av片在线| 久久午夜福利片| 91麻豆精品激情在线观看国产| 99久久中文字幕三级久久日本| 国产亚洲91精品色在线| 露出奶头的视频| 成人午夜高清在线视频| 亚洲精华国产精华精| 俺也久久电影网| 亚洲成a人片在线一区二区| 91精品国产九色| 亚洲美女搞黄在线观看 | 国产久久久一区二区三区| 成年女人毛片免费观看观看9| 久久精品国产亚洲网站| 久久精品国产亚洲网站| 免费看日本二区| 午夜久久久久精精品| 免费人成在线观看视频色| 色5月婷婷丁香| h日本视频在线播放| 日本-黄色视频高清免费观看| 国产免费一级a男人的天堂| www日本黄色视频网| 午夜影院日韩av| av中文乱码字幕在线| 日韩中字成人| 国产精品免费一区二区三区在线| 久久精品夜夜夜夜夜久久蜜豆| 国产精品无大码| 久久久午夜欧美精品| 亚洲精品在线观看二区| 九九在线视频观看精品| 成人毛片a级毛片在线播放| 男女啪啪激烈高潮av片| 日韩欧美精品v在线| 日日撸夜夜添| 我要看日韩黄色一级片| 亚洲av熟女| 日韩高清综合在线| 亚洲欧美激情综合另类| 在线播放国产精品三级| 久久人妻av系列| 搡老熟女国产l中国老女人| 又紧又爽又黄一区二区| 亚洲 国产 在线| 91久久精品电影网| 美女免费视频网站| 97超视频在线观看视频| 一级毛片久久久久久久久女| 久久国内精品自在自线图片| 精品无人区乱码1区二区| 老司机福利观看| 欧美一级a爱片免费观看看| 日韩国内少妇激情av| ponron亚洲| 少妇丰满av| 天堂√8在线中文| 桃红色精品国产亚洲av| 久久精品国产亚洲av天美| 人妻制服诱惑在线中文字幕| 日韩精品青青久久久久久| 国产高清视频在线观看网站| 国产91精品成人一区二区三区| 床上黄色一级片| 男女视频在线观看网站免费| 亚洲最大成人手机在线| 老司机福利观看| 精品久久久噜噜| 欧美一级a爱片免费观看看| 黄色欧美视频在线观看| 亚洲色图av天堂| 日韩欧美 国产精品| 欧美日本亚洲视频在线播放| 国产免费av片在线观看野外av| 国产一区二区三区在线臀色熟女| 国产精华一区二区三区| 午夜福利欧美成人| 丰满的人妻完整版| 久久精品国产亚洲av香蕉五月| 国产黄a三级三级三级人| av视频在线观看入口| 一本久久中文字幕| 狂野欧美白嫩少妇大欣赏| 午夜激情欧美在线| 欧美中文日本在线观看视频| 无人区码免费观看不卡| 夜夜夜夜夜久久久久| 午夜爱爱视频在线播放| 国产视频内射| 午夜精品一区二区三区免费看| 国产亚洲精品综合一区在线观看| 亚洲成人免费电影在线观看| 一级a爱片免费观看的视频| 国产亚洲91精品色在线| 亚洲欧美日韩卡通动漫| 成年人黄色毛片网站| xxxwww97欧美| 精品日产1卡2卡| 麻豆一二三区av精品| 熟女电影av网| 久久久久久久久大av| 中文字幕熟女人妻在线| 久久午夜亚洲精品久久| 韩国av在线不卡| 欧美国产日韩亚洲一区| 久久久久久久久中文| 国产黄片美女视频| 一a级毛片在线观看| 久久久精品欧美日韩精品| 亚洲人与动物交配视频| 精品人妻一区二区三区麻豆 | 嫩草影院新地址| 成年人黄色毛片网站| 男人狂女人下面高潮的视频| 天堂网av新在线| 色5月婷婷丁香| 999久久久精品免费观看国产| 久久精品久久久久久噜噜老黄 | 狠狠狠狠99中文字幕| 亚洲人与动物交配视频| 成人美女网站在线观看视频| 亚洲专区国产一区二区| 国产爱豆传媒在线观看| 美女免费视频网站| 美女黄网站色视频| av视频在线观看入口| 又爽又黄无遮挡网站| 国产精品99久久久久久久久| 悠悠久久av| 一a级毛片在线观看| 国产精品日韩av在线免费观看| 欧美日韩乱码在线| 简卡轻食公司| 亚洲欧美精品综合久久99| 国产视频内射| 午夜久久久久精精品| 又紧又爽又黄一区二区| av国产免费在线观看| 少妇裸体淫交视频免费看高清| 欧美xxxx性猛交bbbb| 久久久久久久亚洲中文字幕| 国产高清不卡午夜福利| 五月伊人婷婷丁香| 久久久精品欧美日韩精品| 1024手机看黄色片| 一卡2卡三卡四卡精品乱码亚洲| 欧美日本视频| 村上凉子中文字幕在线| 深爱激情五月婷婷| 夜夜夜夜夜久久久久| 欧美精品国产亚洲| 欧美一区二区亚洲| 三级毛片av免费| 欧美一级a爱片免费观看看| av天堂中文字幕网| 国产一区二区在线观看日韩| 久久久久久久午夜电影| 国产亚洲av嫩草精品影院| 久久精品国产鲁丝片午夜精品 | 日日撸夜夜添| 久久久久国内视频| 中出人妻视频一区二区| 国产在线男女| 动漫黄色视频在线观看| 五月玫瑰六月丁香| 18禁裸乳无遮挡免费网站照片| 久久久久久久久久久丰满 | 日韩精品青青久久久久久| 琪琪午夜伦伦电影理论片6080| 狂野欧美白嫩少妇大欣赏| 日韩欧美在线乱码| 国产精品久久久久久亚洲av鲁大| 久久人人爽人人爽人人片va| 中国美女看黄片| 精品久久久久久久久久久久久| 夜夜看夜夜爽夜夜摸| 国产av不卡久久| 亚洲在线观看片| 亚洲 国产 在线| 少妇裸体淫交视频免费看高清| 亚洲av不卡在线观看| 欧美激情国产日韩精品一区| 日本黄色视频三级网站网址| 精品久久久久久久久亚洲 | 国内精品久久久久精免费| 熟女电影av网| 丰满的人妻完整版| 在线观看午夜福利视频| 老司机福利观看| 亚洲最大成人中文| 亚洲美女黄片视频| 亚洲国产欧美人成| www.www免费av| 亚洲久久久久久中文字幕| 波野结衣二区三区在线| 精品久久久久久久久av| av女优亚洲男人天堂| 成人一区二区视频在线观看| 免费在线观看影片大全网站| 亚洲18禁久久av| 精品人妻熟女av久视频| 啦啦啦观看免费观看视频高清| 色哟哟哟哟哟哟| 99久久中文字幕三级久久日本| 性色avwww在线观看| 日日摸夜夜添夜夜添小说| 久久人人精品亚洲av| videossex国产| 大又大粗又爽又黄少妇毛片口| 国产午夜福利久久久久久| 婷婷六月久久综合丁香| 一边摸一边抽搐一进一小说| 久久人妻av系列| 亚洲成人久久性| 国产精品爽爽va在线观看网站| 欧美丝袜亚洲另类 | 少妇丰满av| videossex国产| 免费在线观看日本一区| 国内少妇人妻偷人精品xxx网站| 噜噜噜噜噜久久久久久91| 国产精品嫩草影院av在线观看 | 一进一出抽搐gif免费好疼| 狂野欧美激情性xxxx在线观看| 99热这里只有是精品在线观看| 日韩,欧美,国产一区二区三区 | 婷婷色综合大香蕉| 欧美黑人巨大hd| 国产在视频线在精品| 国产女主播在线喷水免费视频网站 | 天美传媒精品一区二区| 老司机福利观看| av天堂中文字幕网| 有码 亚洲区| 成人鲁丝片一二三区免费| 日韩,欧美,国产一区二区三区 | 国产免费av片在线观看野外av| 给我免费播放毛片高清在线观看| 亚洲在线观看片| 男人舔奶头视频| 国产亚洲91精品色在线| 麻豆国产av国片精品| 日韩一区二区视频免费看| 大型黄色视频在线免费观看| 久久久久久大精品| 性欧美人与动物交配| 白带黄色成豆腐渣| 国产精品人妻久久久影院| 国内精品久久久久久久电影| 欧美不卡视频在线免费观看| 五月玫瑰六月丁香| 国产精品一区www在线观看 | 亚洲av美国av| 午夜激情福利司机影院| 精品久久久久久久人妻蜜臀av| 午夜福利在线在线| 俄罗斯特黄特色一大片| 校园春色视频在线观看| 99久久久亚洲精品蜜臀av| 亚洲av熟女| 日本三级黄在线观看| 三级男女做爰猛烈吃奶摸视频| 草草在线视频免费看| 国产成人影院久久av| 国产欧美日韩精品一区二区| 精品人妻视频免费看| 性色avwww在线观看| 欧美+日韩+精品| 精品人妻1区二区| 国产高清有码在线观看视频| 男女那种视频在线观看| 久久精品人妻少妇| 99久久无色码亚洲精品果冻| 亚洲av成人精品一区久久| 久久欧美精品欧美久久欧美| 中亚洲国语对白在线视频| 国产伦精品一区二区三区四那| 日韩中字成人| 国产精华一区二区三区| 18+在线观看网站| 国内揄拍国产精品人妻在线| 精品人妻熟女av久视频| 又黄又爽又免费观看的视频| 日韩欧美三级三区| 51国产日韩欧美| 日韩,欧美,国产一区二区三区 | 国产精品,欧美在线| 久久久色成人| 久久精品国产亚洲av涩爱 | 午夜久久久久精精品| 日韩欧美国产一区二区入口| 女人十人毛片免费观看3o分钟| av在线老鸭窝| 日本五十路高清| 女人十人毛片免费观看3o分钟| 国产色婷婷99| 在线天堂最新版资源| 久久久久久伊人网av| 欧美xxxx黑人xx丫x性爽| 午夜爱爱视频在线播放| 在线国产一区二区在线| 国产三级在线视频| 欧美激情在线99| 国产激情偷乱视频一区二区| 美女免费视频网站| 男人的好看免费观看在线视频| 久久久久久久久久成人| 免费高清视频大片| 午夜久久久久精精品| 亚洲精品日韩av片在线观看| 99热6这里只有精品| 麻豆久久精品国产亚洲av| 午夜福利在线观看吧| 搡老熟女国产l中国老女人| 一进一出好大好爽视频| 久久精品影院6| 91精品国产九色| 日韩中文字幕欧美一区二区| 黄色视频,在线免费观看| 久久久久精品国产欧美久久久| 日日啪夜夜撸| 夜夜爽天天搞| 波多野结衣巨乳人妻| 免费看a级黄色片| 桃红色精品国产亚洲av| 老司机深夜福利视频在线观看| 99热只有精品国产| 男人狂女人下面高潮的视频| 欧美三级亚洲精品| 99久久无色码亚洲精品果冻| 久久精品国产亚洲av涩爱 | 国产精品不卡视频一区二区| 一区福利在线观看| 国产精品美女特级片免费视频播放器| 在线观看66精品国产| 深爱激情五月婷婷| 午夜久久久久精精品| 国产一区二区三区av在线 | 亚洲专区国产一区二区| or卡值多少钱| 国产色爽女视频免费观看| 91午夜精品亚洲一区二区三区 | 欧美激情国产日韩精品一区| 久久婷婷人人爽人人干人人爱| 麻豆av噜噜一区二区三区| 三级男女做爰猛烈吃奶摸视频| av在线天堂中文字幕| 亚洲av成人精品一区久久| 少妇丰满av| 色视频www国产| 我的老师免费观看完整版| 欧美激情在线99| 亚洲午夜理论影院| 88av欧美| 内地一区二区视频在线| 亚洲精品一区av在线观看| 国产精品嫩草影院av在线观看 | 亚洲成人中文字幕在线播放| 热99re8久久精品国产| 三级国产精品欧美在线观看| 桃红色精品国产亚洲av| 国产精品98久久久久久宅男小说| 成人午夜高清在线视频| 欧美人与善性xxx| 亚洲国产欧美人成| 在线播放国产精品三级| 亚洲成人中文字幕在线播放| 在现免费观看毛片| 黄色日韩在线| 中文字幕熟女人妻在线| 国产色婷婷99| www.色视频.com| 亚洲av电影不卡..在线观看| av国产免费在线观看| 免费在线观看成人毛片| 不卡一级毛片| 国产淫片久久久久久久久| 国产午夜福利久久久久久| 免费搜索国产男女视频| 亚洲无线观看免费| 中文字幕熟女人妻在线| 成人综合一区亚洲| 精品午夜福利在线看| 免费在线观看日本一区| 天堂√8在线中文| 免费观看精品视频网站| 丰满乱子伦码专区| 亚洲精华国产精华液的使用体验 | 久久久久国产精品人妻aⅴ院| 久久久久久大精品| 成人欧美大片| 哪里可以看免费的av片| 精品久久久噜噜| 精品乱码久久久久久99久播| 中文字幕人妻熟人妻熟丝袜美| 国产不卡一卡二| 免费看av在线观看网站| 嫩草影视91久久| 国产麻豆成人av免费视频| 免费在线观看影片大全网站| 在线观看午夜福利视频| 欧美不卡视频在线免费观看| 91在线精品国自产拍蜜月| 少妇的逼水好多| 国产精品国产三级国产av玫瑰| 欧洲精品卡2卡3卡4卡5卡区| www日本黄色视频网| 女人被狂操c到高潮| 最好的美女福利视频网| 国内精品久久久久久久电影| 老熟妇仑乱视频hdxx| 午夜精品在线福利| 日韩中文字幕欧美一区二区| 俺也久久电影网| 女同久久另类99精品国产91| 99国产精品一区二区蜜桃av| 伊人久久精品亚洲午夜| 少妇裸体淫交视频免费看高清| 小蜜桃在线观看免费完整版高清| 国产精品,欧美在线| 精品人妻一区二区三区麻豆 | 日韩,欧美,国产一区二区三区 | 久久亚洲真实| 黄色一级大片看看| 91在线精品国自产拍蜜月| 成人国产综合亚洲| 我要搜黄色片| 亚洲性久久影院| 偷拍熟女少妇极品色| 日日摸夜夜添夜夜添av毛片 | 日日夜夜操网爽| 国产一区二区亚洲精品在线观看| 乱码一卡2卡4卡精品| 日日撸夜夜添| 亚洲av成人精品一区久久| 国产成年人精品一区二区| 久久久久久久亚洲中文字幕| 国产精品一区二区三区四区久久| 99riav亚洲国产免费| 久久精品国产亚洲av涩爱 | 99视频精品全部免费 在线| 欧美成人一区二区免费高清观看| 国产精品国产高清国产av| 亚洲欧美日韩卡通动漫| 人妻制服诱惑在线中文字幕| 精品免费久久久久久久清纯| 国产精品99久久久久久久久| 亚洲av一区综合| 日本熟妇午夜| 亚洲精品久久国产高清桃花| 免费在线观看影片大全网站| 简卡轻食公司| 嫩草影视91久久| 欧美色欧美亚洲另类二区| 深夜a级毛片| 人妻久久中文字幕网| 成人国产麻豆网| 天堂影院成人在线观看| 我的女老师完整版在线观看| 十八禁国产超污无遮挡网站| 国产高清视频在线观看网站| 精品久久久久久久人妻蜜臀av| 超碰av人人做人人爽久久| 日韩,欧美,国产一区二区三区 | 久久久久性生活片| 欧美日本亚洲视频在线播放| 久久久国产成人精品二区| www日本黄色视频网| 精品久久久久久成人av| 久久精品国产清高在天天线| 精品久久久久久久久久免费视频| 亚洲国产欧洲综合997久久,| 国产激情偷乱视频一区二区| 美女xxoo啪啪120秒动态图| 熟妇人妻久久中文字幕3abv| 亚洲精华国产精华精| 亚洲人成网站在线播放欧美日韩| 久久午夜亚洲精品久久| 中文字幕av成人在线电影| 久久99热6这里只有精品| 婷婷色综合大香蕉| 99久久成人亚洲精品观看| 亚洲自偷自拍三级|