• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于帶梯度懲罰深度卷積生成對抗網(wǎng)絡(luò)的頁巖三維數(shù)字巖心重構(gòu)方法

    2021-07-02 08:55:10王先武
    計算機應(yīng)用 2021年6期
    關(guān)鍵詞:鑒別器巖心頁巖

    王先武,張 挺*,吉 欣,杜 奕

    (1.上海電力大學(xué)計算機科學(xué)與技術(shù)學(xué)院,上海 200090;2.上海第二工業(yè)大學(xué)工學(xué)部,上海 201209)

    (?通信作者電子郵箱tingzh@shiep.edu.com)

    0 引言

    油氣資源作為一種不可再生資源,是國民經(jīng)濟發(fā)展的重要物質(zhì)基礎(chǔ)。面對常規(guī)油氣資源需求快速增長的壓力,非常規(guī)油氣的勘探與開發(fā)逐漸受到人們的重視。頁巖油氣是典型的非常規(guī)油氣,具有源儲一體、分布廣泛、資源潛力大等優(yōu)點。頁巖具有低孔隙度、低滲透率和各項異性等特點,導(dǎo)致頁巖油氣的勘探和開采非常困難。頁巖的一些宏觀特性(如孔隙度、滲透率等)取決于它的微觀結(jié)構(gòu),開采頁巖油氣必須要了解掌握頁巖的微觀內(nèi)部結(jié)構(gòu)[1-2]。

    三維數(shù)字巖心重構(gòu)技術(shù)是了解掌握頁巖微觀結(jié)構(gòu)的重要手段。三維數(shù)字巖心本質(zhì)上是巖心結(jié)構(gòu)的三維數(shù)字化圖像,通常離散為三維矩陣形式,三維數(shù)字巖心的每個體素點對應(yīng)矩陣中單個元素。近年來,研究三維數(shù)字巖心重構(gòu)的方法大致可分為:物理實驗方法、傳統(tǒng)數(shù)值重構(gòu)方法和機器學(xué)習(xí)數(shù)值重構(gòu)方法。

    常用的物理實驗方法有掃描電子顯微鏡(Scanning Electron Microscope,SEM)、聚焦離子束掃描電子顯微鏡(Focused Ion Beam Scanning Electron Microscope,F(xiàn)IB-SEM)和電腦斷層掃描(Computer Tomography,CT)等。掃描電子顯微鏡主要提供二維圖像,適用于二維數(shù)字巖心的重構(gòu)。FIBSEM 可對亞微米級樣品進行實時成像,但無法完成巖石中納米尺度的孔隙成像。CT 掃描法利用靈敏度極高的探測器對巖石進行斷層掃描,借助計算機直接得到三維數(shù)字巖心圖像。上述方法具有速度快、圖像清晰等特點,但由于設(shè)備昂貴和實驗成本高,很難得到廣泛應(yīng)用[2]。

    傳統(tǒng)數(shù)值重構(gòu)方法以易于獲取的二維巖石圖像為基礎(chǔ),以二維孔隙形態(tài)特征的統(tǒng)計信息作為約束條件,利用數(shù)值模擬來完成頁巖的三維數(shù)字巖心重構(gòu)。早期出現(xiàn)的模擬退火法[3]、過程法[4]和順序指示模擬法[5]利用低階統(tǒng)計信息完成數(shù)字巖心三維重構(gòu),但重構(gòu)孔隙的連通性存在缺陷。之后出現(xiàn)的多點統(tǒng)計法(Multiple Point Statistics,MPS)[6]利用高階的統(tǒng)計信息重構(gòu)數(shù)字巖心,側(cè)重于表達孔隙結(jié)構(gòu)多點之間的相關(guān)性。近年來,在MPS 的基礎(chǔ)上,出現(xiàn)了單一標準方程模擬(Single Normal Equation SIMulation,SNESIM)[7]、濾器模 擬(FILTER SIMulation,F(xiàn)ILTERSIM)[8]、直接采 樣(Direct Sampling)法[9]等改進方法。SNESIM 利用搜索樹保存訓(xùn)練圖像的概率信息。FILTERSIM 利用一套過濾器將各個模式分類,然后對待模擬區(qū)域進行模擬。直接采樣法通過使用自定義的數(shù)據(jù)模板掃描訓(xùn)練圖像,獲取待模擬節(jié)點的狀態(tài)值。但這些方法依然存在著重構(gòu)時間較長的問題。

    隨著機器學(xué)習(xí)尤其是深度學(xué)習(xí)的高速發(fā)展,許多數(shù)據(jù)重構(gòu)問題都在其中找到解決方案。深度學(xué)習(xí)是機器學(xué)習(xí)的一種實現(xiàn)方式,得益于其強大的特征提取能力,可利用訓(xùn)練圖像的結(jié)構(gòu)特征進行重構(gòu),并產(chǎn)生了若干分支算法,例如深度遷移學(xué)習(xí)(Deep Transfer Learning,DTL)[10]、卷積神 經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[11]和生成 對抗網(wǎng) 絡(luò)(Generative Adversarial Network,GAN)[12]。

    GAN 中包含鑒別器和生成器,其特點在于通過內(nèi)部鑒別器與生成器的對抗,隱式總結(jié)出數(shù)據(jù)集的數(shù)據(jù)特征,最終通過生成器將總結(jié)出的數(shù)據(jù)特征以目標數(shù)據(jù)形式反饋給用戶。鑒別器期望準確地區(qū)分生成圖像和訓(xùn)練圖像,而生成器的目標在于生成可以欺騙鑒別器的高質(zhì)量圖像。完成指定的訓(xùn)練次數(shù)后,GAN 可以提取出訓(xùn)練圖像的整體特征,并利用生成器生成以假亂真的圖像以達到圖像重構(gòu)的目的。GAN 的缺點在于訓(xùn)練的穩(wěn)定性差,很容易發(fā)生梯度消失和梯度爆炸。深度卷積生成對抗神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Generative Adversarial Network,DCGAN)[13]、WGAN(Wassertein GAN)[14]是GAN的變體,它們在GAN的基礎(chǔ)上改變網(wǎng)絡(luò)結(jié)構(gòu)和設(shè)計新的損失函數(shù),讓網(wǎng)絡(luò)生成樣本質(zhì)量更高,訓(xùn)練過程更加穩(wěn)定。基于DCGAN,本文提出了一種帶有梯度懲罰[15]深度卷積生成對抗網(wǎng)絡(luò)(Deep Convolutional Generation Adversarial Network with Gradient Penalty,DCGAN-GP)方法,用于頁巖三維數(shù)字巖心重構(gòu)。相較于DCGAN,新加的梯度懲罰項會使帶梯度懲罰深度卷積生成對抗網(wǎng)絡(luò)(DCGAN-GP)整體訓(xùn)練更穩(wěn)定,收斂速度和訓(xùn)練速度更快。實驗結(jié)果表明,與其他一些重構(gòu)方法相比,DCGAN-GP重構(gòu)結(jié)果更接近訓(xùn)練圖像,而且重構(gòu)速度具有明顯優(yōu)勢。

    1 本文方法

    1.1 GAN

    GAN[12]包含兩個多層感知機模型:鑒別器D和生成器G。生成器將隨機噪聲z映射到圖像空間得到生成圖像G(z)。z通常由符合正態(tài)分布Pz的獨立實數(shù)組成,代表生成器的隨機輸入。鑒別器用來計算隨機樣本來自“真實”數(shù)據(jù)的概率。鑒別器期望正確標記每個樣本,而生成器專注于“欺騙”鑒別器,使鑒別器誤判生成圖像G(z)為真實數(shù)據(jù)。GAN 結(jié)構(gòu)如圖1所示。

    圖1 GAN的結(jié)構(gòu)Fig.1 Structure of GAN

    鑒別器根據(jù)輸出結(jié)果得到GAN 的損失。通常情況下把最小化GAN的損失函數(shù)當(dāng)作最小化-最大化問題,如下所示:

    1.2 本文方法DCGAN-GP

    雖然GAN 可以重構(gòu)圖像,但是訓(xùn)練過程不穩(wěn)定,有時可能會產(chǎn)生難以預(yù)料的結(jié)果。Sagawa 等[13]提出了一種將CNN和GAN 結(jié)合的DCGAN 方法用于面部圖像重構(gòu)。DCGAN 的生成器和鑒別器能夠?qū)W習(xí)訓(xùn)練圖像的組成結(jié)構(gòu),其總結(jié)出的數(shù)據(jù)集合中的數(shù)據(jù)和特征的關(guān)系具有很強的泛化能力。

    由于DCGAN 繼續(xù)沿用了GAN 的損失函數(shù),這樣在訓(xùn)練過程中需要仔細平衡生成器和鑒別器的優(yōu)化,否則會導(dǎo)致訓(xùn)練不穩(wěn)定甚至梯度爆炸。因此本文基于DCGAN 提出了一種改進的帶有梯度懲罰的DCGAN-GP方法,該方法沿用DCGAN的生成器與鑒別器的結(jié)構(gòu),舍棄了GAN 原有的損失函數(shù),為鑒別器損失函數(shù)添加額外的梯度懲罰。DCGAN-GP鑒別器和生成器的主要結(jié)構(gòu)如圖2所示。

    圖2 DCGAN鑒別器與生成器內(nèi)部結(jié)構(gòu)Fig.2 Internal structures of discriminator and generator of DCGAN

    圖2 中,三維卷積(3D Convolution,Conv3d)和三維轉(zhuǎn)置卷積(3D Transposed Convolution,ConvTranspose3d)分別是基于CNN 修改之后的跨步卷積(strided convolutions)和分數(shù)跨步卷積(fractional-strided convolutions)操作,可以有效地提高訓(xùn)練的穩(wěn)定性。BatchNorm3d 是加速訓(xùn)練和減緩訓(xùn)練過擬合的重要操作[17]。圖2內(nèi)的鑒別器重復(fù)兩次執(zhí)行Conv3d和激活函數(shù)LeakyReLU[18]的組合,最后輸出結(jié)果。生成器共執(zhí)行三次ConvTranspose3d,前兩次ConvTranspose3d 后都會經(jīng)過BatchNorm3d 和激活函數(shù)ReLU[19]處 理。最后一 次執(zhí)行ConvTranspose3d后,通過激活函數(shù)Tanh處理后輸出結(jié)果。

    DCGAN-GP利用額外的梯度懲罰來解決訓(xùn)練中梯度消失和梯度爆炸的問題。首先分別在真實樣本空間Pr和生成樣本空間Pg中獲取樣本xr和xg,然后在真實樣本xr和生成樣本xg之間隨機插值得到,如式(2)、(3)所示:

    其中:U[0,1]表示[0,1]上相同間隔的分布概率是等可能的。鑒別器的原始損失函數(shù)如式(4)所示:

    其中:?xD(x)表示鑒別器的輸出值在x方向上的梯度;表示鑒別器的輸入為隨機插值采樣時的數(shù)學(xué)期望。DCGANGP的鑒別器損失函數(shù)如式(6)所示:

    2 重構(gòu)頁巖方法的流程

    本文方法基于Tensorflow-GPU 框架進行頁巖數(shù)字巖心的重構(gòu)[20]。借助該框架的優(yōu)勢,本文方法可以充分利用圖形處理單元(Graphics Processing Unit,GPU)實現(xiàn)數(shù)字巖心的重構(gòu),但是用戶不必在使用框架時為GPU 專門設(shè)置任務(wù)分配和整合重構(gòu)結(jié)果,因此使整個重構(gòu)過程相對簡化。首先,對頁巖訓(xùn)練圖像進行去噪、二值化等預(yù)處理;其次,設(shè)計網(wǎng)絡(luò)結(jié)構(gòu)、設(shè)置超參數(shù)并完成網(wǎng)絡(luò)參數(shù)初始化;再次,設(shè)定目標訓(xùn)練次數(shù)開始訓(xùn)練,訓(xùn)練過程中利用梯度下降反向更新網(wǎng)絡(luò)參數(shù);最后,保存網(wǎng)絡(luò)參數(shù),生成器重構(gòu)出頁巖三維數(shù)字巖心。圖3 所示是利用DCGAN-GP重構(gòu)頁巖三維數(shù)字巖心的流程。

    圖3 基于DCGAN-GP重構(gòu)頁巖數(shù)字巖心的流程Fig.3 Flow chart of reconstructing digital core of shale based on DCGAN-GP

    3 實驗與結(jié)果分析

    3.1 超參數(shù)的選擇

    模型中超參數(shù)的選擇主要根據(jù)文獻[15]所推薦的經(jīng)驗參數(shù),生成器訓(xùn)練5次進行1次參數(shù)更新,鑒別器訓(xùn)練1次進行1次參數(shù)更新。鑒別器和生成器的優(yōu)化器都設(shè)定Adam 學(xué)習(xí)率α=1.0×10-4。

    3.2 實驗數(shù)據(jù)

    首先利用納米CT 獲取頁巖的體數(shù)據(jù),分辨率為64 nm/voxel。從上述頁巖體數(shù)據(jù)截取出尺寸為64×64×64體素的頁巖數(shù)據(jù)作為三維訓(xùn)練圖像(孔隙度=0.154)。該三維訓(xùn)練圖像也可以視為64 幅二維圖像(每幅64×64 像素)依次疊加而成。圖4(a)表示整個訓(xùn)練圖像的外表面,圖中黑色表示頁巖的孔隙,灰色表示頁巖的骨架。圖4(b)所示為頁巖訓(xùn)練圖像的正交剖面(X=32,Y=32,Z=32)。圖4(c)為頁巖訓(xùn)練圖像的孔隙結(jié)構(gòu)。

    圖4 頁巖訓(xùn)練圖像的結(jié)構(gòu)Fig.4 Structure of the shale training image

    3.3 重構(gòu)結(jié)果對比

    將三維訓(xùn)練圖像轉(zhuǎn)化為三維數(shù)組用于本文方法中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。訓(xùn)練完成后,生成器利用保存的參數(shù)直接生成重構(gòu)的頁巖三維數(shù)字巖心(尺寸為64×64×64 體素)。同時,利用經(jīng)典的重構(gòu)方法FILTERSIM、SNESIM、Direct Sampling 和原始的DCGAN 進行頁巖數(shù)字巖心的重構(gòu),將重構(gòu)結(jié)果與DCGAN-GP重構(gòu)結(jié)果進行對比。

    3.3.1 頁巖重構(gòu)結(jié)果比較

    圖5~9 分別是 使用了FILTERSIM、SNESIM、Direct Sampling、DCGAN 和DCGAN-GP 方法重構(gòu)的頁巖三維數(shù)字巖心。可以看出,上述五種方法重構(gòu)的頁巖數(shù)據(jù)都與真實的頁巖訓(xùn)練圖像有著相似的孔隙分布特征和長連通性孔隙結(jié)構(gòu),但是其中FILTERSIM 重構(gòu)數(shù)據(jù)的孔隙大小和分布與訓(xùn)練圖像差異較大,其他四種方法重構(gòu)數(shù)據(jù)在孔隙大小和分布方面更接近訓(xùn)練圖像。然而僅憑觀察圖5~9重構(gòu)結(jié)果難以較好判斷重構(gòu)質(zhì)量,因此下面將對重構(gòu)結(jié)果作進一步對比分析。

    圖5 FILTERSIM方法的頁巖重構(gòu)結(jié)果Fig.5 Shale reconstruction results of FILTERSIM method

    圖6 SNESIM方法的頁巖重構(gòu)結(jié)果Fig.6 Shale reconstruction results of SNESIM method

    圖7 Direct Sampling方法的頁巖重構(gòu)結(jié)果Fig.7 Shale reconstruction results of Direct Sampling method

    圖8 DCGAN方法的頁巖重構(gòu)結(jié)果Fig.8 Shale reconstruction results of DCGAN method

    圖9 DCGAN-GP方法的頁巖重構(gòu)結(jié)果Fig.9 Shale reconstruction results of DCGAN-GP method

    3.3.2 重構(gòu)結(jié)果孔隙度對比

    頁巖孔隙度用來表示頁巖存儲流體的能力,是評價頁巖重構(gòu)結(jié)果的重要指標之一。頁巖孔隙度φ的定義如下:

    其中:Vp為頁巖孔隙體積;V為頁巖體積。為了避免重構(gòu)結(jié)果的偶然性,分別利用FILTERSIM、SNESIM、Direct Sampling、DCGAN 和DCGAN-GP 方法重構(gòu)10 次頁巖數(shù)字巖心。表1 所示為不同方法10 次重構(gòu)結(jié)果的孔隙度。由表1 可以看出,與訓(xùn)練圖像的孔隙度(0.154)相比,DCGAN-GP重構(gòu)結(jié)果的平均孔隙度更接近,表明所提方法重構(gòu)質(zhì)量最好。

    表1 不同方法10次重構(gòu)數(shù)字巖心的孔隙度Tab.1 Porosity of digital core reconstructed by different methods for 10 times

    3.3.3 重構(gòu)結(jié)果變差函數(shù)對比

    變差函數(shù)被廣泛地用于空間數(shù)據(jù)結(jié)構(gòu)特征的相似性評價[21],其定義如下:

    其中:E 是數(shù)學(xué)期望值;h是x位置和x+h之間的滯后距離;Z(x)是位置x處的屬性值。變差函數(shù)主要反映一定方向上的空間兩點變量之間的相關(guān)性和變異性,如果重構(gòu)結(jié)果的變差函數(shù)曲線與訓(xùn)練圖像的曲線越貼合,那么重構(gòu)結(jié)果與訓(xùn)練圖像的特征相似度越高;否則說明差異較大。

    將FILTERSIM、SNESIM、Direct Sampling、DCGAN 和DCGAN-GP 方法的重構(gòu)結(jié)果與訓(xùn)練圖像的變差函數(shù)進行對比。圖10(a)、(b)、(c)分別展示了各重構(gòu)方法在X、Y、Z方向上的變差函數(shù)曲線,可以看出DCGAN-GP 與訓(xùn)練圖像的變差函數(shù)最為相似。

    圖10 頁巖重構(gòu)結(jié)果的變差函數(shù)對比Fig.10 Comparison of variograms of shale reconstruction results

    3.3.4 重構(gòu)結(jié)果孔隙數(shù)量和分布對比

    對FILTERSIM、SNESIM、Direct Sampling、DCGAN 和DCGAN-GP 方法的重構(gòu)結(jié)果進行孔隙數(shù)量、孔隙尺寸和孔隙尺寸分布分析。表2所示為訓(xùn)練圖像和各重構(gòu)方法10次重構(gòu)結(jié)果的平均孔隙數(shù)量。表3給出了訓(xùn)練圖像和各重構(gòu)方法10次重構(gòu)結(jié)果的孔隙最大值、最小值以及平均孔隙直徑。圖11所示為訓(xùn)練圖像和各重構(gòu)方法10 次重構(gòu)結(jié)果的平均孔隙直徑分布。

    表3 訓(xùn)練圖像和各重構(gòu)方法10次重構(gòu)結(jié)果的孔隙直徑的平均值、最小值和最大值 單位:voxelTab.3 Mean values,minimum values and maximum values of pore diameters of training images and 10 times reconstruction results of different reconstruction methods unit:voxel

    結(jié)合表2~3 和圖11 可以看出,除了在平均孔隙上表現(xiàn)稍差之外,DCGAN-GP 重構(gòu)結(jié)果在孔隙數(shù)量、孔隙最大直徑、孔隙最小直徑和直徑分布上與訓(xùn)練圖像最為相似。

    圖11 孔隙直徑分布對比Fig.11 Comparison of pore diameter distribution

    表2 訓(xùn)練圖像和各重構(gòu)方法10次重構(gòu)結(jié)果的平均孔隙數(shù)Tab.2 Average pore number of training image and 10 times reconstruction results of different reconstruction methods

    3.3.5 CPU、GPU和內(nèi)存使用率對比

    本文采用的硬件實驗環(huán)境為:Inter Core i7-9700k 4.1 GHz CPU,16 GB 內(nèi)存,GeForce RTX2070s GPU(8 GB 顯存)。表4 所示是FILTERSIM、SNESIM、Direct Sampling、DCGAN 和DCGAN-GP 方法重構(gòu)10 次頁巖數(shù)字巖心時的CPU與GPU使用情況和內(nèi)存的平均使用量。

    從表4 可以看出,三種經(jīng)典重構(gòu)方法對CPU 和內(nèi)存的占用比較高,而DCGAN-GP 和DCGAN 的CPU 和內(nèi)存使用量相較于另三種方法要低很多。出現(xiàn)上述情況的原因在于DCGAN-GP 和DCGAN 可以通過Tensorflow-GPU 框架把大量計算交給擅長浮點運算的GPU 處理,加速了網(wǎng)絡(luò)的訓(xùn)練過程。

    表4 把總重構(gòu)時間分為兩部分:“第一次重構(gòu)時間”和“其他9 次重構(gòu)時間”?!暗谝淮沃貥?gòu)時間”指五種方法完成一次重構(gòu)所消耗的時間,“其他9次重構(gòu)時間”是五種方法完成9次重構(gòu)所消耗的時間。由于計算機在運行算法時空間分配的隨機性,所以每次重構(gòu)時間會存在少許的不同。DCGAN-GP 和DCGAN 第一次重構(gòu)過程中需要完成網(wǎng)絡(luò)的訓(xùn)練,這個訓(xùn)練過程花費時間較多,而其他三種經(jīng)典方法第一次重構(gòu)過程中的訓(xùn)練速度相對較快。雖然DCGAN-GP 和DCGAN 在第一次重構(gòu)時的訓(xùn)練過程需要大量的訓(xùn)練時間,但隨后的每次重構(gòu)所消耗的時間較少,這是因為DCGAN-GP 和DCGAN 能夠?qū)⒌谝淮斡?xùn)練完成后得到的參數(shù)保存到文件,后繼的每次重構(gòu)只需要讀取文件內(nèi)的參數(shù)就可快速完成圖像重構(gòu)。與此不同的是,另外三種經(jīng)典重構(gòu)方法每次將訓(xùn)練信息保存在內(nèi)存中,重構(gòu)一旦結(jié)束,所有訓(xùn)練圖像的特征信息將被清除,因此它們每次重構(gòu)都要重新掃描訓(xùn)練圖像以進行重新訓(xùn)練,這樣的重復(fù)訓(xùn)練會消耗大量時間。即使對經(jīng)典重構(gòu)方法進行改造,未來將這些特征信息也保存在文件中重用,但由于這些方法產(chǎn)生的圖像特征的結(jié)構(gòu)信息非常龐雜,仍然會導(dǎo)致重構(gòu)速度難以大幅提升。因此,當(dāng)重構(gòu)多個數(shù)字巖心結(jié)果時,DCGAN-GP在重構(gòu)速度和CPU 使用率方面優(yōu)于其他典型的重構(gòu)方法和DCGAN,在頁巖三維數(shù)字巖心重構(gòu)方面具有優(yōu)勢。

    表4 各方法占用內(nèi)存峰值,CPU、GPU使用量和重構(gòu)時間對比Tab.4 Peak memory usage,CPU and GPU usage and reconstruction time comparison of different methods

    3.3.6 DCGAN-GP的學(xué)習(xí)率和訓(xùn)練次數(shù)

    前文提到,DCGAN-GP使用了較多的超參數(shù),大多數(shù)超參數(shù)可以設(shè)置為經(jīng)驗值,其中學(xué)習(xí)率和訓(xùn)練次數(shù)是非常重要的兩個超參數(shù),因此針對學(xué)習(xí)率和訓(xùn)練次數(shù)進行對比實驗,說明選擇這兩個超參數(shù)的操作過程。實驗中使用相同的頁巖訓(xùn)練圖像,除學(xué)習(xí)率和訓(xùn)練次數(shù)之外的所有參數(shù)不變。實驗中分別選用3 個不同的學(xué)習(xí)率:2×10-4、1×10-4、1×10-5。為了方便觀察損失曲線變化,對鑒別器的損失值進行取負操作。圖12 中黑色部分描繪了鑒別器的損失變化范圍。為了便于觀察損失值的變化趨勢,對損失函數(shù)做移動平均平滑處理[22]得到圖中灰色部分。灰色部分可以視為原始損失曲線的平均值。從圖12 中可以看出,重構(gòu)結(jié)果a、d 的孔隙結(jié)構(gòu)特征與訓(xùn)練圖像差異較大,重構(gòu)結(jié)果c 的孔隙度(0.056)要遠低于訓(xùn)練圖像孔隙度。當(dāng)學(xué)習(xí)率取1×10-4,訓(xùn)練40 000次時重構(gòu)結(jié)果b 的孔隙度(0.156)與訓(xùn)練圖像更接近,同時鑒別器損失值也更接近于0,說明鑒別器對輸入圖像判斷得更準確,重構(gòu)結(jié)果更接近訓(xùn)練圖像。

    圖12 三種不同學(xué)習(xí)率下鑒別器損失對比Fig.12 Loss comparison of discriminator under three different learning rates

    3.3.7 DCGAN-GP與DCGAN的損失對比

    與DCGAN 相比,DCGAN-GP主要對鑒別器的損失函數(shù)進行了修改,而兩者的生成器損失函數(shù)完全一致,因此通過比較兩者的鑒別器損失來衡量兩種方法的性能優(yōu)劣。圖13 展示了DCGAN-GP 與DCGAN 鑒別器損失對比,兩種方法的損失曲線有著明顯區(qū)別。其中DCGAN-GP 的損失曲線在圖中波動較小,在68 000次訓(xùn)練前損失曲線處于圖像下方,在68 000次訓(xùn)練之后處于圖像上方。而DCGAN 損失曲線在圖中波動較大,在68 000次訓(xùn)練前損失曲線處于圖像上方,在68 000次訓(xùn)練后整體處于圖像下方。由于兩者采取的損失函數(shù)不同,所以圖13中值域的大小不同,但DCGAN-GP 損失變化波動相對較小,而且訓(xùn)練16 000 次到訓(xùn)練40 000 次之間有明顯的梯度下降,所以DCGAN-GP 可以快速確定最優(yōu)訓(xùn)練參數(shù),并且訓(xùn)練速度也快于DCGAN。因此,DCGAN-GP 相比DCGAN 更快速和穩(wěn)定。

    圖13 DCGAN-GP與DCGAN的損失對比Fig.13 Loss comparison between DCGAN-GP and DCGAN

    4 結(jié)語

    頁巖內(nèi)部結(jié)構(gòu)復(fù)雜,且具有低孔隙度和低滲透率等特點,這將會給頁巖油氣開采帶來巨大挑戰(zhàn)。構(gòu)建頁巖的三維數(shù)字巖心,可以從微觀結(jié)構(gòu)分析頁巖宏觀特性,提高頁巖油氣勘探和開采效率。傳統(tǒng)數(shù)值重構(gòu)技術(shù)每次重構(gòu)時均要掃描訓(xùn)練圖像以提取巖石內(nèi)部的結(jié)構(gòu)信息,然后利用上述信息重構(gòu)數(shù)字巖心,因此傳統(tǒng)數(shù)值重構(gòu)技術(shù)的統(tǒng)計信息越高階,其對硬件要求就越高,消耗時間也就越多。最近出現(xiàn)的機器學(xué)習(xí)數(shù)值重構(gòu)方法,利用網(wǎng)絡(luò)隱式提取巖石的特征,可在深度學(xué)習(xí)(如Tensorflow-GPU)框架的幫助下,利用GPU 加速完成網(wǎng)絡(luò)訓(xùn)練,重構(gòu)效率較高。

    本文提出了一種基于DCGAN-GP 的三維頁巖重構(gòu)技術(shù),繼承了機器學(xué)習(xí)數(shù)值重構(gòu)方法重構(gòu)效率高的優(yōu)勢,并且利用帶有梯度懲罰的損失函數(shù)加快網(wǎng)絡(luò)收斂,使整個訓(xùn)練過程更穩(wěn)定。實驗結(jié)果表明DCGAN-GP 在孔隙度、變差函數(shù)曲線、孔隙分布等方面都優(yōu)于經(jīng)典數(shù)值重構(gòu)方法。DCGAN-GP一次訓(xùn)練、多次運行的優(yōu)點有助于提高重構(gòu)頁巖數(shù)字巖心的效率。

    猜你喜歡
    鑒別器巖心頁巖
    基于多鑒別器生成對抗網(wǎng)絡(luò)的時間序列生成模型
    Osteotomized folded scapular tip free flap for complex midfacial reconstruction
    衛(wèi)星導(dǎo)航信號無模糊抗多徑碼相關(guān)參考波形設(shè)計技術(shù)*
    一種頁巖巖心資料的保存方法
    化工管理(2017年23期)2017-09-11 14:14:22
    Acellular allogeneic nerve grafting combined with bone marrow mesenchymal stem cell transplantation for the repair of long-segment sciatic nerve defects: biomechanics and validation of mathematical models
    頁巖氣開發(fā)降溫
    能源(2016年1期)2016-12-01 05:10:02
    陣列天線DOA跟蹤環(huán)路鑒別器性能分析
    長巖心注CO2氣水交替驅(qū)試驗?zāi)M研究
    我國頁巖氣可采資源量初步估計為31萬億m3
    頁巖氣是什么?
    鹤壁市| 南平市| 会同县| 卢氏县| 永康市| 紫阳县| 麦盖提县| 崇文区| 新闻| 玉门市| 彭州市| 繁峙县| 凤庆县| 雷州市| 西畴县| 博罗县| 驻马店市| 兴城市| 三台县| 龙海市| 抚顺市| 米脂县| 娱乐| 武清区| 大荔县| 子洲县| 和林格尔县| 闽侯县| 南木林县| 历史| 兴和县| 三河市| 清河县| 上犹县| 信阳市| 南丰县| 正安县| 沅江市| 太仓市| 剑阁县| 青川县|