王 俊 曹俊興 尤加春
(成都理工大學(xué)地球物理學(xué)院,四川成都 610059)
測井資料作為連接地震與地質(zhì)的橋梁和紐帶,在油氣勘探中發(fā)揮著至關(guān)重要的作用。實際應(yīng)用中,由于井壁垮塌、儀器故障等因素,經(jīng)常會造成部分測井?dāng)?shù)據(jù)失真或缺失,為后續(xù)解釋工作帶來一定困難。而重新測井不僅價格昂貴,且對于已經(jīng)完井的井眼甚至不可能實現(xiàn)。為此,探索測井曲線重構(gòu)方法,對失真或缺失井段的測井?dāng)?shù)據(jù)進行校正或重構(gòu)以增加測井解釋的準(zhǔn)確性具有重要的意義。理論上可用多元回歸分析等方法[1-2]實現(xiàn)測井曲線重構(gòu),但因地下地質(zhì)情況的復(fù)雜性很難用確定性的函數(shù)表達(dá)[3],故基于統(tǒng)計分析的測井曲線重構(gòu)通常精度較低,難以滿足測井?dāng)?shù)據(jù)精確解釋和儲層精細(xì)描述的需求。
近些年發(fā)展的機器學(xué)習(xí)技術(shù)理論上可以刻畫輸入與輸出數(shù)據(jù)之間的強非線性映射關(guān)系,已被廣泛應(yīng)用于初至拾取、地震數(shù)據(jù)重建等[4-7],為測井曲線的重構(gòu)提供了新的手段。很多研究者嘗試使用傳統(tǒng)的全連接神經(jīng)網(wǎng)絡(luò)方法生成測井曲線[8-10]。該方法能夠較好地挖掘測井?dāng)?shù)據(jù)之間的復(fù)雜非線性映射關(guān)系,但這些傳統(tǒng)神經(jīng)網(wǎng)絡(luò)方法與統(tǒng)計分析類似,構(gòu)造的是一種點對點的映射,重構(gòu)得到的測井?dāng)?shù)據(jù)只與處于同一深度的其他測井信息有關(guān),而忽略了待重構(gòu)測井曲線隨儲層深度變化的趨勢及歷史數(shù)據(jù)之間關(guān)聯(lián)性。由于地層的沉積作用是時序漸變的,而測井曲線是地層沉積特征的響應(yīng),具有一定的時序特征。循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是一種典型的深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)結(jié)構(gòu),相比于全連接神經(jīng)網(wǎng)絡(luò),其最大的區(qū)別在于各隱藏層單元之間相互并不獨立,各個隱藏層神經(jīng)元之間不僅相互聯(lián)系,而且當(dāng)前隱藏層單元的狀態(tài)還受歷史輸入數(shù)據(jù)的影響,這個特性使其能夠很好地提取數(shù)據(jù)結(jié)構(gòu)的時序關(guān)系。已有學(xué)者初步運用其進行了測井曲線的人工合成[11],取得了比傳統(tǒng)方法更好的效果。
深度學(xué)習(xí)的概念最早由Hinton等[12]提出,是目前機器學(xué)習(xí)學(xué)科發(fā)展最蓬勃的分支。深度學(xué)習(xí)通過構(gòu)建具有多個隱藏層的深度神經(jīng)網(wǎng)絡(luò)模型,利用大量數(shù)據(jù)訓(xùn)練學(xué)習(xí)數(shù)據(jù)間的復(fù)雜有效信息。它能夠從簡單特征中自動提取復(fù)雜特征,且逐層越來越抽象,從而建立高維映射關(guān)系,以解決復(fù)雜的非線性問題。目前,深度學(xué)習(xí)主要有常規(guī)的全連接DNN、解決序列化問題的RNN、解決空間結(jié)構(gòu)問題的卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)及可用于數(shù)據(jù)生成的生成式對抗神經(jīng)網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)等。深度學(xué)習(xí)已在機器翻譯、自然語言處理[13-14]等領(lǐng)域成功應(yīng)用。近年來,很多研究者將深度學(xué)習(xí)技術(shù)應(yīng)用于測井解釋與地質(zhì)儲層預(yù)測[15-17]。
RNN是一種解決序列數(shù)據(jù)問題的神經(jīng)網(wǎng)絡(luò),不同于其他DNN結(jié)構(gòu),此結(jié)構(gòu)考慮了歷史樣本對未來樣本的影響,單個神經(jīng)網(wǎng)絡(luò)的隱藏層不僅連接當(dāng)前神經(jīng)網(wǎng)絡(luò)下一層的輸入,而且連接到下一個神經(jīng)網(wǎng)絡(luò)的隱藏層。長短期記憶網(wǎng)絡(luò)(Long Short Term Memory Networks,LSTM)是一種特殊的RNN,相比DNN和傳統(tǒng)的RNN能更準(zhǔn)確地學(xué)習(xí)時序數(shù)據(jù)中的長期依賴性關(guān)系,解決了需要人工提取時序特征的問題,但該方法存在收斂速度較慢等問題。門控循環(huán)單元(Gated Recurrent Unit,GRU)神經(jīng)網(wǎng)絡(luò)是在LSTM基礎(chǔ)上改進優(yōu)化的神經(jīng)網(wǎng)絡(luò),它具有更快的收斂速度,并具有與LSTM相當(dāng)?shù)臏?zhǔn)確率,目前在測井曲線重構(gòu)以外的領(lǐng)域應(yīng)用較為廣泛[18-19],但尚未見到應(yīng)用于測井曲線重構(gòu)方面的研究。
測井?dāng)?shù)據(jù)具有序列化的數(shù)據(jù)結(jié)構(gòu),其變化趨勢具有重要含義。此外,由于測井曲線的采樣間隔相對較小,測井曲線中存在長期相關(guān)性,而GRU網(wǎng)絡(luò)具有良好的長期記憶可很好地處理這些問題?;诖?,本文提出利用基于RNN的GRU網(wǎng)絡(luò)重構(gòu)測井曲線,通過TensorFlow框架建立重構(gòu)模型,利用實測數(shù)據(jù)進行驗證,并與多元線性回歸(Multiple Linear Regression,MLR)分析方法進行對比分析,結(jié)果表明,GRU神經(jīng)網(wǎng)絡(luò)取得了良好的重構(gòu)效果。
多元回歸(Multiple Regression,MR)研究的是一個因變量與多個自變量之間的回歸問題[20]?;貧w分析的基本思想是:雖然自變量與因變量之間沒有嚴(yán)格的、確定性的函數(shù)關(guān)系,但可以設(shè)法找出最能代表它們之間關(guān)系的數(shù)學(xué)表達(dá)形式。在測井曲線校正或重構(gòu)問題中,影響目標(biāo)曲線的曲線往往不止一條,因此可用MR對其進行分析重構(gòu),其中最為簡單、常用的是MLR分析。
MLR分析是處理變量間相關(guān)關(guān)系的有效方法,目前已得到廣泛應(yīng)用。在油氣地球物理勘探中,不同的測井曲線往往反映不同的地層性質(zhì),如地層巖性、物性和含油氣性等,彼此之間存在一定的相關(guān)性,很難用單一函數(shù)描述測井曲線之間的數(shù)學(xué)關(guān)系。盡管運用MLR能有效地建立簡單的測井曲線之間的關(guān)系,可較好、便捷地重構(gòu)缺失或失真的測井曲線,同時也能夠清楚地表達(dá)各曲線之間的親疏關(guān)系,但隨著地質(zhì)影響因素的增多,地層巖石物理特性之間的關(guān)系越來越復(fù)雜,僅通過MLR已難以精確描述各測井曲線之間的相關(guān)性[21],其應(yīng)用效果往往差強人意。
RNN是專門處理序列和變長數(shù)據(jù)的深度學(xué)習(xí)模型[22],雖然鏈?zhǔn)浇Y(jié)構(gòu)的RNN對數(shù)據(jù)具有記憶功能,在一定的上下文環(huán)境中,可根據(jù)輸入序列得出輸出序列,但是其可以獲取的上下文信息有限。因為在使用過程中,普通RNN的早期輸入信號對隱藏層是有影響的。首先,隨著時間的推移對輸入的敏感性逐漸下降,甚至忘記之前的輸入,這時就與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)區(qū)別不大[23];其次,與多層神經(jīng)網(wǎng)絡(luò)類似,隨著神經(jīng)元數(shù)量的增加,在反向傳播過程中,RNN也會出現(xiàn)梯度爆炸和梯度消失等問題[24]。
為解決傳統(tǒng)RNN中存在的梯度爆炸、梯度消散以及長期依賴等問題,人們提出了各種改進的RNN網(wǎng)絡(luò)。LSTM由一系列遞歸連接的記憶區(qū)塊的子網(wǎng)絡(luò)構(gòu)成,每個記憶區(qū)塊中包含一個或多個記憶細(xì)胞和三個乘法單元(輸入門、輸出門和遺忘門),可以對記憶細(xì)胞進行連續(xù)的寫、讀和重置操作[25-26]。LSTM單元結(jié)構(gòu)如圖1所示。
因LSTM具備長期學(xué)習(xí)的能力,有效地解決了梯度爆炸、梯度消散以及長期依賴問題,在各類問題中應(yīng)用效果良好,已在一些領(lǐng)域得到了廣泛應(yīng)用[27-28],但由于LSTM神經(jīng)網(wǎng)絡(luò)模型的形式較復(fù)雜,因此也存在著訓(xùn)練、預(yù)測時間較長等問題。
圖1 LSTM單元結(jié)構(gòu)圖ct-1 和ct為隱層節(jié)點狀態(tài); ht-1和ht分別表示前一序列和當(dāng)前序列隱層節(jié)點輸出; xt為當(dāng)前序列隱層節(jié)點輸入; f、i、j、o表示過程量; σ表示sigmoid非線性激活函數(shù); tanh表示雙曲正切函數(shù)
GRU神經(jīng)網(wǎng)絡(luò)是與LSTM功能幾乎一樣的網(wǎng)絡(luò),其內(nèi)部結(jié)構(gòu)單元與LSTM很相似,本質(zhì)上也是使用門結(jié)構(gòu)實現(xiàn)RNN對長短期信息的選擇性記憶功能,有效地解決了時間遞歸過程中的梯度消失、梯度爆炸等問題[29]。GRU不僅保持了LSTM的重構(gòu)效果,且訓(xùn)練參數(shù)較少。
在LSTM的基礎(chǔ)上,GRU改良了“門”的設(shè)計,即將原來由三個“門”組成的細(xì)胞結(jié)構(gòu)優(yōu)化為兩個“門”組成的細(xì)胞結(jié)構(gòu)(圖2),把遺忘門和輸入門合成了一個單一的更新門(update gate),控制當(dāng)前輸入xt中哪些信息應(yīng)被保留,重置門(reset gate)控制前一時刻的輸出ht-1對當(dāng)前輸入xt的影響,同時還混合了細(xì)胞狀態(tài)和隱藏狀態(tài)及其他一些改動。這就使GRU網(wǎng)絡(luò)比標(biāo)準(zhǔn)的LSTM網(wǎng)絡(luò)更簡單,計算速度更快。各參數(shù)之間的關(guān)系表述如下[30]。
圖2 GRU單元結(jié)構(gòu)圖zt表示更新門狀態(tài);rt表示重置門狀態(tài);表示當(dāng)前神經(jīng)元的待定輸出
更新門狀態(tài)zt可由
zt=σ(Wz[ht-1,xt])
(1)
求得。zt取值越大,表示當(dāng)前神經(jīng)元要保留的信息越多,則上一個神經(jīng)元要保留的信息越少,反之亦然。式中Wz表示更新門的權(quán)重。
重置門狀態(tài)rt可用
rt=σ(Wr[ht-1,xt])
(2)
求得。當(dāng)rt取值為0時,表示只需將當(dāng)前神經(jīng)元的輸入作為輸入,拋棄上個神經(jīng)元傳來的信息; 如果不為0(通常不為0)就表示之前的輸入信息會被傳遞過來。式中Wr表示重置門的權(quán)重。
當(dāng)前神經(jīng)元的特定輸出值為
(3)
GRU網(wǎng)絡(luò)的輸出值為
ht=(1-zt)ht-1+ztxt
(4)
式中“*”表示哈達(dá)瑪積。
優(yōu)化算法種類較多,如隨機梯度下降、AdaGrad、RMSProp、適應(yīng)性動量估計(Adam)算法[31]等。隨機梯度下降法簡單,收斂速度快,是應(yīng)用較為廣泛的優(yōu)化算法,但存在易陷入局部最優(yōu)、難以獲取最優(yōu)解的缺點。Adam優(yōu)化算法融合了AdaGrad和RMSProp算法的優(yōu)勢,不僅不需要固定的優(yōu)化目標(biāo),還適用于稀疏梯度,而且會自然地執(zhí)行步長回溯,具有實現(xiàn)簡單、所需內(nèi)存小、計算效率高等優(yōu)點。為此,本文選用Adam優(yōu)化算法。
為減小輸入數(shù)據(jù)間數(shù)量級差別較大引起的重構(gòu)誤差,采用z-score標(biāo)準(zhǔn)化方法對輸入數(shù)據(jù)進行標(biāo)準(zhǔn)化處理,以確保各參數(shù)處于合理的分布范圍內(nèi),更容易總結(jié)出數(shù)據(jù)間的結(jié)構(gòu)關(guān)系,即
(5)
GRU重構(gòu)模型的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。GRU網(wǎng)絡(luò)包含輸入層、輸出層、隱藏層三個部分,其中隱藏層算法是網(wǎng)絡(luò)的核心,是網(wǎng)絡(luò)訓(xùn)練的主要研究對象。根據(jù)圖3,基于GRU的測井曲線重構(gòu)模型主要包括數(shù)據(jù)預(yù)處理、模型訓(xùn)練和預(yù)測三個部分。具體可分為以下5步。
(1)將輸入測井?dāng)?shù)據(jù)采用z-score標(biāo)準(zhǔn)化方法進行預(yù)處理,劃分訓(xùn)練集和測試集。
(2)確定GRU神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。
第二,全面了解農(nóng)村經(jīng)濟合作社組織對促進農(nóng)村經(jīng)濟快速發(fā)展的意義。通過優(yōu)化農(nóng)村的產(chǎn)業(yè)結(jié)構(gòu),及時捕捉市場信息,全面了解農(nóng)村經(jīng)濟發(fā)展的動態(tài)形勢,從而為廣大農(nóng)民提供技術(shù)支持,指導(dǎo)農(nóng)民按需生產(chǎn)。農(nóng)村經(jīng)濟合作組織通過聯(lián)合分散的農(nóng)戶,讓其共同抵御相關(guān)風(fēng)險,提升了農(nóng)民的組織化程度,讓農(nóng)村將經(jīng)濟發(fā)展的大市場和小市場更好地對接起來。
(3)選擇合適的激活函數(shù)和優(yōu)化算法。
(4)采用訓(xùn)練數(shù)據(jù)集對神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練,并檢驗?zāi)P偷闹貥?gòu)效果。若重構(gòu)精度滿足要求,則進入步驟(5);否則跳回步驟(2),并調(diào)整網(wǎng)絡(luò)參數(shù),直到模型滿足重構(gòu)精度為止。
(5)利用訓(xùn)練好的模型對測試數(shù)據(jù)集進行重構(gòu),然后將重構(gòu)結(jié)果反標(biāo)準(zhǔn)化,得到對應(yīng)的重構(gòu)值。
圖3 GRU網(wǎng)絡(luò)重構(gòu)框架
其中GRU網(wǎng)絡(luò)的訓(xùn)練過程可細(xì)分為以下四步:
(1)前向傳播計算GRU細(xì)胞的輸出值;
(2)將模型輸出值與實際值進行比較,反向計算每個GRU細(xì)胞的誤差項,包括按時間和網(wǎng)絡(luò)層級兩個反向傳播的方向;
(3)根據(jù)相應(yīng)的誤差項,計算每個權(quán)重的梯度;
采用重構(gòu)值與實際值的均方根誤差(root mean square error,RMSE)作為評價重構(gòu)效果的標(biāo)準(zhǔn)
(6)
為了測試GRU模型的性能,進行了以下三組實驗: ①某井中某一層段部分測井曲線缺失,利用該井中數(shù)據(jù)完整的測井曲線估計缺失的測井?dāng)?shù)據(jù); ②某井中某一層段的所有測井曲線缺失,利用該井中未缺失的測井段以及鄰井完整的測井曲線重構(gòu)缺失段的測井?dāng)?shù)據(jù); ③某井中整個井段某幾條測井曲線全部缺失,利用剩余的幾條完整測井曲線以及鄰井完整的測井曲線重構(gòu)缺失的測井曲線。
根據(jù)實驗結(jié)果評價GRU網(wǎng)絡(luò)根據(jù)不完整測井曲線自身的信息自動重構(gòu)缺失段測井?dāng)?shù)據(jù),評價GRU網(wǎng)絡(luò)基于待重構(gòu)井未缺失或失真層段測井曲線以及鄰井信息重構(gòu)測井曲線的能力,并將其與MLR方法進行分析比較。
實驗平臺為深度學(xué)習(xí)框架TensorFlow1.7.0,Anaconda 3-4.1.1,scikit-lean0.19.1,Pandas0.22.0,NumPy1.14.2和Matplotlib2.1.2等,編程語言使用Python3.6。實測數(shù)據(jù)均來源于四川盆地的A、B兩個探區(qū)。A1井位于A探區(qū),測井?dāng)?shù)據(jù)為自然伽馬(GR)、密度(DEN)、補償中子(CNL)、聲波時差(AC)以及泥質(zhì)含量(SH)五條曲線。B1、B2、B3三口鉆井位于B探區(qū),測井資料包括GR、DEN、CNL、AC以及SP(自然電位)五條曲線。
搭建的GRU網(wǎng)絡(luò)模型包含2層GRU層,神經(jīng)元個數(shù)分別為64和32;批量大小為60,即每次訓(xùn)練隨機抽取60組數(shù)據(jù)進行網(wǎng)絡(luò)訓(xùn)練;時間步長為50;學(xué)習(xí)率為0.006,學(xué)習(xí)率是網(wǎng)絡(luò)設(shè)置的關(guān)鍵超參數(shù),在最小化訓(xùn)練網(wǎng)絡(luò)的損失函數(shù)時,學(xué)習(xí)率縮放了權(quán)重更新的幅度。學(xué)習(xí)率太低,訓(xùn)練速度會很慢;學(xué)習(xí)率太高,可能在梯度下降過程中直接跳過最低點,使網(wǎng)絡(luò)訓(xùn)練發(fā)散。
2.2.1 實驗一
SH曲線不是原始的測井曲線,故只是把它作為假設(shè)缺失的待重構(gòu)目標(biāo)曲線進行重構(gòu),即對A探區(qū)A1井缺失的DEN和AC進行重構(gòu)時并未把SH曲線作為重構(gòu)的原始母曲線參與重構(gòu)。由于篇幅有限,文中僅對A探區(qū)A1井,B探區(qū)B1井的部分實驗結(jié)果進行展示分析。
假設(shè)A1井2665~2790m井段的DEN和AC測井?dāng)?shù)據(jù)、3000~3250m井段的GR和SH數(shù)據(jù)缺失,利用該井中數(shù)據(jù)完整的其他測井曲線估計缺失的測井?dāng)?shù)據(jù)(圖4)。假設(shè)B探區(qū)B1井1638~1888m井段的GR和CNL測井?dāng)?shù)據(jù)、1838~2088m井段的AC測井?dāng)?shù)據(jù)缺失,利用該井中數(shù)據(jù)完整的其他測井曲線估計缺失的測井?dāng)?shù)據(jù)(圖5)。A1、B1井測井曲線重構(gòu)RMSE分別見表1、表2。
圖4 A1井測井曲線重構(gòu)結(jié)果
圖5 B1井測井曲線重構(gòu)結(jié)果
表1 A1井測井曲線重構(gòu)RMSE
表2 B1井測井曲線重構(gòu)RMSE
2.2.2 實驗二
由于篇幅有限,文中僅以B2井的部分實驗結(jié)果為例進行分析。實驗假設(shè)B2井2090~2287m層段的所有測井曲線全部缺失,利用該井中未缺失的層段以及鄰井完整的測井曲線重構(gòu)缺失段的測井?dāng)?shù)據(jù)(圖6)。不同方法的曲線重構(gòu)RMSE見表3。
圖6 B2井缺失層段重構(gòu)結(jié)果
表3 B2井測井曲線重構(gòu)RMSE
2.2.3 實驗三
假設(shè)B1井中AC以及SP兩條測井曲線全部缺失,利用該井其他完整測井曲線以及鄰井測井曲線重構(gòu)缺失的測井曲線(圖7)。B1井測井曲線重構(gòu)RMSE見表4。
圖7 B1井缺失曲線重構(gòu)結(jié)果
表4 實驗三B1井測井曲線重構(gòu)RMSE
從圖4~圖7可以看出,采用GRU網(wǎng)絡(luò)和MLR模型進行測井曲線重構(gòu)都取得了好的效果,整體趨勢變化一致,基本能夠反映失真或缺失層段測井曲線的變化趨勢,在沒有突變層段的情況下重構(gòu)效果更好。但從圖中不難看出,GRU模型的整體重構(gòu)結(jié)果優(yōu)于MLR模型,特別是在測井?dāng)?shù)據(jù)發(fā)生突變的層段(如圖4中測深3005m附近的SH曲線,圖5中測深1680m附近的CNL、GR曲線以及測深2065m附近的AC曲線,圖6中測深2095m以及2274m附近的GR、DEN、CNL、AC以及SP曲線,圖7中測深1210m附近AC曲線,測深1380m、1690m以及2070m附近的AC以及SP曲線),待重構(gòu)的測井曲線在此附近階躍式增加,并沒有明顯的變化,使MLR模型未能成功估計出目標(biāo)測井曲線中的這一階躍變化,生成了具有較大偏差的測井曲線。而GRU網(wǎng)絡(luò)模型能夠綜合分析重構(gòu)點前的輸入數(shù)據(jù)對重構(gòu)點處輸入的影響,準(zhǔn)確地預(yù)測到了待重構(gòu)測井曲線的趨勢性變化,重構(gòu)效果明顯優(yōu)于MLR模型。
仔細(xì)觀察圖4~圖6不難發(fā)現(xiàn),由于GRU網(wǎng)絡(luò)的長時記憶功能,在重構(gòu)缺失層段測井?dāng)?shù)據(jù)的過程中,在重構(gòu)或預(yù)測的初始位置,GRU網(wǎng)絡(luò)的重構(gòu)結(jié)果遠(yuǎn)比MLR模型重構(gòu)結(jié)果準(zhǔn)確,如圖4中測深2665m處的DEN測井曲線、測深3000m處的SH測井曲線,圖5中測深1638m處的GR、CNL測井曲線、測深1838m附近的AC測井曲線,圖6中測深2090m附近層段的GR、DEN、CNL、AC以及SP測井曲線。這表明GRU神經(jīng)網(wǎng)絡(luò)的強記憶功能對于這種強非線性測井曲線數(shù)據(jù)具有較好的重構(gòu)能力。
由表1~表4也可以看出,GRU網(wǎng)絡(luò)和MLR模型在測井曲線重構(gòu)中均具有較小的均方根誤差,但前者明顯小于后者,其中A1井部分缺失層段的GR、SH、AC、DEN曲線重構(gòu)的均方根誤差分別下降了32.89%、16.63%、34.10%、23.70%,B1井部分缺失層段的GR、CNL、AC曲線重構(gòu)的均方根誤差分別下降了45.43%、51.56%、35.01%,B2井全部缺失層段的AC、SP、GR、DEN、CNL曲線的重構(gòu)均方根誤差分別下降了43.89%、41.11%、21.50%、35.71%、25.95%,B1井整體缺失的AC和SP曲線重構(gòu)的均方根誤差分別下降了29.18%、42.96%。這些數(shù)據(jù)表明,利用GRU網(wǎng)絡(luò)比MLR模型重構(gòu)結(jié)果的精度更高,穩(wěn)定性更強,與實測值的一致性更強。
MLR分析建立的是同一層段的輸入與輸出測井?dāng)?shù)據(jù)之間的非線性映射關(guān)系,以挖掘數(shù)據(jù)中未知的、潛在的信息,進而實現(xiàn)失真或缺失層段測井曲線估算的目的。由于MLR只考慮了測井曲線之間的非線性關(guān)系,而未考慮測井?dāng)?shù)據(jù)隨測深的變化而變化的特性,因此當(dāng)輸入的測井?dāng)?shù)據(jù)沒有整體的突變而輸出測井?dāng)?shù)據(jù)出現(xiàn)突變的情況下,基于MLR建立的模型重構(gòu)結(jié)果會出現(xiàn)較大的偏差。
GRU網(wǎng)絡(luò)模型屬于動態(tài)的深度學(xué)習(xí)模型,具有獨特的門結(jié)構(gòu)設(shè)計、狀態(tài)反饋和記憶功能,其內(nèi)部網(wǎng)絡(luò)節(jié)點的狀態(tài)演化對應(yīng)于測井?dāng)?shù)據(jù)隨深度變化的趨勢和前后關(guān)聯(lián)的動態(tài)變化特性。在GRU網(wǎng)絡(luò)結(jié)構(gòu)中,每個循環(huán)神經(jīng)單元內(nèi)都存在一個能夠重復(fù)使用該單元的自循環(huán)結(jié)構(gòu),這一結(jié)構(gòu)使先前的信息得以保留并可再次使用。這就使GRU網(wǎng)絡(luò)不但能充分利用測井曲線之間的非線性特性,還能學(xué)習(xí)到測井曲線隨測深變化的特性。測井曲線重構(gòu)結(jié)果不但基于當(dāng)前層段的數(shù)據(jù),還受淺層段數(shù)據(jù)的影響。GRU網(wǎng)絡(luò)能更有效地提取輸入數(shù)據(jù)中蘊含的事先未知的復(fù)雜信息。因此,利用GRU網(wǎng)絡(luò)模型進行測井曲線重構(gòu)具有比MLR更高的穩(wěn)定性和準(zhǔn)確度。
本文介紹了一種基于門控循環(huán)單元神經(jīng)網(wǎng)絡(luò)的測井曲線重構(gòu)方法。該方法從測井?dāng)?shù)據(jù)出發(fā)自動尋找測井曲線之間的強非線性關(guān)系,無需人工提取時序特征,避免了傳統(tǒng)經(jīng)驗公式和統(tǒng)計分析重構(gòu)的局限性。將其應(yīng)用于實際測井曲線重構(gòu),并與多元回歸分析方法對比。結(jié)果表明,本文方法對缺失段的測井曲線重構(gòu)具有較高的準(zhǔn)確性和魯棒性。在對一些缺少關(guān)鍵測井資料的老井進行復(fù)查時,該方法也可為其提供一定的技術(shù)支持。
盡管本文提出了基于門控循環(huán)單元神經(jīng)網(wǎng)絡(luò)的測井曲線重構(gòu)方法,且取得了一定的效果,但重構(gòu)的測井曲線不可能完全符合地層的真實情況,與真實曲線之間的亦存在一定的偏差。而且本文僅采用了單一的深度學(xué)習(xí)模型,尚未與其他深度學(xué)習(xí)模型結(jié)合應(yīng)用,因此模型改進以及多模型混合運用,以進一步提升模型重構(gòu)效果,有待后續(xù)深入研究。