中圖分類號:TP18 文獻(xiàn)標(biāo)志碼:A 文章編號:2095-2945(2025)13-0009-05
Abstract:WiththerapiddevelopmentofChina’seconomicconstruction,engineeringconstructionismovinginahigher, deperandbroaderdirection.Inordertoensurethesafetyof projectconstruction,itisnecessarytoidentifytheenginering geologicalconditionsofthesitebeforeprojectconstruction.Asanimportantpartofrockmassstructure,fractureshavean importantimpactonengineeringgeologicalconditions.Therefore,extractingthestructureofcracksisveryimportantfor engineeringconstruction.Traditionalcrack structureextractionmethodsaretime-consumingandlabor-intensive,andhavepoor operability;theacuracyofcrackextractionmethodsusingtraditionalcomputertechologycannotmeetengineeringneedsandare poorinpracticality;however,therearefewresearchonusingdeeplearningtechnologytoextractfractures.Bystudyingthedeep learningnetworkoftheencoder-decoderarchitecture,thispaperdeterminesthattheimagesegmentationmodeltrainedbythe \"U-Net++\"frameworknetworkandthe\"Resnet5O\"encoder-decodernetworkcanefectivelyextractthefisurestructureoffield outcrop photos.
Keywords: crack extraction; image segmentation; deep learning; crack structure; extraction method
隨著我國經(jīng)濟(jì)建設(shè)的高速發(fā)展,房屋建筑越來越高,地基基礎(chǔ)越來越深,穿山隧道越來越長,水利水電工程越來越龐大,相應(yīng)地,對于工程建設(shè)過程中的工程地質(zhì)條件要求也越來越高,對工程地質(zhì)信息的掌握也要越來越精確。其中,地質(zhì)構(gòu)造的判斷及描述、水文地質(zhì)條件滲透特性的確定、不良地質(zhì)現(xiàn)象的發(fā)生原因分析等都離不開巖體裂隙的提取及量化研究。裂隙作為巖體結(jié)構(gòu)的重要組成部分,具有不均勻性和非連續(xù)性,從而導(dǎo)致了巖體結(jié)構(gòu)的復(fù)雜性以及巖體物理力學(xué)性質(zhì)的各向異性[1]。
目前,深度學(xué)習(xí)技術(shù)被廣泛應(yīng)用于我們的生活中,如人臉識別、自然語言處理、醫(yī)療輔助等。由于深度學(xué)習(xí)在目標(biāo)檢測、圖像分割等方面所表現(xiàn)出來的強(qiáng)大能力,不同領(lǐng)域的研究人員均將其應(yīng)用于自己的研究中。2017年,Cha等將區(qū)域生長法與深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)合,實現(xiàn)了對混凝土裂隙的識別及提取。2019年,薛東杰等將基于全卷積網(wǎng)絡(luò)的裂隙識別結(jié)果與傳統(tǒng)方法識別結(jié)果進(jìn)行比較,證實了深度神經(jīng)網(wǎng)絡(luò)在裂隙識別及提取任務(wù)中的查準(zhǔn)率和查全率均優(yōu)于傳統(tǒng)算法。本文就是將深度學(xué)習(xí)技術(shù)應(yīng)用于野外露頭照片裂隙提取的探索研究。
本文旨在改進(jìn)傳統(tǒng)的裂隙圖片提取方法,通過深度學(xué)習(xí)技術(shù)實現(xiàn)從露頭圖片中快速準(zhǔn)確地提取裂隙的目的。本文研究的裂隙提取方法可為工程建設(shè)中快速識別提取并量化裂隙提供依據(jù),從而指導(dǎo)工程建設(shè)并保證施工質(zhì)量安全。本文研究的裂隙不局限于單一類型,因此對以后單一工況的研究,本文可提供一定的技術(shù)支持。
1 網(wǎng)絡(luò)簡介
本文采用的圖像分割模型是基于編碼器 + 解碼器的體系結(jié)構(gòu),因此在進(jìn)行模型選擇時,要同時考慮模型框架網(wǎng)絡(luò)及編碼器解碼器網(wǎng)絡(luò)。本文選用的框架網(wǎng)絡(luò)主要為 U - N e t , U - N e t + + Ω , FPN及LinkNet。
U-Net網(wǎng)絡(luò)是由Ronneberger等4于2015年提出的,最初該網(wǎng)絡(luò)的提出主要是為了解決生物醫(yī)學(xué)問題。由于在生物醫(yī)學(xué)方面的應(yīng)用效果非常好,U-Net網(wǎng)絡(luò)也逐漸被用在其他領(lǐng)域的圖像分割任務(wù)中。
U - N e t + + 網(wǎng)絡(luò)是由Zhou等于2018年提出的。從網(wǎng)絡(luò)名稱就可知道該網(wǎng)絡(luò)是在U-Net網(wǎng)絡(luò)的基礎(chǔ)上進(jìn)行改進(jìn)獲得的。
FPN網(wǎng)絡(luò)是由Lin等于2017年提出的。該網(wǎng)絡(luò)通過融合從較淺層網(wǎng)絡(luò)和較深層網(wǎng)絡(luò)獲得的特征圖,以實現(xiàn)目標(biāo)特征和位置的精確表達(dá),從而獲得更加精確的預(yù)測效果。
LinkNet網(wǎng)絡(luò)是由Chaurasia等于2017年提出的。該網(wǎng)絡(luò)通過將每一個編碼器連接到對應(yīng)的解碼器輸出上,提高了模型的精度。又通過讓解碼器與編碼器共享一套參數(shù),提高了模型的計算速度。
以上模型框架均是采用編碼器 + 解碼器的網(wǎng)絡(luò)結(jié)構(gòu),本文采用的編碼器網(wǎng)絡(luò)與解碼器網(wǎng)絡(luò)相同,主要有Resnet18Resnet34Resnet50、Resnet101及Resnet152。
Resnet網(wǎng)絡(luò),即殘差網(wǎng)絡(luò),是由微軟團(tuán)隊的He等8于2015年提出來的。該網(wǎng)絡(luò)在當(dāng)年的ILSVRC圖像識別競賽中獲得冠軍,大大降低了模型的錯誤率。除了較高的圖像識別準(zhǔn)確率之外,該網(wǎng)絡(luò)還具有參數(shù)量較少、計算速度較快及圖像特征信息完整的特點。因此,其在圖像識別方面的性能優(yōu)越,其識別準(zhǔn)確率甚至可以超越人類。
2 模型評價指標(biāo)
為了比較不同模型在圖像分割任務(wù)中的優(yōu)劣,需要對模型的分割效果進(jìn)行評價。常用的評價指標(biāo)有Fscore、交并比(IoU)準(zhǔn)確率(Accuracy)召回率(Re-call)及精確率(Precision)。為了計算這些指標(biāo),需要對圖像中每個像素進(jìn)行分類,然后統(tǒng)計相同類別的像素個數(shù)。根據(jù)每個像素所屬類別及是否被正確預(yù)測,可將圖片像素分為如下4類: ① TP(TruePositive),所屬類別為裂隙,并且被模型正確預(yù)測出來的像素數(shù)量。② TN(Truenegative),所屬類別為非裂隙,并且被模型正確預(yù)測出來的像素數(shù)量。 ③ FP(FalsePositive),所屬類別為非裂隙,但被模型預(yù)測為裂隙的像素數(shù)量。④ FN(Falsenegative),所屬類別為裂隙,但被模型預(yù)測為非裂隙的像素數(shù)量。
IoU表示裂隙部分的真實像素集合與預(yù)測像素集合的重合度。即被模型正確預(yù)測的裂隙像素占所有真實裂隙像素及預(yù)測裂隙像素并集的比例。計算公式如下
Accuracy表示模型對圖片中所有像素進(jìn)行正確分類的比例,即所有被正確預(yù)測為裂隙的像素數(shù)量與圖片中總像素數(shù)量之比。計算公式如下
Recall表示圖片中裂隙部分像素被正確識別出來的比例。即所有被正確預(yù)測的裂隙部分像素數(shù)量與所有真實裂隙像素數(shù)量的比值。計算公式如下
Precision表示預(yù)測正確的裂隙像素所占的比例,即所有被正確預(yù)測的裂隙部分像素數(shù)量與所有被預(yù)測為裂隙的像素數(shù)量之比。計算公式如下
Fscore是一個綜合評價指標(biāo),其是Precision和Recall的調(diào)和平均。計算公式如下
Precision和Recall是一對矛盾的指標(biāo),當(dāng)Preci-sion較高時,Recall就較低;當(dāng)Recall較高時,Precision就較低。因此將其中任何一個單獨作為模型的評價指標(biāo)都不合適。Accuracy指標(biāo)在很大程度上受到背景像素的影響,尤其是當(dāng)背景像素量大于裂隙部分像素量時,其不能很好地表示裂隙識別的準(zhǔn)確程度。IoU和Fscore能夠比較綜合地考慮到裂隙查準(zhǔn)率和查全率的影響,并且忽略背景像素數(shù)量的影響。因此,本文在進(jìn)行模型評價時將使用IoU和Flcore2個指標(biāo)。
3裂隙結(jié)構(gòu)提取的圖像分割模型訓(xùn)練及驗證3.1基于框架網(wǎng)絡(luò)選擇的圖像分割模型
3.1.1 參數(shù)設(shè)置及模型訓(xùn)練
首先進(jìn)行基于不同框架網(wǎng)絡(luò)的圖像分割模型訓(xùn)練。在進(jìn)行訓(xùn)練之前,設(shè)置模型框架網(wǎng)絡(luò)分別為“U-Net\"\"U- ? N e t+ + \"\"FPN\"和“LinkNet”,編碼器解碼器網(wǎng)絡(luò)為“Resnet50”,激活函數(shù)為“sigmoid”,學(xué)習(xí)率為 1 × ,訓(xùn)練的batch大小為3,Epoch為40。每訓(xùn)練15Epochs,就更新一次學(xué)習(xí)率,即將學(xué)習(xí)率減小為原來的十分之一。通過訓(xùn)練可獲得基于不同框架網(wǎng)絡(luò)的圖像分割模型。
3.1.2 結(jié)果分析
通過訓(xùn)練,獲得了基于“U-Net\"“U-Net++\"“FPN\"和\"LinkNet\"框架網(wǎng)絡(luò)構(gòu)建的圖像分割模型。4種圖像分割模型的評價指標(biāo)見表1。
由表1可知,這4種框架網(wǎng)絡(luò)構(gòu)建的圖像分割模型的IoU均達(dá)到了0.98以上,F(xiàn)score均達(dá)到了0.99以上,說明這4種框架網(wǎng)絡(luò)構(gòu)建的圖像分割模型均能較好地處理裂隙結(jié)構(gòu)提取的任務(wù)。通過比較4種模型的參數(shù)可得,由“ ”框架網(wǎng)絡(luò)構(gòu)建的圖像分割模型的IoU值及Fscore值均達(dá)到最高,說明在這4種框架網(wǎng)絡(luò)中,由“ J - N e t + + ”框架網(wǎng)絡(luò)構(gòu)建的圖像分割模型在處理裂隙結(jié)構(gòu)提取任務(wù)中的效果最好,因此本文選用“
網(wǎng)絡(luò)作為圖像分割模型的框架網(wǎng)絡(luò)。
3.2基于編碼器解碼器網(wǎng)絡(luò)選擇的圖像分割模型
3.2.1 參數(shù)設(shè)置及模型訓(xùn)練
接下來進(jìn)行基于不同編碼器解碼器網(wǎng)絡(luò)的圖像分割模型訓(xùn)練。在進(jìn)行訓(xùn)練之前,設(shè)置編碼器解碼器網(wǎng)絡(luò)分別為“Resnet18\"\"Resnet34\"\"Resnet5O\"\"Resnet101”和\"Resnet152\",模型框架網(wǎng)絡(luò)為\"U- ,激活函數(shù)為\"sigmoid\",學(xué)習(xí)率為
,訓(xùn)練的batch大小為3,Epoch為40。每訓(xùn)練15Epochs,就更新一次學(xué)習(xí)率,即將學(xué)習(xí)率減小為原來的十分之一。通過訓(xùn)練可獲得基于不同編碼器解碼器網(wǎng)絡(luò)的圖像分割模型。
3.2.2 結(jié)果分析
通過訓(xùn)練及驗證,獲得了基于“Resnet18”\"Resnet34\"\"Resnet50\"\"Resnetl01\"及\"Resnet152\"網(wǎng)絡(luò)構(gòu)建的圖像分割模型。4種圖像分割模型的評價指標(biāo)見表2。
由表2可知,5種不同網(wǎng)絡(luò)所構(gòu)建的圖像分割模型的IoU值均大于0.98,F(xiàn)score值均大于0.99,說明5種模型的裂隙提取效果均較好。隨著網(wǎng)絡(luò)層次的加深,模型的IoU值及Fscore值呈現(xiàn)先增大后減小的趨勢,并且在編碼器解碼器網(wǎng)絡(luò)為“Resnet50\"時達(dá)到最大。這說明在裂隙結(jié)構(gòu)提取任務(wù)中,并不是網(wǎng)絡(luò)的層次越深提取效果越好。
綜上所述,本文選用\"U- ? ? N e t + + \"網(wǎng)絡(luò)作為圖像分割模型的框架網(wǎng)絡(luò),選用“Resnet50”網(wǎng)絡(luò)作為圖像分割模型的編碼器解碼器網(wǎng)絡(luò),從而獲得了裂隙結(jié)構(gòu)提取的圖像分割模型。
4基于裂隙結(jié)構(gòu)提取的圖像分割模型預(yù)測結(jié)果分析
前面通過訓(xùn)練獲得了基于不同框架網(wǎng)絡(luò)及編碼器解碼器網(wǎng)絡(luò)的圖像分割模型,也根據(jù)模型評價指標(biāo)確定了分別選用\"U- ”及“Resnet50”作為框架網(wǎng)絡(luò)及編碼器解碼器網(wǎng)絡(luò)時訓(xùn)練獲得的模型精度最高。本節(jié)將通過不同圖像分割模型的預(yù)測結(jié)果比較,進(jìn)一步驗證以上結(jié)論。
4.1基于框架網(wǎng)絡(luò)選擇的圖像分割模型預(yù)測結(jié)果
對同一張裂隙圖片,分別利用基于不同框架網(wǎng)絡(luò)的圖像分割模型進(jìn)行裂隙的結(jié)構(gòu)提取,各模型的提取結(jié)果如圖1所示。
本文對模型預(yù)測結(jié)果的31處進(jìn)行了對比分析,通過統(tǒng)計可得,基于“U-Net\"框架網(wǎng)絡(luò)的圖像分割模型預(yù)測成功的區(qū)域有12處,預(yù)測錯誤的區(qū)域有19處;基于“U- ? N e t+ + ”框架網(wǎng)絡(luò)的圖像分割模型預(yù)測成功的區(qū)域有23處,預(yù)測錯誤的區(qū)域有8處;基于“FPN”框架網(wǎng)絡(luò)的圖像分割模型預(yù)測成功的區(qū)域有17處,預(yù)測錯誤的區(qū)域有14處;基于“LinkNet\"框架網(wǎng)絡(luò)的圖像分割模型預(yù)測成功的區(qū)域有9處,預(yù)測錯誤的區(qū)域有22處。
從以上統(tǒng)計結(jié)果可知,基于“U- ? N e t+ + ”框架網(wǎng)絡(luò)的圖像分割模型的精度最高,基于“FPN\"框架網(wǎng)絡(luò)的圖像分割模型次之,而基于“LinkNet\"框架網(wǎng)絡(luò)的圖像分割模型的精度最低,這與模型的評價指標(biāo)結(jié)果一致。對各模型預(yù)測結(jié)果進(jìn)行局部放大展示,如圖2所示。
通過對預(yù)測結(jié)果進(jìn)行對比可知,在圓圈內(nèi),基于# ”框架網(wǎng)絡(luò)的圖像分割模型預(yù)測結(jié)果與真值圖最接近,其次是基于“FPN\"框架網(wǎng)絡(luò)的圖像分割模型預(yù)測結(jié)果,而基于“U-Net\"及“LinkNet\"框架網(wǎng)絡(luò)的圖像分割模型均未將該部分裂隙提取出來。
以上預(yù)測結(jié)果與模型的評價結(jié)果一致,從而進(jìn)一步說明應(yīng)選用“U- ?? N e t+ + “網(wǎng)絡(luò)作為圖像分割模型的框架網(wǎng)絡(luò)。
4.2基于編碼器解碼器網(wǎng)絡(luò)選擇的圖像分割模型預(yù)測結(jié)果
對同一張裂隙圖片,分別利用基于不同編碼器解碼器網(wǎng)絡(luò)的圖像分割模型進(jìn)行裂隙的結(jié)構(gòu)提取,各模型的提取結(jié)果如圖3所示。
本文對模型預(yù)測結(jié)果的26處進(jìn)行了對比分析,通過統(tǒng)計可得,基于“Resnet18”編碼器解碼器網(wǎng)絡(luò)的圖像分割模型預(yù)測成功的區(qū)域有9處,預(yù)測錯誤的區(qū)域有17處;基于“Resnet34”編碼器解碼器網(wǎng)絡(luò)的圖像分割模型預(yù)測成功的區(qū)域有12處,預(yù)測錯誤的區(qū)域有14處;基于“Resnet50\"編碼器解碼器網(wǎng)絡(luò)的圖像分割模型預(yù)測成功的區(qū)域有17處,預(yù)測錯誤的區(qū)域有9處;基于“Resnet101\"編碼器解碼器網(wǎng)絡(luò)的圖像分割模型預(yù)測成功的區(qū)域有15處,預(yù)測錯誤的區(qū)域有11處;基于“Resnet152\"編碼器解碼器網(wǎng)絡(luò)的圖像分割模型預(yù)測成功的區(qū)域有13處,預(yù)測錯誤的區(qū)域有13處。
從以上統(tǒng)計結(jié)果可知,基于“Resnet50\"編碼器解碼器網(wǎng)絡(luò)的圖像分割模型的精度最高,基于“Resnet18\"編碼器解碼器網(wǎng)絡(luò)的圖像分割模型的精度最低,這與模型的評價指標(biāo)比較結(jié)果一樣。
對各模型預(yù)測結(jié)果進(jìn)行局部放大展示,如圖4所示。通過對預(yù)測結(jié)果進(jìn)行對比可知,在圓圈內(nèi),基于“Resnet50\"編碼器解碼器網(wǎng)絡(luò)的圖像分割模型將該條裂隙比較完整地提取出來了,基于“Resnet101”和“Resnet152”編碼器解碼器網(wǎng)絡(luò)的圖像分割模型只提取了裂隙的一部分,而基于“Resnet18\"和“Resnet34”編碼器解碼器網(wǎng)絡(luò)的圖像分割模型未將該裂隙提取出來。
以上預(yù)測結(jié)果與模型的評價結(jié)果一致,從而進(jìn)一步說明應(yīng)選用“Resnet50\"網(wǎng)絡(luò)作為圖像分割模型的編碼器解碼器網(wǎng)絡(luò)。
5 結(jié)論
本文首先對圖像分割、所用神經(jīng)網(wǎng)絡(luò)及模型評價指標(biāo)進(jìn)行了介紹。然后,通過對模型評價指標(biāo)的對比,確定了“U- - N e t+ + ”網(wǎng)絡(luò)作為圖像分割模型的框架網(wǎng)絡(luò),“Resnet50”網(wǎng)絡(luò)作為圖像分割模型的編碼器解碼器網(wǎng)絡(luò)。最后,通過模型預(yù)測結(jié)果的對比,分別從預(yù)測錯誤統(tǒng)計數(shù)量及局部預(yù)測結(jié)果分析兩方面進(jìn)一步驗證了以上的結(jié)論。
參考文獻(xiàn):
[1]何滿潮.工程地質(zhì)力學(xué)的挑戰(zhàn)與未來[J].工程地質(zhì)學(xué)報, 2014,22(4):543-556.
[2] CHA Y J,CHOI W,ORAL B,et al.Deep learningbased crack damage detection using convolutional neural networks[J].ComputerAidedCivilamp;Infrastructure Engineering,2017,32(5):18.
[3]薛東杰,唐麒淳,王傲,等.基于FCN的巖石混凝土裂隙幾何 智能識別[J].巖石力學(xué)與工程學(xué)報,2019,38(S2):3393-3403.
[4]RONNEBERGER O,F(xiàn)ISCHER P,BROX T. U-Net: Convolutional networks for biomedecial image segmentation [J].International Conference on Medical Image Computing and Computer-Assisted Intervention,2015.
[5]ZHOU Z, SIDDIQUEE M, TAJBAKHSH N, etal. U N e t+ + :Anested U-Net architecture for medical image segmentation [J]. 4th Deep Learning in Medical Image Analysis(DLMIA)Workshop,2018.
[6] LIN TY,DOLLAR P,GIRSHICK R,et al.Feature pyramid networks for object detection[J].2O17IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2017.
[7] CHAURASIA A, CULURCIELLO E. LinkNet: Exploiting encoder representations for efficient semantic segmentation[C] //2017 IEEE Visual Communications and Image Processing (VCIP).IEEE,2017.
[8] HE K,ZHANG X,REN S,et al. Deep Residual Learning forImage Recognition[J]. IEEE,2016.