洪 犇,錢旭升,申明磊,胡冀蘇,耿 辰,戴亞康,周志勇
(1.南京理工大學 電子工程與光電技術學院,南京 210094;2.中國科學院 蘇州生物醫(yī)學工程技術研究所,江蘇 蘇州 215163)
人工智能技術已經成功應用到許多醫(yī)學領域中,如手術計劃導航、輔助診斷、圖像引導的消融等。作為醫(yī)學圖像分析中最基本的兩項任務,圖像配準和圖像分割對于輔助解決醫(yī)學領域的各種問題具有重要意義[1-2]。
圖像配準的目的是得到兩幅圖像之間的逐像素轉換參數(shù),利用這組轉換參數(shù)使兩幅圖像在解剖結構上保持一致[3]。不同于單模態(tài)配準,多模態(tài)配準在不同模態(tài)圖像的灰度和紋理上差異較大[4],以往基于灰度的測度方式無法有效匹配多模態(tài)圖像之間的特征[5]?;谏蓪咕W絡(Generative Adversarial Network,GAN)的方法將圖像從一種模態(tài)轉換到另一種模態(tài),從而將多模態(tài)配準轉換成更為簡單的單模態(tài)配準[6]。文獻[7]進一步擴展了該工作,同時實現(xiàn)單模態(tài)和多模態(tài)的配準。生成對抗網絡的方法往往難以訓練,且不可避免地帶來一些人工特征的干擾[8]。通過構造特征描述符,文獻[9]基于鄰域描述子(Modality Independence Neighborhood Descriptor,MIND)設計損失函數(shù),以人工構造特征對配準進行監(jiān)督。然而,無監(jiān)督學習的方法缺少解剖學的語義信息,難以達到更加準確的配準效果[10-11]。弱監(jiān)督學習的配準方法使用組織分割標簽描述不同模態(tài)圖像之間相同的器官邊界或病灶區(qū)域,引導配準網絡從分割標簽推斷解剖結構對應關系,從而實現(xiàn)多模態(tài)配準。例如,文獻[12]利用分割標簽作為弱監(jiān)督信息,在MR-TRUS 圖像對上實現(xiàn)了多模態(tài)配準。為了解決分割標簽覆蓋面積不足的問題。文獻[13]在配準的同時對圖像和分割標簽進行形變操作,形成全局和局部相結合的配準網絡。
醫(yī)學圖像分割的目的是得到感興趣區(qū)域的分割標簽[14],并提取出邊界信息進一步執(zhí)行圖像分析與計算機輔助診斷等任務。2015 年,文獻[15]提出了U-Net 分割網絡,利用U 型結構和跳躍連接融合了不同層次的信息,在圖像分割領域得到了廣泛的應用。通過設計不同深度的嵌套子網絡,UNet++[16]的提出解決了U-Net 網絡深度設計的問題,并通過深監(jiān)督機制大幅縮減了參數(shù)量,使得網絡分割精度進一步提升。文獻[17]將U-Net 中傳統(tǒng)卷積替換為內卷操作,進一步提升了局部特征學習能力。然而,上述方法都依賴于真實標注的組織分割標簽,并且容易受到不同標注者的主觀影響。針對這一問題,文獻[18]利用兩個協(xié)同模型組成協(xié)同訓練框架,分別預測未標記數(shù)據(jù)的偽標簽來互相指導,通過互補性避免了單個模型無法保證偽標簽質量的問題。
配準和分割網絡在各自的領域已經達到了一定的效果,然而它們卻被視為相互獨立的任務。但是,分割和配準任務存在一定的關聯(lián)性,即配準和分割都可以通過分割標簽的輔助解剖信息來提高任務的精度[19]。具體地說,分割可以通過將帶有分割標簽的圖像配準到待分割圖像上以得到對應的分割標簽[20],配準可以通過將輔助分割標簽信息加入損失函數(shù)[21]實現(xiàn)多模態(tài)配準。因此,通過分割和配準網絡的聯(lián)合優(yōu)化,可以進一步提升兩者的精度[22-24]。文獻[25]利用硬參數(shù)共享的方式提出聯(lián)合配準分割網絡U-ReSNet,通過最小化均方誤差和局部互相關來同時約束配準和分割網絡。文獻[26]利用軟參數(shù)共享的方法,提出一種“十字繡”網絡結構,同時在編碼和解碼階段共享配準和分割網絡參數(shù),實現(xiàn)更好的泛化性能。以上多任務學習的方法雖然很好地將配準與分割相結合,但是需要對網絡結構進行大量修改,難以適應最新的配準和分割算法。為此,一些無須改動網絡結構的聯(lián)合配準分割框架被提出。文獻[27]提出一種聯(lián)合配準分割網絡框架DeepAtlas,為缺少標簽時分割和配準的聯(lián)合訓練提供了一個通用的解決方案,該方案將已知的概率圖譜通過逆形變場進行形變,并將得到先驗的已形變概率圖譜作為分割的真實標簽。文獻[28]實現(xiàn)了無監(jiān)督聯(lián)合配準分割模型U-RSNet。文獻[29]提出了聯(lián)合學習框架RsegNet,通過正逆形變場的雙一致性監(jiān)督實現(xiàn)解剖一致性,并在4 個公共數(shù)據(jù)集上進行驗證,效果均優(yōu)于單獨訓練的網絡。然而,目前的各種聯(lián)合配準分割方法大都局限于單模態(tài)數(shù)據(jù)。由于分割網絡難以適應不同模態(tài)的圖像,因此無法同時得到不同模態(tài)的圖像分割標簽,導致聯(lián)合配準分割方法難以應用到多模態(tài)數(shù)據(jù)中。此外,聯(lián)合配準分割網絡大都需要大量的分割標簽來保證訓練的進行,如果缺少標簽則難以完成聯(lián)合過程[27]。
本文提出一種基于深度學習的聯(lián)合配準分割算法,并構建基于多尺度鄰域描述符和一致性監(jiān)督的聯(lián)合配準分割網絡(Multi-scale neighborhood descriptor and Consistency supervision based joint Registration and Segmentation Network,MC-RSNet)框架,該框架包含兩個分割網絡和一個多模態(tài)配準網絡,通過配準-分割迭代優(yōu)化的方式同時實現(xiàn)兩項任務,利用模態(tài)一致性監(jiān)督通過配準產生的形變場使兩個獨立的分割網絡互為監(jiān)督,進而提升多模態(tài)圖像分割的精度,并在此基礎上設計一種多尺度模態(tài)獨立鄰域描述符,通過構建多個尺度的鄰域范圍擴充描述符的上下文信息,為多模態(tài)圖像配準提供更準確的不同模態(tài)之間的特征對應關系,以提高配準精度。
有些學生為了達到美化的目的,在繪圖手段上花費的時間過多;也有的為了“可視化”而“可視化”,置換了一些更好的教學方法,得不償失。所以,教師要注意,教無定法,在中考復習中“思維可視化”只是一種策略、一種手段,不是替代當前的教學方法,而是與之相適應、相配合。只有讓“思維可視化”與“中考復習”和諧地融為一體,促進學生對科學本質的理解,才能使凝固的課堂重新煥發(fā)出生命的活力,才能在這場沒有硝煙的中考復習戰(zhàn)中獲勝。
定義Im和If分別表示浮動圖像(MR)和固定圖像(CT),Lm,seg和Lf,seg分別表示MR 圖像的分割標簽和CT 圖像的分割標簽,在所有M對CT-MR 圖像對中提供了N(N 多模態(tài)配準的目的是找到一組最優(yōu)的空間變換參數(shù)?(形變場),使得不同模態(tài)的圖像在解剖結構上對齊;分割的目的是在圖像中分離出器官等感興趣區(qū)域。對于上述兩項任務,通過最小化相似性度量來訓練網絡,以學習最優(yōu)網絡參數(shù),從而得到最優(yōu)網絡模型。根據(jù)本文中損失函數(shù)的具體設計,將圖像配準和分割的過程表示如下: 其中:EmsMIND是基于多尺度模態(tài)獨立鄰域描述符構造的圖像相似性測度,用于計算圖像結構相似度;Econsistency用于約束分割標簽圖像中的圖像輪廓對齊程度;Esmooth表示對形變場不平滑的懲罰;°表示由配準形變場?對浮動圖像Im進行空間變換。 出口邊界:割草機出口設置為pressure-outlet,壓力邊界值p=1.3×105 Pa,即表壓設為0 Pa,湍流強度為5%,水力直徑為500 mm。 為了能夠得到最佳的配準效果,構建基于多尺度配準算法Ms-RNet[4]的配準子網絡,如圖3 所示。在編碼階段,配準子網絡利用卷積來提取原始輸入圖像的特征。每個卷積中的核大小和步長分別被設置為3×3×3 和1×1×1,隨后使用LReLU 激活函數(shù)增加非線性特征。卷積核的初始數(shù)量被設置為16,隨著每次最大池化不斷倍增最終達到64 個。在解碼器階段,通過上采樣恢復原始圖像的大小,同時通過跳躍連接與空間注意力結構恢復編解碼過程中特征圖丟失的細節(jié)。 聯(lián)合配準分割網絡框架如圖1 所示,該框架包括分割子網絡和配準子網絡兩個分支。在整體上,以M對浮動圖像Im和固定圖像If及N對真實分割標簽Lm,gt和Lf,gt作為輸入(N 1.3.4 對照品溶液制備 精密稱取橙皮苷3.75 mg,置25 mL量瓶中,加甲醇溶解并稀釋至刻度,即得橙皮苷對照品儲備液,濃度為 0.15 mg/mL。 圖1 基于配準與分割的聯(lián)合優(yōu)化網絡框架Fig.1 Joint optimization network framework based on registration and segmentation 具體而言,在進行聯(lián)合訓練之前,首先利用配準子網絡在無監(jiān)督情況下[4]進行預訓練,然后利用分割子網絡在含有N對分割標簽的M對數(shù)據(jù)上進行預訓練,得到預訓練模型之后進入聯(lián)合訓練階段。在聯(lián)合訓練過程中先后執(zhí)行配準、分割,交替訓練兩種網絡中的一種,同時保持另一種固定,形成完整的訓練過程。在該過程中,分割為配準提供標簽輔助配準,配準為分割提供形變場實現(xiàn)模態(tài)間一致性約束。利用兩者互補的特性,在循環(huán)交替的過程中傳遞互補的約束,實現(xiàn)互相提高,交替過程如圖2 所示。需要注意的是,只在第一輪訓練時使用了預訓練模型,此后交替訓練使用的網絡均為上一步訓練優(yōu)化的結果。具體訓練步驟如下: 圖2 配準與分割的交替訓練過程Fig.2 Alternating training process of registration and segmentation 步驟1利用配準子網絡單獨對所有M對CTMR 圖像進行預訓練;利用分割子網絡對N對含有分割標簽的CT-MR 圖像進行預訓練。將預訓練網絡作為聯(lián)合框架中的初始網絡。 其中:P表示預測標簽;G表示真實標簽(groundtruth)。 福建省在國家防辦制定的實施方案編制大綱基礎上,制定了福建省建設實施方案編制大綱,監(jiān)測預警系統(tǒng)建設技術要求,防御宣傳手冊、宣傳欄、警示牌樣式和防御預案編制要求和范本等。這些技術標準明確了“構建監(jiān)測預警網絡和群測群防的防御體系,完善‘預警到鄉(xiāng)、預案到村、責任到人’工作機制,實現(xiàn)有效防御山洪災害,保障人民群眾生命安全,最大限度減輕山洪災害損失”的建設目標;規(guī)范了建設任務、建設內容和概算編制要求等;體現(xiàn)了具有福建特色的項目總體要求和技術方案,為各地編制實施方案奠定了良好基礎。 步驟3將所有M對CT-MR 圖像輸入到聯(lián)合框架的分割部分,在有無真實標簽的兩種情況下分別使用Edice和Econsistency約束分割標簽。 步驟4交替運行步驟2 和步驟3,直到網絡趨于穩(wěn)定得到最終的配準和分割模型。 由于配準與分割子網絡在未經訓練時網絡參數(shù)隨機初始化,得到的配準和分割結果可能效果并不理想。直接使用配準和分割子網絡進行聯(lián)合優(yōu)化,可能并不會朝著正確的方向進行優(yōu)化[29],由于互相的約束作用反而會使結果逐漸惡化,因此選擇預訓練配準與分割子網絡為兩者提供較好的初始參數(shù),保證聯(lián)合訓練時不會出現(xiàn)惡化的情況,使聯(lián)合訓練過程只需要在預訓練的基礎上進一步微調優(yōu)化即可[29]。此外,在全部M對CT-MR 圖像中僅有N對圖像包含真實標簽(N 值得注意的是,本文方法采用了聯(lián)合訓練的方式而非多任務學習,這是因為多任務學習需要更改配準和分割網絡結構,對于任意新的配準和分割網絡來說都需要重新設計網絡。采用聯(lián)合訓練的方式同時實現(xiàn)配準和分割,無須對子網絡結構進行改動,對于任意新的深度學習配準分割網絡可以直接組合。在聯(lián)合訓練框架中,對于配準和分割的要求是輸入兩種模態(tài)的圖像,分別輸出兩種模態(tài)圖像之間的形變場和兩種模態(tài)圖像的分割標簽。配準與分割的聯(lián)合交替優(yōu)化主要通過形變場和分割標簽來完成,如圖2 所示。本文提出的框架是一種即插即用[30]的網絡框架,對于任意多模態(tài)配準網絡和分割網絡,在滿足輸出形變場和分割標簽的情況下均可進行組合應用到聯(lián)合框架中。通過即插即用的方式組合現(xiàn)有的配準和分割網絡,可以直接在現(xiàn)有模型的基礎上專注于特定任務進行優(yōu)化,在決策級別進行聯(lián)合避免了特征級別聯(lián)合需要更改網絡結構的操作,保證配準和分割互相作用,在提升效果的同時大幅減輕了工作量。 為了解決目前聯(lián)合配準分割算法難以應用于多模態(tài)數(shù)據(jù)的問題,本文提出一種基于多尺度鄰域描述符和模態(tài)一致性監(jiān)督的聯(lián)合配準分割框架(MCRSNet),通過模態(tài)一致性監(jiān)督將兩個分割網絡和一個多模態(tài)配準網絡聯(lián)合起來,兩個分割網絡串行運行,分割和配準并行運行,實現(xiàn)配準和分割的同時提升。 以掘進機截割臂升降角度為例,驗證建立的基于油缸行程傳感器的截割頭姿態(tài)角檢測模型。試驗中,截割臂從0°到最大角度23°,將掘進機平臺參數(shù)L0=388 mm,L1=202 mm,L2=470 mm,θ=54.18°和油缸行程傳感器相對截割臂為0°時伸長量代入式(2),得出的截割臂升降角度為測試值,以安裝在截割臂上的精度為0.01°的兩軸傾角傳感器SCA120T檢測的截割臂角度為理論參考值,結果見表2。 圖3 配準子網絡結構Fig.3 Structure of registration subnetwork 1.2.2 基于多尺度鄰域描述符的損失函數(shù) 圖4 分割子網絡結構Fig.4 Structure of segmentation subnetwork 本文提出一種應用于聯(lián)合配準分割框架MCRSNet 的損失函數(shù),其中,CT-MR 有標簽和CT-MR無標簽情況下的損失函數(shù)如式(3)和式(4)所示: 其中:Ereg表示配準損失部分;Eseg表示分割損失部分;EmsMIND用于約束配準的局部結構;Edice用于在有標簽的情況下約束配準和分割的全局輪廓邊界;Esmooth用于使配準形變場平滑;Econsistency用于在無標簽的情況下提供監(jiān)督信息同時約束兩種模態(tài)分割標簽之間的模態(tài)間一致性;If和Im分別表示固定圖像和浮動圖像;Lf,segandLm,seg分別表示固定圖像和浮動圖像的分割結果;Lm,gt和Lf,gt分別表示固定圖像和浮動圖像的ground-truth;?表示形變場;°表示非線性變換。經過多次實驗驗證,最終α、β、λ分別為20、2.0、0.5。 1.2.1 模態(tài)一致性監(jiān)督損失函數(shù) 為了進一步提升配準效果,本文設計一種多尺度模態(tài)獨立鄰域描述符(multi-scale Modality Independence Neighborhood Descriptor,msMIND),并基于msMIND 設計結構損失函數(shù),提升配準的結構準確性。 在真實標簽存在的情況下,配準和分割所需標簽由已標注的真實標簽提供。當標簽不存在時,通過模態(tài)一致性監(jiān)督損失來為配準和分割繼續(xù)提供監(jiān)督信息。本文利用配準產生的形變場對MR 圖像的分割標簽進行形變并將形變后的標簽與CT 圖像的分割標簽進行結構匹配,從而在無標簽時也能夠提供監(jiān)督信息。模態(tài)一致性監(jiān)督損失Econsistency定義如下: 其中:Sm(y)和Sf(y)表示體素y處的浮動和固定的分割標簽;?代表形變場;°代表非線性變換。 配準網絡產生的形變場?提供了從浮動圖像到固定圖像的逐體素位移分量。對于配準網絡來說,浮動圖像的分割標簽經過形變場形變后應該具有與固定圖像分割標簽相同的解剖結構,即Lm,seg°?≈Lf,seg。此時,分割網絡固定,利用分割標簽對配準進行監(jiān)督進一步提高了配準在標簽覆蓋區(qū)域的精度。對于分割網絡來說,它產生的分割結果Lf,seg和Lm,seg提供了圖像上感興趣區(qū)域的體素分布,同樣也會存在Lm,seg??≈Lf,seg,此時配準網絡固定,兩個模態(tài)的分割網絡互為監(jiān)督,使得兩個分割網絡的分割標簽具有模態(tài)間一致性。本文通過優(yōu)化一致性損失Econsistency在缺少標簽的情況下實現(xiàn)對配準和分割的約束。也就是說,這種約束可以幫助配準算法找到準確的標簽對應關系,幫助分割算法補充缺失的監(jiān)督信息,使分割結果具有模態(tài)間一致性。 本文利用模態(tài)一致性監(jiān)督Econsistency建立了不同模態(tài)分割與配準之間的聯(lián)系,并為聯(lián)合訓練過程中的兩個任務參數(shù)的更新提供了指導,將模態(tài)一致性監(jiān)督集成到損失函數(shù)中,從而形成了基于模態(tài)一致性監(jiān)督的損失函數(shù)。 為了盡可能保證精度,構建基于空間通道雙注意力模 塊scSE-block[31]的分割網絡nnU-Net[32]作 為本文的分割子網絡,稱為scSE-nnU-Net,如圖4 所示。在下采樣過程中使用跨步卷積與最大池化來進行特征提取,并使用轉置卷積與scSE-block 執(zhí)行上采樣操作,通過在空間和通道兩方面抑制不重要信息,進行有效特征的提取。輸入圖像尺寸為128×128×96像素,批大小為2。共執(zhí)行5 次最大池化操作,得到底部特征圖大小為4×4×6 像素。每個編碼器由兩個卷積塊組成,激活函數(shù)為LReLU 函數(shù),卷積核大小為3×3×3。初始卷積核數(shù)目設置為32 個,隨著每次最大池化數(shù)目倍增,直到底部數(shù)量最大為320 個,然后使用上采樣將特征圖恢復至原始大小,并使用Softmax 得到輸出結果。 為了評估配準與分割性能,本文選擇了一些表現(xiàn)良好的方法與MC-RSNet 進行對比。配準網絡有Elastix[37]、Voxelmorph[38]、Ms-RNet[4],分割網絡有U-Net[39]、nnU-Net[32]、scSE-nnU-Net。其中,Ms-RNet[4]和scSE-nnU-Net 分別是本文的配準與分割子網絡。 將表面活性劑和助表面活性劑按質量比(Km)混勻,得到混合表面活性劑(Smix);將油相(Oil)和Smix混勻,得到混合油相;在混合油相中緩慢滴加水相,不斷攪拌,直至形成透明的體系,記下體系發(fā)生透明或渾濁變化時的各組分用量,用origin8.5繪制偽三元相圖。根據(jù)納米乳區(qū)大小,篩選合適的納米乳體系。 由于解剖結構在局部鄰域內的相對灰度分布基本不受模態(tài)變化影響[33],因此通過設計結構描述符來排除模態(tài)的影響進而實現(xiàn)多模態(tài)配準的測度。本文基于自相似理論[34],描述每個體素周圍鄰域的灰度分布來表示該體素的局部結構。如圖5 所示,選取圖像中任一圖像塊的周圍6 鄰域圖像塊,并計算每兩個圖像塊之間灰度上誤差的平方作為自相似性,中心圖像塊周圍的12 對圖像塊的自相似性共同組成了中心圖像塊的上下文信息,用來表示該中心圖像塊處的局部結構。如圖6 所示,為了更進一步解決6 鄰域范圍的限制,在原有6 鄰域的基礎上擴展到了12 鄰域,分為內外兩層,并給內外兩層賦予不同的權重。相比于現(xiàn)有的MIND[9]描述符和MINDSSC[35]描述符,本文的改進在于:將原有6 鄰域多尺度化,擴充了局部結構所包含的信息量,在著重于中心點附近重要信息的同時,保證遠離中心點的信息也能夠被接收到,實現(xiàn)對局部結構更加準確的表達。為了簡便起見,在圖5 中僅畫出了單一尺度的表現(xiàn)形式,多尺度的形式只需以相同的半徑將鄰域擴充兩倍,如圖6 中的二維展示。 圖5 msMIND 三維展示Fig.5 Presentation of msMIND in 3D 圖6 msMIND 二維展示Fig.6 Presentation of msMIND in 2D msMIND 的計算公式為: 現(xiàn)代立體漆藝以三維立體的形式,豐富多變的漆繪語言,表達藝術家的造物能力和審美理想。胎骨,作為塑型的基礎,是研究現(xiàn)代立體漆藝無法繞開的核心話題。不論是傳承既有的材料處理方式來表現(xiàn)現(xiàn)代人的審美理想,還是在材料的創(chuàng)新上下功夫,其豐富多變的形式都是無法在一篇文章中盡述的。但這“承”與“變”的劃分不是最關鍵的。我們將持續(xù)關注的是現(xiàn)代藝術家們欲要表達的心境和理想,以及他們借助現(xiàn)代立體漆藝表現(xiàn)心境和理想的技術能力。 其中:msMIND 表示雙重尺度6 鄰域范圍內的局部結構,與中心圖像塊x距離為r代表內層6 鄰域,距離為2r代表外 層6鄰域;α和β分別代 表不同權重;Dp表示以x為中心的6 鄰域內任意兩個距離向量ri和rj上的圖像塊zi、zj之間的灰度相似距離;每個圖像塊大小為p×p×p;P定義為兩個圖像塊之間一系列的位移量;t代表任意分位移量。因此,Dp計算兩個圖像塊內所有點的均方差,如式(7)所示: V(I,x)是圖像局部方差的估計,定義為所有6 鄰域圖像塊之間的Dp的期望: 由于msMIND 特征是Dp的高斯函數(shù),因此在不相似時表現(xiàn)為低響應,在相似時表現(xiàn)為高響應,可以很好地表征局部特征[4]。一旦提取了兩個圖像的msMIND 描述子,相似性度量就可以定義為兩者描述子之間的絕對差的平均值。因此,基于msMIND的相似性度量定義如下: 其中:I和J分別是兩幅待比較的圖像;R是6 鄰域向量的集合。 實驗數(shù)據(jù)集來自麗水市中心醫(yī)院,包括118 對CT-MR 圖像及其對應的肝臟標簽。CT 圖像為平掃未增強,原始尺寸為512×512 像素×L(其中L為CT數(shù)據(jù)中切片的數(shù)量,范圍為32~104);MR 圖像為T1未增強,原始尺寸為512×512 像素×K(其中K為MR數(shù)據(jù)中切片的數(shù)量,范圍為52~80)。肝臟標記由兩名放射科醫(yī)生手動標記,以評估配準性能和輔助配準。需要注意的是,在訓練過程中只使用了30%的肝臟標簽,極大地減少了圖像標注任務的時間。為了進一步評估圖像結構配準好壞[36],在每對CT-MR圖像上標記了3 個標記點,如腫瘤、囊腫和肝裂隙,標記圖像示例如圖7 所示。 圖7 CT-MR 圖像展示Fig.7 Presentation of CT-MR images 對于所有圖像數(shù)據(jù),CT-MR 圖像對使用仿射對齊[37]來減少位置偏差。然后將所有圖像重采樣到各向同性體素(1 mm×1 mm×1 mm),并進行歸一化和剪裁得到分辨率為304×304×228 像素的清晰圖像。其中,90 對CT-MR 圖像作為訓練集,28 對作為測試集,并在訓練過程中使用隨機仿射變換對數(shù)據(jù)進一步擴展,同時進行五折交叉驗證以減少實驗誤差。 對于配準任務,采用3 項指標來評價配準結果,其中,Dice 相似系 數(shù)(Dice Similarity Coefficient,DSC)用于評估配準前后肝臟的重疊程度,Hd95(95% Hausdorff distance)用于評估標簽邊界的距離,數(shù)值越低表示兩者越接近,目標配準誤差(Target Registration Error,TRE)用于評估配準前后標記點的距離誤差,定義為距離的均方根。具體公式如下: 步驟2將所有M對CT-MR 圖像輸入到聯(lián)合框架的配準部分中,使用EmsMIND約束結構對齊,分別通過Edice和Econsistency在有無真實標簽的兩種情況下約束分割標簽對齊。 不,準確來說,也不能算是完全的骸骨,應該是有些皮肉的,只是那皮肉太過干枯,皺巴巴地貼在了骨架上,以至于他的關1.1 配準-分割聯(lián)合優(yōu)化的深度學習網絡結構
1.2 基于模態(tài)一致性監(jiān)督和多尺度鄰域描述符的損失函數(shù)
2 實驗與結果分析
2.1 數(shù)據(jù)集與評價指標