張廟林 帥仁俊
(南京工業(yè)大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 江蘇 南京 211816)
乳腺癌是女性最常見(jiàn)的惡性腫瘤之一。在女性群體中,乳腺癌導(dǎo)致的死亡數(shù)一般高于其他類(lèi)型的癌癥,而且在世界范圍內(nèi)每年都有數(shù)千人死在這種癌癥下。據(jù)報(bào)道,東非的乳腺癌發(fā)病率為1.93×10-4,西歐的發(fā)病率為8.97×10-4[1]。近年來(lái)乳腺癌新病例在持續(xù)增加,預(yù)計(jì)到2030年乳腺癌新病例將會(huì)增至2 700萬(wàn)[2]。乳腺癌疾病的檢測(cè)和診斷可以通過(guò)成像系統(tǒng)程序,如乳腺X線、磁共振圖像、超聲圖像和熱圖。癌癥篩查的影像學(xué)研究已有40多年歷史。然而,臨床上,基于病理圖像的活檢無(wú)疑是檢測(cè)乳腺疾病的金標(biāo)準(zhǔn),也是對(duì)病理圖像進(jìn)行準(zhǔn)確分類(lèi)時(shí)醫(yī)生制定最佳治療方案的重要依據(jù)。
目前針對(duì)乳腺癌病理圖像的分類(lèi)研究主要分為兩類(lèi):基于人工特征的傳統(tǒng)的乳腺病理圖像分類(lèi)方法;基于深度學(xué)習(xí)的乳腺癌病理圖像分類(lèi)方法?;谌斯ぬ卣鞯膫鹘y(tǒng)的乳腺癌病理圖像分類(lèi)方法采用人工提取特征,基于這些特征使用支持向量機(jī)、隨機(jī)森林等分類(lèi)器完成分類(lèi)。該方法存在高要求的專(zhuān)業(yè)知識(shí)、提取特征耗費(fèi)時(shí)間和提取高質(zhì)量特征難等缺點(diǎn)。相對(duì)于傳統(tǒng)分類(lèi)方法,基于深度學(xué)習(xí)的乳腺癌病理圖像分類(lèi)方法,利用網(wǎng)絡(luò)自主學(xué)習(xí)相應(yīng)的特征,克服了需要專(zhuān)業(yè)人士手工提取特征的缺點(diǎn),同時(shí)節(jié)省了人工提取特征的時(shí)間。目前,基于卷積神經(jīng)網(wǎng)絡(luò)的乳腺癌病理圖像的自動(dòng)分類(lèi)仍然是一個(gè)非常具有挑戰(zhàn)性的問(wèn)題。主要有兩個(gè)原因:
(1) 隨著神經(jīng)網(wǎng)絡(luò)模型的不斷深化,CNN的參數(shù)數(shù)量也隨之迅速增加,這就很容易導(dǎo)致模型對(duì)訓(xùn)練數(shù)據(jù)的過(guò)擬合。為了降低過(guò)擬合的風(fēng)險(xiǎn),通常需要大量的乳腺癌病理圖像作為訓(xùn)練CNN的數(shù)據(jù)。然而要獲得大量的標(biāo)記好的乳腺癌病理圖像數(shù)據(jù)需要非常大的成本。
(2) 各種超參數(shù)對(duì)神經(jīng)網(wǎng)絡(luò)模型的性能也有很大的影響,尤其是學(xué)習(xí)率。在模型訓(xùn)練中,經(jīng)常需要手動(dòng)調(diào)整學(xué)習(xí)率參數(shù)來(lái)獲得更好的性能,這就使得非專(zhuān)家人員很難在實(shí)際應(yīng)用中應(yīng)用該算法。
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域的一項(xiàng)新興技術(shù)并且已經(jīng)受到了許多研究者的關(guān)注。卷積神經(jīng)網(wǎng)絡(luò)在大規(guī)模圖像和視頻識(shí)別中取得了巨大的成功。目前的研究已經(jīng)表明,采用深度學(xué)習(xí)的方法對(duì)乳腺癌組織病理學(xué)圖像進(jìn)行分類(lèi)可以極大地提高分類(lèi)的準(zhǔn)確性,從而幫助醫(yī)生進(jìn)行診斷,使病人更好地進(jìn)行治療。然而,深度學(xué)習(xí)網(wǎng)絡(luò)并不是越深越好,有時(shí)候僅僅增加網(wǎng)絡(luò)的深度并不能提高分類(lèi)的準(zhǔn)確性,反而會(huì)出現(xiàn)分類(lèi)性能退化的現(xiàn)象。為了解決該問(wèn)題,基于DenseNet和基于遷移學(xué)習(xí)的深度學(xué)習(xí)算法應(yīng)運(yùn)而生。
Spanhol等[3]使用遷移學(xué)習(xí)的方法,運(yùn)用預(yù)先訓(xùn)練的BVLC CaffeNet結(jié)構(gòu)的權(quán)重來(lái)提取一組乳腺癌組織病理學(xué)圖像的深度特征并將它們輸入到分類(lèi)器中,使準(zhǔn)確率達(dá)到了83.6%~84.8%。Ahmad等[4]為了解決訓(xùn)練時(shí)間過(guò)長(zhǎng)的問(wèn)題,采用基于ImageNet預(yù)先訓(xùn)練的AlexNet、GoogleNet和ResNet網(wǎng)絡(luò)進(jìn)行乳腺癌組織病理學(xué)圖像的分類(lèi),有效解決了訓(xùn)練時(shí)間過(guò)長(zhǎng)和訓(xùn)練集數(shù)據(jù)不足的問(wèn)題。Huang等[5]設(shè)計(jì)的DenseNet提出了一個(gè)更緊密的連接機(jī)制,即所有的層都互相連接,前面所有的激活映射被視為單獨(dú)的輸入傳遞給后續(xù)所有的層。該機(jī)制可以使用較少的參數(shù)實(shí)現(xiàn)特征的復(fù)用,以達(dá)到更好的分類(lèi)效果。Gupta等[6]設(shè)計(jì)的基于DenseNet的卷積神經(jīng)網(wǎng)絡(luò)作為乳腺癌組織病理學(xué)圖像的特征提取器。圖像樣本在特定階段具有很高的分類(lèi)置信度標(biāo)簽時(shí),該樣本將在這一階段確定其標(biāo)簽。否則,樣本將會(huì)傳遞到下一階段,這一過(guò)程主要考慮了底層、中層和高層特征對(duì)分類(lèi)性能的共同影響。Nahid等[7]提出了一個(gè)結(jié)構(gòu)化的深度學(xué)習(xí)模型來(lái)解決乳腺癌病理圖像的下采樣問(wèn)題,最終分類(lèi)結(jié)果達(dá)到92.19%。Kohl等[8]研究了稠密連通卷積的適用性,并用實(shí)驗(yàn)對(duì)比VGG19、Inception-v3和DenseNet161三種模型,先分別將三種模型利用ImageNet進(jìn)行預(yù)訓(xùn)練,最后對(duì)比分類(lèi)精度,DenseNet161平均精度高于VGG19和Inception-v3兩個(gè)模型4%。
本文對(duì)乳腺癌病理圖像的自動(dòng)分類(lèi)應(yīng)用主要有以下貢獻(xiàn):
1) 本文在最先進(jìn)的模型DenseNet基礎(chǔ)上提出了DC-DenseNet模型來(lái)解決乳腺癌病理圖像分類(lèi)的問(wèn)題。該模型不僅可以提高特征表示的能力,還能一定程度上降低計(jì)算復(fù)雜度。
2) 本文提出一種新的學(xué)習(xí)速率優(yōu)化器,它不需要復(fù)雜的微調(diào)學(xué)習(xí)速率就可以表現(xiàn)出優(yōu)異的性能。
3) 本文用新的學(xué)習(xí)率優(yōu)化器在cifar10數(shù)據(jù)集上測(cè)試,最后將整個(gè)模型在BACH數(shù)據(jù)集和BreakHis公開(kāi)數(shù)據(jù)集上實(shí)驗(yàn)。
擴(kuò)張卷積在最近的許多研究中被用于基于深學(xué)習(xí)的語(yǔ)義分割方法中[8]。相比于普通的卷積層,擴(kuò)張卷積是在標(biāo)準(zhǔn)的卷積核中注入空洞,這不僅可以增加模型的感受野,還能保留可訓(xùn)練參數(shù)的數(shù)量。注入的空洞的大小取決于擴(kuò)張率γ。如圖1所示,圖1(a)是標(biāo)準(zhǔn)的卷積核,此時(shí)的擴(kuò)張率γ=1;圖1(b)對(duì)應(yīng)的是擴(kuò)張率γ=2的卷積,可以理解為卷積核尺寸為7×7,但是只有9個(gè)點(diǎn)有參數(shù),其余的位置參數(shù)都為0,和輸入特征圖對(duì)應(yīng)位置的像素進(jìn)行卷積計(jì)算時(shí)其余的位置都略過(guò);圖1(c)和圖1(b)類(lèi)似,擴(kuò)張率γ=3相當(dāng)于變成了15×15的卷積核。當(dāng)卷積核尺寸變大時(shí),感受野也就自然變大,此時(shí)可以從上一層的特征圖中提取更多的信息。
圖1 擴(kuò)張卷積示例
與標(biāo)準(zhǔn)的卷積核相比,采用擴(kuò)張卷積不需要額外的計(jì)算成本就可以提取多尺度特征??紤]到這個(gè)優(yōu)點(diǎn),本文提出一種新的用于乳腺癌病理圖像分類(lèi)的模型結(jié)構(gòu),即DC-DenseDent。DC-DenseDent的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。DDC、MP、AP和FC分別代表卷積層、最大池化層、平均池化層和全連接層。為了更好地提取特征,所提出的深度學(xué)習(xí)網(wǎng)絡(luò)對(duì)于淺層和深層具有不同的體系結(jié)構(gòu),即擴(kuò)張密集塊(DDC)和層中層模塊(NIN)[9]。使用ReLU作為非線性激活函數(shù)。用Softmax損失函數(shù)L來(lái)優(yōu)化網(wǎng)絡(luò),其表達(dá)式為:
圖2 DC-DenseNet網(wǎng)絡(luò)結(jié)構(gòu)
(1)
式中:Li表示Softmax損失函數(shù),i∈[1,N];fj表示第j個(gè)元素(j∈[1,K],K為類(lèi)的個(gè)數(shù))的類(lèi)輸出向量;yi為第i個(gè)輸入的標(biāo)簽;N為訓(xùn)練數(shù)據(jù)的數(shù)量。
2.3.1 Dense Block
DC-DenseNet主要是在先進(jìn)的DenseNet模型基礎(chǔ)上改進(jìn)了兩個(gè)方面:1)用DDC模塊代替了DenseNet原先的標(biāo)準(zhǔn)卷積層;2)建立了一個(gè)更寬而不深的網(wǎng)絡(luò)。
Dense Block是由多個(gè)卷積層組成的模塊,DenseNet網(wǎng)絡(luò)在第l層的輸出為:
xl=Hl([x0,x1,…,xl-1])
(2)
式中:Hl(·)是由一個(gè)組合操作而成的非線性函數(shù),這個(gè)組合操作可能包括一系列的BN(Batch Normalization)、ReLU、池化即卷積操作。如果每個(gè)Hl(·)均輸出k個(gè)特征圖,即得到的特征圖的通道數(shù)為k,假定輸入層的通道數(shù)為k0,那么第l層的輸入的通道數(shù)為k0+k×(l-1),其中k為DenseNet的增長(zhǎng)率。
2.3.2 擴(kuò)張卷積層
原始的Dense Block中通過(guò)疊加3×3的卷積層來(lái)實(shí)現(xiàn)多尺度特征提取。因?yàn)閿U(kuò)張卷積比標(biāo)準(zhǔn)的卷積層有更加寬闊的感受野,因此本文提出的擴(kuò)張密集塊(DDC)采用了擴(kuò)張卷積來(lái)代替標(biāo)準(zhǔn)的卷積層實(shí)現(xiàn)多尺度的特征提取。如圖3所示,DDC模塊中有兩個(gè)擴(kuò)張率為2和3的擴(kuò)張卷積層,每個(gè)擴(kuò)張卷積層之后都放置一個(gè)標(biāo)準(zhǔn)的3×3的卷積來(lái)融合提取的特征病細(xì)化語(yǔ)義信息。
圖3 DDC模塊
由于病理圖像數(shù)據(jù)集的規(guī)模通常很小,很難用它們來(lái)訓(xùn)練像原始DenseNet那樣的超深網(wǎng)絡(luò)。文獻(xiàn)[10]證明了在小數(shù)據(jù)集上較寬的網(wǎng)絡(luò)可能比較深的網(wǎng)絡(luò)提供更好的性能。因此,所述的DDC模塊將增長(zhǎng)率k增加到8、16和32,并將層數(shù)從121層減少到28層。因此密集塊網(wǎng)絡(luò)就實(shí)現(xiàn)了寬而不深的初衷。為了降低計(jì)算復(fù)雜度和提高特征提取能力,將增長(zhǎng)率k設(shè)置為隨DDC網(wǎng)絡(luò)的深入而增加。
隨機(jī)梯度下降法是最常用的優(yōu)化器。隨機(jī)梯度下降法(SGD)[11]的核心思想是隨機(jī)選擇一個(gè)樣本來(lái)計(jì)算梯度,并在每個(gè)訓(xùn)練過(guò)程中更新參數(shù)。損失函數(shù)的梯度決定了SGD的更新方向。參數(shù)θt在t時(shí)刻更新為θt=θt-1-lrt▽?duì)萀,其中:L為損失函數(shù);▽?duì)萀是損失函數(shù)的梯度;lrt是在t時(shí)刻的學(xué)習(xí)率。隨機(jī)梯度法是一種簡(jiǎn)單有效的方法,但是在用于優(yōu)化學(xué)習(xí)率時(shí)需要仔細(xì)調(diào)整模型的超參數(shù)。較大的學(xué)習(xí)率會(huì)導(dǎo)致CNN訓(xùn)練結(jié)果發(fā)散,而較小的學(xué)習(xí)率則會(huì)使訓(xùn)練收斂緩慢。通常研究人員需要對(duì)不同大小的學(xué)習(xí)率進(jìn)行實(shí)驗(yàn)以使網(wǎng)絡(luò)更快地收斂,獲得更好的性能。AlexNet[12]在ImageNet數(shù)據(jù)集上遵循的啟發(fā)式算法是將學(xué)習(xí)率初始化為0.01,當(dāng)驗(yàn)證集的錯(cuò)誤率不再隨當(dāng)前學(xué)習(xí)率降低時(shí)就將學(xué)習(xí)率除以10并重復(fù)三次。ResNet網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集上是將學(xué)習(xí)率初始化為0.1,在epoches達(dá)到30和60次后將學(xué)習(xí)率除以10。但是ResNet在Cifar數(shù)據(jù)集上是lterations達(dá)到3.2×104和4.8×104次后將學(xué)習(xí)率除以10。可以看到同一數(shù)據(jù)集在不同的CNN體系結(jié)構(gòu)中所用的學(xué)習(xí)率優(yōu)化器是不同的,不同數(shù)據(jù)集在同一CNN結(jié)構(gòu)中使用的優(yōu)化器也是不同的。因此如何選擇優(yōu)化器對(duì)模型有很大的影響。
高斯誤差函數(shù)[13]是一種非基本函數(shù),廣泛應(yīng)用于概率論、統(tǒng)計(jì)學(xué)和偏微分方程中。它的定義如下:
(3)
根據(jù)高斯誤差函數(shù)的性質(zhì),本文設(shè)計(jì)一個(gè)高斯優(yōu)化器(GEF),它對(duì)學(xué)習(xí)率的定義如下:
(4)
式中:lrmax表示最大學(xué)習(xí)率;lrmin表示最小學(xué)習(xí)率;E表示epochs的總數(shù)量,e∈(0,E)表示當(dāng)前的epoch;M表示負(fù)整數(shù);N表示正整數(shù)。初始學(xué)習(xí)率下CNN訓(xùn)練所需的時(shí)間由M決定,當(dāng)|M|越大時(shí),用最大學(xué)習(xí)率訓(xùn)練CNN所需的時(shí)間越長(zhǎng)。較小學(xué)習(xí)率下的CNN訓(xùn)練時(shí)間由N決定,N越大,用最小學(xué)習(xí)率訓(xùn)練CNN的時(shí)間就越長(zhǎng)。|M|/|N|表示學(xué)習(xí)衰減率。
當(dāng)學(xué)習(xí)率接近于零時(shí),噪聲將主導(dǎo)CNN權(quán)值的更新。在CNN訓(xùn)練后期不宜將學(xué)習(xí)率設(shè)置為零,這會(huì)導(dǎo)致測(cè)試精度在最后階段出現(xiàn)波動(dòng)和下降。因此,我們通過(guò)確保學(xué)習(xí)率不接近于零來(lái)設(shè)置lrmin參數(shù),并且lrmin不再需要非常仔細(xì)的微調(diào)。在本文的實(shí)驗(yàn)中,將lrmin設(shè)為最小學(xué)習(xí)率,lrmax設(shè)為初始學(xué)習(xí)率。
本文提出的高斯優(yōu)化器可以很容易地與SGD算法相結(jié)合。下面的算法表示了兩者結(jié)合過(guò)程。其中:lrmax設(shè)為初始學(xué)習(xí)率;lrmin設(shè)為最小學(xué)習(xí)率;v0為初始速率;θ0為初始參數(shù);E為初始epoch;m為動(dòng)量參數(shù);n為訓(xùn)練集每次訓(xùn)練的一個(gè)batch;g為梯度;ε為學(xué)習(xí)率。
算法1基于高斯誤差優(yōu)化器的SGD算法
輸入:最大學(xué)習(xí)率lmax,最小學(xué)習(xí)率lmin,高斯優(yōu)化器參數(shù)N和M,動(dòng)量參數(shù)m,初始參數(shù)θ,初始速度v,初始的epochsE。
fore=1 toEdo
在訓(xùn)練集中抽取一批m個(gè)樣本{x(1),x(2),…,x(m)}以及對(duì)應(yīng)的標(biāo)簽y(i)。
更新參數(shù):θ~=θ+mv
計(jì)算速度更新:v=Mv-εg
應(yīng)用更新:θ=θ+v
end for
本文模型是在Intel i7 9800KF CPU,NVIDAIA GTX1080Ti上訓(xùn)練。訓(xùn)練工具使用的是PyCharm開(kāi)發(fā)軟件,深度學(xué)習(xí)框架采用了TensorFlow2.0。TensorFlow 2.0較之以往版本最明顯的區(qū)別是更簡(jiǎn)單、更易用、更強(qiáng)大??梢愿臃奖愕厥褂胻f.data加載數(shù)據(jù),用tf.keras來(lái)構(gòu)建、訓(xùn)練和驗(yàn)證模型。同時(shí)還取消了1.x版本的繁瑣的會(huì)話模式。
為了評(píng)估高斯優(yōu)化器的性能,本文用其他兩個(gè)不同的學(xué)習(xí)率優(yōu)化器在Cifar-10數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn)。將高斯優(yōu)化器的lrmax設(shè)置為0.1,lrmin設(shè)置為0.000 1,并選擇使用GEF(-2,2)和GEF(-3,3)。在文獻(xiàn)[14]的方法中,余弦優(yōu)化器的定義為:
(5)
式中:lrmax表示最大學(xué)習(xí)率;lrmin表示最小學(xué)習(xí)率;E表示epochs的總數(shù)量,e∈[0,E]表示當(dāng)前的epoch。在對(duì)比實(shí)驗(yàn)中將余弦優(yōu)化器的lrmin設(shè)置為0。在文獻(xiàn)[15]中定義的優(yōu)化器為:
Exp=lr0×λe
(6)
式中:lr0為初始學(xué)習(xí)率;e∈[0,E]表示當(dāng)前的epoch;λ∈[0,1]為貼現(xiàn)因子。在本次對(duì)比實(shí)驗(yàn)中將lr0設(shè)置為0.1,λ設(shè)置為0.98。最終的對(duì)比結(jié)果圖如表1所示。對(duì)比Cos和Exp優(yōu)化器,當(dāng)GEF取到(-3,3)時(shí)性能表現(xiàn)得更加優(yōu)異。
表1 Cifar-10下不同優(yōu)化器的差錯(cuò)率
4.3.1 BACH數(shù)據(jù)集
BACH數(shù)據(jù)集由大小為2 048×1 536的400幅蘇木精和伊紅染色的乳房組織顯微鏡圖像組成且被分為正常、良性、原位癌和浸潤(rùn)性癌四類(lèi),每個(gè)類(lèi)別都有100幅圖像。數(shù)據(jù)集被隨機(jī)按照8∶2的比例打散成訓(xùn)練集和驗(yàn)證集。不同類(lèi)別的切片圖像如圖4所示。我們用額外的20幅生物成像數(shù)據(jù)集[16]當(dāng)作測(cè)試集來(lái)判斷提出的框架性能。
圖4 BACH數(shù)據(jù)集樣例
我們對(duì)BACH數(shù)據(jù)集使用了數(shù)據(jù)增強(qiáng)來(lái)實(shí)現(xiàn)增加數(shù)據(jù)。將整幅圖像平移50%并裁剪為大小為512×512的綴塊,從而每個(gè)類(lèi)別都增加了2 800個(gè)綴塊。同時(shí),我們還對(duì)數(shù)據(jù)集進(jìn)行了旋轉(zhuǎn)和鏡像操作,每個(gè)綴塊旋轉(zhuǎn)90°、180°和270°,然后進(jìn)行垂直反射得到一個(gè)包含89 600幅圖像的增強(qiáng)數(shù)據(jù)集。每幅圖像均采用700×460像素、3通道RGB的PNG格式。
4.3.2 BreaKHis數(shù)據(jù)集
BreaKHis數(shù)據(jù)集包含7 909幅顯微圖片,其中:良性乳腺腫瘤2 480幅,惡性乳腺腫瘤5 429幅,每個(gè)類(lèi)別都包含了放大40倍、100倍、200倍和400倍的圖像。良性腫瘤有4種亞型:腺病(A)、纖維腫瘤(F)、管狀腫瘤(TA)和葉狀腫瘤(PT)。惡性腫瘤分為導(dǎo)管癌(DC)、小葉癌(LC)、黏液癌(MC)和乳頭狀癌(PC)4種亞型。這個(gè)數(shù)據(jù)集的詳細(xì)信息如表2所示。本實(shí)驗(yàn)對(duì)每個(gè)BreaKHis數(shù)據(jù)集圖片進(jìn)行了二元分類(lèi)。我們采用與BACH數(shù)據(jù)相同的數(shù)據(jù)增強(qiáng)方式來(lái)增強(qiáng)數(shù)據(jù)集。
表2 BreaKHis數(shù)據(jù)集結(jié)構(gòu)
4.4.1 BACH數(shù)據(jù)集實(shí)驗(yàn)
本文對(duì)BACH數(shù)據(jù)集采用所有測(cè)試圖像的總正確分類(lèi)率(ACC)來(lái)作為模型性能評(píng)價(jià)的標(biāo)準(zhǔn)。同時(shí)將AlexNet[3]、VGG-19[8]已知模型和目前最優(yōu)的方法DenseNet161[8]一起參與性能評(píng)估。表3列出了每個(gè)模型對(duì)BACH驗(yàn)證集上的測(cè)試結(jié)果,所有模型的學(xué)習(xí)率優(yōu)化器都統(tǒng)一使用本文提出的高斯優(yōu)化器。
表3 不同模型在BACH驗(yàn)證集上的分類(lèi)正確率(%)
可以看出,所提出的DC-DenseNet模型對(duì)正常(96.3%)和浸潤(rùn)性癌(94.23%)的分類(lèi)性能最好。DC-DenseNet在良性腫瘤和原味的分類(lèi)正確率分別為92.36%和93.50%,與最好的兩個(gè)相比依然具有一定的競(jìng)爭(zhēng)力。最后平均分類(lèi)準(zhǔn)確率為94.10%優(yōu)于目前先進(jìn)的DenseNet161模型。
表4列出了不同框架在BACH測(cè)試集上的性能,這里測(cè)試集采用的是額外的20幅公共可用數(shù)據(jù)集[17]。
表4 不同模型在BACH測(cè)試集上的分類(lèi)正確率(%)
可以看出,所提出的DC-DenseNet取得了最佳的分類(lèi)性能,即82.50%,比目前最優(yōu)的DenseNet161[8]高出了6.25百分點(diǎn)。
4.4.2 BreaKHis數(shù)據(jù)集實(shí)驗(yàn)
本文將DC-DenseNet模型與Nahid等[7]的方法對(duì)BreaKHis數(shù)據(jù)集的不同放大系數(shù)二分類(lèi)性能進(jìn)行了比較,兩種方法數(shù)據(jù)集都采用相同的數(shù)據(jù)增強(qiáng)方式,并結(jié)合了本文提出的高斯優(yōu)化器進(jìn)行訓(xùn)練。評(píng)價(jià)指標(biāo)包括AUC、精確度和召回率。實(shí)驗(yàn)結(jié)果對(duì)比如表5所示。
表5 每個(gè)放大系數(shù)下的兩種方法結(jié)果比較
可以看出,在數(shù)據(jù)集增強(qiáng)方式相同并都結(jié)合高斯優(yōu)化器的情況下,本文模型DC-DenseNet略優(yōu)于Nahid等[7]的方法。
越來(lái)越多的研究采用基于深度學(xué)習(xí)的醫(yī)學(xué)圖像分析框架。然而,將深度學(xué)習(xí)網(wǎng)絡(luò)用于病理圖像分析面臨著一些挑戰(zhàn),比如:獲得大量附帶標(biāo)簽的數(shù)據(jù)集需要非常大的成本;現(xiàn)有的卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)病理圖像分類(lèi)性能不夠卓越;模型訓(xùn)練中需要手動(dòng)調(diào)整學(xué)習(xí)率參數(shù)來(lái)獲得更好的性能的操作使得非專(zhuān)家人員很難在實(shí)際應(yīng)用中應(yīng)用該算法?;诖?本文使用改進(jìn)的DenseNet網(wǎng)絡(luò)模型實(shí)現(xiàn)對(duì)乳腺癌病理圖的分類(lèi)任務(wù)。將原先Dense Block的卷積層換成擴(kuò)張卷積來(lái)實(shí)現(xiàn)多層特征的提取并減少了模型的計(jì)算復(fù)雜度。提出一種新的學(xué)習(xí)速率優(yōu)化器,它不需要復(fù)雜的微調(diào)學(xué)習(xí)速率就可以表現(xiàn)出優(yōu)異的性能。實(shí)驗(yàn)結(jié)果表明,所提出的模型框架取得了較好的結(jié)果。