摘? 要:利用機(jī)器學(xué)習(xí)輔助提高醫(yī)生診斷效率是常用的方法。用機(jī)器學(xué)習(xí)方法進(jìn)行乳腺癌檢測(cè),常由于乳腺癌數(shù)據(jù)的不平衡而出現(xiàn)問(wèn)題。為了解決這一問(wèn)題,研究在多層感知機(jī)的基礎(chǔ)上嵌入監(jiān)督對(duì)比學(xué)習(xí)進(jìn)行乳腺癌檢測(cè),該方式通過(guò)數(shù)據(jù)增廣,彌補(bǔ)不平衡數(shù)據(jù)的影響,同時(shí)利用同一類特征距離拉近,反之拉遠(yuǎn)的性質(zhì),增強(qiáng)特征表示效果,提高診斷準(zhǔn)確率。實(shí)驗(yàn)結(jié)果證明,與現(xiàn)有的算法相比在準(zhǔn)確率等方面優(yōu)于其他算法,這證明了該算法的有效性。
關(guān)鍵詞:監(jiān)督對(duì)比學(xué)習(xí);乳腺癌檢測(cè);多層感知機(jī);不平衡數(shù)據(jù)
中圖分類號(hào):TP181? ? 文獻(xiàn)標(biāo)識(shí)碼:A? 文章編號(hào):2096-4706(2023)02-0079-05
Breast Cancer Detection Algorithm Based on Supervised Contrastive Learning
LI Xin
(Taiyuan Normal University, Jinzhong? 030619, China)
Abstract: Using Machine learning is a common method to assist doctors with improving the diagnosis efficiency. The use of machine learning methods for breast cancer detection often causes problems due to the imbalance of breast cancer data. In order to solve this problem, supervised contrastive learning is embedded on the basis of multi-layer perceptron for breast cancer detection. This method makes up for the influence of unbalanced data through data augmentation, and makes use of the nature of the distance narrowing of features of the same class, and the nature of the distance stretching on the contrary, to enhance the feature representation effect and improve the diagnostic accuracy. The experimental results show that compared with the existing algorithms, the algorithm is superior to other algorithms in terms of accuracy and other aspects, which proves the effectiveness of the algorithm.
Keywords: supervised contrastive learning; breast cancer detection; multi-layer perceptron; unbalanced data
0? 引? 言
乳腺癌作為三大癌癥之一,雖然近年的新增病例有所穩(wěn)定,但其發(fā)病率及死亡率仍在女性中占據(jù)很高比例[1],所以要居安思危[2],繼續(xù)努力提高該疾病的檢測(cè)效率,時(shí)刻避免該疾病隱匿。乳腺癌數(shù)據(jù)中患病人數(shù)占比小,這種數(shù)據(jù)的不平衡給傳統(tǒng)的分類方法[2],比如樸素貝葉斯分類器、KNN、多層感知器(MLP)[3]、決策樹(shù)法、SVM帶來(lái)了挑戰(zhàn),主要原因是傳統(tǒng)分類方法在不平衡數(shù)據(jù)中常伴有噪音影響和結(jié)果偏向于多數(shù)類,導(dǎo)致少數(shù)類準(zhǔn)確率不高。因此,本文引入監(jiān)督對(duì)比學(xué)習(xí),利用其優(yōu)勢(shì)數(shù)據(jù)增強(qiáng),來(lái)填補(bǔ)少數(shù)類數(shù)據(jù)數(shù)量不足的影響,同時(shí)利用其損失函數(shù)將同一類數(shù)據(jù)特征距離拉近,不同類數(shù)據(jù)特征距離遠(yuǎn)離,提高不平衡數(shù)據(jù)樣本分類效果。
監(jiān)督對(duì)比學(xué)習(xí)利用數(shù)據(jù)的監(jiān)督信號(hào)[4],能夠?yàn)閿?shù)據(jù)學(xué)習(xí)到一個(gè)良好的嵌入表示,同時(shí)改善了對(duì)噪聲標(biāo)簽敏感。2020年Khosla在NeurIPS上提出了監(jiān)督對(duì)比學(xué)習(xí)方法(Supervised contrastive Learning)[5],使同一類的嵌入表示更加接近,不同類的嵌入表示更加遠(yuǎn)離。該方法的優(yōu)勢(shì)主要有三方面:
(1)監(jiān)督對(duì)比損失函數(shù)(Supcon)將正樣本擴(kuò)展為同類樣本及其增強(qiáng)樣本,避免了潛在的錯(cuò)誤否定,以此來(lái)正確區(qū)分?jǐn)?shù)據(jù)類別;
(2)該損失函數(shù)為數(shù)據(jù)集提供了一致的top-1精度提升,抵抗力也有所增強(qiáng);
(3)該損失函數(shù)比交叉熵?fù)p失函數(shù)對(duì)超參數(shù)的范圍更不敏感。綜合以上性質(zhì),將監(jiān)督對(duì)比學(xué)習(xí)嵌入在多層感知機(jī)中,提出一種基于監(jiān)督對(duì)比學(xué)習(xí)的乳腺癌檢測(cè)算法,用來(lái)輔助多層感知機(jī)進(jìn)行不平衡乳腺癌數(shù)據(jù)的分類。
實(shí)驗(yàn)結(jié)果表明,本文提出的基于監(jiān)督對(duì)比學(xué)習(xí)的乳腺癌檢測(cè)算法在準(zhǔn)確率、F1值、精確率、召回率上均比SVM、KNN、樸素貝葉斯等分類算法有所提高,能有效地解決乳腺癌數(shù)據(jù)不平衡分類問(wèn)題,從而證明該算法可以更好地幫助醫(yī)生進(jìn)行檢測(cè)。
1? 相關(guān)工作
1.1? 乳腺癌檢測(cè)方法
乳腺癌檢測(cè)工作,是一個(gè)典型的數(shù)據(jù)分類問(wèn)題,因此本文對(duì)傳統(tǒng)的分類算法如樸素貝葉斯分類器、KNN、決策樹(shù)法、SVM、MLP五種法進(jìn)行了總結(jié)和分析。
首先分析樸素貝葉斯分類器,樸素貝葉斯分類器優(yōu)勢(shì)在于分類穩(wěn)定,但對(duì)數(shù)據(jù)缺失不敏感,屬性相關(guān)性大時(shí)效果欠佳,除此外還需要知道先驗(yàn)概率;對(duì)于KNN算法,該算法模型優(yōu)勢(shì)在于簡(jiǎn)單易理解,無(wú)須訓(xùn)練集、準(zhǔn)確性高、適合多標(biāo)簽問(wèn)題,但面臨數(shù)據(jù)多維不平衡時(shí)其準(zhǔn)確率會(huì)受到影響大幅下降,且可解釋性差;然后是決策樹(shù),決策樹(shù)是一種基本的分類方法,優(yōu)勢(shì)在于能夠處理數(shù)值類和類別類的特征,但是它不是很穩(wěn)定,對(duì)于數(shù)據(jù)的噪音非常敏感;其次是SVM,SVM是一種有小樣本學(xué)習(xí)方法,沒(méi)有傳統(tǒng)的歸納演繹過(guò)程,抓住關(guān)鍵、刪除所謂冗余部分,高效且簡(jiǎn)單,大大簡(jiǎn)化了常用的分類問(wèn)題,而且具有較好的“魯棒”性,但不可避免的問(wèn)題是該算法針對(duì)大規(guī)模的數(shù)據(jù)使無(wú)法實(shí)施,且難以進(jìn)行多分類的;最后分析多層感知器(Multi-layer perceptron, MLP)[3],MLP是基礎(chǔ)的人工神經(jīng)網(wǎng)絡(luò),是前向結(jié)構(gòu)、十分簡(jiǎn)單,主要優(yōu)勢(shì)在于不僅可以對(duì)線性不可分?jǐn)?shù)據(jù)進(jìn)行識(shí)別,而且高效快速的在原始數(shù)據(jù)集中提取學(xué)習(xí)數(shù)據(jù)中的高級(jí)特征,能快速解決復(fù)雜分類問(wèn)題。
雖然以上傳統(tǒng)方法都能對(duì)乳腺癌數(shù)據(jù)進(jìn)行合理的分類,但乳腺癌數(shù)據(jù)中患病數(shù)目占總數(shù)據(jù)較小,是不平衡的數(shù)據(jù),用傳統(tǒng)的分類方法對(duì)乳腺癌數(shù)據(jù)集進(jìn)行分類準(zhǔn)確率偏低?;谝焉蟼鹘y(tǒng)分類模型,選擇一種簡(jiǎn)單且高效準(zhǔn)確的分類方法——MLP,提出在MLP中嵌入監(jiān)督對(duì)比學(xué)習(xí),彌補(bǔ)MLP受不平衡數(shù)據(jù)的影響,旨在達(dá)到更高的分類效果和準(zhǔn)確率。
1.2? 監(jiān)督對(duì)比學(xué)習(xí)
對(duì)比學(xué)習(xí)(Contrastive Learning)[4]是針對(duì)無(wú)監(jiān)督學(xué)習(xí)[6]提出的一種的方法,廣泛應(yīng)用于自我監(jiān)督學(xué)習(xí)中[7],而后發(fā)展為自監(jiān)督學(xué)習(xí)的對(duì)比,最后發(fā)展出帶標(biāo)簽的有監(jiān)督學(xué)習(xí),他們是利用標(biāo)簽信息來(lái)進(jìn)行對(duì)比學(xué)習(xí)。此外,對(duì)比學(xué)習(xí)也以監(jiān)督的方式使用,成為監(jiān)督對(duì)比學(xué)習(xí),監(jiān)督對(duì)比學(xué)習(xí)增加了對(duì)比學(xué)習(xí)中對(duì)于正樣本選擇的范圍,更有利于分類效果。
監(jiān)督對(duì)比學(xué)習(xí)[8]中的監(jiān)督對(duì)比損失函數(shù)(Supcon)[9]是一種新的損失函數(shù),它使對(duì)比學(xué)習(xí)能夠應(yīng)用于監(jiān)督環(huán)境,通過(guò)利用標(biāo)記數(shù)據(jù),鼓勵(lì)將來(lái)自同一類的規(guī)范化嵌入拉得更近,而將來(lái)自不同類的嵌入拉得更遠(yuǎn),該方法增強(qiáng)了正樣本選擇,使正樣本更加多樣化,同時(shí)仍然包含語(yǔ)義等相關(guān)信息。主要作用有以下幾點(diǎn):
(1)首先Supcon可以在下游訓(xùn)練中使用,還通過(guò)標(biāo)簽信息在特征學(xué)習(xí)中發(fā)揮積極作用,提高分類效果;
(2)Supcon簡(jiǎn)單易于實(shí)現(xiàn),訓(xùn)練穩(wěn)定,對(duì)一些數(shù)據(jù)集和體系結(jié)構(gòu)的精確度達(dá)到了一定的提升;
(3)對(duì)超參數(shù)變化具有魯棒性。
本文中考慮的監(jiān)督對(duì)比損失,將來(lái)自同一類別的所有樣本作為正的樣本集與來(lái)自同一個(gè)數(shù)據(jù)集中剩余樣本的負(fù)的樣本集進(jìn)行對(duì)比學(xué)習(xí)。此外它的功能還有很多,例如在自然語(yǔ)言處理中,監(jiān)督對(duì)比學(xué)習(xí)幫助在輔助任務(wù)上進(jìn)行預(yù)訓(xùn)練大型語(yǔ)言模型;在圖片的學(xué)習(xí)中,也有自我監(jiān)督學(xué)習(xí)的應(yīng)用。Supcon可以通過(guò)最大化數(shù)據(jù)與其增廣數(shù)據(jù)的相似性同時(shí)最小化與其他數(shù)據(jù)的相似性來(lái)學(xué)習(xí)數(shù)據(jù)的特征表示。將其應(yīng)用在疾病等領(lǐng)域的應(yīng)用是十分可取的、有效的。
2? 模型方法
在本文中,目標(biāo)是學(xué)習(xí)到對(duì)乳腺癌數(shù)據(jù)分類有效的特征表示。因此,提出了一種基于監(jiān)督對(duì)比學(xué)習(xí)的乳腺癌檢測(cè)算法。該算法將監(jiān)督對(duì)比學(xué)習(xí)嵌入在多層感知機(jī)中,不僅能獲得更好的嵌入式特征表示,同時(shí)也彌補(bǔ)原MLP針對(duì)不平衡數(shù)據(jù)的分類問(wèn)題。如圖1所示,展示了基于監(jiān)督對(duì)比學(xué)習(xí)的多層感知機(jī)模型(Supcon-MLP)。在Supcon-MLP模型中,包含數(shù)據(jù)增廣、編碼器、激活層和輸出層。通過(guò)加入了一種新的監(jiān)督對(duì)比損失(Supcon),最大化數(shù)據(jù)與其增廣數(shù)據(jù)的相似性同時(shí)最小化與其他數(shù)據(jù)的相似性來(lái)學(xué)習(xí)數(shù)據(jù)的特征表示。
Supcon-MLP模型主要包含三個(gè)步驟:
(1)數(shù)據(jù)增強(qiáng),對(duì)一個(gè)樣本的數(shù)據(jù)的特征做隨機(jī)的增廣,產(chǎn)生兩個(gè)數(shù)據(jù)xi,xj;
(2)這兩個(gè)數(shù)據(jù)送到多層感知中機(jī)進(jìn)行編碼,并進(jìn)行投影操作,最后產(chǎn)生兩個(gè)特征向量z,嵌入表示zi,zj;
(3)利用監(jiān)督對(duì)比損失函數(shù)Supcon計(jì)算損失,利用交叉熵?fù)p失進(jìn)行分類。
接下來(lái)具體介紹關(guān)于該模型的三個(gè)組成部分。
2.1? 數(shù)據(jù)增強(qiáng)
數(shù)據(jù)量規(guī)模小會(huì)導(dǎo)致難以發(fā)現(xiàn)隱藏的內(nèi)容,數(shù)據(jù)規(guī)模越大,質(zhì)量就越高,模型的泛化能力就越高。因此解決此類樣本數(shù)量不均衡、數(shù)據(jù)規(guī)模小的問(wèn)題,常通過(guò)數(shù)據(jù)增強(qiáng)的方式有效提高,使模型擁有較好的泛化能力。
采用簡(jiǎn)單的數(shù)據(jù)增強(qiáng)的方式對(duì)數(shù)據(jù)進(jìn)行增強(qiáng),通過(guò)在特征中隨機(jī)選取百分之十的特征做掩碼操作[10],實(shí)現(xiàn)特征的增強(qiáng)。在增強(qiáng)中,需選取相對(duì)能維持正確的類標(biāo)簽的特征,進(jìn)行增強(qiáng)操作。如果特征發(fā)生了巨大的變化,將影響類標(biāo)簽可有效性。
2.2? 基于MLP的模型結(jié)構(gòu)
多層感知器(MLP)是一種簡(jiǎn)單、基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)。MLP結(jié)構(gòu)中包含有輸入層、隱藏層、輸出層,含有一層隱藏層是最簡(jiǎn)單的多層感知機(jī)。此外,在MLP中各層之間是全連接,流程為:輸入層→隱藏層→輸出層,最終完成對(duì)輸入的向量轉(zhuǎn)化。具體內(nèi)容有:
(1)輸入層→隱藏層:前一層的輸出會(huì)作為當(dāng)前層的輸入。計(jì)算方式為:權(quán)重乘以輸入加偏置的值。設(shè)輸入為x1,只在第一個(gè)轉(zhuǎn)換的公式為:
F(x1)=w1x1+b1? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? (1)
(2)隱藏層→輸出層:就是一個(gè)多類別的LR邏輯回歸,設(shè)輸入為x2,只在第二個(gè)的轉(zhuǎn)換的公式為:
F(x2)=w2+b2? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?(2)
(3)將輸入層、一層隱藏層和輸出層結(jié)合起來(lái)的最簡(jiǎn)單多層感知機(jī)的公式為:
F(x)=g(w2(w1x1+b1)+b2? ? ? ? ? ? ? ? ? ? ? ? (3)
此外在多層感知機(jī)中,激活函數(shù)能將線性的數(shù)據(jù)轉(zhuǎn)變?yōu)榉蔷€性的數(shù)據(jù),最終將輸出值控制在(0~1)之間。最常用的激活函數(shù)是Sigmoid函數(shù)和Relu函數(shù),在本文中選擇Relu函數(shù)。Dropout的功能是為了避免過(guò)度擬合。
2.3? 損失函數(shù)
損失函數(shù)由監(jiān)督對(duì)比損失和交叉熵?fù)p失兩部分組成如式(4)所示,兩者相關(guān)聯(lián)系如圖2所示,損失函數(shù)曲線圖如圖3所示。
lossfinal=lossCE+αlossSup? ? ? ? ? ? ? ? ? ? ? ? ? (4)
α表示平衡這兩個(gè)損失的超參數(shù)。
監(jiān)督對(duì)比損失函數(shù)的優(yōu)勢(shì)增加更多的負(fù)面因素的例子,提高了區(qū)分信號(hào)和噪聲的能力。這一特性對(duì)于通過(guò)監(jiān)督對(duì)比學(xué)習(xí)的表示學(xué)習(xí)非常重要,負(fù)樣本的數(shù)量的增加,表現(xiàn)的性能也會(huì)提高。監(jiān)督對(duì)比損失最為關(guān)鍵的方面是擁有執(zhí)行積極信息挖掘的內(nèi)在潛力。來(lái)自強(qiáng)勢(shì)的正/負(fù)的梯度貢獻(xiàn)是很大的,而對(duì)于一些簡(jiǎn)單的正/負(fù)的梯度貢獻(xiàn)是很小的。此外,對(duì)于強(qiáng)勢(shì)的正數(shù),其影響隨著負(fù)數(shù)的增加而增加。方程的該性質(zhì),將它推廣到所有正數(shù)。監(jiān)督對(duì)比損失函數(shù)公式為:
(5)
其中,I表示所有的樣本,P(i)是指與i同一類的樣本,A(i)表示的是與i不同類的樣本集,τ表示溫度參數(shù),Zi, Zj, Za為特征表示結(jié)果。
交叉熵用于計(jì)算兩個(gè)分類概率的分布差異值,特征值通過(guò)篩選后進(jìn)入softmax,對(duì)輸出的結(jié)果進(jìn)行計(jì)算處理,使其分類的正負(fù)概率值和為1,再通過(guò)交叉熵?fù)p失函數(shù)計(jì)算損失。交叉熵的值越小,模型預(yù)測(cè)效果就越好。交叉熵?fù)p失函數(shù)公式為:
(6)
3? 實(shí)驗(yàn)結(jié)果及分析
3.1? 數(shù)據(jù)集
驗(yàn)證提出的方法在乳腺癌檢測(cè)分類任務(wù)上的優(yōu)越性,對(duì)此不平衡乳腺癌數(shù)據(jù)分類的數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn),如圖4所示,為實(shí)驗(yàn)中的部分?jǐn)?shù)據(jù)。
數(shù)據(jù)集使用的分別是威斯康辛大學(xué)威斯康辛診斷乳腺癌數(shù)據(jù)庫(kù)(Wisconsin Diagnostic Breast Cancer, WDBC)和在UCI公開(kāi)數(shù)據(jù)庫(kù)中獲取的真實(shí)乳腺癌疾病診斷數(shù)據(jù)集(WHG)。如表1所示。
WDBC數(shù)據(jù)集中不平衡比為1.68,WHC數(shù)據(jù)集中不平衡比為1.9。其中WDBC數(shù)據(jù)集中的每個(gè)病例數(shù)據(jù)都包含10個(gè)特征數(shù)據(jù)和一個(gè)類別標(biāo)簽,類別標(biāo)簽為良性和惡性。其中WHC數(shù)據(jù)集中每個(gè)病例數(shù)據(jù)都包含9個(gè)特征數(shù)據(jù)和一個(gè)類別標(biāo)簽,類別標(biāo)簽為良性和惡性。對(duì)于此兩組數(shù)據(jù)集,每組數(shù)據(jù)集使用每個(gè)類70%的樣本進(jìn)行訓(xùn)練,20%用于驗(yàn)證,其余10%用于測(cè)試。
3.2? 實(shí)驗(yàn)設(shè)置
在本文提出的Supcon-MLP模型中,采用Adam優(yōu)化算法對(duì)所有模型進(jìn)行訓(xùn)練,學(xué)習(xí)率lr設(shè)置為10-2,失活率dropout設(shè)置為0.5,超參數(shù)α為1,dropout設(shè)置為0.5,迭代次數(shù)epoch設(shè)置為500次,這樣的參數(shù)設(shè)置能使模型達(dá)到理想性能。此外,所有實(shí)驗(yàn)都是在一臺(tái)Intel(R) Core(TM) i5-10200H CPU上進(jìn)行的,在Pytorch和Python 3.6中實(shí)現(xiàn)。
3.3? 評(píng)價(jià)指標(biāo)
本實(shí)驗(yàn)采用了四個(gè)評(píng)價(jià)指標(biāo),分別為準(zhǔn)確率(Accuracy)、F1、精確率(Precision) 和召回率(Recall)[11]。Acc通過(guò)計(jì)算正確分類的樣本數(shù)占據(jù)全部樣本數(shù)的比值計(jì)算,Acc代表了算法分類的準(zhǔn)確程度。Acc計(jì)算公式為:
(7)
單獨(dú)計(jì)算每一類的F1值,然后對(duì)其進(jìn)行非加權(quán)平均計(jì)算得出最終F1值。F1值是針對(duì)不平衡數(shù)據(jù)分類的關(guān)鍵指標(biāo),能更好反映出不平衡數(shù)據(jù)分類模型的好壞。F1計(jì)算公式為:
(8)
Pre值指的是被預(yù)測(cè)為正類的數(shù)據(jù)中所有真正類所占的比重。Pre計(jì)算公式為:
(9)
Rec值指的是真正類數(shù)據(jù)中被預(yù)測(cè)正確的數(shù)據(jù)所占比例。Rec計(jì)算公式為:
(10)
3.4? 實(shí)驗(yàn)對(duì)比模型
為了證明提出模型的有效性,在乳腺癌數(shù)據(jù)集上分別使用決策樹(shù)法、樸素貝葉斯分類器、SVM、KNN、MLP進(jìn)行對(duì)比分類。
3.5? 實(shí)驗(yàn)結(jié)果
3.5.1? 與其他模型的比較結(jié)果
評(píng)估本文所提出的算法在不平衡數(shù)據(jù)分類問(wèn)題中的有效性,在上述兩個(gè)數(shù)據(jù)集上將其與其他五個(gè)分類器算法進(jìn)行了比較,如表2所示,分析得出,與其他分類模型相比,該模型的結(jié)果優(yōu)于其他所有分類模型。例如,與沒(méi)有嵌入對(duì)比學(xué)習(xí)的多層感知機(jī)相比,在數(shù)據(jù)集WDBC上的Acc值和F1值分別提高了3.2%和9.9%,數(shù)據(jù)的提升證明所提出算法的有效性。
3.5.2? 監(jiān)督對(duì)比損失函數(shù)對(duì)數(shù)據(jù)的影響
如表3所示,通過(guò)改變平衡這監(jiān)督對(duì)比損失和交叉熵?fù)p失函數(shù)的超參數(shù),用準(zhǔn)確率、F1、精確率、召回率四個(gè)指標(biāo)檢驗(yàn)該模型的分類性能。實(shí)驗(yàn)結(jié)果表明,當(dāng)α為1時(shí),即監(jiān)督損失函數(shù)和交叉熵?fù)p失比值為1時(shí),各項(xiàng)指標(biāo)都會(huì)達(dá)到最高,分類性能同步達(dá)到最高。
4? 結(jié)? 論
乳腺癌檢測(cè)主要針對(duì)不平衡數(shù)據(jù),機(jī)器學(xué)習(xí)的方法對(duì)不平衡數(shù)據(jù)的檢測(cè)常伴隨有少數(shù)類精確率不高和噪聲影響較大的問(wèn)題。針對(duì)此問(wèn)題,提出了一種基于監(jiān)督對(duì)比學(xué)習(xí)的乳腺癌檢測(cè)算法,利用監(jiān)督對(duì)比學(xué)習(xí)的優(yōu)勢(shì),將同一類樣本中的特征數(shù)據(jù)盡可能靠近,非同類樣本的特征數(shù)據(jù)盡量遠(yuǎn)離,來(lái)區(qū)分不同類別的數(shù)據(jù)。監(jiān)督對(duì)比學(xué)習(xí)的加入能最大限度地挖掘正負(fù)樣本信息,多層感知機(jī)同時(shí)對(duì)數(shù)據(jù)特征有著高效的提取和學(xué)習(xí),所以能大幅度地提升乳腺癌的檢測(cè)。實(shí)驗(yàn)結(jié)果表明,提出的基于監(jiān)督對(duì)比學(xué)習(xí)的乳腺癌檢測(cè)算法是十分有效的,在之后的研究中,希望將該算法模型擴(kuò)展到更多的應(yīng)用領(lǐng)域。
參考文獻(xiàn):
[1] BRAY F,F(xiàn)ERLAY J,SOERJOMATARAM I,et al.Global Cancer Statistics 2018:Globocan Estimates of incidence and Mortality Worldwide for 36 Cancers in 185 Countries [J].CA Cancer J Clin,2018,68(6):394-424.
[2] HASTIE T,TIBSHIRANI R,F(xiàn)RIEDMAN J.The Elements of Statistical Learning [M].Springer Series in Statistics.Berlin:Springer,2009.
[3] ISA I S,SAAD Z,OMAR S,et al.Suitable MLP Network Activation Functions for Breast Cancer and Thyroid Disease Detection [C]//2010 Second International Conference on Computational Intelligence,Modelling and Simulation.Bali:IEEE,2010:39-44.
[4] CHEN T,KORNBLITH S,NOROUZI M,et al.A Simple Framework for Contrastive Learning of Visual Representations [J/OL].arXiv:2002.05709 [cs.LG].[2022-08-03].https://arxiv.org/abs/2002.05709v2.
[5] TIAN Y L,SUN C,POOLE B,et al.What makes for good views for Contrastive Learning? [J/OL].arXiv:2005.10243 [cs.CV].[2022-08-06].https://arxiv.org/abs/2005.10243.
[6] HE K,F(xiàn)AN H,WU Y,et al.Momentum Contrast for Unsupervised Visual Representation Learning [J].Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2020:9726-9735.
[7] HU X M,ZHANG C W,XU Y S,et al.SelfORE:Self-Supervised Relational Feature Learning for Open Relation Extraction [J/OL].arXiv:2004.02438 [cs.CL].[2022-08-09].https://arxiv.org/abs/2004.02438.
[8] KHOSLA P,TETERWAK P,WANG C,et al.Supervised Contrastive Learning [J/OL].arXiv:2004.11362 [cs.LG].[2022-08-07].https://arxiv.org/abs/2004.11362.
[9] YANG S,WANG S D,WANG Y Q,et al.MB-Supcon:Microbiome-based Predictive Models via Supervised Contrastive Learning [J].Journal of Molecular Biology,2022,434(15):167693.
[10] WANG J,YANG C C,YAN L H,et al.Speech Enhancement Algorithm of Binary Mask Estimation Based on a Priori SNR Constraints [C]//2018 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC).Honolulu:IEEE,2018:937-943.
[11] 王成,劉亞峰,王新成,等.分類器的分類性能評(píng)價(jià)指標(biāo) [J].電子設(shè)計(jì)工程,2011,19(8):13-15+21.
作者簡(jiǎn)介:栗鑫(1995—),男,漢族,山西長(zhǎng)治人,碩士研究生在讀,研究方向:機(jī)器學(xué)習(xí)。
收稿日期:2022-10-23