李曉坤 鄭永亮 邵娜
摘? 要: 隨著信息技術(shù)的飛速發(fā)展,AI技術(shù)在各個(gè)領(lǐng)域都得到了廣泛研究并應(yīng)用,更在一些領(lǐng)域打破了當(dāng)下困惑,突破了瓶頸。將AI技術(shù)與醫(yī)學(xué)影像處理結(jié)合是一項(xiàng)非常具有前景的項(xiàng)目?;贏I技術(shù)在醫(yī)學(xué)影像領(lǐng)域的應(yīng)用具備很多種可能。當(dāng)下社會(huì),癌癥逐漸成為中共公民的致命殺手。最常見(jiàn)的診斷模式就是放射科醫(yī)生根據(jù)CT影像診斷。但是以目前的條件,并不能保證患者在早期發(fā)現(xiàn)癌癥,故而錯(cuò)失了最佳治療時(shí)機(jī)。我們需要一種能夠發(fā)現(xiàn)早期癌癥并診斷的方法。正文主要介紹了AI技術(shù)與醫(yī)學(xué)影像處理技術(shù)的發(fā)展歷史及發(fā)展近況,研究目的及意義。通過(guò)AI技術(shù)建立影像識(shí)別模型從而引入醫(yī)學(xué)影像處理技術(shù)中分析其發(fā)展前景?,F(xiàn)如今人工智能已成為了當(dāng)下的熱門(mén)課題。深度學(xué)習(xí)的提出不僅拓展了AI技術(shù)的整體范圍,還突破了當(dāng)下許多技術(shù)難題。本文以肺部疾病為例,應(yīng)用深度學(xué)習(xí)技術(shù),探討基于AI技術(shù)在醫(yī)學(xué)影像處理的應(yīng)用,從而達(dá)到促進(jìn)醫(yī)療水平進(jìn)步的目的。
關(guān)鍵詞: AI技術(shù);深度學(xué)習(xí);醫(yī)學(xué)影像
【Abstract】: With the rapid development of information technology, AI technology has been widely researched and applied in various fields, breaking the confusion in some fields and breaking through the bottleneck. The combination of AI technology and medical image processing image is a very promising project. There are many possibilities in the application of AI technology in the field of medical imaging. In the present society, cancer has gradually become a fatal killer of the citizens of the Communist Party of China. The most common diagnostic model is a radiologist based on CT imaging. But with the current conditions, it does not guarantee the early detection of cancer, so the best time for treatment is lost. We need a way to detect and diagnose early cancer. The text mainly introduces the development history and recent development of AI technology and medical image processing technology, and the purpose and significance of the research. The AI technology is used to establish the image recognition model and then introduce the medical image processing technology to analyze its development prospect. Now artificial intelligence has become a hot topic. The advanced study not only expands the overall scope of AI technology, but also breaks through many technical problems. Taking lung disease as an example, we apply deep learning technology to explore the application of AI technology in medical image processing, so as to achieve the goal of improving medical level.
【Key words】: AI technology; Deep learning; Medical images
0? 引言
伴隨著人類幾千年的進(jìn)步,人類逐漸走向了信息化時(shí)代。在這個(gè)大環(huán)境下,AI技術(shù)得到了飛躍性的發(fā)展。AI技術(shù)已經(jīng)融入了各行各業(yè)并得到了廣泛的應(yīng)用。包括由AI技術(shù)衍生的機(jī)器學(xué)習(xí)及深度學(xué)習(xí)技術(shù)都得到了眾多科研人員的深入研究。基于AI技術(shù)在醫(yī)學(xué)影像處理中的應(yīng)用是非常具有前景的研究方向,該方面的研究成果對(duì)人類現(xiàn)代醫(yī)學(xué)的進(jìn)步起著促進(jìn)作用。癌癥已成為現(xiàn)如今最為致命的疾病。根據(jù)統(tǒng)計(jì),中國(guó)在一年中大約產(chǎn)生429.2萬(wàn)新發(fā)癌癥病例,約有281.4萬(wàn)人死于癌癥。在這些統(tǒng)計(jì)數(shù)據(jù)中,新發(fā)現(xiàn)肺癌癥73.3萬(wàn)例,大約有61萬(wàn)人死于肺癌,因而肺癌已經(jīng)成為中國(guó)公民癌癥人群中最致命的利刃。不僅在中國(guó),在全世界范圍內(nèi)肺癌都是死亡率非常高的疾病[1]。肺癌之所以致死率極高,很大的原因是患者在早期未能及時(shí)發(fā)現(xiàn),導(dǎo)致一旦發(fā)現(xiàn)病情已經(jīng)處于晚期。因此對(duì)肺癌的診斷一定要具備時(shí)效性和準(zhǔn)確性。目前最常規(guī)的診斷方式是放射科醫(yī)生根據(jù)CT圖像,通過(guò)大小、鈣化形式、密度等診斷肺結(jié)節(jié)。隨著發(fā)病率的居高不下,國(guó)內(nèi)各大醫(yī)院均呈現(xiàn)出一種人滿為患的趨勢(shì),患者的數(shù)量與醫(yī)生的數(shù)量不成正比。在防止病人疾病惡化的前提下,并不能保持一定的時(shí)效性。近些年人工智能技術(shù)已成為大熱,尤其是深度學(xué)習(xí)技術(shù)在圖像識(shí)別領(lǐng)域得到了飛躍性的進(jìn)步[2]。因此基于AI技術(shù)在醫(yī)學(xué)影像處理方面領(lǐng)域的應(yīng)用是非常具備研究前景的。
計(jì)算機(jī)輔助檢測(cè)(CADe),也被稱為計(jì)算機(jī)輔助診斷(CADx),是幫助醫(yī)生處理醫(yī)學(xué)圖像的系統(tǒng)。X射線、MRI和超聲診斷中的成像技術(shù)中產(chǎn)生了大量的信息,放射科醫(yī)生或其他醫(yī)學(xué)專業(yè)人員必須在短時(shí)間內(nèi)全面分析和評(píng)估。CAD系統(tǒng)處理并分析相應(yīng)的醫(yī)學(xué)圖像。并標(biāo)記相關(guān)部分,如可能獲得的疾病,以便幫助醫(yī)生作出醫(yī)療方案。CAD能夠檢測(cè)出特征異常的患者,早期靠人力并不能及時(shí)發(fā)現(xiàn),例如糖尿病視網(wǎng)膜病變、乳腺結(jié)構(gòu)扭曲[3]-[4]、CT中的磨玻璃結(jié)節(jié)[5-6]等。在肺癌的診斷中,建立了特殊的三維CAD系統(tǒng),并考慮了相應(yīng)條件[7]。在此基礎(chǔ)上,編制并分析了多達(dá)3000個(gè)單一圖像的體積數(shù)據(jù)集。圓形病灶1毫米可檢出。肺癌的早期發(fā)現(xiàn)是非常具有價(jià)值的。肺癌的5年生存率率停滯在過(guò)去的30年,現(xiàn)在大約只有15%。肺癌比乳腺癌、前列腺癌和結(jié)腸癌的患者更多。這是由于這種癌癥的無(wú)癥狀生長(zhǎng)所致。在大多數(shù)情況下,如果患者的最初癥狀是成功治療太晚。根據(jù)美國(guó)癌癥學(xué)會(huì)估計(jì),如果肺癌在早期被發(fā)現(xiàn),生存率將提高到47%。雖然計(jì)算機(jī)CAD已經(jīng)在臨床環(huán)境使用40余年,但是該系統(tǒng)高度依賴人工設(shè)定的特征,并不能代替醫(yī)生或?qū)I(yè)人員,僅僅起到一個(gè)輔助作用。這種傳統(tǒng)的淺層學(xué)習(xí)結(jié)構(gòu)在面對(duì)復(fù)雜且龐大的數(shù)據(jù)時(shí),并不能發(fā)揮其優(yōu)勢(shì)。
1? 醫(yī)學(xué)影像處理技術(shù)和AI技術(shù)的概述
1.1? AI技術(shù)概述
人工智能是一種由機(jī)器來(lái)獨(dú)立運(yùn)作的智能技術(shù),與人類和其他動(dòng)物展示的自然智能(NI)形成對(duì)比。計(jì)算機(jī)科學(xué)中的人工智能研究定義為“智能代理”研究:任何設(shè)備,感知其環(huán)境,并采取行動(dòng),最大限度地發(fā)揮其成功地實(shí)現(xiàn)其目標(biāo)的機(jī)會(huì)[8]?!叭斯ぶ悄堋睉?yīng)用機(jī)器模仿人類與人類其他大腦認(rèn)知功能如“學(xué)習(xí)”和“問(wèn)題解決”[9]。一個(gè)典型的人工智能能夠感知其環(huán)境,并采取行動(dòng),最大限度地發(fā)揮其成功實(shí)現(xiàn)其目標(biāo)的機(jī)會(huì)。人工智能的目標(biāo)函數(shù)可以是簡(jiǎn)單的(如AI贏了圍棋為“1”否則“0”)或復(fù)雜(在數(shù)學(xué)上采取類似的行動(dòng),得到回饋)。目標(biāo)可以明確定義,或者可以誘導(dǎo)。如果AI編程是“強(qiáng)化學(xué)習(xí)”,目標(biāo)可以隱式地通過(guò)獎(jiǎng)勵(lì)和懲罰某些行為從而進(jìn)行學(xué)習(xí)。另外,進(jìn)化系統(tǒng)可以誘導(dǎo)目標(biāo)采用“健身功能”的變異和優(yōu)先復(fù)制高得分的AI系統(tǒng);這是類似于動(dòng)物進(jìn)化是靠天生的欲望達(dá)成某些目標(biāo),如尋找食物,或是狗可以通過(guò)人工選擇培育具有所需性狀。一些人工智能系統(tǒng)如近鄰或類推;這些系統(tǒng)一般都不是給定的目標(biāo),但目標(biāo)是某種程度的訓(xùn)練數(shù)據(jù)。人工智能通常圍繞算法的使用。算法是機(jī)械計(jì)算機(jī)能夠執(zhí)行的一組明確的指令。復(fù)雜算法通常建立在其他簡(jiǎn)單算法之上。一個(gè)簡(jiǎn)單的算法例子是如下:在井字游戲中最佳打法。機(jī)器學(xué)習(xí)是人工智能研究的一個(gè)基本概念。無(wú)監(jiān)督學(xué)習(xí)是在輸入流中找到模式的能力。有監(jiān)督學(xué)習(xí)包括分類和數(shù)值回歸。分類是用來(lái)確定某物屬于什么范疇?;貧w是試圖產(chǎn)生一個(gè)函數(shù)來(lái)描述輸入和輸出之間的關(guān)系,并預(yù)測(cè)當(dāng)輸入改變時(shí)輸出應(yīng)該如何變化。在強(qiáng)化學(xué)習(xí)中,代理人因良好的反應(yīng)而受到獎(jiǎng)勵(lì),并因不良的行為而受到懲罰。代理使用這種獎(jiǎng)勵(lì)和懲罰的順序,形成在其問(wèn)題空間中運(yùn)行的策略。這機(jī)器學(xué)習(xí)算法及其性能的數(shù)學(xué)分析是理論計(jì)算機(jī)科學(xué)的一個(gè)分支,被稱為計(jì)算學(xué)習(xí)理論,為AI技術(shù)的打開(kāi)了一扇嶄新的大門(mén)。在發(fā)展機(jī)器人技術(shù),發(fā)展學(xué)習(xí)
方法闡述讓機(jī)器人通過(guò)自主學(xué)習(xí)積累新的技能,如人類教師的社會(huì)互動(dòng)或引導(dǎo)機(jī)制的使用[10-11-12-13]。十一世紀(jì),人工智能技術(shù)經(jīng)歷了計(jì)算機(jī)動(dòng)力、大量數(shù)據(jù)和理論理解的同步發(fā)展,而人工智能技術(shù)已成為科技產(chǎn)業(yè)的重要組成部分,有助于解決計(jì)算機(jī)科學(xué)中許多具有挑戰(zhàn)性的問(wèn)題。
1.2? 深度學(xué)習(xí)技術(shù)概述
杰弗里·辛頓等人在21世紀(jì)初提出了深度學(xué)習(xí)的技術(shù)。在當(dāng)時(shí)的環(huán)境下,深層結(jié)構(gòu)學(xué)習(xí)是一項(xiàng)難以攻克的技術(shù)難題。后來(lái)一種名為非監(jiān)督逐層訓(xùn)練算法的算法被提出,突破了當(dāng)時(shí)的技術(shù)瓶頸。后來(lái)又提出來(lái)一種能夠利用空間關(guān)系的控制進(jìn)而大幅度簡(jiǎn)化參數(shù),從而達(dá)到提高訓(xùn)練性能的目的[14]。就是深層結(jié)構(gòu)編碼的編碼器。深度學(xué)習(xí)是由多個(gè)深度神經(jīng)網(wǎng)組成。在圖像識(shí)別、醫(yī)療診斷、語(yǔ)音識(shí)別、社交網(wǎng)絡(luò)、智能翻譯等領(lǐng)域中均得到了可觀的進(jìn)展。有些領(lǐng)域,經(jīng)過(guò)深度學(xué)習(xí)能力訓(xùn)練后,他的能力甚至要優(yōu)于該領(lǐng)域的專家。深度學(xué)習(xí)是一種在海量數(shù)據(jù)中深度挖掘并學(xué)習(xí)的機(jī)器學(xué)習(xí)模式,深度學(xué)習(xí)的提出拓展了AI的范圍,使得AI技術(shù)得到了進(jìn)一步的發(fā)展。在特征的提取與轉(zhuǎn)換過(guò)程中,與傳統(tǒng)模式不同的是利用級(jí)聯(lián)多個(gè)非線性處理單元。連續(xù)層之前的輸入層與輸出層之間互相轉(zhuǎn)換,下一層利用上一層的輸出層作為輸入層。深度學(xué)習(xí)采取的是一種多層空間架構(gòu),不同層之間進(jìn)行映射。若干個(gè)層次堆積起來(lái)形成一種多層次結(jié)構(gòu),采取一種坡度下降的模式來(lái)執(zhí)行反向傳播訓(xùn)練。深度學(xué)習(xí)中包含人工神經(jīng)網(wǎng)絡(luò)和隱含層。與此同時(shí)也可能包含深層學(xué)習(xí)模型中組織變量的潛變量。例如深層信念網(wǎng)絡(luò)中所包含的節(jié)點(diǎn)和深度玻爾茲曼機(jī)。
2? 數(shù)據(jù)來(lái)源及技術(shù)概述
2.1? 數(shù)據(jù)來(lái)源
本文所使用的實(shí)驗(yàn)數(shù)據(jù)是來(lái)自于哈爾濱某影像數(shù)據(jù)中心的CT圖像,包含了224個(gè)病例,其中共有563個(gè)結(jié)節(jié),直徑范圍在3-30mm。使用的是美國(guó)通用公司的GE Discovery ST16 PET-CT機(jī)。
2.2? 卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)是機(jī)器學(xué)習(xí)領(lǐng)域范疇內(nèi)的一種前饋人工神經(jīng)網(wǎng)絡(luò),適合應(yīng)用在圖像識(shí)別、語(yǔ)音識(shí)別等領(lǐng)域。CNN具備變化多層感知器,對(duì)預(yù)處理的要求最小[15]。這是一種具備空間穩(wěn)定性的神經(jīng)網(wǎng)絡(luò),同時(shí)具備權(quán)重共享的特點(diǎn)[16-17]。卷積神經(jīng)網(wǎng)絡(luò)的靈感來(lái)源于生物學(xué)[18],借鑒了動(dòng)物視覺(jué)皮層組織結(jié)構(gòu)。只有受約束的可觀測(cè)區(qū)域會(huì)刺激獨(dú)立的神經(jīng)單位,這被稱作感受野。這意味著深度網(wǎng)絡(luò)引用了傳統(tǒng)算法中手工設(shè)計(jì)的過(guò)濾器。在特征設(shè)計(jì)中,這種獨(dú)立于先前知識(shí)和人工學(xué)習(xí)的獨(dú)立性是一個(gè)主要優(yōu)點(diǎn)。卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別、語(yǔ)音識(shí)別、推薦系統(tǒng)[19]和語(yǔ)言識(shí)別分析等領(lǐng)域都有廣泛應(yīng)用[20]。其結(jié)構(gòu)圖如圖1所示。
2.3? 深度卷積神經(jīng)網(wǎng)絡(luò)
深度卷積神經(jīng)網(wǎng)絡(luò)是屬于多層范疇內(nèi)的神經(jīng)網(wǎng)絡(luò)。傳統(tǒng)神經(jīng)網(wǎng)絡(luò)大多采取層與層全連接的架構(gòu)模式,而該網(wǎng)絡(luò)采取的是一種稀疏式連接。這種連接方式的優(yōu)勢(shì)是可以深入分析該神經(jīng)網(wǎng)絡(luò)層與層之間的相關(guān)性,在提取具有因果關(guān)系數(shù)據(jù)的過(guò)程中效果顯著。在圖像識(shí)別、語(yǔ)音識(shí)別、語(yǔ)義分析等領(lǐng)域都比較適用。在本文中以肺癌PET-CT圖像為例,每一卷積層的偏執(zhí)項(xiàng)及權(quán)重矩陣等參數(shù)相同,對(duì)圖像中進(jìn)行特征提取計(jì)算,最終得出輸入端的特征圖。這種權(quán)重共享的模式其中最大優(yōu)點(diǎn)就是可有有效的降低網(wǎng)絡(luò)架構(gòu)中的參數(shù),大幅減少在網(wǎng)絡(luò)中的計(jì)算成本。相對(duì)于原始的神經(jīng)網(wǎng)絡(luò),該神經(jīng)網(wǎng)絡(luò)的架構(gòu)通常是由卷積層與池化層組合搭建,并且層的數(shù)量也相對(duì)較多。其結(jié)構(gòu)特征圖如圖2所示。當(dāng)下深度卷積神經(jīng)網(wǎng)絡(luò)通過(guò)梯度下降法來(lái)降低大量運(yùn)算過(guò)程中的數(shù)據(jù)丟失,從而對(duì)各個(gè)參數(shù)進(jìn)行反向調(diào)節(jié),利用多次迭代訓(xùn)練的方式加強(qiáng)該神經(jīng)網(wǎng)絡(luò)的訓(xùn)練能力[21]。
2.4? 3D卷積神經(jīng)網(wǎng)絡(luò)
3D CNN相對(duì)于傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō)能夠更有效的捕捉時(shí)間與空間的數(shù)據(jù)信息。3D CNN對(duì)影像處理的時(shí)間維度為3。換一種說(shuō)法就是將對(duì)連續(xù)的3幀影像進(jìn)行卷積操作,通過(guò)3D卷積捕捉多個(gè)連續(xù)的幀用來(lái)組成一個(gè)立方體,之后輸入該立方體運(yùn)用卷積核計(jì)算。在這個(gè)架構(gòu)中之中,卷積層中的特征map會(huì)和上一層的多個(gè)連續(xù)幀相連接,從而達(dá)到捕捉運(yùn)動(dòng)信息的目的。因?yàn)樵?D CNN中權(quán)值是共享的,所以3D卷積核只允許從cube中提取一種類型的特征[23]。結(jié)構(gòu)特征圖如圖3所示。
3? 醫(yī)學(xué)影像處理建模實(shí)驗(yàn)
本節(jié)將基于AI技術(shù)在醫(yī)學(xué)影像處理的應(yīng)用進(jìn)行實(shí)驗(yàn),從而計(jì)算出不同方法的準(zhǔn)確率、敏感度以及特異性。
準(zhǔn)備階段:本節(jié)所使用的實(shí)驗(yàn)數(shù)據(jù)是來(lái)自于哈爾濱某影像數(shù)據(jù)中心的CT圖像,包含了224個(gè)病例,其中共有563個(gè)結(jié)節(jié),直徑范圍在3-30mm。使用的是美國(guó)通用公司的GE Discovery ST16 PET-CT機(jī)。
3.1? 實(shí)驗(yàn)步驟
首先對(duì)圖像進(jìn)行預(yù)處理,將圖像中背景等影響消除,得到肺部獨(dú)立的圖像。并且對(duì)肺結(jié)節(jié)部位進(jìn)行定位選做ROI.如圖4所示。在數(shù)據(jù)的處理方面,將數(shù)據(jù)集中的CT圖像的HU值限定在(-1000-400)。以便高效率的進(jìn)行對(duì)有效組織的訓(xùn)練與學(xué)習(xí),以此過(guò)濾掉噪聲等對(duì)對(duì)肺部圖像計(jì)算的影響。然后將HU值通過(guò)標(biāo)準(zhǔn)化處理限定在0-1之間,從而為訓(xùn)練提速。對(duì)于普通神經(jīng)網(wǎng)絡(luò),將CT圖像從512?512px改變成為260?260px,目的是降低圖像計(jì)算程度,提高計(jì)算效率。在3D CNN架構(gòu)中,在結(jié)節(jié)中選取一個(gè)中心點(diǎn)為坐標(biāo),組合成一個(gè)16?16?16px的小立方體,用作輸出。在檢測(cè)出結(jié)節(jié)后,根據(jù)其大小外表特征等對(duì)其分類判斷是否為惡性結(jié)節(jié)從而進(jìn)行診斷。該實(shí)驗(yàn)將分別選取CNN、DCNN、3D CNN模型進(jìn)行實(shí)驗(yàn),與此同時(shí)選取AlexNet這種經(jīng)典模型進(jìn)行比較。
3.2? 實(shí)驗(yàn)結(jié)果及分析
依照實(shí)驗(yàn)步驟計(jì)算可得出結(jié)果如表1所示。
通過(guò)上述過(guò)程,得出使用不同神經(jīng)網(wǎng)絡(luò)的靈敏度、特異性、正確率以及假陽(yáng)性率的差異,在人工智能技術(shù)得到廣泛應(yīng)用的前提下,我們選取了經(jīng)典的神經(jīng)網(wǎng)絡(luò)AlexNet、CNN以及新型的神經(jīng)網(wǎng)絡(luò)架構(gòu)DCNN、3D CNN。根據(jù)表1可以看出3D CNN的對(duì)于肺結(jié)節(jié)的檢測(cè)能力要優(yōu)于其他模型。更加證明了基于AI技術(shù)在醫(yī)學(xué)影像處理方面的應(yīng)用是非常具有發(fā)展前景的。
4? 結(jié)論
根據(jù)上述實(shí)驗(yàn)可以看出,基于AI技術(shù)在醫(yī)學(xué)影像處理中的應(yīng)用是一種高效而精準(zhǔn)的途徑。選取四個(gè)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行對(duì)比。從靈敏度的對(duì)比中可以看出,3D CNN比AlexNet高了4.17%,比CNN高了4.98%,比3D CNN高了1.17%;從特異性的對(duì)比中可以看出,3D CNN比AlexNet高了4.98%,比CNN高了5.29%,比3D CNN高了1.2%;從正確率的對(duì)比中可以看出,3D CNN比AlexNet高了7.77%,比CNN高了8.76%,比3D CNN高了2.89%;從假陽(yáng)性率的對(duì)比中可以看出,3D CNN比AlexNet低了1.2%,比CNN低了1.42%,比3D CNN低了0.56%。對(duì)以上數(shù)據(jù)我們分析其原因,DCNN網(wǎng)絡(luò)相對(duì)于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō)層數(shù)較多,并且卷積層與池化層相結(jié)合,在通過(guò)梯度下降的方式盡量減少了函數(shù)的損失,進(jìn)而提高了計(jì)算能力。3D CNN相對(duì)于其他模型來(lái)說(shuō)表現(xiàn)更好,主要是因?yàn)?D CNN網(wǎng)絡(luò)能夠?qū)臻g特征進(jìn)行分析并學(xué)習(xí)。
隨著中國(guó)公民生活水平的大幅度提高,人口基數(shù)不斷增長(zhǎng)但也同時(shí)增加了大量的患者,尤其是癌癥患者的發(fā)現(xiàn)率常年居高不下。隨著計(jì)算機(jī)技術(shù)的高速發(fā)展,近年來(lái)醫(yī)學(xué)影像設(shè)備的成像水平與質(zhì)量穩(wěn)步提升[24],醫(yī)學(xué)未來(lái)發(fā)展四大方向個(gè)性化、精確化、微創(chuàng)化與遠(yuǎn)程化在計(jì)算機(jī)技術(shù)的輔助下也逐漸步清晰明了[25]。將AI技術(shù)引入醫(yī)學(xué)影像識(shí)別領(lǐng)域是一項(xiàng)造福人類的工程。結(jié)合人工智能對(duì)醫(yī)學(xué)影像進(jìn)行分析能夠極大的降低成本,并且有效的提高效率,但是,在醫(yī)學(xué)圖像處理的實(shí)際應(yīng)用中,應(yīng)根據(jù)被處理圖像的實(shí)際特點(diǎn),因地制宜[26]。人工智能發(fā)展開(kāi)始進(jìn)入了一個(gè)全新的時(shí)期[27],人工智能在專業(yè)應(yīng)用領(lǐng)域發(fā)展迅速,許多技術(shù)盡管現(xiàn)在距離實(shí)用差距很大,但在未來(lái)十到十五年極有可能實(shí)現(xiàn)[28]。本文希望通過(guò)基于AI技術(shù)在醫(yī)學(xué)影像處理的應(yīng)用研究,能夠緩解當(dāng)前的醫(yī)療困境,突破技術(shù)瓶頸,能夠更加有效的對(duì)醫(yī)學(xué)影像進(jìn)行識(shí)別,加強(qiáng)人工智能對(duì)醫(yī)療領(lǐng)域的幫助,降低醫(yī)療成本,從而促進(jìn)醫(yī)療水平進(jìn)步。
參考文獻(xiàn)
Chen W Q, Zheng R S, Zhang S W, et al, Cancer statistics in China, 2015[J]. CA Cancer J Clin, 2016, 66(2): 115-132.
Zhou S K, Greenspan H, Shen D. Deep learning for medical image analysis[M]. NewYork: Academic Press, 2017.
Bird R. E, Wallace, T. W, Yankaskas, B. C. Analysis of cancers missed at screening mammography[J]. Radiology. 1992, 184: 613-617.
Baker, J. A., Rosen, E. L; Lo, J. Y.; et al. Computer-Aided Detection (CAD) in Screening Mammography: Sensitivity of Commercial CAD Systems for Detecting Architectural Distortion[J]. American Journal of Roentgenology. 2003, 181: 1083-1088.
Jang, H. J.; Lee, K. S.; Kwon, O. J.; et al. Bronchioloalveolar carcinoma: focal area of ground-glass attenuation at thin- section CT as an early sign[J]. Radiology. 1996, 199: 485-488.
Suzuki K, Li F, Song, S, Doi, K. Computer-aided diagnostic scheme for distinction between benign and malignant nodules in thoracic low-dose CT by use of massive training artificial neural network[J]. IEEE Transactions on Medical Imaging. 2005, 24: 1138-1150.
Abe, Yoshiyuki, Hanai, Kouzo, Nakano Makiko, Ohkubo, Yasuyuki, Hasizume, Toshinori, Kakizaki, Toru, Nakamura, Masato, Niki, Noboru; Eguchi, Kenji. A Computer-aided Diagnosis (CAD) System in Lung Cancer Screening with Computed Tomography[J]. Anticancer Research. 2005, 25 (1B): 483-488.
Russell Stuart J, Norvig Peter. Artificial Intelligence: A Modern Approach (2nd ed.)[M]. New York; Prentice Hall, 2003: 124-175.
Russell Stuart J, Norvig Peter. Artificial Intelligence: A Modern Approach (3rd ed.).[M]. New York; Prentice Hall, 2009: 128-175.
Weng, J.; McClelland; Pentland, A.; Sporns, O.; Stockman, I.; Sur, M.; Thelen, E. Autonomous mental development by robots and animals[J]. Science. 2001, 291: 599-600.
Lungarella M, Metta G, Pfeifer R, Sandini G. Developmental robotics: a survey[J]. Connection Science. 2003, 15: 151- 190.
Asada M, Hosoda K, Kuniyoshi Y, Ishiguro H, Inui T, Yoshikawa Y, Ogino M, Yoshida C. Cognitive developmental robotics: a survey[J]. IEEE Transactions on Autonomous Mental Development. 2009, 1(1): 12-34.
Oudeyer P-Y.. On the impact of robotics in behavioral and cognitive sciences: from insect navigation to human cognitive development[J]. IEEE Transactions on Autonomous Mental Development. 2010, 2(1): 2-16.
孫志軍, 薛磊, 許陽(yáng)明, 王正. 深度學(xué)習(xí)研究綜述[J]. 計(jì)算機(jī)應(yīng)用研究, 2012, 29(8): 2806-2810.
LeCun, Yann. LeNet-5, convolutional neural networks[J]. Retrieved 16 November. 2013.
Zhang, Wei . Shift-invariant pattern recognition neural network and its 2optical architecture[C]// Proceedings of annual conference of the Japan Society of Applied Physics. 1988.
Zhang, Wei. Parallel distributed processing model with local space-invariant interconnections and its optical architecture[J]. Applied Optics. 1990, 29(32): 4790-7.
Matusugu, Masakazu; Katsuhiko Mori; Yusuke Mitari; Yuji Kaneda. Subject independent facial expression recognition with robust face detection using a convolutional neural network[J]. Neural Networks. 2003, 16(5): 555-559.
van den Oord, Aaron; Dieleman, Sander; Schrauwen, Benjamin. Burges, C. J. C.; Bottou, L.; Welling, M.; Ghahramani, Z.; Weinberger, K. Q., eds. Deep content-based music recommendation[J]. Curran A ssociates, Inc. pp. 2013: 2643- 2651.
Collobert, Ronan; Weston, Jason A Unified Architecture for Natural Language Processing: Deep Neural Networks with Multitask Learning[C]// Proceedings of the 25th International Conference on Machine Learning. 2008: 160-167.
Murphy K, van Ginneken B, Schilham A M R, et al. A large-scale evaluation of automatic pulmonary nodule detection in chest CT using local image features and k-nearest- neighbour classification[J]. Med Image Anal, 2009, 13(5): 757-770.
楊晶晶, 王騫, 宣曉華. 基于深度卷積神經(jīng)網(wǎng)絡(luò)算法的肺結(jié)節(jié)檢測(cè)模型[J]. 數(shù)學(xué)建模及其應(yīng)用, 2017, 6(04): 19-91.
Ji, Shuiwang, et al. 3D Convolutional Neural Networks for Human Action Recognition[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence. 2012: 221-231.
董默, 趙若晗, 周志尊, 等. 醫(yī)學(xué)圖像三維重建系統(tǒng)設(shè)計(jì)與應(yīng)用[J]. 軟件, 2018, 39(1): 87-90.
董默, 趙若晗, 周志尊, 等. CAD技術(shù)在醫(yī)學(xué)信息化發(fā)展中的應(yīng)用介紹[J]. 軟件, 2018, 39(4): 33-35.
郭璇, 鄭菲, 趙若晗, 等. 基于閾值的醫(yī)學(xué)圖像分割技術(shù)的計(jì)算機(jī)模擬及應(yīng)用[J]. 軟件, 2018, 39(3): 12-15.
梁子鑫. 探討新時(shí)代背景下新興技術(shù)在人工智能中的應(yīng)用[J]. 軟件, 2018, 39(7): 166-169.
汪子堯, 賈娟. 人工智能的前生、今世與未來(lái)[J]. 軟件, 2018, 39(2): 223-226.