宋美琪,徐皓煊,汝 童,曾華蘭,車艷玲
(1.黑龍江中醫(yī)藥大學研究生院,黑龍江 哈爾濱 150040;2.內(nèi)蒙古師范大學科學技術史研究院,內(nèi)蒙古 呼和浩特 010022;3.黑龍江省農(nóng)墾總局總醫(yī)院消化內(nèi)科,黑龍江 哈爾濱 150088;4.黑龍江中醫(yī)藥大學附屬第一醫(yī)院超聲醫(yī)學科,黑龍江 哈爾濱 150040)
人工智能這一概念最早是在1956 年的達特茅斯會議上由約翰·麥卡錫提出[1],迄今已有60 多年的歷史,現(xiàn)在作為對模仿人類智力的機器(計算機)能力和操作的一般描述[2]。它是訓練計算機來模擬人類的思維及認知功能,產(chǎn)生與人類相似的思考[3]。人工智能將經(jīng)歷3 個發(fā)展時期,即弱人工智能、強人工智能和超人工智能[4]。深度學習算法是人工智能技術發(fā)展的核心環(huán)節(jié)。在過去的幾年里,基于卷積神經(jīng)網(wǎng)絡(convolutional neural network,CNN)的學習體系成為深度學習算法中發(fā)展最快的領域之一,主要用于圖像識別與分類。深度學習是自動提取圖像特征,將簡單特征融合成復雜特征,再用復雜特征解決問題[5]。目前,人工智能技術已廣泛地應用于各個領域,與醫(yī)學領域的聯(lián)系愈加密切,主要是與醫(yī)學影像(CT、X 線、MRI、PET)的結合應用。超聲因無痛、無創(chuàng)、無電離輻射、簡便、快捷、可實時成像、重復性好等優(yōu)勢已廣泛應用于肝臟、心臟、血管、甲狀腺、乳房、肌肉等內(nèi)臟器官及淺表結構的檢查與診斷[6]中。但超聲檢查具有一定的主觀差異性,且需長期大量的培訓與學習才能成為一名合格的超聲醫(yī)師[7]。相比之下,人工智能與超聲影像結合可簡化操作步驟、避免主觀差異性、節(jié)約醫(yī)師資源、縮短報告時間、提高診斷效率,其主要研究領域為甲狀腺、乳腺、肝臟病變的檢測等。筆者就人工智能在超聲影像中的應用現(xiàn)狀作一綜述。
超聲對甲狀腺疾病的診斷有重要作用,其對可疑病變主要從以下幾個方面辨別:結節(jié)的位置、大小、數(shù)目;回聲強度;邊界是否清晰、形態(tài)是否規(guī)整;有無鈣化;囊性變;縱橫比及彩色多普勒血流信號等。ACHARYA 等[8]基于圖像紋理和離散小波變換的特征,利用K-最近鄰算法對三維超聲造影甲狀腺圖像進行檢測,準確率為98.9%、敏感度為98.0%、特異度為99.8%。深度卷積神經(jīng)網(wǎng)絡(deep convolutional neural network,DCNN)為這種由計算機診斷發(fā)展奠定了基礎[9]。王洪杰等[10]利用CNN 模型對甲狀腺結節(jié)進行檢測,采集圖像2 786 張,其與超聲影像的結合對甲狀腺結節(jié)檢測的準確率為82.82%,精確度為83.46%,敏感度為64.74%,特異度為91.18%,證實人工智能與超聲影像的結合有助于甲狀腺良惡性結節(jié)的檢測;但其研究局限性在于圖像中惡性結節(jié)占絕大多數(shù)。王丹等[11]使用超聲與人工智能結合的設備對600 張甲狀腺結節(jié)圖像進行鑒別,其敏感度為86.20%,特異度為85.48%,表明人工智能超聲對甲狀腺的臨床診斷有重要作用。CHI 等[12]對甲狀腺超聲圖像進行預處理,去除偽影,再對預處理后的GoogLeNet 模型進行微調(diào)提取特征,結果表明,該模型具有良好的分類性能,分類準確率達98.29%,敏感度達99.10%,特異度達93.90%;但甲狀腺病變區(qū)域的圖像由醫(yī)師劃定,而不是由超聲計算機輔助診斷(computer aided diagnosis,CAD)系統(tǒng)檢測。MA等[13]對收集的15 000 張圖像采用2 個CNN 融合的方式,該方法的準確率為83.02%,證實深度學習能顯著提高超聲對甲狀腺結節(jié)性質(zhì)的診斷準確率。
此外,MA 等[14]基于CNN 的級聯(lián)模型 對21 532張超聲圖像中的甲狀腺結節(jié)檢測,該方法由2 種不同深度的CNN 體系構成,結果顯示AUC 為98.51%,此模型優(yōu)于傳統(tǒng)機器學習方法,但需醫(yī)師手動操作超聲圖像檢測區(qū)域。CHOI 等[15]使用人工智能的CAD系統(tǒng)判斷102 個甲狀腺結節(jié)的良惡性,其對惡性甲狀腺結節(jié)的診斷敏感度和陰性預測值與經(jīng)驗豐富的超聲醫(yī)師具有一致性,而特異度和準確率均低于后者。LI 等[16]利用DCNN 模型對332 180 張圖像進行回顧性研究,與熟練的超聲醫(yī)師相比,提高了甲狀腺癌的診斷準確率。PEREIRA 等[17]基于AlexNet 的CNN 模型的甲狀腺結節(jié)的剪切波彈性成像,在964幅圖像的20%的數(shù)據(jù)集上,其診斷準確率達83%。
乳腺癌是最常見的惡性腫瘤之一,是造成女性癌癥死亡的主要原因。人工智能在乳腺良惡性結節(jié)篩查和檢測中有著重要作用。鑒別乳腺良惡性結節(jié)的主要特征可從以下幾方面入手:腫塊的形態(tài)是否規(guī)則、邊緣是否光滑、內(nèi)部回聲(低回聲、無回聲)、后方回聲衰減、包膜完整度、有無鈣化、縱橫比、彩色多普勒血流信號等。李程等[18]運用乳腺超聲人工智能設備對400 張乳腺結節(jié)圖像進行檢測,結果顯示敏感度為96.06%,特異度為97.46%。HAN 等[19]利用深度學習的模型(CNN 的GoogLeNet 模型)對7 408 張超聲乳腺圖像進行訓練以鑒別良惡性腫瘤,其敏感度為86%,特異度為96%,準確率為90%;該方法可在短時間內(nèi)對惡性病變進行分類,并支持放射科醫(yī)師對惡性病變的診斷。CHIANG 等[20]將基于三維CNN 的檢測系統(tǒng),用于三維自動全乳腺超聲的腫瘤檢測,針對采集的230 張病理圖像結果得到了較高的敏感度,但敏感度>98%時特異度不佳。PARK等[21]對100 例乳腺腫塊行CAD 檢測,比較不同醫(yī)師間的差異性,發(fā)現(xiàn)當CAD 與超聲結合時,所有醫(yī)師的診斷技能均有明顯提高。
BECKER 等[22]訓練了一個通用的深度學習軟件,以便對超聲乳腺癌圖像進行分類鑒別,發(fā)現(xiàn)深度學習軟件可幫助診斷乳腺癌圖像,可與超聲醫(yī)師相媲美,且與無經(jīng)驗的學者相比接受力更好、學得更快。KIM 等[23]評估了基于深度學習算法的超聲智能檢測(smart detect,簡稱S-Detect)技術在乳腺超聲檢查中的診斷性能,采用Kappa 檢驗分析超聲醫(yī)師與S-Detect 之間的一致性,結果表明當BI-RADS 分級在4a 級以上時,與超聲醫(yī)師相比較,S-Detect 技術的特異度、陽性預測值和準確率均明顯高于超聲醫(yī)師(均P<0.05),S-Detect 技術的AUC 為0.725,而超聲醫(yī)師僅為0.653。ZHANG 等[24]建立了深度學習架構,是一個2 層深度學習模型:第1 層是完全連接的神經(jīng)網(wǎng)絡用于提取特征,第2 層是受限的玻爾茲曼機器提供更好的特征,能自動提取剪切波彈性成像的特征,并鑒別良惡性腫瘤。通過對227 張剪切波彈性成像圖像(135 張良性腫瘤、92 張惡性腫瘤)的評估得到準確率為93.4%,敏感度為88.6%,特異度為97.1%。CHENG 等[25]利用堆疊去噪自動編碼器辨別乳腺超聲病變,得到AUC 為89.6±6.4,與傳統(tǒng)的機器學習方法相比更具優(yōu)勢。YAP 等[26]將3 種深度學習方法(基于補丁的Lenet、U-net 及預先訓練的FCN-AlexNet 的轉移學習方法)用于超聲對乳腺病變的檢測,并將其性能與4 種最先進的病變檢測算法進行比較,結果顯示,轉移學習方法具有更好的學習效果。
XIAO 等[27]收集了2 058 乳腺腫塊的超聲圖像,包含1 370 張良性和688 張惡性病變,比較遷移模型、CNN 模型和傳統(tǒng)的機器學習模型對良惡性腫瘤的鑒別診斷情況,結果表明遷移模型中的InceptionV3 性能最佳,其準確率為85.13%,AUC 為0.91;此外,還建立了基于從遷移模型中提取深層特征分類的模型,并獲得了良好的性能,精確度達89.44%,AUC 為0.93。SEGNI 等[28]研究了S-Detect 對乳腺病變的診斷性能,顯示敏感度為90%、特異度為70.8%,證實其提高了特異度。BYRA 等[29]利用基于深度學習方法的轉移學習CNN 模型,鑒別150 例乳腺病變的良惡性,結果顯示AUC 為0.936,可幫助超聲醫(yī)師對乳腺腫塊進行分類。
超聲是評估肝臟疾病的首選成像方式,人工智能在肝臟超聲方面的應用主要為肝臟脂肪檢測及評估肝纖維化等[30]。BYRA 等[31]針對非酒精性脂肪肝的超聲評估,在ImageNet 數(shù)據(jù)集上使用具有轉移學習的DCNN 模型進行預先訓練,用于肝臟超聲的肝臟脂肪變性評估,再運用支持向量機(SVM)算法進行圖像分類,敏感度為100.0%、特異度為88.2%、準確率為96.3%、AUC 為0.977,證明該方法可幫助醫(yī)師判斷肝臟中的脂肪含量。BISWAS 等[32]運用深度學習方法(DL-CNN 模型)評估脂肪肝,并與其他2 種方法即SVM、極限學習機(ELM)相比較,診斷準確率分別為100%、82%、92%,表明使用深度學習的超聲能更好地判別脂肪肝。HASSAN 等[33]使用基于深度學習技術的堆疊稀疏自動編碼器,從分割的肝臟圖像中提取高級特征,其準確率為97.2%,并與多支持向量機(multi-SVM)、K 最近鄰分類算法、樸素貝葉斯算法(naive Bayes)3 種先進技術相比,準確率仍占優(yōu)勢。
MENG 等[34]采用基于轉移學習的VGGNet 和全連接網(wǎng)絡(FCNet)模型對肝纖維化進行分期,結果顯示,在30%的測試集上(279 張圖像)的準確率達93.9%。LIU 等[35]提出利用肝臟圖像的DCNN 模型,提取肝包膜的影像特征,AUC 為0.968,表明該方法能有效提取肝包膜的特征并準確診斷肝硬化。宋家琳等[36]也提出肝硬化的高頻超聲圖像算法,主要對肝包膜的連續(xù)性與平滑度進行比較,提取圖像的形狀或紋理特征作為定量分析,結果表明該方法對肝硬化的評估有重要價值。
WANG 等[37]基于深度學習的彈性成像評估肝纖維化分期,結果顯示該方法的AUC 肝硬化(F4 期)為0.97、肝纖維化晚期(≥F3 期)為0.98,顯著肝纖維化(≥F2 期)AUC 從0.99 降至0.85;表明該方法比二維剪切波彈性成像更能準確評估肝硬化及肝纖維化晚期。另外,LIU 等[38]為預測肝細胞癌患者的經(jīng)動脈化療栓塞效果,利用人工智能定量分析超聲造影對經(jīng)動脈化療栓塞的反應,建立了基于深度學習輻射組學的超聲造影模型、基于機器學習輻射組學的超聲造影模型、基于機器學習輻射組學的B-Mode 圖像模型并比較;結果表明第1 種模型的AUC 達0.93,效果最佳,可有效利用超聲造影進行預測。
趙佳琦等[39]研究運用計算機紋理分析技術在視覺下定量識別骨骼肌超聲圖像的紋理特征,同時其自主研發(fā)的骨骼肌損傷超聲圖像紋理定量分析的強度界面多級分解法[40]得到有效驗證。YU 等[41]為了識別胎兒面部標準平面提出了一種DCNN,該DCNN包括16 個具有3×3 大小核的卷積層和3 個完全連接的層,對胎兒超聲平面進行分類的準確率達93.03%,高于傳統(tǒng)方法,對臨床診斷有效。
WU 等[42]提出用2 個DCNN 模型評估胎兒超聲圖像的質(zhì)量,L 型CNN 模型用于檢測超聲圖像中腹部的ROI;C 型CNN 模型用于評估圖像中關鍵結構的胃泡和臍靜脈;且模型評估結果與3 位醫(yī)師的主觀圖像質(zhì)量評價相當。CHEN 等[43]研究了一個DCNN 和遞歸神經(jīng)網(wǎng)絡的復合神經(jīng)網(wǎng)絡框架,可從胎兒超聲圖像中探索平面內(nèi)與平面之間的特征及對胎兒標準平面的分類,這種復合神經(jīng)網(wǎng)絡被稱為T-RNN,試驗證明了該模型的有效性,用于檢測胎兒標準平面,其AUC達0.95。
HETHERINGTON 等[44]的研究可從超聲圖像中自動識別脊柱水平,幫助麻醉師進行麻醉操作。LEKADIR 等[45]構建了一個深度學習框架,具體指4個3×3 大小的卷積層和3 個完全連接層的CNN 模型,該模型可對動脈粥樣硬化斑塊進行分類,包括脂質(zhì)核心、纖維組織及鈣化組織的數(shù)量,根據(jù)Pearson的相關系數(shù)得出脂質(zhì)核心為0.92、纖維組織為0.87、鈣化組織為0.93,表明自動測量可用于頸動脈超聲斑塊的臨床預測。
目前,在醫(yī)學行業(yè)中,90%的數(shù)據(jù)來源依靠醫(yī)學影像,而每一項數(shù)據(jù)都離不開人工分析,這導致醫(yī)師資源的浪費,也不可避免地造成醫(yī)師主觀判斷性的失誤[46]。智能化的超聲影像可彌補人力不足及人為失誤,提高疾病診斷的準確率。但超聲大數(shù)據(jù)的獲取常依賴于醫(yī)師的操作,這給超聲圖像識別提取特征提出了更高要求,即在獲得需要的基本圖像之后,應制訂出一個醫(yī)師與算法工程師共同協(xié)調(diào)、同意接受的圖像ROI 的標準[47]。另外,對于獲得的超聲圖像,可建立一個量化的標準,增加行業(yè)的統(tǒng)一性。在進行超聲檢查時,利用人工智能技術,圖像可進行自動化的分類并保證圖像獲取的連續(xù)性及完整性[48]。
總之,人工智能技術的發(fā)展,推動了超聲影像學科的發(fā)展。目前,雖然我國人工智能在超聲醫(yī)學中的發(fā)展還處于起步階段[49],但相信隨著科技實力的不斷壯大,超聲影像與人工智能的結合會更加深入,人工智能將更廣泛地應用于各種超聲檢查中,提高超聲診斷效率,降低誤診率。