羅 明
(廣東省梅州市人民醫(yī)院,廣東 梅州 514000)
隨著信息技術的不斷發(fā)展,智能化的疾病輔助診斷在解決專業(yè)醫(yī)師人力缺乏的同時,有效提升了診療效率,這樣能夠促進整體醫(yī)療水平的快速提高。醫(yī)療輔助設備的廣泛應用,使得醫(yī)療輔助數(shù)據(jù)呈獻出快速的增長趨勢。同時,這些數(shù)據(jù)中也蘊含了大量有價值的信息,不僅有利于患者康復,更能促進醫(yī)療水平的整體提升。針對相關全流程病歷質量出現(xiàn)的臨床診療效率低,醫(yī)生無法及時準確的進行診斷的問題,以及相關設備在藥液質量方面出現(xiàn)的設備溫度和壓力不可調或者精度不夠準的問題,設計了一種基于深度學習的全流程病歷質量控制模型,其在醫(yī)療領域中應用前景廣闊[1-2]。
文獻[3]提出了一種深度學習方法和一種醫(yī)學主題挖掘方法來從無文本病歷中自動預測疾病代碼,結果顯示,在重癥監(jiān)護醫(yī)療信息數(shù)據(jù)集上的F1分數(shù)比最先進水平提高了5%[3]。文獻[4]提出了一種新的電子健康記錄生成器,應用了一種過濾策略來增強低患病率臨床概念的訓練,結果顯示,所提出的模型優(yōu)于最先進的方法,在保留真實記錄的性質方面有顯著的改進[4]。文獻[5]提出一種基于異構圖圖卷積的文本分類技術以開展中醫(yī)電子病歷構建,結果顯示,該模型在召回率以及準確率上比改進前算法提升超過了2%[5]。文獻[6]從區(qū)塊鏈技術出發(fā),提出了基于區(qū)塊鏈變革性干預類型的病歷信息共享模型,為病歷信息管理手段提供了參考[6]。文獻[7]通過對當前最先進的深度神經網絡模型的改進和調整,實現(xiàn)了對抑郁患者的輔助診斷,并將其用于臨床,并將其用于臨床,獲得了良好的結果。通過對比研究,本項目所提方法在抑郁-正常人腦MRI識別中的應用效果,證明本項目所提方法在抑郁-正常人腦MRI識別中的應用效果[7]。
因此,研究將輔助診斷設備作為研究對象,并對病歷模型展開分析。首先對雙向循環(huán)神經網絡(BiGRU-SA,bidirectional recurrent neural network)模型和文本分類式前饋神經網絡(TextCNN,transformation-extraction-convolutional CNN)模型的結構進行分析,其后對模型制定公式,對優(yōu)化后的混合深度學習模型進行分析,以提升全流程病歷質量控制系統(tǒng)的穩(wěn)定性并提高其臨床診療效率。深度學習輔助決策醫(yī)療器械臨床試驗有效性指標一般考慮驗證確認診斷準確度評價指標,即在診斷試驗中區(qū)分不同疾病狀態(tài)的能力。
全流程病歷質量控制模型可以幫助醫(yī)生更準確地診斷疾病,提高治療效果,并且比人類醫(yī)生更快地發(fā)現(xiàn)潛在的問題,從而減少誤診、漏診的情況。以下是一些全流程病歷質量控制模型的好處,分別是幫助醫(yī)生提高診斷準確性,通過全流程病歷質量控制模型可以通過分析大量數(shù)據(jù)來預測一個患者可能患有某種疾病的可能性[8]。這樣,醫(yī)生就可以提前發(fā)現(xiàn)潛在的問題,從而采取相應的治療措施。并提高治療效率,全流程病歷質量控制模型可以根據(jù)患者的歷史癥狀和檢查結果來預測患者可能患有某種疾病。這樣,醫(yī)生就可以提前采取措施來緩解癥狀或預防并發(fā)癥的發(fā)生[9]。其后,提高醫(yī)療質量,全流程病歷質量控制模型可以通過分析大量數(shù)據(jù),來預測一種疾病或癥狀可能出現(xiàn)的概率。這樣,醫(yī)生就可以提前采取措施來緩解患者的痛苦和提高治療效果。就可以更多地專注于治療患者,在有限的時間內提高治療效果。
中文分詞(CWS,chinese word segmentation),它是對一個語句進行切割,從而獲得單個單詞,能起到關鍵作用的方式為,以自然語言及數(shù)據(jù)挖掘進行差異化處理[10]。中英文在語序語義方面差異明顯,英文語言的句子里,所有的字都會被空出來,一個字就是一個字,而中文語言的句子里,沒有自然的分割線,也沒有清晰的識別標志,只能人工進行分割。這一部分主要包括三個方面:基于規(guī)則的切分法,基于概率和統(tǒng)計的切分法,以及基于語義的切分法。當前,常用的基于Jieba的自動分割方法主要采用基于前綴詞典的語句分割方法,已有的算法對已有的數(shù)據(jù)進行處理,并利用該算法對已有的數(shù)據(jù)進行處理[11]。它支持簡單繁體的切詞,還支持定制詞典,并且還支持精確模式、全模式和搜索引擎模式三種切詞模式,在業(yè)內受到了廣泛的歡迎。去停用詞,是數(shù)據(jù)預處理過程中不可或缺的一環(huán),由于并不是所有的詞語都可以表達出原本的文字意思,如助詞(所以、的、了等)、語氣詞(啊、哪等)等都是沒有作用和意義的詞,在研究中,這些詞被稱作停用詞,不僅會降低文本關鍵詞的密度,還會在某種程度上對后續(xù)文本分析的效果產生影響,因此,就可以將它們從文本中刪除。要實施解禁詞匯,首先要建立解禁詞匯列表,當前,網絡上有許多高品質的中文解禁詞匯列表,研究可以從網絡上下載一套解禁詞匯列表,以供解禁詞匯檢索。通過將中文分詞任務轉化為一個字符序列標注任務,可以進一步將該任務看作一個分類問題,即為字符序列中的每個字符確定標簽分類的問題,最后實現(xiàn)用神經網絡解決該多分類問題。谷歌研究小組于2013年推出Word2Vec框架,該框架使用深度神經網絡將文字信息轉換成詞匯,并將文字信息轉換成一個低維的維度,從而實現(xiàn)對文字信息的有效表達[12]。Word2Vec的學習過程中,有兩個學習過程:一個是 CBOW,一個是Skip-gram。
門循環(huán)單元(GRU,gate recurrent unit)是LSTM模型一個較成功的變種,由Cho,Gulcehre等人于2014年提出GRU只有兩個門即更新門和重置門,更新門就相當于LSTM模型中輸入門和遺忘門的合并,并且新增了重置門,取消了輸出門。更新門的作用是控制前面記憶單元中的狀態(tài)信息被帶入到后面單元的程度,更新門的值越大說明被帶入的狀態(tài)信息越多[13]。重置門的作用是控制前面狀態(tài)信息的忽略程度,重置門的值越大說明忽略的越少,換句話說也就是對當前的輸出影響越大。GRU模型結構,如圖1所示。
圖1中,xt與ht分別表示即時的輸入與輸出,而上一時刻的隱藏層的信息輸出為ht-1,st與rt在GRU模組中為更新門和重置門,活化函數(shù)用σ和tanh表示,st和rt的公式,如式(1)所示。
(1)
式(1)中,Ws和Wr為門控對ht-1和xt的系數(shù),即需學習的權重矩陣。BiGRU是一個雙程神經網絡模式,可以更好地捕捉病人的抱怨情境中的意義依存關系。在此基礎上,提出了一種基于自我注意的新方法,即通過自我注意來降低對外界信息的過度依賴性,提高了語義特征和語句的內在關聯(lián)性。在BiGRU的基礎上,提出了一種新的醫(yī)學診斷方法——BiGRU-SA,并將其應用于醫(yī)學診斷中。在BiGRU-SA模式中,利用自我注意的作用,捕捉病人抱怨情境中的語義相關性。通過對文本中各個詞進行加權處理,提高了文本的語義表達能力和語義表達能力[14-15]。在此基礎上,提出了一種基于二維GRU的病案情境關聯(lián)分析方法。在此基礎上,利用BiGRU-SA方法,實現(xiàn)了對醫(yī)學信息的快速識別。利用自我關注的思想,能夠更好地把握病人在不同背景下的陳述內容,進而提高對病人陳述內容的識別精度。BiGRU-SA模型架構,如圖2所示。
圖2 BiGRU-SA模型架構圖
圖2中,第一個層次是輸入層次,將病人的訴求輸入到該模型中;第二個層次是詞向量構建層次,將病人訴求降維后,將訴求轉化為低維向量;第三個層次是 BiGRU的網絡結構,利用 BiGRU提取病人訴求表征;最后一個層次是自我關注層次,利用 Attention加權函數(shù),將訴求的詞匯和表達的表征融合在一起;最后一個層次是輸出層次,將病人主訴的描述結合起來,最后一個層次是輸出層次,給出對病人主訴的描述。
TextCNN是一種流行的深度學習模型,它的結構比較簡單,包括嵌入層、卷積層、池化層和全連接層。它通過將文本數(shù)據(jù)輸入到嵌入層,在此基礎上,利用卷積方法抽取語句中的字符,再利用極大浸漬方法抽取一維矢量,再利用完全連通層獲得其結果。TextCNN模型的主要特點是利用了卷積層和池化層來提取文本的特征,并使用了全連接層來生成最終的輸出[16-17]。這種模型結構簡單,適用于處理簡單的文本任務,如文本分類、命名實體識別等。
當前廣泛使用的TextCNN具有良好的文字識別性能,但由于其對病癥的表征缺失,因此,研究通過構建F-TextCNN來解決這個問題。F-TextCNN旨在構建一個能夠更好地表征病癥的模型,使其具有更高的識別精度。在F-TextCNN中,研究使用一種新的特征提取方法,這種方法能夠有效地提取病癥特征,從而提高文字識別的性能。同時,研究還使用了一種新的池化方法,使得模型能夠更好地提取病癥特征,從而提高文字識別的準確性。F-TextCNN能夠有效地解決文本識別中由于缺乏病癥表征而導致的問題,使其具有更高的性能和更好的準確率[18-19]。文本CNN的模式架構,可分為嵌入層、卷積層、池化層及完全連通層。TextCNN中的卷積神經網絡,其主要功能在于抽取文本中的語義信息,而無須像其他的機器學習算法那樣,對文本中的語義信息進行獨立的處理。TextCNN的集合層可采用最大集合法、平均集合法等多種方式,其中最常見的是最大集合法,即通過抽取特征圖中的極大值來捕捉最關鍵的特性。通過對多個從卷積圖像中提取出的多個特征圖進行融合,可獲得多個一維矢量。最大融合方法具有不受時間限制、不受時間限制等優(yōu)勢,能夠有效地降低建模中的參數(shù)個數(shù)和過擬合,但也有一定的局限性[20]。故而,TextCNN模型結構,如圖3所示。
圖3 TextCNN模型原理及其架構圖
如圖3,在該算法中,嵌入層采用了事先學習好的詞矢量,并將其構造成一個矩陣,并將其用作一個單詞的代表。把數(shù)據(jù)集上的每一個單詞都用一個向量來表達,這樣就可以獲得一個NxK的嵌入矩陣M,在該矩陣中,每一行都是詞向量。在這些情況下,因為 TextCNN使用最大池化進行處理,避免了池化過程中對病征特性的影響。為了解決這個問題,從卷積層中抽取出來的所有的特征被聯(lián)系起來,保證了癥狀特征的完整,并用準確率、召回率以及F1指標來評價該模型的優(yōu)劣。在F-TextCNN框架下,先將疾病相關的數(shù)據(jù)輸入到嵌入層,然后輸出一個非線性激勵函數(shù),然后將整個內嵌層連接到嵌入層,然后在Dropout層正則化學習,從而有效地避免了神經網絡的過擬合問題。在經過任何一批學習后,將其中的隱藏結點舍棄掉,從而降低了隱藏結點間的相互依賴程度。最終,在整個聯(lián)結層次上,利用激發(fā)函數(shù)Sigmoid對兩個不同的特征進行二次分類,得到的結果在兩個不同的特征量之間更優(yōu)。該方法對病人的疾病信息進行了詞匯矢量建模,然后將病人的疾病信息轉化為一個2D的矩陣,并在該模型的輸入層利用“補零”原理,使該矩陣保持固定長度,也就是一個最大值N=824,其他句子小于824時,再用0進行填充。在該方法中,選擇3個大小不一的卷積核,通過卷積運算得到詞向量的特征。改進的最終輸出類別概率,如式(2)所示。
(2)
式(2)中,Ci為卷積后的特征圖,n-k+1為池化層高度,故而,池化的結果就是將特征圖進行全連接。
將F-TextCNN與BiGRU-SA相結合,以兩種新的檢測技術為核心,在此基礎上,將F-TextCNN與BiGRU-SA相結合,以達到對疾病進行早期診斷的目的。F-TextCNN是一種基于深度神經網絡的醫(yī)療影像數(shù)據(jù)分析方法,能夠對醫(yī)療影像數(shù)據(jù)進行有效地分析和處理。BiGRU-SA是一個利用機器學習技術,從病人身上提取出的信息,幫助醫(yī)師做出正確的判斷。這兩種技術各有其優(yōu)點,可為醫(yī)療輔助診斷工作提供有力支撐。此次研究考慮綜合運用F-TextCNN與BiGRU-SA模型,實現(xiàn)對疾病的診療,為臨床診療提供新的思路。在進行訓練的時候,將兩個模型分別進行,兩個模型之間互相獨立,不會受到任何的影響。在訓練完畢之后,將兩個模型的分類結果進行融合,因為神經網絡模型最終的輸出是一個概率值,所以將兩個分類結果進行加權平均,就可以得到最終的輸出?;旌夏P土鞒?,如圖4所示。
圖4 混合模型流程框架結構
圖4中,針對混合模型流程,首先由嵌入層到卷積層再到池化層,對特征信息進行池化,而后加入到全連接層,再由F-TextCNN模型進行輸出。同理,BIGGRU-SA模型輸出后,一起進入到加權平均輸出層,加權后,結束模型工作。將兩個模型的輸出結果進行融合做加權平均操作,可減少誤差,活化函數(shù)是在神經細胞中,將輸入的權重相加后,被用于一個功能的運算后,該功能就是活化函數(shù)。在激勵函數(shù)為非線性的情況下,神經網絡能夠任意近似大部分的復合功能。但是,若使用一維線性激勵函數(shù),則其結果是一維非線性激勵函數(shù),因而不能近似復函數(shù)。因此,在神經元網絡中加入一個激勵函數(shù),就是要將一個非線性因子加入到神經網絡中,這樣才能更好地處理一些更復雜的問題。在不引入激勵函數(shù)的情況下,神經網絡與原感知器之間沒有什么區(qū)別。由BiGRU-SA模型和F-TextCNN模型的輸出公式,如式(3)所示。
(3)
式(3)中,Wy是權重系數(shù)矩陣,by是代表相應的偏置,進而達到預測類別的效果。則F-TextCNN和BiGRU-SA相結合的醫(yī)療輔助診斷混合模型的輸出公式,如式(4)所示。
(4)
在此基礎上,利用國家“知識地圖”和“語義學”會議上的正式醫(yī)學文字庫,構建基于“醫(yī)學文字”的全過程醫(yī)學文件內容質控系統(tǒng)。數(shù)據(jù)為患者病情描述文本分類數(shù)據(jù)集,共有40 000條數(shù)據(jù),將數(shù)據(jù)進行劃分后,可以獲得訓練集34 000條數(shù)據(jù),測試集4 300條數(shù)據(jù),其中包含了艾滋病、白癱風、不孕不育、產科、癲癰、耳鼻喉科、肺癌、婦科炎癥等45個疾病或科室的分類數(shù)據(jù)?;贐iGRU-SA的全流程病歷質量控制模型的參數(shù)優(yōu)化實驗,如圖5所示。
圖5 參數(shù)優(yōu)化實驗圖
圖5(a)中,橫軸表示的是詞向量維度的選擇,它們分別為25、50、100、150、200、250、300的向量維度,而縱軸表示的是正確率??梢钥闯?,當詞向量設定為160時,BiGRU-SA模型的效果最優(yōu),其正確率為84.9%。圖5(b)中,水平坐標為迭代次數(shù),垂直坐標為精度。隨著迭代次數(shù)的增加,模型精度出現(xiàn)了先增大后減小的趨勢,在第六次迭代時,模型效果最優(yōu),精度為84.9%。各對比模型之間隨著迭代次數(shù)的變化而變化的準確率折線圖,如圖6所示。
圖6 各對比模型之間隨著迭代次數(shù)的變化而變化的準確率折線圖
圖6中,橫軸代表迭代次數(shù),縱軸代表準確率,展現(xiàn)了所有模型隨著迭代次數(shù)的變化而變化的模型性能。通過對比五組模型實驗結果的準確率、召回率和F1值,BiGRU-Sa在6~7次迭代中,可達到最高精度,為85.4%。而Selt-Attention Model在第一次迭代時的精度最高,為82.7%。且Selt-Attention Model和LSTM Model都隨著迭代的增加,精度都呈現(xiàn)下降的趨勢?;贚STM的全流程病歷質量控制模型的準確率較低,而基于GRU模型、Self-Attention模型和BiGRU模型的準確率依次遞增。基于自注意力機制BiGRU模型具有更高的精度。BiGRU-SA模型是基于BiGRU模型加入了自我注意機制,能夠利用自我注意機制層次賦予的權值來凸顯疾病癥狀的特征性信息,使其能夠更好地聚焦于疾病癥狀詞匯而忽視與疾病癥狀無關的特征性信息。通過將GRU和LSTM模型進行比較,可以看出,GRU模型在降低LSTM模型結構的同時,仍然保留了其原有的計算效果,降低了計算量,從而使得 GRU模型的運行時間更短,而且效率更高。在圖中,根據(jù)BiGRU和GRU模型的比較可以看出,因為BiGRU對輸入語句中雙向進行計算,能夠提取到更精確的文本特征,因此,雙向門限循環(huán)神經網絡模型具有更高的精度,因為它具有更好的結構,能夠捕獲更深層次的信息,并且可以有效地處理序列數(shù)據(jù)。此外,加入自關注策略后,該模型的識別精度也得到了顯著的提高,表明它對于醫(yī)學文字的識別效果也非常優(yōu)秀。通過對不同的自關注策略進行實驗,可以發(fā)現(xiàn)在不同的策略下,模型的識別效果也會有所不同。因此,選擇最合適的自關注策略可以顯著提高模型的識別精度。
為了對該模式的效能進行檢驗,研究利用了36 000個訓練集合和4 500個健康醫(yī)學文字資料進行了分析。研究首先使用了TextCNN算法對這些數(shù)據(jù)進行了預處理,包括清洗和特征選擇,然后將數(shù)據(jù)集分為訓練集和測試集。接著,研究采用了多種算法(如交叉驗證、單調性測試、準確率測試等)來評估這些模型的性能。最后,研究使用了多種分析方法(如相關性分析、線性回歸等)來探究模型之間的關聯(lián)和差異。通過這些分析,研究得出了一些結論,該模式在預測準確性、穩(wěn)定性和可解釋性方面表現(xiàn)都很出色。
在此基礎上,將F-TextCNN,LSTM,Bi-LSTM等神經網絡方法進行識別,并將F-TextCNN方法應用于醫(yī)學文本的識別,以檢驗F-TextCNN方法的識別效果。為了驗證F-TextCNN模型對醫(yī)療文本的有效作用,一共設計了四組實驗,使用TextCNN,LSTM和Bi-LSTM神經網絡模型與該模型進行對比分析,實驗對比結果如表1所示。
表1 模型對比實驗結果
表1中,第一欄是做試驗時使用的比較模型,第二欄是準確率,第三欄是召回率,第四欄是F1值,所有模型的度量數(shù)據(jù)都顯示在表格中。其中,F(xiàn)-TextCNN的準確率為88.1%,回收率為87.1%,F(xiàn)1值為87.1%,F(xiàn)1值為87.7%。通過對5個試驗的比較,可以看出LSTM模型的精度很低,而TextCNN和Bi-LSTM模型的精度是依次提高的。而F-TextCNN則通過改變傳統(tǒng) CNN的池化模式,實現(xiàn)特征信息的完全鏈接,確保特征信息不會丟失,并有效地避免了模型的過擬合。
為了對基于F-TextCNN和BiGRU-SA的醫(yī)學文本分類方法進行對比分析,研究進行了三個實驗。這三個實驗分別是基于TextCNN和BiGRU-SA的醫(yī)學文本分類任務的對比實驗、基于F-TextCNN和BiGRU-SA的醫(yī)學文本分類任務的對比實驗。各模型之間,隨著迭代次數(shù)的變化而變化的準確率折線圖,如圖7所示。
圖7 三種模型下準確率與迭代次數(shù)的關系
圖7中,橫坐標是重復試驗的次數(shù),縱坐標是精準度??梢钥闯?,BiGRU-SA MODEL,精準度受向量維度的影響并不大。改進的TextCNN模型,精準度在其進行第3次和第四次迭代更新時,發(fā)生指數(shù)級增長,并在第3次迭代時,精度達到理想值,為83%。組合模型,其迭代經歷與改進的TextCNN模型相似,并在第3次迭代后,精準度達到理想值,為82.7%。通過對三組實驗的實驗結果進行比較,可以看出,基于BiGRU-SA模型的準確率低于其他兩個模型,而F-TextCNN神經網絡模型和混合模型的準確率更高。F-TextCNN和BiGRU-SA相結合的全流程病歷質量控制模型在準確性上表現(xiàn)更優(yōu),因為該算法能夠將F-TextCNN和BiGRU-SA模型的結果進行融合,從而取長補短,平衡兩者帶來的負面影響,得到的結果更具有可解釋性。在實際應用中,該算法可以有效地利用F-TextCNN和BiGRU-SA模型的優(yōu)勢,實現(xiàn)更加準確的醫(yī)療輔助診斷。
通過這些實驗,研究可以得出結論,基于F-TextCNN和BiGRU-SA的醫(yī)學文本分類方法都具有較好的性能。盡管F-TextCNN比BiGRU-SA更加靈活,但BiGRU-SA在處理復雜的醫(yī)學文本分類任務時表現(xiàn)更好。因此,研究可以根據(jù)實際需求選擇適合自己的模型來進行醫(yī)學文本分類任務。
為了驗證研究所提基于深度學習的病歷質量控制模型的在病史數(shù)據(jù)、體格檢查等多項文本上的應用效果,研究選擇CCKS2020數(shù)據(jù)集作為實驗樣本,該數(shù)據(jù)集包好一般項目、病史特點、診療過程以及出院情況等四大類,下設癥狀與體征、檢查與檢驗等小類。研究采用的分類評價指標為F1值,以便綜合納入準確率和召回率。表2為不同模型在該數(shù)據(jù)集上分類結果。
表2 不同模型在CCKS2020數(shù)據(jù)集上分類結果
從表2可知,研究所提模型在既往病史、體格檢查等諸多項目的分類精度上均優(yōu)于其他分類模型。平均精度高于90%,比CRF(conditional random field)模型、BiGRU-CRF以及BiLSTM提高了6.69%、2.35%和2.12%。這表明研究所提模型能更有效地學習文本的句子結構信息與句子的表示,以便學習文本的語義特征用于分類。表3為電子病歷中不同實體識別結果。
從表3可知,在疾病與診斷、藥物、手術以及解剖部位的實體識別結果中,研究所提模型在三種分類性能指標上均獲得了最高數(shù)值。比如在對藥物的分類識別中,該模型在準確率、召回率以及F1值上,分別比BiGRU-CRF模型提高了3.73%、1.96%和2.91%。這表明研究所提模型有助于從分類管理中提升病歷質量控制。
研究將全流程病歷質量控制模型作為實驗對象,首先對F-TextCNN和BiGRU-SA分別進行輔助診療的測驗,并通過獲取輔助診療效果的控制模型和參數(shù)尋優(yōu),最終利用基于BiGRU-SA和F-TextCNN的全流程病歷質量混合控制進行仿真評估,以得到平滑的曲線,在解決過擬合和特征信息丟失的情況下實現(xiàn)對全病歷流程的質量控制。模擬結果顯示,經過6~7次的迭代,BiGRU-Sa的計算精度可以達到85.4%。其中Selt-Attention模型的精確度是最好的,其精確度達到82.7%。Selt-Attention模型和 LSTM模型均隨迭代數(shù)的增大而減小。其中,F(xiàn)-TextCNN的準確率為88.1%,召回率為87.1%,F(xiàn)1值為87.1%,其中F1值為87.7%。通過對三組實驗的實驗結果進行比較,可以看出,基于BiGRU-SA模型的準確率低于其他兩個模型,而F-TextCNN神經網絡模型和混合模型的準確率更高。組合模型,其迭代經歷與改進的TextCNN模型相似,并在第3次迭代后,精準度達到理想值,為82.7%。綜上所述,本研究提出的方法能夠有效地幫助醫(yī)患之間在溝通交流中克服表達障礙,從而提高病歷質量。這一方法通過BiGRU-SA模型提取病歷信息特征,基于F-TextCNN提高模型計算效率和收斂速度以分析醫(yī)療數(shù)據(jù)和病歷,從而識別出其中的關鍵信息,幫助醫(yī)生更好地理解患者的病情和治療需求。此外,該方法還能夠指導醫(yī)生更好地進行病歷書寫和管理,提高病歷質量和效率,從而為患者提供更優(yōu)質的醫(yī)療服務。