鄒文卿 呂禹含
早在古希臘時(shí)期,現(xiàn)代醫(yī)學(xué)之父——希波克拉底就提出了“以病人為中心”的臨床醫(yī)學(xué)傳統(tǒng),《希波克拉底誓言》是所有醫(yī)者需要遵循的承諾。現(xiàn)代臨床醫(yī)學(xué)要求尊重并響應(yīng)病人的個(gè)人偏好、需求和價(jià)值觀,并在臨床決策中充分堅(jiān)持“以病人為中心”的基本理念。醫(yī)生的道德義務(wù)是為病人的最大利益行事,有責(zé)任確保和維護(hù)病人的權(quán)利,同時(shí)尊重病人的個(gè)人愿望和價(jià)值觀。當(dāng)前,智能醫(yī)療取得了顯著進(jìn)展,對(duì)醫(yī)學(xué)產(chǎn)生革命性影響。一些研究證實(shí),深度神經(jīng)網(wǎng)絡(luò)已經(jīng)可以幫助解釋醫(yī)學(xué)掃描、病理切片、皮膚損傷、視網(wǎng)膜圖像、心電圖、內(nèi)窺鏡檢查、面部和生命體征[1]。同時(shí),人工智能在醫(yī)學(xué)檢測(cè)領(lǐng)域發(fā)展迅速,被譽(yù)為“21世紀(jì)的聽(tīng)診器”,例如,英國(guó)檢測(cè)心臟病的人工智能程序準(zhǔn)確率為80%,美國(guó)檢測(cè)血液感染的智能顯微鏡的準(zhǔn)確率為95%,日本診斷癌癥生長(zhǎng)的內(nèi)窺鏡系統(tǒng)的準(zhǔn)確率為94%[2]。許多研究表明,人工智能系統(tǒng)在疾病診斷或預(yù)后方面與臨床專家相當(dāng),甚至更好,它們給病人提供更可靠的診斷、及時(shí)的干預(yù),并最終提高護(hù)理標(biāo)準(zhǔn)。但是也有研究表明,智能醫(yī)療給病人安全和人口健康也帶來(lái)一定的風(fēng)險(xiǎn),其中包括大量的診斷錯(cuò)誤、決策沖突、侵犯權(quán)益以及臨床醫(yī)生與病人之間溝通不足等問(wèn)題,人工智能算法在某些情況下可能導(dǎo)致提供不符合病人利益的醫(yī)學(xué)發(fā)展結(jié)果[3]。如IBM沃森健康公司的癌癥人工智能算法,它被廣泛應(yīng)用于癌癥病人的治療。該算法基于少數(shù)合成的非真實(shí)的病例,許多實(shí)際的治療建議被證明是錯(cuò)誤的[4]。盡管人工智能技術(shù)在醫(yī)療領(lǐng)域有諸多成效并且前景廣闊,但存在著侵犯病人權(quán)益的倫理障礙和難題。如果對(duì)這些缺陷不加以重視,智能醫(yī)療就會(huì)存在造成重大醫(yī)療事故和社會(huì)問(wèn)題的風(fēng)險(xiǎn)。
雖然人工智能在醫(yī)學(xué)領(lǐng)域已經(jīng)取得不錯(cuò)的成績(jī),但機(jī)器學(xué)習(xí)系統(tǒng)引起了人們對(duì)其不可解釋性的擔(dān)憂。系統(tǒng)的有效性受限于其無(wú)法以一種可理解的方式來(lái)解釋自己的決策,決策建議與內(nèi)在的因果聯(lián)系尚不清楚。這對(duì)智能醫(yī)療來(lái)說(shuō)是一個(gè)潛在的問(wèn)題。
當(dāng)人工智能系統(tǒng)不透明時(shí),算法自身的缺陷遮掩了數(shù)據(jù)處理結(jié)果的可預(yù)測(cè)性,就會(huì)引起黑箱問(wèn)題。這種隱喻的表達(dá)方式解釋了為什么人們?cè)絹?lái)越擔(dān)心黑箱性質(zhì)無(wú)法保證算法的可靠性。之前的人工智能將人類思維變成符號(hào)操作法,編程人員為每一條代碼賦予能力,并且可以控制系統(tǒng)的設(shè)計(jì)和行為。相比之下,機(jī)器學(xué)習(xí)在建立和自我完善的過(guò)程中并不需要明確的指令即可找到解決方案。有學(xué)者對(duì)其原理進(jìn)行了解讀,深度學(xué)習(xí)網(wǎng)絡(luò)由輸入層、輸出層和介于兩者之間的多個(gè)隱藏層的序列組成。每一層通過(guò)輸入值的加權(quán)和結(jié)果傳遞給一個(gè)激活函數(shù),產(chǎn)生單元的輸出后,將單元的輸出用于后續(xù)層中的單元輸入。因此,深度神經(jīng)網(wǎng)絡(luò)本質(zhì)上是聯(lián)合實(shí)現(xiàn)高度復(fù)雜(非線性)函數(shù)的單元集合,該函數(shù)將給定的輸入映射到特定的輸出。深度學(xué)習(xí)網(wǎng)絡(luò)通過(guò)對(duì)數(shù)據(jù)訓(xùn)練來(lái)學(xué)習(xí)這種功能映射,隨著數(shù)據(jù)的積累,網(wǎng)絡(luò)通過(guò)對(duì)之前某一層的特征集進(jìn)行聚合和重組,自動(dòng)提取特征,從各種低層特征逐層地移動(dòng)到更高層次、更抽象的數(shù)據(jù)表示[5]。
從理論上講,深度學(xué)習(xí)網(wǎng)絡(luò)的運(yùn)作和行為在其建立過(guò)程中是無(wú)法預(yù)測(cè)的,因?yàn)樗鼈冎蝗Q于培訓(xùn)過(guò)程中的“歷史”或“經(jīng)驗(yàn)”。2015年,紐約西奈山醫(yī)院的研究人員Joel Dudley將深度學(xué)習(xí)應(yīng)用于醫(yī)院龐大的病人記錄儀數(shù)據(jù)庫(kù),由此產(chǎn)生的程序被研究人員命名為Deep Patient。該程序使用大約70萬(wàn)人的數(shù)據(jù)進(jìn)行訓(xùn)練,并且在沒(méi)有任何專家指導(dǎo)的情況下,Deep Patient在預(yù)測(cè)疾病方面展現(xiàn)出驚人的能力,似乎可以很好地預(yù)測(cè)肝癌以及精神分裂癥等難以預(yù)測(cè)的疾病的發(fā)生[6]。但是,研究人員也發(fā)現(xiàn)了它很難被理解的問(wèn)題,當(dāng)人們?cè)噲D了解為何這個(gè)程序可以做到這些的時(shí)候,才發(fā)現(xiàn)它沒(méi)有提供任何線索。以上只是眾多案例中的一起,黑箱問(wèn)題在人工智能中已經(jīng)非常普遍。醫(yī)療人工智能可以很好地建立一個(gè)模型來(lái)達(dá)到一定的醫(yī)學(xué)目的,但人們卻不能理解它的工作原理。
算法黑箱引發(fā)的醫(yī)學(xué)理解和解釋的缺失,會(huì)對(duì)當(dāng)代醫(yī)療實(shí)踐中以病人為中心的臨床傳統(tǒng)造成威脅。如果人們只重視結(jié)果的輸出,忽略了數(shù)據(jù)是以何種方式呈現(xiàn)其中的原理,將導(dǎo)致臨床醫(yī)生對(duì)病人的關(guān)懷潛移默化成對(duì)治療效益的追求。當(dāng)人工智能系統(tǒng)發(fā)現(xiàn)這一偏好的轉(zhuǎn)變,將會(huì)偏向于提供更多效益最大化的臨床診斷,進(jìn)一步漠視病人的價(jià)值觀念,最終將引起與以病人為中心的臨床共享信息、共享思考和共享思維的理想目標(biāo)的沖突[7]。另外,如果臨床醫(yī)生和系統(tǒng)決策之間存在分歧,或當(dāng)醫(yī)生無(wú)法理解深度學(xué)習(xí)網(wǎng)絡(luò)中隱藏的相關(guān)醫(yī)療信息時(shí),他也不能以一種使病人能夠合理理解和處理的方式來(lái)呈現(xiàn)這些信息,這會(huì)增加醫(yī)患之間的不信任,甚至激發(fā)醫(yī)患矛盾。因此,如果我們過(guò)度依賴深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行醫(yī)療決策,就有可能因?yàn)槠浜谙浔举|(zhì)而失去醫(yī)療理解,這與以病人為中心的醫(yī)學(xué)理想相沖突。因此,醫(yī)學(xué)變成黑箱醫(yī)學(xué)越多,我們?cè)诂F(xiàn)代醫(yī)學(xué)中保留以病人為中心的醫(yī)學(xué)理想就越少。
人工智能在醫(yī)學(xué)領(lǐng)域應(yīng)用中可能對(duì)病人權(quán)益造成侵犯的另一個(gè)重要的問(wèn)題是如何確保數(shù)據(jù)的隱私和安全性。由于人工智能需要從環(huán)境中收集和存儲(chǔ)大量數(shù)據(jù),在此過(guò)程中可能導(dǎo)致病人的個(gè)人數(shù)據(jù)與隱私受到威脅。同時(shí),面部識(shí)別或基因組序列等方式成為獲取信息權(quán)限的途徑,無(wú)疑進(jìn)一步阻礙了對(duì)病人隱私的保護(hù)。澳大利亞推出了一款智能醫(yī)療系統(tǒng)“我的健康”,公眾廣泛選擇退出記錄保存,表明了人們對(duì)數(shù)據(jù)隱私的擔(dān)憂。在新加坡的健康記錄數(shù)據(jù)庫(kù)遭到黑客攻擊,以及私人公司獲取此類個(gè)人數(shù)據(jù)后,人們對(duì)新加坡智能醫(yī)療的安全問(wèn)題產(chǎn)生了擔(dān)憂[2]。
在實(shí)踐應(yīng)用中,信息隱私雖然受到數(shù)據(jù)安全措施的保護(hù),以避免數(shù)據(jù)泄露和防止人們隨意訪問(wèn)這些信息。但值得注意的是,侵犯?jìng)€(gè)人隱私權(quán)更多地發(fā)生在數(shù)據(jù)分享的過(guò)程中。例如,在醫(yī)療環(huán)境下,病人需要向醫(yī)生和其他衛(wèi)生人員提供一些個(gè)人信息。但是當(dāng)病人的私人信息被披露給未經(jīng)授權(quán)的第三方時(shí),就會(huì)發(fā)生違反隱私保密的問(wèn)題。尤其是在緊急情況下,專業(yè)人員難以實(shí)施訪問(wèn)控制。對(duì)于這些緊急情況,一些醫(yī)療數(shù)據(jù)庫(kù)允許合格的醫(yī)療專業(yè)人員以治療為目的訪問(wèn)病人的醫(yī)療信息,即使他們沒(méi)有訪問(wèn)該信息的權(quán)限。不僅如此,病人擔(dān)心數(shù)據(jù)會(huì)通過(guò)醫(yī)療保險(xiǎn)記錄、藥物數(shù)據(jù)、基因數(shù)據(jù)等來(lái)源泄露,這些信息可能會(huì)被用于醫(yī)學(xué)研究或者其他商業(yè)領(lǐng)域。這種有意或無(wú)意的隱私侵犯都會(huì)引起人們來(lái)自人工智能對(duì)個(gè)人信息訪問(wèn)的焦慮,擔(dān)心人工智能的治療水平得不到保障,更不愿意將個(gè)體的健康完全交付于人工智能。
人工智能在醫(yī)學(xué)領(lǐng)域的應(yīng)用還存在另一種隱私侵犯的可能,是對(duì)“知情同意”的隱性威脅,影響個(gè)人在收集、使用和披露個(gè)人健康信息方面做出知情決定的能力[8]。在我們被動(dòng)簽署“知情同意書”后,并不會(huì)被告知個(gè)人數(shù)據(jù)的去向,以及無(wú)法得知我們的數(shù)據(jù)會(huì)被用作什么途徑,將會(huì)產(chǎn)生怎樣的結(jié)果。病人對(duì)于這種意向不明的訪問(wèn)請(qǐng)求通常會(huì)有所顧慮,共享數(shù)據(jù)所帶來(lái)的價(jià)值會(huì)影響一個(gè)人分享數(shù)據(jù)的意愿,甚至?xí)绊憯?shù)據(jù)的有效性。如果我們事先知道數(shù)據(jù)的屬性,如身份、種族、經(jīng)濟(jì)社會(huì)地位等會(huì)對(duì)他人甚至臨床環(huán)境帶來(lái)不利的影響,或者會(huì)對(duì)敏感數(shù)據(jù)特殊對(duì)待,那么病人在數(shù)據(jù)提供時(shí)可能會(huì)刻意隱瞞或篡改數(shù)據(jù)。這種類似于病人的自我保護(hù)方式恰恰反映了智能醫(yī)療迫在眉睫的安全問(wèn)題。對(duì)于病人而言,解決數(shù)據(jù)隱私問(wèn)題不僅需要來(lái)自各方強(qiáng)有力的干預(yù),如應(yīng)用高度安全的數(shù)據(jù)平臺(tái)和政府立法的新模式,還要解決問(wèn)題背后潛在的公眾擔(dān)憂,即隱私數(shù)據(jù)使用的安全性和自主性。
人工智能的偏見(jiàn)與其算法的不透明有著復(fù)雜的聯(lián)系。對(duì)于理解算法的不透明性存在兩種方式:對(duì)醫(yī)生和病人不透明,但對(duì)特定人員透明;或者源于算法設(shè)計(jì)和編程固有的復(fù)雜性,其本質(zhì)上是不透明的。無(wú)論何種透明程度,都共同指向了數(shù)據(jù)偏見(jiàn)的必然性,它的輸出仍然會(huì)通過(guò)提出解釋生理狀態(tài)的具體方法來(lái)影響診斷,從而影響醫(yī)療專業(yè)人員采取的行動(dòng)[9]。
醫(yī)療人工智能接受了大量數(shù)據(jù)的訓(xùn)練,但這不代表人工智能不存在偏見(jiàn)。首先,人工智能系統(tǒng)只針對(duì)那些匹配輸入數(shù)據(jù)的人,但對(duì)那些不匹配輸入數(shù)據(jù)的人表現(xiàn)不佳。如果在某些人群中幾乎沒(méi)有遺傳研究的數(shù)據(jù),那么設(shè)計(jì)用于預(yù)測(cè)遺傳結(jié)果的算法就會(huì)有偏差,不同區(qū)域、種族預(yù)測(cè)存在著風(fēng)險(xiǎn)的高估和低估的偏差。例如,在患有乳腺癌的女性中,與白人女性相比,黑人女性更容易被錯(cuò)誤診斷患乳腺癌的風(fēng)險(xiǎn)[10]。其次,系統(tǒng)的不同解釋可能存在不同的目的,因此可能適合不同的利益相關(guān)者。有數(shù)據(jù)證明,機(jī)器學(xué)習(xí)算法可能無(wú)法對(duì)不同種族、性別、社會(huì)經(jīng)濟(jì)地位的病人提供同樣的結(jié)果[11]。最值得注意的是,婦女、少數(shù)群體和肥胖病人的治療選擇和縱向健康結(jié)果一般較差。在醫(yī)療資源緊張的情況下,機(jī)器可能會(huì)保留醫(yī)療資源提供給身份地位更高的病人。人工智能可能對(duì)某些已經(jīng)在社會(huì)上處于不利地位的人存在偏見(jiàn),并為他們提供更糟糕的醫(yī)療保健。
然而問(wèn)題是,即便披露了這些風(fēng)險(xiǎn),但是仍不太可能消除在社會(huì)公平分配時(shí)的歧視與偏見(jiàn)。相反,人工智能的應(yīng)用可能會(huì)不成比例地影響屬于某些亞人口的人,如少數(shù)民族。有研究表明,圖像識(shí)別軟件容易對(duì)某些少數(shù)民族的人產(chǎn)生偏見(jiàn)。例如,與膚色較淺的人相比,檢測(cè)深色皮膚的人的皮膚病的算法可能表現(xiàn)更差。這一事實(shí)可以歸因于機(jī)器學(xué)習(xí)所使用的數(shù)據(jù)不夠多樣。
智能醫(yī)療潛在的歧視與偏見(jiàn)引發(fā)的臨床風(fēng)險(xiǎn)不僅可能對(duì)病人造成身體傷害,還有可能影響病人的心理健康,進(jìn)而造成二次傷害。病人自身成為算法受害者的同時(shí),類似的偏見(jiàn)可能會(huì)無(wú)意中被納入算法。當(dāng)系統(tǒng)自主地對(duì)病人進(jìn)行分類,或者通過(guò)篩選轉(zhuǎn)診來(lái)優(yōu)先考慮個(gè)人獲得臨床服務(wù)的機(jī)會(huì),這類系統(tǒng)可能會(huì)導(dǎo)致不平等現(xiàn)象長(zhǎng)期存在,從而引發(fā)重大的道德問(wèn)題。
1.4.1 病人權(quán)益受到侵害的責(zé)任歸屬問(wèn)題
醫(yī)療人工智能設(shè)備可以在沒(méi)有人為干預(yù)的情況下行動(dòng),并且依據(jù)算法決定行動(dòng)方案。隨著人工智能被賦予更多的自主性,并且以獨(dú)有的個(gè)體“意識(shí)”參與到人類自身所進(jìn)行的社會(huì)行為中來(lái),人工智能將在醫(yī)療決策過(guò)程中有更多權(quán)力,與此同時(shí),人工智能也將承擔(dān)更多的責(zé)任。然而,如果算法被證明存在缺陷,并且人工智能提出的醫(yī)療建議對(duì)病人產(chǎn)生了不良影響,那么責(zé)任由誰(shuí)承擔(dān)呢?我們應(yīng)該怪罪人工智能的錯(cuò)誤還是醫(yī)生的失職呢?
傳統(tǒng)的責(zé)任歸屬會(huì)帶來(lái)很多問(wèn)題,因?yàn)槿绻斯ぶ悄茉谂R床中應(yīng)用的程度越來(lái)越強(qiáng),醫(yī)生在醫(yī)療服務(wù)中的地位則越來(lái)越弱,那么醫(yī)生就不會(huì)或不能再為醫(yī)療行為和決定負(fù)責(zé)。對(duì)于受到侵害的病人來(lái)說(shuō),對(duì)醫(yī)生追責(zé)的權(quán)重應(yīng)該更偏向于人工智能的責(zé)任。但這同樣引起了爭(zhēng)議,因?yàn)樨?zé)任主體相互獨(dú)立,部分原因是他們各自包含的行動(dòng)概念不同。機(jī)器可能更傾向于對(duì)疾病的治愈,但這種概念是在道德上和行為上普遍認(rèn)同的?;谶@種道德概念,我們同樣很難認(rèn)定責(zé)任方在于人工智能,因?yàn)檫@些信念、態(tài)度和價(jià)值觀會(huì)影響某些評(píng)估范圍,并且人工智能對(duì)這些標(biāo)準(zhǔn)的潛在反應(yīng)為行為提供了客觀理由[12],即行為是理性、客觀、道德的,而錯(cuò)誤來(lái)自于不可抗拒的“意外”。因此,當(dāng)人工智能參與到責(zé)任主體范圍當(dāng)中,現(xiàn)代醫(yī)學(xué)技術(shù)倫理的責(zé)任主體就不再限于醫(yī)生個(gè)人,而常常是一個(gè)群體,倫理責(zé)任的可分解性必然使得倫理責(zé)任的界限模糊起來(lái)[13]。面對(duì)著一個(gè)日益擴(kuò)大的責(zé)任鴻溝,如果不加以妥善處理,就會(huì)對(duì)病人的健康、權(quán)利以及社會(huì)道德框架的一致性和法律責(zé)任概念的建立構(gòu)成威脅。
1.4.2 共享決策與病人自主權(quán)問(wèn)題
共享決策是病人行使自主權(quán)的重要前提。在臨床救治和倫理規(guī)范中,病人擁有按照個(gè)人意愿行事的權(quán)利,并且行為主體有權(quán)決定接受何種醫(yī)療建議。但是,為了使病人的同意有效,它必須被先行告知充分的信息后才能參與到臨床決策中,這意味著病人需要了解醫(yī)療程序的相關(guān)事實(shí),即共享決策下病人自主權(quán)的有效性應(yīng)該建立在真實(shí)信息的充分共享的過(guò)程中。因此,醫(yī)療信息的披露顯得尤為重要。只有醫(yī)生向病人披露有關(guān)醫(yī)療程序或條件的相關(guān)細(xì)節(jié),病人才能對(duì)其醫(yī)療保健作出知情的決定,從而給予有效的同意[14]。
目前,沃森腫瘤學(xué)公司根據(jù)一個(gè)特定的目標(biāo)對(duì)治療方案進(jìn)行排序,即最大化壽命。驅(qū)動(dòng)沃森排名的價(jià)值集不是由接受治療的病人個(gè)體決定的。相反,它是通用的,而且本質(zhì)上是隱蔽的[15]。所以,相關(guān)醫(yī)療信息難以披露,并且它的參與可能會(huì)重新引起以人工智能為主導(dǎo)的家長(zhǎng)式的醫(yī)療決策模式。
引起人們關(guān)注的是,沃森算法是將病人壽命的最大化作為治療決策各項(xiàng)權(quán)重中的首要因素。然而,如果病人更青睞于選擇痛苦最小化的治療,沃森算法將很難實(shí)現(xiàn)。因此,將人工智能納入醫(yī)療決策或許會(huì)破壞臨床醫(yī)生和病人之間的共享決策,對(duì)病人的自主權(quán)和尊嚴(yán)構(gòu)成威脅。如果這類算法無(wú)法優(yōu)先考慮病人的自由決策,那么將難以避免醫(yī)療人工智能系統(tǒng)在決策中帶來(lái)的個(gè)體傷害。例如,結(jié)果論依據(jù)“效益”作為衡量標(biāo)準(zhǔn),使用者無(wú)法自我決定其他結(jié)果指標(biāo),包括成本效益和生活質(zhì)量。如果經(jīng)過(guò)診斷,認(rèn)為一位病人可以不進(jìn)行治療以現(xiàn)在有疾病的狀態(tài)生存8年,假設(shè)這位病人可以選擇經(jīng)治療后痊愈且生存的時(shí)間為10年,人工智能和病人會(huì)做何選擇?他們的選擇會(huì)一樣嗎?病人可以在多個(gè)角度思考“完全健康”所需要的付出,例如,高昂的治療費(fèi)用、痛苦而且漫長(zhǎng)的治療過(guò)程,以及維持患病現(xiàn)狀和身體完全健康之間的權(quán)衡。而人工智能在大多數(shù)情況下難以甄別治療原則的優(yōu)先排序,容易與病人主觀要求產(chǎn)生分歧,更難以界定對(duì)于病人而言何為“最佳行動(dòng)”和“最優(yōu)結(jié)果”。而實(shí)際情況將會(huì)更加復(fù)雜,病人的主觀決策和人工智能道德決策之間還有眾多衡量因素和標(biāo)準(zhǔn),甚至不同時(shí)期的病人衡量標(biāo)準(zhǔn)也有所不同。
人工智能面向數(shù)據(jù)解析所做的決策沒(méi)有充分體現(xiàn)人的自由意志,或者難以周全病人的多維權(quán)利。而在具體的醫(yī)療決策中,數(shù)據(jù)通過(guò)整合、計(jì)算似乎給出了最佳的決策,但其實(shí)這種個(gè)性化決策帶有“欺騙”的意味,機(jī)器不能僅僅通過(guò)對(duì)一種病的大眾療法和病人的體態(tài)數(shù)據(jù)生成一個(gè)治療方案,這樣完全由機(jī)器自主的治療決策是對(duì)人自由權(quán)利的侵犯。數(shù)據(jù)統(tǒng)治下的決策本質(zhì)上是算法和數(shù)據(jù)的互動(dòng),漠視了病人這一主體,打破了傳統(tǒng)醫(yī)學(xué)“以病人為中心”的關(guān)鍵原則。
規(guī)范智能醫(yī)療的倫理治理,需要來(lái)自多個(gè)方面因素的共同推動(dòng)。它不僅要求人工智能技術(shù)的完善和發(fā)展,還需要加強(qiáng)與病人、醫(yī)生的互動(dòng),以及對(duì)醫(yī)學(xué)理念的終極詮釋,才能滿足智能醫(yī)療時(shí)代下“以病人為中心”的臨床需求。
以目前的技術(shù)來(lái)看,為了確保病人的健康并維護(hù)他們的權(quán)益,保持對(duì)人工智能可解釋性的推進(jìn),并實(shí)現(xiàn)對(duì)人機(jī)交互的更好理解是至關(guān)重要的。首先,可解釋性的人工智能可將理論描述醫(yī)療建議和精準(zhǔn)制定醫(yī)療決策的期望變成現(xiàn)實(shí)。雖然有學(xué)者指出,擁有更透明的算法并不能保證更好地解釋、預(yù)測(cè)和全面證明我們對(duì)算法結(jié)果的信任[16]。但是它會(huì)提供給我們一條明晰的進(jìn)路,即當(dāng)人工智能系統(tǒng)無(wú)法提供有關(guān)風(fēng)險(xiǎn)和副作用信息時(shí),可以由專家來(lái)分析、補(bǔ)充和決定。這樣可以幫助決策參與者理解需求,以及對(duì)算法可解釋性的探究與部署。在實(shí)際應(yīng)用中,增強(qiáng)人工智能的可解釋性需要針對(duì)具體情景來(lái)制定算法框架,這可能意味著技術(shù)成本的增加,但這是為數(shù)不多的可供探索的方案。或者可以針對(duì)不同的情景,預(yù)設(shè)透明的道德算法用以界定決策原則的主次序列。例如,該算法可以定義關(guān)鍵倫理原則和價(jià)值觀,避免機(jī)器在具體案例中不知所措,并且必要時(shí)必須犧牲一部分原則來(lái)維護(hù)關(guān)鍵原則[17]70。類似于這種在關(guān)鍵問(wèn)題上設(shè)置透明“閘口”來(lái)規(guī)范算法,從而使用戶理解部分決策的制定原理的方法,在另一個(gè)角度為實(shí)現(xiàn)人工智能的可解釋性提供了可能。
其次,醫(yī)療風(fēng)險(xiǎn)必須要向病人披露,這意味著人工智能的可解釋性直接影響了病人的知情同意或更普遍的義務(wù)。同時(shí),可解釋性可以有效檢測(cè)不合理的結(jié)果,不僅提高了專業(yè)人員識(shí)別人工智能錯(cuò)誤的能力,還可以在一個(gè)相關(guān)的工作流程中改善病人護(hù)理。例如,決策曲線的分析,旨在量化使用模型來(lái)指導(dǎo)后續(xù)行動(dòng)的凈效益,使他們能夠在實(shí)踐中安全且批判性地評(píng)價(jià)、采用和使用人工智能工具[18],更有效地將可解釋性轉(zhuǎn)化為醫(yī)療安全性。
在智能醫(yī)學(xué)的發(fā)展中,解決算法的歧視與偏見(jiàn)不應(yīng)僅僅被視為是一個(gè)技術(shù)目標(biāo),而應(yīng)是一個(gè)原則性問(wèn)題。由于人工智能的生態(tài)系統(tǒng)結(jié)構(gòu)內(nèi)部的輸入精度和輸出精度之間存在很強(qiáng)的正相關(guān)性,所以數(shù)據(jù)模型的部署對(duì)于算法的影響尤其明顯。合理的模型要求數(shù)據(jù)在數(shù)量上是足夠的,在屬性上是多元化的。通過(guò)來(lái)自不同區(qū)域和社會(huì)各界的多方面努力,加之更廣泛的臨床研究來(lái)驗(yàn)證智能醫(yī)療應(yīng)用程序的實(shí)施,可以最大化地解除人們對(duì)算法偏差的擔(dān)憂。算法的設(shè)計(jì)應(yīng)該在全球范圍內(nèi)進(jìn)行考量,數(shù)據(jù)的屬性包括但不限于年齡、種族、性別、社會(huì)人口階層和區(qū)域。為了減少偏差,臨床驗(yàn)證應(yīng)該在代表性人群中進(jìn)行,它預(yù)設(shè)了系統(tǒng)的普適性,對(duì)于特殊數(shù)據(jù)、個(gè)性化案例,需要更加謹(jǐn)慎地進(jìn)行臨床研究驗(yàn)證。因?yàn)?,即使在大型隨機(jī)對(duì)照試驗(yàn)中確定了針對(duì)特定病人的特定干預(yù)措施的有效性,臨床病人也往往與臨床試驗(yàn)人群不同[19]。特別是為了滿足質(zhì)量持續(xù)改進(jìn)的實(shí)踐要求,需要專業(yè)人員遵循機(jī)器和人為雙重控制原則,根據(jù)不斷變化的需求環(huán)境對(duì)數(shù)據(jù)庫(kù)進(jìn)行審核,對(duì)模型中的數(shù)據(jù)盲點(diǎn)予以完善,針對(duì)不明確和不合理的數(shù)據(jù)加以調(diào)整,以明確數(shù)據(jù)在算法中實(shí)現(xiàn)的作用。
在臨床中,醫(yī)療人工智能系統(tǒng)如何判定一個(gè)行為是否符合病人的道德義務(wù)?人們總是直觀地認(rèn)為,人工智能不能像人類一樣思考,就無(wú)法比人做出更加人性化的倫理決策。其實(shí)不然,雖然人工智能無(wú)法模擬人類的意識(shí),但是可以通過(guò)學(xué)習(xí)數(shù)據(jù)為基礎(chǔ),以整合信息生成特有的知識(shí)和認(rèn)知機(jī)制,來(lái)決定如何行動(dòng)、執(zhí)行任務(wù)和創(chuàng)造新信息[17]39-59。但是,如果只是大量的數(shù)據(jù)集合的堆積,智能系統(tǒng)未必能制定適合病人的道德決策。所以值得重視的是,在進(jìn)行算法運(yùn)算之前,設(shè)計(jì)者需要給這些數(shù)據(jù)定義屬性,什么樣的結(jié)果是“好”的,什么樣的結(jié)果是符合人類道德主體的。類似于羅斯的“顯見(jiàn)義務(wù)”,當(dāng)機(jī)器在做道德判斷的時(shí)候,如果它的行為符合某一種顯見(jiàn)義務(wù),如忠誠(chéng)、正義、不傷害別人等屬性,那么它就有可能符合道德要求。在醫(yī)療行為中,針對(duì)具體的病人與情境,如果沒(méi)有其他義務(wù)比顯見(jiàn)義務(wù)更符合這一情形,那么這就是道德上應(yīng)該去做的“實(shí)際義務(wù)”。例如,病人在以現(xiàn)有疾病的狀態(tài)下的生存時(shí)間仍然大于完全健康的生存時(shí)間,那么在病人知情同意條件下,適當(dāng)治療來(lái)減緩病人痛苦與完全治療的兩種方式在道德上是完全正當(dāng)?shù)?,完全治療并不一定完全適用于病人,所以通過(guò)適當(dāng)治療維持病人的生命也是符合“實(shí)際義務(wù)”的道德決策。智能醫(yī)療系統(tǒng)的顯見(jiàn)義務(wù)是自明的,但是由于實(shí)際義務(wù)需要對(duì)具體情境加以識(shí)別判斷,所以人工智能在行動(dòng)之前必須了解該行為的所有特性。只有預(yù)設(shè)數(shù)據(jù)的道德屬性和行為的合理范圍,智能醫(yī)療系統(tǒng)才能給予合乎倫理的決策。
傳統(tǒng)上,我們要求機(jī)器的操作員或者程序設(shè)定人員對(duì)其操作的后果負(fù)責(zé),但現(xiàn)在可以證明,隨著機(jī)器行為的種類越來(lái)越多,傳統(tǒng)的責(zé)任歸屬方式越來(lái)越與我們的正義感和社會(huì)道德框架不兼容,因?yàn)闆](méi)有人對(duì)機(jī)器的行為有足夠的控制能力來(lái)承擔(dān)責(zé)任。這些案例構(gòu)成了我們所說(shuō)的責(zé)任差距,所以需要對(duì)不同案例具體分析來(lái)界定責(zé)任歸屬。例如,IBM沃森健康公司的許多癌癥治療算法建議被證明是存在缺陷的,從而對(duì)病人產(chǎn)生了醫(yī)源性風(fēng)險(xiǎn)。但針對(duì)沃森這類情況,我們恐怕難以追溯設(shè)計(jì)者的責(zé)任。因?yàn)椋畛踉O(shè)定的程序功能會(huì)在機(jī)器學(xué)習(xí)的過(guò)程中逐漸自治。在這一過(guò)程當(dāng)中,機(jī)器會(huì)擺脫設(shè)計(jì)者的控制,并逐漸將這種控制轉(zhuǎn)移到機(jī)器本身。而且,對(duì)于設(shè)計(jì)者來(lái)說(shuō),可糾正的符號(hào)和標(biāo)識(shí)在人工神經(jīng)網(wǎng)絡(luò)中消失了,盡量避免風(fēng)險(xiǎn)的發(fā)生是他唯一能做的事情,倘若事先知道機(jī)器的局限性,他也不應(yīng)該承擔(dān)責(zé)任[20]。
假設(shè)沃森給出了一個(gè)錯(cuò)誤的治療建議,我們可以就這一問(wèn)題具體分析。如果自治機(jī)器的錯(cuò)誤表現(xiàn)來(lái)自其不可避免的局限性,那么必須定責(zé)機(jī)器本身。如果由代理人做出了最終的決定,我們還要考慮其他利益相關(guān)者的責(zé)任,如醫(yī)療機(jī)構(gòu)和要求代理人根據(jù)自治機(jī)器的輔助算法進(jìn)行醫(yī)療決策的技術(shù)設(shè)計(jì)公司,問(wèn)責(zé)就會(huì)變得更加復(fù)雜。對(duì)于在不同程度上造成了醫(yī)療失誤的利益各方,他們都將涉及定責(zé),但他們都不承擔(dān)全部責(zé)任。值得注意的是,集體式的責(zé)任概念似乎可以縮小責(zé)任差距,但事實(shí)上,對(duì)于受到傷害的病人來(lái)說(shuō)并不是一件積極的結(jié)果,因?yàn)樗嬖跐撛诘呢?zé)任互推的風(fēng)險(xiǎn)。因此,應(yīng)該成立由醫(yī)生、病人、智能醫(yī)療程序設(shè)計(jì)者、政府、醫(yī)療機(jī)構(gòu)、智能醫(yī)療設(shè)備開(kāi)發(fā)公司等多主體共同參與的責(zé)任界定團(tuán)體,經(jīng)共同協(xié)商,建立一套詳細(xì)的、明晰的責(zé)任界定標(biāo)準(zhǔn)。
醫(yī)療決策涉及病人的價(jià)值觀和偏好,對(duì)一名病人的最佳治療可能不是對(duì)另一名病人的最優(yōu)選擇。因此,對(duì)不同需要的病人,給予相同的醫(yī)療待遇不能說(shuō)是一種公正。如果不考慮人們之間的差異,就談不上合乎道德的行動(dòng)。因?yàn)楣淖饔?,并不建立在無(wú)視差別的基礎(chǔ)上,而是建立在根據(jù)差別運(yùn)用一般原則的基礎(chǔ)上[21]。所以醫(yī)療決策應(yīng)該由病人的價(jià)值觀決定,復(fù)雜的護(hù)理情況往往得益于其他專業(yè)人員和病人的參與,以實(shí)現(xiàn)一種在醫(yī)學(xué)上合理且符合病人價(jià)值觀的共享意識(shí)。為特定病人選擇最佳的治療需要病人和醫(yī)生的價(jià)值判斷,智能醫(yī)療應(yīng)該傾聽(tīng)病人、尊重病人,需要防止忽略病人的價(jià)值觀而將治療方式強(qiáng)加給病人。以病人為中心的現(xiàn)代臨床醫(yī)學(xué)第一個(gè)核心原則應(yīng)是從業(yè)者應(yīng)該努力將病人視為獨(dú)特的、自主的、具有特定的價(jià)值觀、偏好和生活目標(biāo)的人?;诓∪说淖诮绦叛?、文化傳統(tǒng)以及多樣化的價(jià)值觀,不同的病人對(duì)應(yīng)不同的醫(yī)療決策,當(dāng)選擇涉及相似的風(fēng)險(xiǎn)和利益時(shí),與病人共同決策最為有效。例如,當(dāng)算法對(duì)治療的決策優(yōu)先級(jí)排序存在倫理沖突時(shí),可以由醫(yī)生與病人進(jìn)行有意義的對(duì)話,來(lái)促進(jìn)關(guān)于病人偏好和可能的治療,以便在人工智能系統(tǒng)忽視倫理價(jià)值向度時(shí)為病人提供選擇的機(jī)會(huì),防止科技活動(dòng)對(duì)待不同社會(huì)群體的歧視和偏見(jiàn)。共同決策反映了對(duì)病人作為有權(quán)干預(yù)利益和參與醫(yī)療決策的尊重以及個(gè)人承諾,臨床中價(jià)值靈活的人工智能可以成為促進(jìn)共享決策和將對(duì)病人自主權(quán)的尊重嵌入臨床實(shí)踐的盟友。
現(xiàn)代醫(yī)學(xué)要求“以病人為中心”,充分考慮到病人的多維情境,維護(hù)尊重病人的利益和意見(jiàn),是在任何科學(xué)時(shí)代都不應(yīng)該違反的。相較于工具理性,價(jià)值理性在行動(dòng)之前預(yù)設(shè)了一個(gè)核心價(jià)值觀念,所有行動(dòng)都是圍繞著這一觀念進(jìn)行,從病人意愿、預(yù)后、治療費(fèi)用等多角度地分析何種方案更適合。工具價(jià)值是倫理價(jià)值的前提,沒(méi)有工具價(jià)值就無(wú)法帶來(lái)智能醫(yī)療技術(shù)質(zhì)的飛躍,對(duì)效率性、實(shí)用性追求是技術(shù)發(fā)展的需要,也是時(shí)代的訴求,二者的統(tǒng)一旨在更好地實(shí)現(xiàn)醫(yī)療水平的進(jìn)步。倫理價(jià)值是內(nèi)核,它是醫(yī)學(xué)人文精神的載體,智能醫(yī)療不僅要做到精準(zhǔn)治療,同時(shí)也要有人文的關(guān)懷,二者的合力才是智能醫(yī)療發(fā)展的關(guān)鍵所在。
智能醫(yī)療要堅(jiān)持以病人為中心,首先需要實(shí)現(xiàn)其技術(shù)價(jià)值要求在臨床過(guò)程中對(duì)于特定病人通過(guò)精準(zhǔn)的分析預(yù)設(shè)診療行為,對(duì)診療行為、醫(yī)療目的以及符合的結(jié)果范圍之間進(jìn)行合理的權(quán)衡。在尊重病人自主性的前提下,智能醫(yī)療的干預(yù)措施伴隨著其可能結(jié)果和相關(guān)風(fēng)險(xiǎn)性質(zhì)的不確定性,做出符合病人需求和權(quán)利的理性決策存在困難。所以,智能醫(yī)療不僅要為病人綜合考慮何種治療方案能更加行之有效地消除疾病,以生命延續(xù)作為最大化效益的功利目的追求,還要融合整個(gè)行動(dòng)過(guò)程中的情感和精神價(jià)值,在治療過(guò)程中始終秉承某種價(jià)值信念的合理性行為。
2022年3月,中共中央辦公廳、國(guó)務(wù)院辦公廳印發(fā)了《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》,提出要不斷提升科技倫理治理能力,防控高新技術(shù)研發(fā)活動(dòng)帶來(lái)的倫理風(fēng)險(xiǎn)。智能醫(yī)療的最新進(jìn)展為改善人類醫(yī)療保健提供了機(jī)會(huì),然而我們也面臨著智能醫(yī)療的諸多倫理挑戰(zhàn),并且在將技術(shù)轉(zhuǎn)化為有效的臨床部署仍然存在不可避免的前沿風(fēng)險(xiǎn)。因此,人們比以往任何時(shí)候都更加迫切地需要智能醫(yī)療受到約束和改進(jìn)。正如本文所述,人工智能的技術(shù)風(fēng)險(xiǎn)可能會(huì)給臨床醫(yī)生的正確決策帶來(lái)威脅,而潛在的倫理風(fēng)險(xiǎn)侵害了病人的權(quán)益。人工智能如何影響醫(yī)療質(zhì)量、滿足醫(yī)療要求,對(duì)于前瞻、穩(wěn)健和確定性的臨床部署至關(guān)重要。這就要求人工智能加速算法確定性以及可解釋性的技術(shù)建設(shè),在全球范圍內(nèi)建立數(shù)據(jù)集,以便于評(píng)估和消除復(fù)雜因素對(duì)于不同病人的歧視與偏見(jiàn),來(lái)滿足適應(yīng)臨床行動(dòng)和決策的衡量標(biāo)準(zhǔn)。同時(shí)為了使智能醫(yī)療真正實(shí)現(xiàn)以病人為中心的護(hù)理,人工智能需要理解道德認(rèn)知和具備道德義務(wù)意識(shí),并且專注于人工智能與病人和臨床醫(yī)生之間的關(guān)系和互動(dòng)質(zhì)量方面,確保病人接受可控人工智能醫(yī)療的同時(shí)權(quán)益也不受侵犯,真正做到“以病人為中心”進(jìn)行臨床考察?!耙圆∪藶橹行摹钡脑瓌t是智能醫(yī)療時(shí)代下的訴求和共同愿景,這一原則下的護(hù)理履行了醫(yī)護(hù)人員將病人利益置于首位并尊重病人個(gè)人自主權(quán)的義務(wù)[7],并且在醫(yī)療層面和倫理層面將會(huì)為智能醫(yī)療帶來(lái)更好的價(jià)值。