江 婧,曹 東,鄢來(lái)均
(1 廣州中醫(yī)藥大學(xué)馬克思主義學(xué)院,廣東 廣州 510006;2 廣州中醫(yī)藥大學(xué)醫(yī)學(xué)信息工程學(xué)院,廣東 廣州 510006;3 廣州中醫(yī)藥大學(xué)研究生院,廣東 廣州 510006)
可解釋人工智能已成為學(xué)術(shù)界、產(chǎn)業(yè)界和政府部門(mén)研究的熱門(mén)話題。全世界范圍內(nèi)都在積極探索可解釋性的人工智能,例如2016年美國(guó)國(guó)防部高級(jí)計(jì)劃署(DARPA)就啟動(dòng)了一項(xiàng)名為“可解釋人工智能”的大型項(xiàng)目(explainable artificial intelligence,XAI)。2019年歐盟委員會(huì)發(fā)布《人工智能道德準(zhǔn)則》(Ethics Guidelines for Trustworthy AI),強(qiáng)調(diào)要提高人工智能的透明度和實(shí)現(xiàn)可追溯性。2017年我國(guó)也在《新一代人工智能發(fā)展規(guī)劃》中,明確將“實(shí)現(xiàn)具備高可解釋性、強(qiáng)泛化能力的人工智能”作為未來(lái)我國(guó)人工智能布局前沿基礎(chǔ)理論研究。由于醫(yī)學(xué)領(lǐng)域的高風(fēng)險(xiǎn)性,人工智能在醫(yī)療領(lǐng)域的可解釋性受到了更加廣泛的關(guān)注。在醫(yī)療領(lǐng)域,人工智能的可解釋性有助于提高模型的安全性和可靠性,增強(qiáng)目標(biāo)用戶的信任度等,但是,可解釋性方法可能引發(fā)的醫(yī)療倫理問(wèn)題也日益凸顯。
探究可解釋人工智能醫(yī)療應(yīng)用倫理問(wèn)題的意義關(guān)乎用戶的安全和公平問(wèn)題。倫理學(xué)界從不同的角度對(duì)其進(jìn)行了倫理辯護(hù)。其中有兩種代表性觀點(diǎn):一種觀點(diǎn)認(rèn)為,在醫(yī)療領(lǐng)域中,事后可解釋人工智能有助于增強(qiáng)用戶信任、提高系統(tǒng)的安全性等。另一種觀點(diǎn)認(rèn)為,人們應(yīng)該警惕甚至是避免在醫(yī)療領(lǐng)域中使用事后可解釋人工智能,因?yàn)槭潞蠼忉尶赡軙?huì)引發(fā)潛在的風(fēng)險(xiǎn)。盡管倫理學(xué)界對(duì)此不能取得一致意見(jiàn),但他們都認(rèn)為探討可解釋人工智能醫(yī)療應(yīng)用倫理問(wèn)題對(duì)患者的安全和公平具有重要意義。本文試圖從科技倫理視角審視可解釋人工智能醫(yī)療應(yīng)用倫理問(wèn)題的新挑戰(zhàn),以期尋求合理的解決之道。
由于考察視角的不同,可解釋人工智能并沒(méi)有一個(gè)標(biāo)準(zhǔn)的定義。可解釋人工智能來(lái)自英文Explainable Artificial Intelligence,該術(shù)語(yǔ)由Van Lent等于2004年首次創(chuàng)造,用來(lái)描述他們的系統(tǒng)在模擬游戲應(yīng)用中解釋人工智能控制實(shí)體行為的能力[1]。自2016年DARPA啟動(dòng)關(guān)于可解釋人工智能的研究之后,該術(shù)語(yǔ)開(kāi)始被普遍接受,DARPA 將可解釋人工智能定義為一種系統(tǒng),它可以向人類(lèi)用戶解釋其基本原理,描述其優(yōu)缺點(diǎn),并傳達(dá)對(duì)其未來(lái)行為的理解[2]。Arrieta等[3]認(rèn)為,可解釋人工智能指的是,針對(duì)特定的受眾,通過(guò)給出細(xì)節(jié)和原因,使模型運(yùn)轉(zhuǎn)更清楚和更容易,被受眾所理解的一項(xiàng)技術(shù)。本文認(rèn)為可解釋人工智能可以定義為:針對(duì)不同背景知識(shí)的目標(biāo)用戶,以其可以理解的方式,對(duì)模型決策過(guò)程的根據(jù)進(jìn)行解釋的一項(xiàng)技術(shù)。目的就是幫助人類(lèi)理解機(jī)器為什么會(huì)作出這樣的決策以及決策是否可靠。
人工智能的可解釋問(wèn)題源于深度學(xué)習(xí)的“黑盒”屬性。所謂“黑盒”屬性,指深度學(xué)習(xí)算法是不透明的。不同于傳統(tǒng)算法輸入和輸出之間的確定性,深度學(xué)習(xí)模型通過(guò)反向傳播不斷調(diào)整自己內(nèi)部的參數(shù)和規(guī)則,所以人類(lèi)無(wú)法理解它們的內(nèi)部工作機(jī)制。在某些應(yīng)用領(lǐng)域,比如說(shuō)人臉識(shí)別、文字翻譯,可解釋性并不是關(guān)鍵的要求,只要這些系統(tǒng)的整體性能足夠好,即使系統(tǒng)在運(yùn)行過(guò)程中出現(xiàn)錯(cuò)誤,也不會(huì)造成很大的影響,因此,這些領(lǐng)域?qū)θ斯ぶ悄芟到y(tǒng)可解釋性的要求相對(duì)比較低。但是,醫(yī)療領(lǐng)域則不同,醫(yī)療中的許多決策實(shí)際上是生死攸關(guān)的問(wèn)題,微小的錯(cuò)誤都可能會(huì)威脅到患者的生命安全,這時(shí)缺乏可解釋性就成為人工智能走向臨床應(yīng)用的限制性因素。所以,越來(lái)越多的專(zhuān)家學(xué)者將目光投向了人工智能在醫(yī)療領(lǐng)域的可解釋性,各種解釋方法應(yīng)運(yùn)而生。目前,可解釋人工智能在醫(yī)學(xué)影像處理、疾病診斷、風(fēng)險(xiǎn)預(yù)測(cè)等方面都取得了不錯(cuò)的成績(jī)。例如,Nafisah等[4]利用可解釋人工智能處理胸部X光片檢測(cè)結(jié)核病,Thimoteo等[5]研究出通過(guò)血液檢測(cè)診斷COVID-19的可解釋人工智能,Curia[6]利用可解釋人工智能預(yù)測(cè)患宮頸癌的風(fēng)險(xiǎn)。通過(guò)給出決策依據(jù),為臨床醫(yī)生提供有效的輔助信息,增加了用戶的信任,改善了模型的性能。盡管可解釋人工智能給醫(yī)學(xué)帶來(lái)了很多好處,但其在醫(yī)療應(yīng)用中也引發(fā)了不同以往的倫理挑戰(zhàn),具體而言,可解釋人工智能醫(yī)療應(yīng)用引發(fā)的倫理新挑戰(zhàn)主要表現(xiàn)在以下兩個(gè)方面。
針對(duì)深度學(xué)習(xí)的“黑盒”屬性,人工智能專(zhuān)家創(chuàng)建了不同的解釋方法。根據(jù)不同的標(biāo)準(zhǔn),這些方法又分為不同的類(lèi)別。Du等[7]根據(jù)獲得可解釋性的時(shí)間,將可解釋性方法總體上劃分為兩類(lèi):內(nèi)在解釋和事后解釋。這是兩種不同類(lèi)型的解釋方法,它們以不同的方式處理不透明問(wèn)題。內(nèi)在解釋指的是模型本身可解釋?zhuān)驗(yàn)榭山忉屝园l(fā)生在模型訓(xùn)練之前,所以也稱(chēng)為事前解釋?zhuān)礋o(wú)需事后引入另一個(gè)解釋模型就可以理解預(yù)測(cè)模型的決策依據(jù)。根據(jù)解釋的實(shí)現(xiàn)途徑,又可將事前解釋進(jìn)一步分為兩種:自解釋模型和內(nèi)置可解釋模型。自解釋模型就是指?jìng)鹘y(tǒng)機(jī)器學(xué)習(xí)中的簡(jiǎn)單模型,例如決策樹(shù)、線性回歸等。無(wú)論是從理論上還是理解上,這些模型都具有比較好的可解釋性。內(nèi)置可解釋模型指的是,利用某些方法構(gòu)建可解釋的深度神經(jīng)網(wǎng)絡(luò)模型。目前,關(guān)于事前解釋性的研究多局限于決策樹(shù)、線性回歸等結(jié)構(gòu)簡(jiǎn)單的傳統(tǒng)機(jī)器學(xué)習(xí)算法,而內(nèi)置可解釋模型由于對(duì)技術(shù)要求很高,暫時(shí)未取得突破性進(jìn)展。
事前解釋可能會(huì)導(dǎo)致醫(yī)療安全問(wèn)題,其表現(xiàn)為以下兩種情況:一方面,事前解釋的人工智能系統(tǒng)預(yù)測(cè)準(zhǔn)確性較低,導(dǎo)致模型自身存在安全隱患。學(xué)術(shù)界一般認(rèn)為,人工智能系統(tǒng)的準(zhǔn)確性和可解釋性之間存在一定的矛盾,即模型的準(zhǔn)確性越高,可解釋性就越低;相反,模型的準(zhǔn)確性越低,可解釋性就越高[8]。盡管在Rudin[9]看來(lái),在數(shù)據(jù)結(jié)構(gòu)化并具有良好的特征時(shí),復(fù)雜模型和簡(jiǎn)單模型之間的性能通常并沒(méi)有顯著差異。例如,利用決策樹(shù)算法構(gòu)建區(qū)分感冒和咳嗽的預(yù)測(cè)模型也具有較高的準(zhǔn)確率,基本達(dá)到診斷要求[10]。但是,這是基于醫(yī)療數(shù)據(jù)具有良好特征時(shí),在現(xiàn)實(shí)情況中,絕大多數(shù)醫(yī)學(xué)數(shù)據(jù)是以多種模態(tài)呈現(xiàn),每種模態(tài)各有所長(zhǎng)、相互關(guān)聯(lián),極大限制了對(duì)病癥的預(yù)測(cè)和診斷[11]。因此,雖然自解釋模型自身具備良好的可解釋性,但在面對(duì)多模態(tài)的醫(yī)療數(shù)據(jù)時(shí),模型篩查水平和診斷效率與深度學(xué)習(xí)模型相比還是存在比較大的差異。因此,在醫(yī)療應(yīng)用中使用事前解釋人工智能就意味著要以犧牲準(zhǔn)確性為代價(jià),從而導(dǎo)致人工智能系統(tǒng)在輔助臨床醫(yī)生治療中存在安全隱患,進(jìn)而給患者的生命安全帶來(lái)致命的威脅。
另一方面,事前解釋為對(duì)抗攻擊提供了有利條件,導(dǎo)致模型自身存在醫(yī)療安全隱患。對(duì)抗攻擊是神經(jīng)網(wǎng)絡(luò)模型中常見(jiàn)的攻擊方法,它通過(guò)輸入人類(lèi)難以察覺(jué)的微小擾動(dòng),從而使模型進(jìn)行錯(cuò)誤決策,甚至可以根據(jù)設(shè)計(jì)的擾動(dòng),輸出攻擊者想要的分類(lèi)結(jié)果。研究發(fā)現(xiàn),解釋方法可以本能地為對(duì)抗樣本的生成提供特定區(qū)域[12]。對(duì)于模型的研究者來(lái)說(shuō),可解釋性技術(shù)有助于有效評(píng)估模型決策行為的安全性和可靠性,通過(guò)對(duì)抗訓(xùn)練,模型的魯棒性和安全性能得到有效的提升,從而消除模型實(shí)際部署應(yīng)用中的安全隱患。但是,對(duì)于模型的攻擊者來(lái)說(shuō),可解釋方法卻也為攻擊者探測(cè)原始模型弱點(diǎn)提供了有利條件,在醫(yī)學(xué)影像處理方面,對(duì)原始圖像添加人眼不可分辨的擾動(dòng),對(duì)于輸入中產(chǎn)生的微小變化,都會(huì)對(duì)深模型預(yù)測(cè)準(zhǔn)確性產(chǎn)生很大的影響。在臨床治療中,系統(tǒng)一旦受到對(duì)抗攻擊的干擾,那么提供的解釋結(jié)果必然會(huì)影響醫(yī)生的診斷過(guò)程,甚至?xí)`導(dǎo)醫(yī)生的診斷而給患者帶來(lái)致命的威脅。
事后解釋指的是創(chuàng)建專(zhuān)門(mén)的解釋模型來(lái)解釋原始模型,即需事后引入另一個(gè)解釋模型才可以理解預(yù)測(cè)模型的決策依據(jù)。它往往針對(duì)的是復(fù)雜度比較高的模型[13],比如深度神經(jīng)網(wǎng)絡(luò)。因?yàn)榭山忉尠l(fā)生在模型訓(xùn)練之后,所以稱(chēng)為事后解釋。根據(jù)解釋的范圍,可進(jìn)一步將事后可解釋分為全局可解釋和局部可解釋。全局可解釋意味著用戶可以通過(guò)檢查復(fù)雜模型的結(jié)構(gòu)和參數(shù)從而理解模型整體是怎樣運(yùn)行的。局部可解釋為模型的單個(gè)預(yù)測(cè)提供局部解釋。根據(jù)解釋方法是否依賴(lài)具體模型內(nèi)部參數(shù),又可分為模型無(wú)關(guān)的解釋方法和模型相關(guān)的解釋方法,模型無(wú)關(guān)解釋方法可針對(duì)任何預(yù)測(cè)模型,而模型相關(guān)解釋方法則是針對(duì)特定的預(yù)測(cè)模型。目前常見(jiàn)的事后解釋方法主要有知識(shí)蒸餾、激活最大化、類(lèi)激活映射、反向傳播等。事后解釋能夠在保持模型性能的基礎(chǔ)上實(shí)現(xiàn)可解釋?zhuān)虼?,目前在醫(yī)療領(lǐng)域主要還是依賴(lài)基于事后解釋的人工智能系統(tǒng)。事后解釋主要會(huì)出現(xiàn)以下幾種倫理問(wèn)題:
其一,醫(yī)療責(zé)權(quán)問(wèn)題。將人工智能引入醫(yī)療領(lǐng)域本身就提高了醫(yī)療責(zé)任主體認(rèn)定的復(fù)雜度。在傳統(tǒng)醫(yī)療模式下,如果發(fā)生醫(yī)療事故,醫(yī)療機(jī)構(gòu)和醫(yī)護(hù)人員是責(zé)任主體,而將人工智能引入醫(yī)療領(lǐng)域之后,醫(yī)生和患者之間增加了人工智能和制造商,這就使得醫(yī)療責(zé)任主體的認(rèn)定變得更加復(fù)雜。即使將深度學(xué)習(xí)引入醫(yī)學(xué)領(lǐng)域提高了醫(yī)療診斷效率和準(zhǔn)確性,但是其應(yīng)對(duì)突發(fā)情況的反應(yīng)處置能力還是帶來(lái)許多有待解決的問(wèn)題,目前的技術(shù)條件還無(wú)法保證百分之百的醫(yī)療準(zhǔn)確率。比如在醫(yī)學(xué)影像處理方面,對(duì)原始圖像添加人眼不可分辨的擾動(dòng)對(duì)于輸入中產(chǎn)生的微小變化,都會(huì)對(duì)深度神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)準(zhǔn)確性產(chǎn)生很大的影響,如果出現(xiàn)醫(yī)療事故,應(yīng)該由誰(shuí)負(fù)責(zé)。而此時(shí)事后解釋不僅僅是對(duì)傳統(tǒng)人工智能醫(yī)療責(zé)任主體問(wèn)題的放大,并且是一種顛覆。Babic等[14]認(rèn)為這種事后合理化的解釋往往可能會(huì)成為一些利益相關(guān)者逃避醫(yī)療責(zé)任的手段。因?yàn)閷?duì)于自身可解釋的人工智能來(lái)說(shuō),如果系統(tǒng)出現(xiàn)錯(cuò)誤,我們可以通過(guò)回溯運(yùn)行步驟找出錯(cuò)誤的環(huán)節(jié),事后解釋卻難以回溯,而且這種事后的合理化有可能還會(huì)被一些利益相關(guān)者用來(lái)轉(zhuǎn)移注意力。例如,人工智能的制造商為了逃避醫(yī)療責(zé)任,故意設(shè)計(jì)一些對(duì)自身有利的事后解釋模型。當(dāng)出現(xiàn)醫(yī)療事故時(shí),如果醫(yī)療責(zé)任主體難以認(rèn)定,患者權(quán)益將難以得到保障。
其二,醫(yī)療安全問(wèn)題。在疾病預(yù)測(cè)方面,利用可解釋性人工智能取得了不錯(cuò)的成績(jī)。例如,Rajpurkar等[15]基于深度學(xué)習(xí)開(kāi)發(fā)了診斷肺部疾病的醫(yī)療預(yù)測(cè)模型,準(zhǔn)確度已達(dá)到專(zhuān)家級(jí)診斷精度。同時(shí),通過(guò)事后解釋提取模型特征,為臨床醫(yī)生提供了有效的輔助信息,使醫(yī)生不再盲目的依賴(lài)黑匣子。但是研究發(fā)現(xiàn)[12],攻擊者可以利用事后可解釋性技術(shù)對(duì)醫(yī)療預(yù)測(cè)模型進(jìn)行對(duì)抗攻擊。一方面,在不改變解釋結(jié)果的前提下,攻擊者可以利用可解釋性技術(shù)探測(cè)醫(yī)療模型的漏洞,誘導(dǎo)模型作出錯(cuò)誤的醫(yī)療決策;另一方面,在不改變醫(yī)療模型決策結(jié)果的前提下,攻擊者可以利用可解釋技術(shù)干擾醫(yī)療解釋過(guò)程,誘導(dǎo)解釋方法作出錯(cuò)誤的醫(yī)療解釋。相關(guān)研究表明[16],由于事后解釋只是對(duì)原始模型的一個(gè)間接和近似的解釋?zhuān)粽呖梢赃€利用二者之間的不一致性設(shè)計(jì)針對(duì)系統(tǒng)的新型對(duì)抗樣本攻擊。因此,在臨床治療中,系統(tǒng)一旦受到對(duì)抗攻擊算法的干擾,那么提供的解釋結(jié)果必然會(huì)影響醫(yī)生的診斷過(guò)程,而錯(cuò)誤的診斷可能會(huì)對(duì)患者生命安全產(chǎn)生嚴(yán)重的后果。此外,由于事后解釋的近似性,有時(shí)醫(yī)生甚至可能會(huì)被誤導(dǎo)引發(fā)錯(cuò)誤的診斷,進(jìn)而給患者帶來(lái)致命的威脅。
其三,歧視性問(wèn)題。在醫(yī)療人工智能的研發(fā)設(shè)計(jì)階段,由于訓(xùn)練數(shù)據(jù)偏倚等原因而將種族、性別、階層偏見(jiàn)等倫理問(wèn)題帶入模型中,從而導(dǎo)致人工智能在醫(yī)療應(yīng)用中出現(xiàn)歧視性問(wèn)題。例如,一種用于診斷乳腺癌的人工智能系統(tǒng)認(rèn)為黑人女性患乳腺癌的風(fēng)險(xiǎn)更高[17]??山忉屝酝ㄟ^(guò)提高模型的透明度而被認(rèn)為是防范系統(tǒng)偏見(jiàn)的有效手段,但是研究發(fā)現(xiàn),目前的可解釋性方法并未達(dá)到預(yù)期目標(biāo),并且對(duì)解釋的依賴(lài)甚至?xí)档臀覀儗?duì)這些歧視行為的警惕[18]。醫(yī)療歧視引發(fā)的臨床風(fēng)險(xiǎn)對(duì)患者的生理和心理都造成了嚴(yán)重的傷害,而且這種不平等很可能會(huì)加劇社會(huì)偏見(jiàn),從而引發(fā)重大的道德問(wèn)題。
其四,患者醫(yī)療自主權(quán)問(wèn)題。所謂患者醫(yī)療自主權(quán),是指在醫(yī)患關(guān)系中,以實(shí)現(xiàn)患者自由意志為目的,基于患者的自主能力而對(duì)生命、健康等具體人格利益進(jìn)行選擇與決定的抽象人格權(quán)[19]。也就是說(shuō),以人工智能為輔助診療時(shí),患者有權(quán)知道系統(tǒng)的局限性、決策的合理性等相關(guān)方面的問(wèn)題。對(duì)于可解釋性的定義,學(xué)術(shù)界尚沒(méi)有統(tǒng)一的標(biāo)準(zhǔn),這是由于可解釋性并不是一個(gè)單純的技術(shù)問(wèn)題,它是在人工智能與目標(biāo)用戶交互中才得以實(shí)現(xiàn)的。但是研究[20]卻發(fā)現(xiàn),醫(yī)療領(lǐng)域現(xiàn)有的大多數(shù)可解釋人工智能設(shè)計(jì)要么只關(guān)注算法本身的性能,要么就是側(cè)重于為臨床醫(yī)生提供解釋?zhuān)狈γ嫦蚧颊叩目山忉屓斯ぶ悄茉O(shè)計(jì)實(shí)踐。所以,對(duì)于絕大多數(shù)沒(méi)有專(zhuān)業(yè)知識(shí)背景的患者來(lái)說(shuō),人工智能醫(yī)療決策的根據(jù)依舊無(wú)法理解。患者不知道輸入數(shù)據(jù)的來(lái)源、預(yù)測(cè)模型的局限性、系統(tǒng)什么時(shí)候會(huì)出錯(cuò)等相關(guān)方面的信息,患者無(wú)法在醫(yī)療中得到有效的溝通,只能被動(dòng)地去接受。因此,在這個(gè)過(guò)程中,患者的醫(yī)療自主權(quán)就受到了挑戰(zhàn)。
鑒于以上可解釋人工智能醫(yī)療應(yīng)用倫理問(wèn)題表現(xiàn),尋求問(wèn)題的根源尤其重要。將從技術(shù)性、社會(huì)性、主體性三個(gè)方面探尋問(wèn)題的根源所在。
可解性技術(shù)具有兩面性,它在推動(dòng)醫(yī)學(xué)發(fā)展與進(jìn)步的同時(shí),也難以擺脫其固有缺陷所帶來(lái)的負(fù)面效應(yīng)。其一,醫(yī)療人工智能系統(tǒng)的準(zhǔn)確性與可解釋性之間存在著一種權(quán)衡。即模型的準(zhǔn)確性越高,可解釋性就越高;相反,模型的準(zhǔn)確性越低,可解釋性就越低。因此,對(duì)于事前解釋的醫(yī)學(xué)人工智能系統(tǒng)來(lái)說(shuō),將自己限制在充分可解釋性的算法中,就意味著要以犧牲醫(yī)療準(zhǔn)確性為代價(jià);其二,可解釋技術(shù)給對(duì)抗攻擊帶來(lái)了有利的條件。無(wú)論是事前解釋技術(shù)還是事后解釋技術(shù),都給攻擊者提供了可乘之機(jī)。一些不法分子會(huì)利用可解釋技術(shù)探測(cè)醫(yī)療模型的漏洞,進(jìn)而干擾原始醫(yī)療模型和解釋模型,嚴(yán)重威脅著醫(yī)療人工智能系統(tǒng)自身的安全;其三,由于目前事后解釋技術(shù)都是嘗試采用近似的方法來(lái)模擬模型的決策行為,以從全局的角度解釋模型的整體決策邏輯或者從局部的角度解釋模型的單個(gè)決策結(jié)果。所以,解釋過(guò)程往往不夠精確,解釋方法給出的解釋結(jié)果無(wú)法準(zhǔn)確地反映待解釋模型的實(shí)際運(yùn)行狀態(tài)和真實(shí)決策行為,而且據(jù)最新研究表明[16],攻擊者還可以利用二者之間的不一致性設(shè)計(jì)針對(duì)系統(tǒng)的新型對(duì)抗樣本攻擊,從而嚴(yán)重威脅著可解釋系統(tǒng)在實(shí)際醫(yī)療應(yīng)用中的安全。
有關(guān)可解釋人工智能醫(yī)療應(yīng)用方面的道德原則與立法的缺失是倫理問(wèn)題產(chǎn)生的社會(huì)原因。首先,道德原則的不完善。在可解釋人工智能醫(yī)療應(yīng)用與管理方面還沒(méi)有形成一套統(tǒng)一而又完善的道德規(guī)范體系,因此可解釋人工智能醫(yī)療應(yīng)用處于一種無(wú)規(guī)范可依據(jù)的失范狀態(tài)。各國(guó)對(duì)可解釋人工智能醫(yī)療應(yīng)用的認(rèn)識(shí)不同,從而造成了對(duì)可解釋人工智能醫(yī)療應(yīng)用的道德評(píng)價(jià)標(biāo)準(zhǔn)的多樣性,這些不同的沖突導(dǎo)致了一系列的倫理問(wèn)題;其次,有關(guān)可解釋人工智能醫(yī)療應(yīng)用的立法的滯后同樣造成了一系列的道德倫理問(wèn)題。面對(duì)層出不窮的可解釋人工智能醫(yī)療應(yīng)用倫理問(wèn)題,法律顯現(xiàn)出滯后性。在我國(guó),可解釋人工智能醫(yī)療應(yīng)用并未形成一套完善的法律體系,如果可解釋人工智能在醫(yī)學(xué)診療中發(fā)生醫(yī)療事故,那么誰(shuí)該為此負(fù)責(zé)?如果醫(yī)院收集和存儲(chǔ)的患者信息遭遇泄露,又該由誰(shuí)負(fù)責(zé)?
在復(fù)雜的技術(shù)系統(tǒng)中,可解釋技術(shù)的負(fù)面效應(yīng)是造成可解釋人工智能醫(yī)療應(yīng)用倫理問(wèn)題的直接原因,但是技術(shù)離不開(kāi)社會(huì),可解釋技術(shù)的開(kāi)發(fā)和應(yīng)用是基于社會(huì)中的各個(gè)組織與用戶來(lái)實(shí)現(xiàn)的,在這個(gè)新型系統(tǒng)中的各個(gè)主體才是帶來(lái)醫(yī)療倫理問(wèn)題的內(nèi)在根源所在。首先,一些道德感不強(qiáng)的個(gè)體為了謀取個(gè)人私利,利用可解釋性技術(shù)的缺陷攻擊人工智能醫(yī)療模型,踐踏醫(yī)療倫理道德規(guī)范;其次,可解釋性技術(shù)設(shè)計(jì)主體為了獲得某些利益,或者為了表達(dá)自己的一些主觀觀點(diǎn)而設(shè)計(jì)帶有偏見(jiàn)性的解釋方法。比如,根據(jù)Linardatos等[21]的研究,目前現(xiàn)存的可解釋性方法無(wú)論它們應(yīng)用到醫(yī)療過(guò)程的哪個(gè)步驟,都過(guò)于關(guān)注特定群體層面的公平,而忽視了其他群體;最后,由于可解釋性與人的認(rèn)知密切相關(guān),導(dǎo)致對(duì)于可解釋的評(píng)估還未形成一個(gè)科學(xué)的評(píng)價(jià)標(biāo)準(zhǔn)。開(kāi)發(fā)人員往往是站在開(kāi)發(fā)者的角度創(chuàng)建解釋?zhuān)虼耍瑢?duì)于非專(zhuān)業(yè)用戶來(lái)說(shuō),解釋常常難以被理解。
盡管可解釋人工智能醫(yī)療應(yīng)用的倫理問(wèn)題不可避免,但我們不能止步不前,我們需要探討應(yīng)對(duì)之法。
可解釋性技術(shù)的負(fù)面效應(yīng)是可解釋性AI醫(yī)療應(yīng)用倫理問(wèn)題產(chǎn)生的技術(shù)根源,但其倫理問(wèn)題的解決也需要強(qiáng)化可解釋性技術(shù)的創(chuàng)新發(fā)展,借助技術(shù)手段消解倫理之困。首先,對(duì)于事前解釋來(lái)說(shuō),其面臨的最大挑戰(zhàn)是消除模型可解釋性和準(zhǔn)確性之間的矛盾。因此,未來(lái)在事前解釋方法的設(shè)計(jì)上,應(yīng)該重點(diǎn)平衡二者之間的矛盾。其中,一種直觀的方法是構(gòu)建基于因果結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型,使模型具備發(fā)現(xiàn)數(shù)據(jù)間因果關(guān)系的能力;其次,對(duì)于事后解釋來(lái)說(shuō),其面臨的最大挑戰(zhàn)是近似的解釋往往無(wú)法正確反映待解釋模型的實(shí)際運(yùn)行狀態(tài)和真實(shí)決策行為。未來(lái)一個(gè)有前景的潛在研究方向是設(shè)計(jì)數(shù)學(xué)上與待解釋模型等價(jià)的解釋方法或解釋模型[16];最后,二者同時(shí)面臨的挑戰(zhàn)是來(lái)自外部的對(duì)抗攻擊。對(duì)于研究人員來(lái)說(shuō),未來(lái)同樣可以利用對(duì)抗訓(xùn)練增強(qiáng)模型的魯棒性。
既然可解釋人工智能醫(yī)療應(yīng)用中的相關(guān)主體是導(dǎo)致倫理問(wèn)題的深層根源,那么加強(qiáng)相關(guān)主體的倫理教育是解決問(wèn)題的必由之路。因?yàn)榧夹g(shù)人員參與了人工智能的全程開(kāi)發(fā),數(shù)據(jù)收集、算法設(shè)計(jì)、性能測(cè)試等都是由技術(shù)人員操作,所以技術(shù)人員的道德品質(zhì)將直接影響到目標(biāo)用戶的相關(guān)權(quán)益。因此,在可解釋AI 設(shè)計(jì)的過(guò)程中,加強(qiáng)對(duì)設(shè)計(jì)人員的倫理教育對(duì)減少醫(yī)療倫理失序問(wèn)題尤為重要。第一,鼓勵(lì)技術(shù)人員參加可解釋人工智能相關(guān)的倫理研討會(huì)。在系統(tǒng)開(kāi)發(fā)的過(guò)程中,研究人員往往都是把重點(diǎn)放在算法本身,但是,可解釋人工智能并不是簡(jiǎn)單的技術(shù)問(wèn)題,它還涉及一系列倫理方面的問(wèn)題。參加相關(guān)的倫理研討會(huì)有助于提高設(shè)計(jì)人員在開(kāi)發(fā)過(guò)程中的倫理意識(shí),減少歧視偏見(jiàn)等問(wèn)題的產(chǎn)生。第二,將倫理教育融入開(kāi)發(fā)人員的培養(yǎng)之中。例如,在大學(xué)階段開(kāi)設(shè)可解釋人工智能倫理教育的相關(guān)課程,舉辦多種形式的人工智能倫理專(zhuān)題講座。
加強(qiáng)對(duì)醫(yī)護(hù)人員的培訓(xùn)和跨學(xué)科合作有助于可解釋人工智能醫(yī)療應(yīng)用倫理問(wèn)題的產(chǎn)生。調(diào)查顯示[22],大多數(shù)患者認(rèn)為人工智能輔助診斷是值得信賴(lài)的并且可以提高醫(yī)生的診斷能力,然而所有的調(diào)查者都堅(jiān)持讓醫(yī)生來(lái)解釋人工智能輔助診斷。作為醫(yī)生,不一定需要精通計(jì)算機(jī)科學(xué),但是他們應(yīng)該充分了解與AI醫(yī)療相關(guān)的概念、技術(shù)和倫理挑戰(zhàn),這些知識(shí)能夠使他們?cè)诠ぷ鲌?chǎng)所批判地檢視人工智能,可以向患者清楚地傳達(dá)人工智能的局限性,明確需要注意的風(fēng)險(xiǎn)和危害,從而賦予患者更多的自主權(quán)和決策權(quán)。從長(zhǎng)遠(yuǎn)來(lái)看,我們還應(yīng)該將人工智能知識(shí)作為專(zhuān)業(yè)醫(yī)療課程的一部分,作為住院醫(yī)師培訓(xùn)計(jì)劃的一部分,教授醫(yī)生醫(yī)療人工智能相關(guān)的知識(shí),鼓勵(lì)他們參加關(guān)于人工智能倫理的研討會(huì)。此外,還需加強(qiáng)跨學(xué)科合作,因?yàn)槿斯ぶ悄茏罱K面對(duì)的用戶是人類(lèi),基于此,人工智能不是一個(gè)單純的技術(shù)問(wèn)題,它涉及心理等社會(huì)學(xué)科,因此我們需要優(yōu)先考慮跨學(xué)科合作。例如,人工智能科學(xué)家需要醫(yī)療專(zhuān)家的指導(dǎo)來(lái)選擇醫(yī)療上重要并且生物學(xué)上可信的保健應(yīng)用,而醫(yī)療專(zhuān)家則需要人工智能科學(xué)家的指導(dǎo)來(lái)選擇概念上精心設(shè)計(jì)和技術(shù)上可解決的預(yù)測(cè)問(wèn)題。
相關(guān)道德原則和立法的缺失是可解釋人工智能醫(yī)療應(yīng)用倫理問(wèn)題產(chǎn)生的重要原因之一,而創(chuàng)建完善相關(guān)道德原則和法律法規(guī)是解決問(wèn)題的必由之路。這就需要?jiǎng)?chuàng)建一個(gè)通用的可解釋人工智能醫(yī)療應(yīng)用的道德標(biāo)準(zhǔn),確保應(yīng)用主體中的組織與個(gè)人對(duì)可解釋人工智能醫(yī)療應(yīng)用原則有著共同的認(rèn)識(shí),有助于減少在數(shù)據(jù)采集和算法設(shè)計(jì)過(guò)程中因利益多樣性而產(chǎn)生的歧視與偏見(jiàn)。另外在相關(guān)法律法規(guī)中,一方面,要明確醫(yī)療責(zé)任主體具體應(yīng)該如何認(rèn)定,防止相關(guān)人員躲避醫(yī)療責(zé)任;另一方面,要制定針對(duì)患者隱私保護(hù)方面的法律法規(guī),避免泄露患者個(gè)人隱私,進(jìn)一步增強(qiáng)人們對(duì)人工智能的信任。此外,對(duì)于為了謀取私利,利用可解釋技術(shù)攻擊預(yù)測(cè)模型,肆意踐踏醫(yī)療倫理道德規(guī)范的不法分子,法律要進(jìn)行嚴(yán)厲的打擊。國(guó)家以及政府部門(mén)應(yīng)該盡快制定出有關(guān)可解釋人工智能醫(yī)療應(yīng)用的發(fā)展政策,只有由政府及其相關(guān)部門(mén)為可解釋人工智能醫(yī)療應(yīng)用的發(fā)展提供政策保證和法律監(jiān)督,才能夠保證我國(guó)在可解釋人工智能醫(yī)療應(yīng)用倫理監(jiān)管方面處于領(lǐng)先位置。隨著可解釋人工智能醫(yī)療應(yīng)用方面有關(guān)道德原則和法律法規(guī)的不斷健全,可解釋人工智能將會(huì)迎來(lái)更好的生存與發(fā)展契機(jī)。
實(shí)現(xiàn)個(gè)性化的交互式解釋有助于提升用戶對(duì)人工智能系統(tǒng)的信任。隨著社會(huì)發(fā)展與技術(shù)的進(jìn)步,未來(lái)可解釋人工智能將在更加豐富的醫(yī)療情境下被更為廣泛的人群所使用。不同的人群、不同的醫(yī)療情境對(duì)人工智能解釋形式與內(nèi)容的期望都是不同的[23],因此個(gè)性化的交互式解釋是非常有必要的。這就要求在開(kāi)發(fā)可解釋人工智能時(shí),應(yīng)當(dāng)充分考慮人這一主體,充分調(diào)研目標(biāo)用戶的背景與需求,當(dāng)解釋系統(tǒng)的交互性得以提升時(shí),用戶能夠獲取更加持續(xù)的解釋?zhuān)钊肓私庀到y(tǒng)背后的運(yùn)行邏輯,用戶才能被賦予更多的自主權(quán)和決策權(quán),進(jìn)而增強(qiáng)對(duì)可解釋人工智能的信任。
可解釋人工智能在推動(dòng)醫(yī)學(xué)向前發(fā)展的同時(shí)也引發(fā)了不同以往的倫理挑戰(zhàn)。審視未來(lái)的可解釋人工智能醫(yī)療應(yīng)用,既要關(guān)注可解釋性技術(shù)發(fā)展為人工智能醫(yī)療應(yīng)用帶來(lái)的有利條件,更需要研究者、管理者等認(rèn)識(shí)到可解釋人工智能醫(yī)療應(yīng)用所處的現(xiàn)實(shí)困境,為可解釋人工智能醫(yī)療應(yīng)用倫理問(wèn)題的解決提供可行路徑,共同推動(dòng)安全可靠的可解釋人工智能在醫(yī)療領(lǐng)域的發(fā)展。