谷碩
摘 要:醫(yī)療人工智能作為醫(yī)療健康領(lǐng)域一種新應(yīng)用與研究類型,缺少必要的法律與倫理的監(jiān)控,所帶來的隱患與風(fēng)險日益凸顯。因此,本文從醫(yī)療大數(shù)據(jù)、深度學(xué)習(xí)算法、知情同意、監(jiān)管體系、責(zé)任主體方面探討醫(yī)療人工智能所帶來的倫理問題,并從“生命文化”的角度思考我國醫(yī)療人工智能倫理建設(shè)的啟示,為今后處理相關(guān)的倫理問題提供參考,使醫(yī)療人工智能更好地服務(wù)于民生與社會經(jīng)濟(jì)。
關(guān)鍵詞:醫(yī)療人工智能;生命文化;倫理
隨著“健康中國2030”戰(zhàn)略計劃的實施,我國醫(yī)療衛(wèi)生事業(yè)迅猛發(fā)展,科學(xué)研究快速進(jìn)步,醫(yī)學(xué)新技術(shù)和新領(lǐng)域?qū)映霾桓F。2011年IBM的watson開啟人工智能醫(yī)療的商業(yè)發(fā)展[1],醫(yī)療人工智能進(jìn)入了大眾的視野,也開始影響了醫(yī)療健康領(lǐng)域的發(fā)展模式。我國已經(jīng)意識到人工智能產(chǎn)業(yè)將是促進(jìn)產(chǎn)業(yè)變革和經(jīng)濟(jì)發(fā)展的關(guān)鍵。2017年國務(wù)院頒布的《新一代人工智能發(fā)展規(guī)劃》指出要“圍繞教育、醫(yī)療、養(yǎng)老等迫切民生需求,加快人工智能創(chuàng)新應(yīng)用”[2],這表明人工智能已經(jīng)開始進(jìn)入各行各業(yè),推動著生產(chǎn)生活方式和產(chǎn)業(yè)結(jié)構(gòu)的變革。
醫(yī)療人工智能逐漸成為醫(yī)療健康領(lǐng)域所關(guān)注的核心問題,但對它缺少必要的法律與倫理的監(jiān)控,所帶來的風(fēng)險與問題也日益凸顯。因此,本文旨在探討醫(yī)療人工智能所帶來的倫理問題,并從“生命文化”的角度思考我國醫(yī)療人工智能倫理建設(shè)的啟示,為今后處理相關(guān)的倫理問題提供參考與借鑒。
一、醫(yī)療人工智能及其所帶來的倫理問題
醫(yī)療人工智能是指人工智能(Artificial Intelligence,AI)通過機(jī)器學(xué)習(xí)、表征學(xué)習(xí)、深度學(xué)習(xí)和自然語言處理等各種技術(shù),利用計算機(jī)算法從數(shù)據(jù)中獲取信息,以協(xié)助制定臨床決策為目的,實現(xiàn)輔助診斷、療法選擇、風(fēng)險預(yù)測、疾病分診、減少醫(yī)療事故和提高效率等一系列功能[3]。根據(jù)人工智能與人類智能的比擬程度,分為“強(qiáng)人工智能”與“弱人工智能”[4]。目前我國醫(yī)療人工智能處在“弱人工智能”階段,主要是輔助診療或是臨床醫(yī)學(xué)影像識別,不可直接服務(wù)于病人。對于醫(yī)療人工智能的發(fā)展主要涉及以下幾個倫理問題:
(一)醫(yī)療大數(shù)據(jù)背后的隱患
對于人工智能來說,靈魂是程序,基礎(chǔ)是大數(shù)據(jù),加速器是算法的不斷改進(jìn)[5]。目前,多數(shù)醫(yī)療人工智能產(chǎn)品的樣本資源都是來自醫(yī)院的臨床數(shù)據(jù),缺乏統(tǒng)一、標(biāo)準(zhǔn)化的處理,因此病人醫(yī)療信息的敏感性和隱秘性得不到保障。同時,醫(yī)療人工智能的發(fā)展需要數(shù)據(jù)的共享,所追求的是公共利益[6],這就使得數(shù)據(jù)的安全性存在著更大隱患,在利益的驅(qū)逐下可能發(fā)生數(shù)據(jù)泄露或非法提供、出售等違規(guī)情況。
(二)深度學(xué)習(xí)算法攜帶的偏見
醫(yī)療人工智能主要依靠深度學(xué)習(xí)算法,快速處理海量醫(yī)療數(shù)據(jù)與信息,為醫(yī)生提供最優(yōu)的診斷建議和個性化治療方案[7]。深度學(xué)習(xí)的算法是由人類設(shè)計與開發(fā),當(dāng)算法設(shè)計者存對某種疾病、性別、種族存在偏見和歧視時,這將會導(dǎo)致人工智能在開發(fā)時的訓(xùn)練數(shù)據(jù)沒有真實的反映客觀實際,這種差異與偏見也被AI所攜帶。
(三)知情同意潛在的風(fēng)險
知情同意是臨床研究受試者保護(hù)的重要措施之一。醫(yī)療人工智能的研發(fā)與應(yīng)用需要海量的臨床醫(yī)療數(shù)據(jù),并且一些信息是需要去標(biāo)識化的。海量數(shù)據(jù)的處理帶來了龐大的工作量,就會導(dǎo)致一些研發(fā)公司或者提供數(shù)據(jù)的醫(yī)院進(jìn)行了不恰當(dāng)?shù)闹橥膺^程,沒有真正的起到保護(hù)受試者權(quán)益的作用。此外,由于臨床數(shù)據(jù)應(yīng)用風(fēng)險的不同,知情同意過程也應(yīng)該選擇不同方式。例如,知情同意的豁免、泛知情同意、知情選擇退出等。非臨床科研人員在對數(shù)據(jù)處理時忽視了不同方式的選擇,從而沒有進(jìn)行正確知情同意。
(四)監(jiān)管體系的不健全
我國的人工智能尚處于建設(shè)初期,但面對飛速發(fā)展的智能科技,現(xiàn)有的法律法規(guī)和政策體系已無法滿足對AI的監(jiān)管和約束。與發(fā)達(dá)國家相比,我國的人工智能技術(shù)與之同步,但法律與倫理研究相對滯后[7],這給醫(yī)療人工智能的研發(fā)與應(yīng)用帶來很大的風(fēng)險,也會制約AI產(chǎn)業(yè)的健康發(fā)展。
(五)責(zé)任主體角色混亂
AI的責(zé)任劃分是當(dāng)前我國甚至全球不可回避的倫理和法律問題,開發(fā)者、生產(chǎn)者、使用者對于責(zé)任的承擔(dān)還未達(dá)成共識。由于不具備產(chǎn)生民事法律關(guān)系的主體資格,醫(yī)療人工智能僅被認(rèn)定為輔助醫(yī)生診斷的醫(yī)療器械[7]。在使用AI時,一旦發(fā)生了醫(yī)療事故侵權(quán)責(zé)任難以界定和劃分,這不僅危及患者生命安全和公共利益,同時使得醫(yī)療行業(yè)人工智能發(fā)展舉步維艱[3]。
二、“生命文化”及傳統(tǒng)倫理思想對于醫(yī)療人工智能的態(tài)度
由于醫(yī)療衛(wèi)生事業(yè)與人們生產(chǎn)生活息息相關(guān),其特殊性要求我們要超越技術(shù)和經(jīng)濟(jì)視角,從社會和人文角度去思考醫(yī)療人工智能所帶來的影響[3]。“生命文化”是我國傳統(tǒng)“儒釋道”文化的發(fā)展,是以現(xiàn)實個人的生命價值和生活意義為研究對象[8],將生命或人的健康至于核心地位,堅持人本立場。對于維護(hù)人類生命安全與尊嚴(yán),促進(jìn)人類生命健康發(fā)展的醫(yī)療人工智能,“生命文化”及傳統(tǒng)倫理思想是支持其發(fā)展的。
我國傳統(tǒng)技術(shù)倫理文化強(qiáng)調(diào)的“器物利民”“道技合一”思想也體現(xiàn)了“生命文化”的內(nèi)涵?!暗兰己弦弧辈粌H要求技術(shù)本身是“善良的技術(shù)”,也要求研發(fā)者與使用者都應(yīng)以“善良”為出發(fā)點,反對技術(shù)濫用[5]。醫(yī)療人工智能應(yīng)用與研發(fā)一定要符合“生命文化”和傳統(tǒng)思想所倡導(dǎo)的科技倫理內(nèi)涵,才能推動醫(yī)療健康領(lǐng)域科技的進(jìn)步。
解決當(dāng)前醫(yī)療人工智能倫理問題,關(guān)鍵還是在于規(guī)范人的行為、明確人的責(zé)任問題。道德及責(zé)任的主體只能歸于人,而非機(jī)器[4]。因此,醫(yī)療人工智能的倫理問題探討一定要將生命和人的健康至于核心位置,才能最大化的維護(hù)各方權(quán)益,降低現(xiàn)代科技帶來的風(fēng)險。
三、“生命文化”對于我國醫(yī)療人工智能倫理問題的啟示
(一)堅持“器物利民”,科技發(fā)展要以“尊重生命”為前提
人的問題是倫理問題的根源和中心,責(zé)任因人而生,價值依人而立[4]。現(xiàn)階段尚處于弱人工智能發(fā)展程度,但當(dāng)AI擁有更多類人化的思考模式與行為,此時我們該怎么去定義“人”,怎么去看待AI?;凇吧幕钡膬?nèi)涵,人們不能單獨對人工智能技術(shù)研發(fā)與應(yīng)用進(jìn)行倫理審查,而是應(yīng)該將這種行為與核心價值“生命”聯(lián)系在一起,堅持“器物利民”,一切科學(xué)活動都應(yīng)以維護(hù)生命健康為出發(fā)點,背離這一基本倫理準(zhǔn)則的活動,無論是否是創(chuàng)新、先進(jìn),都應(yīng)該堅決反對并制止[5]。對于醫(yī)療人工智能而言,其產(chǎn)生的本質(zhì)和目的在于恢復(fù)人類應(yīng)有的生命尊嚴(yán),促進(jìn)人的生命意義的生成和完善[4]。
(二)完善法律法規(guī)與倫理建設(shè),維護(hù)人民利益與權(quán)益
科技創(chuàng)新與發(fā)展是一個漫長的過程,需要人們積極主動的引導(dǎo)其健康發(fā)展。醫(yī)療人工智能的研發(fā)與應(yīng)用極大的沖擊了現(xiàn)有的法律法規(guī)與倫理道德理論[4]。對于生命而言,以大數(shù)據(jù)為基礎(chǔ)、深度學(xué)習(xí)算法為靈魂的人工智能很可能在不加以約束的情況下形成壟斷或者歧視,這對于生命的公平與尊嚴(yán)是一種不良的沖擊。因此,要保證科技向善,就需要國家和社會對AI的研發(fā)與應(yīng)用能進(jìn)行必要的監(jiān)督與約束。國家應(yīng)出臺相應(yīng)的法律法規(guī)、指導(dǎo)原則,并對倫理審查、監(jiān)督提出更高的要求,利用外在約束條件嚴(yán)格要求人們的行為活動,從而引導(dǎo)醫(yī)療人工智能安全、規(guī)范的向前發(fā)展。同時,秉持對生命負(fù)責(zé)的中心原則建設(shè)倫理審查體系,從審查、監(jiān)督、問責(zé)等方面,更加嚴(yán)格要求從業(yè)人員,確保受試者的信息財產(chǎn)安全與生命健康。
(三)加強(qiáng)“修身成人”,提高醫(yī)療人工智能各方人員的人文倫理素養(yǎng)
高尚的道德修養(yǎng)是做人的根本,高超的技藝是做事的要求,不管從事任何職業(yè),成為一個有道德修養(yǎng)的人最重要[5]。人工智能開發(fā)與應(yīng)用屬于高級科技活動[5],也是比較復(fù)雜的技術(shù)性活動,包含了研究者、生產(chǎn)者以及使用者等諸多角色。無論是研究者還是使用者,整個行為過程必然要符合“生命文化”核心內(nèi)涵,保持正確的道德修養(yǎng)與“道技合一”技術(shù)倫理要求。對于AI產(chǎn)業(yè)發(fā)展認(rèn)識不足容易導(dǎo)致責(zé)任主體角色混亂,因此,應(yīng)加強(qiáng)從業(yè)者的自身的人文素養(yǎng)與道德修養(yǎng),使其充分理解“生命文化”的內(nèi)涵,做到德才兼?zhèn)洳拍芴幚砗门cAI的關(guān)系?!白鹬厣薄靶奚沓扇恕薄暗兰己弦弧辈粌H僅是對科技工作者的倫理要求,更是我國醫(yī)療人工智能發(fā)展的“護(hù)身符”。
總之,我國醫(yī)療人工智能的發(fā)展需要“生命文化”保駕護(hù)航。作為引領(lǐng)未來醫(yī)療的顛覆性、戰(zhàn)略性技術(shù),醫(yī)療人工智能已成為國際醫(yī)學(xué)競爭的新焦點和現(xiàn)代化醫(yī)院發(fā)展的新引擎[3]。面對人工智能所帶來的諸多倫理風(fēng)險與挑戰(zhàn),我們應(yīng)該探索性的去解決,在倫理審查中多角度看問題,保持醫(yī)學(xué)與人文的有效溝通,為決策者提供更好的依據(jù),促進(jìn)醫(yī)療人工智能健康的發(fā)展,造福我國人民。
參考文獻(xiàn):
[1]周吉銀,李紅英,楊陽.人工智能醫(yī)療器械的倫理審查要點[J].醫(yī)學(xué)與哲學(xué),2020,41(6):35-39.
[2]潘若琳,鄭秋瑩.人工智能在健康產(chǎn)業(yè)應(yīng)用中的倫理問題分析[J].中國醫(yī)學(xué)倫理學(xué),2019,32(12):1541-1546.
[3]李鴻浩,段偉文,陳蕾,等.醫(yī)療人工智能技術(shù)研發(fā)與應(yīng)用的倫理挑戰(zhàn)和對策——以我國大型公立醫(yī)院為例的思考.人工智能,2019,(04):70-78.
[4]張舜清.醫(yī)療人工智能倫理的儒家的觀點和立場[J].醫(yī)學(xué)倫理學(xué),2020,33(7):789-795.
[5]吳杰之,黃木.論墨子技術(shù)倫理思想對人工智能發(fā)展的啟示[J].中國經(jīng)貿(mào)導(dǎo)刊,2020,(23):157-158.
[6]劉瑞爽,馮瑤,李曉潔,等.關(guān)于健康醫(yī)療大數(shù)據(jù)優(yōu)良實踐的倫理共識:第一版[J].中國醫(yī)學(xué)倫理學(xué),2020,33(1):8-11.
[7]劉丹,周吉銀.人工智能醫(yī)療器械倫理挑戰(zhàn)的對策[J].中國醫(yī)學(xué)倫理學(xué),2020,33(07):157-158.
[8]李明喆,袁和靜,劉金玲.生命文化融入醫(yī)學(xué)倫理建設(shè)的機(jī)制研究.中國醫(yī)學(xué)倫理學(xué),2018,(04):514-518.