〔摘要〕隨著人工智能技術(shù)的迅速發(fā)展和廣泛應(yīng)用,給人們生活和工作帶來便利的同時,也帶來了透明度缺失、隱私泄露、自主決策權(quán)受限、責(zé)任歸屬模糊等一系列倫理挑戰(zhàn)。通過比較人工智能在醫(yī)療領(lǐng)域應(yīng)用的倫理風(fēng)險治理情況,系統(tǒng)分析了來自10個國家和國際組織發(fā)布的30個政策法規(guī),揭示了國際對于醫(yī)療人工智能倫理治理的共識與差異。結(jié)果發(fā)現(xiàn):透明度、公平公正、不傷害、隱私保護、自由自主、負責(zé)任、以人為本是國際公認的7種倫理原則,為構(gòu)建安全、可信、尊重人性的醫(yī)療人工智能生態(tài)系統(tǒng)提供了重要指導(dǎo);此外,深入比較了中國、美國、歐盟的指南中的風(fēng)險評估方法,發(fā)現(xiàn)關(guān)于風(fēng)險類型、風(fēng)險分級、風(fēng)險評估流程標準均有不同,這種差異既反映了不同文化、法律背景及監(jiān)管理念的差異,也提示了在全球化背景下加強國際合作的必要性。因此,建議制定適用于中國國情醫(yī)療人工智能倫理風(fēng)險治理標準和規(guī)范,在借鑒國際經(jīng)驗的基礎(chǔ)上,積極主動開展風(fēng)險評估,減少倫理挑戰(zhàn),推動醫(yī)療人工智能技術(shù)的健康合理應(yīng)用。
〔關(guān)鍵詞〕醫(yī)療人工智能;倫理風(fēng)險治理;風(fēng)險評估
〔中圖分類號〕R-052 〔文獻標志碼〕A 〔文章編號〕1001-8565(2024)09-1061-07
DOI: 10. 12026/j. issn. 1001-8565. 2024. 09. 07
*基金項目:國家自然科學(xué)基金青年基金項目“臨床研究倫理審查風(fēng)險與受益評估指標體系研究”(72104255);中國醫(yī)學(xué)科學(xué)院醫(yī)學(xué)與健康科技創(chuàng)新工程項目“基于衛(wèi)生健康體系學(xué)的健康中國建設(shè)戰(zhàn)略研究”(2021-I2M-1-046);中日友好醫(yī)院高水平項目“臨床研究風(fēng)險評估量表開發(fā)與應(yīng)用研究——以呼吸領(lǐng)域項目為例”(2023-NHLHCRF-GLMS-14)
Research on ethical risk governance of medical artificial intelligence based on domestic and foreign policy analysis
ZHANG Aiyi1, YU Zhongguang2,3
(1. Clinical Pharmacology Research Center, Peking Union Medical College Hospital, Beijing 100005,China;2. Respiratory center, China-Japan Friendship Hospital, Beijing 100029, China;3. School of Economics and Management, Wuhan University, Wuhan 430072, China)
Abstract: With the rapid development and widespread application of artificial intelligence (AI) technology,it has brought convenience to people’s lives and work, while bringing a series of ethical challenges such as lack of transparency, privacy leakage, limited autonomy in decision-making, and blurred responsibility attribution. By comparing the ethical risk governance of the application of AI in the medical field, this paper systematically analyzed 30 policy regulations issued by 10 countries and international organizations, revealing the consensus and differences in ethical governance of medical AI internationally. The results showed that transparency,fairness and justice, non-harm, privacy protection, freedom and autonomy, responsibility, and people-oriented principles were seven internationally recognized ethical principles, providing important guidance for building a safe, trustworthy, and humane-respecting medical AI ecosystem. In addition, this paper deeply compared the risk assessment methods in the guidelines of China, the United States, and the European Union, as well as found differences in risk types, risk grading, and risk assessment process standards. These differences not only reflect diversities in different cultural, legal backgrounds, and regulatory concepts, but also highlight the necessity of strengthening international cooperation in the context of globalization. Therefore, it is recommended to develop ethical risk governance standards and norms for medical AI that applicable to China’s national conditions. Based on drawing on international experience, proactively carry out risk assessments,reduce ethical challenges, and promote the healthy and rational application of medical AI technology.
Keywords: medical artificial intelligence; ethical risk governance; risk assessment
隨著人工智能技術(shù)(artificial intelligence,AI)的迅速發(fā)展和廣泛應(yīng)用,人類正在進入 “AI時代”,在給人們帶來生活和工作便利的同時,也帶來了一系列倫理挑戰(zhàn)[1]。2022年3月,中共中央辦公廳、國務(wù)院辦公廳印發(fā)了《關(guān)于加強科技倫理治理的意見》,將人工智能列入科技倫理治理的重點領(lǐng)域[2]。為應(yīng)對人工智能技術(shù)應(yīng)用帶來的風(fēng)險,世界各國相繼出臺人工智能倫理原則和倫理治理指南,以確保人工智能的發(fā)展與社會價值相一致。當前人工智能在醫(yī)療健康領(lǐng)域進行了廣泛的探索性應(yīng)用,出現(xiàn)了偏見歧視、隱私、透明性、安全性、責(zé)任歸屬等倫理挑戰(zhàn)[3]。為避免濫用人工智能產(chǎn)生的倫理風(fēng)險,世界衛(wèi)生組織(WHO)于2021年6月28日發(fā)布了《醫(yī)療衛(wèi)生中人工智能的倫理治理》指南,提出人工智能用于醫(yī)療健康的倫理政策和原則。然而,針對醫(yī)療人工智能倫理治理問題,中國迄今尚未形成統(tǒng)一的倫理風(fēng)險治理標準和規(guī)范。因此,為進一步完善中國醫(yī)療人工智能風(fēng)險治理體系,本文將對國內(nèi)外現(xiàn)有人工智能風(fēng)險治理政策和指南進行系統(tǒng)梳理、比較和分析,總結(jié)人工智能倫理原則和風(fēng)險評估經(jīng)驗,為及時識別醫(yī)療人工智能倫理風(fēng)險、做好風(fēng)險防范提供參考。
1 資料來源與方法
1. 1 檢索方法
為了解全球醫(yī)療相關(guān)人工智能政策和指南,本研究以“人工智能”“醫(yī)療人工智能”“倫理政策”“Artificial intelligence”“Artificial Intelligence Ethics”“Medical artificial intelligence”等為檢索關(guān)鍵詞,檢索世界衛(wèi)生組織、歐盟委員會、中國、美國、英國、加拿大、日本、韓國、澳大利亞、新西蘭等國際組織官網(wǎng)和國家政府網(wǎng)站,檢索時間為2024年1月9日。
1. 2 檢索結(jié)果
本次共檢索出89個AI倫理文件,對檢索到的政策文件進行篩選和分類,剔除無效信息,共收集了來自10個國家和國際組織發(fā)布的30個醫(yī)療相關(guān)的人工智能倫理指南文件(見表1)。其中,世界衛(wèi)生組織1個、歐盟委員會6個、中國7個、英國6個、美國5個、加拿大1個、日本1個、韓國1個、澳大利亞1個、新西蘭1個。大多數(shù)文件由政府機構(gòu)(50.00%)發(fā)布,其次是由專業(yè)協(xié)會/科學(xué)協(xié)會(30.00%)發(fā)布和學(xué)術(shù)研究機構(gòu)(13.33%)發(fā)布。
2 研究結(jié)果
2. 1 倫理準則
本研究從30篇醫(yī)療AI倫理指南中凝練出7個首要倫理準則,并給出了基本解釋及其在30個指南中提及的文件數(shù)量。準則分別是:透明性原則、公平公正原則、安全性原則、隱私保護原則、負責(zé)任原則、自由自主原則、以人為本原則,詳見表2。
2. 1. 1 公平公正原則
英國衛(wèi)生和社會保健部發(fā)布的《數(shù)據(jù)驅(qū)動醫(yī)療保健技術(shù)的初步行為準則》提出公平公正原則[4]是指AI系統(tǒng)的設(shè)計和使用不偏袒任何特定群體,歐盟的《可信賴人工智能的倫理指南》和《醫(yī)療人工智能:應(yīng)用、風(fēng)險以及倫理與社會影響》[5]認為AI技術(shù)的應(yīng)用不應(yīng)存在偏見和歧視。WHO、中國、美國、韓國發(fā)布的一些指南將公平公正定義為尊重多樣性、包容性、一致性和平等原則,提出不應(yīng)區(qū)分年齡、性別、收入、種族、傳統(tǒng)文化、宗教信仰、性取向、能力或受人權(quán)法保護的其他特征,公平公正地對待不同社會群體[6]。澳大利亞的《人工智能倫理框架》和加拿大的《放射學(xué)中與人工智能相關(guān)的倫理和法律問題白皮書》指出AI可能對可識別群體的包容性和公平構(gòu)成威脅,特別是已經(jīng)被邊緣化的群體,醫(yī)療AI的設(shè)計和實施應(yīng)最大限度地提高可及性,并采取措施改善不平等,確保所有人都能平等地獲得合理分配的服務(wù)。
2. 1. 2 透明性原則
《人工智能倫理治理標準化指南》提出透明度指AI的可解釋性、可預(yù)測性、可追溯性、可理解性或其他披露行為。提高AI的透明度可以避免“技術(shù)黑箱”,英國《人工智能在健康領(lǐng)域的應(yīng)用》[7]建議應(yīng)提升AI的可預(yù)測性,確保AI是準確可靠且可被重復(fù)試驗的,最大限度地減少不可預(yù)測的錯誤。中國《人工智能醫(yī)療器械注冊審查指導(dǎo)原則》等指南建議定期披露和開源,公開數(shù)據(jù)處理等相關(guān)信息,強制披露風(fēng)險活動。WHO、歐盟、英國、韓國、新西蘭一些指南認為AI系統(tǒng)及其決策應(yīng)以適合利益相關(guān)方的方式進行解釋,提出規(guī)范數(shù)據(jù)集、算法、源代碼、風(fēng)險管理等要素,記錄操作數(shù)據(jù)、算法參數(shù)、決策邏輯,以方便進行審計和追溯,支撐AI的自身透明度[8]。
2. 1. 3 不傷害原則
不傷害原則指應(yīng)預(yù)防和消除非惡意的意外傷害,確保人類、環(huán)境和生態(tài)系統(tǒng)的安全[9]。英國、日本、歐盟在不傷害原則的解釋上達成共識,將傷害解釋為偏見和歧視、隱私泄露或身體傷害[10]。中國、美國、日本、新西蘭、澳大利亞針對不同應(yīng)用場景提出需要避免特定的風(fēng)險或潛在危害,《新一代人工智能治理原則——發(fā)展負責(zé)任的人工智能》提出在設(shè)計階段從隱私性、穩(wěn)定性、可控性、完整性、非顛覆性等原則出發(fā)預(yù)防傷害,完成風(fēng)險識別到風(fēng)險評估進行全流程管理,進行算法安全評估、個人信息隱私評估、風(fēng)險評估,最后給出風(fēng)險控制措施。
2. 1. 4 隱私保護原則
隱私保護原則是指保護個人隱私數(shù)據(jù),確保AI系統(tǒng)在處理和使用個人數(shù)據(jù)時遵守隱私法規(guī)并采取適當?shù)陌踩胧?。保護隱私具有維護人格尊嚴、提高個人安全感和保護個人權(quán)利等作用[11]。中國、英國、美國、日本和歐盟的法規(guī)中特別提到隱私通常與數(shù)據(jù)保護和數(shù)據(jù)安全有關(guān)。歐盟在《人工智能法案》倫理指南中,提出隱私保護設(shè)計,將隱私嵌入設(shè)計中默認保護原則,避免AI對數(shù)據(jù)做出不合法的處理,規(guī)范化收集和處理隱私數(shù)據(jù),為用戶隱私提供全過程保護。
2. 1. 5 負責(zé)任原則
負責(zé)任原則指要明確AI系統(tǒng)設(shè)計和使用者的責(zé)任,確保他們對AI系統(tǒng)的行為負責(zé),并承擔(dān)可能帶來的不良后果[12]。中、英、美三國建議在AI應(yīng)用中,厘清對利益相關(guān)者的責(zé)任和法律責(zé)任歸屬,并且可追責(zé)。各指南對可問責(zé)性的具體涵義有所側(cè)重,英國、韓國、加拿大、歐盟極為重視建立審查與監(jiān)管機構(gòu),建議明確AI相關(guān)方的義務(wù)和職責(zé),并評估AI對人類權(quán)利的影響[13],另外有人集中關(guān)注可能導(dǎo)致潛在傷害的潛在原因和過程,新西蘭皇家學(xué)會發(fā)布的倫理指南還強調(diào)了對AI自動決策進行糾正和補救措施[14]。
2. 1. 6 自由自主原則
阿西洛馬人工智能原則的自由自主原則要求使用AI不應(yīng)破壞人類的自主性[15]。中國、美國、英國、歐盟及世界衛(wèi)生組織指南中提到自由自主原則包含:個人隱私保護、自主選擇權(quán)、知情同意權(quán)、自治[16]。歐盟發(fā)布的《機器人研究倫理指南》[17]指出個體有權(quán)自主掌控醫(yī)療決策過程,自主選擇AI介入的程度,不得限制人類自由?;颊哂袡?quán)自主選擇遠離技術(shù)實驗、操縱或監(jiān)視等限制自由的操作。在使用AI技術(shù)時,有權(quán)知曉自己的醫(yī)療數(shù)據(jù)被用于何種目的,通過數(shù)據(jù)保護法律框架獲得有效的知情同意,確保個人隱私得到保護。
2. 1. 7 以人為本原則
中國、英國、美國和歐盟將以人為本的原則闡述為包括保護人類尊嚴、遵循人類共同價值觀、促進人類福祉[18]。尊嚴以社會關(guān)系為特征,保留人類的選擇權(quán)利以避免造成人機交互、濫用誤用、喪失決策權(quán)等傷害。美國《人工智能未來法案》等指南認為醫(yī)療AI開發(fā)者應(yīng)確保其滿足對安全性、準確性和有效性的監(jiān)管要求,以健康需求為核心,結(jié)合醫(yī)療AI倫理立法和治理指導(dǎo)原則,持續(xù)進行實踐過程中的質(zhì)控和改進策略,以保護人類福祉,尊重人類共同價值觀。
2. 2 風(fēng)險評估
本研究從30篇醫(yī)療AI倫理指南中找出3個具有代表性的風(fēng)險評估方法,并從風(fēng)險分類、風(fēng)險分級標準、風(fēng)險評估流程3個層面進行梳理分析,詳見表3。3個風(fēng)險評估分別是:2018年歐盟發(fā)布《人工智能法案》提出“基于風(fēng)險的人工智能治理框架”、2023年中國發(fā)布《人工智能倫理治理標準化指南》提出“倫理風(fēng)險分級表”、2023年美國發(fā)布《人工智能風(fēng)險管理框架》提出“AI風(fēng)險框架”。
2. 2. 1 風(fēng)險分類
近年來,中國經(jīng)濟發(fā)展迅速,對醫(yī)療AI的投入和需求也在不斷增加,在風(fēng)險治理上更加注重技術(shù)應(yīng)用風(fēng)險。中國從AI算法、數(shù)據(jù)、系統(tǒng)等層面將風(fēng)險分為三類:原生型(技術(shù)型)、衍生型(應(yīng)用型)、共生型(技術(shù)應(yīng)用混合型)。美國的法律體系更加靈活,其更多地鼓勵企業(yè)自行制定風(fēng)險管理策略,強調(diào)AI倫理對國家競爭力的作用。美國將潛在風(fēng)險分為三類:對人類的危害,如對社群的歧視危害;對組織的危害,如對組織聲譽的損害;對生態(tài)系統(tǒng)的危害,如對相關(guān)聯(lián)的個體和資源的危害。歐盟將風(fēng)險分為四類:與價值觀相矛盾的AI工具,如潛意識操縱造成身體或心理傷害;高風(fēng)險的AI工具,如危害健康和安全風(fēng)險或?qū)緳?quán)利有不利影響AI;存在透明度風(fēng)險的人工智能工具,如與個人互動、暴露情感或生物識別的系統(tǒng);最小風(fēng)險的AI工具,其沒有強制性義務(wù),并建立了風(fēng)險管理流程,該流程采取立法形式,具有強制執(zhí)行力。
2. 2. 2 風(fēng)險分級標準
中國將風(fēng)險分為5級:E4-禁止類系統(tǒng),指背離倫理原則、違反法律要求的AI;E3-倫理高風(fēng)險系統(tǒng),指直接關(guān)系最終產(chǎn)品安全、個人權(quán)益、市場公平、公共安全和生態(tài)安全的AI;E2-倫理中風(fēng)險系統(tǒng),指對上述描述具有間接或潛在重要影響的AI;E1-倫理低風(fēng)險系統(tǒng),指對上述描述不具備明顯影響的AI;E0-倫理無風(fēng)險系統(tǒng),不包含機器學(xué)習(xí)算法、不具備AI功能的AI系統(tǒng)。美國更加側(cè)重數(shù)據(jù)安全的規(guī)范和使用,將醫(yī)療AI倫理風(fēng)險分為3級:低風(fēng)險,需要采取一定的風(fēng)險管理措施;中風(fēng)險,需要采取適當?shù)娘L(fēng)險管理措施;高風(fēng)險,可能對個人隱私、公平性、透明度等方面造成嚴重影響,需要采取特別嚴格的風(fēng)險管理措施。歐盟多元文化背景促使強調(diào)多方參與和共同治理,在風(fēng)險監(jiān)管方面的表現(xiàn)優(yōu)于其他國家和國際組織,這得益于其全面而細致的法律體系和實施策略。歐盟將醫(yī)療領(lǐng)域受管制的AI直接劃分為高風(fēng)險,將風(fēng)險分為了4個等級:①不可接受的風(fēng)險,即被認為對人們的安全、生計和權(quán)利有明顯威脅的AI系統(tǒng);②高風(fēng)險,即受管制的某些AI應(yīng)用被視為高風(fēng)險(例如醫(yī)療裝置、機械),需接受第三方評估;③有限風(fēng)險,合規(guī)但存在風(fēng)險情形的AI,法案對其設(shè)定了透明度義務(wù);④極小風(fēng)險,歐盟提倡制定旨在促進對低風(fēng)險AI系統(tǒng)自愿應(yīng)用要求的行為準則。
2. 2. 3 風(fēng)險評估流程
中國、美國、歐盟的風(fēng)險評估流程大致分為三個方面:風(fēng)險識別、風(fēng)險分級以及風(fēng)險策略制定。中國首先使用AI系統(tǒng)倫理風(fēng)險評估模板來識別風(fēng)險,并對其進行分類,結(jié)合公平性、透明度、安全性等影響程度對整體風(fēng)險程度進行分級,根據(jù)風(fēng)險分級結(jié)果對不同階段的治理目標和治理要求進行風(fēng)險管理。美國的風(fēng)險評估框架包含四個核心功能:治理、映射、衡量和管理。預(yù)先識別和管理系統(tǒng)可能帶來的風(fēng)險,并基準化AI風(fēng)險等級及其相關(guān)影響,確定特定場景與其對應(yīng)的AI風(fēng)險解決方案,根據(jù)結(jié)果進行風(fēng)險處置。歐盟首先建立和維持風(fēng)險管理系統(tǒng),收集、記錄和分析AI系統(tǒng)在整個生命周期的相關(guān)數(shù)據(jù),識別已知和可預(yù)見的風(fēng)險并進行分類分級,針對各個等級采取差異化的監(jiān)管措施,實現(xiàn)精準監(jiān)管。
3 研究討論與展望
3. 1 加強醫(yī)療人工智能政策制度建設(shè)
基于風(fēng)險評估的政策法規(guī)來開展風(fēng)險管理已經(jīng)迫在眉睫,但國際多樣化的文化、價值觀、社會需求可能導(dǎo)致其在人工智能倫理治理路線上取向不同。在借鑒國際經(jīng)驗基礎(chǔ)上,積極制定適用于中國國情的醫(yī)療人工智能相關(guān)的標準和規(guī)范。在政策制定時應(yīng)遵循公正原則、隱私保護原則、透明原則、不傷害原則、自主性原則等倫理準則[11],明確規(guī)定醫(yī)療人工智能的使用范圍、責(zé)任分配和監(jiān)管機制等。針對醫(yī)療AI的安全性問題應(yīng)建立醫(yī)療AI應(yīng)用全過程地建立相應(yīng)的審查和監(jiān)管機制,監(jiān)管機構(gòu)對醫(yī)療AI系統(tǒng)的設(shè)計和使用進行審查和監(jiān)督,部署好醫(yī)療AI應(yīng)用的事前審批、事中監(jiān)測與事后監(jiān)督工作。此外,亟須健全數(shù)據(jù)隱私和安全保護制度,確保醫(yī)療AI在處理個人醫(yī)療數(shù)據(jù)時遵守相關(guān)法規(guī)和準則,保護患者的隱私權(quán)和信息安全。由于不同國家經(jīng)濟發(fā)展水平、文化背景有著明顯差異,需要積極參與國際合作,共同制定醫(yī)療AI的國際標準和規(guī)范,深度參與全球醫(yī)療AI風(fēng)險治理中,進一步使中國在醫(yī)療AI國際競爭中掌握話語權(quán)。
3. 2 繼續(xù)完善醫(yī)療人工智能倫理風(fēng)險評估機制
前瞻性地開展倫理風(fēng)險評估對風(fēng)險治理尤為重要。應(yīng)建立多方參與的評估機制,包括醫(yī)學(xué)專家、人工智能專家、法律專家、倫理專家等利益相關(guān)方,共同參與制定倫理風(fēng)險評估標準,構(gòu)建多維度的風(fēng)險評估指標,以確保評估過程的公正性和全面性。具體舉措如下:①建立風(fēng)險評估的框架:包括識別潛在的風(fēng)險、評估風(fēng)險的嚴重性、確定風(fēng)險的可接受性等;②開發(fā)倫理評估工具:用于評估醫(yī)療人工智能系統(tǒng)的倫理風(fēng)險,包括風(fēng)險矩陣等方法;③制定詳細的風(fēng)險評估流程:包括確定評估的對象和范圍、醫(yī)療AI的風(fēng)險識別、對風(fēng)險進行定量和定性分析、制定風(fēng)險管控措施、反饋等;④持續(xù)監(jiān)測和更新評估機制:及時發(fā)現(xiàn)和應(yīng)對新的風(fēng)險,不斷更新和完善風(fēng)險評估框架,保持評估機制的有效性和適應(yīng)性,以標本兼治推進評估工作。
3. 3 研究局限性與未來展望
本研究首先界定了醫(yī)療AI風(fēng)險治理的基本概念,分析醫(yī)療AI風(fēng)險治理發(fā)展現(xiàn)狀,比較研究了國內(nèi)外風(fēng)險治理的政策法規(guī)、倫理準則和風(fēng)險評估方法,但是限于文獻檢索的局限性,可能并未完全檢索全相關(guān)政策文件。未來,團隊將會繼續(xù)完善檢索與分析相關(guān)政策文件,并探討醫(yī)療AI倫理風(fēng)險因素,圍繞應(yīng)對AI倫理問題的基本原則探索倫理風(fēng)險識別機制,包括安全性、透明度、隱私保護、公正性、可解釋性等方面。同時,倫理風(fēng)險評估是減少AI風(fēng)險事件的重要工具,國際上尚缺乏針對性的醫(yī)療AI倫理風(fēng)險預(yù)警模型,基于此研究未來會進一步探索建立可量化的醫(yī)療AI倫理風(fēng)險預(yù)警機制,構(gòu)建出醫(yī)療AI倫理風(fēng)險預(yù)警模型,以提高醫(yī)療質(zhì)量水平,逐步實現(xiàn)與國際接軌。
4 結(jié)語
本文通過對10個國家和國際組織發(fā)布的30個醫(yī)療AI倫理風(fēng)險治理政策法規(guī)深入分析,揭示了當前醫(yī)療AI領(lǐng)域面臨的復(fù)雜倫理挑戰(zhàn)及其治理現(xiàn)狀。本文分析所得的透明度、公平公正、不傷害、隱私保護、自由自主、負責(zé)任、以人為本正是國際公認的7種倫理原則,這些倫理原則為各國制定醫(yī)療AI倫理規(guī)范提供了重要參考。然而,在具體實踐中,不同國家和地區(qū)在風(fēng)險識別、風(fēng)險分級及風(fēng)險評估流程上仍存在顯著差異。對中國而言,應(yīng)積極借鑒國際先進經(jīng)驗,結(jié)合本國國情構(gòu)建一套完善的醫(yī)療AI倫理風(fēng)險治理體系,包括制定明確的倫理準則,建立風(fēng)險評估機制和工具,推動技術(shù)創(chuàng)新與倫理規(guī)范的深度融合。同時應(yīng)積極參與國際合作,共同建立倫理規(guī)范與風(fēng)險治理路徑,構(gòu)建安全、可信、高效的醫(yī)療AI生態(tài)系統(tǒng)。
〔參考文獻〕
[1]葛海濤,安虹璇. 中國科技倫理治理體系建設(shè)進展[J]. 科技導(dǎo)報, 2022, 40(18): 21-30. GE H T, AN H X.Progress in the Construction of China’s science and technology ethics gover‐nance system [J]. Technology Review, 2022,40 (18): 21-30.
[2]中共中央辦公廳,國務(wù)院辦公廳.關(guān)于加強科技倫理治理的意見[EB/OL].(2022-03-20)[2024-09-10]. http://www. scio. gov. cn/zdgz/jj/202309/ t20230914_769 407.html.
[3]YASSER I A, JOEL S S, RIDWAN S,et al. Eth‐ics of Artificial Intelligence in medicine and ophthal‐mology[J]. Asia-Pacific journal of ophthalmology(Philadelphia, Pa.), 2021, 10 (3): 289-298.
[4]MARSCH L A. Digital health data-driven ap‐proaches to understand human behavior[J]. Neu‐ropsychopharmacology, 2021, 46(1): 191-196.
[5]SMUHA N A. The EU approach to ethics guide‐lines for trustworthy artificial intelligence[J]. Computer Law Review International, 2019, 20(4): 97-106.
[6]KESKINBORA K H. Medical ethics consider‐ations on artificial intelligence[J]. Journal of Clinical Neuroscience, 2019, 64: 277-282.
[7]LEE D H, YOON S N. Application of artificial intelligence-based technologies in the healthcare industry: opportunities and challenges[J]. Inter‐national Journal of Environmental Research and Public Health, 2021, 18(1): 271.
[8]DANESHJOU R, SMITH M P, SUN M D, et al. Lack of transparency and potential bias in arti‐ficial intelligence data sets and algorithms: a scop‐ing review[J]. JAMA Dermatology, 2021, 157(11): 1362-1369.
[9]CACCIAMANI G E, CHEN A, GILL I S, et al. Artificial intelligence and urology: ethical con‐siderations for urologists and patients[J]. Nature Reviews Urology, 2024, 21(1): 50-59.
[10]BERBERICH N, NISHIDA T, SUZUKI S. Har‐monizing artificial intelligence for social good[J]. Philosophy and Technology, 2020, 33: 613-638.
[11]COHEN I G. Informed consent and medical artifi‐cial intelligence: what to tell the patient?[J]. The Georgetown Law Journal, 2019, 108: 1425.
[12]ZHANG J, ZHANG Z. Ethics and governance of trustworthy medical artificial intelligence[J]. BMC Medical Informatics and Decision Making,2023, 23(1): 7.
[13]VALLèS-PERIS N, DOMèNECH M. Caring in the in-between: a proposal to introduce respon‐sible AI and robotics to healthcare[J]. AI and So‐ciety, 2023, 38(4): 1685-1695.
[14]LEIMANIS A, PALKOVA K. Ethical guidelines for artificial intelligence in healthcare from the sus‐tainable development perspective[J]. European Jour‐nal of Sustainable Development, 2021, 10(1):90-90.
[15]BURUK B, EKMEKCI P E, ARDA B. A critical perspective on guidelines for responsible and trust‐worthy artificial intelligence[J]. Medicine, Health Care and Philosophy, 2020, 23(3): 387-399.
[16]O’SULLIVAN S, NEVEJANS N, ALLEN C,et al. Legal, regulatory, and ethical frameworks for development of standards in artificial intelligence(AI) and autonomous robotic surgery[J]. The inter‐national journal of medical robotics and computer as‐sisted surgery, 2019, 15(1): e1968.
[17]BERTOLINI A, AIELLO G. Robot compan‐ions: a legal and ethical analysis[J]. The Infor‐mation Society, 2018, 34(3): 130-140.
[18]WALZ A, FIRTH-BUTTERFIELD K. Imple‐menting ethics into artificial intelligence: a contri‐bution, from a legal perspective, to the develop‐ment of an AI governance regime[J]. Duke Law and Technology Review, 2019, 18: 176.