〔摘要〕具有變革性潛力的多模態(tài)模型在醫(yī)療領(lǐng)域的快速發(fā)展和廣泛應(yīng)用,標(biāo)志著醫(yī)療人工智能進(jìn)入了一個(gè)全新的大模型時(shí)代,通過(guò)整合和分析大量的文本、圖像和語(yǔ)音數(shù)據(jù)等,在預(yù)防、診斷和治療各個(gè)環(huán)節(jié)推動(dòng)了醫(yī)療服務(wù)的個(gè)性化和精準(zhǔn)化。然而,隨著大型多模態(tài)模型在醫(yī)療健康領(lǐng)域的快速發(fā)展和應(yīng)用,醫(yī)療領(lǐng)域的監(jiān)管機(jī)構(gòu)和傳統(tǒng)規(guī)則體系也面臨著全新挑戰(zhàn)。其中,虛假信息、“情感操縱”、算法偏見(jiàn)和侵權(quán)責(zé)任的模糊都是亟待解決的核心問(wèn)題。為應(yīng)對(duì)這些挑戰(zhàn),一是落實(shí)人工智能全生命周期安全措施,打造可信的醫(yī)療大模型應(yīng)用;二是踐行倫理嵌入設(shè)計(jì)的AI倫理治理理念,實(shí)現(xiàn)醫(yī)療大模型價(jià)值對(duì)齊;三是明確醫(yī)療大模型的產(chǎn)品責(zé)任規(guī)則的適用,確保對(duì)受害人的有效救濟(jì)。共同推進(jìn)醫(yī)療人工智能安全和有效應(yīng)用,為構(gòu)建更加健康、公正和智能的醫(yī)療生態(tài)系統(tǒng)作出貢獻(xiàn)。
〔關(guān)鍵詞〕通用基礎(chǔ)模型;大型多模態(tài)模型;價(jià)值對(duì)齊;可信AI;產(chǎn)品責(zé)任
〔中圖分類號(hào)〕R-052 〔文獻(xiàn)標(biāo)志碼〕A 〔文章編號(hào)〕1001-8565(2024)09-1023-07
DOI: 10. 12026/j. issn. 1001-8565. 2024. 09. 02
Opportunities, challenges, and governance responses of multimodal AI models in the medical field
CAO Jianfeng1, XU Yanling2
(1.University of International Business and Economics, Research Center for Digital Economy and Legal Innovation, Beijing 100029, China; 2. South China University of Technology, Law School, Guangzhou 510006, China)
Abstract: The rapid development and widespread application of transformative multimodal models in the medical field mark the advent of a new era of large models in medical artificial intelligence. By integrating and analyzing vast amounts of text, image, and speech data, these models are advancing the personalization and precision of medical services across all stages of prevention, diagnosis, and treatment. However, the swift progression and application of large multimodal models in the healthcare sector also present new challenges to regulatory bodies and traditional rule systems. Core issues that urgently need to be addressed include misinformation, “emotional manipulation,” algorithmic bias, and ambiguous liability for infringements. To address these challenges, it is essential to: first, implement safety measures throughout the entire lifecycle of artificial intelligence to develop trustworthy applications of large medical models; second, practice AI ethics governance concept by embedding ethical design to align the values of large medical models; and third, clarify the application of product liability rules for large medical models to ensure effective remedies for harmed individuals. Collectively, these efforts will promote the safe and effective application of medical artificial intelligence, contributing to the development of a healthier, fairer, and smarter healthcare ecosystem.
Keywords: general-purpose foundation models; large multimodal models; value alignment; trustworthy AI; product liability
2020年,OpenAI發(fā)布GPT-3,標(biāo)志著大型多模態(tài)模型(large multi-modal models,LMM)的快速發(fā)展和應(yīng)用拓展時(shí)代的到來(lái)。盡管GPT-3主要是文本模型,但它在多模態(tài)應(yīng)用中顯示了巨大潛力,而后續(xù)推出的GPT-4則朝著多模態(tài)AI邁出了一大步[1]。大型多模態(tài)模型是指能夠處理并理解多種類型數(shù)據(jù)(如文本、圖像、音頻等)的人工智能模型,也被稱為“通用基礎(chǔ)模型”(general-purpose foundation model)。LMM通過(guò)綜合不同模態(tài)的數(shù)據(jù),能夠提供更加豐富和精準(zhǔn)的信息理解和生成能力。
多模態(tài)是目前人工智能的進(jìn)步方向,多模態(tài)模型的相關(guān)研究和應(yīng)用繼續(xù)快速發(fā)展。除了傳統(tǒng)的圖文模型外,多模態(tài)模型研究還拓展到了音頻、視頻等其他模態(tài)中,開(kāi)發(fā)出能同時(shí)處理圖像、視頻和音頻信號(hào)的Audio-Visual BERT模型,為L(zhǎng)MM在更廣泛的應(yīng)用場(chǎng)景中發(fā)揮作用奠定了技術(shù)基礎(chǔ),在豐富人與大模型的互動(dòng)模式方面起著關(guān)鍵作用。如何將大型多模態(tài)模型應(yīng)用到醫(yī)療領(lǐng)域是當(dāng)前人工智能研究和應(yīng)用的熱點(diǎn)?,F(xiàn)有研究中,常利用LMM綜合多種數(shù)據(jù)類型來(lái)提高診斷的準(zhǔn)確性、優(yōu)化治療方法、提升患者護(hù)理質(zhì)量以及加速醫(yī)學(xué)研究。據(jù)預(yù)測(cè),多模態(tài)大模型將廣泛應(yīng)用于醫(yī)療保健、科學(xué)研究、公共衛(wèi)生和藥物開(kāi)發(fā)等領(lǐng)域[2]。
盡管大型多模態(tài)模型在醫(yī)療領(lǐng)域的應(yīng)用前景非常廣闊,但同時(shí)也面臨著數(shù)據(jù)隱私、算法透明度、模型解釋性等倫理和技術(shù)挑戰(zhàn)。為應(yīng)對(duì)這一挑戰(zhàn),世界衛(wèi)生組織(WHO)發(fā)布Ethics And Governance Of Artificial Intelligence For Health. Guidance On Large Multi-Modal Models[3](以下簡(jiǎn)稱《指南》)旨在針對(duì)LMM應(yīng)用中的問(wèn)題作出回應(yīng),為政府、科技公司和醫(yī)療機(jī)構(gòu)提供具體指導(dǎo)建議。未來(lái),隨著技術(shù)的進(jìn)步和相關(guān)法規(guī)、標(biāo)準(zhǔn)的完善,預(yù)計(jì)多模態(tài)模型將在醫(yī)療領(lǐng)域發(fā)揮更大的作用,為患者提供更優(yōu)質(zhì)的醫(yī)療服務(wù),并加速醫(yī)學(xué)科學(xué)的進(jìn)步。
1 大型多模態(tài)模型在醫(yī)療領(lǐng)域的應(yīng)用現(xiàn)狀與發(fā)展方向
多模態(tài)模型的發(fā)展速度之快,以及其在醫(yī)療領(lǐng)域的廣泛應(yīng)用,標(biāo)志著現(xiàn)代醫(yī)療技術(shù)的一大飛躍。這些模型通過(guò)綜合分析利用醫(yī)療數(shù)據(jù)的多樣性,包括文本(如病歷記錄和科學(xué)文獻(xiàn))、圖像(如X射線、CT掃描和MRI圖像)、音頻(如心臟聲音),以及其他類型的數(shù)據(jù)(如基因序列數(shù)據(jù)),為醫(yī)療診斷、患者監(jiān)護(hù)、行政處理和醫(yī)藥科學(xué)研究等方面提供了前所未有的支持和精準(zhǔn)度[4]。
一大應(yīng)用方向便是診斷和臨床護(hù)理,旨在從復(fù)雜病例管理和常規(guī)診斷中減輕醫(yī)療服務(wù)提供者的工作量。幾家大型科技企業(yè)正在將其通用LMM調(diào)整為可輔助臨床診斷和護(hù)理的LMM。其中,來(lái)自Google Research的多模態(tài)模型Med-PaLM-2便是專為醫(yī)學(xué)領(lǐng)域設(shè)計(jì),也是第一個(gè)在美國(guó)醫(yī)學(xué)執(zhí)照考試(USMLE)風(fēng)格問(wèn)題中超過(guò)及格分?jǐn)?shù)(>60%)的人工智能系統(tǒng)。在一次醫(yī)療問(wèn)題研究中,Med-PaLM-2需要理解癥狀,并檢查患者的檢查結(jié)果,對(duì)可能的診斷結(jié)果進(jìn)行復(fù)雜的推理,最終選出最合適的疾病、檢查或治療的答案。與臨床醫(yī)生對(duì)照組的比對(duì)下,Med-PaLM-2的答案在八個(gè)維度上都優(yōu)于人類醫(yī)生的答案。
另一個(gè)重要的應(yīng)用方向是協(xié)助醫(yī)護(hù)人員指導(dǎo)患者,使得醫(yī)患溝通更加順暢。首先,LMM能夠根據(jù)患者的具體病情、病史以及其他相關(guān)信息,生成個(gè)性化的健康教育材料和建議,幫助患者更好地理解他們的健康狀況,提高他們的自我管理能力。其次,通過(guò)訓(xùn)練,LMM能夠理解并回答患者關(guān)于疾病、治療程序、藥物使用等方面的常見(jiàn)問(wèn)題。這不僅可以減輕醫(yī)護(hù)人員的工作負(fù)擔(dān),也可以為患者提供即時(shí)的信息支持。此外,LMM還可以通過(guò)分析患者的語(yǔ)言和情緒來(lái)提供溝通建議,幫助醫(yī)護(hù)人員更有效地與患者進(jìn)行交流。LMM還可以分析從可穿戴設(shè)備或家庭醫(yī)療設(shè)備收集的數(shù)據(jù),監(jiān)控患者狀態(tài),及時(shí)發(fā)現(xiàn)患者狀況的變化。美國(guó)的一項(xiàng)研究發(fā)現(xiàn),在回答患者在線論壇上提出的病情相關(guān)問(wèn)題時(shí),由ChatGPT驅(qū)動(dòng)的聊天機(jī)器人比合格的醫(yī)生表現(xiàn)得更好,近八成情況下聊天機(jī)器人的回答更能獲得評(píng)估人員的青睞[5]。
此外,利用語(yǔ)言模型的自動(dòng)化來(lái)處理優(yōu)化文書(shū)等行政工作也是應(yīng)用方向之一。2018年美國(guó)醫(yī)學(xué)協(xié)會(huì)的一項(xiàng)調(diào)查[6]顯示,70%的一線醫(yī)生認(rèn)為日常的文書(shū)工作如患者電子健康記錄擠占了日常工作時(shí)間,在很大程度上加劇了醫(yī)生的職業(yè)倦怠感。而以GPT-4為代表的多模態(tài)的生成式人工智能,有望將醫(yī)生從日常工作中最煩瑣、負(fù)擔(dān)最沉重的部分解放出來(lái)。在相關(guān)實(shí)驗(yàn)中,GPT-4能夠“聽(tīng)懂”醫(yī)患的對(duì)話記錄,并在此基礎(chǔ)上以病歷筆記的形式進(jìn)行總結(jié)后錄入電子健康記錄系統(tǒng)。對(duì)于許多專注于開(kāi)發(fā)自動(dòng)化臨床文書(shū)產(chǎn)品的公司來(lái)說(shuō),以GPT-4為代表的多模態(tài)生成式人工智能將成為一項(xiàng)顛覆性的技術(shù)。
在醫(yī)療領(lǐng)域的科學(xué)研究與藥物開(kāi)發(fā)進(jìn)程中,具備強(qiáng)大數(shù)據(jù)分析能力的大型多模態(tài)模型(LMM)將扮演革命性的角色。特別是GPT-4等技術(shù),它們的應(yīng)用不僅限于提高實(shí)驗(yàn)室研究的效率,還包括對(duì)復(fù)雜科學(xué)數(shù)據(jù)的深入解析和總結(jié)。GPT-4展現(xiàn)出對(duì)專業(yè)醫(yī)學(xué)論文的深刻理解能力,能夠提煉出關(guān)鍵信息,為科研人員提供準(zhǔn)確的研究概述、重要發(fā)現(xiàn)的解讀、相關(guān)文獻(xiàn)的推薦,以及未來(lái)研究方向的規(guī)劃。
2 大型多模態(tài)模型在醫(yī)療領(lǐng)域的倫理挑戰(zhàn)與責(zé)任困境
大型多模態(tài)模型常被認(rèn)為可能給包括醫(yī)療領(lǐng)域在內(nèi)的經(jīng)濟(jì)社會(huì)發(fā)展帶來(lái)新的機(jī)遇,但也有悲觀者認(rèn)為L(zhǎng)MM可能帶來(lái)巨大的風(fēng)險(xiǎn)隱患,最終造成災(zāi)難性后果。就目前而言,LMM的發(fā)展應(yīng)用正在帶來(lái)多方面的風(fēng)險(xiǎn)和挑戰(zhàn)?!吨改稀穼?duì)數(shù)字鴻溝的現(xiàn)象作出預(yù)言,提醒世人警惕算法偏見(jiàn),提升醫(yī)療領(lǐng)域應(yīng)用LMM的安全性與公眾信任度。本部分將重點(diǎn)聚焦于LMM的安全風(fēng)險(xiǎn)和治理挑戰(zhàn),以及發(fā)生事故后侵權(quán)責(zé)任分配的倫理困境。
2. 1 LMM與醫(yī)療的結(jié)合,對(duì)可靠性、準(zhǔn)確性問(wèn)題提出了更高的要求
以GPT-4為代表的多模態(tài)基礎(chǔ)模型存在“幻覺(jué)”(hallucination)或“事實(shí)編造”(confabulation)問(wèn)題,即可能輸出錯(cuò)誤的、不準(zhǔn)確的、不真實(shí)的信息。這一現(xiàn)象的基本原理來(lái)自互聯(lián)網(wǎng)信息的“有損壓縮”,在“黑鼻鮭”實(shí)驗(yàn)中,大模型神經(jīng)網(wǎng)絡(luò)通過(guò)之前對(duì)魚(yú)類相關(guān)知識(shí)的學(xué)習(xí)掌握,生成大致準(zhǔn)確的描述,而并非直接從它的訓(xùn)練資料中復(fù)制而來(lái)[7]。AI領(lǐng)域的專家Karpathy將大模型稱為“造夢(mèng)機(jī)”,并不認(rèn)為AI幻覺(jué)屬于一種缺陷;英偉達(dá)高級(jí)科學(xué)家Jim Fan也認(rèn)為這是大模型與傳統(tǒng)網(wǎng)絡(luò)搜索的最大區(qū)別。
但在醫(yī)療領(lǐng)域中,LMM的運(yùn)用則對(duì)可靠性、準(zhǔn)確性問(wèn)題提出了更高的要求,一旦LMM的運(yùn)用出現(xiàn)問(wèn)題時(shí),可能引發(fā)嚴(yán)重的倫理挑戰(zhàn)。例如,診斷輔助工具或治療建議LMM的準(zhǔn)確性不足,可能導(dǎo)致醫(yī)生基于錯(cuò)誤的信息作出醫(yī)療決策。這不僅可能對(duì)患者的健康造成直接的負(fù)面影響,而且還可能削弱醫(yī)生的專業(yè)判斷力。此外,如果LMM系統(tǒng)在設(shè)計(jì)或訓(xùn)練數(shù)據(jù)上存在偏見(jiàn),可能會(huì)錯(cuò)誤地診斷或治療某些人群,如系統(tǒng)主要用某一種族的數(shù)據(jù)訓(xùn)練,可能無(wú)法準(zhǔn)確地診斷其他種族的疾病,變相加劇醫(yī)療不平等。
現(xiàn)有的醫(yī)療大模型在測(cè)試中暴露出“不可靠”的跡象。2022年秋天,大模型AI達(dá)芬奇3在完成一次患者病歷筆記任務(wù)中便出現(xiàn)了“幻覺(jué)”。在病歷中,達(dá)芬奇3寫(xiě)道:“患者體重嚴(yán)重不足(BMI14.8)……”但實(shí)際的醫(yī)患對(duì)話中并未提及有關(guān)患者體重的任何數(shù)據(jù),因此達(dá)芬奇3實(shí)際上僅憑經(jīng)驗(yàn)性猜測(cè)去編造并給出看似可信的BMI數(shù)值。在醫(yī)學(xué)領(lǐng)域中,信息輸出不準(zhǔn)確是一個(gè)嚴(yán)重問(wèn)題。
2. 2 醫(yī)療AI大模型存在價(jià)值對(duì)齊問(wèn)題
所謂人工智能的價(jià)值對(duì)齊(AI Alignment),就是讓人工智能系統(tǒng)的行為符合人類的價(jià)值、目標(biāo)、偏好或倫理原則。嚴(yán)謹(jǐn)?shù)刂v,AI對(duì)齊(AI alignment)是AI安全和倫理領(lǐng)域的一個(gè)概念,其主要目的是將AI大模型打造成安全、真誠(chéng)、有用、無(wú)害的智能助手,避免在與用戶交互過(guò)程中出現(xiàn)潛在的負(fù)面影響或危害,例如輸出有害內(nèi)容、產(chǎn)生幻覺(jué)等。在大模型時(shí)代,AI對(duì)齊對(duì)于確保人類與人工智能交互過(guò)程中的安全與信任至關(guān)重要?,F(xiàn)在的聊天機(jī)器人等大模型應(yīng)用之所以能夠游刃有余地應(yīng)對(duì)用戶的各種提問(wèn),而不至于產(chǎn)生太大負(fù)面影響,在很大程度上歸功于AI對(duì)齊方面的實(shí)踐。因此,AI對(duì)齊是現(xiàn)在的大模型的可用性和安全性的重要基礎(chǔ)。
在醫(yī)療領(lǐng)域,大模型前沿技術(shù)的使用已經(jīng)暴露出其伴隨著風(fēng)險(xiǎn)和挑戰(zhàn),尤其是當(dāng)它們的行為與人類的最佳利益和福祉背道而馳時(shí)。在實(shí)踐中,科學(xué)家發(fā)現(xiàn)AI已有能力對(duì)人類實(shí)施如“情感操縱”等有害行為[8],一名患有焦慮癥的比利時(shí)患者與機(jī)器人密集對(duì)話之后選擇自殺的悲劇為我們敲響了警鐘[9]。醫(yī)療健康領(lǐng)域直接關(guān)系到人們的生命健康,涉及敏感的個(gè)人數(shù)據(jù)和生命決策,因此,在醫(yī)療健康場(chǎng)景下,實(shí)現(xiàn)大模型的價(jià)值對(duì)齊變得尤為重要。如果AI系統(tǒng)的建議與醫(yī)療倫理原則不符,可能會(huì)造成醫(yī)療決策的錯(cuò)誤導(dǎo)向。例如,基于偏見(jiàn)的數(shù)據(jù)訓(xùn)練得出的診斷模型可能對(duì)某些族群的疾病診斷不準(zhǔn)確,導(dǎo)致錯(cuò)誤治療甚至延誤治療,隨著數(shù)據(jù)集不斷擴(kuò)大,LMM中編碼的偏見(jiàn)可能自動(dòng)地?cái)U(kuò)散至整個(gè)醫(yī)療保健系統(tǒng)。此外,LMM的廣泛應(yīng)用,可能加劇醫(yī)療資源的不平等分配?!吨改稀分赋鲇嗛哃MM的費(fèi)用門(mén)檻可能導(dǎo)致不同國(guó)家、不同地區(qū)、不同民族無(wú)法平等地獲取LMM醫(yī)療資源。
價(jià)值對(duì)齊是系統(tǒng)工程,對(duì)算法歧視、能力涌現(xiàn)、技術(shù)濫用等突出問(wèn)題都有所回應(yīng)。未能在大模型設(shè)計(jì)開(kāi)發(fā)和部署過(guò)程中實(shí)現(xiàn)價(jià)值對(duì)齊,則LMM在醫(yī)療領(lǐng)域的后續(xù)使用中可能影響醫(yī)患之間的信任關(guān)系,產(chǎn)生歧視、偏見(jiàn)、隱私泄露等倫理問(wèn)題。
2. 3 損害結(jié)果發(fā)生時(shí)的責(zé)任分配問(wèn)題尚不明確,倫理問(wèn)責(zé)的缺失增加LMM系統(tǒng)性風(fēng)險(xiǎn)
從倫理的視角看,在LMM引發(fā)的醫(yī)療事故中解決責(zé)任問(wèn)題不僅僅是為了法律上的賠償,更是為了維護(hù)患者的基本權(quán)益。醫(yī)療AI系統(tǒng)應(yīng)該被加強(qiáng)監(jiān)管以確保它們的安全性和有效性,同時(shí)確保在出現(xiàn)錯(cuò)誤時(shí),有明確的責(zé)任和透明的處理流程。醫(yī)療領(lǐng)域結(jié)合AI時(shí),在損害結(jié)果發(fā)生時(shí)存在的責(zé)任分配問(wèn)題是復(fù)雜且多維的。傳統(tǒng)的法律和醫(yī)療責(zé)任框架主要針對(duì)的是人為錯(cuò)誤和疏忽設(shè)計(jì),可能不完全適用于AI引起的醫(yī)療損害。例如,如果AI系統(tǒng)的建議基于其訓(xùn)練數(shù)據(jù)得出,但這些建議在特定情況下導(dǎo)致了錯(cuò)誤的醫(yī)療決策,確定責(zé)任需要考慮到AI的設(shè)計(jì)、數(shù)據(jù)質(zhì)量、醫(yī)生的決策過(guò)程等多個(gè)因素。隨著AI技術(shù)的廣泛應(yīng)用,特別是在診斷、治療建議、患者監(jiān)護(hù)等方面,當(dāng)出現(xiàn)醫(yī)療錯(cuò)誤或損害事件時(shí),如何實(shí)現(xiàn)責(zé)任分配是個(gè)難題。
一方面,技術(shù)復(fù)雜性導(dǎo)致責(zé)任模糊。AI系統(tǒng)的決策過(guò)程往往基于復(fù)雜的算法和大數(shù)據(jù)分析,這種“黑箱”特性使得追溯具體決策邏輯變得困難。當(dāng)AI推薦的醫(yī)療決策導(dǎo)致患者受損時(shí),界定是技術(shù)故障、算法缺陷,還是數(shù)據(jù)問(wèn)題導(dǎo)致的錯(cuò)誤變得不明確。另一方面,多方參與也使責(zé)任劃分難上加難。醫(yī)療AI系統(tǒng)的開(kāi)發(fā)、部署和使用涉及多個(gè)參與方,包括但不限于AI技術(shù)供應(yīng)商、醫(yī)療機(jī)構(gòu)、醫(yī)護(hù)人員和患者,AI技術(shù)供應(yīng)商又可以細(xì)分為數(shù)據(jù)采集端、算法設(shè)計(jì)端、故障測(cè)試端等,認(rèn)定每個(gè)參與方在系統(tǒng)開(kāi)發(fā)和應(yīng)用過(guò)程中扮演不同角色是關(guān)鍵。這些問(wèn)題都對(duì)現(xiàn)有法律體系提出了挑戰(zhàn)。
3 醫(yī)療領(lǐng)域的大型多模態(tài)模型治理進(jìn)路
醫(yī)療領(lǐng)域人工智能的應(yīng)用普及速度不斷加快。近年來(lái),監(jiān)管部門(mén)積極完善AI醫(yī)療器械的注冊(cè)申報(bào)和審批程序、使用管理規(guī)范,支持智能醫(yī)學(xué)影像等輔助診斷和輔助治療的AI醫(yī)療軟件加快臨床應(yīng)用。目前國(guó)內(nèi)已有AI醫(yī)療軟件獲得審批[10]。建立有效的AI治理機(jī)制和規(guī)則來(lái)回應(yīng)醫(yī)療領(lǐng)域的AI安全風(fēng)險(xiǎn)和治理盲區(qū),打造可信的、負(fù)責(zé)任的、以人為本的多模態(tài)AI應(yīng)用是時(shí)代所需。
3. 1 落實(shí)大模型全生命周期安全措施,打造可信的醫(yī)療大模型應(yīng)用
為確保醫(yī)療大模型可信,AI倫理風(fēng)險(xiǎn)管理需要貫穿AI全生命周期,包括預(yù)設(shè)計(jì)階段、設(shè)計(jì)開(kāi)發(fā)階段、部署階段以及貫穿這幾個(gè)階段的測(cè)試和評(píng)估活動(dòng),以全面識(shí)別、分析、評(píng)估、管理、治理AI倫理風(fēng)險(xiǎn)。美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(National Institute of Standards and Technology, NIST)在《人工智能風(fēng)險(xiǎn)管理框架》(Artificial Intelligence Risk Management Framework,AI RMF)中指出在人工智能全生命周期的不同階段存在不同的風(fēng)險(xiǎn),將人工智能系統(tǒng)的全生命周期劃分為計(jì)劃和設(shè)計(jì)、收集處理數(shù)據(jù)等六個(gè)階段。
AI RMF為人工智能系統(tǒng)的全生命周期提供了一個(gè)全面的風(fēng)險(xiǎn)管理方法,這對(duì)于中國(guó)在制定或優(yōu)化AI相關(guān)政策和標(biāo)準(zhǔn)具有一定借鑒意義——整個(gè)大模型AI的生命周期都需采取與現(xiàn)階段相適應(yīng)的措施。從行業(yè)實(shí)踐來(lái)看,在預(yù)訓(xùn)練階段,主要是針對(duì)性掃除數(shù)據(jù)問(wèn)題,重點(diǎn)是減少訓(xùn)練數(shù)據(jù)中虛假文本數(shù)據(jù)的數(shù)量,提高醫(yī)療領(lǐng)域?qū)I(yè)文本的質(zhì)量。在模型發(fā)布之前邀請(qǐng)專業(yè)人員開(kāi)展對(duì)抗測(cè)試(Adver‐sarial Testing)或紅隊(duì)測(cè)試(Red Teaming),對(duì)模型發(fā)起各種攻擊,以發(fā)現(xiàn)潛在問(wèn)題并予以解決。例如,在GPT-4發(fā)布之前,OpenAI公司聘請(qǐng)了50多位各領(lǐng)域?qū)W者和專家對(duì)其模型進(jìn)行測(cè)試,幫助發(fā)現(xiàn)其模型在不準(zhǔn)確信息(幻覺(jué))、有害內(nèi)容、虛假信息等方面的問(wèn)題。在用戶交互階段,實(shí)施內(nèi)容管控,對(duì)輸出信息的真實(shí)性加以驗(yàn)證并識(shí)別利用醫(yī)療模型作惡的有害提問(wèn)。此外,開(kāi)發(fā)對(duì)AI生成內(nèi)容的檢測(cè)識(shí)別技術(shù),通過(guò)訓(xùn)練專門(mén)的AI模型來(lái)識(shí)別生成式AI生產(chǎn)的文本、圖像、音頻、視頻等各類合成內(nèi)容,確保內(nèi)容的來(lái)源或真實(shí)性。在此思路下,以Deeptrace Labs為代表的新興公司對(duì)深度偽造技術(shù)提供有效的檢測(cè)工具和服務(wù),確保數(shù)字內(nèi)容的真實(shí)性和可信度。
3. 2 踐行倫理嵌入設(shè)計(jì)的AI倫理治理理念,實(shí)現(xiàn)醫(yī)療大模型價(jià)值對(duì)齊
隨著科技倫理治理的發(fā)展,科技企業(yè)需前瞻性地融合倫理于AI設(shè)計(jì)之初,而非僅依賴事后補(bǔ)救。這種“倫理嵌入設(shè)計(jì)”(ethics by design)的理念要求在AI系統(tǒng)的設(shè)計(jì)、開(kāi)發(fā)及部署階段內(nèi)置倫理價(jià)值和原則,通過(guò)工程化實(shí)踐解決倫理原則與AI實(shí)踐之間的落地鴻溝,構(gòu)建可信的人工智能應(yīng)用。例如,技術(shù)開(kāi)發(fā)應(yīng)考慮多元參與,融合跨學(xué)科專家等,確保技術(shù)發(fā)展與倫理標(biāo)準(zhǔn)同行。這樣,不僅促進(jìn)了技術(shù)與社會(huì)價(jià)值的一致性,也為制定倫理指導(dǎo)原則和最佳實(shí)踐提供了基礎(chǔ)。
對(duì)于大模型而言,價(jià)值對(duì)齊是實(shí)現(xiàn)“倫理嵌入設(shè)計(jì)”的一個(gè)核心思路,行業(yè)在實(shí)踐中多措并舉保障AI價(jià)值對(duì)齊的實(shí)現(xiàn)。在實(shí)踐中,目前業(yè)界將AI價(jià)值對(duì)齊作為對(duì)AI大模型進(jìn)行安全治理的重要思路,并在技術(shù)上取得了客觀的效果,在很大程度上確保大模型部署和使用中的安全與信任。AI對(duì)齊(AI alignment)作為大模型研發(fā)過(guò)程中的一個(gè)重要環(huán)節(jié),目前主要有兩種實(shí)現(xiàn)方式。一種是自下而上的思路,也就是人類反饋的強(qiáng)化學(xué)習(xí),需要用價(jià)值對(duì)齊的問(wèn)題對(duì)模型進(jìn)行精調(diào),并由人類訓(xùn)練員對(duì)模型的輸出進(jìn)行評(píng)分,再通過(guò)強(qiáng)化學(xué)習(xí)的方式讓模型學(xué)習(xí)人類的價(jià)值和偏好。在技術(shù)上,人類反饋強(qiáng)化學(xué)習(xí)(RLHF)包括初始模型訓(xùn)練、收集人類反饋、強(qiáng)化學(xué)習(xí)、迭代過(guò)程等步驟。另一種是自上而下的思路,核心是把一套倫理原則輸入給模型,并通過(guò)技術(shù)方法讓模型對(duì)自己的輸出進(jìn)行評(píng)分,以使其輸出符合這些原則。例如,OpenAI采取了人類反饋強(qiáng)化學(xué)習(xí)(RLHF)的對(duì)齊方法,Anthropic采取了AI反饋強(qiáng)化學(xué)習(xí)(RLAIF)的對(duì)齊方法即所謂的“原則型AI”(constitutional AI),這些AI對(duì)齊方法殊途同歸,都致力于將大模型打造成為安全、真誠(chéng)、有用、無(wú)害的智能助手。以RLHF為例,RLHF在改進(jìn)模型性能、提高模型的適應(yīng)性、減少模型的偏見(jiàn)、增強(qiáng)模型的安全性等方面具有顯著優(yōu)勢(shì),包括減少模型在未來(lái)生產(chǎn)有害內(nèi)容的可能性。OpenAI將RLHF算法發(fā)揚(yáng)光大,ChatGPT借此取得成功,能夠在很大程度上輸出有用的、可信的、無(wú)害的內(nèi)容。除此之外,產(chǎn)業(yè)界還在探索對(duì)抗測(cè)試(紅隊(duì)測(cè)試)、模型評(píng)估、可解釋AI方法、倫理審查、第三方服務(wù)等多元化的安全和治理措施,共同確保負(fù)責(zé)任AI的發(fā)展。
人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)雖然被證明是一個(gè)有效的方法,但存在可拓展性差、受限于訓(xùn)練員的主觀偏好、長(zhǎng)期價(jià)值對(duì)齊難以保證等問(wèn)題。RLHF方法通過(guò)引入人類專家的參與和評(píng)估,不僅幫助提升了模型的性能,而且讓模型變得更加安全可靠。但單純依靠人類反饋來(lái)訓(xùn)練AI系統(tǒng)是非常低效的,因此,在后續(xù)的技術(shù)發(fā)展中,逐漸開(kāi)發(fā)出了可擴(kuò)展監(jiān)督(scalable oversight),利用AI的自我監(jiān)督以及將AI作為人類監(jiān)督者的助手更高效地對(duì)模型進(jìn)行優(yōu)化改進(jìn)。破解大語(yǔ)言模型的“黑箱”屬性,提高技術(shù)透明度,嘗試用AI大模型解釋大模型的方式,誘導(dǎo)其逐步呈現(xiàn)其邏輯。成立治理組織也是關(guān)鍵一環(huán),除了設(shè)立倫理審查委員會(huì)外,人工智能領(lǐng)域的領(lǐng)頭企業(yè)還嘗試設(shè)立任務(wù)劃分更為具體的安全責(zé)任團(tuán)隊(duì),如OpenAI于2024年5月成立了安全與安保委員會(huì)(Safety and Security Committee)。此外,像網(wǎng)絡(luò)安全領(lǐng)域的白帽黑客那樣,AI治理也可以依靠社會(huì)力量來(lái)發(fā)現(xiàn)、識(shí)別、解決AI模型的安全和倫理漏洞,諸如算法歧視獎(jiǎng)勵(lì)、模型漏洞獎(jiǎng)勵(lì)等眾包方式得到重視。
雖然AI價(jià)值對(duì)齊在技術(shù)上取得了一定的效果,但人們對(duì)最基礎(chǔ)的AI價(jià)值問(wèn)題依然沒(méi)有形成共識(shí):如何確立用以規(guī)范人工智能的一套統(tǒng)一的人類價(jià)值。目前看,選擇哪些原則可能完全取決于研究人員的主觀判斷和價(jià)值觀。而且考慮到我們生活在一個(gè)人們擁有多元文化、背景、資源和信仰的世界中,AI價(jià)值對(duì)齊需要考慮不同社會(huì)和群體的不同價(jià)值和道德規(guī)范。一是確保醫(yī)療數(shù)據(jù)集多元化,用于訓(xùn)練AI系統(tǒng)的數(shù)據(jù)集需具有代表性,涵蓋不同種族、性別、年齡和文化背景的患者信息。二是建立由多文化背景的倫理學(xué)家、社會(huì)學(xué)家、醫(yī)療專業(yè)人員和患者代表組成的審查團(tuán)隊(duì),完全讓研究人員自行選擇這些價(jià)值是不切實(shí)際的,需要更多的社會(huì)參與來(lái)形成共識(shí),監(jiān)督LMM的開(kāi)發(fā)和部署過(guò)程。
3. 3 改革醫(yī)療大模型侵權(quán)事故中的責(zé)任承擔(dān)制度
《指南》建言政府應(yīng)建立一個(gè)責(zé)任機(jī)制,涵蓋大型多模態(tài)模型(LMMs)及其應(yīng)用的開(kāi)發(fā)、提供和部署的整個(gè)價(jià)值鏈,確保受害者能夠索賠。對(duì)于醫(yī)療大模型侵權(quán)責(zé)任承擔(dān)的問(wèn)題,學(xué)術(shù)界一直存在“客體論”與“主體論”的爭(zhēng)議。隨著對(duì)人工智能認(rèn)識(shí)的不斷加深,考慮到主體論存在不可忽視的巨大缺陷,明確人工智能產(chǎn)品的客體屬性,要求生產(chǎn)者為人工智能系統(tǒng)侵權(quán)承擔(dān)產(chǎn)品責(zé)任、使用者為機(jī)器人侵權(quán)承擔(dān)過(guò)錯(cuò)責(zé)任,適應(yīng)人工智能時(shí)代對(duì)法律制度帶來(lái)的沖擊。
大模型智能醫(yī)療的誕生并未消除醫(yī)療產(chǎn)品責(zé)任的適用空間,但需要對(duì)現(xiàn)有的產(chǎn)品責(zé)任制度進(jìn)行相應(yīng)的改革和完善。歐盟新修訂的《產(chǎn)品責(zé)任指令》已經(jīng)明確將人工智能產(chǎn)品納入適用范圍。這一趨勢(shì)為中國(guó)在醫(yī)療大模型侵權(quán)制度的完善提供了啟示:通過(guò)對(duì)現(xiàn)有產(chǎn)品責(zé)任制度進(jìn)行修訂,深入剖析不同場(chǎng)景下的責(zé)任主體、完善AI大模型侵權(quán)構(gòu)成要件如損害賠償范圍、產(chǎn)品缺陷以及因果關(guān)系的認(rèn)定,使其適應(yīng)數(shù)字世界的新要求是一種可以考慮的方向。
將醫(yī)療LMM侵權(quán)事故責(zé)任納入產(chǎn)品責(zé)任規(guī)制范圍,除了需要對(duì)“產(chǎn)品”作擴(kuò)大解釋外,還需要對(duì)AI領(lǐng)域的產(chǎn)品責(zé)任制度進(jìn)行改造。首先,討論人工智能系統(tǒng)的產(chǎn)品責(zé)任,關(guān)鍵是界定人工智能系統(tǒng)的生產(chǎn)者,明晰AI產(chǎn)品整個(gè)生命周期中不同的責(zé)任主體所扮演的角色;其次,LMM系統(tǒng)缺陷的概念需要得到明確,在AI語(yǔ)境下如何評(píng)估AI系統(tǒng)是否能按預(yù)期安全有效地運(yùn)行,包括但不限于算法偏差、數(shù)據(jù)質(zhì)量問(wèn)題、安全漏洞等;再次,擴(kuò)大人工智能產(chǎn)品損害的賠償范圍也有必要,可以考慮將醫(yī)療數(shù)據(jù)損失、患者精神損害等納入可賠償損害的范圍;最后,通過(guò)建立信息披露和提供要求破解醫(yī)療大模型的算法黑箱,并輔以推定等減輕舉證責(zé)任的規(guī)則,在缺陷、因果關(guān)系認(rèn)定等方面適當(dāng)將天平向弱勢(shì)的被侵權(quán)人傾斜。
而LMM使用者承擔(dān)過(guò)錯(cuò)責(zé)任更符合法理。在人工智能系統(tǒng)的使用中,過(guò)錯(cuò)責(zé)任原則要求證明使用者在操作人工智能系統(tǒng)時(shí)的不當(dāng)行為或疏忽導(dǎo)致了損害。這一點(diǎn)對(duì)于自主學(xué)習(xí)和高度自主的人工智能系統(tǒng)尤為復(fù)雜,因?yàn)樗鼈兊男袨榭赡艹鍪褂谜叩闹苯涌刂?。因此,?duì)于那些已經(jīng)盡到所有合理注意義務(wù)的使用者,應(yīng)限制其責(zé)任,僅在使用者存在過(guò)錯(cuò)的情況下,由使用者承擔(dān)侵權(quán)責(zé)任。如果損害是由于人工智能系統(tǒng)內(nèi)在缺陷或不可預(yù)見(jiàn)的機(jī)器學(xué)習(xí)行為引起的,而使用者已經(jīng)遵循所有操作規(guī)范和制造商指南,則無(wú)須承擔(dān)責(zé)任。未來(lái)在醫(yī)療場(chǎng)景中,LMM的使用者承擔(dān)過(guò)錯(cuò)責(zé)任中的一個(gè)核心考量是如何界定LMM使用者的注意義務(wù),隨著LMM介入醫(yī)療領(lǐng)域且有望改善醫(yī)療活動(dòng)的準(zhǔn)確性、可靠性,醫(yī)護(hù)人員的注意義務(wù)可能發(fā)生改變,未來(lái)有必要通過(guò)規(guī)定先行義務(wù)來(lái)將注意義務(wù)規(guī)范化以便于判斷責(zé)任方;同時(shí),根據(jù)LMM在醫(yī)療領(lǐng)域中的發(fā)展應(yīng)用水平對(duì)醫(yī)護(hù)人員的注意義務(wù)進(jìn)行相應(yīng)調(diào)整,例如在一些情況下不依賴LMM的診斷結(jié)果可能被視為具有過(guò)錯(cuò)。這樣既能激勵(lì)在醫(yī)療活動(dòng)中積極引入LMM應(yīng)用,又能確保對(duì)醫(yī)療活動(dòng)的受害人進(jìn)行有效的救濟(jì)。
4 結(jié)語(yǔ)
醫(yī)療人工智能已步入一個(gè)全新的大模型時(shí)代,虛假信息的泛濫、“情感操縱”的隱患、算法偏見(jiàn)的固有風(fēng)險(xiǎn)以及侵權(quán)責(zé)任界定的模糊性,都是我們必須直面并亟待解決的核心問(wèn)題。面對(duì)這些挑戰(zhàn),我們應(yīng)從多維度出發(fā),確保人工智能在全生命周期內(nèi)的安全性,將倫理考量深度嵌入AI的設(shè)計(jì)與應(yīng)用之中,明確醫(yī)療大模型的產(chǎn)品責(zé)任規(guī)則,構(gòu)建全面的應(yīng)對(duì)策略。尤其是,AI價(jià)值對(duì)齊在解決大模型的安全和信任問(wèn)題上扮演著重要角色,能夠?qū)崿F(xiàn)安全與創(chuàng)新的有效平衡,需鼓勵(lì)、支持大模型價(jià)值對(duì)齊的技術(shù)和管理措施,推動(dòng)形成相關(guān)的政策指南、行業(yè)標(biāo)準(zhǔn)、技術(shù)規(guī)范等。展望未來(lái),相信通過(guò)跨學(xué)科、跨領(lǐng)域的合作與創(chuàng)新,我們能夠有效應(yīng)對(duì)醫(yī)療人工智能發(fā)展過(guò)程中的各種挑戰(zhàn),共同推進(jìn)其安全與有效應(yīng)用,開(kāi)啟醫(yī)療健康的新紀(jì)元。
〔參考文獻(xiàn)〕
[1]曹建峰.邁向可信AI:ChatGPT類生成式人工智能的治理挑戰(zhàn)及應(yīng)對(duì)[J].上海政法學(xué)院學(xué)報(bào)(法治論叢),2023,38(4):28-42. CAO J F. Towards trustworthy AI: the gover‐nance challenges and responses for generative AI like ChatGPT[J].Journal of Shanghai University of Political Science and Law,2023,38(4):28-42.
[2]王玥,宋雅鑫,王藝霏,等.衛(wèi)生領(lǐng)域人工智能的倫理與治理:多模態(tài)大模型指南[J/OL].中國(guó)醫(yī)學(xué)倫理學(xué):1-58[2024-03-06].http://kns.cnki.net/ kcms/detail/61.1203.R.20240304.1833.002.html. WANG Y,SONG Y X,WANG Y X,et al. Eth‐ics and governance of artificial intelligence for health[J]. Chinese Medical Ethics:1-58[2024-03-06].http://kns.cnki.net/kcms/detail/61.1203.R. 20240304.1833.002.html.
[3]WHO. Ethics and governance of artificial intelli‐gence for health: guidance on large multimodalmodels[EB/OL].(2024-01-18)[2024-05-21]. https://www. who. int/publications/i/item/ 9789240084759.
[4]Med-PaLM: a medical large language model -google research[EB/OL]. [2024-05-21]. https:// sites.research.google/med-palm/.
[5]AYERS J W, POLIAK A, DREDZE M, et al. Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum[J]. JAMA Internal Medicine, 2023,183(6):589-596.
[6]PETER L,CAREY G,ISAAC K.The AI revo‐lution in medicine:GPT-4 and beyond[M].Lon‐don:Pearson,2023.
[7]ANDREJ K. Intro to large language models - YouTube[EB/OL]. (2023-11-23)[2024-05-11].https://www.youtube.com/watch?v=zjk‐BMFhNj_g.
[8]CUTHBERTSON A. ChatGPT successor tricks worker into thinking it’s human[EB/OL].(2023-03-15)[2024-05-16]. https://www.inde‐pendent.co.uk/tech/chatgpt-gpt4-ai-openai-b230 1523.html.
[9]TIMES T B. Belgian man dies by suicide fol‐lowing exchanges with chatbot[EB/OL].(2023-03-28)[2024-06-04].https://www.brus‐selstimes.com/430098/belgian-man-commitssuicide-following-exchanges-with-chatgpt.
[10]曹建峰.邁向負(fù)責(zé)任AI:中國(guó)AI治理趨勢(shì)與展望[J].上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023,52(4):5-15. CAO J F. Towards responsible AI:trends and outlook for AI governance in China[J].Journal of Shanghai Normal University(Philosophy and So‐cial Sciences Edition),2023,52(4):5-15.