〔摘要〕2024年,世界衛(wèi)生組織發(fā)布了“Ethics and governance of artificial intelligence for health. Guidance on large multi-modal models”,將其翻譯成中文《衛(wèi)生領(lǐng)域人工智能的倫理與治理:多模態(tài)大模型指南》供中國的同仁參閱,協(xié)助規(guī)劃與衛(wèi)生領(lǐng)域多模態(tài)大模型有關(guān)的益處和挑戰(zhàn),并為適當開發(fā)、提供和使用多模態(tài)大模型提供政策和實踐方面的指導(dǎo)。世界衛(wèi)生組織咨詢了20位人工智能領(lǐng)域的頂尖專家,他們確定了在衛(wèi)生領(lǐng)域使用人工智能的潛在益處和潛在風(fēng)險,并發(fā)布了以協(xié)商方式達成一致的六項原則,供正在使用人工智能的政府、開發(fā)者和提供者在制定政策和實踐時考慮。指南提供了與指導(dǎo)原則相一致的企業(yè)內(nèi)部、政府和國際合作的治理建議,指南的基礎(chǔ)是考慮到人類使用衛(wèi)生領(lǐng)域生成式人工智能獨特方式的指導(dǎo)原則和治理建議。生成式人工智能是算法在可用于生成新內(nèi)容的數(shù)據(jù)集上進行訓(xùn)練的一種人工智能技術(shù)。指南針對其中一種類型的生成式人工智能,即多模態(tài)大模型,這種模型可以接受一種或多種類型的數(shù)據(jù)輸入,并產(chǎn)生不局限于輸入算法的數(shù)據(jù)類型的多種輸出。據(jù)預(yù)測,多模態(tài)大模型將廣泛應(yīng)用于醫(yī)療保健、科學(xué)研究、公共衛(wèi)生和藥物開發(fā)等領(lǐng)域。多模態(tài)大模型也被稱為“通用基礎(chǔ)模型”,盡管尚未證實多模態(tài)大模型能否完成各種任務(wù)和目的。
〔關(guān)鍵詞〕衛(wèi)生領(lǐng)域人工智能;多模態(tài)大模型;通用基礎(chǔ)模型;倫理與治理
〔中圖分類號〕R-052 〔文獻標志碼〕E 〔文章編號〕1001-8565(2024)09-1001-22
DOI: 10. 12026/j. issn. 1001-8565. 2024. 09. 01
Ethics and governance of artificial intelligence for health: guidance on large multi-modal models
WANG Yue1, SONG Yaxin1, WANG Yifei1,Translate. YU Lian2, WANG Jing3, Translate review.
(1. School of Law, Xi’an Jiaotong University, Xi’an 710049, China;2. School of Public Health, Xi’an Jiaotong University, Xi’an 710061, China;3. Beijing Hospital of Traditional Chinese Medicine, Capital Medical University, Beijing 100010, China)
Abstract: In 2024, the World Health Organization( WHO) released“ Ethics and governance of artificial intelligence for health. Guidance on large multi-modal models”, which was translated into Chinese for Chinese readers to read and think about, assist in planning the benefits and challenges related to large multimodal models for health, as well as provide guidance on policy and practice for the appropriate development,provision, and use of large multi-modal models. The WHO consulted 20 leading experts in the field of AI, who identified potential benefits and risks of using AI for health, as well as published six principles agreed upon in a consultative manner for governments, developers, and providers using AI to consider when formulating policies and practices. The guidelines provide governance recommendations that are consistent with the guiding principles for internal enterprise, governments, and international cooperations, which are based on the guiding principles and governance recommendations that consider the unique ways in which humans use AI generated content (AIGC) for health. AIGC is an AI technology in which algorithms are trained on data sets that can be used to generate new content. The guidelines target one type of AIGC, namely the large multi-modal models abbreviated as “LMM”, which can accept one or more types of data inputs and generate multiple outputs of data types that are not limited to the input algorithm. It is predicted that LMM will be widely used in various fields,such as healthcare, scientific research, public health, and drug development. LMM are also called “universal base models”, although it has not yet been proven that LMM can complete a variety of tasks and purposes.
Keywords: artificial intelligence for health; large multi-modal models; universal base models; ethics and governance
1 簡介
2024年1月,世界衛(wèi)生組織發(fā)布了《衛(wèi)生領(lǐng)域人工智能的倫理與治理:多模態(tài)大模型指南》(以下稱“本指南”)涉及多模態(tài)大模型在衛(wèi)生領(lǐng)域相關(guān)應(yīng)用中的新興用途。它包括在衛(wèi)生保健與藥品領(lǐng)域使用多模態(tài)大模型的潛在益處和風(fēng)險,以及最能確保遵守倫理、人權(quán)和安全準則和義務(wù)的多模態(tài)大模型治理方法。本指南以世界衛(wèi)生組織2021年6月發(fā)布的指南《衛(wèi)生領(lǐng)域人工智能的倫理與治理》(Ethics and governance of artificial intelligence for health)(以下稱“2021版指南”)為基礎(chǔ)?!?/p>
人工智能指的是集成到系統(tǒng)和工具中的算法從數(shù)據(jù)中學(xué)習(xí)以執(zhí)行自動任務(wù)的能力,每個步驟都無須人工明確編程。生成式人工智能是一種人工智能技術(shù),其中機器學(xué)習(xí)模型用于在數(shù)據(jù)集上訓(xùn)練算法以生成新的輸出,如文本、圖像、視頻和音樂。生成式人工智能模型在訓(xùn)練數(shù)據(jù)的過程中學(xué)習(xí)模式和結(jié)構(gòu),從而根據(jù)所學(xué)模式預(yù)測并生成新數(shù)據(jù)。生成式人工智能模型可以通過人類的反饋進行強化學(xué)習(xí),實現(xiàn)改進,即訓(xùn)練人員對生成式人工智能模型提供的回應(yīng)進行排序,以訓(xùn)練算法給出人類認為價值最大的回應(yīng)。生成式人工智能可應(yīng)用于設(shè)計、內(nèi)容生成、模擬和科學(xué)發(fā)現(xiàn)等各個領(lǐng)域。
大語言模型(large language model)是一種特殊的生成式人工智能,它接收文本類型的輸入并提供同樣類型的文本的回應(yīng),因此備受關(guān)注。大語言模型是大型單模態(tài)模型的典范,也是集成這些模型的聊天機器人早期版本的運行基礎(chǔ)。雖然大語言模型參與了對話,但模型本身并不清楚自己在生成什么。它們只是根據(jù)前面的單詞、學(xué)習(xí)到的模式或單詞組合從而對下一個單詞進行預(yù)測。
本指南探討了多模態(tài)大模型(包括大語言模型)日益廣泛的用途,這些模型在衛(wèi)生保健與藥品領(lǐng)域的應(yīng)用是通過高度多樣化的數(shù)據(jù)集進行訓(xùn)練的,這些數(shù)據(jù)集不僅包括文本,還包括生物傳感器、基因組、表觀基因組、蛋白質(zhì)組、成像、臨床、社會和環(huán)境數(shù)據(jù)。因此,多模態(tài)大模型可以接受多種類型的輸入,并產(chǎn)生不局限于輸入數(shù)據(jù)類型的輸出。多模態(tài)大模型可廣泛應(yīng)用于醫(yī)療保健和藥物開發(fā)領(lǐng)域。
多模態(tài)大模型與以往的人工智能和機器學(xué)習(xí)不同。雖然人工智能已被廣泛集成到許多消費者應(yīng)用中,但大多數(shù)算法的輸出既不要求也不邀請客戶或用戶參與,除了集成到社交媒體平臺中的人工智能初級形態(tài),這些平臺通過策劃用戶生成的內(nèi)容來吸引眼球。多模態(tài)大模型在不同的數(shù)據(jù)集上經(jīng)過訓(xùn)練,可用于多種任務(wù),包括一些沒有經(jīng)過明確訓(xùn)練的任務(wù)。
多模態(tài)大模型通常有一個便于人機交互的界面和格式,可以模仿人與人之間的交流,從而引導(dǎo)用戶給算法注入類似人類的品質(zhì)。因此,多模態(tài)大模型的使用方式及其生成和提供的回應(yīng)內(nèi)容看似“與人類一樣”,這也是多模態(tài)大模型被公眾空前采用的原因之一。此外,由于它們提供的回應(yīng)似乎具有權(quán)威性,即使多模態(tài)大模型無法保證回應(yīng)的正確性,無法將倫理規(guī)范或道德推理融入其生成的回應(yīng)中,許多用戶也仍然不加批判地將其視為正確的。多模態(tài)大模型已被用于教育、金融、通信和計算機科學(xué)等眾多領(lǐng)域。多模態(tài)大模型可被視為一個或多個行為者在編程和產(chǎn)品開發(fā)方面的一系列(或一連串)決策的產(chǎn)物。在人工智能價值鏈的每個階段作出的決策,都可能對下游參與多模態(tài)大模型開發(fā)、部署和使用產(chǎn)生直接或間接的影響。這些決策可能受到在國家、地區(qū)和全球范圍內(nèi)頒布和執(zhí)行法律政策的政府的影響和監(jiān)管。
人工智能價值鏈通常始于開發(fā)模型的大型科技企業(yè)。開發(fā)者也可以是高校、較小的科技企業(yè)、國家衛(wèi)生系統(tǒng)、公-私聯(lián)合體或其他擁有資源和能力使用若干投入的實體。這些投入組成了“人工智能基礎(chǔ)設(shè)施”,如用來開發(fā)通用基礎(chǔ)模型的數(shù)據(jù)、算力和人工智能專業(yè)技能。這些模型可直接用于執(zhí)行各種通常意想不到的任務(wù),包括與醫(yī)療保健相關(guān)的任務(wù)。有幾種通用基礎(chǔ)模型是專門為衛(wèi)生保健與藥品領(lǐng)域的使用而訓(xùn)練的。
第三方(“提供者”)可以通過主動編程接口,將通用型基礎(chǔ)模型用于特定目的或用途。這包括:①對新的多模態(tài)大模型進行微調(diào),這可能需要對基礎(chǔ)模型進行額外的訓(xùn)練;②將多模態(tài)大模型集成到應(yīng)用程序或更大的軟件系統(tǒng)中,為用戶提供服務(wù);③集成被稱為“插件”的組件,以正規(guī)或規(guī)范格式引導(dǎo)、過濾和組織多模態(tài)大模型,生成“可消化”的結(jié)果。
此后,提供者可向客戶(或“部署者”)出售基于多模態(tài)大模型的產(chǎn)品或服務(wù),如衛(wèi)生部門、醫(yī)療衛(wèi)生系統(tǒng)、醫(yī)院、制藥企業(yè)甚至個人,如醫(yī)療服務(wù)提供者。購買或獲得許可使用產(chǎn)品或應(yīng)用程序的客戶可以直接將其用于患者、醫(yī)療服務(wù)提供者、衛(wèi)生系統(tǒng)的其他實體、非專業(yè)人士或自身業(yè)務(wù)。價值鏈可以是“縱向一體化”的,因此,收集數(shù)據(jù)并訓(xùn)練通用基礎(chǔ)模型的企業(yè)或其他實體(如國家衛(wèi)生系統(tǒng)),可以針對特定用途修改多模態(tài)大模型,并直接向用戶提供應(yīng)用程序。
世界衛(wèi)生組織認識到,人工智能可為醫(yī)療衛(wèi)生系統(tǒng)帶來巨大惠益,包括改善公共衛(wèi)生和實現(xiàn)全民健康覆蓋。然而,正如世界衛(wèi)生組織“2021版指南”所述,人工智能會帶來重大風(fēng)險,既可能損害公共衛(wèi)生,也可能危及個人尊嚴、隱私和人權(quán)。盡管多模態(tài)大模型相對較新,但其被接受和傳播速度已促使世界衛(wèi)生組織提供“2021版指南”,以確保它們有可能在全球范圍內(nèi)獲得成功和可持續(xù)地使用。世界衛(wèi)生組織認識到,在發(fā)布“2021版指南”時,人們對人工智能的潛在益處和風(fēng)險、設(shè)計和使用人工智能應(yīng)適用的倫理原則以及治理和監(jiān)管的方法存在許多相互較量的觀點。由于“2021版指南”是在多模態(tài)大模型首次應(yīng)用于衛(wèi)生領(lǐng)域后不久、在更強大的模型陸續(xù)發(fā)布之前發(fā)布的,世界衛(wèi)生組織將更新“2021版指南”,以適應(yīng)技術(shù)的快速發(fā)展、社會對其使用的處理方式以及在衛(wèi)生保健與藥品領(lǐng)域之外使用多模態(tài)大模型對醫(yī)療健康造成的影響。
1. 1 通用基礎(chǔ)模型(多模態(tài)大模型)的重要性
雖然多模態(tài)大模型相對較新且未經(jīng)測試,但已在包括醫(yī)療和藥品在內(nèi)的各個領(lǐng)域?qū)ι鐣a(chǎn)生了巨大影響。ChatGPT是一種大語言模型,由一家美國科技企業(yè)連續(xù)發(fā)布了多個版本。據(jù)估計,在2023年1月,即推出僅2個月后,該模型的月活躍用戶數(shù)就達到1億人。這使其一時之間成為歷史上增長最快的消費者應(yīng)用程序。
目前,許多企業(yè)都在開發(fā)多模態(tài)大模型或?qū)⒍嗄B(tài)大模型集成到消費者應(yīng)用中,如互聯(lián)網(wǎng)搜索引擎。盡管根據(jù)人類反饋進行了強化學(xué)習(xí),但多模態(tài)大模型生成的內(nèi)容依然不總是具有可預(yù)測性和可控性,可能會在參與“對話”時生成讓用戶感到不舒服,或者生成錯誤但極易令人信服的內(nèi)容。即便如此,對多模態(tài)大模型的支持大多不僅僅是對其功能的熱衷,還包括在未經(jīng)同行評議的出版物中對多模態(tài)大模型性能的無條件的、不加批判的主張。
用于訓(xùn)練多模態(tài)大模型的數(shù)據(jù)集尚未公開,但多模態(tài)大模型已被迅速采用,因此很難或不可能知道這些數(shù)據(jù)是否有偏見,是否合法獲取并符合數(shù)據(jù)保護規(guī)則和原則,以及能夠進行任務(wù)或查詢的執(zhí)行是否反映了它已就相同或類似的問題接受過訓(xùn)練、已獲得解決問題的能力。其他有關(guān)用于訓(xùn)練多模態(tài)大模型數(shù)據(jù)的問題,如是否符合數(shù)據(jù)保護法,將在下文討論。
個人和政府都沒有為發(fā)布多模態(tài)大模型做好準備。個人沒有接受過有效使用多模態(tài)大模型的培訓(xùn)就可能不會明白,即使多模態(tài)大模型聊天機器人給人留下了準確可靠的印象,其回應(yīng)也并不總是準確或可靠的。一項研究發(fā)現(xiàn),大語言模型GPT-3雖然“與人類相比……能生成更容易理解的準確信息”,但也能生成“更有說服力的虛假信息”,而且人類無法區(qū)分出多模態(tài)大模型生成的內(nèi)容和人類生成的內(nèi)容。
各國政府也基本上沒有做好準備。為治理人工智能的使用而制定的法律法規(guī)可能無法應(yīng)對與多模態(tài)大模型相關(guān)的挑戰(zhàn)或機遇。歐盟已就頒布一項全歐盟范圍適用的《人工智能法案》達成協(xié)議,但考慮到多模態(tài)大模型,不得不在起草的最后階段修改其立法框架。其他國家的政府也在迅速制定新的法律或法規(guī),或頒布臨時禁令(其中一些已被撤銷)。預(yù)計未來幾個月內(nèi),各企業(yè)將陸續(xù)推出功能和性能更強大的多模態(tài)大模型,這可能會帶來新的益處,但也會帶來新的監(jiān)管挑戰(zhàn)。在這種動態(tài)環(huán)境中,本指南以包括倫理指南在內(nèi)的以往指南為基礎(chǔ),為在衛(wèi)生保健與藥品領(lǐng)域使用多模態(tài)大模型提出了意見和建議。
1. 2 世界衛(wèi)生組織關(guān)于衛(wèi)生領(lǐng)域人工智能的倫理與治理的指南
世界衛(wèi)生組織關(guān)于衛(wèi)生領(lǐng)域人工智能的倫理和治理的第1版指南審查了機器學(xué)習(xí)的各種方法和衛(wèi)生領(lǐng)域人工智能的各種應(yīng)用,但沒有具體審查生成式人工智能或多模態(tài)大模型。在制定2021版指南期間以及在2021年發(fā)布時,沒有證據(jù)表明生成式人工智能和多模態(tài)大模型將很快得到廣泛應(yīng)用,并應(yīng)用于臨床護理、醫(yī)療研究和公共衛(wèi)生領(lǐng)域。
然而,2021版指南提出的基本倫理挑戰(zhàn)、核心倫理原則和建議,包括保護人類的自主性,增進人類福祉、安全和公共利益,確保透明、可以解釋和可以理解,培養(yǎng)責(zé)任感和實行問責(zé)制,確保包容性和公平,推廣反應(yīng)迅速且可持續(xù)的人工智能。對于評估和有效、安全地使用多模態(tài)大模型仍然具有現(xiàn)實意義,盡管在這一新技術(shù)方面已經(jīng)出現(xiàn)并將繼續(xù)出現(xiàn)更多的治理空白和挑戰(zhàn)。這些挑戰(zhàn)、原則和建議也是本指南中專家組對多模態(tài)大模型采取方法的基礎(chǔ)。
2 衛(wèi)生領(lǐng)域通用基礎(chǔ)模型(多模態(tài)大模型)的應(yīng)用和挑戰(zhàn)
衛(wèi)生領(lǐng)域人工智能的應(yīng)用包括診斷、臨床護理、研究、藥物開發(fā)、醫(yī)療管理、公共衛(wèi)生和監(jiān)測。多模態(tài)大模型的許多應(yīng)用并不是人工智能的新用途;然而,臨床醫(yī)生、患者、非專業(yè)人士以及醫(yī)療保健專業(yè)人員接入和使用多模態(tài)大模型的方式各不相同。本章將討論多模態(tài)大模型在衛(wèi)生領(lǐng)域的潛在應(yīng)用以及與使用多模態(tài)大模型相關(guān)的實際和預(yù)期挑戰(zhàn)與風(fēng)險。許多應(yīng)用和用途仍未得到證實,最終可能無法帶來如同宣傳效果的益處。
2. 1 診斷和臨床保健
人工智能已被用于診斷和臨床保健,如在放射學(xué)和醫(yī)學(xué)成像、結(jié)核病和腫瘤學(xué)等領(lǐng)域的輔助診斷。人們希望臨床醫(yī)生能在會診期間利用人工智能整合患者記錄、識別高?;颊摺椭鞒龈唠y度的治療診斷,并發(fā)現(xiàn)臨床錯誤。多模態(tài)大模型可以將基于人工智能的系統(tǒng)擴展到整個診斷和臨床保健過程中,包括線上會診和面對面會診,個別專家預(yù)計多模態(tài)大模型“對醫(yī)生的重要性將超過以前的聽診器”。
診斷被認為是一個特別有前景的領(lǐng)域,因為多模態(tài)大模型可用于識別復(fù)雜病例中的罕見診斷或“異常表現(xiàn)”。醫(yī)生已經(jīng)在使用互聯(lián)網(wǎng)搜索引擎、在線資源和鑒別診斷生成器。多模態(tài)大模型將成為又一診斷工具。多模態(tài)大模型還可用于常規(guī)診斷,為醫(yī)生提供額外的意見,以確保不忽視明顯的診斷。所有這些都可以快速完成,因為多模態(tài)大模型可以比醫(yī)生更快地掃描患者的全部病歷。
不過,目前在試點項目中用于支持臨床醫(yī)生的幾種流行的多模態(tài)大模型并沒有接受過電子病歷或醫(yī)療及其他相關(guān)健康數(shù)據(jù)方面的專門訓(xùn)練,盡管它們的數(shù)據(jù)集確實包括這些信息。在回答在線論壇上提出的問題時,由ChatGPT驅(qū)動的聊天機器人比合格的醫(yī)生表現(xiàn)得更好。在所選的195個問題中,近80%的情況下,獨立評估人員更喜歡聊天機器人的回答,而不是醫(yī)生的回答。聊天機器人還可以幫助回答標準化的“非正式醫(yī)療咨詢”問題,并在患者初次就診時提供信息和回應(yīng),或總結(jié)實驗室檢驗結(jié)果。
企業(yè)和高校也在開發(fā)使用醫(yī)療和健康數(shù)據(jù)或電子病歷訓(xùn)練的多模態(tài)大模型,其中包括基于小型數(shù)據(jù)集的多模態(tài)大模型。例如,有一個多模態(tài)大模型是在大約3萬份病例報告的數(shù)據(jù)集上進行訓(xùn)練的,目的是學(xué)習(xí)醫(yī)療狀況和癥狀之間的關(guān)系,以輔助診斷。另一個多模態(tài)大模型是在一個包含10萬多張胸部X光片的數(shù)據(jù)集上進行訓(xùn)練的,目的是識別異常情況,并最終提供見解或識別病情。一些已經(jīng)公開評估過的多模態(tài)大模型是在數(shù)百萬份電子病歷和其他來源的專業(yè)和一般醫(yī)學(xué)知識基礎(chǔ)上用算法訓(xùn)練出來的。這種方法提高了算法處理不同形式的書面醫(yī)療信息并給出回應(yīng)(“醫(yī)療問題解答”)的能力。
幾家大型科技企業(yè)正在將其通用多模態(tài)大模型調(diào)整為可輔助臨床診斷和護理的多模態(tài)大模型。其中一家科技企業(yè)正在開發(fā)Med-PaLM2,該系統(tǒng)旨在從醫(yī)學(xué)文本中回答問題和總結(jié)見解,目前,它正在往合成圖像(如X光片和乳房X光片)、撰寫報告并回答后續(xù)問題的方向不斷發(fā)展,以方便臨床醫(yī)生進行更多查詢,這一功能可減輕醫(yī)療保健專業(yè)人員與計算機之間的“同行分歧”。
人類的長期愿景是開發(fā)“通用醫(yī)學(xué)人工智能”,使醫(yī)療保健專業(yè)人員能夠與多模態(tài)大模型靈活對話,根據(jù)定制的、臨床醫(yī)生驅(qū)動的查詢生成回應(yīng)。因此,用戶可以用日常語言描述所需的內(nèi)容,讓通用醫(yī)學(xué)人工智能模型適應(yīng)新任務(wù),而無需重新訓(xùn)練多模態(tài)大模型或訓(xùn)練多模態(tài)大模型接受不同類型的非結(jié)構(gòu)化數(shù)據(jù)來生成回應(yīng)。
多模態(tài)大模型在臨床治療中大有可為的同時,也存在著重大的風(fēng)險,其中一些風(fēng)險早在多模態(tài)大模型出現(xiàn)之前就已存在。在診斷和臨床保健中使用多模態(tài)大模型有以下五大風(fēng)險:
①不準確、不完整、有偏見或錯誤的回應(yīng):關(guān)于多模態(tài)大模型的一個擔憂是,聊天機器人容易根據(jù)多模態(tài)大模型“發(fā)明”的數(shù)據(jù)或信息(如參考文獻)作出不正確或完全錯誤的回答,以及因重復(fù)訓(xùn)練數(shù)據(jù)中編碼的缺陷而作出有偏見的回答。多模態(tài)大模型還可能造成場景偏差(contextual bias),在偏差出現(xiàn)的情況下,對人工智能使用場景的預(yù)設(shè)會導(dǎo)致其給出針對其他場景的建議。
虛假反應(yīng),俗稱“幻覺”,與多模態(tài)大模型生成的事實準確反應(yīng)無法區(qū)分,因為即使是通過人類反饋進行強化學(xué)習(xí)的多模態(tài)大模型,其訓(xùn)練目的也不是生成事實,而是產(chǎn)生看似事實的信息。一項研究發(fā)現(xiàn),大語言模型在根據(jù)一組簡單的事實進行總結(jié)時,有3%到27%的情況下會產(chǎn)生幻覺。目前,多模態(tài)大模型還依賴于與其有效溝通的人類“提示工程”。因此,即使多模態(tài)大模型經(jīng)過專門的醫(yī)療數(shù)據(jù)和健康信息訓(xùn)練,也不一定能作出正確的反應(yīng)。對于某些基于多模態(tài)大模型的診斷,可能沒有確證測試或其他方法來驗證其準確性。
②數(shù)據(jù)質(zhì)量和數(shù)據(jù)偏見:目前可供公眾使用的許多多模態(tài)大模型都是在互聯(lián)網(wǎng)等大型數(shù)據(jù)集上訓(xùn)練出來的,這些數(shù)據(jù)集可能充斥著錯誤信息和偏見。大多數(shù)醫(yī)療和健康數(shù)據(jù)也存在偏見,無論是種族、民族、血統(tǒng)、性別、性別認同還是年齡。由于大多數(shù)數(shù)據(jù)都是從高收入地區(qū)收集的,因此根據(jù)健康數(shù)據(jù)訓(xùn)練的多模態(tài)大模型通常會對這些偏見進行編碼。
③自動化偏見:在自動化偏見中,臨床醫(yī)生可能會忽略本可以由人工發(fā)現(xiàn)的錯誤。還有人擔心,醫(yī)生和醫(yī)療保健專業(yè)人員可能會利用多模態(tài)大模型做出與倫理或道德考慮相悖的決定。在醫(yī)生無法做出困難的判斷或決定的時候,使用多模態(tài)大模型進行道德判斷可能會導(dǎo)致“道德失能”。
④技能退化:臨床醫(yī)生作為醫(yī)療專業(yè)人士的能力會下降或削弱,因為他們越來越多地將日常責(zé)任和職責(zé)轉(zhuǎn)移給計算機。能力的喪失可能導(dǎo)致醫(yī)生無法自信地推翻或質(zhì)疑算法的決定,或者在網(wǎng)絡(luò)故障或安全漏洞的情況下,醫(yī)生將無法完成某些醫(yī)療任務(wù)和程序。
⑤知情同意:如果多模態(tài)大模型和其他形式的人工智能被納入常規(guī)醫(yī)療實踐,患者或其護理人員即使不滿或不愿意完全或部分地依賴人工智能技術(shù),也可能無法撤回使用該技術(shù)的同意,尤其是在其他選擇(非基于人工智能的選擇)不容易獲得的情況下,或在將責(zé)任移交給計算機的臨床醫(yī)生不使用AI就無法提供醫(yī)療服務(wù)的情況下。
2. 2 以患者為中心的應(yīng)用
人工智能正開始改變患者管理自身病情的方式?;颊咭呀?jīng)在很大程度上承擔起了自我護理的責(zé)任,包括服藥、改善營養(yǎng)和飲食、參加體育鍛煉、護理傷口或注射。據(jù)預(yù)測,人工智能工具將通過使用聊天機器人、健康監(jiān)測和風(fēng)險預(yù)測工具以及專為殘障人士設(shè)計的系統(tǒng)等方式,提高自我護理水平。
多模態(tài)大模型可能會加快患者和非專業(yè)人士將人工智能用于醫(yī)療目的的趨勢。二十年來,人們一直使用互聯(lián)網(wǎng)搜索來獲取醫(yī)療信息。因此,在向患者和非專業(yè)人士提供信息方面,大語言模型可以發(fā)揮核心作用,包括將其整合到互聯(lián)網(wǎng)搜索中。由大語言模型驅(qū)動的聊天機器人可以在搜索信息方面取代搜索引擎,包括有關(guān)自我診斷和就醫(yī)之前的搜索。
以患者為中心的多模態(tài)大模型的第三種應(yīng)用是識別臨床試驗或此類試驗的招募信息。基于人工智能的程序已經(jīng)可以幫助患者匹配臨床試驗研究人員,多模態(tài)大模型則可以根據(jù)患者的相關(guān)醫(yī)療數(shù)據(jù)以同樣的方式進行匹配。使用人工智能既能降低招募成本,又能提高速度和效率,同時還能讓個人有更多機會尋求難以通過其他渠道識別和獲取的試驗和治療。
關(guān)于兒童使用多模態(tài)大模型的倫理考慮,雖然最近發(fā)布了在人工智能和機器學(xué)習(xí)中安全、合乎倫理地使用兒科數(shù)據(jù)的廣泛指南,但必須特別考慮到兒童使用多模態(tài)大模型的潛在影響。
開放式多模態(tài)大模型的廣泛使用為不同年齡段的用戶提供了機會。然而,關(guān)于兒童接觸或使用多模態(tài)大模型的信息卻很有限。雖然在更廣泛的教育背景下,人們討論了使用多模態(tài)大模型的潛在機會和弊端,但目前還不清楚使用多模態(tài)大模型會如何影響兒童的心理或身體健康。必須對兒童使用多模態(tài)大模型的情況進行長期監(jiān)測,以了解其益處和潛在危害。
各國關(guān)于兒科同意、允準和對父母合法參與的規(guī)定的法律和政策各不相同。因此,缺乏連貫、統(tǒng)一、全球性和對兒童的專門監(jiān)管和監(jiān)督,可能會造成不明的、無人監(jiān)控的傷害,尤其是使用多模態(tài)大模型造成的傷害。
具體來說,目前還不清楚多模態(tài)大模型能夠多么準確地概括兒科健康狀況。研究表明,成人數(shù)據(jù)集對兒科人群的通用性可能有限。因此,兒科數(shù)據(jù)應(yīng)在測試和訓(xùn)練數(shù)據(jù)集中獨立出來。
開發(fā)者應(yīng)在訓(xùn)練數(shù)據(jù)中提供包括年齡在內(nèi)的人口統(tǒng)計信息,必須鼓勵開發(fā)者提供目標人群的明確描述,如年齡范圍,以便與多模態(tài)大模型進行適當、安全的接觸。在法律允許的情況下,應(yīng)通過納入年輕用戶的適當參與和反饋來改進多模態(tài)大模型。
個人隨意使用多模態(tài)大模型可能意味著巨大的風(fēng)險,如下文所列:
①不準確、不完整或虛假陳述:與臨床醫(yī)生和醫(yī)護專業(yè)人員使用多模態(tài)大模型的情況一樣,患者和非專業(yè)人士在使用多模態(tài)大模型時也有可能出現(xiàn)虛假、有偏見、不完整或不準確的陳述,包括聲稱提供醫(yī)療信息的人工智能程序的陳述。
②操縱:機器人可以提供對問題的解答或參與對話,以說服個人采取違背自身利益或福祉的行動。一些專家呼吁采取緊急行動,控制聊天機器人可能帶來的負面影響,并指出聊天機器人可能進行“情感操縱”。
③隱私:多模態(tài)大模型與多模態(tài)大模型的其他用戶共享信息是一個與此相關(guān)的問題,無論是因為其他用戶明確要求多模態(tài)大模型披露此類信息還是多模態(tài)大模型錯誤地披露了其他人的聊天記錄(即使不是聊天內(nèi)容)。因此,如果一個人的可識別醫(yī)療信息被輸入多模態(tài)大模型,就有可能被披露給第三方。
④減少臨床醫(yī)生、非專業(yè)人員和患者之間的互動:患者或其護理人員使用多模態(tài)大模型可能會從根本上改變醫(yī)患關(guān)系?;颊呋蜃o理人員可能會決定完全依賴多模態(tài)大模型進行病情預(yù)測和治療,從而減少或消除對專業(yè)醫(yī)療判斷和支持的恰當依賴。一般來說,人們擔心人工智能會使臨床護理“去人性化”。
⑤認知上的不公正:用多模態(tài)大模型的判斷取代醫(yī)療服務(wù)提供者的判斷的另一個潛在后果是給患者帶來認知上的不公正?!罢J知上的不公正”是指“針對一些人作為知識主體的能力狀況作出錯誤對待”。認知上的不公正的一種形式是解釋學(xué)不正義,它發(fā)生在共同理解和知識存在差距的情況下,這種差距使一些人在生活經(jīng)驗、社會經(jīng)驗、衛(wèi)生領(lǐng)域以及他們對自己身體或精神狀況的理解方面處于不利地位。對于數(shù)據(jù)集中已經(jīng)被忽視和代表性不足的弱勢群體,如殘障人士,這種情況更加可能發(fā)生。
⑥在衛(wèi)生系統(tǒng)之外提供醫(yī)療服務(wù):因為衛(wèi)生領(lǐng)域人工智能可以很容易地被非衛(wèi)生系統(tǒng)實體接入和使用,或者僅僅由企業(yè)引進,例如那些提供供公眾使用的多模態(tài)大模型的企業(yè)。這就提出了這樣的問題:此類技術(shù)是應(yīng)該作為需要更嚴格的監(jiān)管審查的臨床應(yīng)用來進行監(jiān)管,還是作為需要較少的監(jiān)管審查的“健康應(yīng)用”來予以監(jiān)管。
如果患者在沒有監(jiān)管保障的情況下使用“輕度”監(jiān)管的多模態(tài)大模型,包括使用多模態(tài)大模型提供醫(yī)療建議或進行自我診斷,可能會帶來風(fēng)險。令人擔憂的是,患者可能會收到虛假或誤導(dǎo)性建議,如果個人未與醫(yī)療服務(wù)機構(gòu)取得聯(lián)系,患者安全可能會受到影響,如缺乏對有自殺傾向的個人使用人工智能聊天機器人的支持性護理,即使聊天機器人不具有“操縱性”。即使信息是正確的,沒有受過醫(yī)療培訓(xùn)的人在使用這些信息進行自我診斷時也可能會誤讀或誤用。由于包括多模態(tài)大模型在內(nèi)的此類應(yīng)用正在繼續(xù)擴散,而應(yīng)用未必會標明是醫(yī)療衛(wèi)生應(yīng)用,因此醫(yī)療衛(wèi)生的整體質(zhì)量可能會受到影響。這可能會進一步加劇獲得優(yōu)質(zhì)醫(yī)療服務(wù)的不平等,尤其是缺乏其他選擇的人可能會求助于此類應(yīng)用程序。
2. 3 文書和行政任務(wù)
多模態(tài)大模型開始用于協(xié)助醫(yī)療保健專業(yè)人員處理行醫(yī)過程中的文書、行政和財務(wù)工作。多模態(tài)大模型被認為是將最寶貴的時間返還給醫(yī)療保健專業(yè)人員的一種手段,既可以減少職業(yè)倦怠,也可以分配更多時間為每位患者提供護理服務(wù),或照顧更多的患者。一位使用多模態(tài)大模型編碼軟件記錄患者就診情況的醫(yī)生表示,“人工智能讓我作為一名醫(yī)生能夠100%地為患者服務(wù)”,而且該軟件每天可節(jié)省多達2小時的時間。
多模態(tài)大模型目前和預(yù)期的用途包括:通過簡化醫(yī)學(xué)術(shù)語和使溝通更加“對患者友好”,以幫助翻譯或改善臨床醫(yī)生與患者的溝通;填補電子病歷中缺失的信息;利用其他形式的人工智能,在每次患者就診(線上或親自就診)后起草臨床記錄;多模態(tài)大模型的使用還將包括預(yù)先自動撰寫處方、預(yù)約、賬單代碼、安排檢查時間、保險企業(yè)預(yù)授權(quán)、手術(shù)筆記和出院小結(jié)。隨著更復(fù)雜的多模態(tài)大模型的開發(fā),它們還可用于更復(fù)雜的文書記錄,例如放射科醫(yī)生“自動起草放射報告,既描述異常情況,又描述相關(guān)的正常結(jié)果,同時考慮到患者的病史……這些模型可以通過將文本報告與交互式可視化相結(jié)合的方式,如突顯每個階段所描述的區(qū)域,為臨床醫(yī)生提供進一步的幫助”。
與其他使用多模態(tài)大模型的情況一樣,不準確、錯誤(如轉(zhuǎn)錄、翻譯或提煉)或“幻覺”可能會導(dǎo)致嚴重的錯誤。因此,大多數(shù)文書和行政職能不能完全自動化。即使監(jiān)督和審核需要花費醫(yī)療保健專業(yè)人員的時間,多模態(tài)大模型仍可能減輕現(xiàn)有的負擔。另一個問題是多模態(tài)大模型可能不一致;對提示或問題稍作改動,就會生成完全不同的電子病歷,但隨著時間的推移,不一致的情況預(yù)計會減少。
2. 4 醫(yī)療和護理教育
預(yù)計多模態(tài)大模型還將在醫(yī)療和護理教育中發(fā)揮作用。它們可用于創(chuàng)建“動態(tài)課本”,與一般課本相比,動態(tài)課本可根據(jù)學(xué)生的具體需求和問題量身進行定制。集成到聊天機器人中的多模態(tài)大模型可提供模擬對話,以改善臨床醫(yī)生與患者之間的溝通并解決問題,包括練習(xí)醫(yī)學(xué)問診、診斷推理和解釋治療方案。聊天機器人還可以量身定制,為學(xué)生創(chuàng)造殘障患者或罕見病癥患者等各種虛擬患者。多模態(tài)大模型還可以為醫(yī)學(xué)生提供指導(dǎo),它通過包括生理和生物過程在內(nèi)的“思維鏈”進行推理,從而回答學(xué)生提出的問題。
雖然使用人工智能可以改善或提高醫(yī)療保健專業(yè)人員的培訓(xùn)和技能,但它也可能帶來風(fēng)險,即專業(yè)人員放棄自己(或人類同行)的判斷,轉(zhuǎn)而聽從計算機的判斷。如果多模態(tài)大模型提供不正確的信息或回應(yīng)(或編造回應(yīng)),可能會影響醫(yī)學(xué)教育的質(zhì)量。
另一個令人擔憂的問題是,將多模態(tài)大模型用于教育或簡化行政和文書職能,可能會給尚未掌握數(shù)字知識的醫(yī)療保健專業(yè)人員帶來額外的負擔,他們必須在日常工作中學(xué)習(xí)使用人工智能輔助技術(shù)的新能力。預(yù)計多模態(tài)大模型的新功能需要醫(yī)療保健專業(yè)人員不斷進行再培訓(xùn)和調(diào)整。開發(fā)者最終可能會推出有自然語言或視覺效果的人工智能輔助技術(shù),讓外行人也能輕松地使用交流界面。
2. 5 科學(xué)、醫(yī)學(xué)研究及藥物開發(fā)
人工智能已被用于科學(xué)、臨床研究與藥物開發(fā)。利用人工智能,可以對電子病歷進行分析,以確定臨床實踐模式并開發(fā)新的臨床實踐模型。機器學(xué)習(xí)還可用于基因組醫(yī)學(xué),例如提高對疾病的認識和確定新的生物標志物。
多模態(tài)大模型擴展了人工智能支持科學(xué)、醫(yī)學(xué)研究與藥物開發(fā)的方式。多模態(tài)大模型可用于科學(xué)研究的各個方面。它們可以生成科研論文中的文本,用于提交稿件或撰寫同行評議。它們可用于總結(jié)學(xué)術(shù)論文摘要之類的文本或生成摘要。多模態(tài)大模型還可用于分析和總結(jié)數(shù)據(jù),以便在臨床和科學(xué)研究中獲得新的見解。它們還可用于編輯文本,提高論文和基金申請書等書面文件的語法準確性、可讀性和簡潔性。此外,多模態(tài)大模型還可用于從其所訓(xùn)練的數(shù)據(jù)中獲得洞見。有一種多模態(tài)大模型是通過學(xué)習(xí)數(shù)百萬篇學(xué)術(shù)文章中訓(xùn)練出來的,據(jù)稱可以通過對科學(xué)研究進行分析,從而回答問題、提取信息或生成相關(guān)文本。多模態(tài)大模型也用于藥物研發(fā),特別是用于新藥設(shè)計,以開發(fā)具有特定性質(zhì)的新化合物。
領(lǐng)先的醫(yī)學(xué)和科學(xué)期刊已經(jīng)對多模態(tài)大模型的出現(xiàn)、潛力及其對科學(xué)研究的影響作出了回應(yīng)。例如,一家學(xué)術(shù)出版企業(yè)制定了兩條規(guī)則:①不接受多模態(tài)大模型作為研究論文的署名作者;②使用多模態(tài)大模型的研究人員應(yīng)在方法部分和致謝中記錄其使用情況。世界醫(yī)學(xué)編輯學(xué)會將作者限定為人類。
在科學(xué)研究中使用多模態(tài)大模型的普遍擔憂包括:
①缺乏問責(zé)制:科學(xué)或醫(yī)學(xué)研究論文的作者需要承擔責(zé)任,而人工智能工具無法承擔這種責(zé)任,缺乏問責(zé)制是一家主流學(xué)術(shù)出版商和世界醫(yī)學(xué)編輯學(xué)會決定不接受多模態(tài)大模型作為可署名作者的依據(jù)。
②高收入國家偏見:用于訓(xùn)練多模態(tài)大模型的科學(xué)和醫(yī)學(xué)研究大多在高收入國家進行。因此,任何多模態(tài)大模型的回應(yīng)都可能偏向于高收入國家的觀點。這可能會加強或加劇對于來自低收入和中等收入國家研究成果的忽視和不引用的趨勢,尤其在出版物由非拉丁文字撰寫的情況下。
③幻覺和/或錯誤信息:多模態(tài)大模型可能會總結(jié)或引用不存在的學(xué)術(shù)文章或其他信息而產(chǎn)生“幻覺”。
④破壞信任:使用多模態(tài)大模型開展諸如同行評議等活動可能會破壞對這一過程的信任。
⑤多模態(tài)大模型和多模態(tài)大模型產(chǎn)生的知識的可及性:與科學(xué)和醫(yī)學(xué)研究中使用的其他工具、技術(shù)和信息一樣,多模態(tài)大模型也將“被置于付費專區(qū)”,從而加劇數(shù)字和知識鴻溝,并影響到那些尋求參與科學(xué)和醫(yī)學(xué)研究但缺乏支持和資金的科學(xué)家。
雖然人工智能有利于藥物開發(fā),但在這一領(lǐng)域使用人工智能也令人擔憂,一份即將出版的世界衛(wèi)生組織出版物將對此進行研究。
3 通用基礎(chǔ)模型(多模態(tài)大模型)對衛(wèi)生系統(tǒng)與社會和倫理問題的風(fēng)險
雖然與多模態(tài)大模型相關(guān)的許多風(fēng)險和問題會影響個人用戶(如醫(yī)療保健專業(yè)人員、患者、研究人員或護理人員),但它們也可能構(gòu)成系統(tǒng)性風(fēng)險。與衛(wèi)生領(lǐng)域多模態(tài)大模型和其他基于人工智能的技術(shù)相關(guān)的新出現(xiàn)或預(yù)期風(fēng)險包括:可能影響國家衛(wèi)生系統(tǒng)的風(fēng)險、監(jiān)管和治理風(fēng)險、國際社會關(guān)切。
3. 1 衛(wèi)生系統(tǒng)
醫(yī)療衛(wèi)生系統(tǒng)以六個部分為基礎(chǔ):提供醫(yī)療服務(wù)、醫(yī)療人力資源、醫(yī)療信息系統(tǒng)、獲得基本藥物、財務(wù)以及領(lǐng)導(dǎo)與治理。這六大基石都可能受到多模態(tài)大模型直接或間接的影響。與使用可能影響醫(yī)療衛(wèi)生系統(tǒng)的多模態(tài)大模型相關(guān)的風(fēng)險描述如下:
3. 1. 1 高估多模態(tài)大模型的效益而低估風(fēng)險
有些人傾向于夸大和高估人工智能的作用,這可能會導(dǎo)致尚未經(jīng)過嚴格的安全性和有效性評估的產(chǎn)品和服務(wù)被采用。這在很大程度上是由于“技術(shù)解決主義”的持久吸引力,即在人工智能和多模態(tài)大模型等技術(shù)被證明有用、安全和有效之前,這些技術(shù)就被當成是消除更深層次的社會、結(jié)構(gòu)、經(jīng)濟和體制障礙的“靈丹妙藥”。
多模態(tài)大模型是新穎卻未經(jīng)測試的。消費者、政界和公眾都對多模態(tài)大模型頗感興趣,但這可能會導(dǎo)致政策制定者、醫(yī)療服務(wù)提供者和患者高估其益處,忽視了多模態(tài)大模型可能帶來的挑戰(zhàn)和問題。對于政策制定者來說,在多模態(tài)大模型尚未開發(fā)和使用之前,可能無法獲得確定多模態(tài)大模型使用范圍的必要證據(jù)。使用多模態(tài)大模型的選擇不應(yīng)優(yōu)先于已經(jīng)在使用的基于人工智能的技術(shù),也不應(yīng)優(yōu)先于可能資金不足和使用不足但已被證明具有治療或公共衛(wèi)生益處的非人工智能或非數(shù)字的解決方案。不平衡的醫(yī)療保健政策和誤導(dǎo)性投資,可能會轉(zhuǎn)移對已被證明有效的干預(yù)措施的注意力和資源,并加劇衛(wèi)生部門對于壓縮公共醫(yī)療支出的壓力,尤其不利于資源有限的低收入和中等收入國家。
3. 1. 2 可及性和可負擔性
很多因素都會影響為醫(yī)療服務(wù)提供者和患者帶來益處的多模態(tài)大模型的公平接入。其中之一就是數(shù)字鴻溝,它限制了某些國家、地區(qū)或部分人口使用數(shù)字工具。數(shù)字鴻溝還導(dǎo)致了其他差異,其中許多因素都會影響人工智能的使用,而人工智能本身也會強化和加劇差距。另一個可能影響人們使用多模態(tài)大模型的因素是,不同于互聯(lián)網(wǎng),許多多模態(tài)大模型只有在付費或訂閱后才能使用,因為開發(fā)和運營多模態(tài)大模型可能很昂貴。據(jù)估計,ChatGPT每天的運營成本為70萬美元。相反,所有國家的窮人都只能使用“具有成本效益的解決方案”的多模態(tài)大模型,而只有較富裕的人才能獲得“真正的”醫(yī)療保健專業(yè)人員的服務(wù)。第三個因素是,目前大多數(shù)多模態(tài)大模型只使用英語。因此,雖然它們可以接收輸入并以其他語言提供輸出,但它們更有可能產(chǎn)生虛假信息或錯誤信息。
3. 1. 3 全系統(tǒng)偏見
一般來說,人工智能偏向于數(shù)據(jù)最多的人群,因此,在不平等的社會中,人工智能可能會使少數(shù)群體處于不利地位。多模態(tài)大模型的一個特殊問題在于,偏見可能會隨著模型規(guī)模的擴大而增加,即使正在開發(fā)所謂的較小多模態(tài)大模型,但是用于訓(xùn)練連續(xù)模型的數(shù)據(jù)不斷增加就會導(dǎo)致偏見的增加。
3. 1. 4 對勞動力和就業(yè)的影響
據(jù)一家投資銀行估計,多模態(tài)大模型最終將導(dǎo)致至少3億個工作崗位喪失(或“退化”)。被驗證為安全有效的多模態(tài)大模型可用于縮小提供醫(yī)療服務(wù)所需的勞動力與現(xiàn)有勞動力之間的差距。
另一個值得關(guān)注的問題是,多模態(tài)大模型投入市場對于當前和未來醫(yī)療保健專業(yè)人員數(shù)量的影響。一家大型科技企業(yè)估計,多達80%的工作將受到人工智能到來的影響。咨詢企業(yè)埃森哲預(yù)計,人類40%的工作時間可能會受到多模態(tài)大模型的影響,并樂觀地指出,“對人類創(chuàng)造力和生產(chǎn)力的積極影響將是巨大的”。然而,如上所述,引入多模態(tài)大模型可能會給許多醫(yī)療保健專業(yè)人員帶來重大挑戰(zhàn),他們需要接受培訓(xùn)并適應(yīng)多模態(tài)大模型。衛(wèi)生系統(tǒng)必須考慮到它給醫(yī)療服務(wù)提供者帶來的挑戰(zhàn)以及給患者和護理人員帶來的風(fēng)險。
第三個令人擔憂的問題是,負責(zé)審查內(nèi)容、標注訓(xùn)練數(shù)據(jù)以及從數(shù)據(jù)集中刪除包含辱罵、暴力或精神困擾類內(nèi)容的人員所付出的精神和心理代價。負責(zé)過濾此類內(nèi)容的人員通常在中低收入國家工作,工資很低,可能會因?qū)彶榇祟悆?nèi)容而遭受心理困擾,卻無法獲得咨詢或其他形式的醫(yī)療服務(wù)。
3. 1. 5 醫(yī)療衛(wèi)生系統(tǒng)對不適配多模態(tài)大模型的依賴
雖然多模態(tài)大模型可以解決醫(yī)療保健專業(yè)人員持續(xù)短缺的問題、擴大醫(yī)療衛(wèi)生系統(tǒng)的覆蓋范圍,但也可能導(dǎo)致這些系統(tǒng)可能會過分依賴多模態(tài)大模型,特別是依賴工業(yè)界開發(fā)的多模態(tài)大模型技術(shù)。因此,如果醫(yī)療和公共衛(wèi)生領(lǐng)域的多模態(tài)大模型得不到維護、被減少或僅在高收入環(huán)境中使用而設(shè)計和更新,那么依賴這些多模態(tài)大模型的醫(yī)療衛(wèi)生系統(tǒng)將不得不進行調(diào)整,并有可能需要在沒有多模態(tài)大模型的情況下提供醫(yī)療衛(wèi)生服務(wù)。此時,若醫(yī)療保健專業(yè)人員已經(jīng)“去技能化”,將某些職責(zé)外包給人工智能,或者患者期望使用人工智能,這可能會使得情況十分艱難。相關(guān)的風(fēng)險在于,如果多模態(tài)大模型不能保護患者的隱私和保密性,過度依賴多模態(tài)大模型可能會破壞個人和社會對衛(wèi)生保健系統(tǒng)的信任,因為人們將不再有信心在不危及隱私的情況下獲得醫(yī)療衛(wèi)生服務(wù)。
3. 1. 6 網(wǎng)絡(luò)安全風(fēng)險
隨著衛(wèi)生保健系統(tǒng)越來越依賴人工智能,這些技術(shù)可能成為惡意攻擊和黑客行為的目標,某些系統(tǒng)可能會被關(guān)閉,訓(xùn)練數(shù)據(jù)可能會被操縱以改變其性能和回應(yīng),數(shù)據(jù)也可能會被“綁架”以索取贖金。如上所述,一個獨特的危及安全的風(fēng)險是,敏感數(shù)據(jù)被輸入到不受披露、授權(quán)使用等方法保護的多模態(tài)大模型中。
3. 2 法律與監(jiān)管合規(guī)
雖然可以頒布新的法律來規(guī)范人工智能的使用,但某些現(xiàn)行法律法規(guī),特別是數(shù)據(jù)保護方面的法律和國際人權(quán)義務(wù)也適用于多模態(tài)大模型的開發(fā)、提供和部署。目前已開發(fā)并供公眾使用的某些多模態(tài)大模型可能會違反若干主要的數(shù)據(jù)保護法律,如歐盟的《通用數(shù)據(jù)保護條例》。該條例涵蓋了各種權(quán)利,如免受自動決策影響的權(quán)利。這些權(quán)利、保護和要求必須指導(dǎo)人工智能的發(fā)展。
在歐盟成員國和加拿大等地區(qū),一些此類違規(guī)行為引發(fā)了對多模態(tài)大模型的調(diào)查。違規(guī)行為包括:①多模態(tài)大模型在未征得個人同意的情況下(也沒有收集這些數(shù)據(jù)的“合法權(quán)益”)從互聯(lián)網(wǎng)上收集和使用個人數(shù)據(jù);②未曾告知公眾正在使用他們的數(shù)據(jù),且不能給予用戶糾正錯誤、刪除數(shù)據(jù)(“被遺忘權(quán)”)或拒絕使用這些數(shù)據(jù)的權(quán)利的多模態(tài)大模型;③在使用用戶提供給聊天機器人或其他消費者界面的敏感數(shù)據(jù)時,不夠完全透明的多模態(tài)大模型(盡管法律規(guī)定用戶必須能夠刪除聊天記錄數(shù)據(jù));④沒有適當?shù)摹澳挲g門檻”系統(tǒng)來過濾13歲以下用戶和未獲得父母同意的13至18歲用戶的多模態(tài)大模型;⑤不能防止個人信息泄露的多模態(tài)大模型;⑥部分由于“幻覺”而發(fā)布不準確個人信息的多模態(tài)大模型。如上所述,盡管一些企業(yè)正在研究滿足“可解釋性”要求的方法,但目前還無法解釋多模態(tài)大模型是如何作出決定的。
多模態(tài)大模型有可能永遠無法遵守《通用數(shù)據(jù)保護條例》或其他數(shù)據(jù)保護法律。2023年,一份向某歐盟成員國數(shù)據(jù)保護機構(gòu)提交的投訴稱,一家企業(yè)的大語言模型及其開發(fā)和現(xiàn)在的運行方式系統(tǒng)性地違反了《通用數(shù)據(jù)保護條例》。
許多違反數(shù)據(jù)保護法的行為也可能違反消費者保護法。更廣泛地說,如果這些問題不能得到解決,它們也直接違反了世界衛(wèi)生組織關(guān)于衛(wèi)生領(lǐng)域人工智能的指導(dǎo)原則,包括保護人類的自主性的原則以及確保透明、可以解釋和可以理解的原則。
企業(yè)無法遵守現(xiàn)行法律可能是導(dǎo)致一些企業(yè)對即將出臺的人工智能法規(guī)熱烈關(guān)切的原因。針對歐盟計劃出臺的《人工智能法案》,一家大企業(yè)的負責(zé)人表示,該企業(yè)可能無法在歐洲提供其主要的多模態(tài)大模型產(chǎn)品,因為它可能無法遵守相關(guān)法規(guī)。這一最后通牒可能會導(dǎo)致隱私權(quán)和其他保護措施受到侵蝕,也可能導(dǎo)致醫(yī)療服務(wù)的提供取決于國家是否愿意放棄某些人權(quán)。
3. 3 社會的關(guān)切與風(fēng)險
多模態(tài)大模型可能會加強一小部分在多模態(tài)大模型商業(yè)化方面處于領(lǐng)先地位的科技企業(yè)(及其高管)的權(quán)力和權(quán)威。多模態(tài)大模型還可能對環(huán)境和氣候產(chǎn)生負面影響,因為在訓(xùn)練和使用多模態(tài)大模型的過程中會消耗碳和水。人們還嚴重擔心多模態(tài)大模型可能會增強由技術(shù)推動的性別暴力,包括網(wǎng)絡(luò)欺凌、仇恨言論和未經(jīng)同意使用圖像和視頻,如“深度偽造”。后一種風(fēng)險在本指南中沒有涉及,但值得世界衛(wèi)生組織更廣泛地關(guān)注,因為它對人工智能使用所針對的人群,尤其是未成年與成年女性的健康和福祉具有嚴重的負面影響。
3. 3. 1 與大型科技企業(yè)有關(guān)的挑戰(zhàn)
隨著多模態(tài)大模型參數(shù)和規(guī)模的擴大,多模態(tài)大模型的出現(xiàn)加強了開發(fā)和部署人工智能的少數(shù)大型科技企業(yè)的主導(dǎo)地位和中心地位。很少有企業(yè)和政府擁有足夠的人力和財力、專業(yè)知識、數(shù)據(jù)和算力來開發(fā)日益復(fù)雜的多模態(tài)大模型。多模態(tài)大模型的算力和投資都在增加,而且隨著對人工智能需求的增長,招聘“人工智能人才”的費用也十分昂貴。擁有功能最強大微芯片的多模態(tài)大模型需要多臺計算機連續(xù)工作數(shù)周甚至數(shù)月且數(shù)千個芯片協(xié)同工作,才能完成訓(xùn)練。
隨著多模態(tài)大模型的訓(xùn)練、部署和維護成本不斷上升,少數(shù)企業(yè)有可能會“產(chǎn)業(yè)俘獲”許多產(chǎn)品和服務(wù)(包括衛(wèi)生領(lǐng)域)的潛在組成部分,從而排擠高校(學(xué)術(shù)界)、初創(chuàng)企業(yè)甚至政府。在人工智能研究方面,已經(jīng)有令人信服的證據(jù)表明,最大的企業(yè)正在排擠高校和政府。
大型科技企業(yè)的主導(dǎo)地位不僅決定了人工智能的應(yīng)用和用途,也越來越多地決定了早期研究的優(yōu)先事項。在缺乏替代品和監(jiān)管的情況下(即使2023年頒布法律,也可能需要數(shù)年時間才能全面實施),大型科技企業(yè)如何作出內(nèi)部決策以及如何與社會和政府建立聯(lián)系變得越來越重要。企業(yè)可能會通過例如前沿模型論壇或與高收入國家政府合作以解決各種問題,包括與美國政府作出的幾項自愿承諾和即將與歐盟作出的承諾。
另一個令人擔憂的問題是,企業(yè)可能不會堅持倫理方面的社會責(zé)任。例如,一些大型科技企業(yè)成立倫理團隊的目的是確保人工智能模型的設(shè)計和開發(fā)遵守內(nèi)部倫理原則,通過引入“摩擦”從而要求企業(yè)放緩或停止某些開發(fā)活動,但大型科技企業(yè)往往將倫理團隊擱置或裁撤。裁撤負責(zé)人工智能倫理相關(guān)問題的整個團隊,意味著倫理原則沒有“與產(chǎn)品設(shè)計緊密聯(lián)系在一起”,而是被擱置了。
一些大型科技企業(yè)通過前沿模型論壇,承諾確?!柏撠?zé)任和安全地開發(fā)前沿人工智能模型”,包括多模態(tài)大模型,“確定負責(zé)任地開發(fā)和部署前沿模型的最佳實踐”,并“與政策制定者、學(xué)術(shù)界、民間團體和企業(yè)合作,分享有關(guān)信任和安全風(fēng)險的知識”。在與美國政府的自愿承諾中,科技企業(yè)保證避免有害的偏見和歧視,并保護隱私。不過,自愿承諾或合作伙伴關(guān)系是否足以取代對倫理規(guī)范的有力承諾,目前還不清楚。
大型科技企業(yè)既沒有開發(fā)醫(yī)療產(chǎn)品和服務(wù)的歷史,也不夠?qū)I(yè)。因此,它們可能對醫(yī)療衛(wèi)生保健系統(tǒng)、醫(yī)療服務(wù)提供者和患者的需求不敏感,可能無法解決隱私或質(zhì)量保證等傳統(tǒng)醫(yī)療衛(wèi)生企業(yè)和公共醫(yī)療機構(gòu)所熟悉的問題。隨著時間的推移,它們的敏感性可能會提高,正如其他提供了幾十年醫(yī)療產(chǎn)品和服務(wù)的企業(yè)一樣。
許多正在開發(fā)多模態(tài)大模型的企業(yè)對政府、監(jiān)管機構(gòu)或可能使用其模型的企業(yè)都不公開透明,這些企業(yè)可能需要證據(jù)、數(shù)據(jù)、性能和其他信息,以評估多模態(tài)大模型的風(fēng)險和受益;需要模型中的參數(shù)數(shù)量,以衡量模型有多強大的指標。使用此類模型開發(fā)產(chǎn)品和服務(wù)的企業(yè)也不披露他們評估倫理挑戰(zhàn)和風(fēng)險的方法、所采取的保障措施、多模態(tài)大模型對這些保障措施的反應(yīng)以及應(yīng)限制或停止使用技術(shù)的情況。研究者根據(jù)100項指標對10家領(lǐng)先的大語言模型開發(fā)者的基礎(chǔ)模型透明度指數(shù)進行了評估,發(fā)現(xiàn)“沒有一家主要的基礎(chǔ)模型開發(fā)者提供接近于充分的透明度,這表明人工智能行業(yè)從根本上缺乏透明度”。美國聯(lián)邦政府與幾家大型科技企業(yè)達成的自愿協(xié)議包括兩項透明度承諾。這些企業(yè)承諾:與行業(yè)、政府、民間團體和學(xué)術(shù)界共享風(fēng)險管理信息;公開報告其人工智能系統(tǒng)的能力、局限性以及適配與不適配的領(lǐng)域。雖然這些承諾可能比現(xiàn)狀有所改進,但它們都是自愿且可以自由解釋的,如果沒有具體的監(jiān)管要求,可能無法實現(xiàn)充分披露。
由于內(nèi)部商業(yè)壓力或外部競爭,企業(yè)在充分了解多模態(tài)大模型的功能之前,就急于將新的多模態(tài)大模型盡快推向市場,而無論適當?shù)臏y試、保障措施以及倫理風(fēng)險和關(guān)切是否已經(jīng)確定和解決。一位企業(yè)高管說,“在這個時候擔心那些以后可以解決的問題,絕對是一個致命的錯誤”。在沒有充分識別、驗證、說明和降低風(fēng)險的情況下發(fā)布多模態(tài)大模型的企業(yè)會積累“道德債務(wù)”,其最終后果不是由企業(yè)承擔,而是由那些最容易受到此類技術(shù)負面影響的人承擔。前沿模型論壇的成員致力于“推進人工智能安全研究”和“確定最佳實踐”,且其對美國政府的自愿承諾包括在人工智能系統(tǒng)發(fā)布前對其進行內(nèi)部和外部測試。
商業(yè)壓力不僅可能導(dǎo)致企業(yè)急于將多模態(tài)大模型盡快推向市場,還可能導(dǎo)致企業(yè)為了優(yōu)先考慮可以創(chuàng)收的服務(wù),而取消或放棄對公眾健康有重大益處的產(chǎn)品和服務(wù)。2023年,一家大型科技企業(yè)“砍掉”了開發(fā)ESMFold的團隊,ESMFold是一種蛋白質(zhì)語言模型,可以從單個序列預(yù)測完整的原子級蛋白質(zhì)結(jié)構(gòu),還生成了一個包含6億多個蛋白質(zhì)結(jié)構(gòu)的數(shù)據(jù)庫。人們擔心該企業(yè)可能不愿意“承擔維持數(shù)據(jù)庫運行的成本,以及允許科學(xué)家在新蛋白質(zhì)序列上運行ESM算法的另一項服務(wù)”。
3. 3. 2 多模態(tài)大模型碳足跡和水足跡
多模態(tài)大模型規(guī)模不斷擴大的另一個后果是其對環(huán)境的影響。多模態(tài)大模型需要大量數(shù)據(jù),而訓(xùn)練數(shù)據(jù)需要消耗大量能源。在一家大型企業(yè),訓(xùn)練一個新的多模態(tài)大模型需要耗費大約3.4千兆瓦時(2個月),相當于300個美國家庭的年能耗。雖然有些多模態(tài)大模型是在使用可再生能源或無碳能源的數(shù)據(jù)中心訓(xùn)練的,但大多數(shù)人工智能模型是在使用化石燃料供電的電網(wǎng)中進行訓(xùn)練的。隨著越來越多的企業(yè)引入多模態(tài)大模型,電力消耗將繼續(xù)增加,最終可能對氣候變化產(chǎn)生重大影響。
世界衛(wèi)生組織認為,氣候變化是一項緊迫的全球健康挑戰(zhàn),現(xiàn)在和未來幾十年都需要優(yōu)先采取行動。在2030年至2050年期間,氣候變化預(yù)計將導(dǎo)致因營養(yǎng)不良、瘧疾、腹瀉和熱應(yīng)激死亡的人數(shù)每年增加約25萬。到2030年,直接損害健康的成本估計為每年20億至40億美元。在醫(yī)療基礎(chǔ)設(shè)施薄弱的地區(qū),主要是低收入和中等收入國家,如果沒有做好準備和應(yīng)對援助,其應(yīng)對能力將最差。
多模態(tài)大模型對水的使用也有很大影響。一家大型科技企業(yè)的早期多模態(tài)大模型訓(xùn)練消耗了70萬升淡水,而其他數(shù)據(jù)中心的用水量可能更大。盡管許多開發(fā)者越來越意識到他們的碳足跡,但許多人并沒有意識到他們的水足跡。一個多模態(tài)大模型的簡短對話(20~50個問題和回答)所需的水量約為500毫升。
3. 3. 3 取代人類認識權(quán)威的“危險”算法
與多模態(tài)大模型的出現(xiàn)相關(guān)的一個更普遍的社會風(fēng)險是,多模態(tài)大模型盡管提供的是似是而非的回應(yīng)卻逐漸被視為知識來源,這最終可能會削弱人類知識的權(quán)威,包括在醫(yī)療保健、科學(xué)和醫(yī)學(xué)研究。事實上,多模態(tài)大模型并不產(chǎn)生知識,也不理解自己在“說什么”,在回答問題時也沒有任何道德或場景推理。
即使科技企業(yè)一再警告多模態(tài)大模型的危險,它們?nèi)岳^續(xù)在沒有保障或監(jiān)管的情況下直接向社會發(fā)布多模態(tài)大模型,其方式不僅可能取代人類對知識生產(chǎn)的控制,而且可能削弱人類在醫(yī)療、醫(yī)藥和其他領(lǐng)域安全使用知識的能力,而這些領(lǐng)域正是社會所依賴的系統(tǒng)。然而,這些群體可能會聽從人工智能系統(tǒng)的建議,尤其是在沒有專業(yè)醫(yī)療人員或醫(yī)療服務(wù)提供者對多模態(tài)大模型生成的錯誤或不準確的回應(yīng)進行背景分析或糾正的情況下。
多模態(tài)大模型向公共領(lǐng)域和知識庫釋放越來越多的不完善信息或虛假信息,最終可能導(dǎo)致“模型崩塌”,即根據(jù)不準確或虛假信息訓(xùn)練的多模態(tài)大模型也會污染互聯(lián)網(wǎng)等公共信息來源。為了避免出現(xiàn)這種情況,同時最大限度地發(fā)揮多模態(tài)大模型在醫(yī)療和其他重要社會領(lǐng)域的作用,政府、民間團體和私營部門必須引導(dǎo)這些技術(shù)為共同利益服務(wù)。
4 通用基礎(chǔ)模型(多模態(tài)大模型)的設(shè)計與開發(fā)
通用基礎(chǔ)模型通常需要在大量數(shù)據(jù)基礎(chǔ)上進行訓(xùn)練,需要巨大的算力。多模態(tài)大模型的開發(fā)還需要專門的具有科學(xué)和工程專業(yè)知識的人力資源。世界衛(wèi)生組織2021版指南建議,醫(yī)學(xué)人工智能的開發(fā)者“應(yīng)投資于改善其產(chǎn)品的設(shè)計、監(jiān)督、可靠性和自我監(jiān)管的措施”。
雖然下文的大多數(shù)研究結(jié)果和建議可適用于所有通用基礎(chǔ)模型,但本指南的目的是針對可能或正在用于衛(wèi)生保健與藥品領(lǐng)域(由用戶直接使用或通過應(yīng)用程序或服務(wù)使用)的此類模型。以下建議也旨在指導(dǎo)設(shè)計和使用經(jīng)過專門訓(xùn)練的多模態(tài)大模型,這些多模態(tài)大模型可直接由用戶使用,也可通過應(yīng)用或服務(wù)使用。
4. 1 通用基礎(chǔ)模型(多模態(tài)大模型)開發(fā)過程中需要應(yīng)對的風(fēng)險
通用基礎(chǔ)模型的設(shè)計和開發(fā)可能會帶來嚴重的風(fēng)險,如果不加以糾正,可能會對社會產(chǎn)生廣泛的影響,或?qū)Χ嗄B(tài)大模型的用戶造成特殊的負面后果。消除或降低這些風(fēng)險是開發(fā)者的責(zé)任,因為只有開發(fā)者才能夠(或可以)在設(shè)計和開發(fā)過程中作出某些決定,而這些決定是可能會使用算法的提供者和部署者無法控制的(而且提供者、部署者或用戶也無法通過正確使用技術(shù)來降低這些風(fēng)險)。通用基礎(chǔ)模型的開發(fā)者至少應(yīng)通過政府法律法規(guī)等途徑應(yīng)對八種風(fēng)險:偏見(與設(shè)計和訓(xùn)練數(shù)據(jù)有關(guān)),隱私(訓(xùn)練數(shù)據(jù)和其他輸入數(shù)據(jù)),勞工問題(外包數(shù)據(jù)過濾,刪除攻擊性內(nèi)容),碳足跡和水足跡,虛假信息、仇恨言論或錯誤信息,安全性與網(wǎng)絡(luò)安全,維護人類的認識權(quán)威,對多模態(tài)大模型的獨家控制。
4. 2 開發(fā)者可以采取的應(yīng)對通用基礎(chǔ)模型(多模態(tài)大模型)風(fēng)險的措施
開發(fā)者可以采取許多措施或做法來應(yīng)對這些風(fēng)險,無論是作為對倫理原則或政策的承諾,還是為了滿足政府的要求。
①人工智能專業(yè)技能(科學(xué)和工程人員):開發(fā)者可以確保其科學(xué)和編程人員能夠識別和規(guī)避風(fēng)險。世界衛(wèi)生組織的倫理指南就科學(xué)和工程人員的培訓(xùn)以及設(shè)計過程的包容性提出了若干建議。特別是世界衛(wèi)生組織專家組建議開發(fā)者考慮“對‘高風(fēng)險’人工智能(包括醫(yī)學(xué)人工智能)開發(fā)者的許可或認證要求”。
開發(fā)出應(yīng)用于或可用于醫(yī)療、科學(xué)研究或藥品領(lǐng)域的多模態(tài)大模型的企業(yè)和其他實體,應(yīng)考慮進行認證或培訓(xùn),使其符合醫(yī)療行業(yè)的要求,并提高其產(chǎn)品和服務(wù)的可信度。任何由開發(fā)者或?qū)I(yè)學(xué)會引入和執(zhí)行的標準,都應(yīng)與政府監(jiān)管機構(gòu)合作或由政府監(jiān)管機構(gòu)制定,并應(yīng)符合世界衛(wèi)生組織增進人類福祉、安全和公共利益的倫理原則。
②數(shù)據(jù):盡管人力資源和算力對開發(fā)多模態(tài)大模型至關(guān)重要,數(shù)據(jù)可能才是最關(guān)鍵的基礎(chǔ)設(shè)施要求。用于訓(xùn)練多模態(tài)大模型的數(shù)據(jù)質(zhì)量和類型決定其是否符合核心倫理原則和法律要求雖然人工智能開發(fā)者在定性調(diào)查中一致認為數(shù)據(jù)質(zhì)量“很重要”,需要投入大量時間,但與數(shù)據(jù)相關(guān)的工作往往價值不高,這可能對醫(yī)療和藥品等“高風(fēng)險”領(lǐng)域的人工智能產(chǎn)生重大負面影響。
由于將數(shù)據(jù)用于醫(yī)療保健可能需要嚴格遵守知情同意的法律規(guī)定,因此開發(fā)者在訓(xùn)練醫(yī)療多模態(tài)大模型時,可能不得不依賴較小的數(shù)據(jù)集。較小的數(shù)據(jù)集可能對于確保數(shù)據(jù)的質(zhì)量而言是可取的,其多樣化的數(shù)據(jù)可以避免偏差,也可以反映多模態(tài)大模型服務(wù)對象的構(gòu)成和實際情況。然而,較小的數(shù)據(jù)集可能會增加重新識別個人身份的風(fēng)險,從而使他們現(xiàn)在或?qū)硎艿絺Α?/p>
評估范圍不局限于隱私風(fēng)險的范疇,可包括數(shù)據(jù)質(zhì)量,如數(shù)據(jù)是否公正準確。檢查或?qū)徍舜祟悢?shù)據(jù)集的人工智能研究人員指出,雖然為人工智能創(chuàng)建數(shù)據(jù)集很簡單,但審核卻很困難、耗時且昂貴。一位研究人員指出“做臟活累活工作要難得多”。
開發(fā)者可以采取其他措施來提高數(shù)據(jù)質(zhì)量并遵守數(shù)據(jù)保護法。與早期多模態(tài)大模型的開發(fā)方式不同,無論模型大小如何,開發(fā)者都應(yīng)根據(jù)按照數(shù)據(jù)保護規(guī)則的最佳實踐收集數(shù)據(jù)進而對多模態(tài)大模型進行訓(xùn)練。因此,開發(fā)者應(yīng)避免使用數(shù)據(jù)經(jīng)紀人等第三方來源的數(shù)據(jù),因為他們的數(shù)據(jù)可能是舊的、有偏見的、組合不正確的,或有其他可能尚未糾正的缺陷。謹慎收集數(shù)據(jù)還能確保多模態(tài)大模型不違反版權(quán)法或數(shù)據(jù)保護法,因為這些行為可能會帶來法律后果,某些多模態(tài)大模型可能會因此被貼上非法標簽。
如果使用第三方數(shù)據(jù)提供者的數(shù)據(jù),可以對其進行認證,以建立信任并確保其專業(yè)性和合法性。開發(fā)者用于訓(xùn)練多模態(tài)大模型的所有數(shù)據(jù),無論是直接收集的還是從第三方收集的,都必須保持更新。如上所述,一些領(lǐng)先的人工智能模型并未使用最新數(shù)據(jù)進行訓(xùn)練,這可能會影響模型在衛(wèi)生保健與藥品領(lǐng)域的表現(xiàn),因為新的證據(jù)和信息會對決策產(chǎn)生有意義的影響。數(shù)據(jù)集應(yīng)不斷更新且準確無誤,這樣多模態(tài)大模型才能適配于應(yīng)用場景。
確保數(shù)據(jù)足夠透明可能十分困難。推出新多模態(tài)大模型的企業(yè)的訓(xùn)練數(shù)據(jù)越來越不透明。開發(fā)者應(yīng)該對用于訓(xùn)練模型的數(shù)據(jù)保持透明,以便下游用戶,包括對多模態(tài)大模型進行微調(diào)的用戶、使用多模態(tài)大模型開發(fā)醫(yī)療應(yīng)用的用戶以及直接使用多模態(tài)大模型的用戶,了解訓(xùn)練數(shù)據(jù)集的不足或不完整之處。
③倫理設(shè)計和價值設(shè)計:將倫理和人權(quán)標準納入人工智能技術(shù)開發(fā)的一種方法是“價值設(shè)計”,這是一種將人類尊嚴、自由、平等和團結(jié)等價值作為設(shè)計基礎(chǔ),并將其視為非功能性要求的范例。世界衛(wèi)生組織最初的人工智能技術(shù)設(shè)計專家指南中的幾項建議,包括“價值設(shè)計”,值得在此重申。
2021版指南建議,人工智能技術(shù)的設(shè)計和開發(fā)不應(yīng)僅由科學(xué)家和工程師完成,在基礎(chǔ)模型的開發(fā)過程中,可能使用模型或從模型中受益的人可以參與初始開發(fā)。其中一項建議是引入所謂的“人類監(jiān)督協(xié)會”,這將有助于讓患者代表參與旨在直接或通過醫(yī)療提供者間接使患者或護理者受益的多模態(tài)大模型開發(fā)過程。醫(yī)療保健專業(yè)人員、研究科學(xué)家、患者、非專業(yè)人員和弱勢群體也可參與多模態(tài)大模型的設(shè)計、數(shù)據(jù)標注和測試。
2021版指南還建議:“設(shè)計者和其他利益相關(guān)者應(yīng)確保人工智能系統(tǒng)在設(shè)計上能夠以必要的準確性和可靠性執(zhí)行定義明確的任務(wù),以提高醫(yī)療衛(wèi)生系統(tǒng)的能力并促進患者的利益。設(shè)計者和其他利益相關(guān)者還應(yīng)能夠預(yù)測和理解潛在的次生結(jié)果”,甚至在開始開發(fā)多模態(tài)大模型之前,開發(fā)者就可以進行所謂的“事前剖析(pre-mortem)”。
2021版指南還建議,“設(shè)計者用于‘價值設(shè)計’的程序應(yīng)參考并更新共識原則、最佳實踐(如保護隱私的技術(shù)和技巧)、設(shè)計倫理標準以及不斷發(fā)展的專業(yè)規(guī)范”。
④尊重環(huán)境因素的設(shè)計:如上所述,多模態(tài)大模型的一個主要問題是其碳足跡和水足跡。開發(fā)者應(yīng)采取一切可能的措施減少能源消耗,如提高模型的能效,一些大型科技企業(yè)正在嘗試這種方法。
提高能效的另一種方法是開發(fā)較小的多模態(tài)大模型,這些多模態(tài)大模型在較小的數(shù)據(jù)集上進行訓(xùn)練,因此在訓(xùn)練或運行時不需要那么多能源。較小的多模態(tài)大模型不僅可以減少能源消耗,還可以為較小的企業(yè)或?qū)嶓w開發(fā)多模態(tài)大模型提供機會,并提高輸出結(jié)果的準確性。小型多模態(tài)大模型對于開發(fā)“專用多模態(tài)大模型”可能特別有用,例如專門用于醫(yī)療、科學(xué)研究和醫(yī)學(xué)研究的多模態(tài)大模型。一些大型科技企業(yè)已經(jīng)推出了幾種這樣的多模態(tài)大模型。
4. 3 政府法律、政策和公共部門投資
可以執(zhí)行或制定一些現(xiàn)有的或潛在的法律或政策,以減少或避免通用基礎(chǔ)模型設(shè)計和開發(fā)過程中的風(fēng)險。此外,政府可以進行公共部門投資,促進或支持通用基礎(chǔ)模型的倫理設(shè)計與開發(fā)。
世界衛(wèi)生組織支持應(yīng)用和執(zhí)行包括數(shù)據(jù)保護規(guī)則在內(nèi)的標準,這些標準對如何使用和將如何使用數(shù)據(jù)來訓(xùn)練多模態(tài)大模型作出了規(guī)定。數(shù)據(jù)保護法通常以基于權(quán)利的方法為基礎(chǔ),包括數(shù)據(jù)處理監(jiān)管標準,既保護個人權(quán)利,又規(guī)定公共和私人數(shù)據(jù)控制者和處理者的義務(wù),還包括對侵害法定權(quán)利行為的制裁和補救措施。數(shù)據(jù)保護法已在150多個國家通過,這為包括多模態(tài)大模型在內(nèi)的所有人工智能技術(shù)的發(fā)展奠定了堅實的基礎(chǔ)。
一項應(yīng)當執(zhí)行的數(shù)據(jù)保護要求是,數(shù)據(jù)的收集和處理必須合法,尤其是用于訓(xùn)練多模態(tài)大模型的醫(yī)療數(shù)據(jù)。這通常需要數(shù)據(jù)主體提供有效的知情同意,同意將其數(shù)據(jù)用于所述目的。任何后續(xù)處理都應(yīng)有法律依據(jù),因為不能假定后續(xù)處理與最初的目的相一致。世界衛(wèi)生組織專家組建議各國政府“為使用健康數(shù)據(jù)和保護個人權(quán)利制定明確的數(shù)據(jù)保護法律法規(guī),包括獲得有意義的知情同意的權(quán)利”。
政府監(jiān)督和規(guī)范用于訓(xùn)練多模態(tài)大模型的數(shù)據(jù)收集和使用的其他措施包括中國政府頒布的、于2023年8月生效的生成式人工智能法規(guī)。中國國家互聯(lián)網(wǎng)信息辦公室規(guī)定了幾項義務(wù),包括提供者應(yīng)采取有效措施,避免在選擇訓(xùn)練數(shù)據(jù)時出現(xiàn)歧視和偏見;提供者應(yīng)使用清晰的標簽,并評估數(shù)據(jù)標簽的質(zhì)量;開發(fā)者應(yīng)采取“有效措施”,實現(xiàn)數(shù)據(jù)的真實性、準確性、客觀性和多樣性目標。這些要求預(yù)計不會嚴格適用于只需要采取有效措施確保適當?shù)臄?shù)據(jù)質(zhì)量的企業(yè)。這些措施只適用于向中國公眾提供服務(wù)的企業(yè)。
與數(shù)據(jù)有關(guān)的立法規(guī)定可包括以下要求:描述用于訓(xùn)練基礎(chǔ)模型的數(shù)據(jù)來源,以及使用受數(shù)據(jù)治理約束的數(shù)據(jù),以確保這些數(shù)據(jù)具有適用性和偏見糾正的措施。
政府在設(shè)計和開發(fā)過程中可以采取的其他措施如下:
①目標產(chǎn)品簡介:各國政府和國際機構(gòu)可發(fā)布目標產(chǎn)品簡介,說明擬用于衛(wèi)生保健與藥品領(lǐng)域的多模態(tài)大模型的偏好和特點,特別是如果政府打算購買此類技術(shù)用于政府管理的衛(wèi)生系統(tǒng)。
②設(shè)計和開發(fā)標準與要求:政府可要求開發(fā)者確保通用基礎(chǔ)模型的設(shè)計和開發(fā)在其整個生命周期內(nèi)實現(xiàn)某些成果。其中可包括對模型的可預(yù)測性、可解釋性、可追溯性、安全性和網(wǎng)絡(luò)安全的要求。
③預(yù)認證程序:監(jiān)管機構(gòu)可引入法律義務(wù)并制定激勵措施,要求并鼓勵開發(fā)者通過包括預(yù)認證程序在內(nèi)的措施,識別并避免倫理風(fēng)險,如偏見或損害自主權(quán)。2021版指南提出建議,“政府監(jiān)管機構(gòu)應(yīng)激勵開發(fā)者在產(chǎn)品設(shè)計和開發(fā)過程中識別、監(jiān)測和解決相關(guān)的安全和人權(quán)問題,并應(yīng)將相關(guān)準則納入預(yù)認證計劃”。
④審計:政府可以對基礎(chǔ)模型的初始發(fā)展階段進行審計。一項建議提出了三類審計:對多模態(tài)大模型提供者的“治理審計”,對多模態(tài)大模型的審計,以及對建立在多模態(tài)大模型基礎(chǔ)上的下游產(chǎn)品和服務(wù)的“應(yīng)用審計”。其中,應(yīng)用審計不適用于多模態(tài)大模型的開發(fā)階段??蓪徲嫾{入對衛(wèi)生保健與藥品領(lǐng)域多模態(tài)大模型的審評要求中(見下文)。為使審計有效,應(yīng)對審計質(zhì)量進行評估,以確保審計達到預(yù)期目的。
⑤環(huán)境足跡:政府可要求通用基礎(chǔ)模型的開發(fā)者解決其碳足跡和水足跡問題。例如,政府可以要求開發(fā)者測量其能源消耗,減少訓(xùn)練過程中的能源消耗,并達到一定的環(huán)境標準。
⑥對多模態(tài)大模型生成內(nèi)容為“機器生成”予以明確告知:政府可要求開發(fā)者確保在部署通用基礎(chǔ)模型時,向終端用戶發(fā)出通知和提醒,說明內(nèi)容是由機器而非人類生成的。政府還可以考慮要求或鼓勵開發(fā)者在早期階段對用于衛(wèi)生保健與藥品領(lǐng)域的人工智能算法或系統(tǒng)予以注冊。早期注冊可以鼓勵發(fā)表負面結(jié)果,防止發(fā)表偏見或?qū)Y(jié)果過于樂觀地解釋,并促進有利于患者的知識整合。
⑦為公眾利益開發(fā)多模態(tài)大模型的公共基礎(chǔ)設(shè)施:公共、私營和非營利部門的開發(fā)者都可以利用這種基礎(chǔ)設(shè)施,可以要求用戶在獲得使用權(quán)后遵守道德原則和符合價值觀。它還有助于避免開發(fā)者對多模態(tài)大模型的獨家控制,并在無法使用此類基礎(chǔ)設(shè)施和資源的最大企業(yè)與開發(fā)者之間“公平競爭”。
受獨立監(jiān)督的政府可以建設(shè)基礎(chǔ)設(shè)施,然后由開發(fā)者用來開發(fā)醫(yī)療多模態(tài)大模型。努力創(chuàng)造公平的競爭環(huán)境也適用于學(xué)術(shù)界及其資源劣勢。加拿大政府的國家高級研究計算平臺(Advanced Research Computing Platform)服務(wù)于該國的學(xué)術(shù)部門;中國政府批準了一個國家計算能力網(wǎng)絡(luò)系統(tǒng),使學(xué)者和其他人能夠訪問數(shù)據(jù)和算力;美國國家人工智能研究資源(National AI Research Resource)工作組“提議創(chuàng)建公共研究云和公共數(shù)據(jù)集”,歐洲民間團體也呼吁政府在建立所謂的“歐洲大型生成式模型”方面發(fā)揮更堅實的作用,政府將為此提供特定的人工智能計算、數(shù)據(jù)基礎(chǔ)設(shè)施、科學(xué)和研究支持。
4. 4 開源通用基礎(chǔ)模型(多模態(tài)大模型)
開源多模態(tài)大模型在整合倫理原則和應(yīng)對已知風(fēng)險方面的作用尚不確定。一般來說,通過使用開源軟件設(shè)計人工智能技術(shù)或公開軟件源代碼,可以提高透明度和參與度。
但是,如果以前提供模型的大型科技企業(yè)選擇不再繼續(xù)提供模型,那么開源多模態(tài)大模型可能無法持續(xù)下去。大多數(shù)開源多模態(tài)大模型的開發(fā)都是基于Meta(前身為Facebook)有限發(fā)布的多模態(tài)大模型。自多模態(tài)大模型及其權(quán)重被泄露以來,該企業(yè)已表明其對開源方法的承諾,并指出開放性“會帶來更好的產(chǎn)品、更快的創(chuàng)新和繁榮的市場,使Meta受益,也使許多其他……最終,開放是消除關(guān)于人工智能的恐懼的最佳良藥”。然而,獨立觀察人士注意到,雖然Meta企業(yè)以非商業(yè)方式提供其多模態(tài)大模型,但其使用條款存在限制條件,因此其提供多模態(tài)大模型的方式并不符合開源原則。
開發(fā)者很難滿足使用開源模型監(jiān)測其性能和結(jié)果的額外要求;然而,這些模型的益處并不能取代監(jiān)管、避免危害,例如與使用開源模型相關(guān)的安全問題。開源模型容易被濫用,其漏洞也可能被網(wǎng)絡(luò)攻擊。一組研究人員最近發(fā)現(xiàn),在開源人工智能系統(tǒng)上測試的方法規(guī)避了人工智能安全措施和保障措施,也可以繞過所謂封閉系統(tǒng)的保障措施。歸根結(jié)底,開源模型是基于與其他多模態(tài)大模型相同的黑箱技術(shù)。
鼓勵開源多模態(tài)大模型的一種方法是,政府要求利用政府資金或知識產(chǎn)權(quán)建立的基礎(chǔ)模型能夠被廣泛接入,與政府要求開放政府資助的研究成果一樣。政府還可以鼓勵在公共設(shè)施中進行開源研發(fā),包括在有公共監(jiān)督的受控條件下進行下一代模型的研發(fā)。公共監(jiān)督和參與可能比Meta泄露的允許任何人“下載并在MacBook M2上運行”的模型的新現(xiàn)實更好。
建議設(shè)計應(yīng)當或可以用于醫(yī)療、科學(xué)研究或醫(yī)藥領(lǐng)域的多模態(tài)大模型的開發(fā)者應(yīng)考慮對程序員進行倫理認證或培訓(xùn)。這將使人工智能開發(fā)者符合醫(yī)療行業(yè)的要求,并增加對其產(chǎn)品和服務(wù)的信任。
針對開發(fā)者的建議:
開發(fā)者在處理這些數(shù)據(jù)之前都應(yīng)進行“數(shù)據(jù)保護影響評估”,這將要求開發(fā)者評估數(shù)據(jù)處理操作侵害個人權(quán)利和自由的風(fēng)險,以及對個人數(shù)據(jù)保護的影響。
開發(fā)者應(yīng)根據(jù)數(shù)據(jù)保護規(guī)則的最佳實踐,對收集的數(shù)據(jù)進行多模態(tài)大模型訓(xùn)練。
用于訓(xùn)練多模態(tài)大模型的所有數(shù)據(jù)集,無論是開發(fā)者直接收集的還是通過第三方收集的,都應(yīng)保持更新并適合系統(tǒng)的使用環(huán)境。
開發(fā)者應(yīng)對用于訓(xùn)練模型的數(shù)據(jù)保持透明,以便對多模態(tài)大模型進行微調(diào),以便使用多模態(tài)大模型開發(fā)醫(yī)療應(yīng)用或直接使用多模態(tài)大模型的用戶了解訓(xùn)練數(shù)據(jù)集的任何不足或不完整之處。
開發(fā)者應(yīng)向數(shù)據(jù)工作者支付維持生計的工資,并為他們提供心理健康服務(wù)和其他形式的咨詢。開發(fā)者還應(yīng)采取保障措施,保護工人免受任何困擾。各國政府應(yīng)更新勞動標準,將這些福利擴展到所有數(shù)據(jù)工人,促進各企業(yè)之間的“公平競爭環(huán)境”,并確保這些勞動標準隨著時間的推移得到維護和改進。
開發(fā)者應(yīng)確保多模態(tài)大模型不僅由科學(xué)家和工程師設(shè)計,潛在用戶以及所有直接和間接的利益相關(guān)者,包括醫(yī)療提供者、科學(xué)研究人員、醫(yī)療保健專業(yè)人員和患者,應(yīng)從人工智能開發(fā)的早期階段就參與到結(jié)構(gòu)化、包容性和透明的設(shè)計中來,并應(yīng)有機會提出倫理問題、表達擔憂和為可能采用的人工智能應(yīng)用提供意見。這種意見可通過“人類監(jiān)督協(xié)會”提供。
開發(fā)者應(yīng)確保多模態(tài)大模型的設(shè)計能以必要的準確性和可靠性執(zhí)行明確界定的任務(wù),以提高衛(wèi)生系統(tǒng)的能力,促進患者的利益。開發(fā)者還應(yīng)能夠預(yù)測和了解潛在的次生結(jié)果。滿足這些要求的技術(shù)包括“事前剖析”和“紅隊”。
開發(fā)者用于“價值設(shè)計”的程序應(yīng)參考并更新共識、最佳實踐(如保護隱私的技術(shù)和技巧)、設(shè)計倫理標準和不斷發(fā)展的專業(yè)規(guī)范,如披露多模態(tài)大模型生成的內(nèi)容是由人工智能系統(tǒng)生成的。
開發(fā)者應(yīng)采取一切可能的措施減少能源消耗(如提高模型的能效)。
針對政府的建議:
各國政府應(yīng)為醫(yī)療數(shù)據(jù)的使用制定適用于多模態(tài)大模型開發(fā)的強有力的、強制執(zhí)行的數(shù)據(jù)保護法律法規(guī)。這些法律法規(guī)必須能夠有效保護個人的權(quán)利,并為個人提供保護自身權(quán)利所需的工具,包括獲得有意義的知情同意的權(quán)利。對于為醫(yī)療多模態(tài)大模型而收集和處理的數(shù)據(jù),可能還需要更多的工具。
各國政府和世界衛(wèi)生組織等國際機構(gòu)應(yīng)發(fā)布“目標產(chǎn)品簡介”,對醫(yī)療多模態(tài)大模型的偏好和特點進行界定,特別是如果政府預(yù)計最終會購買此類工具用于政府運營的衛(wèi)生系統(tǒng)。
各國政府應(yīng)要求開發(fā)者確保通用基礎(chǔ)模型的設(shè)計和開發(fā)能在產(chǎn)品生命周期內(nèi)取得某些成果。其中可包括對模型的可預(yù)測性、可解釋性、可追溯性、安全性和網(wǎng)絡(luò)安全性的要求。
監(jiān)管機構(gòu)應(yīng)引入法律義務(wù)并建立激勵機制,如預(yù)認證程序,要求并鼓勵開發(fā)者識別并避免倫理風(fēng)險,包括偏見或破壞自主性。
各國政府應(yīng)對基礎(chǔ)模型開發(fā)的初始階段進行審計。
各國政府應(yīng)要求通用基礎(chǔ)模型的開發(fā)者解決通用基礎(chǔ)模型的碳足跡和水足跡問題。
各國政府應(yīng)要求開發(fā)者確保在使用通用基礎(chǔ)模型時,通知并提醒用戶內(nèi)容是由機器而非人類生成的。
各國政府應(yīng)考慮要求或制定激勵措施,鼓勵開發(fā)者在早期階段對用于衛(wèi)生保健與藥品領(lǐng)域的人工智能算法或系統(tǒng)予以注冊。早期注冊可鼓勵發(fā)表負面結(jié)果,防止發(fā)表偏見或?qū)Y(jié)果的過度樂觀解釋,并可促進納入對患者有益的知識。
各國政府應(yīng)投資或提供非營利或公共基礎(chǔ)設(shè)施,包括算力和公共數(shù)據(jù)集,供公共、私營和非營利部門的開發(fā)者使用,要求用戶遵守倫理原則和價值觀,以換取訪問的權(quán)利。
各國政府應(yīng)鼓勵開發(fā)開源多模態(tài)大模型,要求利用政府資金或知識產(chǎn)權(quán)建立的基礎(chǔ)模型能夠被廣泛訪問,就像各國政府要求對政府資助的研究開放訪問一樣。各國政府應(yīng)支持在公共設(shè)施中進行開源研發(fā),包括在公共監(jiān)督的受控條件下進行下一代模型的研發(fā)。
5 通用基礎(chǔ)模型(多模態(tài)大模型)的提供
通用基礎(chǔ)模型的用途取決于是用戶提示多模態(tài)大模型生成與醫(yī)療保健相關(guān)的輸出,還是開發(fā)者允許提供者將多模態(tài)大模型集成到與醫(yī)療保健相關(guān)的應(yīng)用軟件、產(chǎn)品或服務(wù)中。這兩種情況都會帶來新的風(fēng)險,都必須由開發(fā)者、提供者或者兩方一起共同解決。政府有責(zé)任在部署此類技術(shù)之前評估和規(guī)范其使用。
5. 1 使用通用基礎(chǔ)模型(多模態(tài)大模型)提供醫(yī)療服務(wù)或應(yīng)用程序時應(yīng)注意的風(fēng)險
對于通用基礎(chǔ)模型和應(yīng)用程序在用于醫(yī)療目的的產(chǎn)品中或由用戶直接使用時是否都應(yīng)該得到評估和批準,可能存在分歧。幾家大型科技企業(yè)一直在游說政府或組織(例如歐盟)放棄多模態(tài)大模型的評估框架,轉(zhuǎn)而將監(jiān)督重點放在那些可能被政府認為“有風(fēng)險”的應(yīng)用上。這既涉及開發(fā)和銷售包含基礎(chǔ)模型的醫(yī)療應(yīng)用程序的提供者,也涉及選擇直接或間接通過人工智能系統(tǒng)使用多模態(tài)大模型的用戶,如提供者或患者。這些企業(yè)認為,針對多模態(tài)大模型本身的監(jiān)管會將責(zé)任“完全轉(zhuǎn)嫁”給開發(fā)者,然而價值鏈中的其他企業(yè)也應(yīng)承擔責(zé)任。
讓通用基礎(chǔ)模型的開發(fā)者為多模態(tài)大模型的所有使用負責(zé)可能不合適,但讓提供者、部署者或用戶獨自承擔也不合適,因為他們沒有參與模型的開發(fā),可能不了解相關(guān)的限制和風(fēng)險。這將造成多模態(tài)大模型的開發(fā)者逃避責(zé)任,盡管他們擁有巨大的權(quán)力、資源、監(jiān)督和對多模態(tài)大模型的理解,而且將在治理人工智能技術(shù)用于健康的嘗試中打開一個“巨大的漏洞”。
開發(fā)人員可能會試圖避免將多模態(tài)大模型用于醫(yī)療目的(或其他用途)。如果開發(fā)者不希望將多模態(tài)大模型用于醫(yī)療(特別是臨床醫(yī)藥)目的,它可以通過阻止開發(fā)醫(yī)學(xué)應(yīng)用程序的實體在應(yīng)用程序編程接口上使用(許可)多模態(tài)大模型來阻攔應(yīng)用;當多模態(tài)大模型直接被使用者用于醫(yī)療的目的時,可以通過阻止查詢或?qū)Π】祷蜥t(yī)療信息的任何響應(yīng)附加明確警告來阻止應(yīng)用,并將用戶引導(dǎo)至可以提供適當幫助的信息或服務(wù)。
如果不采取這些措施,或者如果開發(fā)者打算由用戶直接或通過提供者間接將其多模態(tài)大模型應(yīng)用于醫(yī)療保健,開發(fā)者將承擔只有它才能履行的具體責(zé)任。此外,開發(fā)者和提供者都有進一步地解決衛(wèi)生領(lǐng)域多模態(tài)大模型風(fēng)險的義務(wù)。
下文所述的責(zé)任在政府授權(quán)的法律、政策和法規(guī)中得到界定,因為政府必須最終決定是否允許基于人工智能的系統(tǒng)用于衛(wèi)生領(lǐng)域。如果多模態(tài)大模型要用于衛(wèi)生領(lǐng)域,開發(fā)者和提供者也必須履行共同責(zé)任。如果沒有制定或更新法律來解釋這些責(zé)任,這些責(zé)任可以由政府界定,也可以由雙方通過合同約定。
部署前必須解決的主要風(fēng)險包括全系統(tǒng)偏見、醫(yī)療用途的虛假信息或“幻覺”、輸入多模態(tài)大模型數(shù)據(jù)的隱私、操縱和自動化偏見。
5. 2 政府可采取的應(yīng)對此類風(fēng)險的措施和應(yīng)堅持的倫理原則
多模態(tài)大模型和包含多模態(tài)大模型的應(yīng)用的發(fā)展速度要求各國政府迅速制定法規(guī)和具體標準,以便將這些人工智能算法用于衛(wèi)生保健系統(tǒng)、其他科學(xué)和醫(yī)學(xué)研究。該方法應(yīng)涵蓋由一個監(jiān)管機構(gòu)(如醫(yī)療器械或藥品監(jiān)管機構(gòu))對擬用于醫(yī)療或藥品領(lǐng)域的人工智能技術(shù)進行評估和審批,當然政府也可為此目的設(shè)立一個新的機構(gòu)。低收入和中等收入國家面臨的一個挑戰(zhàn)是,它們的監(jiān)管機構(gòu)已經(jīng)資源不足,而且被藥品監(jiān)管壓得喘不過氣來。
已經(jīng)有至少一個高收入國家的政府與某個大型科技企業(yè)達成一致,將對其基礎(chǔ)模型進行自愿公開評估,并披露評估結(jié)果,以便向公眾和研究人員提供有關(guān)模型的信息,并鼓勵企業(yè)糾正任何錯誤;然而,自愿的方式可能既不充分,也不持久。
對多模態(tài)大模型和應(yīng)用的評估不應(yīng)只針對衛(wèi)生系統(tǒng)中使用的人工智能系統(tǒng)或算法,因為在臨床和“健康”應(yīng)用之間的灰色地帶中使用多模態(tài)大模型和應(yīng)用也存在重大風(fēng)險。鑒于此類技術(shù)的迅速擴散,政府至少應(yīng)在初期識別此類應(yīng)用,制定共同的標準和法規(guī),并禁止向公眾部署不符合標準和法規(guī)的應(yīng)用。
在需要時,開發(fā)者和提供者應(yīng)承擔舉證責(zé)任,證明打算投入使用的衛(wèi)生領(lǐng)域人工智能符合法律或政策規(guī)定的最低要求。鑒于與多模態(tài)大模型相關(guān)的已知風(fēng)險和挑戰(zhàn),不應(yīng)假定具有多模態(tài)大模型的人工智能算法和應(yīng)用是安全有效的,或它們優(yōu)于已經(jīng)廣泛使用的人工智能或非人工智能方法。
下文介紹可能適用于在衛(wèi)生保健與藥品領(lǐng)域多模態(tài)大模型的若干法律、政策和整合的要求。
①披露(透明度)要求:適當?shù)谋O(jiān)管不僅要求政府有能力和自由裁量權(quán)來決定他們可以評估和批準使用什么,還要求有足夠的信息來進行這樣的評估。披露對于充分監(jiān)管人工智能技術(shù)和確保人工智能價值鏈中的其他參與者能夠安全使用該技術(shù)都是必要的。
公開和透明是世界衛(wèi)生組織的指導(dǎo)原則,也是提高基于人工智能的系統(tǒng)的“可解釋性”和可理解性的措施,在評估通用基礎(chǔ)模型或應(yīng)用時應(yīng)要求公開和透明。世界衛(wèi)生組織先前的指南建議:“政府監(jiān)管機構(gòu)應(yīng)要求人工智能技術(shù)某些方面的透明度,同時考慮到專有權(quán),以改善對安全性和有效性的監(jiān)督和評估。這可能包括人工智能技術(shù)的源代碼、數(shù)據(jù)輸入和分析方法”。與多模態(tài)大模型相關(guān)的新披露形式可能包括其內(nèi)部測試表現(xiàn)及其碳足跡、水足跡。此外,可能還需要制定“開放權(quán)重”標準,讓監(jiān)管者、其他開發(fā)者、民間團體和提供者了解算法的訓(xùn)練結(jié)果,或多模態(tài)大模型在訓(xùn)練過程中獲得的知識。
②數(shù)據(jù)保護法:多模態(tài)大模型的開發(fā)以及開發(fā)者管理訓(xùn)練多模態(tài)大模型所需的數(shù)據(jù)的方式可能會違反數(shù)據(jù)保護法。另一個問題是,可能包括敏感個人信息的、為產(chǎn)生特定輸出而被輸入多模態(tài)大模型或應(yīng)用程序的數(shù)據(jù),會因為意外或被誘導(dǎo)泄露。許多大企業(yè),包括正在開發(fā)多模態(tài)大模型并將其商業(yè)化的科技企業(yè),禁止自己的員工使用此類算法,原因就在于潛在的信息泄露風(fēng)險。
披露數(shù)據(jù)違反了開發(fā)者保護人類的自主性的義務(wù)。如果敏感數(shù)據(jù)的保存時間超過數(shù)據(jù)最小化要求所允許的時間,開發(fā)者還可能違反數(shù)據(jù)保護法,有開發(fā)者允許用戶選擇刪除他們?yōu)楦倪M聊天機器人性能而提供的任何內(nèi)容。允許使用多模態(tài)大模型的政府應(yīng)確保制定、擴展和執(zhí)行數(shù)據(jù)保護規(guī)則,以涵蓋輸入多模態(tài)大模型的數(shù)據(jù)。中國政府對多模態(tài)大模型的規(guī)定中包含了這樣的要求,盡管這種保護只適用于中國的用戶。
③評估衛(wèi)生領(lǐng)域通用基礎(chǔ)模型和/或應(yīng)用:人權(quán)法與基于風(fēng)險的對比框架:目前正在制定若干立法框架,以評估和規(guī)范人工智能技術(shù)。與這些框架有關(guān)的一個問題是,人工智能技術(shù)是否必須滿足人權(quán)義務(wù)(歐盟認為是“基本權(quán)利”),或者是否應(yīng)采用不同的方法,如在基于風(fēng)險的框架內(nèi)評估人工智能技術(shù)。歐盟《人工智能法案》采用了基于風(fēng)險的框架。
所有衛(wèi)生領(lǐng)域人工智能系統(tǒng)或工具都應(yīng)尊重影響個人尊嚴、自主權(quán)或隱私等方面的倫理義務(wù)和人權(quán)標準。這包括通用基礎(chǔ)模型。人權(quán)和倫理原則是不容討價還價的,無論人工智能技術(shù)帶來的風(fēng)險或受益如何,都必須堅持。
2021版指南建議,“各國政府應(yīng)頒布法律和政策,要求政府機構(gòu)和企業(yè)對人工智能技術(shù)進行影響評估,評估應(yīng)涉及倫理、人權(quán)、安全和數(shù)據(jù)保護,并貫穿人工智能系統(tǒng)的整個生命周期”。2021版指南還指出,“在引入人工智能技術(shù)前后,應(yīng)由獨立的第三方對影響評估進行審核,并予以公布”。
例如,影響評估可以揭示人工智能技術(shù)是否會帶來全系統(tǒng)范圍的偏見,是否會危及共享個人數(shù)據(jù)的用戶的隱私,或是否會導(dǎo)致用戶被操縱。應(yīng)通過提供者和開發(fā)者之間的合作來解決隱私風(fēng)險問題,開發(fā)能保護個人隱私的多模態(tài)大模型。美國的一家企業(yè)和一家醫(yī)院系統(tǒng)正在開發(fā)這種多模態(tài)大模型,但由于數(shù)據(jù)無法完全去標識化,該項目被認為不太可能成功。影響評估還可以確保通用基礎(chǔ)模型或應(yīng)用程序的使用保持人類在體系中,以避免用戶在自動決策過程中,收到虛假信息或錯誤信息,或醫(yī)療服務(wù)提供者或患者不加批判地依賴多模態(tài)大模型的輸出,以至于產(chǎn)生自動化偏見。
相反,政府可能會選擇對衛(wèi)生保健與藥品領(lǐng)域多模態(tài)大模型采用基于風(fēng)險的框架。對于那些被認為風(fēng)險較高的功能,如為嚴重抑郁癥患者提供處方或心理健康建議,或為弱勢或邊緣人群使用人工智能技術(shù),舉證責(zé)任會更重。有人擔心,如果政府選擇基于風(fēng)險的方法,它將被認為是充分的,或被用來替代基于人權(quán)的方法?;陲L(fēng)險的框架可能會將某些看似低風(fēng)險但最終可能導(dǎo)致傷害的多模態(tài)大模型或應(yīng)用排除在評估之外。
本指南不包括關(guān)于是否所有基礎(chǔ)模型都應(yīng)接受基于風(fēng)險和/或基于權(quán)利的評估的建議,無論其如何使用。本指南也沒有給出對通用基礎(chǔ)模型的人工智能監(jiān)管評估是否應(yīng)僅適用于最大的(系統(tǒng)性)多模態(tài)大模型的建議。
提供者也應(yīng)接受人工智能監(jiān)管評估,因為他們對多模態(tài)大模型的使用可能會改變其目的和功能,使之與由開發(fā)者確定但由提供者控制的目的和功能不同。因此,如果一個通用基礎(chǔ)模型經(jīng)提供者調(diào)整后用于醫(yī)療或藥品領(lǐng)域,且開發(fā)者也同意,那么開發(fā)者和提供者都應(yīng)遵守在衛(wèi)生保健與藥品領(lǐng)域使用多模態(tài)大模型的要求。如果醫(yī)療服務(wù)提供者使用的產(chǎn)品或應(yīng)用程序與基礎(chǔ)模型有重大差異,或以超出開發(fā)者控制范圍的方式改變了基礎(chǔ)模型,則醫(yī)療服務(wù)提供者的監(jiān)管負擔應(yīng)更重。
④醫(yī)療器械監(jiān)管:政府可認定通用基礎(chǔ)模型或應(yīng)用程序符合醫(yī)療器械的條件。雖然關(guān)于哪些多模態(tài)大模型符合醫(yī)療器械的標準幾乎沒有指導(dǎo),但一家監(jiān)管機構(gòu)表示,“僅面向一般用途的多模態(tài)大模型,如果開發(fā)者沒有聲稱其軟件可用于醫(yī)療目的,則不太可能符合醫(yī)療器械的標準”。然而,監(jiān)管機構(gòu)也指出:為特定醫(yī)療目的而開發(fā)或改編、修改或定向的多模態(tài)大模型有可能被認定為醫(yī)療器械。
根據(jù)歐盟和美國現(xiàn)行監(jiān)管標準,基于多模態(tài)大模型的聊天機器人提供醫(yī)療建議很可能被定性為醫(yī)療器械。2021版指南建議“政府監(jiān)管機構(gòu)應(yīng)要求對人工智能系統(tǒng)的性能進行測試,并從隨機試驗的前瞻性測試中獲得可靠證據(jù),而不僅僅是將該系統(tǒng)與實驗室中的現(xiàn)有數(shù)據(jù)集進行比較”。
如果多模態(tài)大模型或其應(yīng)用要被作為醫(yī)療器械進行監(jiān)管,開發(fā)者和/或提供者應(yīng)承擔舉證責(zé)任,提供證據(jù)證明該器械具有上市需要的性能,并符合現(xiàn)行或修訂后國家法律的要求。要求可能包括遵守與偏見和隱私相關(guān)的道德義務(wù)。歐盟和美國新提出的醫(yī)療器械人工智能技術(shù)法規(guī)可能會納入與衛(wèi)生領(lǐng)域人工智能應(yīng)用相關(guān)的倫理原則,包括“可解釋性”、控制偏見和透明度。目前包含多模態(tài)大模型的聊天機器人不太可能達到這些標準。
⑤消費者保護法:各國政府應(yīng)制定和使用消費者保護法,以確保多模態(tài)大模型和應(yīng)用程序的任何負面影響不會波及用戶和患者。可以利用消費者保護法或其他法規(guī),要求限制多模態(tài)大模型和應(yīng)用程序使用可能誤導(dǎo)最終用戶或使其誤認為多模態(tài)大模型具有類似人類品質(zhì)的語言。因此,此類法律可以限制或防止多模態(tài)大模型或其應(yīng)用程序使用“我認為”“我想”或“我建議”等詞語。
建議:
各國政府應(yīng)在資源允許的情況下,指定一個現(xiàn)有的或新的監(jiān)管機構(gòu)來評估和批準擬用于醫(yī)療或藥品領(lǐng)域的多模態(tài)大模型及其應(yīng)用軟件。
各國政府應(yīng)考慮的披露形式包括多模態(tài)大模型或應(yīng)用在內(nèi)部測試中的表現(xiàn)及其碳足跡和水足跡。多模態(tài)大模型及其應(yīng)用軟件的某些方面應(yīng)該透明,以便監(jiān)管機構(gòu)對其安全性和有效性進行監(jiān)督和評估。這可能包括源代碼、數(shù)據(jù)輸入、模型權(quán)重和分析方法。
各國政府應(yīng)確保數(shù)據(jù)保護規(guī)則適用于用戶輸入多模態(tài)大模型或應(yīng)用軟件的數(shù)據(jù)。
各國政府的法律、政策和法規(guī)應(yīng)確保衛(wèi)生領(lǐng)域多模態(tài)大模型和應(yīng)用軟件,無論人工智能技術(shù)帶來的風(fēng)險或受益如何,都符合可能影響個人尊嚴、自主權(quán)或隱私等方面的道德義務(wù)和人權(quán)標準。
各國政府應(yīng)頒布法律和政策,要求提供者和開發(fā)者在人工智能系統(tǒng)的整個生命周期內(nèi)對多模態(tài)大模型和應(yīng)用程序進行影響評估,其中應(yīng)涉及倫理、人權(quán)、安全和數(shù)據(jù)保護。影響評估應(yīng)在引入人工智能技術(shù)之前和之后由獨立的第三方進行審計,并向公眾公開。
各國政府應(yīng)確保,對于作為醫(yī)療器械進行監(jiān)管的多模態(tài)大模型或應(yīng)用軟件,開發(fā)者和/或提供者應(yīng)負舉證責(zé)任,證明器械的性能符合上市要求,并符合國家法律或經(jīng)修訂的法律的要求。
各國政府應(yīng)確保尚未獲準使用的多模態(tài)大模型或支持臨床決策的應(yīng)用軟件不得在授權(quán)臨床試驗環(huán)境之外的實驗基礎(chǔ)上使用。各國政府可通過監(jiān)管沙盒促進多模態(tài)大模型的受控實驗使用。沙盒允許在實際臨床環(huán)境中的實時環(huán)境內(nèi)進行測試,并提供保障和監(jiān)督,以保護衛(wèi)生系統(tǒng)免受風(fēng)險或意外后果的影響。
各國政府應(yīng)利用消費者保護法,確保使用多模態(tài)大模型和應(yīng)用軟件的任何負面后果不會影響包括患者在內(nèi)的用戶。例如,可以利用消費者保護法來防止類似于操縱的行為,或者解決多模態(tài)大模型或應(yīng)用軟件造成其他負面后果的原因,以保護患者及其家人免受當前或未來的任何傷害。
6 通用基礎(chǔ)模型(多模態(tài)大模型)的部署
即使多模態(tài)大模型或具有多模態(tài)大模型的應(yīng)用的設(shè)計符合倫理規(guī)范并經(jīng)過了適當?shù)谋O(jiān)管審查,它在商業(yè)化時仍然可能存在風(fēng)險。衛(wèi)生領(lǐng)域人工智能應(yīng)用或工具的部署者可以是多模態(tài)大模型或應(yīng)用的開發(fā)者或提供者,也可以是衛(wèi)生部門、醫(yī)院、醫(yī)療保健企業(yè)或制藥企業(yè)。
6. 1 部署通用基礎(chǔ)模型(多模態(tài)大模型)醫(yī)療服務(wù)或應(yīng)用時應(yīng)注意的風(fēng)險
部署期間的風(fēng)險可能源于多模態(tài)大模型及其提供回答的不可預(yù)測性、以開發(fā)者和提供者無法預(yù)料到的方式使用通用基礎(chǔ)模型的可能性,以及多模態(tài)大模型生成的回答可能會隨著時間的推移而變化。
部署多模態(tài)大模型時必須解決的主要風(fēng)險有:不準確或錯誤的回答,偏見,多模態(tài)大模型輸入和輸出數(shù)據(jù)的隱私,多模態(tài)大模型的可訪問性和可負擔性,對勞動力和就業(yè)的影響,自動化偏見和技能退化,醫(yī)療服務(wù)提供者與患者之間的互動質(zhì)量。
本章介紹包括用戶在內(nèi)的人工智能價值鏈中的行為者如何減輕或預(yù)防風(fēng)險,以及在人工智能工具部署后的使用過程中政府監(jiān)管所能發(fā)揮的作用,同時對醫(yī)療工作者和衛(wèi)生系統(tǒng)中的其他行為者進行裝備和培訓(xùn),以最大限度地適當使用多模態(tài)大模型。
6. 2 開發(fā)者和提供者在部署階段中的持續(xù)責(zé)任
即使在多模態(tài)大模型或應(yīng)用程序獲準使用后,開發(fā)者和提供者仍有責(zé)任和義務(wù),這是因為開發(fā)者或提供者部署了多模態(tài)大模型,或是因為某些風(fēng)險只能由開發(fā)者或提供者在部署后解決。這種義務(wù)可能必須由法規(guī)或法律來規(guī)定,以保證開發(fā)者和提供者分配足夠的資源和注意力。
第一,當大規(guī)模部署多模態(tài)大模型時,政府應(yīng)引入發(fā)布后強制性審計和影響評估,包括由獨立的第三方進行數(shù)據(jù)保護和人權(quán)評估。發(fā)布后的審計和影響評估應(yīng)予以公布,并應(yīng)按用戶類型(如年齡、種族或殘障)分列結(jié)果和影響。
第二,如果多模態(tài)大模型在發(fā)布后出現(xiàn)不準確、虛假或有害內(nèi)容,而提供者和開發(fā)者均未采取措施進行糾正或避免,政府可追究提供者或開發(fā)者的責(zé)任。例如,中國政府關(guān)于生成式人工智能的法規(guī)規(guī)定,生成式人工智能不得產(chǎn)生“虛假和有害”的信息,政府可能會強制執(zhí)行。在歐盟,在產(chǎn)品或服務(wù)中納入多模態(tài)大模型可能會給多模態(tài)大模型的開發(fā)者和提供者帶來額外的責(zé)任。例如,如果將多模態(tài)大模型集成到屬于《歐盟數(shù)字服務(wù)法》等數(shù)字服務(wù)監(jiān)管范圍的服務(wù)中,多模態(tài)大模型將間接受到監(jiān)管審查,由于多模態(tài)大模型容易產(chǎn)生幻覺,因此可能需要監(jiān)管監(jiān)督。
第三,可能要求開發(fā)者和提供者持續(xù)提供操作披露,以便政府和用戶安全使用多模態(tài)大模型。這可能包括充分的技術(shù)文檔。
6. 3 部署者的職責(zé)
部署者還負責(zé)避免或減輕與使用多模態(tài)大模型或其應(yīng)用程序相關(guān)的風(fēng)險。
第一,部署者應(yīng)該使用開發(fā)者或提供者提供的信息,如訓(xùn)練數(shù)據(jù)的偏見、使多模態(tài)大模型不適合該環(huán)境的場景偏移、其他可避免的錯誤或部署者已知的潛在風(fēng)險,來作出禁止在不適當?shù)沫h(huán)境中使用多模態(tài)大模型或應(yīng)用程序的決定。
第二,部署者應(yīng)該告知他們理應(yīng)知道的使用多模態(tài)大模型可能導(dǎo)致的一切風(fēng)險,以及對用戶可能造成損害的一切錯誤或失誤。這些警告不應(yīng)采用過小的字體,也不應(yīng)是容易忽視的內(nèi)容。
第三,部署者可以采取措施提高多模態(tài)大模型的可負擔性和可接入性。部署者可以確保使用多模態(tài)大模型的定價或訂閱費符合政府或其他用戶的支付能力,并應(yīng)保證多模態(tài)大模型經(jīng)過了被忽視或被排除在技術(shù)利益之外的人使用的語言文字的訓(xùn)練。部署者還應(yīng)要求提供者和開發(fā)者確保當前和未來的多模態(tài)大模型有多種語言版本。
6. 4 政府計劃和做法
將多模態(tài)大模型引入衛(wèi)生保健系統(tǒng)并用于其他與醫(yī)療有關(guān)的用途,需要醫(yī)療保健專業(yè)人員作出重大調(diào)整。無論是開發(fā)者還是提供者,都沒有興趣、資源或?qū)I(yè)知識來確保醫(yī)療保健專業(yè)人員恰當使用多模態(tài)大模型,或?qū)⑵溆糜谄渌婕笆苓^專門培訓(xùn)和/或具有專門知識的個人用途。
與設(shè)計通用基礎(chǔ)模型一樣(見上文),政府可以讓醫(yī)療保健專業(yè)人員和患者共同參與“人類監(jiān)督協(xié)會”,以確保新的多模態(tài)大模型和用于臨床決策的應(yīng)用程序得到適當使用,并且不會損害患者的權(quán)利。
政府、高校(健康研究機構(gòu))或醫(yī)院等醫(yī)療提供者也可確保醫(yī)療工作者有效地使用多模態(tài)大模型提供臨床護理,并適當接受其他用途的培訓(xùn)。醫(yī)護專業(yè)人員和臨床醫(yī)生應(yīng)接受以下方面的培訓(xùn):①了解多模態(tài)大模型如何作出決定以及作出此類決定的局限性,②對恰當使用擔憂進行識別,③掌握避免自動化偏見的方法,④接觸可能或正在考慮使用多模態(tài)大模型的患者并對其進行教育,⑤使用多模態(tài)大模型的相關(guān)網(wǎng)絡(luò)安全風(fēng)險。
在醫(yī)務(wù)工作者進行培訓(xùn)和繼續(xù)教育中,特別重要的是對于患者、非專業(yè)人員和其他第三方何時由多模態(tài)大模型提供建議或多模態(tài)大模型提供的信息已被提供者用于作出醫(yī)療決定或其他醫(yī)療功能的告知。在此類告知中,應(yīng)向患者或非專業(yè)人員充分告知使用多模態(tài)大模型的相關(guān)風(fēng)險,以維護其知情同意權(quán)。
對于醫(yī)療工作者的培訓(xùn)也至關(guān)重要,以確保當他們使用多模態(tài)大模型時,不會在不知不覺中違反法律,尤其是那些與保護健康數(shù)據(jù)和信息相關(guān)的法律。例如,將“受保護的健康信息”引入多模態(tài)大模型聊天機器人的醫(yī)療服務(wù)提供者可能會違反美國的《健康保險攜帶和責(zé)任法案》等法律。
衛(wèi)生系統(tǒng)中的其他利益攸關(guān)方應(yīng)接受教育,了解多模態(tài)大模型在醫(yī)療保健中的益處、風(fēng)險、用途和挑戰(zhàn),以及多模態(tài)大模型與其他生成信息或建議的技術(shù)有何不同,以及在醫(yī)療保健中又是如何用于其他目的的。應(yīng)提高公眾對醫(yī)療和其他領(lǐng)域多模態(tài)大模型的使用的認識。
向衛(wèi)生系統(tǒng)提供多模態(tài)大模型或應(yīng)用軟件的政府可利用其采購權(quán),在開發(fā)者、提供者和部署者之間促進某些做法。如果人工智能技術(shù)不會取代其他可能更有效、更公平和更負擔得起的醫(yī)療投資,那么采購關(guān)鍵的多模態(tài)大模型或應(yīng)用軟件用于醫(yī)療保健系統(tǒng)將消除接入和可負擔性的障礙。公共采購可以在數(shù)據(jù)訓(xùn)練、質(zhì)量保證、風(fēng)險評估、緩解和外部審計方面制定透明度要求。如果一個國家既沒有相關(guān)立法,也沒有具備有效監(jiān)管多模態(tài)大模型資源的監(jiān)管機構(gòu),這些要求可能至關(guān)重要。
建議:
針對政府:
各國政府在大規(guī)模部署多模態(tài)大模型時,應(yīng)引入獨立第三方進行發(fā)布后強制性審計和影響評估,包括數(shù)據(jù)保護和人權(quán)評估。審計和影響評估應(yīng)予以公布,并應(yīng)包括按用戶類型分類的結(jié)果和影響,例如按年齡、種族或殘障分類的結(jié)果和影響。
各國政府可要求提供者或開發(fā)者對多模態(tài)大模型發(fā)布后未糾正或避免發(fā)布不準確、虛假或有毒的內(nèi)容負責(zé)。
各國政府應(yīng)要求開發(fā)者和提供者不斷披露操作信息,以確保多模態(tài)大模型和應(yīng)用程序的安全使用。其中可包括充分的技術(shù)文件。
各國政府應(yīng)通過衛(wèi)生系統(tǒng)提供多模態(tài)大模型或應(yīng)用程序,確保其采購部門促進開發(fā)者、提供者和部署者采取某些做法,包括透明度。
各國政府應(yīng)為醫(yī)護專業(yè)人員和患者參與“人類監(jiān)督協(xié)會”提供便利,以確保新的多模態(tài)大模型和用于臨床決策的應(yīng)用程序得到適當使用,并且不會損害患者的權(quán)利。
針對衛(wèi)生部門和高校:
衛(wèi)生部門和高校(健康研究機構(gòu))應(yīng)培訓(xùn)醫(yī)療保健專業(yè)人員和臨床醫(yī)生:①了解多模態(tài)大模型如何作出決定(以及了解這些決定是如何作出的局限性),②識別和了解對合理使用的擔憂,③掌握避免自動化偏見的方法,④與可能使用多模態(tài)大模型的患者接觸并對其進行教育,⑤與使用多模態(tài)大模型相關(guān)的網(wǎng)絡(luò)安全風(fēng)險。
針對部署者:
部署者根據(jù)從開發(fā)者或提供者處獲得的信息,不應(yīng)在以下情況下使用多模態(tài)大模型或應(yīng)用程序,由于訓(xùn)練數(shù)據(jù)的偏見、使多模態(tài)大模型不適合特定環(huán)境的場景偏差,或部署者已知并可避免的其他潛在錯誤或風(fēng)險,如多模態(tài)大模型發(fā)布的不準確、虛假或有害內(nèi)容。
部署者應(yīng)告知他們應(yīng)合理知道的使用多模態(tài)大模型可能導(dǎo)致的任何風(fēng)險,以及已對用戶造成的傷害的錯誤;此類警告不應(yīng)以過小(或容易遺漏)的字體出現(xiàn)。在某些情況下,即使法律法規(guī)沒有要求,部署者也可能有責(zé)任暫停使用或從市場上撤下多模態(tài)大模型或應(yīng)用程序,以避免未來的危害。
部署者應(yīng)確保使用多模態(tài)大模型的定價或訂閱費符合政府或其他用戶的支付能力,并應(yīng)保證多模態(tài)大模型經(jīng)過了被忽視或被排除在技術(shù)利益之外的人使用的語言文字的訓(xùn)練。部署者應(yīng)要求提供者和開發(fā)者確保目前和未來的多模態(tài)大模型都是用多種語言開發(fā)的。
針對公眾:
政府、醫(yī)療服務(wù)提供者、醫(yī)療研究人員和資助者應(yīng)讓公眾參與進來,使他們了解不同形式的數(shù)據(jù)共享和使用,就社會和文化是否以及如何接受多模態(tài)大模型發(fā)表意見,并充分表達他們的關(guān)切和期望。此外,應(yīng)提高公眾對人工智能技術(shù)的認識,使他們能夠識別可接受的多模態(tài)大模型用途和類型。
7 通用基礎(chǔ)模型(多模態(tài)大模型)的責(zé)任
隨著多模態(tài)大模型在衛(wèi)生保健與藥品領(lǐng)域得到更廣泛地應(yīng)用,錯誤、濫用和最終對個人的傷害是不可避免的。必須使用問責(zé)制來補償個人的此類傷害,并在當前方法不充分或過時的情況下建立新的補救機制。
人工智能技術(shù)的設(shè)計、開發(fā)、質(zhì)保和部署涉及不同的實體,每個實體都扮演著不同的角色。這可能會使責(zé)任分配復(fù)雜化。開發(fā)者可能會要求包括提供者和部署者在內(nèi)的下游實體對使用多模態(tài)大模型造成的一切傷害負責(zé),而下游實體可能會聲稱先前的行為,如用于訓(xùn)練算法的數(shù)據(jù)的選擇,是損害出現(xiàn)的原因。開發(fā)者和提供者也可能聲稱,一旦醫(yī)學(xué)人工智能技術(shù)被監(jiān)管機構(gòu)批準使用,他們就不應(yīng)該再對損害承擔責(zé)任(預(yù)防性監(jiān)管)。沿著價值鏈建立責(zé)任是立法者和決策者面臨的挑戰(zhàn)。
民事責(zé)任規(guī)則的一個關(guān)鍵功能是確保損害受害者可以要求賠償和補救,無論在參與人工智能技術(shù)開發(fā)和部署的實體之間分配職責(zé)和責(zé)任有多么困難。如果受害者發(fā)現(xiàn)獲得賠償太難,就毫無正義可言,人工智能價值鏈中的各方也沒有動力在未來避免類似的傷害了。規(guī)則還應(yīng)該確保賠償足以彌補所遭受的傷害。
歐盟在其擬議的《人工智能責(zé)任指令》(AI Liability Directive)中引入了“因果關(guān)系推定”,從而簡化了受害者的舉證責(zé)任。因此,如果受害者能夠證明一個或多個實體沒有遵守與損害相關(guān)的義務(wù),并且很可能與人工智能的表現(xiàn)有因果關(guān)系,法院可以推定不遵守該義務(wù)是損害發(fā)生的原因。因此,責(zé)任方有責(zé)任反駁這一推定,例如指出另一方是損害的原因。立法的范圍不僅限于人工智能系統(tǒng)的原始制造商,還包括人工智能價值鏈的任何行為者。當人工智能價值鏈中的所有行為者都承擔連帶責(zé)任時,他們可以證明他們在評估和減輕風(fēng)險以減少責(zé)任方面的有效性。
由于多模態(tài)大模型的高度投機性、人們對其知之甚少且被匆忙推向市場,政府可能希望將用于醫(yī)療保健的多模態(tài)大模型視為開發(fā)者、提供者和部署者要求遵守嚴格責(zé)任標準的產(chǎn)品。讓這些行為者對所有錯誤負責(zé)的做法,可能可以確?;颊咴阱e誤影響到他們時得到賠償,盡管這取決于患者是否知道使用了多模態(tài)大模型。
然而,人工智能的問責(zé)制可能不足以分配過錯,因為算法正在以開發(fā)者、提供者和部署者都無法完全控制的方式發(fā)展。此外,可能仍然存在受害者無法追償?shù)那闆r和司法管轄范圍。在醫(yī)療保健的其他領(lǐng)域,有時會在不確定過錯或責(zé)任的情況下提供賠償,例如疫苗不良影響造成的醫(yī)療傷害。2021版指南建議確定“無過錯、無責(zé)任賠償基金,是否是向因使用人工智能技術(shù)而遭受醫(yī)療傷害的個人提供賠償?shù)倪m當機制,包括如何盤活資源來支付任何索賠”。
建議:各國政府應(yīng)沿著多模態(tài)大模型和應(yīng)用程序的開發(fā)、供應(yīng)和部署的價值鏈確立責(zé)任,以確保損害受害者能夠要求賠償,而不管追究責(zé)任的困難以及參與技術(shù)開發(fā)和部署的不同實體的責(zé)任。
8 通用基礎(chǔ)模型(多模態(tài)大模型)的國際治理
各國政府應(yīng)支持集體制定國際規(guī)則,以治理衛(wèi)生領(lǐng)域多模態(tài)大模型和其他形式的人工智能,因為此類用途的人工智能正在全球范圍內(nèi)激增。世界衛(wèi)生組織的《2020年—2025年的數(shù)字健康全球戰(zhàn)略》是一個例子。這一過程應(yīng)包括加強聯(lián)合國系統(tǒng)內(nèi)合作與協(xié)作,以應(yīng)對在衛(wèi)生領(lǐng)域中部署人工智能及其在社會和經(jīng)濟領(lǐng)域更廣泛應(yīng)用中所帶來的機遇和挑戰(zhàn)。除非各國政府共同努力制定適當?shù)摹⒖蓤?zhí)行的標準,否則不符合適當?shù)姆?、倫理和安全標準的多模態(tài)大模型和其他形式的人工智能的數(shù)量將會增加,如果不出臺法規(guī)和其他類型的保護措施,或由于自愿或資源不足而沒有得到完全的執(zhí)行,就有可能造成危害。世界衛(wèi)生組織最近與世界各地的監(jiān)管機構(gòu)協(xié)商發(fā)布了一份新出版物,概述了政府和監(jiān)管機構(gòu)在制定新的人工智能指南或調(diào)整現(xiàn)有指南時可以遵循的關(guān)鍵原則。
國際治理可以避免尋求先發(fā)優(yōu)勢而忽視安全和效率標準的企業(yè)之間的“逐底競爭”,以及避免為爭奪技術(shù)霸主地位而在地緣政治競賽中尋求優(yōu)勢的政府之間的“逐底競爭”。因此,國際治理可以確保所有企業(yè)都符合安全和效率的最低標準,也可以避免出臺為企業(yè)或政府提供競爭優(yōu)勢或劣勢的法規(guī)。
無論采取何種形式的國際治理,重要的是不能完全由高收入國家,或者說主要與或僅與世界上大型科技企業(yè)合作的高收入國家來制定。由高收入國家和科技企業(yè)主導(dǎo)并為其制定的標準,無論是針對人工智能的普遍應(yīng)用,還是針對多模態(tài)大模型在衛(wèi)生保健與藥品領(lǐng)域中的具體使用,都將使低收入和中等收入國家的大多數(shù)人在制定標準方面沒有任何作用或發(fā)言權(quán)。這將使未來的人工智能技術(shù)在可能最終獲益最多的國家變得危機四伏或無效。
正如聯(lián)合國秘書長在2019年所提議的,人工智能的國際治理可能需要所有利益攸關(guān)方通過網(wǎng)絡(luò)化多邊主義進行合作,這將使聯(lián)合國大家庭、國際金融機構(gòu)、區(qū)域組織、貿(mào)易集團和包括民間團體、城市、企業(yè)、地方當局和青年在內(nèi)的其他方面,更加密切、有效和包容地合作。將倫理和人權(quán)置于多模態(tài)大模型開發(fā)和部署的核心位置可以為實現(xiàn)全民健康覆蓋作出重大貢獻。
注:本文為完整譯文的摘錄,限于版面,省略參考文獻部分,完整內(nèi)容請參閱中國知網(wǎng)發(fā)布的網(wǎng)絡(luò)增強文件。