饒 晗
(廣州工商學院,廣東 廣州 510850)
以ChatGPT為代表的生成式人工智能技術(shù)掀起了一股新的科技浪潮,并在商業(yè)領(lǐng)域得到廣泛應(yīng)用。該技術(shù)在改變生產(chǎn)方式、提高生產(chǎn)效率的同時,也存在著令人擔憂的倫理和法律風險。如何正確認識和防范這些風險關(guān)乎該項技術(shù)在商業(yè)領(lǐng)域應(yīng)用的健康發(fā)展以及人類的福祉。中國、美國和歐盟目前在生成式人工智能技術(shù)的研發(fā)和相關(guān)政策法規(guī)制定方面處于領(lǐng)先地位,對比中美歐生成式人工智能政策法規(guī),可以更好地幫助企業(yè)認識和防范相關(guān)倫理和法律風險,依法依規(guī)開展生成式人工智能技術(shù)的研發(fā)和商業(yè)應(yīng)用。
生成式人工智能(Generative AI)是指通過海量的數(shù)據(jù)和模型訓練生成符合指令的新內(nèi)容的人工智能[1]。2022年11月30日,美國OpenAI公司發(fā)布了人工智能聊天機器人ChatGPT,其是一種基于Transformer神經(jīng)網(wǎng)絡(luò)架構(gòu)和大語言模型訓練、擁有語言理解和文本生成能力的生成式人工智能,一經(jīng)發(fā)布便火爆全球,兩個月內(nèi)用戶就已超過1億[2]。ChatGPT的出現(xiàn)是生成式人工智能技術(shù)發(fā)展的重大突破,標志著強人工智能時代的到來[3]。之后,各大科技公司研發(fā)的生成式人工智能模型也如雨后春筍般紛紛發(fā)布,例如谷歌的Bard模型、Anthropic公司的Claude模型、Meta公司的LLaMA模型,以及繪畫生成模型Midjourney等。國內(nèi)的生成式人工智能模型也在這股浪潮下蓬勃發(fā)展,據(jù)統(tǒng)計,截至2023年8月,國內(nèi)已發(fā)布的各類大模型數(shù)量超過100個,呈現(xiàn)出“百模大戰(zhàn)”的局面[4],其中,具有代表性的有百度的文心一言、科大訊飛的星火大模型、阿里云的通義千問、清華大學的ChatGLM等通用大模型,以及華為盤古行業(yè)大模型、華佗醫(yī)療大模型等垂直領(lǐng)域的大模型。
隨著生成式人工智能大模型的發(fā)展,各行業(yè)也在積極探索如何利用大模型來提升傳統(tǒng)業(yè)務(wù)的智能水平和工作效率。生成式人工智能的應(yīng)用場景和生態(tài)系統(tǒng)不斷拓展,使得人們的生產(chǎn)生活也逐漸從“互聯(lián)網(wǎng)+”時代過渡到“AI+”時代。生成式人工智能的發(fā)展勢不可擋,但也存在著一定的倫理和法律風險。其中,偏見和歧視、數(shù)據(jù)安全、知識產(chǎn)權(quán)、虛假信息和技術(shù)壟斷等問題較為突出,相關(guān)的違法案例也層出不窮。例如,2023年1月,Stable Diffusion的公司被控告未經(jīng)允許盜用了某平臺上的數(shù)百萬張圖片;2023年5月,甘肅省平?jīng)鍪泄簿謧善屏宋覈桌蒙a(chǎn)式人工智能技術(shù)制造虛假新聞的案件[5]。
為引導和規(guī)范生成式人工智能技術(shù)的創(chuàng)新和商業(yè)應(yīng)用,中國、美國和歐盟均出臺了相關(guān)的政策法規(guī),這些政策法規(guī)之間既有共通之處,也存在差異。本文通過對比分析中美歐生成式人工智能相關(guān)的政策法規(guī),既可以幫助政府、企業(yè)、社會機構(gòu)等相關(guān)主體不斷優(yōu)化完善監(jiān)管措施,也可以為企業(yè)合規(guī)應(yīng)用生成式人工智能技術(shù)提供指引。
美國在人工智能技術(shù)的研發(fā)和應(yīng)用方面目前處于世界領(lǐng)先地位,其對人工智能監(jiān)管的總體方向是通過人工智能倫理與法律體系的完善來促進AI技術(shù)的創(chuàng)新并降低潛在的風險[6]。美國政府機構(gòu)發(fā)布了一系列的政策文件來促進和規(guī)制人工智能技術(shù)的發(fā)展和應(yīng)用。
早在2016年10月,美國國家科學技術(shù)委員會就發(fā)布了《國家人工智能研究與發(fā)展戰(zhàn)略計劃》,明確提出了改進公平性、透明度和設(shè)計責任機制以及提高可解釋性和信任度等規(guī)則[7]。
2019年10月,美國國防創(chuàng)新委員會發(fā)布的《人工智能準則》明確提出了負責任、公平性、可溯源、可信賴、可控性五大人工智能倫理原則[8]。
2020年1月,美國白宮發(fā)布《人工智能應(yīng)用規(guī)范指南》,提出了公眾對人工智能的信任、公眾參與、科學誠信與信息質(zhì)量、風險評估與管理、收益與成本、靈活性、公平和不歧視、披露和透明度、安全、機構(gòu)間協(xié)調(diào)十條指導規(guī)范[9]。
2021年1月,美國頒布《2020國家人工智能倡議法案》,主要目標是確保美國在人工智能領(lǐng)域的領(lǐng)先地位,開發(fā)和使用可信賴的AI系統(tǒng),協(xié)調(diào)機構(gòu)間AI研究的合作[10]。
2022年10月,白宮發(fā)布了《人工智能權(quán)利法案藍圖》,提出人工智能系統(tǒng)的研發(fā)和使用應(yīng)符合安全有效、算法歧視保護、數(shù)據(jù)隱私、通知和解釋、人工替代及可回退這五項原則[11]。這是目前美國聯(lián)邦層面最新的規(guī)范人工智能的指導文件。
歐盟人工智能技術(shù)的發(fā)展落后于美國,但力爭通過構(gòu)建完善的倫理和法律體系來尋求在世界人工智能治理領(lǐng)域的影響力,因此其治理模式呈現(xiàn)出“倫理優(yōu)先”的特點。從治理結(jié)構(gòu)來看,歐盟強調(diào)采用統(tǒng)一的立法規(guī)制人工智能發(fā)展,構(gòu)建了以歐盟數(shù)據(jù)委員會為主導、各成員國數(shù)據(jù)保護機構(gòu)相協(xié)調(diào)的垂直治理體系。
早在2016年4月,歐盟就通過了《通用數(shù)據(jù)保護條例》,提出個人數(shù)據(jù)處理的合法公平透明、目的限制、數(shù)據(jù)最小化、準確度、保存限制、完整性和保密性六項原則[12]。
2018年4月,歐盟委員會發(fā)布了《歐盟人工智能》政策文件,首次提出了歐洲人工智能的發(fā)展戰(zhàn)略,要在歐盟現(xiàn)有價值觀和《歐盟基本權(quán)利憲章》基礎(chǔ)上制定合適的倫理和法律框架[13]。
2019年4月,歐盟進一步發(fā)布了《可信AI倫理指南》,提出了可信AI應(yīng)當滿足人的自主和監(jiān)督,可靠性和安全性,隱私和數(shù)據(jù)治理,透明度,多樣性、非歧視性和公平性,社會和環(huán)境福祉,可追責性等七項要求[14]。
2023年6月,歐洲議會通過了《人工智能法案》,進入立法前的最終談判階段,有望成為世界首部針對的人工智能綜合性立法。該法案將AI風險劃分為被禁止、高風險、有限風險和低風險四個等級,對應(yīng)不同的監(jiān)管要求。此外,法案還對ChatGPT等生成式人工智能工具提出了新的透明度要求,強調(diào)必須對AI生成內(nèi)容進行標注,并防止生成非法內(nèi)容[15]。
中國高度重視人工智能技術(shù)的研發(fā)和應(yīng)用,將其納入國家發(fā)展戰(zhàn)略,并制定了一系列政策和法規(guī)促進人工智能技術(shù)更好地服務(wù)經(jīng)濟社會發(fā)展,防范可能存在的安全、倫理和法律風險。
早在2017年7月,國務(wù)院就發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,提出了科技引領(lǐng)、系統(tǒng)布局、市場主導、開源開放的發(fā)展原則,強調(diào)要加強約束引導,確保人工智能安全、可靠、可控發(fā)展[16]。
2018年1月,中國電子技術(shù)標準化研究院聯(lián)合華為、騰訊、阿里等多家公司發(fā)布了《人工智能標準化白皮書》,提出通過遵循人類利益原則、責任原則、透明度原則和權(quán)責一致原則防范人工智能可能帶來的倫理問題[17]。
2020年7月,國家標準化管理委員會、中央網(wǎng)信辦五部委聯(lián)合印發(fā)《國家新一代人工智能標準體系建設(shè)指南》,其中安全/倫理是人工智能標準體系的重要組成部分并貫穿于其他七個部分[18]。
2021年6月,我國頒布了《數(shù)據(jù)安全法》,提出建立數(shù)據(jù)安全審查制度和數(shù)據(jù)分類分級保護制度,對人工智能技術(shù)開發(fā)與應(yīng)用過程中數(shù)據(jù)獲取、存儲、處理的安全性進行了法律約束[19]。
2021年9月,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,提出應(yīng)遵循以下倫理規(guī)范:增進人類福祉、促進公平公正、保護隱私安全、確保可信可控、強化責任擔當、提升倫理素養(yǎng)[20]。
2021年11月,《個人信息保護法》開始施行,詳細規(guī)定了個人信息處理的一般規(guī)則、敏感個人信息的處理規(guī)則、個人信息跨境提供的規(guī)則、個人在個人信息處理活動中的權(quán)利、個人信息處理者的義務(wù)、履行個人信息保護職責的部門和法律責任,為人工智能技術(shù)開發(fā)與應(yīng)用中的個人信息保護提供了法律依據(jù)[21]。
2022年11月,國家互聯(lián)網(wǎng)信息辦公室通過了《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,提出針對基于人工智能技術(shù)的深度合成服務(wù)提供者和使用者的一般規(guī)定、數(shù)據(jù)和技術(shù)安全管理規(guī)范、監(jiān)督檢查主體和法律責任[22]。
2023年8月,《生成式人工智能服務(wù)管理暫行辦法》開始施行,該辦法提出了堅持社會主義核心價值觀、防止歧視、尊重知識產(chǎn)權(quán)和商業(yè)道德、尊重他人合法權(quán)益、提升服務(wù)的透明度和生成內(nèi)容的準確性及可靠性等指導原則,詳細規(guī)定了生成式人工智能技術(shù)發(fā)展與治理的要求、監(jiān)督檢查和法律責任[23]。這是全球第一部針對生成式人工智能的管理辦法,對引導和規(guī)制目前高速發(fā)展的生成式人工智能技術(shù)具有重要意義。
為進一步了解中美歐關(guān)于生成式人工智能相關(guān)政策法規(guī)的共同點和差異之處,更好地為生成式人工智能的發(fā)展健全法律和倫理保障,研究選取了中美歐最新的相關(guān)政策法規(guī)進行對比分析(見表1)。
表1 中美歐生成式人工智能相關(guān)政策法規(guī)比較
從對生成式人工智能的態(tài)度看,中美歐均支持和鼓勵AI技術(shù)的研發(fā)和應(yīng)用,都力爭在這場AI的競賽中保持領(lǐng)先地位。與此同時,中美歐也均重視人工智能的廣泛應(yīng)用可能帶來的數(shù)據(jù)安全、算法歧視、隱私保護等法律和倫理問題,均出臺了相應(yīng)的法律法規(guī)和指導文件來規(guī)范人工智能的健康發(fā)展,保護人類的基本權(quán)利和福祉,力求在促進AI技術(shù)發(fā)展和防范法律及倫理風險之間取得平衡。
從倫理規(guī)范原則看,中美歐均強調(diào)提供和使用生成式人工智能應(yīng)防止算法歧視、透明、安全可靠、保護隱私以及遵守現(xiàn)行法律法規(guī)。中國著重強調(diào)了應(yīng)堅持社會主義核心價值觀,美國提到了要提供人工替代和回退手段,歐盟非常重視人類的主體地位和社會及環(huán)境福祉。
從數(shù)據(jù)合規(guī)看,中美歐均要求生成式人工智能訓練和使用的數(shù)據(jù)來源合法,保證訓練數(shù)據(jù)的高質(zhì)量。中國更進一步要求制定數(shù)據(jù)標注的規(guī)則并開展質(zhì)量評估,美國提出對敏感領(lǐng)域數(shù)據(jù)的重復利用限制,歐盟則強調(diào)高風險人工智能訓練的數(shù)據(jù)應(yīng)當受到審查和監(jiān)管,避免不符合預期目的的數(shù)據(jù)濫用。
從個人信息保護看,中美歐均規(guī)定要保證人工智能系統(tǒng)中個人信息相關(guān)數(shù)據(jù)的安全,并從數(shù)據(jù)的收集、存儲、處理等各環(huán)節(jié)提出了相關(guān)安全管理要求,均提出要征得用戶的知情同意。中國進一步提出生成式人工智能服務(wù)提供者不得收集非必要個人信息,美國對用戶同意進行了更加細致的分類要求,歐盟則提出要保障個人數(shù)據(jù)的處理不能影響數(shù)據(jù)主體的自主決定。
從商業(yè)服務(wù)規(guī)范看,中國規(guī)定生成式人工智能服務(wù)提供者和使用者要簽訂服務(wù)協(xié)議,明確雙方權(quán)利義務(wù),引導用戶理性合法使用生成式人工智能,提供安全持續(xù)的服務(wù),建立投訴舉報機制;美國要求人工智能系統(tǒng)提供者提供清晰可理解的用戶使用通知和解釋文件,當系統(tǒng)出現(xiàn)故障時提供人工補救;歐盟則提出要建立人工智能的質(zhì)量管理體系,一旦人工智能系統(tǒng)不符合規(guī)定,提供者應(yīng)采取必要的糾正措施或撤回該系統(tǒng)。
從監(jiān)管主體看,中國和歐盟對生成式人工智能的治理更依靠政府,呈現(xiàn)出自上而下的垂直治理模式。中國的網(wǎng)信、發(fā)展改革、教育、科技、工業(yè)和信息化、公安等部門依照各自職責依法監(jiān)管,歐盟則通過設(shè)立歐洲人工智能辦公室進行統(tǒng)一監(jiān)管。美國企業(yè)的倫理自治能力較強,且各州有權(quán)制定不同的人工智能相關(guān)法律法規(guī),因此呈現(xiàn)出自下而上的治理模式。
從法律責任看,對于生成式人工智能違反法律法規(guī)和倫理的處罰,中國依照網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個人信息保護法等相關(guān)法律規(guī)定進行處罰;美國目前在聯(lián)邦政府層面并沒有制定有關(guān)人工智能的法律,主要由各州制定相關(guān)法律法規(guī)并依法進行處罰;歐盟則規(guī)定成員國依據(jù)該法案制定相應(yīng)的處罰規(guī)則,并根據(jù)規(guī)則對不同的違法違規(guī)的機構(gòu)和團體給予行政罰款。
隨著生成式人工智能大模型與各行業(yè)領(lǐng)域的廣泛融合,利用生成式人工智能開發(fā)的應(yīng)用產(chǎn)品也必將層出不窮,相關(guān)的企業(yè)主體在趕上這波AI浪潮的同時,也要重視AI的法律和倫理風險,了解并遵守相關(guān)的法律法規(guī)要求。通過對中美歐關(guān)于生成式人工智能法律法規(guī)的比較,AI研發(fā)與應(yīng)用企業(yè)可以獲得以下商業(yè)啟示。
4.1.1 營造合法合規(guī)的研發(fā)環(huán)境
生成式人工智能研發(fā)企業(yè)要深入理解相關(guān)法律法規(guī),特別是關(guān)于個人信息保護、數(shù)據(jù)來源合法性等的規(guī)定,并積極配合政府監(jiān)管部門,保證研發(fā)活動的合法合規(guī)。建立內(nèi)部審查機制,對數(shù)據(jù)集、模型、應(yīng)用場景進行合規(guī)性評估,杜絕非法數(shù)據(jù)的采集使用以及潛在不道德應(yīng)用的研發(fā)。同時,企業(yè)還應(yīng)定期對員工進行合規(guī)培訓,營造一種合法合規(guī)的文化氛圍。
4.1.2 技術(shù)上實現(xiàn)可解釋、可控制、可審計
生成式人工智能系統(tǒng)的不透明經(jīng)常導致預測結(jié)果難以解釋并引發(fā)爭議。企業(yè)應(yīng)在技術(shù)層面上,讓人工智能系統(tǒng)向用戶解釋預測的原因,從而實現(xiàn)對模型和決策過程的審計。此外,還應(yīng)提供切實可行的人工干預措施,如人工復核、可實施的業(yè)務(wù)規(guī)則等,保證最終決策可控,這有助于消除用戶和監(jiān)管方面的隱憂。
4.1.3 以用戶為中心,提供可靠透明的交互
生成式人工智能企業(yè)應(yīng)以用戶權(quán)益為先,為用戶提供清晰、準確、可理解的交互界面與反饋,主動提示可能的風險,并采取措施預防算法歧視、數(shù)據(jù)泄露等風險的產(chǎn)生。同時還應(yīng)建立用戶反饋渠道,及時糾正錯誤,不斷完善服務(wù)流程。這能夠提高用戶的知情度和參與感,還能增強企業(yè)的社會公信力。
4.1.4 加強內(nèi)部測試與風險評估
企業(yè)應(yīng)建立健全測試驗證和風險評估機制,形成閉環(huán)流程。在研發(fā)過程中持續(xù)進行測試,并在產(chǎn)品上線前進行全面的風險評估,識別模型偏差、安全漏洞、負面外部影響等多種風險,并將評估結(jié)果及時反饋到研發(fā)過程中。同時,上線后也要持續(xù)監(jiān)測模型表現(xiàn),并隨時作出調(diào)整,確保系統(tǒng)的穩(wěn)健安全。
4.2.1 建立倫理規(guī)范體系并加強倫理教育
生成式人工智能企業(yè)應(yīng)成立倫理委員會或類似機構(gòu),研究行業(yè)倫理規(guī)范和道德標準,并將其轉(zhuǎn)化為企業(yè)內(nèi)部的管理制度、技術(shù)規(guī)范及操作流程。還應(yīng)定期對員工進行倫理培訓,提高其倫理意識,并讓倫理規(guī)范成為技術(shù)研發(fā)和管理決策中的重要考慮因素之一,這對于防止不道德應(yīng)用至關(guān)重要。
4.2.2 加強安全設(shè)計與防護
鑒于人工智能可能面臨的數(shù)據(jù)泄露、網(wǎng)絡(luò)攻擊等安全風險,企業(yè)必須在系統(tǒng)設(shè)計與部署的全生命周期中,采取必要的安全設(shè)計與防護措施。這包括加密傳輸與存儲、訪問控制、漏洞掃描、安全測試等手段,實現(xiàn)數(shù)據(jù)與系統(tǒng)的全面安全保護,保證人工智能技術(shù)安全可靠地應(yīng)用于復雜環(huán)境中。
4.2.3 加強風險預警和危機應(yīng)對能力
建立包含風險指標及評估、系統(tǒng)運行監(jiān)測、跨部門合作等事項的風險預警機制和應(yīng)急預案,提前預演各類“黑天鵝”事件,包括技術(shù)故障、法規(guī)變化、競爭壓力等,針對每次模擬演練,進行詳盡的評估,包括團隊響應(yīng)速度、決策準確性等。
4.3.1 加強政府溝通,積極配合監(jiān)管
生成式人工智能企業(yè)不能既要發(fā)展又要無監(jiān)管,良好的政企關(guān)系有利于人工智能的健康發(fā)展。因此應(yīng)加強與政府的溝通交流,通過行業(yè)協(xié)會等渠道表達訴求;積極配合監(jiān)管,可考慮監(jiān)管沙盒等更靈活的模式;及時向政府部門匯報重大進展、存在的困難及潛在風險。
4.3.2 注重社會化咨詢,主動接受公眾監(jiān)督
生成式人工智能企業(yè)還應(yīng)注重吸納社會各界的意見建議,可以建立公眾咨詢委員會,聘請法律、倫理學者等提供意見;也可以開放公眾測試通道,收集用戶反饋。還要加強輿論監(jiān)測,積極回應(yīng)公眾關(guān)切。這有助于提高研發(fā)的社會適用性,也使企業(yè)在接受公眾監(jiān)督的同時增強社會責任感。
4.3.3 重視社會責任,推動行業(yè)共同進步
生成式人工智能企業(yè)不應(yīng)將自身僅視為追求利潤的商業(yè)主體,還應(yīng)承擔起推動社會進步的責任??梢灾鲃訁⑴c行業(yè)討論,為完善倫理規(guī)范建言獻策;開放部分無競爭風險的技術(shù)成果,促進行業(yè)技術(shù)進步;開展公益性研究項目,解決社會問題;同行業(yè)企業(yè)建立伙伴關(guān)系,共同提高人工智能技術(shù)的安全性和可靠性水平。
本研究論述了生成式人工智能技術(shù)的發(fā)展和法律風險、總結(jié)了中美歐相關(guān)政策法規(guī)的發(fā)展進程,并從對AI技術(shù)的態(tài)度、倫理規(guī)范原則、數(shù)據(jù)合規(guī)、個人信息保護、商業(yè)服務(wù)規(guī)范、監(jiān)管主體、法律責任等多個維度,分析和比較了中美歐相關(guān)政策法規(guī)的共通和差異之處,最后根據(jù)以上分析從技術(shù)研發(fā)、內(nèi)部管理和外部監(jiān)督三個層面提出了生成式人工智能相關(guān)企業(yè)防范倫理和法律風險的具體措施,具有一定的實踐指導意義。