在過去的一年里,全球的目光都被以ChatGPT為代表的大語言模型的問世所吸引,AI技術(shù)再一次走到了社會(huì)的聚光燈下。流暢的自然語言對話交互、高質(zhì)量的語義理解和智能問答以及強(qiáng)大的AIGC功能掀起一陣AI研究和商業(yè)開發(fā)的熱潮。截至2023年5月,全球范圍內(nèi)累計(jì)推出的10億以上參數(shù)大語言模型總數(shù)已經(jīng)高達(dá)202個(gè),其中中美兩國占其中的90%。
企業(yè)也逐步形成了以B2C、B2B以及B2B2C的三種主要服務(wù)模式,市場參與主體包括基礎(chǔ)大模型技術(shù)服務(wù)者、基于基礎(chǔ)大模型提供應(yīng)用的服務(wù)提供者、企業(yè)用戶及個(gè)人用戶。這些主體共同構(gòu)成了日益繁榮的AI市場生態(tài)。
面對AI技術(shù)的飛速發(fā)展以及不斷涌現(xiàn)的新商業(yè)模式,各國政府也意識到了AI在算法歧視、算法黑箱、虛假內(nèi)容等問題上的負(fù)面影響和對人類社會(huì)的挑戰(zhàn),并加強(qiáng)對AI技術(shù)的監(jiān)管。據(jù)不完全統(tǒng)計(jì),截至2024年3月,全球已經(jīng)發(fā)布了超過1,800項(xiàng)AI治理相關(guān)的政策。例如,歐盟率先啟動(dòng)了綜合性的AI立法工作,歐洲議會(huì)已于近日正式投票通過并批準(zhǔn)了歐盟《人工智能法案》;2023年,美國白宮政府要求多家AI頭部企業(yè)簽署自愿性標(biāo)準(zhǔn),承諾采取自愿監(jiān)管措施管理AI技術(shù)的開發(fā)風(fēng)險(xiǎn)。
近年來,我國也陸續(xù)發(fā)布了《關(guān)于進(jìn)一步壓實(shí)網(wǎng)站平臺信息內(nèi)容管理主體責(zé)任的意見》《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》和《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(“《算法推薦管理規(guī)定》”)等重要文件,拉開了算法治理的序幕。為了應(yīng)對以生成式AI為代表的深度合成技術(shù)發(fā)展產(chǎn)生的新風(fēng)險(xiǎn),國家互聯(lián)網(wǎng)信息辦公室(以下簡稱“國家網(wǎng)信辦”)又陸續(xù)制定了《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(“《深度合成管理規(guī)定》”)和《生成式人工智能服務(wù)管理暫行辦法》(“《生成式人工智能辦法》”)。這些規(guī)定共同構(gòu)成中國目前AI監(jiān)管的主要依據(jù)。雖然目前我國還未頒布一部統(tǒng)一的AI法律,但已逐步形成了涵蓋算法安全風(fēng)險(xiǎn)監(jiān)測、算法安全評估、科技倫理審查、算法備案管理和涉算法違法違規(guī)行為處置等重要內(nèi)容的監(jiān)管體系。
AI企業(yè)治理框架探索
無論是歐盟頒布的《人工智能法案》、中國政府的一系列立法,以及美國政府對AI企業(yè)的要求,均含有AI企業(yè)需建立AI內(nèi)部治理框架方面的內(nèi)容,涵蓋科技倫理審查、內(nèi)部治理架構(gòu)、知識產(chǎn)權(quán)保護(hù)、隱私保護(hù)、數(shù)據(jù)安全等諸多方面。
出于法律合規(guī)要求、企業(yè)自身的社會(huì)責(zé)任感以及消除用戶顧慮等方面的考量,國內(nèi)外知名AI企業(yè),如微軟、谷歌、OpenAI、亞馬遜、Meta、阿里、百度、騰訊,也逐步加強(qiáng)內(nèi)部治理框架的建設(shè)。這些企業(yè)的AI治理實(shí)踐,雖有共性的部分,但也因企業(yè)基因、文化背景、市場環(huán)境、產(chǎn)品側(cè)重、產(chǎn)業(yè)鏈位置等因素的不同而各有特點(diǎn)。由于AI時(shí)代的迅速來臨,各家企業(yè)的AI治理框架仍顯得較為“年輕”,但我們相信,觀察分析這些AI頭部企業(yè)的AI治理實(shí)踐和探索,對于深刻理解AI時(shí)代全人類面臨的機(jī)遇和調(diào)整、預(yù)判全世界監(jiān)管部門的立法趨勢、為其他企業(yè)提供寶貴借鑒均大有裨益。
作為最早布局AI服務(wù)的國際企業(yè)之一,微軟自2016年起即開始關(guān)注AI會(huì)給人類社會(huì)帶來的風(fēng)險(xiǎn),并且不斷地在企業(yè)內(nèi)部進(jìn)行試驗(yàn)和摸索,逐漸構(gòu)建起了一套較為完整的AI治理方案;微軟的AI服務(wù)場景也較為全面,不僅包括面向C端消費(fèi)者的M365 Copilot產(chǎn)品,還包括面向B端企業(yè)用戶進(jìn)行深度開發(fā)的Azure OpenAI(“AOAI”)平臺;結(jié)合其強(qiáng)大的ToC和ToB系列產(chǎn)品,微軟AI產(chǎn)品的運(yùn)營模式也較為成熟。考慮到這些因素,微軟為AI治理框架研究提供了一個(gè)很好的樣本。
微軟AI治理框架
1. AI治理核心理念和原則
(1)各國監(jiān)管要求
對于AI風(fēng)險(xiǎn)管理框架,許多國家和組織都提出了自己的標(biāo)準(zhǔn)。例如美國國家標(biāo)準(zhǔn)技術(shù)研究院(NIST)在2023年發(fā)布了第一版的《人工智能風(fēng)險(xiǎn)管理框架》(AI RMF 1.0),ISO也在近期推出了ISO/IEC 42001 AI管理體系標(biāo)準(zhǔn)。雖然業(yè)界對于具體的AI治理方案爭論激烈,但是治理目標(biāo)上,各國逐漸達(dá)成了共識。2023年11月1日,28國及歐盟代表共同簽署了全球第一份關(guān)于AI的國際性聲明《布萊切利宣言》。在該宣言中,各國代表一致同意,“為了所有人的利益,AI應(yīng)該以安全、以人為中心、值得信賴和負(fù)責(zé)任的方式設(shè)計(jì)、開發(fā)、部署和使用?!?/p>
中國政府也適時(shí)公布了AI的治理理念。2019年,中國國家新一代AI治理專業(yè)委員會(huì)發(fā)布了中國治理框架要求:《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》。該文件將發(fā)展負(fù)責(zé)任的AI作為治理目標(biāo),并確立了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等八條原則。2021年,該委員會(huì)在《新一代人工智能倫理規(guī)范》中進(jìn)一步提出了增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確保可控可信、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)等6項(xiàng)基本倫理,以及在AI管理、研發(fā)、供應(yīng)、使用等特定活動(dòng)中的18項(xiàng)具體倫理要求。
在這些原則的指引下,中國監(jiān)管部門要求各類AI服務(wù)企業(yè)(如算法推薦服務(wù)、深度合成服務(wù)商)落實(shí)算法安全主體責(zé)任,建立健全用戶注冊、算法機(jī)制機(jī)理審核、科技倫理審查、信息發(fā)布審核、數(shù)據(jù)安全、個(gè)人信息保護(hù)、反電信網(wǎng)絡(luò)詐騙、應(yīng)急處置等管理制度,并采取安全可控的技術(shù)保障措施。在相關(guān)企業(yè)提供“具有輿論屬性或者社會(huì)動(dòng)員能力”的AI服務(wù)時(shí),企業(yè)還需要開展安全評估確保AI產(chǎn)品的風(fēng)險(xiǎn)安全可控。
(2)微軟AI治理的核心原則和標(biāo)準(zhǔn)
微軟將發(fā)展負(fù)責(zé)任AI(Responsible AI)作為其治理框架的基本原則和核心目標(biāo)。為了實(shí)現(xiàn)該目標(biāo),微軟在公司內(nèi)部建構(gòu)了一套涵蓋原則、政策標(biāo)準(zhǔn)以及實(shí)施工具的完整的AI治理框架。
首先,微軟在2018年就確立了六項(xiàng)基本原則,包括:問責(zé)制、包容性、可靠性和安全性、公平性、透明度,以及隱私和安全性。其中,微軟將“問責(zé)制”作為一切原則的基石,因?yàn)槲④浾J(rèn)為必須始終確保AI受到人們的有效監(jiān)督和控制,并由AI的設(shè)計(jì)者與控制者承擔(dān)責(zé)任。
在此基礎(chǔ)上,微軟進(jìn)一步將這六項(xiàng)原則細(xì)化為《負(fù)責(zé)任人工智能標(biāo)準(zhǔn)》(Microsoft’s Responsible AI standard),為每項(xiàng)原則都制定了具體的落實(shí)方法,將抽象的理念變成可供執(zhí)行的實(shí)用指南,協(xié)助工程師團(tuán)隊(duì)提前識別、評估和減輕可能的危害。例如微軟將“問責(zé)制”原則拆解為明確的實(shí)踐要求和操作流程,包括要求團(tuán)隊(duì)對AI系統(tǒng)開展影響評估、審查是否會(huì)對外部相關(guān)方產(chǎn)生重大不利影響、明確AI系統(tǒng)的使用目的、采取合適的數(shù)據(jù)治理措施、確保人類對AI系統(tǒng)的監(jiān)督和控制能力。
(3)微軟AI治理標(biāo)準(zhǔn)的具體實(shí)施
微軟通過企業(yè)內(nèi)部的員工培訓(xùn)、測試系統(tǒng)以及監(jiān)控、審計(jì)和合規(guī)的治理流程共同配合,推進(jìn)《負(fù)責(zé)任的人工智能標(biāo)準(zhǔn)》的實(shí)施。此外,微軟還設(shè)計(jì)了一系列治理工具供團(tuán)隊(duì)員工參考,例如AI影響評估模版、AI影響評估指南、透明度說明以及有關(guān)通過設(shè)計(jì)實(shí)施負(fù)責(zé)任的AI的詳細(xì)指引手冊。
微軟也深刻意識到上述標(biāo)準(zhǔn)化流程和工具并不足以應(yīng)付現(xiàn)實(shí)情況的復(fù)雜性。隨著技術(shù)的不斷迭代發(fā)展以及AI在各個(gè)行業(yè)領(lǐng)域中的普及,現(xiàn)實(shí)應(yīng)用中產(chǎn)生的問題將超出《負(fù)責(zé)任人工智能標(biāo)準(zhǔn)》預(yù)先設(shè)定的規(guī)則。對此,微軟創(chuàng)建了一個(gè)持續(xù)審查和監(jiān)管用于敏感領(lǐng)域項(xiàng)目的程序,為這些高風(fēng)險(xiǎn)AI使用場景提供了額外的監(jiān)管保護(hù)。該程序可以分為“報(bào)告-審查-指導(dǎo)”三步。如果微軟的研發(fā)人員在開發(fā)或者部署AI系統(tǒng)時(shí)發(fā)現(xiàn)該系統(tǒng)存在侵害利益相關(guān)方的風(fēng)險(xiǎn)時(shí)會(huì)報(bào)告給AI治理辦公室,隨后AI治理辦公室會(huì)的主席會(huì)和研發(fā)項(xiàng)目成員以及其他利益相關(guān)方一起使用上述工具進(jìn)行審核。對于影響特別重大或者新穎的案例,微軟還會(huì)召集技術(shù)、法律、工程、人權(quán)等多方背景的專家一起審查。審查結(jié)束后,審核團(tuán)隊(duì)會(huì)提出解決措施與建議,有時(shí)會(huì)比《負(fù)責(zé)任人工智能標(biāo)準(zhǔn)》中的一般性要求更加嚴(yán)格。對于不符合公司標(biāo)準(zhǔn)與原則的項(xiàng)目機(jī)會(huì),微軟會(huì)拒絕開展商業(yè)合作。
2. 內(nèi)部治理架構(gòu)
(1)各國監(jiān)管要求
良好的AI治理需要一個(gè)有效運(yùn)轉(zhuǎn)的內(nèi)部治理組織架構(gòu)。高效合理的組織架構(gòu)不僅能夠確保決策層制定的指導(dǎo)方針、安全措施能夠得到有效執(zhí)行,還為企業(yè)AI治理各項(xiàng)實(shí)踐提供必要的資源支持。
各國監(jiān)管者都認(rèn)識到企業(yè)內(nèi)部組織架構(gòu)的重要性。歐盟委員會(huì)早在2019年就將“人類監(jiān)控”作為可信賴AI的七項(xiàng)基礎(chǔ)原則之一,鼓勵(lì)企業(yè)采取有效的措施將人類的監(jiān)督嵌入到AI全生命周期的活動(dòng)中。新加坡個(gè)人信息保護(hù)委員會(huì)(PDPC)在最新版的《模范人工智能治理框架》(Model AI Governance Framework)報(bào)告中也將內(nèi)部治理架構(gòu)作為通向負(fù)責(zé)任使用AI技術(shù)的必要一環(huán)。
中國也有相似的要求?!端惴ㄍ扑]管理規(guī)定》要求算法推薦服務(wù)提供者配備與算法推薦服務(wù)規(guī)模相適應(yīng)的專業(yè)人員和技術(shù)支撐。國家標(biāo)準(zhǔn)《信息安全技術(shù) 機(jī)器學(xué)習(xí)算法安全評估規(guī)范》則提出了兩項(xiàng)更具體的要求:設(shè)立專門的組織機(jī)構(gòu),負(fù)責(zé)承擔(dān)算法安全工作,一般包括制度措施以及應(yīng)急預(yù)案的制定和執(zhí)行;根據(jù)算法服務(wù)規(guī)模、算法復(fù)雜度、算法迭代更新速度等,配備與之在人員規(guī)模、技術(shù)能力等方面相適應(yīng)的專業(yè)人員,進(jìn)行技術(shù)支撐。同時(shí),在履行算法備案程序的過程中,企業(yè)還會(huì)被要求填寫“算法安全專職機(jī)構(gòu)”和“算法安全負(fù)責(zé)人”信息。
(2)微軟的內(nèi)部治理架構(gòu)
根據(jù)微軟《治理A I:面向未來的藍(lán)圖》(Governing AI: A Blueprint for the Future)報(bào)告的介紹,目前有大約350名員工負(fù)責(zé)AI的治理工作,貫穿了企業(yè)上下各層級。
根據(jù)該報(bào)告,在管理層,微軟董事長兼首席執(zhí)行官Satya Nadella和整個(gè)高管團(tuán)隊(duì)推動(dòng)治理架構(gòu)的建立,并將建設(shè)負(fù)責(zé)任AI作為全公司上下的任務(wù)。微軟董事會(huì)中的環(huán)境、社會(huì)和公共政策委員會(huì)負(fù)責(zé)監(jiān)督微軟的“負(fù)責(zé)任AI計(jì)劃”,確保企業(yè)風(fēng)險(xiǎn)管理框架得到嚴(yán)格地執(zhí)行。
在董事會(huì)之下,微軟設(shè)立了負(fù)責(zé)任AI委員會(huì),負(fù)責(zé)實(shí)施微軟的“負(fù)責(zé)任AI計(jì)劃”,協(xié)調(diào)領(lǐng)導(dǎo)層并履行問責(zé)制。該委員會(huì)由微軟副主席兼總裁Brad Smith和首席技術(shù)官Kevin Scott擔(dān)任主席。其中Kevin Scott負(fù)責(zé)制定公司的技術(shù)愿景并監(jiān)督微軟的研發(fā)部門。負(fù)責(zé)任的AI委員會(huì)定期召開會(huì)議,會(huì)議參與者包括AI、倫理與工程研究委員會(huì)(Aether committee),AI治理辦公室,工程管理者以及高級業(yè)務(wù)合作伙伴等致力于AI治理的核心研究、政策和工程團(tuán)隊(duì)的代表。
在執(zhí)行層,微軟認(rèn)識到由單一團(tuán)隊(duì)或部門負(fù)責(zé)AI治理是遠(yuǎn)遠(yuǎn)不夠的。長期的實(shí)踐經(jīng)驗(yàn)讓微軟意識到AI的治理工作不僅需要得到公司管理層的支持,還需要在公司各個(gè)層面進(jìn)行宣傳和倡導(dǎo)。為此,微軟的AI治理辦公室設(shè)計(jì)了一個(gè)治理系統(tǒng),由公司上下眾多不同的團(tuán)隊(duì)和職能部門(包括研發(fā)團(tuán)隊(duì)、政策團(tuán)隊(duì)和工程團(tuán)隊(duì))共同參與。管理層會(huì)在產(chǎn)品、工程和銷售團(tuán)隊(duì)中任命“負(fù)責(zé)任AI代表”(Responsible AI Champions)。這些員工代表需要在各自的團(tuán)隊(duì)中帶頭開展負(fù)責(zé)任的AI實(shí)踐,包括但不限于采用《負(fù)責(zé)任人工智能標(biāo)準(zhǔn)》、發(fā)現(xiàn)問題并向團(tuán)隊(duì)提出解決措施、宣傳AI治理文化。AI治理辦公室會(huì)協(xié)調(diào)企業(yè)上下的各個(gè)團(tuán)隊(duì),利用各團(tuán)隊(duì)深厚的專業(yè)知識與產(chǎn)品運(yùn)營經(jīng)驗(yàn),制定出能適用于全公司的治理方法。
3. 知識產(chǎn)權(quán)治理
快速發(fā)展的AI技術(shù)對現(xiàn)有的知識產(chǎn)權(quán)法律體系帶來巨大沖擊。與AI技術(shù)相伴產(chǎn)生諸多新型法律問題,仍未有清晰答案,迫切需要各方積極探索和解決。例如:出于訓(xùn)練AI模型目的而使用他人數(shù)據(jù),是否為合理使用,或是構(gòu)成侵犯他人知識產(chǎn)權(quán)?AI生成內(nèi)容(AI Generated Content, “AIGC”)是否具有可版權(quán)性?AIGC的權(quán)屬應(yīng)歸于服務(wù)使用者還是服務(wù)提供者?
知識產(chǎn)權(quán)侵權(quán)顧慮也是阻礙企業(yè)大規(guī)模使用AIGC的因素之一。一家德國AI內(nèi)容治理公司于2023年8月對86家財(cái)富500強(qiáng)公司的調(diào)查顯示,近三分之一的受訪者將知識產(chǎn)權(quán)問題視為公司使用AIGC的首要擔(dān)憂。
(1)各國監(jiān)管要求
以上種種問題在現(xiàn)有知識產(chǎn)權(quán)法律體系下并沒有清晰的答案,目前各國都在加緊研究、積極探索。在中國,《生成式人工智能辦法》第四條及第七條在原則上規(guī)定,“應(yīng)當(dāng)尊重知識產(chǎn)權(quán)”“不得侵害他人依法享有的知識產(chǎn)權(quán)”,但未對具體情況進(jìn)一步規(guī)定;在司法實(shí)踐中,北京互聯(lián)網(wǎng)法院于2023年底對一起AI生成圖片的著作權(quán)侵權(quán)糾紛作出一審判決,對AI生成圖片是否構(gòu)成作品、著作權(quán)侵權(quán)歸屬以及侵權(quán)責(zé)任承擔(dān)等問題做出裁判,引起國內(nèi)和國外的關(guān)注。美國政府采取了一系列措施,通過舉辦聽證會(huì)、聽取AI知識產(chǎn)權(quán)立法建議等方式來廣泛吸取各方意見來為進(jìn)一步立法進(jìn)行準(zhǔn)備。
在司法領(lǐng)域,針對Open AI、谷歌、Midjourney等美國大模型公司的多起訴訟正在審理過程中,相關(guān)爭議焦點(diǎn)覆蓋AI訓(xùn)練數(shù)據(jù)侵權(quán)問題、AIGC著作權(quán)問題等等。日本立法機(jī)關(guān)在2018年修改了《著作權(quán)法》,將“合理使用”的范圍擴(kuò)大至覆蓋AI訓(xùn)練數(shù)據(jù)對于著作權(quán)人作品的利用,以鼓勵(lì)A(yù)I技術(shù)發(fā)展,但同時(shí)也規(guī)定以侵犯原有著作權(quán)為目的的數(shù)據(jù)訓(xùn)練屬于侵權(quán)行為。歐盟則通過2019年《單一數(shù)字市場著作權(quán)指令》明確了開發(fā)者進(jìn)行數(shù)據(jù)挖掘時(shí)的合理使用原則,并通過《人工智能法案》《數(shù)字市場法》《數(shù)字服務(wù)法》為企業(yè)的AI監(jiān)管和治理提供了制度保障。
(2)AI企業(yè)知識產(chǎn)權(quán)保護(hù)實(shí)踐的發(fā)展
在AIGC市場發(fā)展的初期,AI行業(yè)較為普遍的做法是“生成內(nèi)容侵權(quán)后果自負(fù)”。具體表現(xiàn)為AI服務(wù)提供者通過服務(wù)條款約定所有因用戶使用AIGC而引起的責(zé)任一律由用戶承擔(dān),而服務(wù)提供者不對AIGC負(fù)責(zé);或通過免責(zé)聲明條款約定AIGC產(chǎn)品和服務(wù)按“如現(xiàn)狀”(as is)提供,拒絕對其作出關(guān)于質(zhì)量、適銷性、無侵權(quán)等保證,從而排除相關(guān)責(zé)任。一些服務(wù)提供者甚至反向約定用戶需要對服務(wù)提供者面臨的侵權(quán)索賠進(jìn)行賠償。例如,一款漫畫分鏡類AIGC產(chǎn)品Storyboard That在其服務(wù)條款中規(guī)定:“用戶應(yīng)對因用戶使用本服務(wù)或因用戶違反本協(xié)議任何條款而產(chǎn)生的任何及所有索賠、訴訟、程序、責(zé)任、損失、損害、成本、費(fèi)用和律師費(fèi)進(jìn)行抗辯、賠償并使Clever Prototypes免受損害。”AI服務(wù)商的這種做法,使處于用戶端的企業(yè)承擔(dān)了自行甄別AIGC工具是否存在侵權(quán)可能的繁重責(zé)任,以及因侵權(quán)而產(chǎn)生索賠的巨大風(fēng)險(xiǎn)。
(3)微軟對AI知識產(chǎn)權(quán)的立場
在微軟的推動(dòng)下,上述市場普遍做法正在逐漸發(fā)生變化。2022年6月,微軟子公司GitHub 率先承諾將為使用其生成式AI編碼工具Copilot的用戶面臨的侵權(quán)索賠進(jìn)行賠償,前提是用戶對AI輸出代碼使用“查重”過濾器。Adobe和Shutterstock隨后分別開始在受限的范圍內(nèi)為使用其AI圖像生成工具的商業(yè)用戶提供知識產(chǎn)權(quán)侵權(quán)賠償措施。上述侵權(quán)賠償措施僅限于特定代碼和圖像生成工具,應(yīng)用范圍較窄。
2023年,微軟通過其Copilot版權(quán)承諾(即CCC的前身)進(jìn)一步挑戰(zhàn)了市場普遍做法,極大擴(kuò)展了其知識產(chǎn)權(quán)保護(hù)范圍。微軟的Copilot版權(quán)承諾保證付費(fèi)用戶可以“使用微軟的Copilot服務(wù)及其產(chǎn)生的輸出內(nèi)容而不必?fù)?dān)心版權(quán)索賠”。與前述GitHub為輸出代碼提供的保護(hù)不同,Copilot版權(quán)承諾涵蓋廣泛的微軟Copilot服務(wù),包括集成到M365系列辦公軟件中的Copilot AI應(yīng)用。IBM、谷歌、OpenAI緊隨其后,陸續(xù)承諾為客戶面臨的知識產(chǎn)權(quán)索賠提供賠償。2023年9月28日,IBM表示將賠償客戶因使用watsonx AI和數(shù)據(jù)平臺而產(chǎn)生的知識產(chǎn)權(quán)索賠。2023年10月,谷歌宣布為生成式AI工具提供賠償。2023年11月,OpenAI首席執(zhí)行官Sam Altman在OpenAI“開發(fā)者日(DevDay)”會(huì)議上向與會(huì)者宣布,ChatGPT企業(yè)版和API的客戶若面臨版權(quán)侵權(quán)法律訴訟,OpenAI將提供保護(hù)并支付所產(chǎn)生的費(fèi)用。
2023年11月15日,微軟將Copilot版權(quán)承諾正式更名為“客戶版權(quán)承諾”(Customer Copyright Commitment,簡稱“CCC”),并將其保護(hù)范圍進(jìn)一步延伸,將使用AOAI平臺進(jìn)行深度開發(fā)的B端企業(yè)用戶也囊括在內(nèi)。一般而言,在B端企業(yè)用戶自行利用大模型輸入數(shù)據(jù)進(jìn)行模型訓(xùn)練、應(yīng)用開發(fā)的商業(yè)模式中,企業(yè)用戶自由度較高,而大模型提供者難以控制客戶生成內(nèi)容,因此更難保證輸出內(nèi)容不涉及侵權(quán)。在這一背景下,微軟作為大模型提供者仍然能主動(dòng)承諾對客戶生成內(nèi)容承擔(dān)侵權(quán)責(zé)任,這一抉擇殊為不易,也顯示了微軟對其AI產(chǎn)品的強(qiáng)大信心。
(4)微軟“客戶版權(quán)保護(hù)承諾”策略
在滿足以下所有附加條件的前提下,微軟依據(jù)客戶批量許可協(xié)議承擔(dān)的在客戶遇到第三方知識產(chǎn)權(quán)索賠時(shí)為其提供抗辯的義務(wù),將適用于客戶使用或分發(fā)涵蓋產(chǎn)品的輸出內(nèi)容的情況:客戶在使用涵蓋產(chǎn)品生成導(dǎo)致索賠的輸出內(nèi)容時(shí),不曾禁用、逃避、破壞或干擾內(nèi)容篩選器、元提示中的限制或?qū)儆诤w產(chǎn)品的其他安全系統(tǒng)。
客戶未以其知道或應(yīng)該知道可能侵犯或盜用第三方任何專有權(quán)利的方式修改、使用或分發(fā)輸出內(nèi)容。
客戶有足夠的權(quán)利使用與涵蓋產(chǎn)品有關(guān)的輸入,包括但不限于客戶用于自定義生成導(dǎo)致索賠的輸出內(nèi)容的模型的任何客戶數(shù)據(jù)。
相關(guān)索賠未主張輸出內(nèi)容被用于商業(yè)或貿(mào)易過程,并侵犯了第三方的商標(biāo)或相關(guān)權(quán)利。
對于 Azure OpenAI 服務(wù)和任何具有可配置元提示或其他安全系統(tǒng)的任何其他涵蓋產(chǎn)品,客戶還必須實(shí)施提供導(dǎo)致索賠的輸出內(nèi)容的產(chǎn)品的Azure OpenAI 服務(wù)文檔中要求的所有風(fēng)險(xiǎn)緩解措施?!?/p>
簡言之,微軟“客戶版權(quán)保護(hù)承諾”機(jī)制需要滿足若干附加條件。首先,客戶不得“繞開”相關(guān)產(chǎn)品內(nèi)置的內(nèi)容過濾器,并且必須實(shí)施微軟要求的所有“風(fēng)險(xiǎn)緩解措施”。其次,客戶不得故意或放任侵權(quán),包括客戶知道可能導(dǎo)致侵權(quán)而使用輸出內(nèi)容,以及用戶輸入內(nèi)容本身侵權(quán)。最后,CCC承諾并不涵蓋商業(yè)或貿(mào)易過程中的商標(biāo)權(quán)。
在滿足上述附加條件的前提下,微軟承諾,針對第三方知識產(chǎn)權(quán)索賠,微軟將為客戶提供抗辯,并支付索賠金額,包括訴訟導(dǎo)致的任何不利判決或和解金額,且賠償金額不設(shè)上限。
CCC承諾是微軟對AI知識產(chǎn)權(quán)問題的積極回應(yīng)。一方面,微軟主動(dòng)承擔(dān)責(zé)任,降低了AI服務(wù)使用者對生成內(nèi)容承擔(dān)的風(fēng)險(xiǎn);另一方面,微軟要求客戶共同參與知識產(chǎn)權(quán)治理,為客戶提供了嚴(yán)謹(jǐn)?shù)陌踩到y(tǒng)和風(fēng)險(xiǎn)緩釋措施,引導(dǎo)客戶合理使用微軟的服務(wù)。與此同時(shí),微軟的賠償承諾也保障了著作權(quán)人在訴訟中獲得索賠的合法權(quán)利。
作為AIGC服務(wù)提供者,微軟改變了AI行業(yè)“生成內(nèi)容侵權(quán)后果自負(fù)”這一普遍性做法,積極主動(dòng)承擔(dān)責(zé)任,開創(chuàng)性地設(shè)置了“客戶版權(quán)保護(hù)承諾”的特殊機(jī)制以轉(zhuǎn)移客戶面臨的知識產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn),對消除企業(yè)使用AIGC的顧慮發(fā)揮了巨大作用。
4. 數(shù)據(jù)保護(hù)
AI技術(shù)背后隱藏的另一巨大風(fēng)險(xiǎn)是可能出現(xiàn)的數(shù)據(jù)泄露。2023年4月,韓國科技巨頭三星電子在引入AI語言模型ChatGPT后遭遇了嚴(yán)重的機(jī)密資料泄漏事故,引發(fā)了關(guān)于AI技術(shù)數(shù)據(jù)安全性和隱私保護(hù)的廣泛關(guān)注。據(jù)報(bào)道,事故系該企業(yè)員工將公司的機(jī)密代碼、機(jī)密信息輸入ChatGPT引起。2023年6月,一家數(shù)據(jù)分析公司統(tǒng)計(jì)了來自各個(gè)行業(yè)的160萬名公司員工使用ChatGPT的情況,發(fā)現(xiàn)10.8%的員工曾試圖在工作中使用ChatGPT,且4.7%的員工向ChatGPT中輸入了公司的機(jī)密數(shù)據(jù)。
(1)各國監(jiān)管要求
確保數(shù)據(jù)安全是各國監(jiān)管部門的普遍要求和重點(diǎn)關(guān)切。歐盟從《通用數(shù)據(jù)保護(hù)條例》出發(fā),密切關(guān)注AI在數(shù)據(jù)隱私和個(gè)人信息保護(hù)、算法方面的合規(guī)性,開展了一系列針對性的調(diào)查行動(dòng)。意大利個(gè)人數(shù)據(jù)保護(hù)局以侵犯數(shù)據(jù)隱私為由宣布禁用ChatGPT并對其展開調(diào)查,在OpenAI更新相關(guān)隱私政策后,意大利才恢復(fù)了該國對ChatGPT的訪問。德國和愛爾蘭等國政府也緊隨其后表示,將會(huì)重點(diǎn)關(guān)注大模型應(yīng)用帶來的數(shù)據(jù)安全問題。
我國于2023年7月頒布的《生成式人工智能辦法》明確要求AI服務(wù)提供者承擔(dān)相應(yīng)的數(shù)據(jù)安全保護(hù)義務(wù)。根據(jù)《生成式人工智能辦法》第七條第(五)項(xiàng),服務(wù)提供者所需要履行《數(shù)據(jù)安全法》《網(wǎng)絡(luò)安全法》《個(gè)人信息保護(hù)法》等法律法規(guī)下的數(shù)據(jù)安全保護(hù)義務(wù)。然而,這些法律法規(guī)對于數(shù)據(jù)安全保護(hù)義務(wù)的規(guī)定較為抽象,如何具體適用在AIGC服務(wù)提供的過程,還需要企業(yè)的合規(guī)探索,并需要密切觀察監(jiān)管部門的具體執(zhí)法行為及相關(guān)指引。
(2)微軟的數(shù)據(jù)保護(hù)治理
微軟采取了一系列措施,確保AI服務(wù)的數(shù)據(jù)和隱私安全,并重點(diǎn)關(guān)注以下方面:
一是提高安全性。微軟承諾其產(chǎn)品在設(shè)計(jì)和實(shí)現(xiàn)的各個(gè)階段都具有安全性和隱私性。例如,為了回應(yīng)客戶對于訓(xùn)練數(shù)據(jù)泄露擔(dān)憂,在微軟向客戶提供的M365 Copilot服務(wù)中,微軟承諾嚴(yán)格遵守其現(xiàn)有的隱私政策,不使用用戶數(shù)據(jù)進(jìn)行模型訓(xùn)練。在微軟向企業(yè)客戶提供的AOAI服務(wù)中,企業(yè)客戶可基于微軟現(xiàn)有模型進(jìn)行應(yīng)用開發(fā),并使用客戶自己的數(shù)據(jù)進(jìn)行模型訓(xùn)練,微軟承諾,對于客戶自行輸入的訓(xùn)練數(shù)據(jù)及生成內(nèi)容完全屬于客戶,微軟不會(huì)提供給任何其他客戶、不會(huì)提供給OpenAI或用于訓(xùn)練OpenAI的模型、也不會(huì)用于改進(jìn)微軟的各種服務(wù);客戶開發(fā)的模型也僅供客戶使用。
二是提升透明度。微軟在用戶使用AI產(chǎn)品時(shí)承諾實(shí)時(shí)提供信息對用戶進(jìn)行充分告知,使個(gè)人和組織用戶都能夠清晰了解其AI系統(tǒng)的能力和局限性。例如,當(dāng)用戶使用Copilot服務(wù)時(shí),微軟會(huì)讓用戶清楚地知悉其正在與AI進(jìn)行交互,并向用戶展示關(guān)于其如何收集、使用數(shù)據(jù)的信息;同時(shí)以對話的方式為用戶提供易于理解的選項(xiàng),幫助用戶更好地理解如何利用AI并降低潛在數(shù)據(jù)和隱私泄露的風(fēng)險(xiǎn)。
三是提供用戶行權(quán)方式。微軟承諾為數(shù)據(jù)主體提供了較為便捷的行使其數(shù)據(jù)主體權(quán)利的方式。微軟賬戶持有人可通過微軟隱私儀表板訪問、管理和刪除其個(gè)人數(shù)據(jù)和存儲(chǔ)的對話歷史記錄,以便其控制自己的數(shù)據(jù)。
四是持續(xù)合規(guī),支持全球數(shù)據(jù)保護(hù)法規(guī)的進(jìn)步。微軟承諾將確保其在所有運(yùn)營的司法轄區(qū)均遵循所在地的數(shù)據(jù)保護(hù)法律。微軟也承諾積極承擔(dān)社會(huì)責(zé)任,與世界各地的數(shù)據(jù)保護(hù)當(dāng)局和隱私監(jiān)管機(jī)構(gòu)密切合作,積極參與和推進(jìn)數(shù)據(jù)保護(hù)法律的發(fā)展。
微軟模式帶來的啟示
AI技術(shù)正以前所未有的速度推動(dòng)人類社會(huì)的智力創(chuàng)新、經(jīng)濟(jì)高質(zhì)量發(fā)展和生產(chǎn)生活方式的效率提升。在為全球產(chǎn)業(yè)發(fā)展注入新動(dòng)能的同時(shí),AI也催生了一系列新的問題和挑戰(zhàn),需要監(jiān)管部門和行業(yè)共同探索與時(shí)俱進(jìn)的AI治理方案。
微軟“負(fù)責(zé)任的AI”治理框架,固然與微軟的AI產(chǎn)品線緊密相關(guān),但對其他AI企業(yè)以及用戶企業(yè)而言都有許多值得借鑒之處。
1.基本原則
樹立“負(fù)責(zé)任的AI”的基本原則和核心目標(biāo),貫穿企業(yè)所有相關(guān)部門及所有相關(guān)產(chǎn)品設(shè)計(jì)。
2.內(nèi)部治理框架
建立高效的內(nèi)部治理機(jī)構(gòu),從管理層到執(zhí)行層逐級明確AI治理負(fù)責(zé)人、負(fù)責(zé)部門。
3.標(biāo)準(zhǔn)實(shí)施
建構(gòu)一套完整的AI治理框架,涵蓋原則、政策標(biāo)準(zhǔn)以及實(shí)施工具,并為應(yīng)對變化留足空間。
4.知識產(chǎn)權(quán)治理
在引導(dǎo)用戶合理使用AI服務(wù)的前提下,提供侵權(quán)風(fēng)險(xiǎn)轉(zhuǎn)移方案。
5.數(shù)據(jù)保護(hù)
采取措施提高安全性、提升透明度、提供用戶行權(quán)方式、確保持續(xù)合規(guī),支持全球數(shù)據(jù)保護(hù)法規(guī)的進(jìn)步。
由于AI技術(shù)的快速發(fā)展,相關(guān)企業(yè)在AI治理方案方面的探索仍處于比較早期的階段。在關(guān)注AI技術(shù)發(fā)展的同時(shí),企業(yè)的治理實(shí)踐發(fā)展和監(jiān)管部門的政策法規(guī)變化也值得繼續(xù)觀察。