摘要:當(dāng)前,人工智能得到迅猛發(fā)展,在提升經(jīng)濟(jì)和社會(huì)效益的同時(shí),也引發(fā)諸多風(fēng)險(xiǎn)問題。文章以美國《人工智能權(quán)利法案藍(lán)圖》和歐盟《人工智能法案》為例,分析了人工智能風(fēng)險(xiǎn)防治的國際經(jīng)驗(yàn),在此基礎(chǔ)上,提出對(duì)我國人工智能風(fēng)險(xiǎn)治理體系的建議,即在風(fēng)險(xiǎn)管理工具和評(píng)估方法、全鏈條監(jiān)管機(jī)制、治理精細(xì)化程度、知識(shí)產(chǎn)權(quán)保護(hù)與安全監(jiān)管等方面并重并行。
關(guān)鍵詞:人工智能;風(fēng)險(xiǎn)規(guī)制;國際借鑒
中圖分類號(hào):中圖分類號(hào)F4266文獻(xiàn)標(biāo)志碼:A文獻(xiàn)標(biāo)志碼
0引言
近年來,人工智能技術(shù)在全球范圍內(nèi)持續(xù)發(fā)展,在多個(gè)領(lǐng)域取得了顯著進(jìn)展。人工智能技術(shù)推陳出新,尤其是在深度學(xué)習(xí)、自然語言處理、計(jì)算機(jī)視覺和強(qiáng)化學(xué)習(xí)等領(lǐng)域。深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和計(jì)算能力的提升,使得人工智能在語音識(shí)別、圖像識(shí)別、機(jī)器翻譯等應(yīng)用上表現(xiàn)出了前所未有的準(zhǔn)確性和效率。人工智能技術(shù)的應(yīng)用范圍不斷擴(kuò)大,涵蓋了包括醫(yī)療健康、金融、教育、制造業(yè)、交通、零售等眾多行業(yè)。例如,在醫(yī)療領(lǐng)域,人工智能被用于輔助診斷、藥物研發(fā)和個(gè)性化治療;在金融領(lǐng)域,人工智能廣泛應(yīng)用于風(fēng)險(xiǎn)評(píng)估、智能投顧和欺詐檢測(cè);在自動(dòng)駕駛和智慧城市建設(shè)中,人工智能也發(fā)揮著重要作用。
1人工智能發(fā)展現(xiàn)狀
11人工智能戰(zhàn)略不斷升級(jí)
人工智能已成為科技創(chuàng)新的核心領(lǐng)域,是數(shù)字經(jīng)濟(jì)時(shí)代的重要支柱。自2016年以來,全球超過40個(gè)國家和地區(qū)將推動(dòng)人工智能發(fā)展作為國家戰(zhàn)略,尤其是在疫情之后,許多國家意識(shí)到其在提升全球競爭力方面的關(guān)鍵作用,因此加強(qiáng)了相關(guān)戰(zhàn)略,出臺(tái)了一系列政策和措施,以推動(dòng)人工智能技術(shù)的研發(fā)和應(yīng)用。例如,歐盟發(fā)布了《人工智能白皮書》和《2030數(shù)字化指南》,美國成立了國家人工智能倡議辦公室,中國則在“十四五”規(guī)劃中明確提出要加快人工智能等前沿技術(shù)的發(fā)展,這些政策為人工智能的發(fā)展提供了資金、人才和市場支持[1]。
隨著人工智能創(chuàng)新需求的增長,各國加大了對(duì)這一領(lǐng)域的投資。歐盟通過“地平線歐洲”和“數(shù)字歐洲”等計(jì)劃,增加對(duì)人工智能的資金支持,投資總額達(dá)到955億歐元。美國則將人工智能列為未來技術(shù)發(fā)展的優(yōu)先領(lǐng)域,計(jì)劃在未來幾年投入超過1000億美元。英國也在人工智能研究和應(yīng)用上加大投入,以推動(dòng)技術(shù)創(chuàng)新和產(chǎn)業(yè)應(yīng)用。全球各國還通過實(shí)際應(yīng)用推動(dòng)人工智能技術(shù)落地。例如,美國通過國家科學(xué)基金會(huì)和相關(guān)機(jī)構(gòu)的合作,推動(dòng)人工智能在多個(gè)行業(yè)的應(yīng)用。英國啟動(dòng)了國家人工智能研究計(jì)劃,促進(jìn)人工智能技術(shù)的廣泛應(yīng)用。日本著重于在醫(yī)療、農(nóng)業(yè)、交通及制造業(yè)等關(guān)鍵領(lǐng)域深化人工智能的應(yīng)用,加大對(duì)中小企業(yè)的扶持力度。與此同時(shí),我國在“十四五”規(guī)劃綱要中明確規(guī)劃了人工智能產(chǎn)業(yè)的發(fā)展藍(lán)圖,鼓勵(lì)各地建立創(chuàng)新應(yīng)用示范區(qū),以加速人工智能技術(shù)在各行各業(yè)的融合與落地。
12人工智能持續(xù)健康發(fā)展成為發(fā)展焦點(diǎn)
人工智能問世以來,其理論與技術(shù)框架經(jīng)歷了數(shù)次重大革新。近10年來,人工智能憑借著深度學(xué)習(xí)算法的飛躍、計(jì)算性能的顯著提升及大數(shù)據(jù)資源的累積,實(shí)現(xiàn)了從學(xué)術(shù)研究到商業(yè)化應(yīng)用的跨越。在這一轉(zhuǎn)變過程中,人工智能的應(yīng)用范疇逐步從“初步可用”到“高度實(shí)用”,但一系列的風(fēng)險(xiǎn)與挑戰(zhàn)也隨之浮現(xiàn)。公眾認(rèn)知的逐漸深化促使人們開始聚焦于人工智能的治理問題,對(duì)其安全性和可靠性提出了更高要求[2]。
德國大眾汽車工廠機(jī)器人在2015年出現(xiàn)故障,引發(fā)全球第一起智能機(jī)器人殺人事件。此后,人工智能外科機(jī)器人在手術(shù)中出現(xiàn)重大失誤,智能汽車“突然失控”“自動(dòng)加速”“剎車失靈”等事件頻發(fā),導(dǎo)致死亡案例不斷增長。美國司法系統(tǒng)在人工智能的錯(cuò)誤判斷下,甚至逮捕了無罪人員。某詐騙團(tuán)隊(duì)利用“人工智能換臉”技術(shù),在BitVex比特幣詐騙平臺(tái)一周之內(nèi)就成功詐騙2億元。人工智能問題主要體現(xiàn)在以下幾個(gè)方面:
121倫理道德問題
人工智能在倫理道德層面存在諸多隱患。算法偏見是一個(gè)突出問題,由于訓(xùn)練數(shù)據(jù)可能存在偏差或不完整,算法在決策時(shí)便容易對(duì)特定群體產(chǎn)生不公平對(duì)待。如在招聘場景中,如果數(shù)據(jù)集中男性求職者的樣本更多且成功案例也較多,基于此訓(xùn)練的算法可能就會(huì)對(duì)男性求職者更為青睞,從而使女性求職者處于不利地位。在人類自主性和尊嚴(yán)方面,當(dāng)人工智能深度介入一些決策過程時(shí),如在醫(yī)療中僅憑算法決定治療方案而不充分考慮患者自主意愿,就可能違背人類的基本倫理原則,對(duì)人類尊嚴(yán)造成侵害,引發(fā)社會(huì)對(duì)人工智能道德性的廣泛爭議。
122數(shù)據(jù)隱私與安全問題
數(shù)據(jù)隱私與安全在人工智能應(yīng)用中面臨嚴(yán)峻挑戰(zhàn)。數(shù)據(jù)泄露風(fēng)險(xiǎn)極高,因?yàn)槿斯ぶ悄艿挠?xùn)練和運(yùn)行依賴海量數(shù)據(jù),在數(shù)據(jù)的收集、存儲(chǔ)與共享環(huán)節(jié),只要安全防護(hù)稍有漏洞,個(gè)人隱私信息、企業(yè)商業(yè)機(jī)密乃至國家機(jī)密就可能被不法分子竊?。?]。如一些大型互聯(lián)網(wǎng)企業(yè)曾曝出數(shù)據(jù)泄露事件,導(dǎo)致大量用戶信息被非法利用。同時(shí),數(shù)據(jù)還可能遭受惡意篡改與濫用。不良分子通過篡改數(shù)據(jù)來誤導(dǎo)人工智能系統(tǒng)做出錯(cuò)誤決策,進(jìn)而擾亂社會(huì)經(jīng)濟(jì)秩序或損害公共利益,如利用篡改后的金融數(shù)據(jù)進(jìn)行詐騙活動(dòng),給社會(huì)帶來極大危害。
123就業(yè)與社會(huì)經(jīng)濟(jì)影響問題
在就業(yè)結(jié)構(gòu)方面,人工智能的廣泛應(yīng)用使得大量重復(fù)性、規(guī)律性強(qiáng)的工作崗位面臨被替代的命運(yùn),如制造業(yè)中的流水線工人崗位、部分?jǐn)?shù)據(jù)錄入員崗位等。這無疑會(huì)沖擊就業(yè)市場,但同時(shí)也促使社會(huì)加速職業(yè)轉(zhuǎn)型進(jìn)程。從貧富差距角度來看,那些能夠率先掌握先進(jìn)人工智能技術(shù)和擁有豐富數(shù)據(jù)資源的企業(yè)和個(gè)人,在市場競爭中優(yōu)勢(shì)明顯,而那些缺乏相關(guān)資源與能力的群體則可能逐漸被邊緣化,收入差距進(jìn)一步拉大,加劇社會(huì)的貧富分化。
124技術(shù)失控與安全性問題
技術(shù)失控與安全性問題是人工智能發(fā)展的重大隱憂。其意外風(fēng)險(xiǎn)不容小覷,人工智能系統(tǒng)的復(fù)雜性與自主性使其行為難以精準(zhǔn)預(yù)測(cè)與掌控,像自動(dòng)駕駛汽車可能因系統(tǒng)故障或?qū)?fù)雜路況判斷失誤而引發(fā)交通事故,智能機(jī)器人也可能因程序錯(cuò)誤而出現(xiàn)誤操作,對(duì)周圍人員和環(huán)境造成傷害[4]。此外,惡意利用風(fēng)險(xiǎn)也日益凸顯,人工智能技術(shù)被惡意用于網(wǎng)絡(luò)攻擊、制造虛假信息以擾亂社會(huì)穩(wěn)定或開展恐怖活動(dòng)等情況已逐漸出現(xiàn)。例如,利用人工智能生成高度逼真的虛假視頻或音頻來傳播謠言、誹謗他人。在軍事領(lǐng)域,人工智能應(yīng)用于自主武器系統(tǒng)和情報(bào)分析等方面,可能引發(fā)軍備競賽,使戰(zhàn)爭的不確定性大幅增加,一旦技術(shù)失控,將對(duì)人類的生存與安全構(gòu)成難以想象的威脅。
125監(jiān)管與治理難題
監(jiān)管與治理是人工智能健康發(fā)展的關(guān)鍵環(huán)節(jié),但監(jiān)管滯后性極為明顯,人工智能技術(shù)的快速迭代創(chuàng)新使得新應(yīng)用和新風(fēng)險(xiǎn)層出不窮,而監(jiān)管政策從制定到實(shí)施需要時(shí)間和流程,難以迅速跟上技術(shù)發(fā)展節(jié)奏。例如,一些新興的人工智能金融服務(wù)模式在出現(xiàn)初期可能處于監(jiān)管空白狀態(tài),容易引發(fā)金融風(fēng)險(xiǎn)。監(jiān)管標(biāo)準(zhǔn)差異也是一大難題。不同國家和地區(qū)基于自身的法律體系、文化背景和發(fā)展戰(zhàn)略,對(duì)人工智能制定了不同的監(jiān)管標(biāo)準(zhǔn)。這使得企業(yè)在跨國經(jīng)營和技術(shù)交流時(shí)無所適從,既要滿足本國監(jiān)管要求,又要應(yīng)對(duì)其他國家的不同標(biāo)準(zhǔn),不僅增加了運(yùn)營成本和法律風(fēng)險(xiǎn),也阻礙了全球人工智能產(chǎn)業(yè)的協(xié)同合作與統(tǒng)一治理[5]。當(dāng)人工智能系統(tǒng)造成損害時(shí),由于涉及開發(fā)者、使用者、數(shù)據(jù)提供者等多主體,各主體在系統(tǒng)運(yùn)行中的角色和作用復(fù)雜交織,導(dǎo)致責(zé)任界定困難重重,容易出現(xiàn)相互推諉責(zé)任的情況,對(duì)受害者權(quán)益保護(hù)和社會(huì)公平正義的維護(hù)構(gòu)成了巨大障礙。
2人工智能風(fēng)險(xiǎn)治理的國際經(jīng)驗(yàn)
針對(duì)人工智能的科技倫理和風(fēng)險(xiǎn)問題,美國發(fā)布了《人工智能權(quán)利法案藍(lán)圖》(以下簡稱《藍(lán)圖》),歐盟出臺(tái)了《人工智能法案》(以下簡稱《法案》),兩者均把人工智能安全建設(shè)作為法案核心內(nèi)容,兼顧技術(shù)創(chuàng)新與安全監(jiān)管。
21美國《藍(lán)圖》更注重公平隱私保護(hù)
《藍(lán)圖》包括5項(xiàng)原則:(1)建立安全有效系統(tǒng),保護(hù)美國公民免受不安全或無效系統(tǒng)的影響;(2)算法歧視保護(hù),以公平安全方式設(shè)計(jì)和使用系統(tǒng);(3)數(shù)據(jù)隱私保護(hù),通過內(nèi)置保護(hù)措施并由相關(guān)機(jī)構(gòu)管理數(shù)據(jù)的方式,保護(hù)公民免受數(shù)據(jù)濫用影響;(4)自動(dòng)化決策系統(tǒng)通知和解釋要清晰、及時(shí)和可訪問,公民應(yīng)當(dāng)知曉正在使用的系統(tǒng)并了解該系統(tǒng)對(duì)結(jié)果造成何種影響;(5)設(shè)計(jì)人工智能系統(tǒng)失敗時(shí)使用的替代方案、考慮因素和退出機(jī)制,保證在適當(dāng)情況下公民應(yīng)該能夠選擇退出并快速解決問題(見表1)?!端{(lán)圖》核心主旨是避免人工智能系統(tǒng)濫用危害。
《藍(lán)圖》追究大技術(shù)責(zé)任,保護(hù)美國公民權(quán)利,著重強(qiáng)調(diào)技術(shù)使用過程中的公平性和隱私性,警告算法歧視,敦促數(shù)據(jù)保護(hù)與隱私保護(hù),強(qiáng)調(diào)人類對(duì)人工智能能力的選擇,確保人工智能和大語言模型等技術(shù)為公民服務(wù)。《藍(lán)圖》在公平性方面,要求自動(dòng)化系統(tǒng)的設(shè)計(jì)者、開發(fā)者和部署者應(yīng)采取積極措施,保護(hù)個(gè)人和社區(qū)免受算法歧視,以公平方式使用和設(shè)計(jì)系統(tǒng);在隱私保護(hù)方面,要求數(shù)據(jù)隱私制定符合安全框架下的基礎(chǔ)性要求和交叉性原則,自動(dòng)化和人工智能系統(tǒng)的設(shè)計(jì)、構(gòu)建和使用,均需要默認(rèn)和嚴(yán)格遵守保護(hù)隱私規(guī)則。
同時(shí),美國正在考慮制定《人工智能安全創(chuàng)新》,包括5個(gè)核心支柱:(1)安全。通過檢查來自外國敵對(duì)勢(shì)力或流氓團(tuán)體的人工智能威脅來支撐國家安全,確保勞動(dòng)力特別是低技能、低收入勞動(dòng)力的經(jīng)濟(jì)安全。(2)問責(zé)制。支持創(chuàng)建“負(fù)責(zé)任”的系統(tǒng),以解決錯(cuò)誤信息和偏見等問題。(3)基礎(chǔ)。要求人工智能系統(tǒng)以民主價(jià)值觀為核心,保護(hù)選舉,促進(jìn)人工智能的社會(huì)效益并遏制潛在危害。(4)解釋。以簡單易懂的方式分享人工智能系統(tǒng)決策結(jié)果,以便用戶可以更好地理解系統(tǒng)決策結(jié)果產(chǎn)生過程。(5)創(chuàng)新。支持人工智能技術(shù)創(chuàng)新以保持美國在人工智能技術(shù)方面的領(lǐng)先地位。
22歐盟《法案》更加強(qiáng)調(diào)風(fēng)險(xiǎn)管控
《法案》提出了全生命周期的風(fēng)險(xiǎn)管理規(guī)制體系?!斗ò浮穭?chuàng)新了風(fēng)險(xiǎn)分類思路、產(chǎn)品規(guī)制路徑、負(fù)責(zé)任創(chuàng)新和實(shí)驗(yàn)主義治理等理念,平衡了數(shù)據(jù)流動(dòng)和廣泛使用之間關(guān)系,保證高水平的隱私、安全和倫理標(biāo)準(zhǔn)。《法案》強(qiáng)調(diào)對(duì)人工智能風(fēng)險(xiǎn)管理,包括對(duì)數(shù)據(jù)、算法規(guī)則和設(shè)計(jì)人員倫理的管理,還重視對(duì)風(fēng)險(xiǎn)管理過程和結(jié)果的控制?!斗ò浮坊谌斯ぶ悄茱L(fēng)險(xiǎn)管控理念,打造全生命周期風(fēng)險(xiǎn)規(guī)制,覆蓋人工智能產(chǎn)品的入市前、入市后兩階段,劃分為事前風(fēng)險(xiǎn)管理、事中應(yīng)急管理、事后開展學(xué)習(xí)的3個(gè)維度,提出風(fēng)險(xiǎn)應(yīng)對(duì)措施[6]。其中,風(fēng)險(xiǎn)管理涵蓋風(fēng)險(xiǎn)的預(yù)知、研判和預(yù)警;應(yīng)急管理覆蓋應(yīng)急的響應(yīng)與處置;善后學(xué)習(xí)包括總結(jié)反思與自動(dòng)化決策系統(tǒng)完善重構(gòu)。
《法案》遵循“特征、問題、目標(biāo)、舉措”基本思路。針對(duì)人工智能特征,其技術(shù)原理具有復(fù)雜性、模糊性特征,在錯(cuò)誤算法下存在一定的歧視性,再加上自動(dòng)化程度增強(qiáng)讓人工智能系統(tǒng)自主性愈發(fā)顯著,使其運(yùn)用更具有不確定性和不可預(yù)測(cè)性。針對(duì)人工智能問題,其復(fù)雜性、模糊性、歧視性、不確定性和不可預(yù)測(cè)性特征,引發(fā)了安全風(fēng)險(xiǎn)和人權(quán)風(fēng)險(xiǎn)問題。同時(shí),由于現(xiàn)有法律規(guī)則供給不足,監(jiān)管機(jī)構(gòu)面臨規(guī)制困境,各國出臺(tái)的人工智能治理政策過于分散零碎,引發(fā)了人工智能的執(zhí)法困難和法規(guī)空白,造成了法律監(jiān)管碎片化。為此,《法案》確立了4項(xiàng)關(guān)鍵目標(biāo),包括確保人工智能安全與合法、實(shí)現(xiàn)對(duì)人工智能科學(xué)治理和有效執(zhí)法、彌補(bǔ)法律監(jiān)管空白以及形成人工智能單一市場?!斗ò浮愤€引入多個(gè)監(jiān)管工具,包括全生命周期風(fēng)險(xiǎn)管理、“人-機(jī)”界面管理工具和監(jiān)管沙盒機(jī)制等(見表2)。
《法案》將人工智能風(fēng)險(xiǎn)分為4種類型,針對(duì)不同風(fēng)險(xiǎn)采取不同監(jiān)管措施(見表3)。第一種為最為嚴(yán)重的不可接受風(fēng)險(xiǎn),即威脅人的安全、生計(jì)和權(quán)利的風(fēng)險(xiǎn),包括操縱人類行為規(guī)避用戶自由意志的系統(tǒng)和允許政府使用社會(huì)評(píng)分系統(tǒng)等。不可接受風(fēng)險(xiǎn)的監(jiān)管措施為禁止,若違反則被處以巨額罰款。第二種為高風(fēng)險(xiǎn),涉及基本的私人和公共服務(wù),威脅生命和健康的重要基礎(chǔ)設(shè)施,決定受教育機(jī)會(huì)的考核或職業(yè)培訓(xùn),涵蓋自動(dòng)駕駛和機(jī)器人手術(shù)的產(chǎn)品安全使用,包括就業(yè)履歷篩選、員工管理流程、司法和民主程序的執(zhí)法系統(tǒng)等。高風(fēng)險(xiǎn)監(jiān)管措施為:上市前受到嚴(yán)格管控,開展風(fēng)險(xiǎn)評(píng)估,為系統(tǒng)提供高質(zhì)量數(shù)據(jù);對(duì)活動(dòng)記錄確??勺匪?,提供關(guān)于系統(tǒng)和目的的所有必要信息;由監(jiān)管機(jī)構(gòu)評(píng)估合規(guī)性;配套人為監(jiān)督措施和停止功能;上市后持續(xù)的市場監(jiān)督和共享故障信息,嚴(yán)格執(zhí)法與處罰。第三種為有限風(fēng)險(xiǎn),包括使用人工智能時(shí)使用者能意識(shí)到與機(jī)器互動(dòng),進(jìn)而做出明智決定。第四種為最小風(fēng)險(xiǎn),涉及允許自由使用人工智能的電子游戲或垃圾郵件過濾器等應(yīng)用。后面兩種風(fēng)險(xiǎn)的監(jiān)管措施,均為實(shí)現(xiàn)透明和公開化。
基于風(fēng)險(xiǎn)分類,《法案》明確了人工智能風(fēng)險(xiǎn)管控的適用范圍、管理步驟和流程監(jiān)控。《法案》針對(duì)風(fēng)險(xiǎn)適用范圍方面,將不可接受風(fēng)險(xiǎn)領(lǐng)域和高風(fēng)險(xiǎn)領(lǐng)域細(xì)化為重要基礎(chǔ)設(shè)施、就業(yè)、公共服務(wù)、教育、產(chǎn)品安全、涉權(quán)型執(zhí)法等類型,著重強(qiáng)調(diào)生物識(shí)別系統(tǒng)。《法案》針對(duì)風(fēng)險(xiǎn)管理步驟,規(guī)定為識(shí)別和分析已知和可預(yù)見的風(fēng)險(xiǎn),評(píng)估使用后可能的風(fēng)險(xiǎn),基于上市后檢測(cè)數(shù)據(jù)預(yù)估風(fēng)險(xiǎn),采取針對(duì)性是風(fēng)險(xiǎn)管理措施。《法案》針對(duì)人工智能風(fēng)險(xiǎn)流程監(jiān)控,支持構(gòu)建監(jiān)管沙盒機(jī)制,即在自動(dòng)化決策系統(tǒng)入市或使用前,引入受檢測(cè)控制的機(jī)制環(huán)境,人工智能自動(dòng)化決策系統(tǒng)在受監(jiān)測(cè)控制環(huán)境進(jìn)行有效開發(fā)、測(cè)試和驗(yàn)證。沙盒實(shí)驗(yàn)機(jī)制內(nèi)一旦發(fā)現(xiàn)對(duì)人的健康、安全和基本權(quán)利構(gòu)成風(fēng)險(xiǎn),應(yīng)采取積極應(yīng)對(duì)措施。
3對(duì)我國人工智能風(fēng)險(xiǎn)治理體系的啟示與建議
借鑒歐美國際經(jīng)驗(yàn)來看:一是人工智能強(qiáng)技術(shù)性特征,加劇信息不對(duì)稱下的監(jiān)管難度;二是人工智能應(yīng)用范圍跨度大,加大協(xié)調(diào)監(jiān)管難度;三是人工智能風(fēng)險(xiǎn)和軌跡的發(fā)展速度較快,具有高度不確定性[7]。這些因素共同導(dǎo)致事前與前瞻性監(jiān)管決策更加困難,現(xiàn)有國際監(jiān)管法規(guī)顯得滯后。當(dāng)前,中國人工智能治理法律對(duì)自動(dòng)化決策系統(tǒng)和算法的公平性尚未作出明確規(guī)定,也未給出明確治理方案,亟須完善相應(yīng)立法體系。
31開發(fā)可信賴的人工智能風(fēng)險(xiǎn)管理工具和評(píng)估方法
建立工具選擇、納入和修正程序,為相關(guān)工具建立評(píng)估標(biāo)準(zhǔn),明確增加到共享中心/數(shù)據(jù)庫指標(biāo)和方法,更新和維護(hù)共享中心/數(shù)據(jù)庫。積極推動(dòng)監(jiān)測(cè)、評(píng)估已出現(xiàn)的和潛在人工智能風(fēng)險(xiǎn)。根據(jù)人工智能風(fēng)險(xiǎn)管理工具使用情況,標(biāo)記已出現(xiàn)的人工智能風(fēng)險(xiǎn),建立跟蹤辦法,嘗試建立風(fēng)險(xiǎn)分類標(biāo)準(zhǔn)。確定對(duì)新出現(xiàn)的人工智能風(fēng)險(xiǎn)測(cè)試和評(píng)估方法,通過對(duì)人工智能傷害事件的參數(shù)估計(jì)和實(shí)證研究,建立風(fēng)險(xiǎn)分類標(biāo)準(zhǔn)和評(píng)估機(jī)制。
32設(shè)計(jì)“事前評(píng)估、事中監(jiān)督、事后學(xué)習(xí)”的全鏈條監(jiān)管機(jī)制
在人工智能產(chǎn)品進(jìn)入市場前的事前評(píng)估階段,進(jìn)行風(fēng)險(xiǎn)評(píng)估和管控,構(gòu)建風(fēng)險(xiǎn)分類分級(jí)模式,參照不同應(yīng)用場景下的不同風(fēng)險(xiǎn)匹配程度,制定對(duì)應(yīng)措施規(guī)制,如禁止危害人身安全、人格尊嚴(yán)和自主意識(shí)的人工智能產(chǎn)品入市。在人工智能產(chǎn)品進(jìn)入市場后的事中階段,持續(xù)開展市場監(jiān)督,完善產(chǎn)品質(zhì)量的后續(xù)觀察和監(jiān)控機(jī)制,保障產(chǎn)品符合各項(xiàng)安全指標(biāo),配套產(chǎn)品質(zhì)量信息反饋。同時(shí),針對(duì)問題產(chǎn)品采取立刻召回或強(qiáng)制銷毀制度并及時(shí)向外發(fā)出警示信息,讓公眾了解產(chǎn)品風(fēng)險(xiǎn)和危害。在人工智能產(chǎn)品進(jìn)入市場后的善后學(xué)習(xí)階段,開展風(fēng)險(xiǎn)事故的數(shù)據(jù)共享和風(fēng)險(xiǎn)監(jiān)測(cè),構(gòu)建風(fēng)險(xiǎn)數(shù)據(jù)平臺(tái),加強(qiáng)風(fēng)險(xiǎn)監(jiān)測(cè)和預(yù)防。同時(shí),建立統(tǒng)一科學(xué)的檢測(cè)監(jiān)控體系,拓寬缺陷信息采集渠道,實(shí)現(xiàn)風(fēng)險(xiǎn)監(jiān)測(cè)和預(yù)防。
33保護(hù)企業(yè)數(shù)據(jù)挖掘,提升人工智能治理精細(xì)化程度
首先,在加速人工智能產(chǎn)業(yè)發(fā)展方面,應(yīng)當(dāng)明確開發(fā)者進(jìn)行數(shù)據(jù)挖掘時(shí)的合理使用原則。針對(duì)以科學(xué)研究為目的和不限制目的的文本和數(shù)據(jù)挖掘活動(dòng),采取不同的著作權(quán)保護(hù)方案,以解決人工智能輸入端數(shù)據(jù)學(xué)習(xí)中的侵權(quán)責(zé)任,明晰了輸入端的合理使用標(biāo)準(zhǔn),避免出現(xiàn)侵犯原著作權(quán)的情況。其次,在人工智能產(chǎn)業(yè)治理方面,應(yīng)積極提升知識(shí)產(chǎn)權(quán)規(guī)則適用的精細(xì)化水平。從保護(hù)權(quán)利人自由決定權(quán)與利益角度出發(fā),要求徹底記錄任何用于訓(xùn)練人工智能系統(tǒng)如何生成類似于人類作品的文本、圖像、視頻和音樂的著作權(quán)材料;再由權(quán)利人決定相關(guān)著作權(quán)資料是否可以用于ChatGPT等人工智能模型復(fù)制、訓(xùn)練并獲取補(bǔ)償;最后,在人工智能產(chǎn)業(yè)監(jiān)管方面,對(duì)于生成式人工智能工具如ChatGPT,應(yīng)當(dāng)立法嘗試按照其潛在風(fēng)險(xiǎn)進(jìn)行分類,將透明度要求與風(fēng)險(xiǎn)級(jí)別掛鉤,實(shí)施不同的監(jiān)管措施。計(jì)算能力越強(qiáng)大的模型,應(yīng)當(dāng)面臨更為嚴(yán)格的監(jiān)管,同時(shí)用于數(shù)據(jù)訓(xùn)練模型的數(shù)據(jù)也將受到額外的安全審查。
34強(qiáng)化知識(shí)產(chǎn)權(quán)保護(hù)
首先,完善治理理念,平衡著作權(quán)權(quán)利人、大模型經(jīng)營者和社會(huì)公共利益的權(quán)利要求,積極回應(yīng)著作權(quán)權(quán)利人獲得合理的報(bào)酬和著作權(quán)保護(hù)的呼聲,降低大模型經(jīng)營者的知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn),促進(jìn)社會(huì)的知識(shí)普惠與文化創(chuàng)新的共同繁榮。其次,健全治理規(guī)則,主動(dòng)明晰數(shù)據(jù)訓(xùn)練的合理使用規(guī)則,加快人工智能生成物保護(hù)范圍的法律研究。最后,統(tǒng)籌治理主體,充分發(fā)揮各方主體參與,建立起綜合、平衡、適應(yīng)性強(qiáng)的人工智能知識(shí)產(chǎn)權(quán)治理體系,積極提高行業(yè)組織和標(biāo)準(zhǔn)機(jī)構(gòu)圍繞內(nèi)容生成產(chǎn)業(yè)治理的內(nèi)容質(zhì)量,制定行業(yè)標(biāo)準(zhǔn),推動(dòng)行業(yè)聯(lián)合研發(fā)著作權(quán)合規(guī)工具,鼓勵(lì)企業(yè)主體和開發(fā)者參與著作權(quán)治理流程。
4結(jié)語
綜上所述,隨著以人工智能為代表的新技術(shù)的興起,新一輪產(chǎn)業(yè)與科技革命在全球范圍內(nèi)迅猛發(fā)展。面對(duì)人工智能帶來的潛在風(fēng)險(xiǎn)和新挑戰(zhàn),歐美國家通過設(shè)立一系列法案、規(guī)制,已經(jīng)在人工智能風(fēng)險(xiǎn)治理領(lǐng)域取得了較為成功、有效的實(shí)踐。因此,應(yīng)積極借鑒歐美成熟的理論經(jīng)驗(yàn),立足我國國情,提出具有自身特色的人工智能風(fēng)險(xiǎn)評(píng)估和治理措施。在進(jìn)一步完善國內(nèi)相關(guān)人工智能風(fēng)險(xiǎn)治理體系的同時(shí),為國際人工智能領(lǐng)域的風(fēng)險(xiǎn)監(jiān)管難題貢獻(xiàn)中國方案。
參考文獻(xiàn)
[1]王彥雨,雍熙,高芳.人工智能巨風(fēng)險(xiǎn)研究:形成機(jī)制、路徑及未來研究[J].自然辯證法研究,2023(1):104-110.
[2]張欣.生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管[J]. 現(xiàn)代法學(xué),2023(3):108-123.
[3]周漢華.探索激勵(lì)相容的個(gè)人數(shù)據(jù)治理之道:中國個(gè)人信息保護(hù)法的立法方向[J]. 法學(xué)研究,2018(2):3-23.
[4]張欣.我國人工智能技術(shù)標(biāo)準(zhǔn)的治理效能、路徑反思與因應(yīng)之道[J].中國法律評(píng)論,2021(5): 79-93.
[5]王彥雨,李正風(fēng),高芳.歐美人工智能治理模式比較研究[J].科學(xué)研究,2024(3):460-468.
[6]曾雄,梁正,張輝.歐盟人工智能的規(guī)制路徑及其對(duì)我國的啟示:以《人工智能法案》為分析對(duì)象[J].電子政務(wù),2022(9):63-72.
[7]俞晗之,王晗曄.人工智能全球治理的現(xiàn)狀: 基于主體與實(shí)踐的分析[J].電子政務(wù),2019(3):9-17.
(編輯姚鑫)
基金項(xiàng)目:2024年度江蘇省社科聯(lián)科技倫理專項(xiàng)課題項(xiàng)目;項(xiàng)目名稱:新時(shí)期加強(qiáng)科技倫理知識(shí)普及與教育機(jī)制研究;項(xiàng)目編號(hào):24SLB-08。2023 年度江蘇省生產(chǎn)力促進(jìn)中心青年人才基金項(xiàng)目;項(xiàng)目名稱:“33310”集成創(chuàng)新服務(wù)體系深化研究;項(xiàng)目編號(hào):D2023013。
作者簡介:楊玲娟(1981—),女,研究員,碩士;研究方向:科技管理與科技服務(wù)
*通信作者:徐瑞(1992—),女,副研究員,碩士;研究方向:科技管理與科技服務(wù)。
Abstract: "At present, the rapid development of artificial intelligence has not only improved economic and social benefits, but also caused many risk problems. Taking the Blueprint of the AI Bill of Rights in the United States and the AI Bill in the European Union as examples, this paper analyzes the international experience of AI risk prevention and control, and on this basis, puts forward suggestions for China's AI risk governance system, that is, both risk management tools and evaluation methods, the whole chain regulatory mechanism, the degree of refinement of governance, intellectual property protection and safety supervision.