[日]新保史生 余夢(mèng)凝
或許2020 年是“AI 原則熱潮”年,許多企業(yè)和機(jī)構(gòu)在運(yùn)用AI 時(shí),出現(xiàn)爭(zhēng)先恐后公布AI 準(zhǔn)則或者原則等傾向。在日本,不少企業(yè)和機(jī)構(gòu)在廣泛制定并公布沿襲總務(wù)省“AI 網(wǎng)絡(luò)社會(huì)推進(jìn)會(huì)議”[3]総務(wù)省「AI tzットpeーク社會(huì)推進(jìn)會(huì)議」 (https://www.soumu.go.jp/main_sosiki/kenkyu/ai_network/index.html)。公布的《AI 研究開(kāi)發(fā)原則》和《AI 利用原則》的各自AI 原則。目前,日本國(guó)內(nèi)大約有十家公司公布了類似的AI 原則。所有公布的原則,都是在參照總務(wù)省AI 網(wǎng)絡(luò)社會(huì)推進(jìn)會(huì)議上制定的原則基礎(chǔ)上,根據(jù)各自企業(yè)討論的情況而確定的原則。今后,可能會(huì)有更多的企業(yè)會(huì)追隨這一風(fēng)向,隨著越來(lái)越多的企業(yè)為跟上AI 原則的潮流,只是形式上公布AI 原則的現(xiàn)象,恐怕也會(huì)產(chǎn)生各種問(wèn)題。在學(xué)術(shù)領(lǐng)域研究AI 原則的機(jī)會(huì)也會(huì)增多。可以預(yù)見(jiàn),調(diào)查研究是否需要AI 原則,以及將原則的各個(gè)項(xiàng)目的一覽表以圓圈形式進(jìn)行調(diào)查的星表式定量調(diào)查或許會(huì)越來(lái)越多。調(diào)查需要什么樣的原則,采用什么樣的項(xiàng)目等,或許是AI 發(fā)展搖籃期不可或缺的研究。
在運(yùn)用AI 時(shí)應(yīng)該考慮并遵循的“原則”,并不是說(shuō)公布了就有意義,而是因?yàn)檫@個(gè)原則具有必要性和重要性。也就是說(shuō),思考為什么需要這些原則、根據(jù)這些原則應(yīng)該做什么,然后將其作為解決問(wèn)題的策略體現(xiàn)出來(lái)才有意義。從“AI 原則能否起作用”的觀點(diǎn)來(lái)看,到現(xiàn)在為止仍然需要反復(fù)思考制定原則的目的,以及在AI 的研究、開(kāi)發(fā)及運(yùn)用中,需要“最低限度必要的原則是什么”?隨著AI 原則熱潮的到來(lái),要讓形式上的原則得到廣泛普及,作為未來(lái)的研究?jī)?nèi)容,在明確非約束性原則的定位之后,下一步是否應(yīng)該考慮將這些非約束性原則作為“法定公布要件”或者“法定要件”確定為約束性規(guī)則,即考慮如何運(yùn)用非約束性原則作為面向?qū)嵱?、?shí)施階段的法律規(guī)范,才能使AI 原則真正發(fā)揮作用是體現(xiàn)制定AI 原則的意義所在。
隨著AI 原則公布現(xiàn)象的泛濫,可能會(huì)朝著與原本制定AI 原則的意圖、意義等初衷相背離的方向發(fā)展。如果僅憑AI 最受關(guān)注,從而擴(kuò)大公布復(fù)制粘貼的形式性AI 原則,可能將稀釋AI 原則公開(kāi)的意義。其實(shí),類似的先例在現(xiàn)實(shí)中已經(jīng)出現(xiàn)。例如,有企業(yè)根據(jù)日本《個(gè)人信息保護(hù)法》制定公布的《關(guān)于處理個(gè)人信息的法定公布事項(xiàng)》以及基于JIS Q15001《個(gè)人信息保護(hù)管理體系》公布的《個(gè)人信息保護(hù)準(zhǔn)則》,可以說(shuō)就是上述“復(fù)制粘貼”的典型示例?,F(xiàn)實(shí)中不難看到,一些企業(yè)將其他企業(yè)的《個(gè)人信息保護(hù)準(zhǔn)則》原封不動(dòng)地復(fù)制并公布,以此表明自己在個(gè)人信息保護(hù)方面已經(jīng)采取了措施,這種將原企業(yè)名稱簡(jiǎn)單地?fù)Q為自己企業(yè)名稱而內(nèi)容幾乎完全一致的現(xiàn)象不在少數(shù)。
雖然日本《個(gè)人信息保護(hù)法》并沒(méi)有直接明確規(guī)定企業(yè)或其他組織負(fù)有公開(kāi)《個(gè)人信息保護(hù)準(zhǔn)則》或《隱私策略》的義務(wù),但第27 條卻規(guī)定企業(yè)有“公開(kāi)持有個(gè)人數(shù)據(jù)相關(guān)事項(xiàng)等”的法定公開(kāi)義務(wù)。根據(jù)2004 年4 月2 日日本內(nèi)閣會(huì)議通過(guò)的《個(gè)人信息保護(hù)基本方針》第6 條第1 款第1 項(xiàng)“個(gè)人信息處理企業(yè)等應(yīng)采取的個(gè)人信息保護(hù)措施,對(duì)外要明確個(gè)人信息處理企業(yè)的實(shí)施措施,即在推進(jìn)個(gè)人信息保護(hù)方面的方式和策略(隱私策略、個(gè)人隱私聲明等)”的規(guī)定,要求企業(yè)在收集、利用個(gè)人信息等過(guò)程中必須采取必要的保護(hù)措施并公開(kāi)其措施準(zhǔn)則;根據(jù)JIS Q 1501:2017《個(gè)人信息保護(hù)管理體系-要求事項(xiàng)》的第5.2.2 條“面向外部的個(gè)人信息保護(hù)方針”規(guī)定,也要求企業(yè)公開(kāi)《個(gè)人信息保護(hù)準(zhǔn)則》。由此可見(jiàn),企業(yè)紛紛公布各自的《個(gè)人信息保護(hù)準(zhǔn)則》是應(yīng)法律規(guī)定之要求。
日本消費(fèi)者委員會(huì)個(gè)人信息保護(hù)專業(yè)調(diào)查會(huì)的《個(gè)人信息保護(hù)專門調(diào)查會(huì)報(bào)告——〈個(gè)人信息保護(hù)法〉及其適用相關(guān)的主要討論》(2011 年7 月)(以下簡(jiǎn)稱《調(diào)查會(huì)報(bào)告》)提出,“企業(yè)公開(kāi)《個(gè)人信息保護(hù)準(zhǔn)則》已經(jīng)處于相當(dāng)形式化的狀態(tài),為確保企業(yè)個(gè)人信息處理情況的透明度,有必要探討企業(yè)公布《個(gè)人信息保護(hù)準(zhǔn)則》的必要性;參考美國(guó)《聯(lián)邦交易委員會(huì)法》的規(guī)定,如果企業(yè)公布的準(zhǔn)則跟實(shí)際處理情況不同,應(yīng)該對(duì)其采取某種程度的處罰,即根據(jù)企業(yè)公布的內(nèi)容監(jiān)督其實(shí)際采取的措施,以保證公布準(zhǔn)則的適當(dāng)性及其實(shí)效性”?!墩{(diào)查會(huì)報(bào)告》總結(jié)了作為基本方針的隱私策略的討論意見(jiàn),指出企業(yè)基于自定的《隱私策略》而采取的持有個(gè)人數(shù)據(jù)的利用停止、委托處理的透明化、明確使用目的、獲取源的具體記錄等的措施,由企業(yè)自主自律是不充分、不恰當(dāng)?shù)?,有必要研究其措施的進(jìn)展?fàn)顩r以及基本策略的作用等。造成形式化的主要原因,不僅是企業(yè)不公布《個(gè)人信息保護(hù)準(zhǔn)則》是違法的,即使準(zhǔn)則內(nèi)容與企業(yè)實(shí)際處理個(gè)人信息的情況不同,企業(yè)只要明示利用目的,或者適當(dāng)?shù)毓计渌ㄖ?、公開(kāi)事項(xiàng)等,就不會(huì)有人質(zhì)疑企業(yè)自定公布的《個(gè)人信息保護(hù)準(zhǔn)則》的適當(dāng)性?!墩{(diào)查會(huì)報(bào)告》針對(duì)《個(gè)人信息保護(hù)法》每三年修改一次的相關(guān)修訂意見(jiàn),即關(guān)于“充實(shí)持有個(gè)人數(shù)據(jù)公開(kāi)事項(xiàng)”的內(nèi)容,提出可以“通過(guò)完善個(gè)人信息處理企業(yè)向持有的個(gè)人數(shù)據(jù)本人說(shuō)明的制度,使本人能夠切實(shí)理解并能參與到個(gè)人信息的處理過(guò)程中,同時(shí)從促進(jìn)個(gè)人信息處理企業(yè)的適當(dāng)處理,將個(gè)人信息處理機(jī)制、采取的措施、持有個(gè)人數(shù)據(jù)的處理方法等作為向本人說(shuō)明的法定公布事項(xiàng)”的建議。[4]個(gè)人情報(bào)保護(hù)委員會(huì)「?jìng)€(gè)人情報(bào)保護(hù)法ⅩⅣ(?。﹖titf3年ごと見(jiàn)直し制度改正大綱」(令和元年12 月13 日)20 頁(yè)。但是,對(duì)于企業(yè)個(gè)人信息處理準(zhǔn)則的公開(kāi),在法律修訂時(shí),也看不到如果準(zhǔn)則等公布的內(nèi)容與實(shí)際處理措施不同而對(duì)其違法性提出質(zhì)疑或者處罰的修改內(nèi)容。
在美國(guó)法中,以個(gè)人信息保護(hù)準(zhǔn)則為主,包括AI 原則或者準(zhǔn)則在內(nèi),規(guī)定了當(dāng)公布的內(nèi)容與實(shí)際操作措施不同時(shí)可以處罰的機(jī)制,這是《聯(lián)邦交易委員會(huì)法》(《FTC 法》)第5 條規(guī)定的內(nèi)容。以個(gè)人信息處理適用這個(gè)處罰機(jī)制為例,當(dāng)認(rèn)定企業(yè)公布的處理程序與實(shí)際的處理情況背離時(shí),可以以“屬于不公正或欺騙行為的交易”(《FTC 法》)第5 條進(jìn)行處罰。即《FTC 法》賦予FTC 有權(quán)要求企業(yè)公開(kāi)其《隱私策略》等個(gè)人信息保護(hù)措施,如果企業(yè)沒(méi)有按照公布的內(nèi)容采取相應(yīng)措施,屬于違反這一規(guī)定的行為,則有權(quán)對(duì)其進(jìn)行行政處罰。根據(jù)《FTC 法》的規(guī)定,F(xiàn)TC 可以正式召開(kāi)聽(tīng)證會(huì),為中止企業(yè)的違法行為下達(dá)停止命令。在此情況下,如果企業(yè)的該行為可能會(huì)帶來(lái)?yè)p害預(yù)期保護(hù)公共利益的結(jié)果,F(xiàn)TC 則可以發(fā)出臨時(shí)停止令,或者臨時(shí)或永久禁止令。如果企業(yè)的這種表里不一的行為已經(jīng)造成普遍存在不公平或欺騙性現(xiàn)象,或者FTC 已經(jīng)發(fā)布中止該行為的命令仍未獲得改善,F(xiàn)TC 可以公布監(jiān)管該行為或業(yè)務(wù)的行政處罰。如果企業(yè)不遵守FTC 命令繼續(xù)實(shí)施相關(guān)違法行為,每天將被處以最高10,000 美元的民事罰款。如果企業(yè)故意違反FTC 規(guī)定,必須為每種違法行為支付10,000 美元的罰款。此外,《FTC 法》第5 條也規(guī)定了FTC 前述權(quán)限適用除外的情況,規(guī)定金融機(jī)關(guān)(銀行、儲(chǔ)蓄貸款機(jī)構(gòu)以及消費(fèi)者信用機(jī)構(gòu)等)、公共運(yùn)營(yíng)商(電信運(yùn)營(yíng)商及洲際承運(yùn)人)、航空公司、貨物及倉(cāng)儲(chǔ)公司,如果有類似不公正或者欺騙行為或業(yè)務(wù)時(shí),不適用前述規(guī)定,而適用其他法律由其他行政機(jī)關(guān)管轄。美國(guó)《FTC 法》的這些規(guī)定提示,作為法定公布事項(xiàng),公開(kāi)與信息處理相關(guān)的措施內(nèi)容,其意義并不僅是宣布企業(yè)等機(jī)關(guān)已經(jīng)采取了對(duì)信息的適當(dāng)處理和保護(hù)措施,從保護(hù)個(gè)人權(quán)益的角度出發(fā),促使企業(yè)保證以其公布的措施處理相關(guān)信息,并讓其通過(guò)認(rèn)識(shí)到,若不遵守諾言可能會(huì)受到法律制裁,從而迫使其自覺(jué)遵守正確處理和保護(hù)相關(guān)信息的法律法規(guī)。在日本,相關(guān)法定公布的內(nèi)容、義務(wù)及程序等也是五花八門。例如有《特定商務(wù)法》《獎(jiǎng)品表示法》規(guī)定的公布內(nèi)容、《金融商品交易法》規(guī)定的公開(kāi)交易說(shuō)明書、交易條款和利益沖突管理措施、《金融商品銷售等的法律》規(guī)定公開(kāi)的勸誘方法、《個(gè)人信息保護(hù)法》規(guī)定公開(kāi)的持有個(gè)人數(shù)據(jù)的相關(guān)事項(xiàng)以及其他以行業(yè)自律和行政機(jī)關(guān)等為對(duì)象的法律規(guī)定的公開(kāi)事項(xiàng)等。日本的AI 原則或準(zhǔn)則的公布不僅應(yīng)該確定為法定的公布事項(xiàng),還應(yīng)參考美國(guó)《FTC 法》引進(jìn)處罰機(jī)制。
2015 年是AI 熱潮的搖籃期,這個(gè)時(shí)期EU 的《機(jī)器人準(zhǔn)則》(2014 年9 月)[5]Regulating Emerging Robotic Technologies in Europe: Robotics facing Law and Ethics, FP7-SCIENCE-IN-SOCIETY-2011-1,Project No.: 289092.公布,美國(guó)也召開(kāi)了We Robot 國(guó)際會(huì)議等,彼時(shí)國(guó)外有關(guān)AI、機(jī)器人法的討論日益高漲。在日本,筆者在《個(gè)人信息保護(hù)法》每三年修改一次的討論中提出,“企業(yè)根據(jù)《個(gè)人信息保護(hù)法》制定公布各自的《個(gè)人信息保護(hù)準(zhǔn)則》或者《隱私策略》,當(dāng)其所公布的內(nèi)容與實(shí)際個(gè)人信息處理措施不一致時(shí),是否可以以處理方式不恰當(dāng)將其往執(zhí)法對(duì)象的方向上考慮”的意見(jiàn)。[6]第 105 回 個(gè)人情報(bào)保護(hù)委員會(huì)(令和元年 5 月 17 日(金))資料4 新保史生提出資料 (https://www.ppc.go.jp/aboutus/minutes/2019/20190517/)。也提出了“對(duì)于AI 原則,是否也可以考慮將單純的非約束性原則從尋求靈活利用階段開(kāi)始,轉(zhuǎn)移到法定公開(kāi)事項(xiàng)的位置上”的建議。作為面向未來(lái)機(jī)器人共生社會(huì)所要求的基本原則,筆者參考OECD 隱私八原則,在2015 年機(jī)器人法學(xué)會(huì)成立籌備研究會(huì)上提出了“機(jī)器人法新八原則(新保試行方案)”。但是,在該籌備會(huì)上,在討論制定AI 未來(lái)規(guī)則或者必要的法規(guī)時(shí),筆者從共同通用意識(shí)共享的必要性出發(fā),認(rèn)為制定“AI原則”可能起到作用的新八原則試行方案卻受到了質(zhì)疑,反對(duì)意見(jiàn)認(rèn)為“加強(qiáng)規(guī)制”可能會(huì)對(duì)技術(shù)開(kāi)發(fā)引發(fā)寒蟬效應(yīng)。[7]「深層斷面/「法學(xué)會(huì)」設(shè)立難航?ロ(Ⅵ)「社會(huì)進(jìn)出」課題多ffk、業(yè)界関係者fk(x)異論」日刊工業(yè)新聞 2016/1/18 https://www.nikkan.co.jp/articles/view/00371272。之后,隨著AI 熱潮的興起,人們逐漸認(rèn)識(shí)到制定AI 原則的重要性,為避免重蹈2015 年公布新八原則時(shí)的誤解和擔(dān)憂,筆者從著眼于新興技術(shù)的靈活利用需要推進(jìn)必要的對(duì)策措施角度,再次提出應(yīng)先完善基本法律的內(nèi)容,將非約束性AI 原則確定為實(shí)體規(guī)則的建議。本文是以提出試行方案為主要研究目的,建議制定《新興技術(shù)利用推進(jìn)基本法》(簡(jiǎn)稱《新興技術(shù)新法》,或“新保試案第二彈”)等基本法,以確保新興技術(shù)振興的基本理念為基礎(chǔ),將基本原則予以實(shí)定。對(duì)于開(kāi)發(fā)者或者企業(yè)來(lái)說(shuō),在推廣運(yùn)用AI 的措施時(shí),也可以認(rèn)為這是宣傳以安全、放心的AI 運(yùn)用為前提措施的絕佳機(jī)會(huì)。隨著人們認(rèn)識(shí)到制定這樣的AI 原則或者以此為基礎(chǔ)的措施的重要性,在已經(jīng)接受的重要性被重新認(rèn)識(shí)的良性循環(huán)中,期待更多的企業(yè)公布基于AI 原則的措施,在推進(jìn)和促進(jìn)新興技術(shù)開(kāi)發(fā)方面,“AI 原則”具有重要意義。
在國(guó)際上,如果按時(shí)間順序排列,最早的有關(guān)AI 原則或準(zhǔn)則的系統(tǒng)性研究成果當(dāng)屬《EU 機(jī)器人準(zhǔn)則》,這是首次嘗試對(duì)機(jī)器人相關(guān)法律課題進(jìn)行系統(tǒng)性的研究,但研究報(bào)告并未提出系統(tǒng)性的指導(dǎo)方針,其實(shí)《日本機(jī)器人法新八原則》的最初靈感是來(lái)自于2014 年的這個(gè)《EU 機(jī)器人準(zhǔn)則》。在國(guó)際社會(huì)中,EU 有先行制定各種規(guī)則的傾向,該準(zhǔn)則也是如此。從2014 年的這個(gè)準(zhǔn)則[8]EU 2014 年公布的這個(gè)《EU 機(jī)器人準(zhǔn)則》報(bào)告的制作調(diào)查費(fèi)用(預(yù)算)為149 萬(wàn)歐元。在日本國(guó)內(nèi),類似這樣的準(zhǔn)則等委托調(diào)查報(bào)告項(xiàng)目超過(guò)1 億日元的現(xiàn)在幾乎看不到??芍?,EU 在相當(dāng)早的階段就已著手對(duì)上述AI 原則的必要性做了研討,而原則等的制定工作,直到2016年以后才正式展開(kāi)。對(duì)于公共部門的規(guī)制,EU 早已采取措施,美國(guó)、日本緊隨其后。從這一點(diǎn)來(lái)看,日本也是在相當(dāng)早的階段就開(kāi)始著手討論制定AI 原則或準(zhǔn)則,特別是《AI 開(kāi)發(fā)原則》在2017年就已公布,這與其他國(guó)家相比,也算相當(dāng)領(lǐng)先。至此,特別是從2018 年以后,有關(guān)制定規(guī)制公共部門的AI 準(zhǔn)則的情況迅速增加。自從隱私保護(hù)專員大會(huì)(ICDPPC)發(fā)布《數(shù)據(jù)保護(hù)原則》以來(lái),各國(guó)已經(jīng)以相當(dāng)快的速度公布了各式各樣的原則。其實(shí)“數(shù)據(jù)保護(hù)與隱私專員國(guó)際大會(huì)”(ICDPPC)的討論,說(shuō)到底是隱私和數(shù)據(jù)保護(hù)的討論。挪威的《AI 與隱私》也同樣屬于這個(gè)領(lǐng)域制定的原則措施。近年來(lái),在諸如自動(dòng)駕駛、聯(lián)網(wǎng)汽車、特定于算法的領(lǐng)域以及醫(yī)療保健的各個(gè)領(lǐng)域等采取的措施中,也已逐漸地制定了各種具體的AI 原則。針對(duì)民間領(lǐng)域,雖然英國(guó)工程及物理科學(xué)研究理事會(huì)(EPSRC)[9]時(shí)系列fk(x)ⅩⅢtfと、2010 年 9 月に UK Research and Innovation (UKRI)の The Engineering and Physical Sciences Research Council (EPSRC) fu、研究開(kāi)発者及sh利用 者向けの5xiiiの原則及sh産業(yè)界への7xiiiのetッfjージfk(x)構(gòu)成fhxvtf原則PH公表しfttìの fu、近時(shí)の AI·ロ(Ⅵ)ットPH(X)Titf原則の中でtt最初のtìのと考xii(x)xvtf。EPSRC, Principles of robotics (https://epsrc.ukri.org/research/ourportfolio/themes/engineering/activities/principlesofro botics/).已于2011 年公布了《機(jī)器人原則》,但這是與工業(yè)用機(jī)器人相關(guān)的機(jī)器人工學(xué)、機(jī)器人技術(shù)領(lǐng)域的原則。法國(guó)也同樣公布了類似的機(jī)器人技術(shù)原則。民間領(lǐng)域的AI 原則制定工作的取得進(jìn)展,是在人工智能研究所(AI Now Institute)于2016 年公布AI 原則之后。日本也以人工智能學(xué)會(huì)制定的AI 原則公布等為標(biāo)志進(jìn)入發(fā)展期。
2018 年,不僅是公共部門,各國(guó)的各種機(jī)構(gòu)都在舉行AI 原則制定的討論,非營(yíng)利組織、非政府組織也相繼公布了各式各樣的AI 原則。到2019 年,各國(guó)都在推進(jìn)AI 原則制定的措施,民間企業(yè)公布AI 原則的動(dòng)向是在2019 年。盡管英國(guó)的一些企業(yè)早在2017 年左右就制定了AI 原則,確切地說(shuō)2019 年才是企業(yè)公布AI 原則的元年。
經(jīng)濟(jì)合作與發(fā)展組織(OECD)《AI 理事會(huì)勸告》 于2019 年5 月22 日采納了AI 原則。這是為尊重人權(quán)和民主價(jià)值、推進(jìn)革新可信賴的人工智能而制定的。這個(gè)AI 原則,除OECD 的36 個(gè)成員國(guó)之外,還被阿根廷、哥斯達(dá)黎加、哥倫比亞、巴西等國(guó)家采納。OECD《AI 理事會(huì)勸告》采納AI原則的意義是通過(guò)發(fā)達(dá)國(guó)家之間的自由意見(jiàn)交換和信息交換,鑒于OECD 是以促進(jìn)經(jīng)濟(jì)增長(zhǎng)、貿(mào)易自由化、支援發(fā)展中國(guó)家(OECD 的三大目的)做貢獻(xiàn)為目的,以其在國(guó)際社會(huì)的這些作用和影響力,OECD 的AI 原則與以往的個(gè)別團(tuán)體和研究組織制定的AI 原則不能同言而語(yǔ),預(yù)計(jì)將會(huì)對(duì)未來(lái)的AI國(guó)際合作產(chǎn)生重大影響。OECD 的相關(guān)研究機(jī)構(gòu),除設(shè)置有對(duì)全體活動(dòng)進(jìn)行研究的一般機(jī)構(gòu)之外,還按照OECD 的三大目的設(shè)立了經(jīng)濟(jì)政策委員會(huì)、貿(mào)易委員會(huì)、開(kāi)發(fā)援助委員會(huì)。OECD 的議事決定機(jī)構(gòu)是理事會(huì),由部長(zhǎng)級(jí)人士參加的部長(zhǎng)理事會(huì)(每年舉行一次)和由常任代表主持的定期理事會(huì)(隨時(shí)舉行)。另外,執(zhí)行委員會(huì)(每年召開(kāi)兩次)是討論主要問(wèn)題的機(jī)構(gòu),從OECD 的作用和國(guó)際影響力來(lái)看,AI 原則被采納為《AI 理事會(huì)建議》的意義非常重大。
在OECD《AI 理事會(huì)勸告》中,為實(shí)現(xiàn)可信賴的AI 負(fù)責(zé)任的管理,提出了以五項(xiàng)互補(bǔ)價(jià)值為基礎(chǔ)的原則,即(1)促進(jìn)包容性發(fā)展、可持續(xù)發(fā)展和福祉。必須通過(guò)促進(jìn)AI 包容性發(fā)展、可持續(xù)發(fā)展和福祉,為人類和地球帶來(lái)利益。(2)以人為本的價(jià)值和公平。AI 系統(tǒng)必須設(shè)計(jì)為尊重法治、人權(quán)、民主主義的價(jià)值、多樣性,并采取適當(dāng)?shù)陌踩胧ɡ?,根?jù)需要使人介入成為可能),保證社會(huì)公平公正。(3)透明性和說(shuō)明責(zé)任。通過(guò)確保AI 系統(tǒng)的透明性并實(shí)施說(shuō)明責(zé)任的信息公開(kāi),人們必須理解并對(duì)抗基于AI 的結(jié)果。(4)堅(jiān)固性、可靠性及安全性。AI 系統(tǒng)需要貫穿整個(gè)生命周期、可靠、安全、放心地運(yùn)用,必須持續(xù)評(píng)估和管理潛在風(fēng)險(xiǎn)。(5)責(zé)任制。開(kāi)發(fā)、部署或運(yùn)用AI 系統(tǒng)的組織和個(gè)人必須按照上述原則負(fù)責(zé)地使其正常運(yùn)轉(zhuǎn)。其內(nèi)容針對(duì)AI 急速發(fā)展的現(xiàn)狀,設(shè)定了實(shí)用且靈活的標(biāo)準(zhǔn)。OECD 對(duì)于信息的處理,在隱私和數(shù)字安全風(fēng)險(xiǎn)管理等各領(lǐng)域采納了理事會(huì)的勸告,而該AI 原則卻被定位為是對(duì)這些既有的OECD 勸告的補(bǔ)充。OECD 理事會(huì)勸告的AI原則的適用范圍不局限于OECD 成員國(guó),而是旨在應(yīng)用于世界各地的AI 開(kāi)發(fā)。此外,根據(jù)以這些AI 價(jià)值為基礎(chǔ)的原則,OECD 向各國(guó)政府提出了五項(xiàng)面對(duì)AI 的發(fā)展需要采取的應(yīng)對(duì)措施,包括:(1)投資AI 的研究開(kāi)發(fā)。推進(jìn)對(duì)研究開(kāi)發(fā)的公共和民間投資,促進(jìn)可信賴的AI 創(chuàng)新。(2)培育AI 數(shù)字生態(tài)系統(tǒng)。通過(guò)共享數(shù)字社會(huì)基礎(chǔ)和技術(shù)、數(shù)據(jù)和知識(shí)的機(jī)制,培育可運(yùn)用的AI 生態(tài)系統(tǒng)。(3)形成實(shí)現(xiàn)AI 的政策環(huán)境。確保政策環(huán)境為可信賴的AI 系統(tǒng)部署鋪平道路。人力能力建設(shè)和勞動(dòng)市場(chǎng)變革的準(zhǔn)備。讓人們掌握使用AI 的技能,幫助勞動(dòng)者公平實(shí)現(xiàn)就業(yè)轉(zhuǎn)換。(4)可信賴的AI 國(guó)際合作。通過(guò)跨越國(guó)境和領(lǐng)域的合作,推進(jìn)值得信賴的AI 的責(zé)任制管理。
眾所周知,歐盟(EU)在制定規(guī)則解決新問(wèn)題上,各方面都走在了世界前列。例如,在個(gè)人信息保護(hù)領(lǐng)域,從1995 年制定的《個(gè)人數(shù)據(jù)保護(hù)指令》到2016 年制定的《通用數(shù)據(jù)保護(hù)條例》(GDPR)的轉(zhuǎn)變和法律規(guī)定的升級(jí)程度,可以說(shuō)是舉世矚目。此外,EU 已經(jīng)開(kāi)始研究AI 規(guī)制,可以預(yù)見(jiàn),EU 在未來(lái)AI 規(guī)制的研究方面仍然處于領(lǐng)先地位。日本在AI 原則制定方面相較于其他國(guó)家來(lái)說(shuō)也屬于領(lǐng)先者,作為先行者在既要維持傳統(tǒng)基本原則的基礎(chǔ)上又要考慮應(yīng)對(duì)AI 的發(fā)展新制度的要求,這種情況下參考EU 的制度措施非常重要,日本應(yīng)該借鑒EU 的經(jīng)驗(yàn)。EU 自公布《EU 機(jī)器人準(zhǔn)則》以后,隨著第三次AI 熱潮的到來(lái),考慮到將來(lái)運(yùn)用AI 自動(dòng)系統(tǒng)可能會(huì)產(chǎn)生的法律問(wèn)題,研究目標(biāo)已經(jīng)轉(zhuǎn)向針對(duì)AI、機(jī)器人、自動(dòng)系統(tǒng)與法律的問(wèn)題。2018 年3 月公布的《AI、機(jī)器人、自動(dòng)系統(tǒng)的聲明》[10]European Group on Ethics in Science and New Technologies, Statement on Artificial Intelligence, Robotics and‘Autonomous’Systems, Brussels, 9 March 2018.(以下簡(jiǎn)稱《聲明》) 就是對(duì)這些問(wèn)題研究的總結(jié)。[11]本文書の策定に際して主に參照f(shuō)hxvてⅩⅣtf文書tt、The Forum on the Socially Responsible Development of Artificial Intelligence held by the University of Montreal in November 2017, 'Declaration for a Responsible Development of Artificial Intelligence’has been developed. It is now publicly accessible on an online platform where all sectors of society are invited to comment on the text.(http://nouvelles.umontreal.ca/en/article/2017/11/03/montreal-declaration-foraresponsible-development-of-artificial-intelligence/).該《聲明》鑒于AI、機(jī)器人以及“自動(dòng)”技術(shù)的進(jìn)步所帶來(lái)的倫理問(wèn)題迫切需要應(yīng)對(duì)以及所引發(fā)的問(wèn)題更為復(fù)雜等情況,特別對(duì)這些問(wèn)題進(jìn)行了研討。其目的是尋找倫理、社會(huì)與法律問(wèn)題的答案,為實(shí)現(xiàn)多方主體利益共贏而尋求不同舉措的多舉并用方式指明道路。為達(dá)到這一目標(biāo),強(qiáng)調(diào)集體、廣泛、全面的討論和對(duì)話非常重要,提出應(yīng)該將焦點(diǎn)放在構(gòu)成社會(huì)所需要的價(jià)值觀和在社會(huì)中技術(shù)所應(yīng)發(fā)揮的作用上。該《聲明》的公布,標(biāo)志著國(guó)際社會(huì)致力于建立共同的國(guó)際倫理和法律框架舉措的開(kāi)始,其對(duì)象是AI、機(jī)器人技術(shù)和“自動(dòng)”系統(tǒng)的設(shè)計(jì)、制造、使用和管理。該《聲明》提出的AI 基本倫理原則,表明了基于EU 各條約及《EU 基本權(quán)利憲章》確定的價(jià)值觀主張,為將來(lái)的AI 規(guī)制展開(kāi)討論提供了基礎(chǔ)。
2018 年6 月,歐洲委員會(huì)成立AI 高級(jí)專家組(AI HLEG),[12]European Commission, High-Level Expert Group on Artificial Intelligence (https://ec.europa.eu/digital-single-market/en/highlevel-expert-group-artificialintelligence).2019 年4 月公布《可信賴AI 的倫理準(zhǔn)則》[13]European Commission High-Level Expert Group on Artificial Intelligence, Ethics Guidelines For Trustworthy AI, 8 April 2019(https://ec.europa.eu/digital-singlemarket/en/news/ethics-guidelines-trustworthy-ai)(8 April 2019). (Ⅰ)イドfflイasのダウas ロードURL(https://ec.europa.eu/futurium/en/ai-allianceconsultation),(https://www.aepd.es/sites/default/files/2019-09/ai-ethics-guidelines.pdf). 最初の草案tt 2018 年 12 月 18 日に公表fhxvft。。 該準(zhǔn)則規(guī)定了可以信賴的AI 的三個(gè)必要要件,即合法性,遵守所有適用的法律法規(guī);倫理性,遵循倫理原則和價(jià)值觀;可靠性,從技術(shù)及社會(huì)的視角觀察保障。該準(zhǔn)則的目的是提供可信賴的AI 所需的框架,但確保合法性的原則不一定限于該框架,主要目的是提出促進(jìn)倫理和健全的AI 發(fā)展所必需的要素,而且該準(zhǔn)則涵蓋了所有利益相關(guān)者。值得一提的是,作為準(zhǔn)則,重要的不僅是列出倫理性原則的一覽表,而是通過(guò)社會(huì)技術(shù)系統(tǒng)(socio-technical system)的方法來(lái)展示這些原則在實(shí)際發(fā)揮作用時(shí)需要考慮的因素。如前所述,“原則”只不過(guò)是原則,但以列出并展示原則為最終目的,恐怕無(wú)法發(fā)揮原則的作用。EU 專家組在注意到這一問(wèn)題的基礎(chǔ)上制定了該準(zhǔn)則,可以說(shuō)是一個(gè)重大的發(fā)展。該準(zhǔn)則由三部分構(gòu)成。第一,可信賴的AI 準(zhǔn)則的必要基礎(chǔ)。從保障基本權(quán)利的角度提出必要的AI 倫理原則,從尊重人的自主性、防止危害、公平性、可解釋性等角度探討必要的AI 倫理原則。此外,還需要在關(guān)照未成年人和殘疾人方面,從保護(hù)勞資關(guān)系等信息不對(duì)稱和處于弱勢(shì)地位群體的角度對(duì)AI 所帶來(lái)的問(wèn)題進(jìn)行了探討。從認(rèn)識(shí)到可能引發(fā)難以預(yù)測(cè)的問(wèn)題的基礎(chǔ)上,留意對(duì)個(gè)人和社會(huì)可能會(huì)帶來(lái)的巨大利益,同時(shí)也可能會(huì)帶來(lái)巨大的影響。具體而言,或許會(huì)對(duì)民主主義、法律的支配,甚至對(duì)人類的身心健康等產(chǎn)生影響,為減少這些風(fēng)險(xiǎn),需要制定適當(dāng)且平衡的相關(guān)標(biāo)準(zhǔn)。第二,提出了可信賴AI 的開(kāi)發(fā)、實(shí)現(xiàn)和運(yùn)用所需的七個(gè)條件,即人類的參與和監(jiān)督,技術(shù)的牢靠性和安全性,隱私和數(shù)據(jù)管理,透明度,多樣性、非歧視性和公正性,環(huán)境和社會(huì)福祉,問(wèn)責(zé)制。第三,在AI 系統(tǒng)的開(kāi)發(fā)、實(shí)施或使用中采用可信賴AI 的《評(píng)估清單》[14]European Commission, EU artificial intelligence ethics checklist ready for testing as new policy recommendations are published(https://ec.europa.eu/digital-singlemarket/en/news/eu-artificial-intelligence-ethics-checklist-ready-testing-new-policyrecommendations-are)(26 June 2019).,并驗(yàn)證其適用的特定情況。
歐盟在AI 規(guī)制的研究方面,經(jīng)過(guò)到現(xiàn)在為止的上述討論,下一步應(yīng)該是著手研究具體的規(guī)制問(wèn)題。但相關(guān)研究的情況,在撰寫本文時(shí)還沒(méi)有看到EU 正式發(fā)布的官方信息,僅憑借EU 民間團(tuán)體政策相關(guān)網(wǎng)站發(fā)布的信息,[15]Samuel Stolton, Commission considers facial recognition ban in AI ‘white paper’ 17th Jan, 2020(https://www.euractiv.com/section/digital/news/leak-commissionconsiders-facial-recognition-ban-in-ai-white-paper/)(updated:22nd Jan, 2020).推測(cè)EU 未來(lái)AI 規(guī)制研究的趨勢(shì)。預(yù)計(jì)EU 之后公布的《白皮書》會(huì)持續(xù)關(guān)注美國(guó)和中國(guó)在AI 研究開(kāi)發(fā)方面的合作關(guān)系,同時(shí)以促進(jìn)基于歐洲價(jià)值觀和原則的AI 研究及技術(shù)開(kāi)發(fā)為目標(biāo),展示必要的規(guī)制方針內(nèi)容。該規(guī)制內(nèi)容大概包括:現(xiàn)行EU 有關(guān)AI 的政策框架;歐洲的具體政策(投資和技能提高以及中小企業(yè)對(duì)策);AI 系統(tǒng)開(kāi)發(fā)所需的數(shù)據(jù)利用方法;將來(lái)歐洲的法律規(guī)制需要的主要觀點(diǎn);利益相關(guān)者的貢獻(xiàn)和政策制定的時(shí)間軸等部分??偠灾珽U AI 規(guī)制框架的方向還是以促進(jìn)新領(lǐng)域的創(chuàng)新為前提,同時(shí)在尊重歐洲的價(jià)值觀和原則的基礎(chǔ)上,以促進(jìn)技術(shù)開(kāi)發(fā)為目標(biāo)。
對(duì)于運(yùn)用AI 可能帶來(lái)的新風(fēng)險(xiǎn),在EU 現(xiàn)行法的框架范圍內(nèi)并沒(méi)有涵蓋所有的問(wèn)題,有效的規(guī)制方法尚待研究。為此需要研究防范以下風(fēng)險(xiǎn),即基本權(quán)利的風(fēng)險(xiǎn)(具體來(lái)說(shuō),是從歧視、隱私及數(shù)據(jù)保護(hù)的角度來(lái)看的問(wèn)題)、安全及法律責(zé)任的風(fēng)險(xiǎn)。在現(xiàn)有EU 成員國(guó)法律框架的基礎(chǔ)上,尚需研究能夠讓歐洲企業(yè)享受最大利益平衡的AI 規(guī)制框架,這個(gè)規(guī)制框架涉及以下六個(gè)方面的問(wèn)題需要繼續(xù)研究,即從基本權(quán)利的角度上看,《EU 基本權(quán)利憲章》不適用于僅涉及民間部門的問(wèn)題,也不適用于就業(yè)、社會(huì)保障、教育、公共服務(wù)等特定領(lǐng)域;從產(chǎn)品的觀點(diǎn)上看,EU 的產(chǎn)品責(zé)任相關(guān)法律適用于產(chǎn)品,但不適用于服務(wù)。特別是在醫(yī)療保健服務(wù)、金融服務(wù)和運(yùn)輸服務(wù)中運(yùn)用AI 的問(wèn)題;在AI 的研究開(kāi)發(fā)中,由于責(zé)任主體不明確,規(guī)制只適用于開(kāi)發(fā)者為企業(yè)的情況;鑒于制造物性質(zhì)的變化,隨著在制造物中嵌入AI,以往不需要的產(chǎn)品升級(jí)變得跟軟件一樣,隨著制造物性質(zhì)的變化而產(chǎn)生的問(wèn)題;新風(fēng)險(xiǎn)的出現(xiàn),有可能是因新的安全性而出現(xiàn)的風(fēng)險(xiǎn);對(duì)于執(zhí)法的困難性,因難以保證透明度,所以對(duì)于執(zhí)法機(jī)關(guān)來(lái)說(shuō)很難證明自動(dòng)決策中是否存在歧視。在AI 法律義務(wù)的設(shè)置上,今后可能將重點(diǎn)討論后述七個(gè)方面的問(wèn)題。即確保對(duì)開(kāi)發(fā)人員的問(wèn)責(zé)制和透明度;確保透明度并向運(yùn)用者提供信息;降低AI 系統(tǒng)風(fēng)險(xiǎn)的設(shè)計(jì)原則;確保AI 學(xué)習(xí)數(shù)據(jù)的質(zhì)量和多樣性;對(duì)開(kāi)發(fā)人員進(jìn)行風(fēng)險(xiǎn)評(píng)估和緩解風(fēng)險(xiǎn)的措施;針對(duì)自動(dòng)化的決策,探討人類參與的方法;產(chǎn)品需要采取的其他安全措施。為達(dá)到前述目的的AI 規(guī)制框架的選擇,還需要研究以下五個(gè)問(wèn)題,即自主措施;針對(duì)公共部門及面部認(rèn)證相關(guān)問(wèn)題的個(gè)別領(lǐng)域的應(yīng)對(duì);針對(duì)風(fēng)險(xiǎn)較高的應(yīng)用,應(yīng)對(duì)風(fēng)險(xiǎn)的規(guī)則;從安全性及法律責(zé)任的角度出發(fā)的應(yīng)對(duì);提出治理。
依據(jù)《OECD 理事會(huì)勸告》制定的《OECD 隱私準(zhǔn)則》從1980 年公布到現(xiàn)在,對(duì)各國(guó)相關(guān)法律制度的建設(shè)產(chǎn)生了廣泛影響。這從OECD 所有成員國(guó)都制定了《個(gè)人信息保護(hù)法》的情況可以佐證,而且OECD 成員國(guó)以外的其他國(guó)家,在制定或完善個(gè)人信息保護(hù)法律制度時(shí),也都參照采納了《OECD隱私準(zhǔn)則》中規(guī)定的八原則,因此,將其說(shuō)成世界各國(guó)相關(guān)法制的“參照系”也不為過(guò)。但是,從OECD 隱私八原則本身的法律地位看,這些原則僅為OECD 成員國(guó)相關(guān)法律完善的準(zhǔn)則,并不具有法律約束力。
1980 年《OECD 隱私準(zhǔn)則》公布時(shí),OECD 的許多成員國(guó)尚未制定隱私保護(hù)法,因此,《OECD隱私準(zhǔn)則》針對(duì)其成員國(guó)規(guī)定了四項(xiàng)“要求”,即在國(guó)內(nèi)法的制定和完善中考慮《OECD 隱私準(zhǔn)則》規(guī)定的原則,不得以個(gè)人隱私保護(hù)的名義阻礙個(gè)人數(shù)據(jù)的國(guó)際流通,協(xié)助執(zhí)行《OECD 隱私準(zhǔn)則》,盡快同意適用《OECD 隱私準(zhǔn)則》的特別程序與合作。也就是說(shuō),雖然《OECD 隱私準(zhǔn)則》無(wú)法律約束力,但要求各國(guó)在國(guó)內(nèi)法中規(guī)定個(gè)人數(shù)據(jù)的國(guó)際自由流通和保護(hù)的必要程序,八原則作為通用的、普遍的原則被各國(guó)的法律制度參考或采納,從而完成從非約束性原則到普遍原則的轉(zhuǎn)變,在這一點(diǎn)上,這個(gè)轉(zhuǎn)變具有重要現(xiàn)實(shí)意義。這個(gè)意義在2013 年《OECD 隱私準(zhǔn)則》修訂時(shí)的討論中也再次引起關(guān)注。[16]2013 年的OECD 指導(dǎo)方針修改中,由5 部22 個(gè)項(xiàng)目構(gòu)成的1980 年版,在2013 年修改版中雖然變更為第6 部23 項(xiàng),但是指導(dǎo)方針整體的項(xiàng)目數(shù)只增加了第1 項(xiàng)。并且,方針的對(duì)象范圍沒(méi)有變更,8 原則也沒(méi)有變更。另一方面,針對(duì)加盟國(guó)的“要求事項(xiàng)”,在上述第4 項(xiàng)中,①針對(duì)保護(hù)隱私和信息的自由流通,在政府內(nèi)的最高水平顯示領(lǐng)導(dǎo)能力并執(zhí)行;②將本勸告的附屬書中所示構(gòu)成整體的指南通過(guò)所有相關(guān)人員(利益相關(guān)者)參與的過(guò)程來(lái)履行,③將勸告廣泛地滲透到公共部門和民間領(lǐng)域的三個(gè)方面。鑒于各國(guó)的法律整頓已經(jīng)完成,政府部門和民間領(lǐng)域雙方在實(shí)施確保其有效性的措施的同時(shí),也變更為要求所有相關(guān)人員(利益相關(guān)者)參與的內(nèi)容。在制定規(guī)則方面,確保優(yōu)先權(quán)往往與取得主導(dǎo)權(quán)相聯(lián)系。例如,OECD 《AI 理事會(huì)勸告》制定的AI 原則等,以O(shè)ECD 的影響力獲得了主導(dǎo)權(quán)。另外,在保護(hù)個(gè)人數(shù)據(jù)方面,EU 先行采取了各種措施,從《個(gè)人數(shù)據(jù)保護(hù)指令》到《通用數(shù)據(jù)保護(hù)條例》(GDPR)以及先行實(shí)施的各種新措施而公布的準(zhǔn)則,可以規(guī)定要求EU 以外的其他國(guó)家也要采取相應(yīng)措施,以對(duì)其準(zhǔn)則做出回應(yīng),這對(duì)其他國(guó)家相關(guān)法律的制定起到了引領(lǐng)和主導(dǎo)作用。EU 在制定AI 準(zhǔn)則或AI 原則方面,也在不斷地重復(fù)同樣的模式。EU 以2014 年公布的《機(jī)器人準(zhǔn)則》為開(kāi)端,隨后經(jīng)過(guò)多方討論公布了非約束性的AI 準(zhǔn)則或AI 原則。強(qiáng)調(diào)在研究值得信賴的AI 準(zhǔn)則時(shí),重要的不僅是列出一份AI 倫理原則的清單,而是要讓這些AI 原則在實(shí)際操作中能夠發(fā)揮作用,即研究如何將這些非約束性原則納入到實(shí)際規(guī)則中,讓其轉(zhuǎn)變成具有約束力的普遍性原則非常重要。此外,EU 在針對(duì)AI 規(guī)制的法律完善方面,仍在進(jìn)行系統(tǒng)性的研究,為在出版的《白皮書》中公布AI 相關(guān)概念和具體內(nèi)容做準(zhǔn)備。在日本,總務(wù)省的AI 網(wǎng)絡(luò)推進(jìn)會(huì)議有關(guān)AI 的舉措,也在其他國(guó)家采取行動(dòng)前先行進(jìn)行了研究,其成果于2016 年G7 香川·高松信息通信大臣會(huì)議[17]G7 香川·高松情報(bào)通信大臣會(huì)合 (https://www.soumu.go.jp/joho_kokusai/g7ict/index.html)(2016 年(平成 28 年)4 月)。上公布。鑒于AI 發(fā)展的趨勢(shì),隨著未來(lái)有望出現(xiàn)的AI 原則熱潮的到來(lái),AI 原則的傳播將增加社會(huì)對(duì)原則的接受度,即使是非約束性的準(zhǔn)則或原則,在法律完善的過(guò)程中也能發(fā)揮參考作用。為確保實(shí)施法律完善后的實(shí)效性,AI 非約束性原則轉(zhuǎn)換為具有約束力的普遍原則也應(yīng)進(jìn)入研討階段。