郭傳凱
(山東大學(xué) 法學(xué)院,山東青島 266237)
人工智能通過完成高難度任務(wù)不斷加深著對人類社會的影響:無人駕駛已經(jīng)在美國四個州獲得上路批準(zhǔn),未來很可能引發(fā)道路交通運輸?shù)母锩?;人臉識別系統(tǒng)在反恐等領(lǐng)域發(fā)揮著重要作用;電腦程序擊敗了世界最強圍棋運動員;谷歌研發(fā)的翻譯系統(tǒng)則可以獨自翻譯報紙上的長篇文章。(1)參見Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, 29 Harv. J. L. & Tech. 353 (2016).與此同時,人工智能的商業(yè)前景激發(fā)了大型企業(yè)投資與開發(fā)的熱情,谷歌、臉書、亞馬遜等公司通過資助研發(fā)、設(shè)立試驗機構(gòu)、收購新興企業(yè)的方式開展人工智能競賽。人工智能飛速發(fā)展之勢已不可阻擋。
然而,技術(shù)進步引發(fā)恐慌情緒和監(jiān)管預(yù)警(2)本研究在以下層面區(qū)別使用監(jiān)管、規(guī)制與管制:監(jiān)管強調(diào)監(jiān)督與管理的并存,在常規(guī)狀態(tài)下以監(jiān)督為主,在出現(xiàn)特定問題時才以特定的限制與禁止措施進行管理。強調(diào)監(jiān)督時,本文則傾向于使用監(jiān)管一詞。規(guī)制則泛指規(guī)制者通過制定規(guī)則、實施強制性措施的方式對被規(guī)制者進行限制或禁止的過程。而管制一詞則帶有感情色彩,多指缺乏靈活性,難以滿足市場經(jīng)濟發(fā)展需求的僵化措施。具體到風(fēng)險領(lǐng)域,學(xué)界多以風(fēng)險規(guī)制作為通用名詞,因此本文不使用風(fēng)險監(jiān)管的概念。并不是人類社會的新鮮現(xiàn)象。(3)參見戚建剛:《風(fēng)險認(rèn)知模式及其行政法制意蘊》,載《法學(xué)研究》2009年第5期。盡管有些人工智能風(fēng)險與以往技術(shù)創(chuàng)新引發(fā)的風(fēng)險相類似,但更多體現(xiàn)人工智能獨特性的新興風(fēng)險及相應(yīng)法律問題將在未來接踵而至。如果放任人工智能在監(jiān)管真空的狀態(tài)下快速發(fā)展,風(fēng)險發(fā)生的可能性及危害性很可能伴隨時間的推移呈現(xiàn)指數(shù)式的增長。(4)參見Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, 29 Harv. J. L. & Tech. 400,401 (2016).另一方面,風(fēng)險規(guī)制是否阻礙技術(shù)創(chuàng)新成為相伴而生理論與實務(wù)難題,短期視野下采取的規(guī)制措施很可能損害技術(shù)創(chuàng)新帶來的長遠(yuǎn)效益。人工智能風(fēng)險的獨特性與現(xiàn)行規(guī)制的局限性導(dǎo)致風(fēng)險規(guī)制始終處于緊張的矛盾狀態(tài)之下,認(rèn)真對待人工智能的風(fēng)險規(guī)制勢在必行。
理解人工智能是進行風(fēng)險規(guī)制的第一步,(5)如何界定人工智能是需要考察的重要問題。目前我國法學(xué)界對人工智能存在以下界定:馬長山教授認(rèn)為,人工智能是通過模擬人腦思維,由機器或軟件所表現(xiàn)出來的具有推理、記憶、理解、學(xué)習(xí)和計劃的類人化智能,它能夠思考自己的目標(biāo)并進行適時調(diào)整,甚至將擁有足以匹敵人的智慧和自我意識的能力。劉憲權(quán)教授認(rèn)為,人工智能技術(shù)通過模擬人類的神經(jīng)網(wǎng)絡(luò),讓計算機系統(tǒng) 對數(shù)據(jù)庫進行深度學(xué)習(xí),使得計算機系統(tǒng)能夠進行分析、判斷以及決策。參見馬長山:《人工智能的社會風(fēng)險及其法律規(guī)制》,載《法律科學(xué)》2018年第6期;劉憲權(quán):《人工智能時代的刑事風(fēng)險與刑法應(yīng)對》,載《法商研究》2018年第1期。人工智能復(fù)雜性、靈活性的特點致使其無法形成統(tǒng)一的概念界定。(6)參見John McCarthy, What is Artificial Intelligence?, JOHN MCCARTHY'S HOME PAGE 2-3, http://www-formal.stanford.edu/jmc/whatisai.pdf.第一個使用人工智能概念的計算機科學(xué)家麥卡錫將人工智能界定為“有關(guān)智能機器特別是智能電腦程序的科學(xué)技術(shù)與工程系統(tǒng)”,(7)Id.其可以通過自身行動實現(xiàn)復(fù)雜的目標(biāo)。作為偏正短語,“人工智能”的核心部分在于“智能”二字,如何界定“智能”對解讀人工智能而言意義重大。依照學(xué)界通說,“人類智能”主要關(guān)涉具備知覺、存在自我意識、可以使用語言、掌握抽象思維、能夠調(diào)整適應(yīng)環(huán)境以及進行復(fù)雜推理等要素。(8)參見Francis Crick & J. Clark, The Astonishing Hypothesis, 1 J. CONSCIOUS STUD, 10-16 (1994).因此有學(xué)者參照“智能”的概念將人工智能分為人性化思考、人性化行動、理性思考和理性行動等四種類型,并最終認(rèn)為人工智能是自動運行、能感知周圍環(huán)境、可在一段時間內(nèi)持續(xù)存在的、具有適應(yīng)能力,并創(chuàng)造和追求最佳結(jié)果的機器或者程序。(9)[美]斯圖爾特·羅素、皮特·諾維格:《人工智能:一種現(xiàn)代的方法》,殷建平等譯,清華大學(xué)出版社2013年版,第1-5頁。
通過比較,不難發(fā)現(xiàn)理性行為特別是追求最優(yōu)結(jié)果的能力是被廣泛認(rèn)同的人工智能關(guān)鍵屬性,其決定了人工智能的兩大特征:其一,人工智能的行為后果具備較弱的可預(yù)見性。盡管人工智能的理性能力在一定程度上可以通過初始程序進行控制,但其自主完成復(fù)雜任務(wù)的過程亦容易導(dǎo)致人類難以預(yù)見的后果。其二,人工智能具有較弱的可控性。人工智能可控性上的局限并不是由于機器故障或人工智能對人類指令理解能力的不足,而是源自其對設(shè)計者主觀意圖的隔離與漠視。特別當(dāng)人工智能認(rèn)定的最優(yōu)結(jié)果與人類社會期待的最優(yōu)結(jié)果發(fā)生偏差的時候,人工智能的可控性成為需要解決的重要難題。(10)以寡頭壟斷市場上出現(xiàn)的算法通謀為例,大型企業(yè)開發(fā)的數(shù)據(jù)算法很可能彼此撮合進而形成壟斷價格,這種價格對寡頭企業(yè)而言是有利的,但對于有效競爭的實現(xiàn)和消費者利益的維護是有害的。此時就出現(xiàn)了人工智能目標(biāo)函數(shù)上的分歧。此外,人工智能在研發(fā)上的獨特性與其理性行為能力密切相關(guān):(1)集約化。相較于新能源技術(shù)、航天科技等領(lǐng)域,人工智能并不需要大規(guī)模的機構(gòu)設(shè)施即可開展研發(fā)工作。(11)參見John O. McGinnis, Accelerating AI, 104 NW. U. L. Rev. 1253, 1262 (2010).(2)分散化。在人工智能領(lǐng)域,不同的機構(gòu)組織,不同的私人企業(yè)往往進行分散化的研究。相同的人工智能技術(shù)亦可以在不同行業(yè)不同領(lǐng)域進行分散化的運用。(3)非連續(xù)性。特定技術(shù)的開發(fā)者不能預(yù)見該技術(shù)的后繼者將如何使用該技術(shù)進行進一步研發(fā)。(12)參見Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, 29 Harv. J. L. & Tech. 369 (2016).某一階段的技術(shù)開發(fā)者往往無法長遠(yuǎn)預(yù)見該技術(shù)發(fā)展的未來走勢。(4)不透明性。人工智能技術(shù)開發(fā)往往是多種現(xiàn)有技術(shù)的復(fù)雜組合,這使人工智能很難采用反向還原工程進行拆解分析。這導(dǎo)致人工智能開發(fā)中的缺陷不僅對消費者而言是不可測度的,對下游生產(chǎn)商和分銷商而言亦是難以檢測的。
人工智能的上述特征從根本上決定了風(fēng)險規(guī)制的現(xiàn)實需求。在風(fēng)險規(guī)制的視野下,一些具備理性能力的人工智能(如象棋軟件)暫時不具備引發(fā)公共風(fēng)險的可能性,而一些機器學(xué)習(xí)系統(tǒng)盡管不具備理性行為能力,但卻可能引發(fā)相關(guān)風(fēng)險,進而也可被納入到人工智能的規(guī)制范疇中來。(13)參見Michael Guihot; Anne F. Matthew; Nicolas P. Suzor, Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence, 20 Vand. J. Ent. & Tech. L. 395 (2017).由此可見,規(guī)制視野下的人工智能是一個譜系化的概念,其包括并不具備目標(biāo)追求能力但卻可以完成復(fù)雜任務(wù)的機器系統(tǒng)或軟件(即不嚴(yán)格的人工智能),(14)不嚴(yán)格的人工智能是指以機器結(jié)算為代表的產(chǎn)業(yè)技術(shù)與裝備,其展現(xiàn)出來的“自主意識”只不過是被人類固定設(shè)置的特定程式。以及符合理性標(biāo)準(zhǔn)具備目標(biāo)追求能力的人工智能,甚至還包括目前尚未出現(xiàn)但卻被學(xué)界普遍關(guān)注的強人工智能(Artificial General Intelligence,也可譯作人工普遍智能)。所謂強人工智能,是指具備相當(dāng)程度的自我理解和自我控制能力,可在多變復(fù)雜的環(huán)境下解決不同的復(fù)雜問題,并能夠?qū)W習(xí)掌握解決新問題的相關(guān)技能與知識的實體。(15)參見Amnon H. Eden; James H. Moor; ohnny H. S?raker; Eric Steinhart, Singularity Hypotheses A Scientific and Philosophical Assessment, Berlin: Springer, 2012,p.161.關(guān)注強人工智能對人工智能的風(fēng)險規(guī)制具備警示意義:強人工智能已經(jīng)給人類社會造成較深層次的擔(dān)憂,(16)參見Nick Bostrom, When Machines Outsmart Humans, 35 FUTURES 759, 763-64 (2003).原因在于人工智能的發(fā)展具備蟄伏期較長與指數(shù)級增長相結(jié)合的特點,(17)Supra note 5.其一旦結(jié)束蟄伏期而達(dá)至特定的臨界點,隨即將開啟指數(shù)級增長的階段,人類很可能面臨被強人工智能馴服的風(fēng)險。因此,對人工智能規(guī)制而言,真正的問題是目前人工智能已經(jīng)發(fā)展至何種階段,以及距離前述的臨界點還有多遠(yuǎn)。法律的規(guī)制應(yīng)當(dāng)指引人工智能的發(fā)展,風(fēng)險預(yù)防理念下的防控型規(guī)制應(yīng)當(dāng)成為主流的規(guī)制策略。
截至目前,人工智能的應(yīng)用已經(jīng)造成了一些難以應(yīng)對的風(fēng)險。(1)人工智能歧視。大數(shù)據(jù)與人工智能技術(shù)的結(jié)合使復(fù)雜問題的分析往往伴隨著種族主義和性別歧視等傾向。(18)參見Kate Crawford, Can an Algorithm Be Agonistic?Ten Scenes from Life in Calculated Publics, 41. TECH. & HUM. VALUES 77, 82-83 (2016).且人工智能技術(shù)使歧視往往難以察覺,如不及時克服則極易固化為數(shù)據(jù)算法的內(nèi)在邏輯。例如在法律實施的人工智能程序中,黑人被誤判犯罪的概率已然高于其他人種。(19)參見Julia Angwin et al., Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And It's Biased Against Blacks. PROPUBLICA (May 23, 2016),https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing歧視問題在數(shù)據(jù)算法設(shè)計之時就應(yīng)當(dāng)被盡量排除。(2)安全風(fēng)險。自動駕駛等智能技術(shù)可以通過減少人為失誤的方式提高出行安全,但軟件缺陷等原因亦可造成新的安全風(fēng)險。在及時的風(fēng)險選擇時,無人駕駛技術(shù)可能面臨著道德困境。(20)以無人駕駛技術(shù)為例,該技術(shù)在面臨一個人的生命與一群人生命的兩難選擇時,很可能遭遇道德困境。此外,個人信息安全問題則在疾病診斷智能應(yīng)用方面比較突出。(3)人工智能在司法裁判中的應(yīng)用風(fēng)險。人工智能在裁判、法律解釋中的運用可以提高司法過程的透明度與一致性,(21)參見Maria Jean J. Hall et al., Supporting Discretionary Decision-Making with Information Technology: A Case Study in the Criminal Sentencing Jurisdiction, 2 U. OTTAWA L. & TECH. J. 1, 31 (2005)但其一直遭受著自由裁量與具體案件具體分析能力不足的批判。(22)參見Paul Lippe, Daniel Martin Katz & Dan Jackson, Legal by Design: A New Paradigm for Handling Complexity in Banking Regulation and Elsewhere in Law, 93 OR. L. REV. 833, 849 (2015).在缺乏明確法律規(guī)范作為依據(jù)的場合下,法律原則及價值理念的考量需要較強的自由裁量能力。與此同時,司法裁判的做出需要推理能力和直覺判斷能力并考察判決的社會效果,這些皆不是人工智能的強項。歐盟2016年頒布的《一般數(shù)據(jù)保護條例》第22條第一款則直接創(chuàng)設(shè)了一種新型的數(shù)據(jù)權(quán)利,即不必遵循純粹人工智能程序做出的決定的權(quán)利,(23)參見歐盟《一般數(shù)據(jù)保護條例》(中文譯本),丁曉東譯,http://www.zhichanli.com/article/6398.html。這直接要求司法判決中必須有人力的參與。(4)非獨特性風(fēng)險,以結(jié)構(gòu)性失業(yè)為典型。人工智能帶來的高效率、高安全性很可能徹底改變用工狀態(tài),(24)參見Carl Benedikt Frey & Michael A. Osborne, The Future of Employment: How Susceptible Are Jobs to Computerisation?, 114 TECH. FORECASTING & SOC. CHANGE. 254, 261 (2017).造成結(jié)構(gòu)性失業(yè),一些人力勞動將徹底被人工智能取代,由此造成的社會影響是需要認(rèn)真分析的。
通過對人工智能主要特征及應(yīng)用狀況的分析,人工智能風(fēng)險規(guī)制的現(xiàn)實需求得以充分展現(xiàn)。風(fēng)險規(guī)制必須進一步厘清人工智能風(fēng)險的獨特屬性及其規(guī)制困境,才能對癥下藥,分析尋找人工智能風(fēng)險規(guī)制的可行出路。
基于人工智能及其研究開發(fā)的相應(yīng)特征,人工智能風(fēng)險呈現(xiàn)出如下獨特屬性。首先,私人企業(yè)在人工智能開發(fā)中的主導(dǎo)作用導(dǎo)致了信息的嚴(yán)重不對稱,多學(xué)科交叉與前沿知識的運用使相關(guān)風(fēng)險在現(xiàn)有的認(rèn)知水平下具有不可知性。其次,不同人工智能可造成不同種類的風(fēng)險,相同人工智能在不同領(lǐng)域的應(yīng)用亦可能造成不同種類或不同程度的風(fēng)險。與此同時,風(fēng)險具備較強的可變性,在規(guī)制真空的狀態(tài)下,低水平風(fēng)險很可能在短時間內(nèi)發(fā)展為較強的風(fēng)險,這種多樣性與變動性對規(guī)制提出了嚴(yán)峻挑戰(zhàn)。再次,人工智能風(fēng)險還是一種典型的系統(tǒng)性風(fēng)險。(25)參見Ortwin Renn & Andreas Klinke, Systemic Risks: A New Challenge for Risk Management, 5 EUR. MOLECULAR BIOLOGY ORG. REP. 41, (2004).人工智能的應(yīng)用被嵌入在非常復(fù)雜且相互影響的社會、金融等系統(tǒng)之中,系統(tǒng)與系統(tǒng)之間、系統(tǒng)內(nèi)部諸要素之間的關(guān)聯(lián)性擴大了風(fēng)險的潛在影響。系統(tǒng)環(huán)境越是復(fù)雜與非線性,相應(yīng)風(fēng)險就越容易被系統(tǒng)的關(guān)聯(lián)效應(yīng)放大,以致影響多方面的利益相關(guān)者。最后,人工智能風(fēng)險亦具備兩面性。規(guī)制失敗造成的風(fēng)險應(yīng)當(dāng)被充分考量。企業(yè)家與技術(shù)開發(fā)者往往對規(guī)制懷有一定程度的恐懼,其認(rèn)為除非技術(shù)創(chuàng)新對社會發(fā)展造成嚴(yán)重的損害,否則創(chuàng)新不應(yīng)當(dāng)被阻止。(26)參見Adam Thierer, Technopanics, Threat Inflation, and the Danger of an Information Technology Precautionary Principle, 14 MINN. J.L. SCI. & TECH. 309, 339, 375 (2012).此外,規(guī)制措施的采取在很大程度上受到民眾意見的影響,這種影響很可能錯誤地左右了規(guī)制機關(guān)的相應(yīng)選擇。人工智能的風(fēng)險屬性決定了風(fēng)險規(guī)制的具體困境。
人工智能風(fēng)險的不可知性與多樣性使規(guī)制者的步伐滯后于技術(shù)開發(fā)與運用的腳步。風(fēng)險的可變性與系統(tǒng)性亦導(dǎo)致規(guī)制者難以對風(fēng)險的發(fā)展變化做出充足的預(yù)估與反應(yīng)。規(guī)制的滯后性往往具備正反饋效應(yīng),一時的滯后往往對技術(shù)開發(fā)者形成進一步規(guī)避監(jiān)管的不當(dāng)激勵,繼而造成規(guī)制的進一步滯后。此外,規(guī)制者面向未來的監(jiān)管,往往因立法的缺失或模糊而難以及時采取行動,這在一定程度上造成了規(guī)制的掣肘。
規(guī)制的滯后性是造成規(guī)制對抗的重要原因?!翱屏指窭锲胬Ь场苯沂玖诉@一過程:在技術(shù)發(fā)展的早期,規(guī)制者往往因信息匱乏而無法采取行動;而伴隨時間的推移,相應(yīng)技術(shù)很可能根植于人類的日常生活,以至于規(guī)制者一旦采取行動即遭受來自使用者、開發(fā)者、投資者的抵抗。(27)參見Graeme Laurie, Shawn HE Harmon & Fabiana Arzuaga,Foresighting Futures: Law, New Technologies and the Challenges of Regulating for Uncertainty, 4 LAW INNOVATION & TECH. 6 (2012).人工智能技術(shù)的廣泛應(yīng)用使上述困境成為規(guī)制者面臨的主要難題。以“無人駕駛”技術(shù)為例,其廣告宣傳的主要亮點都是幫助用戶克服傳統(tǒng)汽車帶來的風(fēng)險,這使政府部門在面對新興風(fēng)險時往往缺乏規(guī)制的積極性。新興產(chǎn)品的確對傳統(tǒng)產(chǎn)品形成了明顯的替代效應(yīng),但其很可能只在短期之內(nèi)或者某一方面具有克服風(fēng)險的功效。長遠(yuǎn)或者通盤考慮,其可能造成新的風(fēng)險。以目前的檢驗、檢測技術(shù)難以直接高效地分析風(fēng)險內(nèi)容及其發(fā)生的可能性。風(fēng)險認(rèn)知上的挑戰(zhàn)極大地增加了規(guī)制的難度,盲目進行全面禁止很可能阻礙技術(shù)創(chuàng)新。隨著無人駕駛技術(shù)的推廣,利益相關(guān)者特別是被規(guī)制者的俘獲或阻撓將成為新興風(fēng)險難以規(guī)制的重要原因。當(dāng)規(guī)制者以相對消極的方式進行信息收集時,新興產(chǎn)業(yè)也在采取應(yīng)對措施。(28)在新興技術(shù)研發(fā)運用的初始階段,相應(yīng)規(guī)制的拖延容易導(dǎo)致兩種類型的政治阻力。最常見的是利益集團的媾和。奧爾森在《集體行動的邏輯》中指出,規(guī)模較小但集中化的利益集團比規(guī)模大而分散的社會公眾更能對規(guī)制政策產(chǎn)生影響。與此同時,規(guī)制立法及其實施往往以犧牲利益集團的利益為代價,換取社會公眾的利益實現(xiàn)。正反兩個方面相互結(jié)合,規(guī)制成敗在很大程度上受利益集團特別是被規(guī)制企業(yè)的干擾。參見[美]曼瑟爾.奧爾森:《集體行動的邏輯》,上海人民出版社1995年版。即使未來規(guī)制主體可以為規(guī)制措施構(gòu)建正當(dāng)化基礎(chǔ),被規(guī)制對象也很可能已經(jīng)獲取了與規(guī)制者討價還價的“政治資本”。(29)在這個過程中,被規(guī)制企業(yè)可以通過收集信息、進行有利于自己的實驗甚至采取擴張雇傭規(guī)模的方式獲得抵抗規(guī)制的籌碼。此外,社會公眾對風(fēng)險的認(rèn)知更傾向于“體驗——情感模式”,(30)對公眾風(fēng)險認(rèn)知模式的總結(jié),參見戚建剛:《風(fēng)險認(rèn)知模式及其行政法制意蘊》,載《法學(xué)研究》2009年第5期。其風(fēng)險的判斷更多立足于感官刺激,對新興風(fēng)險的認(rèn)知更加缺乏理性的判斷。(31)不論是日本福島核電站放射性泄露,還是恐怖分子襲擊,有些風(fēng)險是可以帶給民眾比較直接的感官刺激。不僅政府規(guī)制的積極性較高,民眾的規(guī)制呼聲也比較高漲。而對以技術(shù)創(chuàng)新為表現(xiàn)形式的“新興風(fēng)險”而言,盡管風(fēng)險發(fā)生的蓋然性很可能遠(yuǎn)遠(yuǎn)高于放射性泄露的發(fā)生概率,危害亦可能高于恐怖襲擊等風(fēng)險形式,政府與民眾依舊對其不夠重視。這正反映了一種尷尬的局面——“大量的資源被消耗在微笑或者主觀猜測的風(fēng)險上,而其他應(yīng)當(dāng)關(guān)注的風(fēng)險卻未啟動相應(yīng)的程序”。參見楊小敏、戚建剛:《風(fēng)險最糟糕情景認(rèn)知模式及行政法制之改革》,載《法律科學(xué)》2012年第2期。國外學(xué)者亦分析了這一現(xiàn)象,以飛機失事事件為例,可以生動形象地引起公眾生理反應(yīng)的風(fēng)險常常引發(fā)較強的規(guī)制訴求。See Timur Kuran & Cass R. Sunstein, Availability Cascades and Risk Regulation, 51 STAN. L. REV. 683, 706 (1999).當(dāng)新興技術(shù)博取了社會公眾足夠認(rèn)可時,規(guī)制很可能面臨來自社會公眾的對抗,這種對抗往往成為影響規(guī)制成敗的重要因素。
規(guī)制的滯后與規(guī)制的對抗在很大程度上形成了封閉的惡性循環(huán)。規(guī)制的滯后導(dǎo)致了規(guī)制對抗的出現(xiàn),而規(guī)制的對抗又反過來加劇規(guī)制的滯后性。如何打破規(guī)制的惡性循環(huán)成為人工智能風(fēng)險規(guī)制的主要困境之一。
目前風(fēng)險規(guī)制主要依賴事前與事后兩種模式解決問題:以準(zhǔn)入規(guī)制為代表的事前規(guī)制模式主張,當(dāng)風(fēng)險因素造成對人類健康或生存環(huán)境的威脅,預(yù)防性的措施就應(yīng)當(dāng)被采取,即使有些因果關(guān)系尚未被充分科學(xué)地建立。以司法裁判和行政處罰為代表的事后模式則只在造成實際損害,或有切實證據(jù)證明相應(yīng)行為一旦持續(xù),將很可能造成損害結(jié)果時才能啟動相應(yīng)的程序。而在人工智能的視野下,傳統(tǒng)規(guī)制面臨著僵化與失靈的困境。
規(guī)制者在進行人工智能產(chǎn)品的準(zhǔn)入規(guī)制時,往往無法在準(zhǔn)入與否與準(zhǔn)入條件等方面進行準(zhǔn)確的判斷。規(guī)制者很可能傾向于禁止新產(chǎn)品的商業(yè)化以回應(yīng)公眾擔(dān)憂,即使沒有證據(jù)證明這種擔(dān)憂有可靠依據(jù)。準(zhǔn)入規(guī)制上“全有或全無”的僵化做法為企業(yè)的發(fā)展造成了不確定性,很容易損害技術(shù)創(chuàng)新效益。桑斯坦通過總結(jié)新技術(shù)發(fā)展過程中的管制狀況指出,人們總是傾向于過分擔(dān)憂技術(shù)創(chuàng)新造成的損失。(32)參見Cass R. Sunstein, Beyond the Precautionary Principle, 151 U. PA. L. REV. 1003, 1009(2003).他認(rèn)為規(guī)制者應(yīng)當(dāng)避免對尚未認(rèn)定清楚的未來風(fēng)險進行過度嚴(yán)苛的管制。
人工智能風(fēng)險規(guī)制在很大程度上是進行取舍的過程。即使具備一定依據(jù),嚴(yán)格的風(fēng)險預(yù)防措施亦難以符合效益原則。此時,風(fēng)險規(guī)制似乎陷入悖論之中:風(fēng)險的不確定性已然賦予規(guī)制主體較大的自由裁量權(quán),如果依舊進行舉證責(zé)任的倒置,則會使行政相對人處于非常不利的位置,致使規(guī)制主體更容易擺脫程序的制約,而如果舉證責(zé)任由規(guī)制機構(gòu)承擔(dān),則畸高的成本使預(yù)防原則難以發(fā)揮作用。盡管健康、安全、生態(tài)環(huán)境的重要性不言而喻,但大部分風(fēng)險并非真正不可逆,以該模式對創(chuàng)新活動進行禁止或嚴(yán)格的限制將形成規(guī)制的路徑依賴,進行糾正的難度是相當(dāng)大的。
另一方面,事后規(guī)制則面臨著失靈的困境。支持事后規(guī)制的觀點認(rèn)為,賠償責(zé)任的追究可以提供充足的威懾。但風(fēng)險規(guī)制的不確定性,導(dǎo)致事后機制的發(fā)揮遭受較大的阻力。因果關(guān)系的證明上存在較大的難度,舉證責(zé)任的倒置也只能在有限的范圍發(fā)揮作用。人工智能風(fēng)險往往涉及諸多利益相關(guān)者,事后責(zé)任的分配不僅繁瑣,更存在理論上的困難。在訴訟程序上,小額集團訴訟等制度短板亦限制了事后責(zé)任追究機制的發(fā)揮。(33)即使在美國,發(fā)散性的風(fēng)險侵害亦難以通過司法機制進行權(quán)益的維護。See Christopher H. Schroeder, Lost in the Translation: What Environmental Regulation Does that Tort Cannot Duplicate, 41 WASHBURN L.J. 583, 601 (2002).風(fēng)險的潛伏性,不僅增加了調(diào)查取證的難度,侵害的不可預(yù)知性亦常常作為被告的辯解理由。(34)以我國《產(chǎn)品質(zhì)量法》第29條為例,該條列舉的生產(chǎn)者不承擔(dān)賠償責(zé)任的具體情形中包括“將產(chǎn)品投入流通時的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在的”,這樣的規(guī)定在風(fēng)險規(guī)制領(lǐng)域很容易成為生產(chǎn)者推卸責(zé)任的理由。被告的償付能力亦是風(fēng)險規(guī)制中需要考察的環(huán)節(jié),被告出現(xiàn)財務(wù)困難以致破產(chǎn)的情況將導(dǎo)致受害人清償難以實現(xiàn)。即使在訴訟機制相對健全的美國,環(huán)境侵權(quán)等案件中私法責(zé)任追究機制亦只能發(fā)揮較弱的威懾作用。(35)參見Troyen A. Brennan, Environmental Torts, 46 VAND. L. REV. 1, 6 (1993).
行政處罰等規(guī)制措施在信息不足的情況下亦面臨著失靈困境。首先,大量與規(guī)制有關(guān)的信息被掌握在作為信息源的創(chuàng)新主體手中,市場創(chuàng)新主體亦有強烈的動機選擇性地披露對自己有利的信息。即使證明創(chuàng)新的益處遠(yuǎn)遠(yuǎn)超過其弊端,開發(fā)企業(yè)亦不愿意披露克服弊端的方法或其他信息,原因在于弊端的克服對于創(chuàng)新者而言往往意味著新的商機。其次,事后規(guī)制為被規(guī)制者留下充足的時間進行聯(lián)合對抗,規(guī)制者很容易錯失規(guī)制良機。從根本上看,處罰措施構(gòu)建起的規(guī)制對壘無法為人工智能風(fēng)險防控營造合適的規(guī)制氛圍。
規(guī)制合作問題是困擾新興技術(shù)行業(yè)監(jiān)管的主要問題。(36)參見Stuart Minor Benjamin & Arti K. Rai, Fixing Innovation Policy: A Structural Perspective, 77 GEO. WASH. L. REV. 1, 3-5 (2008);首先,人工智能技術(shù)開發(fā)本身具有強烈的跨學(xué)科屬性,且相同的人工智能技術(shù)很可能在不同行業(yè)進行應(yīng)用,這在根本上決定了規(guī)制機構(gòu)之間合作的必要性。其次,行業(yè)內(nèi)部已經(jīng)發(fā)展起一些行為準(zhǔn)則或產(chǎn)業(yè)標(biāo)準(zhǔn),規(guī)制機構(gòu)應(yīng)當(dāng)兼顧行業(yè)內(nèi)部的行為準(zhǔn)則與自我規(guī)制,形成公私規(guī)制的良性互動。最后,人工智能風(fēng)險規(guī)制應(yīng)當(dāng)更加強調(diào)問題導(dǎo)向性,并成立專門的委員會以處理規(guī)制機構(gòu)之間、公共規(guī)制與自我規(guī)制之間、硬法與軟法之間、法律與道德之間、經(jīng)濟發(fā)展與其他效益之間的矛盾問題。由此可見,合作機制成為人工智能規(guī)制必須解決的重要問題。其反映了規(guī)制“去中心化”的趨勢——沒有哪一方主體可以在人工智能風(fēng)險規(guī)制中居于絕對的主動地位或中心位置。(37)參見Julia Black, Critical Reflections on Regulation, 27 AUSTL. J. LEGAL PHIL. 8 (2002).人工智能風(fēng)險規(guī)制的諸多困境與規(guī)制資源的分散化決定了人工智能風(fēng)險規(guī)制只能是多方主體平等參與的開發(fā)性場域。當(dāng)然,合作規(guī)制的過程中亦應(yīng)當(dāng)防止規(guī)制俘獲。規(guī)制者和被規(guī)制者的頻繁互動大大增加了規(guī)制俘獲的可能性。相較于其他技術(shù)創(chuàng)新領(lǐng)域,人工智能領(lǐng)域則更加容易出現(xiàn)交叉任職的情況。人工智能技術(shù)知識與專家意見被人工智能企業(yè)的高級雇員掌握,這使得規(guī)制者傾向于雇傭前述人員參與規(guī)制。這種交叉任職的情況,大大增加了規(guī)制俘獲的可能性。
綜上所述,人工智能風(fēng)險的獨特屬性決定了規(guī)制的多重困境?,F(xiàn)行規(guī)制主要依托法律命令和行政制裁等手段的直接應(yīng)用,政府部門被認(rèn)為是合理壟斷規(guī)制資源和規(guī)制權(quán)力的規(guī)制中心,由此造成了規(guī)制的滯后與失靈,難以滿足合作規(guī)制的現(xiàn)實需要。尋求規(guī)制思路的變革成為走出規(guī)制困境的關(guān)鍵。
在過去20年間發(fā)展形成的回應(yīng)型規(guī)制理論,在很大程度上對傳統(tǒng)規(guī)制形成了變革與替代,其能否為人工智能風(fēng)險規(guī)制提供相應(yīng)的理論指導(dǎo)是需要探討的問題?;貞?yīng)型理論的出現(xiàn)展現(xiàn)了單一命令型規(guī)制向可控性和適應(yīng)性更強的復(fù)合型規(guī)制體系變遷的整體趨勢,但該理論的局限性決定了其無法成為人工智能風(fēng)險規(guī)制的理論基礎(chǔ)。
典型的回應(yīng)型規(guī)制理論從法社會學(xué)與經(jīng)濟學(xué)的角度倡導(dǎo)規(guī)制手段的譜系化,以此實現(xiàn)政府規(guī)制與非政府規(guī)制的合作與互動。(38)參見John Braithwaite, The Essence of Responsive Regulation, 44 U.B.C. L. REV. 475, 480-83 (2011).其遵循以下原則:(1)任何規(guī)制措施應(yīng)當(dāng)是針鋒相對的選擇,(2)首先考慮使用說服教育和自我監(jiān)管的措施,(3)政府的強制性措施作為最后選擇,(4)規(guī)制強度應(yīng)當(dāng)逐步提升。(39)參見Ayers, J. Braithwaite. Responsive Regulation : Transcending the Deregulation Debate. Oxford: Oxford University Press,1992,p.6,37,38.與之對應(yīng),整體規(guī)制策略則可分為自我規(guī)制、強化型自我規(guī)制和命令強制型規(guī)制三種類型,具體規(guī)制手段也形成了由弱及強的金字塔體系。在此基礎(chǔ)上,“聰明監(jiān)管”理念的提出使原有單面的金字塔體系演化為三面金字塔體系,第一面是政府監(jiān)管,第二面是企業(yè)自我監(jiān)管,第三面是第三方監(jiān)管。(40)參見Dirk A. Zetzsche; Ross P. Buckley; Janos N. Barberis; Douglas W. Arner, Regulating a Revolution: From Regulatory Sandboxes to Smart Regulation, 23 Fordham J. Corp. & Fin. L. 94-98 (2017).在具體的規(guī)制任務(wù)面前,規(guī)制者不僅可以增加直接監(jiān)管的強度,還可以強化企業(yè)的自我監(jiān)管與第三方監(jiān)管。還有學(xué)者基于回應(yīng)型理論提出了雙層監(jiān)管的構(gòu)想,將建立有效內(nèi)部監(jiān)管體系的企業(yè)放入第一層級,政府部門可以減少對它們的直接規(guī)制轉(zhuǎn)而對企業(yè)內(nèi)部監(jiān)管體系進行補充監(jiān)督;而尚未建立起嚴(yán)密監(jiān)管體系的企業(yè)則被放入第二個層級,對之保持著傳統(tǒng)的命令型規(guī)制。(41)參見楊炳霖:《監(jiān)管治理體系建設(shè)理論范式與實踐路徑研究——回應(yīng)性監(jiān)管理論的啟示》,載《中國行政管理》2014年第6期。由此可見,回應(yīng)型規(guī)制理論旨在轉(zhuǎn)變政府自身定位,由原來的直接規(guī)制者轉(zhuǎn)變?yōu)橐?guī)制體系的構(gòu)建者,通過制度構(gòu)建保證其他非政府組織的主體地位,并激發(fā)自我監(jiān)管的意愿和能力。立足回應(yīng)型理論,一些專門針對現(xiàn)代風(fēng)險的規(guī)制理論得以提出。(42)參見Julia Black & Robert Baldwin, Really Responsive Risk-Based Regulation, 32 LAW POL'Y 181, 193, 210 (2010).如“真正風(fēng)險回應(yīng)型理論”主張風(fēng)險規(guī)制應(yīng)當(dāng)對被規(guī)制企業(yè)的態(tài)度、行為、文化氛圍、機構(gòu)環(huán)境、交互控制等方面作出回應(yīng),規(guī)制者應(yīng)當(dāng)積極探查不服從行為,并以不斷發(fā)展變化的策略和手段積極應(yīng)對這些行為,在確保規(guī)制措施得以實施的前提下,評估規(guī)制措施的成效并積極進行相應(yīng)的調(diào)整。(43)Id.
不可否認(rèn),這些理論在風(fēng)險規(guī)制領(lǐng)域發(fā)揮著重要作用,但依舊無法因應(yīng)人工智能風(fēng)險規(guī)制的困境。
首先,人工智能風(fēng)險面臨的規(guī)制信息匱乏與不對稱的程度遠(yuǎn)遠(yuǎn)超過以往風(fēng)險,政府部門已經(jīng)不再位于信息獲取與發(fā)布的中心位置。人工智能的飛速發(fā)展為規(guī)制者勾畫出急劇上升的學(xué)習(xí)曲線,這些因素都使風(fēng)險規(guī)制具備很強的不可預(yù)見性,而回應(yīng)型規(guī)制實際依舊以風(fēng)險的可預(yù)見性為依托。(44)以往風(fēng)險規(guī)制往往以相對明確的科學(xué)依據(jù)和經(jīng)驗事實作為支撐,因此那些方面的風(fēng)險規(guī)制相當(dāng)于“預(yù)防相對確定的危害結(jié)果出現(xiàn)”。面粉添加劑的存廢之爭就是很好的例子,參見沈巋:《風(fēng)險預(yù)防原則與食品添加劑準(zhǔn)入裁量》,載《北京行政學(xué)院學(xué)報》2012年第6期。盡管回應(yīng)型規(guī)制強調(diào)多元規(guī)制主體的廣泛參與,但這種規(guī)制的多元化實際是政府部門在一定風(fēng)險分析基礎(chǔ)上主動對規(guī)制權(quán)力進行再次分配的結(jié)果,充足的風(fēng)險分析與政府主導(dǎo)的多元化在人工智能領(lǐng)域皆難以實現(xiàn)?;貞?yīng)型規(guī)制倡導(dǎo)的教育、激勵等手段亦建立在信息相對充分、行業(yè)透明度較高的前提下,這與人工智能行業(yè)的發(fā)展現(xiàn)狀與未來趨勢頗為不符,回應(yīng)型理論在很大程度上無助于解決規(guī)制滯后的困境。
其次,盡管回應(yīng)型理論旨在形成立體化的規(guī)制工具體系,但其形成的規(guī)制體系依舊以政府規(guī)制為絕對中心。而人工智能風(fēng)險規(guī)制在知識層面上的割裂以及相關(guān)技術(shù)的多樣性、分散性,導(dǎo)致該領(lǐng)域風(fēng)險規(guī)制難以實現(xiàn)政府規(guī)制的絕對中心化,相應(yīng)的規(guī)制應(yīng)當(dāng)是多方主體基于信息反饋而互相合作的結(jié)果?;貞?yīng)型理論難以為風(fēng)險規(guī)制構(gòu)建起平等合作的開放式場域。
再次,盡管在人工智能領(lǐng)域也可使用自我規(guī)制的概念去形容企業(yè)進行風(fēng)險防控的過程,但人工智能領(lǐng)域的自我規(guī)制與政府主導(dǎo)下的雙層規(guī)制體系有很大的不同,前者是在政府規(guī)制真空的狀態(tài)下由開發(fā)者自發(fā)形成的規(guī)制,盡管這種自發(fā)性往往源自對政府規(guī)制滯后的無奈與擔(dān)憂。(45)以2014年谷歌并購深思科技為例,并購一經(jīng)獲批,谷歌公司就宣布成立人工智能監(jiān)管理事會以應(yīng)對人工智能風(fēng)險。參見Michael Guihot; Anne F. Matthew; Nicolas P. Suzor, Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence, 20 Vand. J. Ent. & Tech. L. 387 (2017).這種自我規(guī)制與回應(yīng)型理論下由政府設(shè)定相應(yīng)規(guī)制目標(biāo)的自我規(guī)制相比更加具備能動性與不可控性。若政府部門可以找尋平等合作的途徑,則可能出現(xiàn)規(guī)制雙贏的結(jié)果,否則很可能導(dǎo)致規(guī)制資源的消耗與規(guī)制對抗。在自我規(guī)制的過程中,相應(yīng)的知識、信息、規(guī)則、原則亦通過自我規(guī)制的過程進行自下而上的創(chuàng)造,這在很大程度上消解了政府規(guī)制的權(quán)威性,(46)以發(fā)達(dá)國家人工智能的自我規(guī)制為例,在美國,谷歌、亞馬遜、微軟、蘋果以及美國人工智能發(fā)展協(xié)會通力合作,制定了一系列的人工智能發(fā)展備忘錄。無獨有偶,美國電子電器工程師協(xié)會則提出了《道德化設(shè)計:人工智能時代人機相處的信任機制》文件,以促進人工智能的自我規(guī)制。Id.at 431-433.規(guī)則制定權(quán)的分化無形中為政府規(guī)制制造了外在壓力。在這樣的背景下,雙層規(guī)制等策略當(dāng)然是難以實現(xiàn)的。最后,回應(yīng)型規(guī)制在人力物力、組織能力等方面的水平與人工智能的規(guī)制需求不相匹配,這直接限制了回應(yīng)型規(guī)制的適用空間。
在此背景下,美國學(xué)界提出一些新的規(guī)制策略以應(yīng)對快速發(fā)展的新興風(fēng)險。例如,(1)以暫時性規(guī)制措施強化風(fēng)險規(guī)制的靈活性,通過實驗性立法與落日條款的方式確定可調(diào)整的規(guī)制手段與目標(biāo),通過法律規(guī)范與規(guī)制措施的調(diào)整以適應(yīng)不斷發(fā)展變化的整體環(huán)境。(47)參見Shawn HE Harmon & Fabiana Arzuaga, Foresighting Futures: Law, New Technologies and the Challenges of Regulating for Uncertainty, 4 LAW INNOVATION & TECH. 1, 3 (2012).(2)以“規(guī)制沙箱”的方式允許企業(yè)實施與檢驗新的規(guī)制思路,在這一過程中不必受已有法律規(guī)制的嚴(yán)格限制。(48)參見Luke G. Thomas, The Case for a Federal Regulatory Sandbox for Fintech Companies, 22 N.C. Banking Inst. 257 (2018).(3)積極借助信息反饋實現(xiàn)預(yù)期立法,以適應(yīng)規(guī)制過程中的偶然性。(49)參見Wendy Wagner; William West; Thomas McGarity; Lisa Peters, Dynamic Rulemaking, 92 N.Y.U. L. Rev. 192-194 (2017).人工智能風(fēng)險規(guī)制必須處理好靈活性與可預(yù)見性的關(guān)系。受上述策略的啟發(fā),實驗型的規(guī)制策略成為人工智能風(fēng)險規(guī)制思路的可行之選。
實驗型規(guī)制通常分為四個階段。首先,規(guī)制機關(guān)應(yīng)當(dāng)通過其掌握的初始信息,做出“初步可規(guī)制”的決定。第二,規(guī)制主體應(yīng)當(dāng)考察被規(guī)制者和相關(guān)民眾的意見,以決定實驗的具體條件,實施相應(yīng)的實驗。第三,必要之時,規(guī)制主體可暫停某些特定活動,以確保實驗的順利進行;依據(jù)實驗結(jié)果規(guī)制者可確定暫時性規(guī)制措施,以防止風(fēng)險發(fā)生。第四,實驗過程必須被合理地限制,以確保其具備合法性。
1.“初步可規(guī)制”決定的做出。如果現(xiàn)有的科學(xué)證據(jù)表明存在可置信的重大風(fēng)險或潛在損害,那么該風(fēng)險就具備初步的可規(guī)制性。規(guī)制者很難制定出初步可規(guī)制風(fēng)險的量化標(biāo)準(zhǔn),也無法計算出相應(yīng)風(fēng)險出現(xiàn)的具體概率。因此只能依靠以下的標(biāo)準(zhǔn)對人工智能風(fēng)險進行規(guī)制篩選:(1)技術(shù)具有革新甚至顛覆屬性,對傳統(tǒng)技術(shù)或產(chǎn)品有明顯的替代效應(yīng);(2)該技術(shù)以克服或減輕相關(guān)傳統(tǒng)產(chǎn)品的風(fēng)險或危害為主要的宣傳依據(jù);(3)該技術(shù)問世前相關(guān)市場中并不存在類似的產(chǎn)品和技術(shù);(4)新興技術(shù)正在以較快的速度推廣,或者有可預(yù)見的較大的推廣空間。由于不同領(lǐng)域的風(fēng)險往往由不同的部門進行規(guī)制,因此風(fēng)險規(guī)制并不需要統(tǒng)一的部門對新興風(fēng)險進行排序,不同領(lǐng)域的規(guī)制者可依照上述標(biāo)準(zhǔn)確定各自的規(guī)制任務(wù),并交由人工智能委員會進行統(tǒng)籌安排。(50)人工智能委員會見本章第三節(jié)的論述。
初步可規(guī)制性的明確很可能遭遇疑難案件。首先,決定的做出需要克服科學(xué)實驗的局限性問題??茖W(xué)本身是由無數(shù)次的失敗的結(jié)果,因此在哲學(xué)上常被人作為證偽過程的結(jié)果。(51)關(guān)于科學(xué)知識的可證偽性,參見[英]卡爾.波普爾:《開放社會及其敵人》,中國社會科學(xué)出版社1999年版?!霸诟叨炔淮_定性的領(lǐng)域,專家們無論如何調(diào)動自己的學(xué)識和經(jīng)驗,作出推測、假定或者建議,也不一定能達(dá)到或者逼近絕對的真實?!?52)陳春生:《核能利用與法之規(guī)制》(增訂版),月旦出版社股份有限公司1995年版,第379頁。對目前的科學(xué)技術(shù)還難以進行監(jiān)測分析的技術(shù)或人類行為,即使進行實驗亦難以開啟規(guī)制程序??茖W(xué)認(rèn)知水平的制約往往使初期的規(guī)制活動都難以符合成本收益分析的要求,因此對實驗周期較長、耗費資金較大、同行評議或?qū)W界共識普遍認(rèn)為危害較小或不存在危害的創(chuàng)新活動,只能采取觀望的態(tài)度。其次,如何協(xié)調(diào)民意與專家意見之間的關(guān)系是急需解決的問題。有學(xué)者認(rèn)為,民眾意見在風(fēng)險規(guī)制中承擔(dān)價值目標(biāo)確定的職能,而專家智識則決定了具體的規(guī)制措施和規(guī)制策略。(53)參見戚建剛:《風(fēng)險規(guī)制過程合法性之證成——以公眾和專家的風(fēng)險知識運用為視角》,載《法商研究》2009年第5期。但在人工智能風(fēng)險領(lǐng)域,民意對規(guī)制目標(biāo)的選定作用應(yīng)當(dāng)受到限制,規(guī)制主體應(yīng)當(dāng)在新興技術(shù)特別是具備顛覆性意義的技術(shù)創(chuàng)新面前保持警惕,在規(guī)制目標(biāo)的選擇上不應(yīng)完全順從民意而將規(guī)制資源集中在民眾關(guān)注的領(lǐng)域,而應(yīng)更加倚重科學(xué)分析的結(jié)果。
2.實驗的具體實施。實驗實施是風(fēng)險規(guī)制的核心環(huán)節(jié),其有助于規(guī)制主體在確定規(guī)制策略前獲取充足的信息。實驗型規(guī)制在克服規(guī)制的“確認(rèn)偏誤”(54)確認(rèn)偏誤是指認(rèn)識主體不論事實真相為何,都偏好于支持自己的成見或猜想的心理傾向。方面存在明顯的優(yōu)勢。受實驗影響,規(guī)制主體更易具備開放性的視野。(55)規(guī)制過程中的確認(rèn)偏誤實際與規(guī)制的路徑依賴緊密相關(guān)。以往的規(guī)制措施在很大程度上影響規(guī)制主體看待新興風(fēng)險的視角與方式,容易使規(guī)制主體運用以往確定的規(guī)制路徑解決問題。特別是規(guī)制信息匱乏或較強的不確定性影響下,規(guī)制者在面對新興風(fēng)險時不是選擇過分嚴(yán)格的事前管制就是放任不管。多元主體的平等參與和合作使信息獲取更加充分,規(guī)制者亦可構(gòu)建起反思規(guī)制措施可行性的場域。
具體而言,實驗對象被分配至實驗組、對照組等不同的組別。當(dāng)實驗規(guī)模、實驗次數(shù)達(dá)到一定要求,實驗中采取的控制措施將有效地解釋不同分組出現(xiàn)差異的原因,進而逐步積累有效的規(guī)制信息。在此過程中規(guī)制主體盡管沒有義務(wù)按照被規(guī)制者的風(fēng)險規(guī)制方案進行相應(yīng)的實驗,但實際上規(guī)制者往往有動機考察被規(guī)制者的提議。原因不僅在于人工智能風(fēng)險規(guī)制對平等合作的需求,還在于一旦規(guī)制主體依照實驗結(jié)果制定了相應(yīng)的具體規(guī)則,規(guī)制的失敗將面臨被規(guī)制者以訴訟的方式而發(fā)起的挑戰(zhàn),在實驗過程中參考被規(guī)制者的實驗方案或者相關(guān)建議可以減少來自訴訟等方面的摩擦。此外,實驗對象的選擇實現(xiàn)了民眾的參與,其不僅有助于增進民眾對風(fēng)險認(rèn)知結(jié)果的認(rèn)同和對規(guī)制措施的理解,還可以發(fā)揮民主監(jiān)督的重要作用。
在實驗過程中,規(guī)制者將面臨著來自實踐和倫理上的雙重挑戰(zhàn)。來自實踐方面的挑戰(zhàn)包括:(1)實驗對象中途退出實驗,(2)實驗對象從一個組別轉(zhuǎn)換至另一組別,(3)交叉影響,即實驗對象被其他組別采取的規(guī)制措施影響。實驗主體的退出,可以通過擴大樣品數(shù)量和預(yù)先進行樣品配對的方式進行解決。所謂預(yù)先配對,是指將實驗組與控制組之中的樣品提前進行配對,若一組中實驗主體退出實驗,則與其匹配的對應(yīng)組中的主體亦被跟進剔除的解決策略。而另外兩方面的問題則需通過跟蹤監(jiān)控的方式進行一定程度上的克服。此外,實驗還面臨著倫理層面的批判。實驗對象的分組將直接影響不同組別主體的相應(yīng)待遇,特別是長期實驗的存在,很可能使實驗對象在試驗條件下遭受的差別待遇長期存在。特別在醫(yī)學(xué)實驗中,實驗對象可能獲得較好的醫(yī)療條件或者新研制的藥物。因此,如果在醫(yī)學(xué)實驗中對比組實驗對象遭受了比較明顯的不利益,則實驗措施應(yīng)當(dāng)及早停止。當(dāng)然,實驗的實施必須符合成本收益原則,這集中體現(xiàn)在實驗規(guī)模的確定上。即使實驗規(guī)模的最佳邊際值難以精準(zhǔn)地確定,對實驗的大致規(guī)模進行科學(xué)謀劃是實施實驗的必要條件。
3.暫停權(quán)與暫時性規(guī)制措施。暫停權(quán)的行使主要服務(wù)于兩個目標(biāo):確保合理的實驗條件與防止利益集團的對抗。首先,在確保有足夠多的實驗對象參與實驗的前提下,還應(yīng)按照實驗計劃對不同組別的實驗條件進行控制,以對照組為例,規(guī)制者應(yīng)當(dāng)暫停該組實驗對象對相應(yīng)產(chǎn)品的接觸,否則實驗結(jié)果將受相關(guān)因素的干擾。其次,利益集團特別是被規(guī)制企業(yè)的對抗能力主要由以下兩個因素決定:資金水平和組織能力。規(guī)制主體的暫停中止權(quán)可以有效減小企業(yè)聯(lián)合對抗的可能性:其一,暫停權(quán)的行使有助于限制風(fēng)險創(chuàng)新企業(yè)的盈利能力。這種對盈利能力的限制可能是依據(jù)實驗要求暫停相應(yīng)的技術(shù)開發(fā)或產(chǎn)品銷售的直接結(jié)果,亦有可能是向投資者釋放風(fēng)險規(guī)制的政府傾向進而導(dǎo)致投資熱情冷卻的間接結(jié)果。其二,對人工智能企業(yè)而言,經(jīng)驗的缺失使其原本就難以形成企業(yè)之間的聯(lián)合。此時規(guī)制實驗的出現(xiàn),將有效減緩被規(guī)制企業(yè)溝通與聯(lián)合的速率。
依據(jù)實驗過程的階段性成果,規(guī)制者在必要之時可以采取暫時性的規(guī)制措施。規(guī)制者可為被規(guī)制企業(yè)的技術(shù)開發(fā)、產(chǎn)品銷售等經(jīng)營活動設(shè)置時間、空間、強度或預(yù)防措施等方面的要求,與此同時,規(guī)制者還可以限制風(fēng)險產(chǎn)品的銷售,特別是向易受傷害的消費者群體的銷售。鑒于暫時性規(guī)制措施對被規(guī)制企業(yè)的重大影響,規(guī)制俘獲的可能性是比較大的。利益俘獲理論早已指出,在位企業(yè)有俘獲規(guī)制者以提高相關(guān)行業(yè)市場準(zhǔn)入門檻、阻礙新興企業(yè)發(fā)展的動機,暫停權(quán)的俘獲則有助于傳統(tǒng)行業(yè)抵制新興技術(shù)的發(fā)展、削弱潛在的競爭。因此,實驗的實施亦要防止規(guī)制俘獲的出現(xiàn)。
4.合法性問題。風(fēng)險規(guī)制在很大程度上對法律保留原則、比例原則形成了挑戰(zhàn),(56)參見趙鵬:《風(fēng)險社會的自由與安全》,載《交大法學(xué)》2011年第1期。但這并不意味著風(fēng)險規(guī)制可以擺脫合法性的制約。目前來看,我國并沒有嚴(yán)格法令制定程序(57)我國規(guī)制機關(guān)的規(guī)章制定并沒有可以遵循的嚴(yán)格的規(guī)則制定程序,而在美國,規(guī)制機構(gòu)從20世紀(jì)80年代開始就可以采取商談式的規(guī)則制定程序,1990年通過的《商談式法令制定法》對這種法令制定程序進行了確認(rèn)。依據(jù)該法案,即使各方在規(guī)則制定中取得一致,通過商談方案制定的規(guī)則依舊要經(jīng)過公告與評議程序,特別是成本收益分析程序。參見Jody Freeman & Laura I. Langbein, Regulatory Negotiation and the Legitimacy Benefit, 9 N.Y.U. ENVTL. L.J.60 (2000).,針對人工智能的實驗規(guī)制制定政府規(guī)章的可能性也比較小。替代性方案應(yīng)當(dāng)被提出,以滿足規(guī)制實驗合法性的需要。首先,具體規(guī)制部門可制定臨時性規(guī)則對實驗的合法性進行確認(rèn);(58)具體規(guī)制部門主要指人工智能各個領(lǐng)域的監(jiān)管部門,如無人駕駛技術(shù)的監(jiān)管應(yīng)當(dāng)交由交通部門負(fù)責(zé),在制定實驗方案時,則應(yīng)主要參考相應(yīng)企業(yè)的意見與方案。其次,事后的司法審查機制可以為實驗型規(guī)制提供一定制約。
臨時性規(guī)則方案是指具體規(guī)制部門針對規(guī)制實驗制定臨時性具體規(guī)則的一種方案。首先,規(guī)制部門必須結(jié)合初始可規(guī)制風(fēng)險的標(biāo)準(zhǔn),論證實驗的必要性和可行性,制定具體的實驗方案。此時向誰論證,由誰應(yīng)答成為風(fēng)險規(guī)制需要解決的重要難題。由于民眾參與積極性以及科學(xué)知識儲備上的不足,向民眾進行論證的可行性與有效性都比較弱。因此,實驗方案的制定應(yīng)當(dāng)向人工智能委員會負(fù)責(zé)。實驗方案應(yīng)當(dāng)包括初步可規(guī)制性分析、實驗措施、實驗對象分組、實驗起止時間、預(yù)防補救措施等內(nèi)容。其次,在實驗取得階段性成果后,規(guī)制部門應(yīng)當(dāng)制定臨時性規(guī)范文件,以確定針對某種新興風(fēng)險的規(guī)制措施。該規(guī)制措施應(yīng)當(dāng)伴隨著規(guī)制實驗的進行不斷進行調(diào)整或補充,并向前述委員會進行定期的總結(jié)分析。最后,結(jié)合人工智能行業(yè)的自身特點,相應(yīng)的行業(yè)標(biāo)準(zhǔn)、行為規(guī)范應(yīng)當(dāng)被充分采納進規(guī)范性文件的制定之中。伴隨著風(fēng)險認(rèn)知的不斷深化,待時機成熟之時,規(guī)制主體可制定正式的規(guī)范性文件為常規(guī)規(guī)制提供合法性依據(jù),并結(jié)合新興產(chǎn)業(yè)的發(fā)展制定一系列有關(guān)市場準(zhǔn)入等方面的產(chǎn)業(yè)發(fā)展政策。
實驗過程具備較強的不確定性,對其進行制約還要發(fā)揮司法審查的作用。以時限性為例,實驗過程中的限制性措施只能是暫時性的。脫離司法機制的制約,這些規(guī)制措施很容易對創(chuàng)新型企業(yè)造成持續(xù)損害。(59)規(guī)制措施的暫時性和永久性問題實際在深化改革的進程中并不罕見。《行政許可法》第15條規(guī)定了地方政府創(chuàng)設(shè)臨時許可的權(quán)力,但臨時性行政許可實施滿一年的,應(yīng)當(dāng)提請本級人民代表大會及其常務(wù)委員會制定地方性法規(guī)。而正是由于司法審查機制的不暢,導(dǎo)致許多地方政府創(chuàng)設(shè)的暫時性行政許可長期存在。盡管基于尊重規(guī)制能動性的司法克制理念,具體實驗中的技術(shù)問題一般不屬于司法審查的范疇,但實驗及相關(guān)限制性措施的起止時間、適用對象等方面應(yīng)當(dāng)接受司法審查。目前來看,被規(guī)制者及其他利益相關(guān)者提起行政訴訟是進行司法審查的主要途徑。
權(quán)力配置問題是實驗型規(guī)制必須解決的重要問題。規(guī)制的合作性決定了規(guī)制權(quán)力必須在政府部門與人工智能開發(fā)者之間,以及中央與地方政府部門之間進行合理的配置。國外人工智能風(fēng)險規(guī)制已經(jīng)為我國提供了比較成熟的借鑒經(jīng)驗,主管部門、人工智能大型企業(yè)、獨立科研機構(gòu)與民眾代表應(yīng)當(dāng)協(xié)同籌建人工智能委員會,作為決定實驗權(quán)力配置等重大問題的決策機構(gòu)。
一般而言,人工智能研究開發(fā)的相關(guān)信息掌握在開發(fā)者手中,實驗樣本的選擇與具體方案的確定可以由開發(fā)者作為主要的策劃者,政府部門則更多從風(fēng)險的系統(tǒng)性及其他偶行性因素的角度進行相應(yīng)的補充。而實驗的具體實施權(quán)則需要委員會權(quán)衡地方試點型與中央主導(dǎo)型兩種模式的利弊。規(guī)制實驗可以大致分為有關(guān)技術(shù)可行性的規(guī)制實驗與實踐反饋的規(guī)制實驗兩種類別,盡管兩種類別并不存在涇渭分明的界限。(60)以無人駕駛為例,技術(shù)可行性與實踐的反饋是緊密結(jié)合的兩個部分。盡管在技術(shù)開發(fā)初期,技術(shù)可行性主要是通過科技人員進行技術(shù)攻關(guān)的方式實現(xiàn)的,但隨著技術(shù)開發(fā)的深入,技術(shù)可行性的提升與實踐反饋越來越緊密結(jié)合在一起。前者一般由中央級別的規(guī)制機構(gòu)與企業(yè)集團的母公司負(fù)責(zé)組織實施,原因在于地方試點型的實施模式具有以下局限性。
首先,風(fēng)險規(guī)制較弱的可預(yù)見性與可控性使地方政府在進行規(guī)制時面臨不小的難度,這就產(chǎn)生了“搭便車”與“規(guī)制觀望”的可能性,(61)以網(wǎng)約車規(guī)制為例證,新生事物從產(chǎn)生到被賦予合法地位總要經(jīng)歷漫長的“等待期”。特別是中央政策尚不明朗或新生事物具備較強群眾基礎(chǔ)的情形中,地方政府在進行規(guī)制時不僅面臨經(jīng)驗和理論缺失的困難,更滋生“等待觀望”的心理動機。直至上海市頒發(fā)第一張經(jīng)營許可證,全國各地才紛紛對網(wǎng)約車的監(jiān)管進行初步的表態(tài)就是最好的例證。在具體監(jiān)管的過程中,規(guī)制措施的選擇亦展現(xiàn)了較強的模仿性。繼北京上海出臺有關(guān)司機、車輛的準(zhǔn)入限制后,昆明、青島、杭州等地市亦紛紛確立了事前管制的監(jiān)管思路。參見郭傳凱:《共享經(jīng)濟屬性的回歸與網(wǎng)約車監(jiān)管思路的選擇》,載《山東大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2018年第1期。以致風(fēng)險規(guī)制的低效。被規(guī)制的企業(yè)只要在規(guī)制相對寬松的地域范圍獲得了成功經(jīng)營,便可以此為“根據(jù)地”向其他領(lǐng)域進行擴張發(fā)展,進而形成更強的規(guī)制對抗。其次,民眾對風(fēng)險規(guī)制的認(rèn)知很可能被感性認(rèn)識裹挾。在類似霧霾治理等可察覺性風(fēng)險上,民眾的訴求常常使政府花費大量風(fēng)險規(guī)制資源,而對人工智能風(fēng)險則視而不見。在缺乏中央政府強有力的督促、引導(dǎo)之時,地方層面很可能形成規(guī)制的真空狀態(tài)。第三,規(guī)制競次(62)規(guī)制的競次是美國學(xué)界從20世紀(jì)90年代就開始著力研究的問題。參見Richard L. Revesz, Rehabilitating Interstate Competition: Rethinking the "Race-to-the-Bottom" Rationale for Federal Environmental Regulation, 67 N.Y.U. L. REV. 1210 (1992).是不得不考察的因素。地方政府享有相應(yīng)的規(guī)則制定權(quán),這使得規(guī)制主體享有較大的自由裁量權(quán)。自由裁量使準(zhǔn)入監(jiān)管、標(biāo)準(zhǔn)設(shè)置、行政處罰等規(guī)制措施具備了較強的靈活性與機動性,這就為創(chuàng)新型企業(yè)尋找合適的、規(guī)制寬松的經(jīng)營研發(fā)地域留下了空間。招商引資、納稅金額、社會關(guān)注度、民眾需求、就業(yè)機會等因素亦能誘使地方規(guī)制主體制定寬松的規(guī)制政策。對風(fēng)險規(guī)制而言,這些都是需要提防的潛在因素。第四,地方主體規(guī)制相比中央政府規(guī)制更容易遭受被規(guī)制的俘獲,也更容易在上級黨政機關(guān)的“高壓”之下以對待相關(guān)傳統(tǒng)技術(shù)或產(chǎn)品的規(guī)制路徑管制新興技術(shù)的發(fā)展,從而造成規(guī)制路徑上的嚴(yán)重依賴。最后亦是最重要的原因,地方試點模式往往在人力物力、專家知識、組織能力等方面不及中央主導(dǎo)型模式,不利于規(guī)制實驗的實施。
中央主導(dǎo)型模式在科研實力和數(shù)據(jù)分析等方面的優(yōu)勢,使其在規(guī)制信息的獲取方面有著地方規(guī)制主體不具備的優(yōu)勢。此外,中央規(guī)制主體具備地方主體不具備的權(quán)威性,這對抵御被規(guī)制者的聯(lián)合對抗有重要意義。中央層面的規(guī)制措施亦具備較高的公信力,這有利于爭取民眾對規(guī)制的支持和理解。但中央主導(dǎo)型模式在實踐反饋性實驗的實施方面亦具有一定劣勢。以司法大數(shù)據(jù)與人工智能技術(shù)為例,對該技術(shù)進行實踐反饋實驗則不宜在中央層面進行。原因不僅在于中央一級的司法案件遠(yuǎn)離地方基層多樣實踐,更在于中央一級的司法案件往往需要更加審慎的考量,將之作為人工智能的實驗對象于理不合。此時地方型實驗可以進行富有地方特色的試點,中央政府可選擇最有效的、最符合成本收益原則的規(guī)制措施在全國適度推廣。盡管中央政府亦有能力進行多種規(guī)制措施的嘗試,但地方性實踐更有可能進行高效的知識積累。原因在于不同的地方規(guī)制主體有不同的思維方式和實踐土壤,有利于獲得了更加契合地方實踐的知識來源。此外,以地方試點的方式進行反饋性實驗還可以避免中央級別的系統(tǒng)性或大規(guī)模風(fēng)險。綜上所述,有關(guān)技術(shù)可行性的規(guī)制實驗應(yīng)當(dāng)盡量在中央層面進行實施,而實踐反饋實驗則應(yīng)當(dāng)在地方政府與企業(yè)集團分公司或子公司的層面進行開展。
實驗型規(guī)制的本質(zhì)是政府與人工智能開發(fā)者攜手構(gòu)建開放性場域的過程。從初步可規(guī)制決定的做出開始,規(guī)制機關(guān)就與人工智能開發(fā)者共同決定了人工智能的風(fēng)險等級與規(guī)制次序。人工智能委員會的設(shè)立形成了雙層協(xié)作式的規(guī)制結(jié)構(gòu),確保了平等合作的規(guī)制方式貫穿實驗型規(guī)制的始終,多學(xué)科知識和各方面信息在這一過程中得以融合,從而形成漸進性的規(guī)制:規(guī)制主體依據(jù)一定的初始信息采取一定的實驗措施,并以前述措施獲取更多的規(guī)制信息,再以獲得的信息為基礎(chǔ)采取更有效的規(guī)制措施,以此良性循環(huán),實現(xiàn)信息與規(guī)制之間的互動與“攀援”,從而有效地化解了規(guī)制滯后的難題。
規(guī)制過程中暫時性規(guī)制措施的采取有利于提升規(guī)制的靈活性。特別對系列實驗而言,不同技術(shù)發(fā)展階段的不同狀況導(dǎo)致不同的實驗結(jié)果,采取的暫時性規(guī)制措施亦各不相同,規(guī)制者可以及時調(diào)整規(guī)制目標(biāo)以適應(yīng)不斷變化的規(guī)制環(huán)境。此外,及時依據(jù)實驗狀況調(diào)整相應(yīng)的規(guī)制措施可以有效避免相應(yīng)規(guī)制對技術(shù)創(chuàng)新的阻礙作用。實驗?zāi)J叫纬傻拈_放式場域有利于發(fā)揮民主意見的作用,在最大限度上克服確認(rèn)偏誤導(dǎo)致的對傳統(tǒng)規(guī)制模式依賴的同時,盡可能通過民眾參與和被規(guī)制者意見的咨詢化解規(guī)制對抗的難題。專家學(xué)者、實驗人員、被規(guī)制企業(yè)、社會公眾等積極參與,不僅擴充了知識來源的渠道,更能通過商談的方式進行臨時性規(guī)則的制定,為實驗的實施提供合法性來源。
通過規(guī)制實驗,政府部門可以潛移默化地影響人工智能研發(fā)與運用的整體環(huán)境,并將相應(yīng)的政策精神內(nèi)化為企業(yè)行動,實現(xiàn)規(guī)制與調(diào)控的結(jié)合。這一過程往往節(jié)約了規(guī)制成本,并使風(fēng)險預(yù)防原則得以最大化的實現(xiàn),避免了實際損害的發(fā)生和錯誤的規(guī)制路徑形成。實驗型規(guī)制的漸進性與開放性不僅有助于資源設(shè)備的改良完善,更有助于科學(xué)知識的積累與風(fēng)險認(rèn)知的遞進化。這一過程不僅具備風(fēng)險防控的面向,亦同時具有促進技術(shù)發(fā)展和便捷人類生存的面向,這與以往任何風(fēng)險規(guī)制形成了重要區(qū)別。因此,作為人工智能風(fēng)險規(guī)制可行出路的實驗型規(guī)制不僅可以回應(yīng)人工智能風(fēng)險規(guī)制的多重困境,亦能最大限度地實現(xiàn)新興技術(shù)的自由發(fā)展與人類社會的繁榮進步。