易學文
(中南財經(jīng)政法大學 法學院,武漢 430073)
隨著數(shù)字技術的更新與迭代,技術已然逐步滲透到生活領域的各個方面,并在人們的生活中占據(jù)越來越重要的地位。人工智能作為數(shù)字技術的核心技術,其發(fā)展是時代不可阻擋的趨勢。比如,智能家居AI設備、個人機器人、無人機玩具等技術都在向市場進軍。①Robert Walters and Marko Novak,Cyber Security, Artificial Intelligence, Data Protection & the Law (Springer Singapore,2021),p.5.隨著人們生活的環(huán)境越來越智能化,智能環(huán)境的隱形性、互聯(lián)性、環(huán)境感知、個性化、適應性和預期性等特征日益凸顯。有學者指出,人工智能技術并不是現(xiàn)有生產(chǎn)力與生產(chǎn)關系的簡單延伸,而是“對工業(yè)革命以來生產(chǎn)關系和生活方式的一種替代”②馬長山:《人工智能與未來法治》,《河北法學》2018年第10期。,是比農(nóng)業(yè)革命和工業(yè)革命更具有顛覆性的革命。
然而,面對人工智能的迅猛發(fā)展,人們在享受人工智能技術帶來的便利和經(jīng)濟效益的同時,也遭受著前所未有的風險和不確定性,比如網(wǎng)絡安全、數(shù)據(jù)歧視、個人信息泄露、隱私侵權等。因此,如何平衡人工智能的創(chuàng)新與法律監(jiān)管之間的矛盾是核心問題。一方面,法律要應對不確定的風險,保障社會的秩序與安全,給人以確定性的生活;另一方面,法律要不斷適應社會的變化和發(fā)展,靈活地處理具體的現(xiàn)實問題,支撐AI技術的創(chuàng)新,實現(xiàn)實質(zhì)上的公平。正如一些學者提出的,“在確定性需求與靈活性需求的不斷碰撞和妥協(xié)中,人類社會的法律制度中普遍形成了一種可以應對社會生活復雜性與變化性的‘適應性機制’”①周少華:《法律之道:在確定性與靈活性之間》,《法律科學(西北政法大學學報)》2011年第4期。。面對人工智能技術的發(fā)展,尤其需要這種平衡的藝術。
歐盟委員會2021年4月公布了《人工智能法》提案,該提案作為世界范圍內(nèi)第一份人工智能法案,對應對人工智能系統(tǒng)風險,支持人工智能技術創(chuàng)新,無疑有著重要的示范意義。歐盟《人工智能法》提案第一版對人工智能的定義非常寬泛,第3條將人工智能系統(tǒng)(AI system)定義為“采用附件一所列的一種或多種技術和方法開發(fā)的軟件,該軟件可以針對一組給定的人類定義的目標,生成內(nèi)容、預測、建議或影響與之交互的環(huán)境的決策等輸出”②歐盟委員會:《人工智能法案》,https://artificialintelligenceact.eu/the-act/,最后訪問時間:2023年6月9日。。盡管學界對“人工智能”定義并沒有一致的答案,然而,這樣的定義顯然過于寬泛,幾乎包含了所有的傳統(tǒng)AI 技術與新興AI 技術。2022年《人工智能法》第四版草案對人工智能定義進行限縮,即將人工智能系統(tǒng)的定義縮小為“機器學習或基于邏輯和知識的系統(tǒng)”,以進一步明晰人工智能系統(tǒng)與傳統(tǒng)系統(tǒng)的區(qū)別。第四版草案盡管限縮了人工智能系統(tǒng)的范圍,但是AI 系統(tǒng)仍然存在很大程度不確定性。因此,必須根據(jù)不同的人工智能系統(tǒng),基于風險管理的方法,將不同的AI 系統(tǒng)分為四類風險等級:即不可接受的風險、高風險、有限風險和極小風險。③王婧:《從歐盟〈人工智能法〉提案看我國如何應對人工智能帶來的社會風險和法律挑戰(zhàn)》,《網(wǎng)絡安全與信息化》2021年第8期。對于不同的風險,采取不同的治理措施。對于不可接受的風險,《人工智能法案》第5 條明令禁止人工智能實踐;對于高風險,則需要綜合性治理;而對于有限風險和極小風險,應該遵守一定的告知義務和披露義務??傊?,該法案的一個核心在于風險控制與技術創(chuàng)新之間的平衡,在法理中表現(xiàn)為規(guī)范的確定性與靈活性。
AI系統(tǒng)的風險需要在具體的實踐中才能被監(jiān)測和判斷,抽象的條文沒有辦法立即在復雜、多變的生活中適用。因此,如何在現(xiàn)實中評估人工智能系統(tǒng)的風險,以及在新的人工智能技術的發(fā)展過程中,現(xiàn)有的規(guī)則和監(jiān)管措施如何及時更新以適應新的技術發(fā)展和社會需求,將成為關鍵問題。為了在推動AI 系統(tǒng)創(chuàng)新、收獲AI 效益、應對AI 風險和有效保護權利之間實現(xiàn)平衡④金玲:《全球首部人工智能立法:創(chuàng)新和規(guī)范之間的艱難平衡》,《人民論壇》2022年第4期。,歐盟《人工智能法》必須在制度上加以創(chuàng)新,以兼顧法律的確定性與靈活性、社會的創(chuàng)新性與規(guī)范性。這種平衡,不能僅在預先的立法中安排,更為重要的是在具體的可控的生活實踐中進行調(diào)試,由此,人工智能法案中“監(jiān)管沙盒”制度應運而生?!氨O(jiān)管沙盒”的實質(zhì)體現(xiàn)為在控制風險的前提下支持創(chuàng)新,以實現(xiàn)兩者的有機平衡。⑤張惠清:《“監(jiān)管沙盒”中國化運作——英國“監(jiān)管沙盒”的啟示》,《活力》2022年第24期。
監(jiān)管沙盒制度最早源于金融科技領域。由于科技的快速發(fā)展,越來越多的金融科技產(chǎn)品和服務進入金融市場,隨之導致一系列的監(jiān)管難題,為了解決傳統(tǒng)監(jiān)管的不足,必須改革監(jiān)管范式。“監(jiān)管沙盒”就是這一背景下改革的產(chǎn)物。2015年3月英國首次提出“監(jiān)管沙盒”概念。2016年,英國正式啟動“監(jiān)管沙盒”計劃,將金融與監(jiān)管相結合?!氨O(jiān)管沙盒”制度在英國的成功實踐使其很快受到很多國家和地區(qū)的青睞,新加坡、澳大利亞、美國、中國香港和中國臺灣等國家和地區(qū)都相繼啟動“監(jiān)管沙盒”計劃。
有研究者將“沙盒”形象地理解為“一種容器,里面所做的一切都可以推倒重來,在軍事、計算機等領域指的都是一種進行實驗推演的環(huán)境”。①李敏:《監(jiān)管沙箱制度及其實踐探析》,《私法》2018年第1期。據(jù)英國金融行為監(jiān)管局(FCA)的定義,“監(jiān)管沙盒是一個安全空間,在該空間中,監(jiān)管規(guī)定有所放寬,在保護消費者或投資者權益、嚴防外溢的前提下,盡可能創(chuàng)造一個鼓勵創(chuàng)新的規(guī)則環(huán)境。監(jiān)管沙盒的本質(zhì)是為了平衡金融科技的創(chuàng)新性和金融監(jiān)管滯后性之間的矛盾”。②江翠君:《淺析金融科技“監(jiān)管沙盒”在我國的適用》,《中國價格監(jiān)管與反壟斷》2023年第2期。換言之,在金融科技領域興起的“監(jiān)管沙盒”制度,是預先在可控的環(huán)境中進行實踐,一方面盡量使技術產(chǎn)品的運行接近真實的社會,另一方面使不確定性風險提前暴露并限制在可控范圍內(nèi)。有些學者認為,這種新的監(jiān)管范式,是從身份規(guī)制到契約治理,③劉盛:《監(jiān)管沙盒的法理邏輯與制度展開》,《現(xiàn)代法學》2021年第1期。是從一攬子監(jiān)管到適應性監(jiān)管。④劉芳彤:《互聯(lián)網(wǎng)金融監(jiān)管“沙盒模式”制度構建》,《西部金融》2023年第1期。盡管不同學者的歸納可能不同,但是可以看到“監(jiān)管沙盒”制度中所體現(xiàn)的多元交互性與現(xiàn)實適應性。正是這種多元交互性與現(xiàn)實適應性,使得“監(jiān)管沙盒”制度適合應用到獨特的人工智能領域中,能夠協(xié)調(diào)人工智能的不確定風險和創(chuàng)新的矛盾。
在歐盟《人工智能法》提案中,總體上體現(xiàn)了四個方面的目標:第一,確保在歐盟銷售和使用的人工智能系統(tǒng)是安全的,并尊重基本權利和歐盟的現(xiàn)行法律;第二,保證法律的準確性,以促進人工智能的投資和創(chuàng)新;第三,加強對適用于人工智能系統(tǒng)的基本權利和安全要求的現(xiàn)有法律的治理和有效執(zhí)行;第四,推動建立合法、安全、可信的人工智能應用統(tǒng)一市場,防止市場碎片化。⑤程瑩、崔赫:《歐盟高風險人工智能監(jiān)管的五個特點——歐盟人工智能法案(草案)初步解讀》,《互聯(lián)網(wǎng)天地》2021年第6期。為了實現(xiàn)這些目標,《人工智能法》不得不小心翼翼地選擇一條平衡的道路,基于不同的AI 系統(tǒng),劃分不同的風險等級,從而規(guī)定不同的治理措施。⑥歐盟委員會:《人工智能法案》,https://artificialintelligenceact.eu/the-act/,最后訪問時間:2023年6月9日。然而,不同風險的識別和控制,并不能靠理性思維提前設想,最關鍵的是需要在具體的實踐中才能真實地進行操作。AI“監(jiān)管沙盒”恰恰提供了辨別和控制風險的安全可控的環(huán)境,在控制風險的同時,最大限度地支持技術產(chǎn)品和服務的創(chuàng)新。分析《人工智能法》草案,“監(jiān)管沙盒”制度的規(guī)定從第一版到第四版有一些明顯的變化。在第一版中第53a 規(guī)定,“由一個或多個成員國主管當局或歐洲數(shù)據(jù)保護監(jiān)管機構建立的AI 監(jiān)管沙箱應提供一個受控的環(huán)境,以促進在將創(chuàng)新的AI 系統(tǒng)根據(jù)具體計劃投入市場或其投入使用前,在有限的時間內(nèi)開發(fā)、測試和驗證該系統(tǒng)”⑦Alessandro Mantelero,Beyond Data Human Rights, Ethical and Social Impact Assessment in AI(T.M.C.Asser Press The Hague,2022),p.167.。也就是說,“監(jiān)管沙盒”須在一個可控的環(huán)境中進行開發(fā)、測試和驗證。然而,第四版中增加了“允許了在現(xiàn)實世界中測試創(chuàng)新性系統(tǒng)”。此外,第四版中第54a和54b增加規(guī)定允許在特定條件下對人工智能系統(tǒng)進行無監(jiān)督的現(xiàn)實世界測試。從“監(jiān)管沙盒”制度的修改可以看出,“監(jiān)管沙盒”制度中監(jiān)管力度越來越寬松,測試環(huán)境越來越貼近真實的世界。換言之,“監(jiān)管沙盒”制度的本意是跟現(xiàn)實無縫銜接,以期望在具體的實踐中去發(fā)揮人工智能的市場潛力,降低不確定風險。
根據(jù)歐盟《人工智能法》草案的規(guī)定,AI“監(jiān)管沙盒”的運作具有以下特征:第一,整個測試過程需要在主管當局的直接監(jiān)督和指導下進行,并遵守該人工智能法案和啟動“監(jiān)管沙盒”成員國的內(nèi)部法規(guī);第二,AI“監(jiān)管沙盒”在運行的過程中,包括運行“監(jiān)管沙盒”的資格申請、對申請啟動“監(jiān)管沙盒”主體的篩選、參與AI系統(tǒng)的開發(fā)和測試以及退出“監(jiān)管沙盒”;第三,AI系統(tǒng)在開發(fā)和測試的過程中,發(fā)現(xiàn)有任何重大風險,可以隨時降低風險、中止開發(fā)和測試,甚至停止運行,若給第三方造成任何損害,須承擔相應的責任;第四,建立“AI監(jiān)管沙盒”的成員國,需在開發(fā)和測試的過程中,協(xié)調(diào)其行動,并與其他主體協(xié)商合作;第五,應向歐盟人工智能委員會和歐盟委員會提交有關實施該計劃結果的年度報告,包括良好實踐,經(jīng)驗教訓以及有關其設置的建議,并對相關的法規(guī)適用提出建議;第六,“監(jiān)管沙盒”應促進公共利益和保護個人信息權利。
“監(jiān)管沙盒”總體流程可分為申請、審核、協(xié)商、測試、監(jiān)測、報告、決策,運作模式如圖1所示:
圖1 AI“監(jiān)管沙盒”的運作模式示意圖
通過分析“監(jiān)管沙盒”的特征和運作模式,可以看到,在“監(jiān)管沙盒”測試中,監(jiān)管是在具體的、可控的情景中進行的。監(jiān)管措施由多方在協(xié)商過程中確立,人工智能系統(tǒng)風險在具體的運行過程中被識別,監(jiān)管所遵循的歐盟或其成員國法規(guī)在測試過程中進行檢驗并可以得到修正。相比傳統(tǒng)單方的監(jiān)管模式,這其實就是一種實踐轉(zhuǎn)向后的新型監(jiān)管模式。
對于“監(jiān)管沙盒”制度的研究,不少學者進行了深入剖析。有研究者認為,“監(jiān)管沙盒”無疑實現(xiàn)了庫恩意義上的范式轉(zhuǎn)換,是“原則性監(jiān)管范式”、“良性互動型監(jiān)管”、“實驗型監(jiān)管”的范式①朱暉、劉思昊:《金融科技對金融領域的影響及監(jiān)管范式轉(zhuǎn)變——基于人工智能技術的視角》,《貴州大學學報(社會科學版)》2020年第6期。,但是這并沒有很精練地概括范式轉(zhuǎn)向,只是從三個方面把握范式所表現(xiàn)出來的特征。在筆者看來,“監(jiān)管沙盒”確實體現(xiàn)了一種范式轉(zhuǎn)向,這種轉(zhuǎn)向就是實踐轉(zhuǎn)向。實踐轉(zhuǎn)向是根本意義上的轉(zhuǎn)向,是監(jiān)管規(guī)則的產(chǎn)生與更新的哲理基礎,也是解決人工智能技術市場化兩難問題的理論根基。然而,目前幾乎沒有人對“監(jiān)管沙盒”的實踐轉(zhuǎn)向做深入的哲學分析。在目前的研究中,對于“監(jiān)管沙盒”的定位,基本上可以分為三類。
第一類從具體監(jiān)管的模式談范式的轉(zhuǎn)換。有人提出“監(jiān)管沙盒”是一種改變傳統(tǒng)模式的“適應性監(jiān)管”,“體現(xiàn)了適應性監(jiān)管的理念,有利于在推動創(chuàng)新與保障金融穩(wěn)定、防范風險之間找到平衡點”。①劉芳彤:《互聯(lián)網(wǎng)金融監(jiān)管“沙盒模式”制度構建》,《西部金融》2023年第1期。然而,這種“適應性”體現(xiàn)為監(jiān)管者主動去適應市場,從而創(chuàng)新市場規(guī)則、政策和方法。這種概括忽略了多元主體的互動協(xié)調(diào)過程,同時,這種監(jiān)管模式的轉(zhuǎn)變沒有深入到背后的哲理層面,即適應性監(jiān)管背后是一種什么哲學基礎的問題。
第二類從自然科學的進路定位監(jiān)管的轉(zhuǎn)向。“監(jiān)管沙盒”無疑需要觀察,并進行要素的分析和定量研究,然而,“監(jiān)管沙盒”卻與自然科學進路有著本質(zhì)的區(qū)別。有研究者從批判“監(jiān)管沙盒”的視角出發(fā),承認“監(jiān)管沙盒”確實是一種方法論上的改變,在流程上表現(xiàn)為“企業(yè)篩選→消費者選擇→產(chǎn)品/服務提供→監(jiān)管調(diào)整→運行評估”的循環(huán),②黎四奇、李琴琴:《金融科技下“沙盒監(jiān)管”的命題辨析:一個批判的視角》,《法治社會》2021年第5期。但卻認為,“監(jiān)管沙盒”只是表面上顯得很美的概念,其實質(zhì)是“一個類似于數(shù)學公式般可以被精準計算的概念”,是將“自然科學的實驗法嫁接到制度的建設與實踐中”③黎四奇、李琴琴:《金融科技下“沙盒監(jiān)管”的命題辨析:一個批判的視角》,《法治社會》2021年第5期。。筆者認為,“監(jiān)管沙盒”制度與自然科學實驗的方法在實質(zhì)上仍然有著本質(zhì)的區(qū)別。自然科學的方法必須滿足三個條件:一是過程的可重復性,即任何其他人都可以重復地進行此實驗;二是結果的一致性,即任何人按照同樣的實驗步驟和條件都可以得出同樣的結果;第三,實驗者必須是一種外在的視角,從觀察者的角度來實驗,從而得出客觀正確的答案。然而,“監(jiān)管沙盒”制度不同的地方在于,“監(jiān)管沙盒”并不是“類似于數(shù)學公式般”可以被計算的概念,而是無法被數(shù)學精準計算化,其運作是通過在互動過程中協(xié)調(diào)產(chǎn)生的規(guī)制路徑。測試的過程并不是完全可以重復的,具有特殊的情景性,在一個文化、環(huán)境完全不同的國家和地區(qū),結果可能會不同。參與者并不是只有類似實驗觀察者地位的監(jiān)管者,而是來自各個不同的層面,有著不同的立場和訴求,每一個參與者在協(xié)調(diào)、互動、合作中發(fā)揮作用,因此,并不能像一個外在的觀察者那樣按照科學的方法來進行實驗。
第三類從模糊的實踐進路來談范式轉(zhuǎn)向。一些人認為,“監(jiān)管沙盒”制度是一種實踐進路,是以“許可證豁免”為核心,具有“彈性監(jiān)管”和“窄化簡化”的特征。④江翠君:《淺析金融科技“監(jiān)管沙盒”在我國的適用》,《中國價格監(jiān)管與反壟斷》2023年第2期。另一些人也承認“監(jiān)管沙盒”的實踐進路,卻是從歷史事實的角度陳述了“監(jiān)管沙盒”在國際和中國的發(fā)展歷程,提倡“尋求符合中國國情、具有中國特色的‘監(jiān)管沙盒’”⑤陳文婷:《中國特色“監(jiān)管沙盒”的實踐進展研究》,《中國市場》2021年第15期。。但是,他們并沒有對什么是實踐進路進行概念分析,只是籠統(tǒng)地用來概括這種制度,實踐是一個非常模糊的東西。
正如馬長山教授指出,面對人工智能技術的發(fā)展,既不應該選擇“AI 法律”,也不能選擇“法律AI”,而是應該結合前兩條道路的優(yōu)勢,選擇第三條道路,即實踐的路徑。⑥馬長山:《AI 法律、法律AI 及“第三道路”》,《浙江社會科學》2019 年第12 期。該文指出,“AI 法律”道路將“人工智能視為法律的規(guī)制對象或者法律規(guī)制的方式”,必將無法適應信息技術的發(fā)展。“法律AI”進路則“基于數(shù)字系統(tǒng)、建模計算和數(shù)理邏輯”,從內(nèi)在視角促進法律向AI的轉(zhuǎn)化,也因難度太大無法實現(xiàn)?!暗谌龡l道路”則秉持“現(xiàn)實主義的精神來發(fā)揮各自的優(yōu)長,根據(jù)客觀規(guī)律和現(xiàn)實需要、通過法律專家和技術專家的合作來推進法律與AI 的相關研究”,即是一種面對迅猛發(fā)展的人工智能的實踐路徑。這一路徑從現(xiàn)實出發(fā),關注人的實際發(fā)展和需要,實現(xiàn)多元合作與協(xié)同。然而,沒有人真正探討“監(jiān)管沙盒”的實踐轉(zhuǎn)向的哲學內(nèi)涵。孫正聿教授深刻地指出,“人們又常常把現(xiàn)代哲學發(fā)生的重大變革稱作‘實踐轉(zhuǎn)向’和‘語言學轉(zhuǎn)向’。這里說的‘實踐轉(zhuǎn)向’,是指馬克思在人類思想史上所實現(xiàn)的哲學革命”。①孫正聿:《哲學通論》,北京師范大學出版社,2020,第461頁。因此,對實踐的理解需要我們回到馬克思的理論中。馬克思在 《關于費爾巴哈的提綱》中直截了當?shù)靥岢? “從前的一切唯物主義(包括費爾巴哈的唯物主義)的主要缺點是: 對對象、現(xiàn)實、感性,只是從客體的或者直觀的形式去理解,而不是把它們當作感性的人的活動,當作實踐去理解,不是從主體方面去理解。因此,和唯物主義相反,能動的方面卻被唯心主義抽象地發(fā)展了,當然,唯心主義是不知道現(xiàn)實的、感性的活動本身的②《馬克思恩格斯選集》第1卷,人民出版社,1995,第58頁。?!睆倪@份被恩格斯譽為包含天才思想萌芽的文件中,我們看到了馬克思的實踐哲學觀。實踐哲學既不是像舊唯物主義那樣,從客體的或者直觀的形式去理解人的活動,也不像唯心主義那樣,抽象地發(fā)展人的主觀能動性,從一個終極形而上學本源來理解人的活動,而是從實踐中去理解人的活動。實踐是主觀與客觀的統(tǒng)一,是合目的性與合規(guī)律性的統(tǒng)一。③孫正聿:《哲學通論》,北京師范大學出版社,2020,第471頁。在實踐中,人們需在直接碰到的、既定的、從過去繼承的條件下去創(chuàng)造,通過自己的理想改變現(xiàn)實,反過來人們自身的活動又成為將來實踐的現(xiàn)實條件和基礎。正如馬克思所言,“人們自己創(chuàng)造自己的歷史”。④《馬克思恩格斯選集》,人民出版社,1972,第603頁。在“監(jiān)管沙盒”計劃中,參與主體一方面根據(jù)自己的需求、愿望將現(xiàn)實的法律變成期待中的理想的法律;另一方面,根據(jù)社會的條件、人工智能技術的發(fā)展程度等,以歷史現(xiàn)實中條件為基礎出發(fā)點,將理想的法律變成現(xiàn)實的法律。法律在歷史實踐中邊自我批判邊前進,同樣,監(jiān)管規(guī)則在監(jiān)管實踐的互動中邊自我批判邊前進?!氨O(jiān)管沙盒”制度正是實踐哲學在人工智能領域的體現(xiàn)。
“監(jiān)管沙盒”制度體現(xiàn)的實踐哲學轉(zhuǎn)向,并不是以理念為原型的自然法學路徑,也不是以事實為對象的實證分析法學和法社會學路徑,而是主觀與客觀的統(tǒng)一,事實與規(guī)范的統(tǒng)一。自柏拉圖以來以理念為根基的自然法學流派,無論是古希臘羅馬的自然法,還是中世紀的自然法,甚至自霍布斯以來近代自然權利都是以某種理念論為原型,探究法的根本支撐點。即使到了富勒的新自然法學派,雖然提倡程序自然法,然而,這種法律的內(nèi)在道德仍然留存理念的影子。在自然法的演變過程中,實證分析法學和法社會學逐漸崛起。正如孔德所概括的,思想發(fā)展經(jīng)歷了三個階段:神學、形而上學和實證主義階段。實證階段以事實為研究對象,事實又可以分為制度事實和經(jīng)驗事實。由此,可以看到兩種不同的路徑,一種是以理念為追求的形而上學道路,另外一種是以客觀事實為目標的科學化道路。在休謨之前,經(jīng)驗主義者和唯理主義者都認為自己找到了普遍的、必然的真理,他們幾乎都在宣稱在某些領域里可能有自明的命題。⑤梯利:《西方哲學史》,商務印書館,2004,第431頁。然而,在休謨之后,事實與價值不能進行因果關系的推導,鴻溝無法跨越。因此,無論是價值的終極理想,還是客觀事實的呈現(xiàn),沒有辦法真實地、靈活地應對日益復雜的、變動的現(xiàn)代生活。歸根結底,是沒有辦法理解人的實踐活動本身。實踐活動是主客觀的統(tǒng)一性活動,是價值與事實相互聯(lián)結和轉(zhuǎn)換的樞紐。
正是由于“監(jiān)管沙盒”制度表征著一種實踐哲學的轉(zhuǎn)向,蘊涵著理論的向上兼容性和現(xiàn)實的無限開放性,因而能夠應對人工智能系統(tǒng)帶來的時代變革和復雜生活。首先,監(jiān)管過程中的實踐活動可以彌補人的理性傲慢;其次,實踐中的監(jiān)管是多元協(xié)同的監(jiān)管而不是單向的監(jiān)管,是動態(tài)的監(jiān)管而不是靜態(tài)的監(jiān)管;再次,實踐過程中監(jiān)管規(guī)則的實時更新,可以避免監(jiān)管的僵化和滯后。
人的理性總是有限的,正如康德所言,人沒有辦法把握物自體的存在,上帝、靈魂、世界對我們來講是不能認識的。①梯利:《西方哲學史》,商務印書館,2004,第447頁。例如,即使我們看到1000 只白天鵝,但我們不能保證第1001 只也是白天鵝,因而我們不能得出宇宙中一切天鵝是白色的的這樣一個普遍的結論。因為客觀的天鵝是物自體的存在,我們不能根據(jù)有限的經(jīng)驗去把握整全的超越人之外的客觀世界,靈魂和上帝更是如此。因此,由于人的理性的有限性,人只能接近而不能達到整全的真理。然而,人的思維總是習慣于把不間斷的東西割裂,并使之僵化,②孫正聿:《哲學通論》,北京師范大學出版社,2020,第377頁。最終絕對化,因而需要彌補這種理性的傲慢和思維的僵化。人需要在沒有掌握絕對真理的時候,告訴自己該如何生活。因此,人需要參與到現(xiàn)實的生活中,在現(xiàn)實生活過程中,通過實踐去檢驗自己的認識,又通過認識改造社會的現(xiàn)實,在不斷的實踐中,使得自己的認識更加接近真理。
同時,真理不是抽象的、脫離了具體事物的理性思維的產(chǎn)物,而是蘊含在具體事物之中。因此,真理總是具有時代性和具體性。人們沒有辦法依靠自己的理性抽象地預先制定一套人工智能規(guī)則,人只有通過實踐,去檢驗制定的規(guī)則,不斷創(chuàng)新出適合時代的規(guī)則。在實踐過程中,人需要運用自己的主觀能動性,但又不僅僅發(fā)揮自己的主觀能動性,還必須要遵循多元主體在歷史實踐中體現(xiàn)的事物規(guī)律性。
同理,歐盟《人工智能法》提案中已經(jīng)在立法中規(guī)定了風險等級和質(zhì)量管理體系,為什么還需要“監(jiān)管沙盒”制度呢?這是因為,人的理性是有限性的,人沒有辦法通過理性預先制定完備的法律,也沒有辦法運用科學方法通過實驗制定類似數(shù)學公式的規(guī)則體系。因此,需要在實踐中反思理性的不足,實現(xiàn)理性的自我批判。從風險控制和支持創(chuàng)新來講,“監(jiān)管沙盒”的實踐過程比起事后的立法修改或法律解釋,顯然要可靠、及時得多。風險在一個可控的環(huán)境中被檢測、識別和調(diào)控,盡可能地展現(xiàn)它的實際運行過程,因而可以提前預防投入市場后發(fā)生不可預知的風險。
“監(jiān)管沙盒”的一個重要的變革是,不再是傳統(tǒng)監(jiān)管模式中主管部門單向地監(jiān)管市場的行為,而是將人工智能技術放到具體的實踐中,在多元主體的協(xié)調(diào)中實現(xiàn)平衡。單向監(jiān)管的模式,總是體現(xiàn)為強大的一方去監(jiān)督管理另一方,是監(jiān)管者與被監(jiān)管者之間的單向權力投射。監(jiān)管者不能實時地了解信息,也不能促進被監(jiān)管者的積極性,兩者之間是緊張的對立關系。
“監(jiān)管沙盒”制度的實踐轉(zhuǎn)向促進了多元主體間的相互溝通,使得不同的主體都能參與到實踐中來,在具體的情境中通過合作溝通達致最佳的監(jiān)管措施。因而,改變了單向的權力投射,進而轉(zhuǎn)變到多元主體的權利平衡。多元主體主要涉及主管部門、企業(yè)或技術開發(fā)人員和用戶,涉及國家網(wǎng)絡安全,公共利益、經(jīng)濟效益和個人權利保護等,只有每一方的利益都受到照顧和考量,多方利益得到協(xié)調(diào)與平衡,才能實現(xiàn)社會的良好發(fā)展。在多元主體參與的過程中,一方面,通過主管當局的監(jiān)督和糾正,及時發(fā)現(xiàn)對“健康、安全和基本權利造成的重大風險”,通過開發(fā)某些AI系統(tǒng)維護實質(zhì)的公共利益、預防、調(diào)查、偵查或起訴刑事犯罪以及保障公共安全和公共健康、改善社會環(huán)境等①歐盟委員會:《人工智能法案》,https://artificialintelligenceact.eu/the-act/,最后訪問時間:2023年6月9日。;另一方面,通過對個人數(shù)據(jù)的保護,尊重數(shù)據(jù)主體的知情同意權,維護用戶的基本權利;此外,通過最大限度地支持企業(yè)對AI系統(tǒng)的開發(fā),建立統(tǒng)一的市場規(guī)則,從而維護市場的經(jīng)濟繁榮。這種平衡,并非相互的妥協(xié)或者一方讓步,而是制度運行本身是多方協(xié)同的結果。
規(guī)則的確定性是人們普遍的追求,只有確定性才能夠引導人們應該如何行為,給人以穩(wěn)定的生活。但是,法律的確定性若是沒有辦法適應快速發(fā)展的現(xiàn)實,這種確定性就會變成僵化和滯后的教條。馬長山教授指出,面對新興的技術,“人類進化歷程中的既定經(jīng)驗與規(guī)則秩序遭遇了顛覆性挑戰(zhàn),人類似乎變成了制定規(guī)則的上帝”。②馬長山:《人工智能與未來法治》,《河北法學》2018年第10期。人們沒有辦法根據(jù)過去的經(jīng)驗去處理新技術所帶來的不確定性,人的理性面對未來也沒有辦法預先設想一套完美的規(guī)則。因此,正確的做法不是一味地追求確定性,而是追求與現(xiàn)實相適應的動態(tài)的確定性。正如弗蘭克所言,“前所未有的問題層出不窮,就需要法律體系具有流動性和柔韌性”。③弗蘭克:《法律與現(xiàn)代精神》,劉楠、王竹譯,法律出版社,2020,第6頁。法律要調(diào)整錯綜復雜、變幻莫測的生活,就需要拋棄對確定性的迷思,尋求動態(tài)的確定性。換言之,面對新興人工智能技術,需要尋求一種更加謹慎的實踐做法,在實踐中實現(xiàn)規(guī)則—現(xiàn)實—規(guī)則的辯證發(fā)展進程。
“監(jiān)管沙盒”通過提前在可控的環(huán)境中進行實踐,使得規(guī)則在這一過程中得到檢驗和自我生成。企業(yè)遵守必要的監(jiān)管原則,而對于具體的技術標準和監(jiān)管措施未作詳細規(guī)定,主管機構需要與科技創(chuàng)新人員、企業(yè)、用戶及時溝通,共享信息,才能采取最佳的風險控制方法和監(jiān)管措施,以保持監(jiān)管框架的適應性。④李敏:《監(jiān)管沙箱制度及其實踐探析》,《私法》2018年第1期。監(jiān)管者“根據(jù)創(chuàng)新計劃的實際需求對規(guī)則進行適當調(diào)整,避免因監(jiān)管機構的批準而導致產(chǎn)品延遲推出”⑤李靜、孟柳辛、袁方雨:《監(jiān)管沙盒的國際經(jīng)驗借鑒及對我國的啟示》,《西部金融》2021年第12期。,這也就實現(xiàn)了監(jiān)管規(guī)則—實踐效果—調(diào)整和反饋—監(jiān)管規(guī)則的循環(huán)。這樣,規(guī)則本身實現(xiàn)了自我批判和實時更新。通過在可控的環(huán)境中進行測試,使得已經(jīng)制定的規(guī)則得到實踐的檢驗,從而使符合現(xiàn)實的規(guī)則得以保持,使不符合現(xiàn)實的規(guī)則得以調(diào)整或改變。規(guī)范不再是僵化的和滯后的,而是與創(chuàng)新的技術相協(xié)調(diào)的、同步的。
在歐盟人工智能法案中,對“人工智能”的定義非常廣泛,⑥王偉潔、鄧攀科、呂志遠:《歐盟2021年《人工智能法》研究》,《信息安全研究》2022年第2期。不管是日常家居智能系統(tǒng),還是專業(yè)人工智能系統(tǒng),或是設想的強人工智能系統(tǒng),都涵蓋在其中。正是該人工智能法案包含的內(nèi)容豐富性,以及社會本身異常的復雜性和不確定性,因此,我們的理性無法面對復雜的、變動的生活而預先制定一套治理規(guī)則,必須在實踐中探索前進的道路。從而,規(guī)則需要不斷適應社會的發(fā)展,實現(xiàn)及時的自我更新,以避免規(guī)則的僵化和滯后;監(jiān)管必須從單向的監(jiān)管轉(zhuǎn)變成互動協(xié)同的治理;信息的獲取也從有限的、事后的獲取到海量的、實時的信息共享。
隨著歐盟人工智能領域“監(jiān)管沙盒”的提出,相信很快在其他國家會引起示范效應。在我國,人工智能領域是我國重點關注的領域,法律的不斷更新是適應社會發(fā)展的必然要求。2017年7月國務院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,對法律體系建設提出了三步走要求,預計“到2025 年,初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力;到2030年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系”。①曾雄、梁正、張輝:《歐盟人工智能的規(guī)制路徑及其對我國的啟示——以〈人工智能法案〉為分析對象》,《電子政務》2022年第9期。因此,建立適合社會發(fā)展的人工智能領域的法律法規(guī)是我國立法的一項重大目標。目前,中國香港地區(qū)、臺灣地區(qū)已經(jīng)引入“監(jiān)管沙盒”制度,相關研究取得初步成果,數(shù)字普惠金融的監(jiān)管處于深入探索階段,因而為實施沙盒機制積累了大量經(jīng)驗。②鄧瑋婷:《監(jiān)管沙盒的借鑒與中國化改造》,《江蘇工程職業(yè)技術學院報》2021年第1期。同時,我國歷來有著豐富的實踐經(jīng)驗,“監(jiān)管沙盒”與我國“立法試點”機制、金融改革試點有共同之處。因此,“監(jiān)管沙盒”在我國具備一定的適用性。③張惠清:《我國監(jiān)管沙盒運作的優(yōu)化路徑分析——基于國際經(jīng)驗的歸納與類比》,《財富時代》2022年第12期。
簡言之,無論是國外的“監(jiān)管沙盒”制度發(fā)展,還是國內(nèi)的“監(jiān)管沙盒”制度發(fā)展,都是因面對技術的突飛猛進,以往的監(jiān)管范式、監(jiān)管理念遭到前所未有的挑戰(zhàn),只有通過創(chuàng)新監(jiān)管范式才能應對未來的生活。這種創(chuàng)新體現(xiàn)了一種極其深刻的實踐轉(zhuǎn)向。只有不斷地在實踐中去積極應對技術的挑戰(zhàn),才能迎接更美好的未來。那時,生活本身就會向我們大聲喊道:
“這里是羅陀斯,就在這里跳躍吧!”④《馬克思恩格斯選集》,人民出版社,1972,第607頁。