施娟萍
人工智能是新一輪產業(yè)變革的核心驅動力。上海已將人工智能、生物醫(yī)藥、集成電路作為三大戰(zhàn)略性新興產業(yè)。人工智能在賦能發(fā)展的同時,也帶來了諸多風險挑戰(zhàn),需要進行防范和應對。
一、人工智能治理的研究框架思考
我國國家和地方層面尚未出臺統(tǒng)一的人工智能立法,人工智能治理規(guī)則散見在部分法律及近年來系列政策文件中。
國家的法律涉及信息安全、隱私保護等領域,國家的政策文件既涉及人工智能相關行動實施方案、發(fā)展規(guī)劃、治理原則等總攬性領域,也關注教育、環(huán)境、智能汽車等細分場景領域。上海的政策文件則主要集中于產業(yè)發(fā)展、細分場景及試驗區(qū)建設等方面。
人工智能治理應遵循兩條主線:堅守底線和促進創(chuàng)新。一方面保留足夠的彈性與包容度,防止對技術創(chuàng)新的不當干預;另一方面,在適度寬松的治理取向下嚴守監(jiān)管底線,有效預防風險。
二、人工智能治理的底線規(guī)則
(一)倫理底線
尊重倫理是人工智能技術研發(fā)和應用的底線,應將相關治理提前到算法設計階段,同時在人工智能產品適用階段施加良性規(guī)制,防止不符合人類倫理的人工智能產品的實際應用。
(二)隱私權保護底線
知情同意、收集必要性已成為收集數(shù)據(jù)必須遵循的共識性原則,但仍需通過具體化的場景對技術和算法的應用進行規(guī)制比如,在數(shù)據(jù)收集階段設立隱私協(xié)議合規(guī)審查制度;在數(shù)據(jù)利用階段加強對影響殺熟程度較高的數(shù)據(jù)的管制等。
(三)信息安全底線
數(shù)據(jù)是人工智能的基本資料。在堅守信息安全底線方面,需要從宏觀層面設立共通的安全標準以作為人機共存社會的治理底線,著重保障社會安全、社會公平和社會效率。
三、人工智能治理的場景規(guī)則
(一)人工智能體及其應用場景研究
人工智能體治理要重視個性化的實證治理機制,實現(xiàn)人工智能體安全保障的協(xié)同治理。比如,在自動駕駛汽車領域,要區(qū)分人工介入駕駛的程度,探討產品責任的適用情形,研發(fā)針對自動駕駛的保險產品、設計保險理賠規(guī)則。
(二)人工智能算法及其應用場景研究
算法是人工智能的重要基石。當前,算法黑箱給監(jiān)管帶來困難。從治理角度來看,要從傳統(tǒng)的約束負外部性轉向對算法本身的制約。比如,在算法設計階段,就要保留人工緊急干預和用戶自主選擇以防范算法缺陷機制;還可以明確算法的可解釋性要求,特定情形下允許借助第三方認證來理解算法邏輯,判斷算法的合法性。
四、人工智能治理的模式思考
(一)綜合治理方案
人工智能治理涉及法律、技術、行政管理、技術規(guī)制多層次,以及政府、市場、研發(fā)者、消費者多主體,必然是綜合治理。包括以下四個方面:一是主體維度的多元治理。構建合理的商談機制和利益表達機制,實現(xiàn)政府主導、多方協(xié)同參與的人工智能治理格局。二是效率維度的敏捷治理。一旦發(fā)現(xiàn)負面情形,及時發(fā)出信號提醒所有相關主體注意,各有關部門立即介入對可能產生的風險和損失進行綜合研判、干預防范,創(chuàng)建高效便捷的預警機制也是實現(xiàn)敏捷治理的內在要求。三是方法維度的實證治理。強調人工智能風險決策所依據(jù)的證據(jù)必須從廣泛的科學研究和評估中獲得,同時注重人工智能風險決策的證據(jù)在政策制定中能夠被實踐者和專業(yè)人員充分有效使用。四是落實路徑的成長治理。比如,韓國將起源于英國金融領域的沙盒監(jiān)管的思路引入到人工智能領域,為發(fā)展創(chuàng)新性人工智能產品提供隔離空間,是一種具有一定包容性的監(jiān)管。
(二)綜合責任方案的設計
隨著人工智能技術的發(fā)展,由其帶來的侵權行為方式也越來越復雜,亟需構建一種包括政府、企業(yè)、使用者三方在內的科學與責任相結合的綜合責任方案。具體而言,責任主體方面要以實際控制作為認定標準;責任體系方面要構建“聯(lián)合責任”體系;舉證責任方面要保護受害人;歸責原則方面要限制“嚴格責任”的適用領域;責任承擔方式方面引入懲罰性賠償制度并建立新型責任保險等。
(作者單位:上海市立法研究所)