全球的人工智能在引領新一輪科技革命和經(jīng)濟轉(zhuǎn)型的同時,不可避免地帶來或加劇可能導致人員死傷、財產(chǎn)損失、秩序破壞、公正受損等社會難題;亟待全面強化科學的社會風險應對。習近平總書記2019年1月21日在省部級主要領導干部堅持底線思維著力防范化解重大風險專題研討班上強調(diào):科技領域安全是國家安全的重要組成部分;要加快科技安全預警監(jiān)測體系建設,圍繞人工智能等領域,加快推進相關立法工作。[注]提高防控能力著力防范化解重大風險 保持經(jīng)濟持續(xù)健康發(fā)展社會大局穩(wěn)定,人民網(wǎng),2019年1月22日,http://finance.people.com.cn/n1/2019/0122/c1004-30583073.html.
透過技術視角,人工智能的顯性社會風險,主要是因技術失誤或故障而導致的公共安全等問題,目前全球皆已開展全方位的技術風險應對。
技術視角的人工智能風險根源于其技術特征,并綜合導致了風險的難識別、難消除和難控制。
第一,人工智能的“研發(fā)不透明”特征可能引發(fā)社會風險:一是由于人工智能的研發(fā)環(huán)境“虛擬化”和研發(fā)過程的“黑箱效應”等特征,更易脫離監(jiān)管;二是研發(fā)主體的分散性,研發(fā)人員在非指定區(qū)域?qū)嵤┤斯ぶ悄艿拈_發(fā),主體具有較高的“自由裁量權”;三是硬件生產(chǎn)和軟件開發(fā)的不連續(xù)性和相對獨立性,使得人工智能研發(fā)的產(chǎn)品,能具備隱蔽性、甚至偽裝性。
第二,人工智能具有“算法主觀性”特征,其算法的準確度和可靠性易受到研發(fā)數(shù)據(jù)和研發(fā)人員的主觀影響,是社會風險的重要來源。集中表現(xiàn)為:一是算法所需數(shù)據(jù)的來源多元,不同主體提供數(shù)據(jù)的動機、渠道、方式、內(nèi)容均有不同,致使數(shù)據(jù)的真實性、科學性、精確性、可靠性受到主觀因素影響;二是研發(fā)人員在數(shù)據(jù)選擇和應用中可能存在“重量輕質(zhì)”等主觀偏好,進而對數(shù)據(jù)全面性和算法可靠性產(chǎn)生負面影響;三是研發(fā)人員可能存在種族歧視、性別偏見、宗教偏好、極端價值觀等主觀偏差,代入研發(fā)后算法將出現(xiàn)失誤,導致預測不準確、甚至決策不公正等社會問題。
第三,人工智能的“技術自主性”可能導致“技術失控”,進而產(chǎn)生社會風險。突出表現(xiàn)為:一是基于深度學習技術的人工智能產(chǎn)品具備自學習和自適應能力,可能作出超越研發(fā)人員認知能力和預測范圍的決策或行為;二是人工智能算法易受到應用情境的客觀影響或運營人員的主觀干預,進而導致技術失控;三是人工智能技術有可能變異為高度獨立自主的“超人工智能”(Artificial Superintelligence)主體,具備脫離人類引導、監(jiān)督、控制的能力。
技術視角的人工智能社會風險,將導致人員死傷、財產(chǎn)損失等負面后果,因此全球范圍內(nèi),已在采取針對性的技術手段予以應對。
第一,人工智能的技術缺陷易引發(fā)事故,技術達標和產(chǎn)品檢驗是應對風險的基本要求。在自主控制性強、自治決策度高的應用情境中,人工智能若出現(xiàn)技術缺陷,將引發(fā)事故:一是技術缺陷直接引發(fā)安全事故和人員死傷,如自動駕駛安全事故、機器人安全生產(chǎn)事故等;二是智能識別存在誤差而未能提前發(fā)現(xiàn)并阻止安全事故,如安全隱患識別誤差、智能交通指令誤差等;三是智能安防被破解或出故障而間接導致安全事故和人財損失,如人臉解鎖的身份識別曾被3D打印模型破解、家庭智能安防設備出現(xiàn)故障影響安全性能等。對此,技術視角的風險應對需要技術達標和產(chǎn)品檢驗,通過測試評估和問題整改而使技術和產(chǎn)品達到安全標準,并形成動態(tài)識別和修復的技術更新制度。
第二,人工智能可能被誤用,風險應對要求技術管理的制度設計。人工智能技術若被非法或惡意使用,將產(chǎn)生多方面社會危害:一是被用于網(wǎng)絡攻擊,對網(wǎng)絡安全、信息安全、數(shù)據(jù)安全產(chǎn)生威脅;二是被用于制造虛假信息,進而實施詐騙等違法犯罪活動,導致財產(chǎn)損失和社會失序;三是被用于制造智能武器,用于發(fā)動攻擊、制造恐襲;四是行為分析、數(shù)據(jù)挖掘、心理預測等智能技術被用于政治宣傳和競選公關,通過對潛在投票人進行競選信息的個性化推送,可能存在控制社會民意、影響選民決策的風險等。對此,技術視角的風險應對要求形成規(guī)避人工智能被誤用的技術管理制度。
第三,人工智能可能遭攻擊,技術防御是應對風險的基本保障。在特定環(huán)境中,人工智能運行系統(tǒng)可能遭到惡意入侵或攻擊,進而引發(fā)系統(tǒng)失靈、數(shù)據(jù)泄露等多種后果:一是“對抗樣本攻擊”(Adversarial Examples Attack)可誘使算法出錯,導致人工智能在智能識別時出現(xiàn)誤判漏判,如圖像識別、語音識別、垃圾郵件監(jiān)測、惡意程序監(jiān)測等系統(tǒng)出現(xiàn)失靈;二是“逆向攻擊”(Reversal Attack)可獲取算法系統(tǒng)的內(nèi)部數(shù)據(jù),易導致有關個人隱私、國家安全等的數(shù)據(jù)泄露,產(chǎn)生嚴重財產(chǎn)損失和惡劣社會影響。對此,技術視角的風險應對要求形成持續(xù)保障安全運行的技術防御系統(tǒng)和能力。
全球經(jīng)驗表明,技術視角的人工智能社會風險應對主要圍繞標準規(guī)范和技術防護等方面開展。
第一,應用直接可行的技術手段,嚴防高發(fā)頻發(fā)且易導致群死群傷的人工智能社會風險,做好人民群眾生命財產(chǎn)安全的保護工作。技術視角的風險應對遵循工具理性的準則,針對“導致嚴重人財損失且高發(fā)頻發(fā)”的高危風險,以規(guī)避安全風險、發(fā)掘技術潛力為目標,采取一系列直接可行的技術方法和基于技術的管理手段來消除或干預風險。
第二,建立健全技術標準,形成規(guī)范引導,從而減少技術缺陷,提升技術的安全性和可靠性。實際操作中,由政府相關部門、科研院所、技術企業(yè)、行業(yè)組織等聯(lián)合,圍繞人工智能的安全性、復雜性、風險性、不確定性、可解釋性等關鍵性能或核心要素,共同推進標準的研發(fā)和制定工作。例如,國際標準化組織(International Organization for Standardization)集中于工業(yè)機器人、智能金融、智能駕駛的人工智能標準化研究;國際電工委員會(International Electrotechnical Commission)主要關注可穿戴設備領域的人工智能標準化;美國國家標準與技術研究院(National Institute of Standards and Technology)、歐洲電信標準化協(xié)會(European Telecommunications Standards Institute)、中國電子技術標準化研究院等也在開展相應的標準研發(fā)。
第三,加速研發(fā)防控和應對技術,增強對惡意攻擊的風險抵御能力。當前,針對人工智能重點產(chǎn)品或行業(yè)應用,研發(fā)主體已在開展漏洞挖掘、安全測試、威脅預警、攻擊檢測等安全技術攻關。例如,人工智能公司“深度思考”(Deep Mind)正在研發(fā)“切斷開關”(Kill Switch),[注]BBC News.Google Developing Kill Switch for AI,2016-06-08,https://www.bbc.com/news/technology-36472140.用于在必要緊急情況下觸發(fā)人工智能技術系統(tǒng)的自我終結(jié)機制;再如,針對對抗性輸入、數(shù)據(jù)中毒攻擊、模型竊取技術等常見惡意攻擊技術,多個研究機構提出可通過限制信息泄露、限制探測、集成學習、遷移學習、合理數(shù)據(jù)采樣等技術方案予以應對。[注]R.Shokri, M.Stronati, C.Song and V.Shmatikov, Membership Inference Attacks Against Machine Learning Models,2017 IEEE Symposium on Security and Privacy (SP), San Jose, California, USA, 2017, pp.3-18.
因此,技術視角的現(xiàn)有風險應對偏重“工具理性”,技術手段具有一定程度上的片面性;雖在實踐中已有成效,但仍難以有效根除責任事故和社會負面影響。
透過社會視角,人工智能在人財損失之外,還可能導致或加劇社會失序、倫理失范等綜合風險,全球也已在逐步重視并將風險應對措施付諸實踐。
社會視角的人工智能風險,其實質(zhì)是在社會應用中,人工智能可能異化生產(chǎn)關系,并加劇風險后果的復雜性、疊加性和長期性。
第一,人工智能的應用可能對就業(yè)產(chǎn)生影響,進而引發(fā)“大多數(shù)利益受損”和“極少數(shù)權益被剝奪”,是社會風險的重要來源。人工智能可能導致大規(guī)模現(xiàn)有崗位“被自動化”問題,若機器替代人工成為普遍趨勢,則絕大多數(shù)民眾將不可避免地面臨待崗失業(yè)和重新?lián)駱I(yè)的境遇,而極少數(shù)弱勢群體或?qū)⒚媾R永久性失業(yè)的客觀局面。根據(jù)多項研究顯示,超過一半的現(xiàn)有工作崗位最終將完全被自動化和機器人替代,[注]2010年牛津大學研究預測未來10至20年將有47%的崗位會被人工智能所取代;2016年世界經(jīng)濟論壇預測未來5年將有500萬個崗位會失去;2017年麥肯錫研究報告顯示60%的職業(yè)面臨被技術替代的可能性。預示著人工智能的充分應用將出現(xiàn)民眾利益受損的連鎖反應。
第二,人工智能用于關乎公共利益或涉及公共決策的范疇時,可能出現(xiàn)對于公共利益的侵害行為,進而引發(fā)社會風險。突出表現(xiàn)為:一是刑事司法、就業(yè)保障等政府可采取智能決策的公共領域,若出現(xiàn)技術被誤用,可能出現(xiàn)歧視偏見或潛在不公的爭議,則將導致關聯(lián)社會群體的利益受損;二是自動駕駛等與廣大人民群眾生命財產(chǎn)安全緊密相關的領域,一旦出現(xiàn)風險,其影響范圍廣泛、關聯(lián)群體眾多。對此,美國紐約通過《關于政府機構使用自動化決策系統(tǒng)的當?shù)胤ā?A Local Law in Relation to Automated Decision Systems Used by Agencies),[注]相關報道詳見:Smartcitiesdive.New York City Council passes bill to address algorithmic discrimination,2017-12-20,https://www.smartcitiesdive.com/news/new-york-city-council-passes-bill-to-address-algorithmic-discrimination/513518/;方案內(nèi)容詳見:http://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-461253F9C6D0.要求對政府機構使用的人工智能決策系統(tǒng)進行算法問責和安全規(guī)制,以確保自動決策算法的公開透明,避免“算法歧視”。
第三,人工智能應用中的“零和博弈”若成為思維定勢,將固化或加劇人類與人工智能的對立。一種觀念是“間接零和博弈”,認為優(yōu)勢群體應用人工智能將加速或加劇資源的“不均等分配”,進而拉大不同群體間的差距;若所謂的“超人工智能”時代成真,則社會可能裂變?yōu)閮纱箅A層,大部分人屬于“無用階層”(Useless Class),極小部分人屬于社會精英階層。[注]Yuval Noah Harari,The rise of the useless class,2017-02-24,https://ideas.ted.com/the-rise-of-the-useless-class/.另一種觀念是“直接零和博弈”,更加極端地將人工智能與人類直接對立,甚至表現(xiàn)為“人工智能威脅論”,認為人類與人工智能之間存在不可調(diào)和的矛盾,人工智能長期發(fā)展將導致“技術反制人類”;進而出現(xiàn)技術威脅人類安全或生存的風險,“機械作為人類與自然斗爭的工具將最終支配人類、人類有可能成為機械的奴隸”[注]A.M.Olson,“Review: Jaspers, Heidegger, and ‘The Phantom of Existentialism’”,Human Studies, Vol.7, 1984(3/4):387-395.的預測。
社會視角的人工智能社會風險,主要表現(xiàn)為民眾的利益遭受侵害的風險,既有極少數(shù)弱勢群體的損失風險,也有大多數(shù)甚至全體民眾的權益受損風險。因此全球已重視并啟用有針對性的管理手段予以應對。
第一,人工智能的應用違背本國法律或公序良俗,其風險應對要求法律或道德的約束。人工智能在某些應用場景中,可能出現(xiàn)違背本國法律或挑戰(zhàn)公序良俗的問題:一是在涉及生命倫理的領域,人工智能的研發(fā)若超越倫理約束或道德認知,可能導致民眾難以容忍的后果;二是精密部署的智能監(jiān)控技術,可能出現(xiàn)侵犯隱私的違法行為或倫理爭議;三是人類對人機情感交互中獲得快感的依賴,可能對傳統(tǒng)的家庭倫理、社會道德、風俗文化等產(chǎn)生沖擊;四是技術成熟和全面應用的智能機器人是否具備人格和人權的“機械倫理學”問題。對此,社會視角的風險應對要求法律和道德的約束,加強立法并嚴格執(zhí)法,同時完善和遵循倫理道德規(guī)范。
第二,人工智能應用過程中可能產(chǎn)生“馬太效應”,而普惠性的技術應用是其風險應對的基本要求。人工智能應用可能觸發(fā)強者越強、弱者越弱的“馬太效應”,進而導致社會不公:一是加劇“數(shù)字鴻溝”(Digital Divide),不同群體對信息數(shù)據(jù)、網(wǎng)絡資源、智能技術等產(chǎn)生的差距在人工智能應用下進一步拉大,進而發(fā)展為資源獲取、財富積累、受教育水平之間的差距;二是人工智能技術發(fā)展初期存在“索洛悖論”(Productivity Parado),社會生產(chǎn)率提升相對于技術進步存在遲滯,且勞動生產(chǎn)率的提升難以同步轉(zhuǎn)化為收入的普遍增長和消費成本的普遍下降,進而加劇貧富差距;三是人工智能產(chǎn)業(yè)發(fā)展的“虹吸效應”(Siphon Effect),依靠技術研發(fā)和高額投資的人工智能產(chǎn)業(yè),更多分布于具有資本和技術優(yōu)勢的主體、領域、地區(qū),從而拉大社會差距。對此,社會視角的風險應對更加要求普惠性的技術應用,以縮小社會差距和緩解社會不公。
第三,人工智能可能加深“社會達爾文主義”(Social Darwinism),而保障弱勢的制度和政策是其風險應對的支撐。人工智能應用中,管理主體的“社會達爾文主義”傾向可能導致弱勢的合理權益得不到有效保障。微觀層面的突出問題表現(xiàn)為:忽視自動化生產(chǎn)下的群體失業(yè)和貧富差距,大規(guī)模自動化生產(chǎn)將導致勞動密集型產(chǎn)業(yè)的從業(yè)人員面臨“結(jié)構性失業(yè)”風險,也導致普通行業(yè)領域的“職業(yè)極化”和收入差距。[注]根據(jù)麥肯錫2018年9月發(fā)布的《人工智能對全球經(jīng)濟影響的模擬計算》,重復性任務和少量數(shù)字技術為特征的崗位需求或從目前的40%下降到30%,其在工資總額中的占比或?qū)?3%下降到20%。宏觀層面的突出問題表現(xiàn)為:忽視人工智能應用對全球產(chǎn)業(yè)布局的破壞,自動化生產(chǎn)將導致跨國企業(yè)把生產(chǎn)部門從發(fā)展中國家或地區(qū)回遷,使其失去以承接產(chǎn)業(yè)轉(zhuǎn)移方式進入全球產(chǎn)業(yè)鏈的機會,可能致使國際話語權、規(guī)則制定權、議程設定權被個別“獨斷”。對此,社會視角的風險應對更迫切地要求形成保護弱勢群體的“安全閥”制度。
全球經(jīng)驗表明,社會視角的人工智能社會風險應對,主要圍繞保障個體合法權益來開展的。
第一,應用管理手段和政策措施,嚴防具有社會責任且易導致負面影響的人工智能社會風險,切實保障絕大多數(shù)的合法合理利益和極少數(shù)弱勢群體的權益。社會視角的風險應對遵循價值理性的準則,針對“存在社會責任且負面影響惡劣”的高危風險,秉持以人為本的理念和人文關懷的責任,通過采取相應的社會規(guī)則和福利政策來保護個體權益,有效應對社會風險。
第二,針對企業(yè)在研發(fā)和應用中的不規(guī)范、亂作為、不自律等問題,建立健全法律法規(guī)以形成有效約束,有效保障使用者合法權益,進而緩解社會風險。例如,歐盟針對用戶隱私保護問題出臺了《通用數(shù)據(jù)保護條例》(General Data Protection Regulation),[注]《通用數(shù)據(jù)保護條例》(英語:General Data Protection Regulation,縮寫作 GDPR;歐盟法規(guī)編號:(EU) 2016/679)是在歐盟法律中對所有歐盟個人關于數(shù)據(jù)保護和隱私的規(guī)范,涉及了歐洲境外的個人資料出口。https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A32016R0679.為企業(yè)在收集和利用個人數(shù)據(jù)方面制定一系列具備法律效力的規(guī)則,包括:規(guī)定企業(yè)利用用戶個人數(shù)據(jù)前提供合法憑據(jù),明確特殊類型數(shù)據(jù)的禁用原則,明確保障用戶的一系列數(shù)據(jù)權利,設定數(shù)據(jù)安全保障能力的標準等。
第三,針對面向弱勢群體和缺乏技能的勞動者,國家和地區(qū)逐步采取專項的就業(yè)福利和社會保障政策,確保極端弱勢群體得到保護,從而對沖社會風險。例如,美國政府為勞動者提供轉(zhuǎn)型指引,啟動“失業(yè)保險、醫(yī)療和營養(yǎng)補充救助計劃”(Unemployment insurance, Medicaid, Supplemental Nutrition Assistance Program)和“貧困家庭臨時救助”(Temporary Assistance for Needy Families),為工人提供就業(yè)指導、上崗培訓、咨詢服務等。
因此,社會視角的人工智能社會風險應對,通過管理手段對可能導致惡劣負面影響的高危風險開展應對,確有成效;但在價值理性的單維度指導下,也難免出現(xiàn)難以真正實現(xiàn)公平公正等客觀問題。
全球的實踐表明:僅靠技術視角或社會視角來應對人工智能的社會風險,存有局限性。第一,人工智能是技術屬性和社會屬性的集合體,其技術風險和社會風險的交互融合致使社會風險機理復雜并可能不斷涌現(xiàn)出新生風險,難以靜態(tài)地應對動態(tài)風險。第二,人工智能是工具理性和價值理性的對立統(tǒng)一;工具理性的人工智能秉持效率優(yōu)先的發(fā)展理念,而價值理性的人工智能更強調(diào)公平秩序前提下的應用,有可能出現(xiàn)優(yōu)先次序的矛盾,其實質(zhì)是難以用單一維度孤立地解決綜合的社會風險。第三,人工智能的正效益和副作用可能在應用時長期并存,如果忽略考量民眾的真實意愿和主觀能動性,則易出現(xiàn)夸大負面影響或錯失發(fā)展機遇等現(xiàn)實問題。因此,人工智能的社會風險,應引入科學的風險治理模型,透過治理視角來全面和系統(tǒng)地應對。
通過治理視角,人工智能的社會風險應對,還要綜合考量:戰(zhàn)略風險和機會成本、動態(tài)風險和協(xié)同治理、深層次的系統(tǒng)風險和制度防控等一系列的社會因素。因此,建議通過“兩維雙向”的治理模型來分析和應對:“兩維”指技術維度和社會維度,從“技術維—社會維”進行根源分析和定性評估;“雙向”指正功能向和負功能向,對“正功能向—負功能向”進行辯證分析和科學應對;有針對性地對四個象限開展科學的風險治理策略(詳見圖1)。
圖1 人工智能社會風險治理的“兩維雙向”模型
如上圖所示,人工智能的社會風險應對,具有四項共性目標:
第一,充分發(fā)揮人工智能的正面效益,提升國家競爭力,應對系統(tǒng)風險。主要策略有三:一是提升關鍵項的競爭力,人工智能的發(fā)展需與現(xiàn)有的技術優(yōu)勢和經(jīng)濟強項緊密結(jié)合,發(fā)揮“長板效應”;二是夯實基礎領域競爭力,強化關聯(lián)行業(yè)建設和技術研發(fā)投資;三是提升整體競爭力,人工智能發(fā)展存在“短板效應”,其短板問題若得不到解決將拉低整體競爭力,對此應加強“補短板”的戰(zhàn)略布局和實施。
第二,綜合應用多種風險管理策略,切實提升對安全風險的承受力,確保風險處于社會可承受的范圍內(nèi)。對此,應將承受力作為風險研判定級和應對策略的依據(jù):一是對于難承受的風險,采取措施提前規(guī)避或消除;二是對于可承受的風險,做好及時干預和對沖工作,確??煽鼗蚩傻钟?;三是根據(jù)風險承受力情況,動態(tài)評估風險,適時調(diào)整應對方案。
第三,強化人工智能應用中的制度約束力,對引發(fā)風險的主觀因素進行有效約束,從而有效應對秩序風險。一是一般領域的“自我約束”,促進企業(yè)自律自治并履行社會責任,主動規(guī)避或防范人工智能的社會風險;二是特定領域的“硬約束”,建立健全法律法規(guī)和管理制度,在特定領域或特殊行業(yè)形成必要的硬性約束力;三是前沿領域的“軟約束”,加強對人工智能倫理道德的前瞻預測與呼吁倡導,提倡自覺規(guī)避違背倫理道德的社會風險。
第四,提升風險治理的社會協(xié)同力,形成各方共治共擔風險的格局,有效對沖或緩解社會風險。一是風險所有權主體全員在各司其職的同時加強聯(lián)動合作,提升風險防控整體能力;二是共創(chuàng)共享社會經(jīng)濟效益以提高社會凝聚力,對沖社會風險;三是落實就業(yè)培訓、人才培養(yǎng)、福利保障、公共關系、公眾溝通等相關政策保障以提升社會耐受力,降低負面影響。
因此,通過競爭力、承受力、約束力、協(xié)同力的提升,從而綜合統(tǒng)籌人工智能發(fā)展、個體安全感、國家競爭力的三者關系,提升正面效益、降低負面風險。
治理視角的人工智能風險應對,實質(zhì)上是踐行“賦能+避險”的風險方針:以避險為前提,同時賦能人類;既發(fā)揮全面提升競爭力的正面賦能作用,同步通過規(guī)避超出承受力的社會負面影響。在此過程中,還應該在“兩維雙向”治理模型的基礎上納入“PR”模型和“IR”模型,對風險發(fā)生的可能性(P:Possibility)、后果損失(R:Result)、負面影響(I:Impact)、社會責任(R:Responsibility)進行綜合分析,從而在科學的風險定級的基礎上實施精細化的風險應對(詳見圖2)。
圖2 人工智能風險定級的“兩維雙向 & PR-IR”模型
第一,針對存在高危風險的領域,建議禁止應用。警鐘長鳴,在謹慎評估和全面審查的基礎上,將存在高危風險的應用列入“負面清單”,審核時采取“一票否決”制度,以消除高危風險,實現(xiàn)避險。例如,軍事國防領域的濫用和智能武器的過度開發(fā)應列入“負面清單”,人工智能行業(yè)共識之一的“阿西洛馬人工智能原則”[注]2017年1月,在美國加州阿西洛馬召開的“阿西洛馬會議”上,數(shù)百名人工智能和機器人領域的專家們聯(lián)合簽署了“阿西洛馬人工智能原則”,呼吁全世界的人工智能領域工作遵守這些原則,共同保障人類未來的利益和安全。建議“致命自主武器的軍備競賽”應被禁用。
第二,針對存在中危風險的領域,建議限制應用的“治理+AI”路徑。治理牽引,在安全可靠的情境中引入人工智能的有限應用,充分發(fā)揮技術優(yōu)勢促進制造、教育、醫(yī)療、養(yǎng)老、環(huán)保、城市管理、司法等領域社會治理的精細化和智能化,提升人民生活的幸福感和獲得感;同步掌握技術發(fā)展應用的關鍵決策權,根據(jù)實際情況合理限制人工智能的自主程度和智能水平,兼顧避險和賦能。
第三,針對存在低危風險的領域,建議鼓勵應用的“AI+治理”路徑。發(fā)展人工智能優(yōu)先,在人類權益保護和價值實現(xiàn)的基礎上,充分發(fā)揮人工智能在推動科技跨越發(fā)展、產(chǎn)業(yè)優(yōu)化升級、生產(chǎn)力整體躍升等方面的“頭雁效應”作用,鼓勵人工智能在國家創(chuàng)新能力提升、培育智能產(chǎn)業(yè)、建設智能社會、保障和維護國家安全等領域更好地賦能人類,持續(xù)提升生產(chǎn)力和優(yōu)化生產(chǎn)關系。
透過治理視角,即便是鼓勵應用的人工智能領域,其發(fā)展仍要以科學的風險防控機制為基礎;在充分的安全保障的前提下鼓勵其快速和健康發(fā)展。健全科學和有效的人工智能社會風險防控機制,主要由三部分構成。
第一,社會風險的事前評估與前置管理,實現(xiàn)風險控制的關口前移。以安全技術標準和應用道德規(guī)范為依據(jù),對人工智能產(chǎn)品開展事前的安全測試、風險評估、道德審查,及時發(fā)現(xiàn)其可能引發(fā)技術缺陷、安全故障、道德爭議的風險;對具有高危風險的產(chǎn)品予以“一票否決”,對具有中低危風險的產(chǎn)品予以修正和彌補,盡可能確保生產(chǎn)使用中的無缺陷、少故障或零爭議。例如:美國《自動駕駛法案》(H.R.3388-SELF DRIVE Act)[注]The U.S Congress,H.R.3388-SELF DRIVE Act,2017-09-07,https://www.congress.gov/bill/115th-congress/house-bill/3388.要求發(fā)展自動化或自動駕駛系統(tǒng)的實體提交如何解決安全問題的評估證書,闡述相關測試結(jié)果、數(shù)據(jù),證明自動駕駛實體可保持安全性能。
第二,社會風險的全程監(jiān)測與動態(tài)干預,打造“無縫隙”的風險控制。以合法性、合理性、可控性、安全性等為參考,對算法設計、產(chǎn)品開發(fā)、成果應用的各環(huán)節(jié)開展技術監(jiān)測、管理督導、社會監(jiān)督,在動態(tài)變化的研發(fā)和使用環(huán)境中及時發(fā)現(xiàn)失誤或糾正偏差,以確保人工智能產(chǎn)品的安全使用、合法運轉(zhuǎn)、合規(guī)運營。例如,人工智能領域的第三方研究機構AI Now[注]AI Now,AI Now 2017 Report,2017-07-10,https://ainowinstitute.org/AI_Now_2017_Report.pdf.提出企業(yè)應在人工智能系統(tǒng)應用的全流程加強監(jiān)管:既要在系統(tǒng)發(fā)布前進行嚴格的預發(fā)布測試(Rigorous Pre-release Trials)以規(guī)避系統(tǒng)錯誤或偏差,也要在系統(tǒng)發(fā)布后繼續(xù)監(jiān)測其在不同環(huán)境中的使用情況。
第三,社會風險的事后整改與根源治理,形成風險控制的良性循環(huán)。通過事后的追責懲治、賠償救濟、問題整改,達到多方面成效:一是對受害者給予合理補償,一定程度上對沖風險;二是對人工智能設計者和運營者形成“威懾效應”,引導其重視安全和規(guī)范操作;三是開展相應整改,健全法律法規(guī)、協(xié)調(diào)政策制度,根源治理風險,防治同類問題再次發(fā)生。例如,《歐盟通用數(shù)據(jù)保護條例》明確規(guī)定了對隱私泄露違規(guī)行為進行懲罰的具體情境、追責方式、懲罰力度、救濟標準,要求若企業(yè)在收集和使用個人數(shù)據(jù)的過程中違規(guī),可被處罰至最高2 000萬歐元或者全球年度總營業(yè)額4%的罰款。
人工智能的風控機制并非目的,而是要保障人工智能的有序發(fā)展,最終提升生產(chǎn)力和優(yōu)化生產(chǎn)關系。因此,透過治理視角,人工智能的社會風險應對,亟待多元主體落實各自的風險所有權、共擔共治風險、共建共享發(fā)展。
第一,明確多元主體的風險所有權,各方切實履行人工智能研發(fā)和應用中的職責,形成權責一致、積極負責的風險所有權機制。一是應具備“透明性”原則的前置條件,可采取特定領域中人工智能算法設計和系統(tǒng)運行的透明性準入要求、人工智能研發(fā)者的認證審批制度、安全信息的強制披露制度等措施,確保研發(fā)“透明性”,為明晰責任分布提供技術環(huán)境;二是明確多主體在不同領域和階段的風險所有權,對于開發(fā)者、生產(chǎn)者、銷售者、使用者、監(jiān)管者,均應明確其權利、義務、責任,形成“行為—主體—歸責”的風險責任體系;三是建立事后追溯和問責制度,形成全流程、動態(tài)化、循環(huán)式的責任管理機制。
第二,完善共治制度,形成多方共管,在對社會主體形成有效約束的同時,保障其自由權利和合法權益,提升約束力基礎上的承受力。一是企業(yè)方應自覺接受法律制度約束,在產(chǎn)品安全、人權保護、透明性和可解釋性、避免歧視和偏見等方面強化企業(yè)自律和行業(yè)自管;二是研究機構應在遵循法律法規(guī)和道德規(guī)范的基礎上開展相關研究,確保研究過程和結(jié)果的合法、合理、可行、安全、可控;三是政府方應在涉及群眾生命財產(chǎn)安全的應用情境中加強政策引導和監(jiān)管問責,同步接受內(nèi)部審查和外部監(jiān)督;四是社會方的積極并有序監(jiān)督,群眾作為消費者和企業(yè)員工、開展基于利益相關的監(jiān)督,新聞媒體通過合理的輿論施壓來敦促多方履責,社會第三方基于專業(yè)技能和中立權威開展監(jiān)督、推動整改。
第三,健全共治機制,開展多維合作,發(fā)揮各自所長,實現(xiàn)共建和共贏,提高協(xié)同力作用下的競爭力。一是深化產(chǎn)教融合下的跨性質(zhì)合作,不同性質(zhì)的主體達成共識并形成合作,以促成綜合應對方案、解決系統(tǒng)問題;二是形成有利于科學決策的跨領域合作,搭建與多元利益相關主體討論合作的平臺,創(chuàng)造政府、專家、公眾等多元參與治理決策的機制,解決綜合性的系統(tǒng)偏差問題并規(guī)避單一技術專家決策的高風險;三是開展區(qū)域聯(lián)盟和全球治理的跨地域合作,既利用區(qū)位優(yōu)勢和聯(lián)盟傳統(tǒng)以形成跨國性或區(qū)域性的人工智能發(fā)展聯(lián)盟,也需開展全球范圍內(nèi)的資源整合和協(xié)同合作,提升綜合競爭力的同時共治社會風險。基于此,實現(xiàn)國家安全保障和競爭力提升、企業(yè)兼得經(jīng)濟效益和社會效益、人民群眾利益得到切實保障的多方共贏局面,這也是優(yōu)化生產(chǎn)關系的實質(zhì)之所在。
綜上,人工智能的社會風險應對,應在治理視角下,綜合技術視角和社會視角,補短板、強系統(tǒng)、優(yōu)協(xié)同,在切實規(guī)避人財損失和負面影響的風險、保障人民群眾合法合理權益的基礎上,充分發(fā)揮人工智能“賦能”人類的作用,以提升社會生產(chǎn)力、國家競爭力和優(yōu)化生產(chǎn)關系為導向,持續(xù)提高人民群眾的安全感、獲得感、幸福感和滿意度。