• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    人工智能倫理的程序保障

    2023-12-19 00:00:00季衛(wèi)東趙澤睿
    數(shù)字法治 2023年1期

    內(nèi)容提要:人工智能的風(fēng)險(xiǎn)治理需要倫理先行與法律保障。注重倫理先行,是為了應(yīng)對(duì)人工智能在技術(shù)研發(fā)和社會(huì)應(yīng)用時(shí)引發(fā)的道德規(guī)范不確定性問題。一般而言,人工智能倫理是化解決策風(fēng)險(xiǎn)的意義脈絡(luò)以及對(duì)失范現(xiàn)象進(jìn)行意義處理的溝通理論,為此需要首先提供促進(jìn)風(fēng)險(xiǎn)溝通的程序和選擇機(jī)制。然而,當(dāng)下的人工智能風(fēng)險(xiǎn)治理在相當(dāng)程度上混淆了技術(shù)研發(fā)倫理和社會(huì)應(yīng)用倫理,且僅聚焦實(shí)體性倫理原則而忽視程序性倫理規(guī)則,導(dǎo)致了高標(biāo)道德而無法在法律、政策、監(jiān)控等層面得到具體落實(shí)的困境。只有注重程序性倫理規(guī)則、法律程序以及技術(shù)性正當(dāng)程序,才能實(shí)現(xiàn)人工智能風(fēng)險(xiǎn)治理的多元價(jià)值共存與敏捷治理目標(biāo)。因此,基于正當(dāng)程序原則的人工智能風(fēng)險(xiǎn)治理機(jī)制,應(yīng)當(dāng)依據(jù)人工智能的不同倫理類型,分別以法律程序和算法程序設(shè)置狹義的技術(shù)性正當(dāng)程序、算法論證程序和嵌入式正當(dāng)程序來對(duì)不同階段的風(fēng)險(xiǎn)決策溝通過程進(jìn)行保障。

    關(guān)鍵詞:人工智能倫理 風(fēng)險(xiǎn)治理 法律程序 正當(dāng)程序

    一、引言

    隨著人工智能的快速發(fā)展與普遍應(yīng)用,人們對(duì)人工智能的風(fēng)險(xiǎn)問題日益關(guān)注。內(nèi)容推薦系統(tǒng)的干預(yù)個(gè)人選擇、行程規(guī)劃系統(tǒng)的塑造算法囚籠、自動(dòng)化營(yíng)銷系統(tǒng)的大數(shù)據(jù)殺熟、智能量刑系統(tǒng)的暗含人種歧視等一系列社會(huì)事件,也在不斷地倒逼著全球政府注重人工智能的風(fēng)險(xiǎn)治理。在此背景下,研究機(jī)構(gòu)與科技企業(yè)不斷通過人工智能的技術(shù)研發(fā)與社會(huì)應(yīng)用來創(chuàng)造一個(gè)更智能、更高效的社會(huì)以增強(qiáng)人類福祉,而各國(guó)政府與跨國(guó)組織也在不斷摸索人工智能的治理路徑與倫理共識(shí)來直面人工智能引發(fā)的各類風(fēng)險(xiǎn)。在各國(guó)政府與跨國(guó)組織發(fā)布的大量人工智能治理文件中,“倫理先行與法律保障”已成為全球應(yīng)對(duì)人工智能風(fēng)險(xiǎn)的核心治理思路。面對(duì)人工智能引發(fā)的大量風(fēng)險(xiǎn)問題,各國(guó)政府首先明確了人工智能的倫理原則,再試圖設(shè)計(jì)具體的法律規(guī)則和實(shí)施機(jī)制來落實(shí)這些倫理原則。例如,英國(guó)在2018年發(fā)布了《人工智能在英國(guó):充分準(zhǔn)備、意愿積極、應(yīng)對(duì)能力》文件,其中提出了“人類有益性、可解釋性、公平性、安全性、數(shù)據(jù)權(quán)力與隱私保護(hù)和社會(huì)教育”等幾項(xiàng)倫理原則。之后,英國(guó)在2019年6月發(fā)布的《人工智能倫理與安全指導(dǎo)》文件便嘗試分別對(duì)人工智能的研發(fā)行業(yè)和應(yīng)用行業(yè)制定可操作的法律規(guī)范和實(shí)施機(jī)制?!纠钊屎幹骸度斯ぶ悄芘c國(guó)際準(zhǔn)則》,上海三聯(lián)書店2022年版,第101~106頁(yè)。】同樣,我國(guó)在2019年6月發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》文件,其中聲明了“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作和敏捷治理”等八項(xiàng)倫理原則。之后,我國(guó)于2021年9月發(fā)布《新一代人工智能倫理規(guī)范》,開始嘗試將這些倫理原則轉(zhuǎn)換為人工智能的管理、研發(fā)、供應(yīng)和使用等四個(gè)環(huán)節(jié)的具體法律規(guī)范和實(shí)施機(jī)制。

    面對(duì)這樣的人工智能治理現(xiàn)狀,本文將進(jìn)一步指出,當(dāng)下試圖追求的實(shí)體性倫理原則與法律規(guī)則很難在人工智能的應(yīng)用階段進(jìn)行事先明確,更難以促成社會(huì)對(duì)人工智能的應(yīng)用產(chǎn)生普遍化道德共識(shí),無法真正有效地治理人工智能的應(yīng)用風(fēng)險(xiǎn)。而完全依賴場(chǎng)景化原則,根據(jù)具體情況進(jìn)行分類處理的風(fēng)險(xiǎn)治理方式,又很容易放縱應(yīng)用者或人工智能系統(tǒng)的裁量權(quán)擴(kuò)張。為了適當(dāng)保留并限制裁量權(quán),人工智能的風(fēng)險(xiǎn)治理應(yīng)當(dāng)從程序視角解讀倫理先行與法律保障,并將法律正當(dāng)程序的理念融入算法程序之中。這意味著放棄在人工智能應(yīng)用領(lǐng)域事先確立實(shí)體性判斷標(biāo)準(zhǔn),以及放棄在圍繞人工智能的風(fēng)險(xiǎn)決策之際達(dá)成普遍一致的實(shí)體性道德共識(shí),而試圖從程序主義的角度來重新認(rèn)識(shí)倫理,并通過人工智能倫理的類型化與正當(dāng)程序的類型化,以及法律程序與算法程序的交融共同實(shí)現(xiàn)人工智能倫理的法律保障。

    二、人工智能的風(fēng)險(xiǎn)治理及其倫理先決

    在本文討論法律與代碼如何從正當(dāng)程序的視角共同推動(dòng)人工智能倫理和風(fēng)險(xiǎn)治理之前,對(duì)人工智能的“風(fēng)險(xiǎn)治理”和“倫理”的概念以及二者之間的邏輯關(guān)聯(lián),有必要進(jìn)行澄清與明確。這樣做一方面有利于揭示當(dāng)下人工智能風(fēng)險(xiǎn)治理重視倫理指引的基本邏輯,另一方面也為下文分析當(dāng)代全球人工智能倫理的法律保障困境提供理論基礎(chǔ)。

    (一)人工智能的風(fēng)險(xiǎn)治理

    “風(fēng)險(xiǎn)”與“危險(xiǎn)”均來源于未來的不確定性。但風(fēng)險(xiǎn)不同于危險(xiǎn)的地方在于,危險(xiǎn)是一種不可歸因于事前決策的不確定性損害,其在過去表現(xiàn)為科學(xué)技術(shù)的供應(yīng)不足導(dǎo)致人們對(duì)未來不確定性損害的不可控制性。而風(fēng)險(xiǎn)則是現(xiàn)代社會(huì)的產(chǎn)物,是指那些可以通過合理決策來規(guī)避的未來不確定性損害?!緟⒁姡鄣拢菽峥死埂けR曼:《風(fēng)險(xiǎn)社會(huì)學(xué)》,孫一洲譯,廣西人民出版社2020年版,第47~49頁(yè)?!吭谏鐣?huì)的現(xiàn)代化進(jìn)程中,人們基于科學(xué)技術(shù)的發(fā)展而不斷擴(kuò)張對(duì)自然與社會(huì)的控制,在這種控制逐漸增強(qiáng)的同時(shí),人們對(duì)于危險(xiǎn)的忌避和安全的期望會(huì)不斷增加,風(fēng)險(xiǎn)問題也就隨之一同增長(zhǎng),并逐步成了現(xiàn)代社會(huì)的重要主題?!緟⒁姡鄣拢轂鯛柪锵!へ惪耍骸讹L(fēng)險(xiǎn)社會(huì):新的現(xiàn)代性之路》,張文杰、何博聞譯,譯林出版社2018年版,第4頁(yè)?!?/p>

    人工智能的風(fēng)險(xiǎn)問題同樣如此。隨著人工智能技術(shù)的高速發(fā)展和普遍應(yīng)用,人們對(duì)動(dòng)態(tài)變化的自然與社會(huì)作出快速、精準(zhǔn)的控制已成為可能。在這種快速、精準(zhǔn)的控制成為可能后,人們便希望借助人工智能消除更多危險(xiǎn),并對(duì)人工智能的技術(shù)研發(fā)與社會(huì)應(yīng)用提出了更多的安全期望。而伴隨著安全期望增多的便是公眾對(duì)人工智能風(fēng)險(xiǎn)問題的日益關(guān)注。此時(shí),“人工智能的風(fēng)險(xiǎn)”便可表達(dá)為“如何進(jìn)行合理的決策規(guī)避或減小人工智能技術(shù)研發(fā)與社會(huì)應(yīng)用引發(fā)的未來不確定性損害”。再結(jié)合“治理”概念是指“協(xié)調(diào)利益相關(guān)者共同作出針對(duì)某事的決策與實(shí)踐”【Mark Bevir,Governance as Theory,Practice,and Dilemma,in The SAGE Handbook of Governance,SAGE,2011,p.1-16.】,“人工智能的風(fēng)險(xiǎn)治理”目標(biāo)便可定義為“協(xié)調(diào)利益相關(guān)者共同作出能規(guī)避或減少人工智能技術(shù)研發(fā)與社會(huì)應(yīng)用引發(fā)的未來不確定性損害的決策”。例如,無人駕駛的文化構(gòu)想最早就源于社會(huì)公眾對(duì)人類駕駛事故中危險(xiǎn)的忌避和對(duì)人工智能代替人類進(jìn)行安全駕駛的期望?!綟abian Krger,Automated Driving in Its Social,Historical and Cultural Contexts,in Autonomous Driving:Technical,Legal and Social Aspects,Springer,2016,p.45-46.】正是這種安全期望推動(dòng)了人工智能在無人駕駛領(lǐng)域的技術(shù)研發(fā)和社會(huì)應(yīng)用,同時(shí)也讓無人駕駛的風(fēng)險(xiǎn)問題成為當(dāng)代社會(huì)的重要話題。如何協(xié)調(diào)無人駕駛汽車涉及的利益相關(guān)者在不同階段作出合理的決策,以此規(guī)避或減少傳統(tǒng)人類駕駛因精準(zhǔn)性控制不夠而無法規(guī)避的未來不確定性損害、實(shí)現(xiàn)更加安全的交通出行,便成了無人駕駛風(fēng)險(xiǎn)治理的目標(biāo)。

    (二)人工智能風(fēng)險(xiǎn)治理的倫理先行

    那為何全球各國(guó)在討論人工智能的風(fēng)險(xiǎn)治理時(shí)大多強(qiáng)調(diào)“倫理先行”呢?在此需要進(jìn)一步對(duì)“道德”和“倫理”的定義進(jìn)行界分?!啊赖隆侵改切┛芍苯佑糜谂袛鄾Q策合理性的、可以被具體描述的、實(shí)體的價(jià)值規(guī)范、觀念信仰、行為準(zhǔn)則和優(yōu)先次序,而‘倫理’則是針對(duì)這些道德規(guī)范出現(xiàn)不確定性時(shí)(出現(xiàn)失范現(xiàn)象時(shí))進(jìn)行意義處理的溝通理論?!薄荆鄣拢莅⒚鳌じ駛愅郀柕轮骶帲骸都夹g(shù)倫理手冊(cè)》,吳寧譯,社會(huì)科學(xué)文獻(xiàn)出版社2018年版,第15頁(yè)?!靠梢哉f,“人工智能倫理”是一種伴隨人工智能技術(shù)研發(fā)和社會(huì)應(yīng)用而必然出現(xiàn)的、針對(duì)用于評(píng)價(jià)決策合理性的道德規(guī)范出現(xiàn)不確定性時(shí)進(jìn)行意義處理的溝通理論。而人工智能倫理的研究目標(biāo),就是依據(jù)理性論辯的原則,建立起能夠引導(dǎo)利益相關(guān)者在道德規(guī)范不明確時(shí)創(chuàng)造或更新道德規(guī)范的先決條件,進(jìn)而促成在出現(xiàn)失范現(xiàn)象時(shí)基于理性溝通進(jìn)行風(fēng)險(xiǎn)決策的意義處理?!緟⒁娮ⅰ?〕,第6頁(yè)?!?/p>

    首先,人工智能倫理的研究對(duì)象不同于人工智能道德規(guī)范,其并非針對(duì)具體的技術(shù)或應(yīng)用,而是針對(duì)因技術(shù)研發(fā)或社會(huì)應(yīng)用引發(fā)的道德規(guī)范的不確定性問題,即失范現(xiàn)象。【參見注〔6〕,第8頁(yè)?!看藭r(shí),結(jié)合人工智能的風(fēng)險(xiǎn)治理概念,如果既有的道德規(guī)范完全能夠指引人們直接作出規(guī)避或減少未來不確定性損害的合理決策,那么人工智能的風(fēng)險(xiǎn)治理實(shí)際上就無須考慮倫理,而僅需考慮人工智能的道德風(fēng)險(xiǎn)問題,即人工智能的技術(shù)研發(fā)者、應(yīng)用者和系統(tǒng)本身是否會(huì)嚴(yán)格按照既有的、明確的道德規(guī)范作出合理決策。因此,可以說,人工智能風(fēng)險(xiǎn)治理之所以強(qiáng)調(diào)倫理先行,是因?yàn)槊媾R著雙重不確定性:一方面是未來可以通過合理決策規(guī)避或減少的損害具有不確定性;另一方面是用于判斷這個(gè)規(guī)避損害的決策是否合理的道德規(guī)范也具有不確定性。依然以無人駕駛為例,雖然無人駕駛相比人類駕駛能夠進(jìn)行更加精細(xì)化的控制,進(jìn)而能夠?qū)芏嗳祟愸{駛員無法及時(shí)反應(yīng)的事故碰撞進(jìn)行精準(zhǔn)的、審慎的事前決策,但由于既有的道德規(guī)范并未提供評(píng)價(jià)相關(guān)決策合理性的標(biāo)準(zhǔn),甚至不同人群、不同地區(qū)對(duì)這種汽車碰撞決策的合理性標(biāo)準(zhǔn)具有多元化、相互沖突的道德觀念,無人駕駛的風(fēng)險(xiǎn)治理就不得不先解決這種道德規(guī)范的不確定性問題?!舅彐面?、郭喨:《自動(dòng)駕駛電車難題的倫理算法研究》,載《自然辯證法通訊》2020年第10期。】

    其次,對(duì)于人工智能的風(fēng)險(xiǎn)治理來說,人工智能倫理的功能并不在于當(dāng)無道德規(guī)范可循時(shí)直接給出明確、具體的合理性決策依據(jù),而是從有效性的角度為利益相關(guān)者的價(jià)值爭(zhēng)論和道德規(guī)范創(chuàng)新或更迭過程提供信息、引導(dǎo)和說明工作,避免單方的主觀臆斷,促成利益相關(guān)者共同得出符合理性論辯標(biāo)準(zhǔn)的、能夠擔(dān)負(fù)責(zé)任的合理性決策依據(jù)。因此,可以說,人工智能倫理起到了一種“論戰(zhàn)前約法三章”的功能,為那些參與評(píng)價(jià)相關(guān)決策是否合理規(guī)避未來不確定損害的利益相關(guān)者提供核心概念和先決條件等特定共識(shí)。正如倫理學(xué)家主張的“民主先于哲學(xué)”,人工智能倫理無法越俎代庖、代替公眾社會(huì)給出風(fēng)險(xiǎn)決策的合理性依據(jù),它無法裁決某個(gè)具體決策是否合理,公眾社會(huì)自始至終只能依靠他們自己來決定?!綬ichard Rorty,Truth and Progress:Philosophical Papers,Cambridge University Press,1998,p.245-246.】人工智能倫理只能在評(píng)價(jià)決策合理性的道德規(guī)范不明確時(shí),為利益相關(guān)者間的價(jià)值論辯與決策過程提供引導(dǎo),如對(duì)論辯的前提共識(shí)作出說明、對(duì)雜亂無章的論辯理由與過程加以透明化與有序化。從這個(gè)角度來說,人工智能倫理不同于人工智能的道德準(zhǔn)則,其是人工智能技術(shù)研發(fā)及社會(huì)應(yīng)用過程中“實(shí)際對(duì)話”的澄清者、引導(dǎo)者、促進(jìn)者和信息員?!緟⒁娮ⅰ?〕,第11頁(yè)?!?/p>

    再次,人工智能倫理先行的動(dòng)因——風(fēng)險(xiǎn)決策的失范現(xiàn)象,源于技術(shù)研發(fā)階段的“奇怪悖論”和社會(huì)應(yīng)用階段的“擬主體性”。根據(jù)斯坦福的研究報(bào)告顯示,“人工智能”的技術(shù)概念本身就是跟隨技術(shù)進(jìn)步而不斷革新的,每當(dāng)一種新的模擬與延展人類智能的技術(shù)融入社會(huì)生活,被大眾習(xí)以為常且形成穩(wěn)定的、共識(shí)性的、用于評(píng)價(jià)決策合理性的道德規(guī)范后,它便會(huì)脫離“人工智能”的含義范圍。然后,會(huì)有全新的、尚未形成價(jià)值共識(shí)的技術(shù)出現(xiàn),并融入“人工智能”的含義范圍。這樣除舊納新的變動(dòng)過程隨著技術(shù)創(chuàng)新而持續(xù)發(fā)生,這種現(xiàn)象被稱為“人工智能效益”(AI Effect)或“奇怪悖論”(Odd Paradox)?!維tanford University,Artificial Intelligence and Life in 2030:One Hundred Year Study on Artificial Intelligence,Report of the 2015 Study Panel,p.1-8.】正是人工智能在技術(shù)研發(fā)階段的“奇怪悖論”,讓失范現(xiàn)象成了人工智能技術(shù)研發(fā)的風(fēng)險(xiǎn)治理研究必須持續(xù)關(guān)注的問題。

    同樣引發(fā)失范現(xiàn)象,進(jìn)而導(dǎo)致人工智能風(fēng)險(xiǎn)治理需要強(qiáng)調(diào)倫理先行的,是人工智能社會(huì)應(yīng)用時(shí)的擬主體性問題。其一,人工智能作為模擬與延展人類智能的新興技術(shù)集合,其技術(shù)目標(biāo)在于模擬人類的環(huán)境感知、思考決策和執(zhí)行行動(dòng)?!維tuart J.Russell,Peter Norvig amp; Ming-Wei Chang,Artificial Intelligence:A Modern Approach,Pearson,2021,p.1-8.】而隨著人工智能的技術(shù)發(fā)展,目前人工智能自動(dòng)認(rèn)知并作出行為決策的能力,已足夠讓人工智能的技術(shù)應(yīng)用者在作出應(yīng)用決定后就無須再介入具體的數(shù)據(jù)處理與行為決策之中。正如最近爆紅全球的Chat GPT所證明的那樣,人工智能已經(jīng)可以獨(dú)立與其他社會(huì)主體進(jìn)行交流互動(dòng),進(jìn)而呈現(xiàn)出一種擬人的主體性。但因?yàn)檫@種主體性并非基于自我意識(shí),其思考和行動(dòng)也并非源于自由意志,而是一種基于算法程序?qū)?shù)據(jù)自動(dòng)處理的功能性模仿,因此被哲學(xué)家稱為“擬主體性”【參見段偉文:《人工智能時(shí)代的價(jià)值審度與倫理調(diào)適》,載《中國(guó)人民大學(xué)學(xué)報(bào)》2017年第6期。】。這種擬主體性讓人工智能倫理具有了不同于其他技術(shù)倫理的獨(dú)特性,因?yàn)樵谌斯ぶ悄軕?yīng)用者作出應(yīng)用決定后,人工智能就會(huì)代替人類應(yīng)用者成為風(fēng)險(xiǎn)治理中的決策主體,自發(fā)地與其他主體進(jìn)行交流互動(dòng),以及獨(dú)立地作出影響未來不確定損失的決策。而這就導(dǎo)致了在人工智能應(yīng)用階段的風(fēng)險(xiǎn)治理過程中,不再是人與人之間通過溝通和論辯以共同作出規(guī)避未來不確定性損失的決策,而是人與人工智能系統(tǒng)之間通過溝通和論辯來作出決策,人工智能的應(yīng)用風(fēng)險(xiǎn)治理便必須部分地依賴于自動(dòng)化決策的合理性。其二,人工智能的擬主體性讓人們對(duì)應(yīng)用于社會(huì)的人工智能具有了擬倫理性需求,進(jìn)而導(dǎo)致了人工智能的社會(huì)應(yīng)用倫理不得不分為適用于人工智能應(yīng)用決策者與利益相關(guān)者溝通過程的外在倫理和適用于人工智能系統(tǒng)與利益相關(guān)溝通過程的內(nèi)在倫理。這意味著人工智能必須能像人一樣進(jìn)行倫理溝通才能在出現(xiàn)失范現(xiàn)象時(shí)作出合乎人類倫理的決策與行為,如圖1所示。

    對(duì)此,人工智能哲學(xué)家瑪格麗特·博登就前瞻性地指出:“人工智能一旦被納入道德共同體,將以三種方式影響人機(jī)交互:其一,人工智能將和動(dòng)物一樣得到人類的倫理關(guān)注;其二,人類將認(rèn)為可以對(duì)人工智能的行動(dòng)進(jìn)行道德評(píng)估;其三,人類將把人工智能作為道德決策的論證和說服目標(biāo)?!薄緟⒁姡塾ⅲ莠敻覃愄亍げ┑牵骸度斯ぶ悄艿谋举|(zhì)與未來》,孫詩(shī)惠譯,中國(guó)人民大學(xué)出版社2017年版,第162~163頁(yè)?!慷谌c(diǎn)正是人工智能內(nèi)在倫理的體現(xiàn)。

    最后,人工智能應(yīng)用階段的內(nèi)在倫理不同于技術(shù)研發(fā)倫理,但又必須依賴技術(shù)研發(fā)。這意味著因擬主體性而產(chǎn)生人工智能內(nèi)在倫理與部分研究所提出的“正義算法”理念有很大不同?!罢x算法”的理念是試圖以一種完美主義的技術(shù)路徑消除風(fēng)險(xiǎn)的不確定性,基于法律對(duì)技術(shù)研發(fā)的介入產(chǎn)生符合絕對(duì)性道德規(guī)范的人工智能系統(tǒng)?!緟⒁娻嵱耠p:《計(jì)算正義:算法與法律之關(guān)系的法理建構(gòu)》,載《政治與法律》2021年第11期?!慷斯ぶ悄艿膬?nèi)在倫理是在區(qū)別于技術(shù)研發(fā)倫理的前提下,以技術(shù)研發(fā)服務(wù)于應(yīng)用倫理的治理路徑。一方面,人工智能的技術(shù)研發(fā)因應(yīng)用階段內(nèi)在倫理的需求而具有了全新目標(biāo),這不但不會(huì)遏制既有研發(fā)的創(chuàng)新空間,而且提供了更多的研發(fā)方向——以實(shí)現(xiàn)內(nèi)在倫理為功能的算法程序設(shè)計(jì);另一方面,原本由人工智能應(yīng)用倫理引導(dǎo)應(yīng)用者與利益相關(guān)者進(jìn)行風(fēng)險(xiǎn)治理決策的溝通過程將轉(zhuǎn)變?yōu)橛扇藱C(jī)協(xié)同完成,人工智能的應(yīng)用倫理就必須落實(shí)為具體的算法程序,讓人工智能能夠作為主體參與利益相關(guān)者之間的道德觀念溝通和道德沖突論辯。對(duì)此,本文將會(huì)在下文詳盡論述。

    綜上,人工智能風(fēng)險(xiǎn)治理面臨著如何協(xié)調(diào)利益相關(guān)者共同作出能規(guī)避或減少人工智能技術(shù)研發(fā)與社會(huì)應(yīng)用所引發(fā)的未來不確定性損害的合理性決策。而之所以要強(qiáng)調(diào)倫理先行,是因?yàn)橛糜谂袛鄾Q策合理性的道德規(guī)范本身也因人工智能的“奇怪悖論”與擬主體性而具有了不確定性。面對(duì)這種雙重不確定性,人工智能倫理的目標(biāo)就是依據(jù)理性論辯的原則,建立起能夠引導(dǎo)利益相關(guān)者在道德規(guī)范不確定時(shí)創(chuàng)造或更新道德規(guī)范的先決條件,進(jìn)而對(duì)失范現(xiàn)象進(jìn)行意義處理并形成化解決策風(fēng)險(xiǎn)的意義脈絡(luò)。然而,全球各國(guó)和地區(qū)雖然已對(duì)人工智能風(fēng)險(xiǎn)治理需要倫理先行達(dá)成了共識(shí),但在具體的落實(shí)機(jī)制以及人工智能倫理的法律保障方面陷入了困境。

    三、人工智能倫理的全球現(xiàn)狀及法律保障困境

    自2016年起,全球的國(guó)際組織、政府部門、學(xué)術(shù)機(jī)構(gòu)、行業(yè)組織和科技企業(yè)陸續(xù)發(fā)布了一百多份人工智能的治理文件,幾乎所有的治理文件都強(qiáng)調(diào)了人工智能倫理對(duì)于風(fēng)險(xiǎn)治理的先決性與重要性,并提出了各自的人工智能倫理原則?!就ⅰ?〕,第65頁(yè)?!咳欢m然表面上各組織之間對(duì)人工智能的倫理原則在多個(gè)方面達(dá)成了重疊共識(shí),但實(shí)際上因?yàn)槿狈惱淼碾A段劃分與類型劃分,導(dǎo)致了高標(biāo)道德而無法在法律、政策、監(jiān)控等層面具體落實(shí)的困境。在此,本文將揭示這種倫理現(xiàn)狀與法律保障困境,并據(jù)此指出實(shí)體性倫理原則和實(shí)體性法律保障在人工智能風(fēng)險(xiǎn)治理方面的局限性。

    (一)人工智能倫理的表面共識(shí)與實(shí)質(zhì)紛爭(zhēng)

    目前,各組織對(duì)人工智能倫理的規(guī)定,大多不區(qū)分技術(shù)研發(fā)和社會(huì)應(yīng)用兩個(gè)階段,且不區(qū)分實(shí)體性倫理與程序性倫理兩種類型,僅以抽象的文字平行地羅列幾項(xiàng)具體原則來進(jìn)行表述。在這些大量的倫理原則中,一些學(xué)者開始整理與比較各組織對(duì)人工智能倫理原則的相似性表達(dá),并希望從中找出普遍性的倫理共識(shí)。然而,他們發(fā)現(xiàn)這些數(shù)量龐大的倫理原則文件雖然使用著相似的詞匯、表達(dá)著看似相同的價(jià)值取向,但具體的闡述和法律保障機(jī)制存在著巨大差異。

    例如,表面上全球人工智能治理文件所提出的倫理原則幾乎都涉及了“以人為本”“協(xié)作”“共享”“公正”“透明”“隱私”“安全性”“受保障”和“可問責(zé)”九個(gè)主題,只是它們?cè)诰唧w的表述上用著不同但相似的關(guān)鍵詞,如表1【Yi Zeng,Enmeng Lu amp; Cunqing Huangfu,Linking Artificial Intelligence Principles,Cornell University Library,arXiv.org,2018,p.1-8.】所示。然而,實(shí)際上,各組織對(duì)這九個(gè)倫理原則的具體理解與法律保障機(jī)制卻存在著重大分歧?!続nna Jobin,Marcello Ienca amp; Effy Vayena,Artificial Intelligence:the global landscape of ethics guidelines,Cornell University Library,arXiv.org,2019,p.3-9.】例如,幾乎所有組織都會(huì)提及“以人為本”原則,但不同組織對(duì)這個(gè)倫理原則的具體闡述是完全不同的:企業(yè)發(fā)布的倫理文件更傾向于強(qiáng)調(diào)使人工智能有利于“客戶”;有的組織則強(qiáng)調(diào)使“盡可能多的人”受益;也有組織強(qiáng)調(diào)使“每一個(gè)人”都受益;有的則直接表述為讓“人類”受益;甚至有的表述為讓“所有有感覺的生物”受益。此外,各個(gè)組織對(duì)這個(gè)倫理原則的法律保障機(jī)制也有較大爭(zhēng)論:有的提出要讓人工智能具備人類的價(jià)值觀;有的則認(rèn)為只需讓人工智能符合人類對(duì)世界的科學(xué)理解;有的側(cè)重于最大限度地減少人工智能的權(quán)力集中;而有的則完全相反,認(rèn)為要讓人工智能集中權(quán)力來造福人類。更不用說各組織對(duì)“以人為本”原則中“自由”原則的理解,更是千差萬別,一些國(guó)家據(jù)此立法禁止了人臉識(shí)別的政府使用,另一些國(guó)家則禁止了商業(yè)應(yīng)用,也有的國(guó)家對(duì)此并不禁止而僅通過規(guī)制技術(shù)來保障公民自由。

    那如何看待這種相似倫理原則的理解紛爭(zhēng)呢?筆者認(rèn)為,當(dāng)下倫理原則理解紛爭(zhēng)和法律保障機(jī)制沖突的根源在于,未區(qū)分技術(shù)研發(fā)倫理與社會(huì)應(yīng)用倫理,且偏重實(shí)體性倫理原則而忽視程序性倫理規(guī)則。根據(jù)上文所述,人工智能倫理在技術(shù)研發(fā)階段和社會(huì)應(yīng)用階段所需解決的道德規(guī)范不確定性問題是完全不同的。在技術(shù)研發(fā)階段,人工智能倫理需要應(yīng)對(duì)的是技術(shù)創(chuàng)新迭代所引發(fā)的“奇怪悖論”;而在社會(huì)應(yīng)用階段,人工智能倫理需要應(yīng)對(duì)的是自動(dòng)化決策過程中的“擬主體性”。而實(shí)體性倫理原則和程序性倫理規(guī)則也是通過不同角度來引導(dǎo)利益相關(guān)者在道德規(guī)范不確定性時(shí)得出評(píng)價(jià)決策合理性的共識(shí)。實(shí)體性倫理原則是從結(jié)果層面確立一個(gè)大家能達(dá)成共識(shí)的最終目標(biāo),然后從這個(gè)最終目標(biāo)的實(shí)現(xiàn)倒推各個(gè)階段如何評(píng)價(jià)決策的合理性,據(jù)此引導(dǎo)利益相關(guān)者創(chuàng)新或更迭評(píng)價(jià)風(fēng)險(xiǎn)決策合理性的道德規(guī)范。而程序性倫理規(guī)則是聚焦利益相關(guān)者的溝通過程,其通過提出大家覺得公平合理的論辯標(biāo)準(zhǔn)與論辯規(guī)則,并在充分溝通后,基于這些論辯標(biāo)準(zhǔn)和規(guī)則得出一個(gè)評(píng)價(jià)風(fēng)險(xiǎn)決策合理性的道德規(guī)范。根據(jù)對(duì)人工智能倫理的兩種類型劃分,就能進(jìn)一步得出不同階段不同類型倫理的特征:技術(shù)研發(fā)階段倫理因追求共同的工具性價(jià)值,較容易在結(jié)果導(dǎo)向的實(shí)體性倫理原則方面達(dá)成共識(shí),且因?yàn)闇贤ê驼撧q人群均是具有共同語(yǔ)言和價(jià)值目標(biāo)的專業(yè)技術(shù)人員,所以既有的行業(yè)討論規(guī)范足以起到程序性倫理規(guī)則的作用;社會(huì)應(yīng)用階段倫理則恰恰相反,因?yàn)閼?yīng)用場(chǎng)景和利益相關(guān)者的多元性、復(fù)雜性,且包含了人機(jī)溝通的內(nèi)在倫理需求,導(dǎo)致通過設(shè)立最終目標(biāo)來引導(dǎo)人們達(dá)成決策合理性共識(shí)的實(shí)體性倫理原則無法解決不同場(chǎng)景與不同群體間的道德規(guī)范不確定性。表面上相似的抽象倫理原則也難以讓人工智能系統(tǒng)認(rèn)知與理解,而不同應(yīng)用場(chǎng)景和利益相關(guān)群體之間又不存在統(tǒng)一性的語(yǔ)言規(guī)則與價(jià)值目標(biāo),且缺乏以人機(jī)溝通的內(nèi)在倫理為功能目標(biāo)的技術(shù)研發(fā),所以缺乏對(duì)人工智能應(yīng)用決策合理性的溝通引導(dǎo)與保障(見表2)。這些特征也解釋了為何當(dāng)下人工智能倫理在技術(shù)研發(fā)階段的實(shí)體性倫理原則方面進(jìn)展快速且容易達(dá)成全球共識(shí),但各組織對(duì)人工智能社會(huì)應(yīng)用階段的實(shí)體性倫理原則爭(zhēng)論不止,且存在法律保障機(jī)制的相互沖突。

    (二)人工智能倫理的實(shí)體性法律困境與法律程序的意義

    在對(duì)人工智能風(fēng)險(xiǎn)治理的倫理現(xiàn)狀進(jìn)行剖析后,實(shí)體性法律對(duì)人工智能倫理的保障困境與法律程序的重要意義也就隨之凸顯。雖然從公元前5世紀(jì)開始的法律與道德之間的關(guān)系討論在19世紀(jì)末便因自然法的衰退而逐漸沒落,分析法學(xué)的興起也徹底劃清了法學(xué)與倫理學(xué)之間的界限,【參見[美]羅斯科·龐德:《法律與道德》,商務(wù)印書館2016年版,第4~34頁(yè)?!康琮嫷略诳偨Y(jié)了法律與道德從自然法到分析法學(xué)再到當(dāng)代法哲學(xué)的歷史關(guān)聯(lián)后所提出的:“法律既不能遠(yuǎn)離倫理習(xí)俗,也不能落后太多。因?yàn)榉刹粫?huì)自動(dòng)地得到實(shí)施,必須由單個(gè)的個(gè)人來啟動(dòng)、維持、指導(dǎo)法律裝置的運(yùn)轉(zhuǎn);必須用比法律規(guī)范的抽象內(nèi)容更全面的事物,來激勵(lì)這些人采取行動(dòng),并確定自己的行動(dòng)方向……法學(xué)和倫理學(xué)的核心部分是完全不同的,但其邊緣部分是相互重疊的?!薄就ⅰ?1〕,第90頁(yè)?!窟@對(duì)于本文厘清人工智能風(fēng)險(xiǎn)治理中“倫理先行”和“法律保障”之間的關(guān)系,以及分析當(dāng)代人工智能倫理的法律保障困境來說尤其重要。

    雖然人工智能的風(fēng)險(xiǎn)治理需要“倫理先行與法律保障”這一點(diǎn)已經(jīng)成了學(xué)界共識(shí),并且學(xué)者們也普遍認(rèn)同傳統(tǒng)的法律規(guī)制方式已難以滿足人工智能的風(fēng)險(xiǎn)治理需求,應(yīng)當(dāng)構(gòu)建符合人工智能倫理的法律規(guī)制路徑,【鄭智航:《人工智能算法的倫理危機(jī)與法律規(guī)制》,載《法律科學(xué)》2021年第1期?!康壳案鱾€(gè)組織對(duì)于倫理與法律之間如何共同推動(dòng)人工智能的風(fēng)險(xiǎn)治理是含混不清的,甚至大多數(shù)組織僅將法律當(dāng)成了各個(gè)國(guó)家對(duì)倫理原則所作出的權(quán)威發(fā)布。這種關(guān)系的含混與上文談到的倫理現(xiàn)狀,共同導(dǎo)致了人工智能倫理的法律保障停留于實(shí)體法對(duì)實(shí)體性倫理原則進(jìn)行權(quán)威聲明的層面,而難以進(jìn)一步落地為具體的法律法規(guī)和問責(zé)機(jī)制。根據(jù)上文對(duì)倫理的類型劃分,人工智能倫理的法律保障困境可以表達(dá)為在技術(shù)研發(fā)階段成了倫理內(nèi)容的權(quán)威發(fā)布,進(jìn)而演變?yōu)閭惱淼奶娲罚谏鐣?huì)應(yīng)用階段則因缺乏倫理共識(shí)而完全無法推進(jìn)(見表3)。此時(shí),過于強(qiáng)調(diào)實(shí)質(zhì)內(nèi)容與結(jié)果目標(biāo)的實(shí)體性法律可以說不但沒有與人工智能的倫理共同推進(jìn)人工智能的風(fēng)險(xiǎn)治理,反而在技術(shù)研發(fā)層面被倫理強(qiáng)行擠入,淪為了倫理的權(quán)威發(fā)布工具,在社會(huì)應(yīng)用層面則因?yàn)閭惱砣蔽欢鵁o所作為。

    具體來說,當(dāng)下這種過于強(qiáng)調(diào)結(jié)果目標(biāo)的實(shí)體法保障模式,面對(duì)人工智能的風(fēng)險(xiǎn)治理與倫理先行,必然存在著價(jià)值多元難以調(diào)和與高速創(chuàng)新難以應(yīng)對(duì)的雙重困境。而也正是這雙重困境凸顯了法律程序?qū)τ诖蚱迫斯ぶ悄軅惱淼姆杀U侠Ь车闹匾浴?/p>

    其一,面對(duì)人工智能風(fēng)險(xiǎn)治理中的多元價(jià)值,完全依賴實(shí)體法的保障模式實(shí)則是將人工智能倫理簡(jiǎn)單理解為各個(gè)組織對(duì)人工智能道德規(guī)范的政治聲明,進(jìn)而被各個(gè)組織的道德和政治觀念所充斥,淪為倫理爭(zhēng)論結(jié)果的權(quán)威發(fā)布工具。此時(shí),人類對(duì)價(jià)值沖突的認(rèn)識(shí)與理解又從倫理反思退化為道德沖突,倫理學(xué)本身的溝通性意義就被這種實(shí)體性法律保障模式給抹殺了。因此,對(duì)人工智能風(fēng)險(xiǎn)治理提出倫理先行和法律保障,并非要用政治裁決代替?zhèn)惱頊贤?,而是用法治的形式性保障倫理所?qiáng)調(diào)的溝通過程。這意味著人工智能的倫理法治不能依賴于通過法律強(qiáng)制力統(tǒng)一不同群體的多元價(jià)值,而是要不斷地通過法律程序組織理性論辯,讓人們能在多元價(jià)值的理性論辯過程中進(jìn)行平等的溝通,進(jìn)而確立起一個(gè)個(gè)分散卻明確的動(dòng)態(tài)共識(shí)。此時(shí),法律程序?qū)贤ǖ钠降缺U吓c倫理學(xué)對(duì)溝通的強(qiáng)調(diào)就能天然地連接起來。因?yàn)閭惱聿煌诘赖隆r(jià)值和觀念的核心就在于其賦予了用于評(píng)價(jià)決策合理性的道德規(guī)范以可辯論性。【同注〔6〕,第16頁(yè)。】而法律程序恰恰體現(xiàn)為按照一定順序、方式和手續(xù)來作出合理性決策的相互關(guān)系之中,其規(guī)定了評(píng)價(jià)決策合理性的成立前提、爭(zhēng)論點(diǎn)的整理?xiàng)l件和標(biāo)準(zhǔn),以及論辯主體發(fā)表意見的公平性?!炯拘l(wèi)東:《法律程序的意義》,中國(guó)法制出版社2011年版,第18頁(yè)?!慷吖餐偈沽司哂胁煌瑑r(jià)值觀念的利益相關(guān)者作出能夠相互理解或認(rèn)可的用于評(píng)價(jià)決策合理性的依據(jù),在擁抱了價(jià)值多元的同時(shí),通過促進(jìn)意見疏通、加強(qiáng)理性思考、擴(kuò)大選擇范圍、排除外部干擾來保證評(píng)價(jià)決策合理性依據(jù)的相對(duì)確定性與合理性。

    其二,面對(duì)人工智能風(fēng)險(xiǎn)治理所必須應(yīng)對(duì)的高速創(chuàng)新,我國(guó)和日本均將“敏捷治理”作為人工智能倫理的重要原則。這主要是因?yàn)槿斯ぶ悄茱L(fēng)險(xiǎn)治理面對(duì)的不確定性問題新增速度遠(yuǎn)超其他技術(shù),必然要求以一種更為敏捷的方式對(duì)技術(shù)研發(fā)與社會(huì)應(yīng)用進(jìn)行合理的風(fēng)險(xiǎn)決策。然而,完全依賴實(shí)體法的法律保障模式很難實(shí)現(xiàn)這個(gè)敏捷治理目標(biāo),因?yàn)榫唧w、明確、可操作的實(shí)體法制定過程必然是相對(duì)緩慢與滯后的。而且這種試圖將人工智能倫理完全交由實(shí)體法保障的思路,實(shí)際上是要求立法機(jī)構(gòu)和政府以極快的速度進(jìn)行法律變革,這在給立法機(jī)構(gòu)和政府帶來巨大的政治決策負(fù)擔(dān)的同時(shí),也會(huì)進(jìn)一步加劇“守法”與“變法”之間的緊張關(guān)系。畢竟立法機(jī)構(gòu)和政府一方面需要不斷針對(duì)人工智能的新技術(shù)與新應(yīng)用作出明確、具體的政治決策,另一方面還要判斷既有的實(shí)體法是否會(huì)阻礙人工智能的技術(shù)迭代與應(yīng)用創(chuàng)新,并進(jìn)行實(shí)體法的更新。而人們也需要不斷關(guān)注著新的實(shí)體法出臺(tái)與舊的實(shí)體法廢除,并為法律快速變革而產(chǎn)生的低預(yù)期性而感到擔(dān)憂。此時(shí),敏捷治理目標(biāo)反而成了政治系統(tǒng)侵入法律系統(tǒng)的正當(dāng)理由。此外,結(jié)合當(dāng)下這種將人工智能倫理等同于尋找絕對(duì)性、實(shí)體性道德規(guī)范而忽略倫理對(duì)溝通過程的強(qiáng)調(diào)的倫理現(xiàn)狀,追求敏捷治理的實(shí)體性法律保障只會(huì)進(jìn)一步忽略人工智能倫理的溝通過程,甚至有可能為政治決策侵入倫理溝通打開通道。因此,為了滿足人工智能風(fēng)險(xiǎn)的敏捷治理需求,同時(shí)也為了避免追求敏捷治理而誘發(fā)政治無序擴(kuò)張,法律保障必須依賴程序正義與形式理性保障倫理學(xué)所強(qiáng)調(diào)的溝通過程?!具@種法治思路的理想模型便是圖依布納提出的反思型法,其是一種針對(duì)諾內(nèi)特和塞爾茲尼克提出的回應(yīng)型法,并基于“實(shí)質(zhì)理性”和“反思理性”概念提出的法律范式。參見季衛(wèi)東:《社會(huì)變革的法律模式(代譯序)》,載[美]諾內(nèi)特、塞爾茲尼克:《轉(zhuǎn)變中的法律與社會(huì)——邁向回應(yīng)型法》,張志銘譯,中國(guó)政法大學(xué)出版社1994年版,代譯序第7頁(yè)?!孔⒅爻绦蛘x的法治不同于當(dāng)下法治思路最根本的地方在于,其并不妄圖通過實(shí)體法的快速制定跟上人工智能的創(chuàng)新速度,而是通過法律程序來改善法律與社會(huì)的結(jié)構(gòu)性銜接方式、增強(qiáng)利益相關(guān)方在正當(dāng)程序保障下協(xié)商溝通的交涉力,以此充分利用和加強(qiáng)社會(huì)彈性來緩解“守法”與“變法”之間的緊張關(guān)系。在這種法治思想中,人工智能倫理原則并非一種體現(xiàn)實(shí)質(zhì)理性的目標(biāo)價(jià)值,而是一種凸顯反思理性的程序要求。此時(shí),人工智能倫理原則并非作為一種絕對(duì)正確的價(jià)值理念,而是作為一種先決性的論辯規(guī)則引導(dǎo)人們作出可以互相理解且可預(yù)期的反思性溝通。因此,法律對(duì)人工智能倫理原則的落實(shí)需要通過法律程序的制定與正當(dāng)程序的保障來擴(kuò)大用于評(píng)價(jià)決策合理性的道德規(guī)范的替代性選擇范圍,而不再是預(yù)先為不同場(chǎng)景下不同群體評(píng)價(jià)決策合理性作出絕對(duì)性的終局判斷。如此,法律通過增加彈性的方式避免了與創(chuàng)新的競(jìng)速。

    綜上,在澄清了當(dāng)下人工智能倫理的現(xiàn)狀根源以及明確了人工智能風(fēng)險(xiǎn)治理中倫理先行與法律保障之間的關(guān)系后,實(shí)體性法律的局限性和法律程序的重要意義也得以揭示。那進(jìn)一步的問題就是,如何以正當(dāng)程序?yàn)樵瓌t,設(shè)計(jì)保障人工智能倫理的法律程序機(jī)制。

    四、人工智能倫理的雙重程序保障機(jī)制

    2007年,希特倫教授便基于正當(dāng)程序原則提出了以“技術(shù)性正當(dāng)程序”治理人工智能風(fēng)險(xiǎn)的觀點(diǎn),其強(qiáng)調(diào)了要優(yōu)化計(jì)算機(jī)程序的設(shè)計(jì)來提高人工智能的透明性和可問責(zé)性?!緞|亮:《正當(dāng)程序的法理:法律和社會(huì)科學(xué)多視角的分析》,法律出版社2022年版,第163頁(yè)?!课覈?guó)學(xué)者也據(jù)此進(jìn)一步從“排除偏見、聽取意見和說明理由”三個(gè)角度進(jìn)一步對(duì)技術(shù)性正當(dāng)程序進(jìn)行了展開說明?!緟⒁娮ⅰ?7〕,第164~175頁(yè)?!咳欢壳暗募夹g(shù)性正當(dāng)程序觀點(diǎn)仍然沒有結(jié)合人工智能風(fēng)險(xiǎn)治理的不同階段展開論述,更缺乏對(duì)將算法程序設(shè)計(jì)與法律正當(dāng)程序相融合的人工智能內(nèi)在倫理進(jìn)行專門闡述。在此,本文將結(jié)合人工智能的不同倫理類型去構(gòu)建正當(dāng)程序的體系性機(jī)制,并著重對(duì)如何結(jié)合算法程序和法律程序共同保障人工智能的內(nèi)在倫理展開論述。

    (一)適應(yīng)人工智能倫理結(jié)構(gòu)的正當(dāng)程序機(jī)制

    為了應(yīng)對(duì)人工智能風(fēng)險(xiǎn)治理在技術(shù)研發(fā)階段、社會(huì)應(yīng)用的應(yīng)用者決策階段和社會(huì)應(yīng)用的自動(dòng)化決策階段,所面臨的不同道德規(guī)范不確定性問題,人工智能倫理可分為針對(duì)技術(shù)研發(fā)者的技術(shù)研發(fā)倫理、針對(duì)應(yīng)用者與利益相關(guān)者的人工智能應(yīng)用外在倫理和針對(duì)人工智能系統(tǒng)與具體場(chǎng)景利益相關(guān)者的人工智能內(nèi)在倫理。而結(jié)合正當(dāng)程序原則在不同倫理之下的表現(xiàn)形式,本文將把既有的、廣義的技術(shù)性正當(dāng)程序拆解為:保障人工智能技術(shù)研發(fā)倫理的狹義技術(shù)性正當(dāng)程序、保障人工智能應(yīng)用外在倫理的算法論證程序和保障人工智能應(yīng)用內(nèi)在倫理的嵌入式正當(dāng)程序(見圖2)。

    “狹義的技術(shù)性正當(dāng)程序”剔除了有關(guān)社會(huì)應(yīng)用層面的倫理問題,而將目光聚焦于技術(shù)研發(fā)人員之間針對(duì)人工智能工具性價(jià)值的溝通與論辯過程,要求技術(shù)研發(fā)者在作出相應(yīng)的技術(shù)決策時(shí)作出可使其他技術(shù)研發(fā)者理解與認(rèn)可的人類間溝通。狹義的技術(shù)性正當(dāng)程序目前在許多科技企業(yè)的倫理委員會(huì)中有推進(jìn),多個(gè)科技企業(yè)的倫理委員會(huì)發(fā)布了相應(yīng)的AI倫理認(rèn)證標(biāo)準(zhǔn)、風(fēng)險(xiǎn)管理框架和測(cè)試工具包?!八惴ㄕ撟C程序”(Algorithmic Argumentation Procedure)是指,算法應(yīng)用主體按照特定標(biāo)準(zhǔn)和條件整理利益相關(guān)方通過一定順序、方式和步驟得出的意見后,對(duì)其算法應(yīng)用的決定(即選擇某項(xiàng)數(shù)據(jù)處理或代碼構(gòu)建的邏輯規(guī)則作為決策規(guī)則嵌入特定社會(huì)領(lǐng)域)作出可使利益相關(guān)方理解與認(rèn)可的溝通過程。之所以引用“法律論證程序”的概念來定義算法論證程序,是因?yàn)槿斯ぶ悄軕?yīng)用的擬主體性主要體現(xiàn)為一種算法的社會(huì)嵌入過程。而這種算法的社會(huì)嵌入與法律的社會(huì)適用有著功能上的相似性?!霸诠δ軐用嫔?,算法與法律都是由一系列規(guī)則組成,而這些規(guī)則都是為了管理某些操作,如法律管理人的交互操作、算法管理計(jì)算機(jī)的交互操作?!薄網(wǎng)illiam Li amp; Pablo Azar et al.,Law Is Code:A Software Engineering Approach to Analyzing the United States Code,Journal of Business and Technology Law,Vol.2015(10),p.306.】例如,算法規(guī)定了計(jì)算機(jī)在接收到某種數(shù)據(jù)輸入后得出某種數(shù)據(jù)輸出的規(guī)則,法律規(guī)定了特定人(除了自然人,也包括法人、國(guó)家等擬制人)在某種環(huán)境或行為輸入后輸出特定權(quán)力或權(quán)利的規(guī)則。此時(shí),人工智能的社會(huì)應(yīng)用決策與法律適用決策均是特定主體決定將自成一體的邏輯規(guī)則嵌入社會(huì)并對(duì)利益相關(guān)者產(chǎn)生強(qiáng)制力的規(guī)范性過程。因此,法律程序?qū)Ψ蛇m用中溝通過程保障機(jī)制便可以引入人工智能的應(yīng)用者決策階段。對(duì)此,已有論文對(duì)這一概念的定義與正當(dāng)性進(jìn)行論述,在此不再贅述?!緟⒁娳w澤睿:《算法論證程序的意義——對(duì)法律規(guī)制算法的另一種思考》,載《中國(guó)政法大學(xué)學(xué)報(bào)》2023年第1期?!?/p>

    而本文想要著重討論的,也是最需要結(jié)合法律程序與算法程序來共同實(shí)現(xiàn)正當(dāng)程序原則的,便是針對(duì)人工智能內(nèi)在倫理的“嵌入式正當(dāng)程序”。嵌入式正當(dāng)程序的特殊之處在于要讓人工智能系統(tǒng)作為主體參與到風(fēng)險(xiǎn)決策合理性評(píng)價(jià)的溝通過程之中。因此,只有將法律程序與算法程序【本文所指的算法程序(Algorithmic Programs)是指在軟件工程學(xué)視角下“為了實(shí)現(xiàn)某一功能目標(biāo)對(duì)一組數(shù)據(jù)進(jìn)行處理的邏輯規(guī)則”。See Tarleton Gillespie,The Relevance of Algorithms,in Pablo J. Boczkowski,and Kirsten A.Foot et al.,Media Technologies:Essays on Communication,Materiality,and Society,The MIT Press,2014,p.167.】相互交融才能實(shí)現(xiàn)人工智能的內(nèi)在倫理,即讓人工智能作為主體與特定場(chǎng)景下的利益相關(guān)者共同解決道德規(guī)范的不確定性問題。為了論述嵌入式正當(dāng)程序如何有機(jī)聯(lián)系兩個(gè)不同學(xué)科的既有成果,更清晰、簡(jiǎn)明地闡述法律程序與算法程序的交融方式,本文將分別從算法程序保障人工智能內(nèi)在倫理的五個(gè)功能目標(biāo)和法律程序保障人工智能內(nèi)在倫理的四項(xiàng)基本原則進(jìn)行闡述。雖然因文字表達(dá)的局限性而不得不將二者分開闡述,但應(yīng)當(dāng)注意到二者的融合才是嵌入式正當(dāng)程序。

    (二)人工智能內(nèi)在倫理的算法程序保障機(jī)制

    根據(jù)上文所述,人工智能的內(nèi)在倫理,要求人工智能作為能夠認(rèn)知道德規(guī)范的主體,與利益相關(guān)者進(jìn)行持續(xù)性的溝通論辯以應(yīng)對(duì)擬主體性帶來的道德規(guī)范不確定性。按照軟件工程學(xué)的算法程序設(shè)計(jì)思路,本文將這種法律正當(dāng)程序的四項(xiàng)原則(下節(jié)闡述)分解為五個(gè)具體的算法功能目標(biāo):其一,要讓人工智能識(shí)別道德規(guī)范;其二,要能夠通過人機(jī)溝通實(shí)時(shí)更新與修正道德規(guī)范;其三,要能夠解決道德規(guī)范的矛盾與沖突;其四,要能夠以計(jì)算的方式執(zhí)行道德規(guī)范;其五,要能夠在執(zhí)行后基于人機(jī)溝通讓他人理解其行為或決策。

    第一個(gè)功能目標(biāo)涉及道德規(guī)范的識(shí)別方式,算法程序應(yīng)當(dāng)通過收集特定社區(qū)或特定場(chǎng)景下的溝通與交互數(shù)據(jù)進(jìn)行識(shí)別。這是因?yàn)榈赖乱?guī)范往往體現(xiàn)在人們?nèi)粘=煌男袨椤⒄Z(yǔ)言、習(xí)俗和文化符號(hào)之中。最重要的是,不同社區(qū)遵循的道德規(guī)范有不同程度的差別。因此,尋找并輸入一組適用于所有場(chǎng)景的通用道德規(guī)范是不現(xiàn)實(shí)的?!綧iller et al.,This “Ethical Trap”Is for Roboticists,Not Robots:On the Issue of Artificial Agent Ethical Decision-Making,Science and Engineering Ethics,Vol.2017(23),p.389-401.】然而,既有研究表明,基于溝通與交互行為數(shù)據(jù),暫時(shí)性地確定某一社區(qū)廣泛遵守的道德規(guī)范卻是可行的?!綧alle amp; B.F.,Integrating Robot Ethics and Machine Morality:The Study and Design of Moral Competence in Robots,Ethics and Information Technology,Vol.2016(18),p.243-256.】在此,軟件工程學(xué)需要將運(yùn)用多個(gè)學(xué)科的實(shí)證研究方法,并將其編碼程序化。這些基于實(shí)證研究方法的算法程序能夠依靠道德規(guī)范在溝通與交互行為中的語(yǔ)境專一性,處理和存儲(chǔ)反映特定社區(qū)成員道德觀的行為、語(yǔ)言、文化符號(hào)等數(shù)據(jù),并且提煉這些數(shù)據(jù)背后的道德規(guī)范范式。例如,一些軟件工程師專門研發(fā)了讓道德規(guī)范能被計(jì)算機(jī)識(shí)別的價(jià)值敏感設(shè)計(jì)以及三個(gè)示例應(yīng)用程序?!綧ackie et al.,What Are Social Norms?How Are They Measured?University of California at San Diego:UNICEF,2012,p.43.】也有學(xué)者基于實(shí)證研究開發(fā)出了能夠?qū)崟r(shí)調(diào)查和記錄金融服務(wù)行業(yè)的相關(guān)協(xié)商行為數(shù)據(jù),并從中提煉出金融顧問、領(lǐng)導(dǎo)和服務(wù)客戶之間的商業(yè)習(xí)慣和行業(yè)規(guī)范的程序性方案?!綛urks,S.V. amp; E.L.Krupka,A Multimethod Approach to Identifying Norms and Normative Expectations within a Corporate Hierarchy:Evidence from the Financial Services Industry,Management Science Vol.2012(58),p.203-217.】這意味著,基于人們的溝通與交互數(shù)據(jù),設(shè)計(jì)一套識(shí)別特定場(chǎng)景或特定社區(qū)中道德規(guī)范的算法程序是可行的。

    第二個(gè)功能目標(biāo)要求算法程序必須保證這種提煉道德規(guī)范的過程是即時(shí)性與可修正的。由于道德規(guī)范會(huì)隨著時(shí)間而動(dòng)態(tài)變化,算法程序應(yīng)當(dāng)引入一些機(jī)制來保持更新其系統(tǒng)內(nèi)的可計(jì)算道德規(guī)范范式(以下簡(jiǎn)稱“基線規(guī)范”)。如算法程序必須處理目標(biāo)人群的行為趨勢(shì),并將其與基線規(guī)范系統(tǒng)預(yù)測(cè)的行為趨勢(shì)進(jìn)行比較。當(dāng)二者比較的差異值超過臨界閾值時(shí),這代表著基線規(guī)范已經(jīng)出現(xiàn)了不確定性,就需要設(shè)計(jì)相應(yīng)的正當(dāng)程序來獲取社區(qū)成員的指示與建議。在算法程序根據(jù)指示和建議作出響應(yīng)后,更新基線規(guī)范,并及時(shí)告知社區(qū)成員。當(dāng)然,這種基線規(guī)范的修改可以發(fā)生在任何級(jí)別上:它可能涉及改變個(gè)別規(guī)范之間的優(yōu)先級(jí)權(quán)重,可能是改變規(guī)范的定性表達(dá),或改變使規(guī)范生效的定量參數(shù)。當(dāng)然,這種基線規(guī)范的更改必須是透明的,即當(dāng)算法程序向其基線規(guī)范中添加新規(guī)范或調(diào)整現(xiàn)有規(guī)范的優(yōu)先級(jí)或內(nèi)容時(shí),應(yīng)該明確說明。具體的通知形式將根據(jù)特定場(chǎng)景的人工智能復(fù)雜程度和功能而有所不同。在某些情況下,算法程序需要記錄其動(dòng)態(tài)變化,用戶可以根據(jù)需要查閱該變化記錄;在其他情況下,明確宣布變革和要求討論可能更為適當(dāng);在特定情況下,算法程序可能會(huì)提出更改請(qǐng)求,而相關(guān)的機(jī)構(gòu)或群體決定是否應(yīng)在人工智能系統(tǒng)中實(shí)施這些更改。

    第三個(gè)功能目標(biāo)涉及算法程序如何幫助人工智能解決道德沖突問題。通常,當(dāng)給出了一個(gè)具體明確的背景條件,卻沒有任何決策或行動(dòng)可以滿足該背景下所有的道德規(guī)范時(shí),被稱為道德沖突或道德過載。【J.Van den Hoven,Engineering and the Problem of Moral Overload,Science and Engineering Ethics,Vol.2012(18),p.143-155.】此時(shí),若缺乏嵌入式正當(dāng)程序的設(shè)計(jì),人工智能系統(tǒng)就不得不直接停止運(yùn)行,并以邏輯矛盾而結(jié)束。此時(shí),算法程序必須通過人機(jī)交互界面讓利益相關(guān)者對(duì)相互沖突的道德規(guī)范進(jìn)行優(yōu)先級(jí)排序,以此確定相沖突的道德規(guī)范的等級(jí)關(guān)系。雖然這種算法程序難以找到一個(gè)普遍適用所有場(chǎng)景的優(yōu)先級(jí)排序,但在對(duì)這種道德規(guī)范的優(yōu)先級(jí)排序的溝通與權(quán)衡過程中卻依舊存在著一些普遍追求的程序性原則,如少數(shù)服從多數(shù)、公共權(quán)衡優(yōu)先私人權(quán)衡等?!続ndre,C. amp; M.Velasquez,The Common Good,Issues in Ethics,Vol.1991(5),p.1.】這些優(yōu)先級(jí)原則可以由算法程序提前明確,而其他具體的優(yōu)先關(guān)系也需要依賴對(duì)溝通權(quán)衡行為的實(shí)證研究方法的編碼程序化來建立,以此反映不同社區(qū)或場(chǎng)景下的共同價(jià)值觀?!続bel et al.,Reinforcement Learning as a Framework for Ethical Decision Making,AAAI Workshop AI,Ethics,and Society,Volume WS-16-02 of 13th AAAI Workshops. Palo Alto,AAAI Press,2016.】當(dāng)然,在許多情況下,優(yōu)先級(jí)排序不是作為固定的等級(jí)制度建立的,因?yàn)閮?yōu)先次序本身是針對(duì)具體環(huán)境的,或者可能產(chǎn)生于手頭特定案例的凈道德成本和收益。算法程序必須有學(xué)習(xí)能力來跟蹤這種變化,并將用戶的輸入納入其中,以完善系統(tǒng)的基線規(guī)范?!綜ushman et al.,Moral Learning,Cognition,Vol.2017(167),p.1-282.】

    在算法程序能夠?qū)崟r(shí)性地識(shí)別特定場(chǎng)景下的道德規(guī)范,并獲得其優(yōu)先級(jí)結(jié)構(gòu)后,其第四個(gè)功能目標(biāo)便是將這些道德規(guī)范與人工智能系統(tǒng)的功能聯(lián)系起來,讓人工智能能夠以計(jì)算的方式執(zhí)行這些道德規(guī)范。對(duì)此,實(shí)際上已經(jīng)有許多計(jì)算機(jī)科學(xué)家開發(fā)了人工智能的道德規(guī)范執(zhí)行方式?!網(wǎng)allach,W. amp; C.Allen., Moral Machines,Teaching Robots Right from Wrong,Oxford University Press,2008,p.1-12.】這些多種多樣的執(zhí)行方式可以分為兩種主要類型:一種是自上而下的方法,算法程序?qū)θ斯ぶ悄艿奶囟ɑ顒?dòng)進(jìn)行符號(hào)化表示,并根據(jù)其基線規(guī)范將具體的系統(tǒng)狀態(tài)、決策和行為的可行選擇確定為道德或非道德;【Dennis et al.,F(xiàn)ormal Verification of Ethical Choices in Autonomous Systems,Robotics and Autonomous Systems Vol.2016(77),p.1-14.】另一種是自下而上的方法,算法程序并不會(huì)直接將其識(shí)別到的道德規(guī)范當(dāng)作其判斷決策與行為是否道德的實(shí)質(zhì)標(biāo)準(zhǔn),而是作為一種用于學(xué)習(xí)的經(jīng)驗(yàn)數(shù)據(jù),從而建立起一種道德規(guī)范的隱性概念?!続nderson et al.,A General Ethical Dilemma Analyzer,Proceedings of the Twenty-Eighth AAAI Conference on Artificial Intelligence,2014,p.253-261.】這兩種執(zhí)行路徑的典例,分別是制定人工智能決策和行為的明確符號(hào)表示清單,以及用可接受的道德決策或行為數(shù)據(jù)訓(xùn)練符號(hào)機(jī)制的機(jī)器學(xué)習(xí)系統(tǒng)?!綬iedl,M.O. amp; B.Harrison,Using Stories to Teach Human Values to Artificial Agents,Proceedings of the 2nd International Workshop on AI,Ethics and Society,Phoenix,Arizona,2016,p.1.】當(dāng)下許多機(jī)構(gòu)建立道德機(jī)器的實(shí)驗(yàn)方法都是自上而下的,也就是說,通過算法程序識(shí)別出的道德規(guī)范被直接用來評(píng)估人工智能不同決策或行為路線的可接受性,或者作為道德標(biāo)準(zhǔn)或目標(biāo)來實(shí)現(xiàn)。機(jī)器學(xué)習(xí)和感知方面的最新突破使得研究人員能夠探索自下而上的方法,這種機(jī)器學(xué)習(xí)其環(huán)境和人類規(guī)范的模式,類似于一個(gè)孩子慢慢學(xué)習(xí)哪些行為形式是安全和可接受的。然而,要注意的是,上述兩種方法都有明顯的局限性,比如,自上而下方式的學(xué)習(xí)和適應(yīng)能力不足,自下而上方式的學(xué)習(xí)行為又完全不受人類約束。因此,通過引入人機(jī)溝通將自上而下與自下而上的兩種方式混合成了最有潛力的方案。例如,人工智能的決策或行動(dòng)選擇可能是由一個(gè)機(jī)器學(xué)習(xí)的符號(hào)系統(tǒng)進(jìn)行的,但這個(gè)選擇在被調(diào)用之前必須由一個(gè)符號(hào)“網(wǎng)關(guān)”代理檢查。這個(gè)網(wǎng)關(guān)由人類擔(dān)任,其負(fù)責(zé)監(jiān)測(cè)、限制甚至調(diào)整系統(tǒng)提出的某些不可接受的決策或行為?!続rkin,R,Governing Lethal Behavior:Embedding Ethics in a Hybrid Deliberative/ Reactive Robot Architecture,Proceedings of the 2008 Conference on Human-Robot Interaction,2008,p.121-128.】

    在人工智能基于算法程序識(shí)別并執(zhí)行道德規(guī)范后,人工智能倫理嵌入的第五個(gè)功能目標(biāo)便是基于人機(jī)溝通讓利益相關(guān)者理解其行為或決策。尤其是對(duì)于道德上具有重大意義的行為或不行為,追求倫理嵌入的算法程序應(yīng)該能夠讓人工智能根據(jù)利益相關(guān)者的要求向其解釋自己的思考過程?!網(wǎng)achter et al.,Transparent,Explainable,and Accountable AI for Robotics,Science Robotics,Vol.2017(2).p.6080.】甚至可以說,人工智能向利益相關(guān)者解釋其思考的人機(jī)溝通過程決定了人們對(duì)其的信任度?!綠rodzinsky et al.,Developing Artificial Agents Worthy of Trust:Would You Buy a Used Car from This Artificial Agent?,Ethics and Information Technology,Vol.2011(13),p.17-27.】此外,上述四個(gè)功能目標(biāo)只有結(jié)合最后這個(gè)功能目標(biāo),才能把人工智能作為特定社區(qū)或特定場(chǎng)景下的倫理主體,共同參與道德規(guī)范的動(dòng)態(tài)性反思溝通。需要注意的是,倫理嵌入所要求的可理解性并非技術(shù)意義上的可解釋性或透明度,因?yàn)樗惴ǔ绦虿皇且屓斯ぶ悄芄_其技術(shù)細(xì)節(jié),而是要用普通人類的邏輯和推理水平進(jìn)行一個(gè)決策或行為的論證?!綯intarev,N. amp; R.Kutlak,Demo:Making Plans Scrutable with Argumentation and Natural Language Generation,Proceedings of the Companion Publication of the 19th International Conference on Intelligent User Interfaces,2014,p.29-32.】為了達(dá)到這種可理解性的功能目標(biāo),計(jì)算科學(xué)家先后設(shè)計(jì)了可追溯性、可驗(yàn)證性、非欺騙性和人機(jī)溝通質(zhì)量評(píng)估四項(xiàng)要素。可追溯性是指算法程序應(yīng)當(dāng)能夠向利益相關(guān)者指出人工智能決策或行為所最初依據(jù)的基線規(guī)范,以及其對(duì)不同道德規(guī)范給予的優(yōu)先級(jí)結(jié)構(gòu)。這種可追溯性反過來也校對(duì)了人工智能是否符號(hào)其應(yīng)用環(huán)境中相關(guān)的道德規(guī)范?!綟leischmann,K.R. amp; W.A.Wallace,A Covenant with Transparency:Opening the Black Box of Models,Communications of the ACM,Vol.2005(48),p.93-97.】可驗(yàn)證性,則事關(guān)向人類展示人工智能對(duì)道德規(guī)范的執(zhí)行程度,例如基于數(shù)學(xué)的形式驗(yàn)證【Fisher et al.,Verifying Autonomous Systems,Communications of the ACM,Vol.2013(56),p.84-93.】,或嚴(yán)格記錄人工智能進(jìn)行倫理推理的日志。非欺騙性或誠(chéng)實(shí)性則要求算法程序嚴(yán)格保證人工智能與人類進(jìn)行誠(chéng)實(shí)溝通。例如,有學(xué)者提出,人工智能系統(tǒng)的物理外觀設(shè)計(jì)應(yīng)當(dāng)準(zhǔn)確地代表其系統(tǒng)的功能與能力,有真正處理聲學(xué)信息的系統(tǒng)必須帶有耳朵造型,有真正處理視覺信息的系統(tǒng)必須帶有眼睛造型。當(dāng)然,在應(yīng)用場(chǎng)景中,人工智能基于實(shí)現(xiàn)應(yīng)用目標(biāo)而必須具備欺騙功能時(shí)(例如,與人類進(jìn)行撲克等博弈游戲的人工智能),這種欺騙也必須經(jīng)過利益相關(guān)者的事前明確同意。人機(jī)溝通質(zhì)量評(píng)估則要求算法程序必須捕捉到人機(jī)交互的量化因素、人類對(duì)人工智能的認(rèn)可或贊賞因素、人工智能對(duì)人類的適應(yīng)性因素等。理論上,所有這些方法都可以應(yīng)用于加強(qiáng)人機(jī)溝通可理解性的算法程序之中。

    (三)人工智能內(nèi)在倫理的法律程序正當(dāng)化機(jī)制

    “現(xiàn)代法律程序堅(jiān)持四項(xiàng)基本原則,即中立性、條件優(yōu)勢(shì)、合理化和正當(dāng)程序?!薄就ⅰ?5〕,第37頁(yè)?!吭谟懻撏晁惴ǔ绦蛉绾瓮ㄟ^五個(gè)功能目標(biāo)來保障人工智能的內(nèi)在倫理后,本文將結(jié)合法律程序的四個(gè)基本原則,論述法律程序如何融入算法程序的設(shè)計(jì)之中來共同實(shí)現(xiàn)嵌入式正當(dāng)程序。

    中立性原則是法律程序的基礎(chǔ),在人類主體間,其體現(xiàn)為“雙方具有同等的發(fā)言機(jī)會(huì),任何主張和判斷都必須以事實(shí)為根據(jù)、以法律為準(zhǔn)繩進(jìn)行嚴(yán)格的理由論證,同一條件下不允許出現(xiàn)不同的結(jié)果等”【同注〔25〕,第38頁(yè)。】。為了將這種原則落實(shí)在倫理嵌入的算法程序之中,法律需要針對(duì)五個(gè)功能目標(biāo)設(shè)計(jì)相關(guān)制度進(jìn)行保障。首先是人工智能對(duì)道德規(guī)范的識(shí)別功能,法律需要保障算法程序所識(shí)別的道德規(guī)范,不僅具有特定場(chǎng)景中占主導(dǎo)地位的群體的代表性,而且也必須具有弱勢(shì)和代表性不足的群體的代表性。其次是人工智能對(duì)基線規(guī)范的修改與更正功能,法律應(yīng)當(dāng)保障利益相關(guān)者具有同等的溝通機(jī)會(huì),這方面包括算法程序向各方利益相關(guān)者提供同樣完備的相關(guān)信息,并保障各方利益相關(guān)者的反饋意見與行為在基準(zhǔn)規(guī)范的修正上具有同等的權(quán)重;最后是人工智能解決道德沖突時(shí)的利益權(quán)衡與優(yōu)先級(jí)結(jié)構(gòu),法律需要保障算法程序?qū)鏅?quán)衡時(shí)的權(quán)重設(shè)置符合特定場(chǎng)景下的群體共識(shí),優(yōu)先級(jí)結(jié)構(gòu)也應(yīng)當(dāng)是收集了各方利益相關(guān)者的相關(guān)價(jià)值取向后公開制定的。在人工智能的道德規(guī)范執(zhí)行層面,法律需要保障自上而下的符號(hào)化表示機(jī)制要經(jīng)過以既有社會(huì)規(guī)范為基準(zhǔn)的理由論證,自下而上的機(jī)器學(xué)習(xí)機(jī)制要保障用于學(xué)習(xí)的樣本數(shù)據(jù)經(jīng)過各方利益相關(guān)者的普遍認(rèn)可。而對(duì)于人工智能決策或行為的可理解性方面,法律需要保障算法程序塑造的人機(jī)溝通是面向所有群體的。例如,針對(duì)未成年人、老人、智力障礙等弱勢(shì)人群專門設(shè)置相應(yīng)的人機(jī)交互界面來保障他們對(duì)人工智能決策與行為的可理解性。此外,現(xiàn)有法律對(duì)決定者的資格認(rèn)定制度、公開聽證制度等,也為法律創(chuàng)設(shè)人工智能系統(tǒng)的自主決定資格評(píng)估制度、個(gè)性化自動(dòng)決策的公開聽證制度等提供了有意義的參考。

    “條件優(yōu)勢(shì)是法律程序,尤其是審判程序的基本活動(dòng)方式,它意味著決定按照‘如果甲,那么乙’的思維形式進(jìn)行。這種程序的特點(diǎn)有如下長(zhǎng)處:第一,能與復(fù)雜的、不斷變動(dòng)的社會(huì)環(huán)境保持適當(dāng)?shù)膶?duì)應(yīng)關(guān)系;第二,為法治變革網(wǎng)開一面,為其他社會(huì)制度的變革穿針引線;第三,可以進(jìn)行技術(shù)處理,在極端的場(chǎng)合甚至通過邏輯的計(jì)算進(jìn)行自動(dòng)化處理;第四,減輕對(duì)法律實(shí)踐的體驗(yàn)進(jìn)行加工方面的壓力,進(jìn)而減輕決定者對(duì)后果的過分負(fù)擔(dān);第五,減輕上傳下達(dá)與監(jiān)督檢查方面的負(fù)擔(dān)??傊瑮l件優(yōu)勢(shì)原則可以使程序的形式具有更大的容量?!薄就ⅰ?5〕,第38~39頁(yè)?!繉?shí)際上,本文將人工智能倫理的溝通反思過程由算法程序嵌入人工智能系統(tǒng)的主張恰恰反映了法律程序的條件優(yōu)勢(shì)思想。算法程序的基本編程思路便是由“IF THEN”條件語(yǔ)句【條件語(yǔ)句指“如果滿足某個(gè)條件,則執(zhí)行子程序A;如果不滿足該條件,則執(zhí)行另一個(gè)子程序B”。】構(gòu)成,這種編程思路完全符合法律程序的條件優(yōu)勢(shì)原則。當(dāng)然,條件優(yōu)勢(shì)原則反映在算法程序的五個(gè)功能目標(biāo)中則具體體現(xiàn)為:人工智能通過識(shí)別人類道德規(guī)范得出的基線規(guī)范應(yīng)當(dāng)盡可能以人機(jī)均可理解的條件語(yǔ)句進(jìn)行表達(dá),減少絕對(duì)性的“必須如何”的句式;算法程序?qū)€規(guī)范的更改與修正也應(yīng)當(dāng)保持其條件語(yǔ)句的表達(dá)方式;在算法程序執(zhí)行基線規(guī)范時(shí),自下而上與自上而下得出的符號(hào)表示機(jī)制也應(yīng)當(dāng)盡量以條件語(yǔ)句表達(dá);在算法程序評(píng)估人工智能的人機(jī)溝通質(zhì)量時(shí),條件語(yǔ)句或非條件語(yǔ)句的使用頻率應(yīng)當(dāng)成為評(píng)估時(shí)的積極或消極因素。

    “合理化的原則要求把理性和經(jīng)驗(yàn)結(jié)合起來,是程序效率的保障。它要求程序的安排能使阻礙和浪費(fèi)最小化、效果和支持最大化。同時(shí),合理化也意味著要對(duì)決定的動(dòng)機(jī)和根據(jù)給予一個(gè)最適當(dāng)?shù)睦碛烧f明,使之得到社會(huì)承認(rèn)?!薄就ⅰ?5〕,第39頁(yè)?!吭谌斯ぶ悄軅惱砬度氲乃惴ǔ绦蚍矫?,合理化原則要求算法程序不得完全依賴特定群體的理性設(shè)計(jì)或完全依賴經(jīng)驗(yàn)數(shù)據(jù)的機(jī)器學(xué)習(xí)。這意味著在算法程序識(shí)別道德規(guī)范、更正基線規(guī)范和執(zhí)行基線規(guī)范時(shí),法律一方面要為人類理性地介入提供保障渠道,如立法機(jī)構(gòu)或政府可以基于理性論辯得出該地區(qū)人工智能系統(tǒng)必須遵守的最低道德規(guī)范以及強(qiáng)制性嵌入的更正渠道,一方面,也需要避免完全依賴?yán)硇栽O(shè)計(jì),為算法程序利用機(jī)器學(xué)習(xí)技術(shù)不斷學(xué)習(xí)社會(huì)經(jīng)驗(yàn)來高效、動(dòng)態(tài)地識(shí)別、更新和執(zhí)行道德規(guī)范提供合法空間。這才能使算法程序在引導(dǎo)人機(jī)進(jìn)行倫理反思的溝通經(jīng)驗(yàn)中得到合理發(fā)展,并促進(jìn)新的道德規(guī)范形成。此外,合理化原則也是算法程序追求可理解性的正當(dāng)性依據(jù),正是由于法律對(duì)合理化原則的明確要求,才能為計(jì)算科學(xué)家進(jìn)一步研究可追溯性、可驗(yàn)證性、非欺騙性和人機(jī)溝通質(zhì)量評(píng)估四項(xiàng)可理解性因素提供相應(yīng)的市場(chǎng)需求和政府激勵(lì)。

    “正當(dāng)程序作為現(xiàn)代法律程序的核心,其最低標(biāo)準(zhǔn)是:公民的權(quán)利義務(wù)將因?yàn)闆Q定而受到影響時(shí),在決定之前他必須有行使陳述權(quán)和知情權(quán)的公正的機(jī)會(huì)?!薄就ⅰ?5〕,第37頁(yè)?!烤唧w而言,法律對(duì)正當(dāng)程序原則的落實(shí)可以分為程序性正當(dāng)程序機(jī)制和實(shí)體性正當(dāng)程序機(jī)制?!就ⅰ?7〕,第21頁(yè)?!砍绦蛐哉?dāng)程序機(jī)制在人工智能倫理方面,更多體現(xiàn)為對(duì)倫理反思的論辯過程中設(shè)置答辯和推理證明的規(guī)則和義務(wù)。這意味著符合正當(dāng)程序的算法程序應(yīng)當(dāng)在人工智能識(shí)別道德規(guī)范、更正基線規(guī)范和解決道德沖突時(shí)必須明確告知利益相關(guān)者,并在執(zhí)行道德規(guī)范后能夠作出利益相關(guān)者可理解的解釋與說明。程序性正當(dāng)程序機(jī)制要求將“排除偏見、聽取意見和說明理由”三項(xiàng)核心要素落實(shí)到算法程序引導(dǎo)的整個(gè)倫理反思的溝通過程之中,這意味著法律需要設(shè)置一系列的技術(shù)標(biāo)準(zhǔn)、倫理評(píng)估和過程審查制度來保障算法程序的設(shè)計(jì)符合程序性正當(dāng)程序的要求?!皩?shí)體性正當(dāng)程序機(jī)制則同時(shí)是一種權(quán)力制約機(jī)制、權(quán)利保護(hù)機(jī)制和權(quán)利生成機(jī)制?!薄就ⅰ?7〕,第21頁(yè)?!科浜诵脑谟谕ㄟ^法律的明確規(guī)定,讓利益相關(guān)者能夠基于正當(dāng)程序條款限制人工智能研發(fā)者或應(yīng)用者對(duì)算法程序設(shè)計(jì)或應(yīng)用所享有權(quán)力,保護(hù)利益相關(guān)者在人工智能倫理反思過程中的知情權(quán)和陳述權(quán),生成圍繞人機(jī)溝通的一系列衍生權(quán)利。歐盟《通用數(shù)據(jù)保護(hù)條例》和我國(guó)《個(gè)人信息保護(hù)法》第24條賦予個(gè)人用戶在個(gè)人信息處理者通過自動(dòng)化決策作出的決定對(duì)個(gè)人權(quán)益有重大影響時(shí)享有請(qǐng)求說明權(quán)和拒絕權(quán),便是實(shí)體性正當(dāng)程序衍生相關(guān)權(quán)利的典例。而實(shí)體性正當(dāng)程序機(jī)制在人工智能倫理方面的應(yīng)用,也將是以倫理反思為功能目標(biāo)的算法程序具有可訴性的法律保障,更將是司法系統(tǒng)介入人工智能倫理反思進(jìn)行程序?qū)彶榈恼?dāng)性依據(jù)。

    五、結(jié)語(yǔ)

    “羅爾斯早在其第一部出版物《倫理學(xué)決定程序綱要》中便提出:要通過參照慎思的、設(shè)計(jì)妥當(dāng)?shù)某绦騺碚撟C實(shí)質(zhì)性道德原則?!薄就ⅰ?5〕,第165~166頁(yè)?!窟@意味著人工智能倫理的法律保障不能建立在人類能在類似自然法那樣的實(shí)質(zhì)價(jià)值上達(dá)成社會(huì)共識(shí)的前提預(yù)設(shè)之上,而是要秉持人類可以在追求理想商談條件的過程中逐漸逼近程序正義的信念,利用算法程序與法律程序的交融,引導(dǎo)人機(jī)對(duì)特定場(chǎng)景下的實(shí)質(zhì)性道德規(guī)范作出慎思、合理的風(fēng)險(xiǎn)決策溝通。這種聚焦于人機(jī)溝通程序正當(dāng)性的法治理念,一方面能夠塑造人工智能技術(shù)研發(fā)與社會(huì)應(yīng)用所需要的自由創(chuàng)新空間,另一方面更能在保持價(jià)值多元性和敏捷治理性的目標(biāo)之上達(dá)成人工智能風(fēng)險(xiǎn)治理的全球性共識(shí)。

    而在人工智能倫理的正當(dāng)化機(jī)制中,人工智能的內(nèi)在倫理保障需要將法律程序的中立性、條件優(yōu)勢(shì)、合理化和正當(dāng)程序四個(gè)基本原則融入算法程序的道德規(guī)范可識(shí)別、可更正、沖突可解決、可執(zhí)行和可理解的五個(gè)功能目標(biāo),并據(jù)此設(shè)計(jì)出能夠引導(dǎo)不同場(chǎng)景下利益相關(guān)者與人工智能系統(tǒng)共同對(duì)伴隨人工智能發(fā)展而必然出現(xiàn)的、針對(duì)用于評(píng)價(jià)決策合理性的道德規(guī)范不確定性問題進(jìn)行溝通論辯的嵌入式正當(dāng)程序。這種嵌入式正當(dāng)程序?qū)⑹侨斯ぶ悄芗夹g(shù)產(chǎn)業(yè)化的重要支撐,也將是人工智能風(fēng)險(xiǎn)治理的關(guān)鍵部分。

    Abstract: Risk governance of AI requires ethical first and legal safeguards. The focus on ethical first is to address the moral uncertainty raised by AI in its technological development and social applications. In general, AI ethics is a communication theory that is used to resolve the meaningful vein of decision-making risks, for which procedures and choice mechanisms to facilitate risk communication need to be provided first. However, the current AI risk governance has to a considerable extent confused the ethics of technology research with the ethics of social application, focusing only on substantive ethical principles and neglecting procedural ethical rules, leading to the dilemma that high standards of ethics but cannot be concretely implemented at the levels of law, policy, and monitoring. Only by focusing on procedural ethical rules, legal procedures and technical due procedure can we achieve the coexistence of multiple values and agile governance goals of AI risk governance. In this regard, the AI risk governance mechanism based on the principle of due procedure should set narrow technical due procedure, algorithmic argumentation procedure and embedded due procedure to safeguard the communication process based on different ethical types of AI with legal procedure and algorithmic programs.

    [責(zé)任編輯 郭 粹]

    国产成人影院久久av| 亚洲第一欧美日韩一区二区三区| 国产精品久久电影中文字幕| 女人爽到高潮嗷嗷叫在线视频| 麻豆成人av在线观看| 亚洲 国产 在线| 国产高清激情床上av| 国产精品二区激情视频| 丝袜人妻中文字幕| www.精华液| xxxhd国产人妻xxx| 9热在线视频观看99| 久久人人97超碰香蕉20202| 久久精品国产亚洲av香蕉五月| 久久久国产精品麻豆| 久久精品成人免费网站| 欧美丝袜亚洲另类 | 中文字幕色久视频| av国产精品久久久久影院| a级毛片黄视频| 97碰自拍视频| 天堂√8在线中文| 中文字幕人妻丝袜制服| 日韩一卡2卡3卡4卡2021年| 色尼玛亚洲综合影院| 久久精品国产综合久久久| 看黄色毛片网站| 亚洲精品在线美女| 亚洲成人国产一区在线观看| 性色av乱码一区二区三区2| 久久久久久久久久久久大奶| 中出人妻视频一区二区| 91精品国产国语对白视频| 色播在线永久视频| 国产成+人综合+亚洲专区| 丁香六月欧美| 色综合婷婷激情| 精品国产国语对白av| 免费日韩欧美在线观看| 欧美精品亚洲一区二区| 国产一区二区三区视频了| 老熟妇仑乱视频hdxx| 久久精品91蜜桃| 夜夜看夜夜爽夜夜摸 | 曰老女人黄片| 午夜久久久在线观看| 婷婷丁香在线五月| 成熟少妇高潮喷水视频| 多毛熟女@视频| av网站在线播放免费| 色综合欧美亚洲国产小说| av福利片在线| 日本一区二区免费在线视频| 精品无人区乱码1区二区| 久久久国产成人免费| 国产亚洲欧美98| 久久人人爽av亚洲精品天堂| 黑人巨大精品欧美一区二区mp4| 亚洲自拍偷在线| 欧美激情极品国产一区二区三区| 麻豆国产av国片精品| 级片在线观看| 一本综合久久免费| 亚洲伊人色综图| 国产午夜精品久久久久久| 男人的好看免费观看在线视频 | 久久久久国产精品人妻aⅴ院| 伊人久久大香线蕉亚洲五| 美女高潮喷水抽搐中文字幕| 日韩高清综合在线| 精品欧美一区二区三区在线| 免费日韩欧美在线观看| 午夜福利欧美成人| 亚洲黑人精品在线| 国产激情久久老熟女| 免费在线观看视频国产中文字幕亚洲| 新久久久久国产一级毛片| 99在线人妻在线中文字幕| 久久中文字幕人妻熟女| 中文欧美无线码| 国产区一区二久久| 黄色怎么调成土黄色| 老司机深夜福利视频在线观看| 在线十欧美十亚洲十日本专区| 欧美日韩瑟瑟在线播放| www.自偷自拍.com| 欧美日韩亚洲高清精品| 国产精品香港三级国产av潘金莲| 中文字幕人妻丝袜制服| 国产精品美女特级片免费视频播放器 | 午夜影院日韩av| 国产一卡二卡三卡精品| 亚洲国产精品一区二区三区在线| 国产亚洲欧美98| 亚洲 欧美一区二区三区| 亚洲欧美激情在线| 99热只有精品国产| 久久久久国内视频| 法律面前人人平等表现在哪些方面| 中文字幕精品免费在线观看视频| 久久国产精品男人的天堂亚洲| 成人亚洲精品一区在线观看| aaaaa片日本免费| 亚洲精品av麻豆狂野| 老司机亚洲免费影院| 成人国产一区最新在线观看| 日韩欧美三级三区| a在线观看视频网站| 欧美另类亚洲清纯唯美| 淫妇啪啪啪对白视频| 日韩大码丰满熟妇| 99久久久亚洲精品蜜臀av| 精品福利观看| 水蜜桃什么品种好| 欧美亚洲日本最大视频资源| 男人舔女人的私密视频| 新久久久久国产一级毛片| av欧美777| 日本精品一区二区三区蜜桃| 亚洲av日韩精品久久久久久密| 高清黄色对白视频在线免费看| 一级,二级,三级黄色视频| 香蕉国产在线看| 99久久国产精品久久久| 久久久久国产一级毛片高清牌| 多毛熟女@视频| 水蜜桃什么品种好| 亚洲精品美女久久久久99蜜臀| 嫁个100分男人电影在线观看| 国产成人啪精品午夜网站| 亚洲午夜精品一区,二区,三区| 搡老岳熟女国产| 亚洲国产精品一区二区三区在线| 日本vs欧美在线观看视频| 一级毛片高清免费大全| 91字幕亚洲| 日本 av在线| 90打野战视频偷拍视频| 夜夜爽天天搞| 精品熟女少妇八av免费久了| tocl精华| 午夜久久久在线观看| 制服人妻中文乱码| 18美女黄网站色大片免费观看| 亚洲成a人片在线一区二区| 9色porny在线观看| 丝袜美足系列| 不卡av一区二区三区| 激情视频va一区二区三区| 无遮挡黄片免费观看| 乱人伦中国视频| 国产xxxxx性猛交| 成人手机av| aaaaa片日本免费| 国产人伦9x9x在线观看| 搡老乐熟女国产| 真人做人爱边吃奶动态| 热99国产精品久久久久久7| 亚洲 欧美 日韩 在线 免费| 18禁观看日本| 美女午夜性视频免费| 老汉色av国产亚洲站长工具| 日本免费a在线| 三级毛片av免费| 色综合婷婷激情| 国产av在哪里看| 丝袜美腿诱惑在线| 亚洲avbb在线观看| 午夜两性在线视频| 亚洲精品美女久久久久99蜜臀| 人成视频在线观看免费观看| 免费久久久久久久精品成人欧美视频| 午夜视频精品福利| 欧美日韩乱码在线| 成人影院久久| 少妇粗大呻吟视频| 啦啦啦 在线观看视频| 黄色片一级片一级黄色片| 亚洲国产欧美网| 欧美av亚洲av综合av国产av| 日本a在线网址| 熟女少妇亚洲综合色aaa.| 国产精品免费视频内射| 亚洲久久久国产精品| 欧美人与性动交α欧美精品济南到| 啦啦啦在线免费观看视频4| www.自偷自拍.com| av网站免费在线观看视频| 国产人伦9x9x在线观看| 黄网站色视频无遮挡免费观看| 国产一卡二卡三卡精品| 欧美日韩一级在线毛片| 亚洲va日本ⅴa欧美va伊人久久| 国产xxxxx性猛交| 亚洲五月天丁香| 最新美女视频免费是黄的| 精品一区二区三区视频在线观看免费 | 国产成人系列免费观看| 别揉我奶头~嗯~啊~动态视频| 人成视频在线观看免费观看| 天堂√8在线中文| 亚洲成人国产一区在线观看| 一级片免费观看大全| 久久亚洲真实| 黑人猛操日本美女一级片| 亚洲国产欧美网| 欧美性长视频在线观看| 自线自在国产av| 黄色视频不卡| 日韩高清综合在线| 久久影院123| 国产精品国产高清国产av| 亚洲av成人不卡在线观看播放网| 十八禁网站免费在线| av在线天堂中文字幕 | 桃红色精品国产亚洲av| 精品欧美一区二区三区在线| 91老司机精品| 老汉色∧v一级毛片| 国产精品爽爽va在线观看网站 | 男女高潮啪啪啪动态图| 久久午夜亚洲精品久久| 国产成人一区二区三区免费视频网站| www.熟女人妻精品国产| 国产熟女xx| 动漫黄色视频在线观看| 国产真人三级小视频在线观看| 亚洲精品国产精品久久久不卡| 老鸭窝网址在线观看| 99久久精品国产亚洲精品| 国产激情欧美一区二区| 久久国产精品人妻蜜桃| 最新美女视频免费是黄的| 欧美 亚洲 国产 日韩一| 涩涩av久久男人的天堂| 久久久久久大精品| 丝袜人妻中文字幕| 国产精品永久免费网站| 一级黄色大片毛片| 美女大奶头视频| 亚洲第一青青草原| 一个人免费在线观看的高清视频| 999久久久精品免费观看国产| 欧美日本亚洲视频在线播放| 搡老岳熟女国产| 免费观看人在逋| 免费在线观看黄色视频的| 成人亚洲精品av一区二区 | 99久久99久久久精品蜜桃| 欧美日韩av久久| 成人国产一区最新在线观看| 久久精品国产亚洲av香蕉五月| 国产一区二区三区在线臀色熟女 | 欧美丝袜亚洲另类 | 美女午夜性视频免费| 国产主播在线观看一区二区| 久久香蕉国产精品| 国产色视频综合| 亚洲欧洲精品一区二区精品久久久| 色老头精品视频在线观看| 天天躁狠狠躁夜夜躁狠狠躁| 国产一卡二卡三卡精品| 亚洲国产欧美一区二区综合| 高清av免费在线| 超碰成人久久| 欧美黄色片欧美黄色片| 狂野欧美激情性xxxx| 国产视频一区二区在线看| 嫩草影院精品99| 日本三级黄在线观看| 一区二区三区激情视频| 91麻豆精品激情在线观看国产 | 男男h啪啪无遮挡| 亚洲欧美激情在线| av有码第一页| 欧美丝袜亚洲另类 | 精品熟女少妇八av免费久了| 高清在线国产一区| 午夜91福利影院| 91成人精品电影| 久久人妻熟女aⅴ| 亚洲精品国产一区二区精华液| 国产成+人综合+亚洲专区| 国产深夜福利视频在线观看| 女生性感内裤真人,穿戴方法视频| 淫秽高清视频在线观看| 久99久视频精品免费| 久久人妻av系列| 一二三四在线观看免费中文在| 波多野结衣av一区二区av| 黄色视频不卡| 麻豆国产av国片精品| 国产在线精品亚洲第一网站| 一二三四在线观看免费中文在| 久久亚洲精品不卡| 亚洲精品国产精品久久久不卡| 精品国产一区二区久久| 母亲3免费完整高清在线观看| 日本wwww免费看| 色综合欧美亚洲国产小说| 99久久综合精品五月天人人| 最新美女视频免费是黄的| 变态另类成人亚洲欧美熟女 | 久久中文字幕一级| 欧美中文日本在线观看视频| 在线观看舔阴道视频| 国产成人欧美| 黄片小视频在线播放| 又大又爽又粗| 亚洲在线自拍视频| 亚洲精品中文字幕在线视频| avwww免费| 日本免费a在线| 法律面前人人平等表现在哪些方面| 黄色成人免费大全| 国产91精品成人一区二区三区| 国产精品久久久久久人妻精品电影| 亚洲精品国产一区二区精华液| 成人特级黄色片久久久久久久| 男女床上黄色一级片免费看| 高清黄色对白视频在线免费看| 久久精品国产亚洲av高清一级| 久久久久久亚洲精品国产蜜桃av| 在线国产一区二区在线| 91九色精品人成在线观看| 麻豆一二三区av精品| 身体一侧抽搐| av有码第一页| av福利片在线| 亚洲精品av麻豆狂野| 纯流量卡能插随身wifi吗| 亚洲片人在线观看| 国产黄色免费在线视频| 欧美中文综合在线视频| 久热爱精品视频在线9| 国产91精品成人一区二区三区| 在线观看免费日韩欧美大片| 高潮久久久久久久久久久不卡| 欧美性长视频在线观看| 国产精品久久久av美女十八| 精品免费久久久久久久清纯| 国产精品秋霞免费鲁丝片| 丁香六月欧美| 超碰97精品在线观看| 99国产精品一区二区蜜桃av| 亚洲一区中文字幕在线| 国产精品 国内视频| 9热在线视频观看99| 国产成人精品久久二区二区91| 精品午夜福利视频在线观看一区| 又紧又爽又黄一区二区| 日韩欧美免费精品| 无限看片的www在线观看| 成在线人永久免费视频| 亚洲专区字幕在线| 欧美日韩乱码在线| 国产精品乱码一区二三区的特点 | 成在线人永久免费视频| 日韩免费高清中文字幕av| 天天添夜夜摸| 又黄又粗又硬又大视频| 久久99一区二区三区| 久久精品亚洲熟妇少妇任你| cao死你这个sao货| 变态另类成人亚洲欧美熟女 | 欧美大码av| 1024香蕉在线观看| 高潮久久久久久久久久久不卡| 亚洲久久久国产精品| 黄色怎么调成土黄色| 亚洲熟妇中文字幕五十中出 | 成在线人永久免费视频| av福利片在线| 日韩免费av在线播放| 国产欧美日韩综合在线一区二区| 日韩欧美国产一区二区入口| 欧美丝袜亚洲另类 | 高清黄色对白视频在线免费看| 国产精品乱码一区二三区的特点 | 午夜成年电影在线免费观看| 国产免费av片在线观看野外av| 亚洲精品国产色婷婷电影| 他把我摸到了高潮在线观看| 欧美久久黑人一区二区| 亚洲av美国av| 国产激情欧美一区二区| 嫩草影院精品99| 国产亚洲精品一区二区www| 极品教师在线免费播放| 欧美精品啪啪一区二区三区| 久久天躁狠狠躁夜夜2o2o| 欧美成人午夜精品| 99riav亚洲国产免费| 丰满饥渴人妻一区二区三| tocl精华| 久久欧美精品欧美久久欧美| 女人精品久久久久毛片| 男人舔女人下体高潮全视频| 国产av一区在线观看免费| 久久天堂一区二区三区四区| 国产日韩一区二区三区精品不卡| 亚洲熟妇熟女久久| 91九色精品人成在线观看| 午夜亚洲福利在线播放| 九色亚洲精品在线播放| 国产精华一区二区三区| 老熟妇仑乱视频hdxx| 精品无人区乱码1区二区| 午夜影院日韩av| 亚洲欧美精品综合久久99| 久久狼人影院| 国产日韩一区二区三区精品不卡| 亚洲精品粉嫩美女一区| 午夜福利影视在线免费观看| 日韩av在线大香蕉| 麻豆成人av在线观看| 中文欧美无线码| 久久久久久人人人人人| 欧美丝袜亚洲另类 | 超色免费av| 欧美亚洲日本最大视频资源| 亚洲人成伊人成综合网2020| 久久国产精品男人的天堂亚洲| 国产成人啪精品午夜网站| 91麻豆精品激情在线观看国产 | 国产亚洲精品久久久久5区| 岛国在线观看网站| 丝袜人妻中文字幕| ponron亚洲| x7x7x7水蜜桃| 午夜福利欧美成人| 国产日韩一区二区三区精品不卡| 女生性感内裤真人,穿戴方法视频| 亚洲av成人一区二区三| 欧美在线一区亚洲| 亚洲成人免费电影在线观看| 日本一区二区免费在线视频| 丁香欧美五月| 久久午夜综合久久蜜桃| 日韩三级视频一区二区三区| 国产亚洲精品一区二区www| 亚洲一码二码三码区别大吗| 国产亚洲精品久久久久久毛片| 久久久国产成人免费| 99国产极品粉嫩在线观看| 欧美中文日本在线观看视频| 欧美午夜高清在线| 啦啦啦在线免费观看视频4| av有码第一页| 久久精品亚洲熟妇少妇任你| 午夜免费激情av| 国产高清视频在线播放一区| 亚洲成国产人片在线观看| 欧美黑人精品巨大| 免费在线观看日本一区| 日韩欧美免费精品| 精品福利观看| 别揉我奶头~嗯~啊~动态视频| 亚洲av第一区精品v没综合| 国产精品野战在线观看 | 一级黄色大片毛片| 操出白浆在线播放| 国产成人系列免费观看| 中文字幕最新亚洲高清| 五月开心婷婷网| 日韩国内少妇激情av| 久久亚洲真实| 欧美一区二区精品小视频在线| 最新在线观看一区二区三区| 精品国产美女av久久久久小说| 怎么达到女性高潮| 欧美日韩乱码在线| 亚洲中文字幕日韩| 日本wwww免费看| 午夜福利欧美成人| 高潮久久久久久久久久久不卡| 久久久精品欧美日韩精品| 岛国在线观看网站| 男人操女人黄网站| 成人三级黄色视频| 成人18禁高潮啪啪吃奶动态图| 99在线人妻在线中文字幕| 午夜日韩欧美国产| 夜夜爽天天搞| 国产欧美日韩一区二区三区在线| 久久久久国产一级毛片高清牌| 国产免费av片在线观看野外av| 亚洲色图综合在线观看| 一夜夜www| 在线观看免费视频日本深夜| 国产精品秋霞免费鲁丝片| 在线观看一区二区三区| 国产99久久九九免费精品| 国产伦人伦偷精品视频| 日韩国内少妇激情av| 男女下面插进去视频免费观看| 欧美精品啪啪一区二区三区| 狠狠狠狠99中文字幕| a级毛片黄视频| 岛国视频午夜一区免费看| 国产色视频综合| 亚洲欧美日韩另类电影网站| 亚洲黑人精品在线| 在线观看免费视频日本深夜| 制服诱惑二区| 999久久久国产精品视频| 后天国语完整版免费观看| 午夜两性在线视频| 久久久国产成人免费| 91字幕亚洲| 亚洲免费av在线视频| 国产xxxxx性猛交| 国产片内射在线| 美女高潮喷水抽搐中文字幕| 成人18禁高潮啪啪吃奶动态图| 亚洲av成人av| 脱女人内裤的视频| 成人亚洲精品一区在线观看| 在线国产一区二区在线| 免费女性裸体啪啪无遮挡网站| 国产伦一二天堂av在线观看| 美女高潮到喷水免费观看| 热re99久久国产66热| 午夜亚洲福利在线播放| 久久精品亚洲熟妇少妇任你| 久久精品91无色码中文字幕| 老司机靠b影院| 性少妇av在线| 午夜a级毛片| www.精华液| 国产一卡二卡三卡精品| 啦啦啦在线免费观看视频4| 国产精品av久久久久免费| 国产精品国产高清国产av| 在线观看免费日韩欧美大片| 国产欧美日韩一区二区三区在线| av片东京热男人的天堂| 国产又爽黄色视频| 久久久国产一区二区| 欧美老熟妇乱子伦牲交| 99精品在免费线老司机午夜| 黄色视频,在线免费观看| 老司机亚洲免费影院| 国产黄色免费在线视频| 亚洲一区二区三区色噜噜 | 久久影院123| 久久久久久久午夜电影 | 淫秽高清视频在线观看| 99国产精品一区二区三区| 亚洲精华国产精华精| 超碰97精品在线观看| x7x7x7水蜜桃| 久久狼人影院| 制服人妻中文乱码| 女生性感内裤真人,穿戴方法视频| 一本大道久久a久久精品| 久久亚洲真实| 亚洲精品中文字幕在线视频| 国产成+人综合+亚洲专区| 极品教师在线免费播放| 激情在线观看视频在线高清| 18禁裸乳无遮挡免费网站照片 | 18禁黄网站禁片午夜丰满| 免费看a级黄色片| 欧美另类亚洲清纯唯美| 深夜精品福利| 在线国产一区二区在线| 亚洲aⅴ乱码一区二区在线播放 | 午夜福利一区二区在线看| 中文字幕最新亚洲高清| 久久久水蜜桃国产精品网| 91九色精品人成在线观看| 国产精品 国内视频| 欧美亚洲日本最大视频资源| 很黄的视频免费| 一级a爱片免费观看的视频| 男女高潮啪啪啪动态图| 日本黄色日本黄色录像| 日韩免费高清中文字幕av| av网站免费在线观看视频| 在线观看66精品国产| 国产精品偷伦视频观看了| 大型黄色视频在线免费观看| 欧美丝袜亚洲另类 | 久久久久国产一级毛片高清牌| 国产蜜桃级精品一区二区三区| av国产精品久久久久影院| 精品国产乱码久久久久久男人| 欧美激情久久久久久爽电影 | 色婷婷av一区二区三区视频| 天天影视国产精品| 天堂影院成人在线观看| 久久久水蜜桃国产精品网| 91九色精品人成在线观看| 亚洲aⅴ乱码一区二区在线播放 | 在线免费观看的www视频| 久久国产亚洲av麻豆专区| 18禁美女被吸乳视频| 少妇 在线观看| 国产熟女午夜一区二区三区| 亚洲精品在线观看二区| 亚洲国产中文字幕在线视频| 亚洲久久久国产精品| 在线观看舔阴道视频| 69av精品久久久久久| 日韩中文字幕欧美一区二区| 人人妻人人澡人人看| 天天影视国产精品| 欧美大码av| 色综合站精品国产| 久久精品亚洲熟妇少妇任你| 一区二区三区精品91| 日韩欧美国产一区二区入口| 亚洲avbb在线观看| 日本黄色日本黄色录像|