• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能倫理的研究現(xiàn)狀、應(yīng)用困境與可計(jì)算探索*

      2021-10-26 10:07:06
      社會(huì)科學(xué) 2021年9期
      關(guān)鍵詞:倫理道德人工智能

      徐 源

      早在人工智能誕生之初,科學(xué)家就開始關(guān)注并探討人工智能可能涉及的倫理問題,包括20世紀(jì)40年代艾倫·圖靈(Alan Turing)和諾伯特·維納(Norbert Wiener)對(duì)算法涉及的倫理問題的思考。然而過了很長(zhǎng)時(shí)間,這一話題才引起政策制定者和倫理研究者的興趣。倫理本質(zhì)上是關(guān)于道德的學(xué)問,西方近現(xiàn)代倫理學(xué)思想的主要淵源是亞里士多德的《尼各馬可倫理學(xué)》,亞里士多德在其中探討了道德行為的目的和各項(xiàng)規(guī)定。在中國(guó),倫理被理解為事物的條理或人與人相處的道德準(zhǔn)則。例如,西漢劉德《禮記·樂記》中提到“凡音者,生于人心者也;樂者,通倫理者也”。這里的倫理指的是事物的條理?!吨熳诱Z類》卷七二中說:“正家之道在于正倫理,篤恩義?!边@里的倫理指人與人相處的各種道德準(zhǔn)則??梢姡瑐惱韺W(xué)以人類的道德問題作為研究對(duì)象,是系統(tǒng)化、理論化的關(guān)于道德的觀念集合,屬于哲學(xué)范疇。

      20世紀(jì)后期,針對(duì)技術(shù)發(fā)展中的不確定性和潛在風(fēng)險(xiǎn)等問題,技術(shù)倫理學(xué)出現(xiàn)了。技術(shù)倫理學(xué)試圖通過對(duì)技術(shù)行為進(jìn)行倫理調(diào)節(jié),來協(xié)調(diào)技術(shù)發(fā)展與人類社會(huì)中的問題。人工智能以在機(jī)器上實(shí)現(xiàn)類人的智能為技術(shù)目標(biāo),對(duì)人類社會(huì)影響的廣泛性、不可預(yù)知性比以往任何一種技術(shù)都明顯。但原生于哲學(xué)的人工智能倫理具有很強(qiáng)的泛意性,可操作性弱,因此倫理原則很難直接量化為技術(shù)語言。同時(shí),人機(jī)關(guān)系的復(fù)雜性和環(huán)境的不可預(yù)測(cè)性也無法確保一般的人工智能倫理在實(shí)際中真正符合倫理效度?;诖?,本文將探討人工智能倫理原則實(shí)際落地的可能路徑。

      一、人工智能倫理發(fā)展現(xiàn)狀分析

      倫理研究對(duì)人工智能科技發(fā)展發(fā)揮著引領(lǐng)性、支撐性和規(guī)范性的作用。對(duì)人工智能系統(tǒng)的設(shè)計(jì)、開發(fā)和應(yīng)用等一系列行為中的安全性和正當(dāng)性的思考及價(jià)值判斷,都需要倫理研究的介入。制定人工智能倫理規(guī)范,建立統(tǒng)一完善的標(biāo)準(zhǔn)體系,對(duì)引領(lǐng)人工智能科技發(fā)展、爭(zhēng)奪智能領(lǐng)域治理規(guī)則的話語權(quán)具有重要意義。國(guó)內(nèi)外與人工智能倫理相關(guān)的研究工作,主要在兩個(gè)層面上展開:其一,理論性的研究工作,包括在哲學(xué)、社會(huì)學(xué)、心理學(xué)、管理學(xué)等具體學(xué)科中進(jìn)行人工智能倫理基礎(chǔ)理論與問題的探討;其二,政策和規(guī)則的制定,包括有關(guān)國(guó)家、地區(qū)、機(jī)構(gòu)和企業(yè)等針對(duì)人工智能技術(shù)發(fā)展制定的倫理原則、規(guī)范和政策等。

      人工智能倫理的理論和重要問題研究是其應(yīng)用原則的基礎(chǔ)和前提,在討論可操作的應(yīng)用原則和治理機(jī)制之前,需要先研究清楚人工智能倫理究竟要解決什么問題,以及如何解決這些問題,并厘清其中涉及的概念、方法和關(guān)鍵要素。在承認(rèn)人工智能倫理必要性的前提下,首先要闡述作為道德主體的人工智能何以可能??瓶藸柌?Mark Coeckelbergh)通過傳統(tǒng)倫理學(xué)中的義務(wù)論、功利論與德性論探討了機(jī)器人作為道德主體的哲學(xué)意義。(1)Coeckelbergh M.,“Robot Rights? Towards a Social-Relational Justification of Moral Consideration”,Ethics and Information Technology, 12(3), 2010, pp.209-221.其次要論證在實(shí)踐中機(jī)器成為道德代理者是否可能?,F(xiàn)有研究試圖在人工智能的設(shè)計(jì)中加入“道德”功能,使人工智能具有功能性的道德,從而可以為其自身行為負(fù)責(zé)。甚至有研究者設(shè)計(jì)了一種人工道德智能體(AMAs),使其具有道德敏感性。例如,摩爾(James H. Moor)研究了機(jī)器作為道德代理者的可能性,包括:作為倫理關(guān)涉的代理者(ethical-impact agents),這種機(jī)器行為程序的編寫需要關(guān)涉?zhèn)惱硪?;作為隱性倫理意識(shí)代理者(implicit ethical agents),這種機(jī)器在設(shè)計(jì)之初需要植入倫理程序源;作為顯性倫理意識(shí)代理者 (explicit ethical agents),這類機(jī)器可以自動(dòng)識(shí)別周圍環(huán)境的倫理信息,在不同情境下判斷當(dāng)前行為的合理性,并對(duì)該行為產(chǎn)生的后果進(jìn)行預(yù)測(cè);作為完全倫理能力代理者(full ethical agents),這種機(jī)器可以高度模擬人類思維與倫理意識(shí),在特定情境中做出判斷與選擇,完全可以被視為具有道德行為能力的道德主體。(2)Moor J. H.,“The Nature,Importance,and Difficulty of Machine Ethics”,IEEE Intelligent Systems,21(4), 2006,pp.18-21.最后,當(dāng)機(jī)器開始承載道德功能后,人機(jī)共存的未來社會(huì)會(huì)形成怎樣的倫理社會(huì)秩序?對(duì)此,雷·庫茲韋爾(Ray Kurzweil)首次提出了“奇點(diǎn)臨近論”,即當(dāng)人類臨近“奇點(diǎn)”(singularity) 智能技術(shù)無限制突破,機(jī)器將融合人類的知識(shí)和智慧,成為超出人類生物學(xué)范疇的“智慧生物”,挑戰(zhàn)人類生存空間,因此,構(gòu)建“人類與機(jī)器文明”的社會(huì)倫理秩序,以及人工智能道德安全體系是人類生存與延續(xù)不可或缺的保障。(3)Kurzweil R., The Singularity is Near: When Humans Transcend Biology,London: Penguin Books,2005.

      人工智能倫理的理論性研究也延伸到技術(shù)領(lǐng)域,包括人工智能倫理系統(tǒng)設(shè)計(jì)。博納豐(Jean-Fran?ois Bonnefon)等通過實(shí)驗(yàn)測(cè)試人工智能倫理系統(tǒng)對(duì)無人駕駛汽車實(shí)現(xiàn)道德自主權(quán)的可能性,認(rèn)為倫理系統(tǒng)設(shè)計(jì)突出了人們對(duì)智能機(jī)器的道德期望、文化價(jià)值和法律標(biāo)準(zhǔn),但實(shí)驗(yàn)結(jié)果證明,目前尚沒有能協(xié)調(diào)道德價(jià)值觀和個(gè)人利益的人工智能倫理系統(tǒng),更無法通過倫理系統(tǒng)設(shè)計(jì)去融合文化差異,人工智能機(jī)器的倫理系統(tǒng)設(shè)計(jì)研究仍然任重道遠(yuǎn)。(4)Bonnefon J. F., Shariff A. and Rahwam I.,“The Social Dilemma of Autonomous Vehicles”, Science, 352(6293), 2016, pp.1573-1575.此外,對(duì)人工智能算法與數(shù)據(jù)的倫理控制也是研究熱點(diǎn),代表性研究包括牛津大學(xué)互聯(lián)網(wǎng)研究所密妥斯泰特(Brent Daniel Mittelstadt)等提出的“人工智能算法的倫理調(diào)節(jié)作用”,他們認(rèn)為,倫理中介應(yīng)在人工智能代理算法中發(fā)揮三方面的調(diào)節(jié)效用,即調(diào)節(jié)運(yùn)算信息不對(duì)稱導(dǎo)致的不正當(dāng)結(jié)果、調(diào)節(jié)運(yùn)算信息不確定性導(dǎo)致的不透明或不公正結(jié)果、調(diào)節(jié)運(yùn)算誤差產(chǎn)生的偏見或歧視。(5)Mittelstadt B. D.,Allo P. and Taddeo M.,“The Ethics of Algorithms: Mapping the Debate”,Big Data & Society,3(2) , 2016,pp.1-21.

      在人工智能倫理原則、規(guī)則和相關(guān)政策研究制定方面,據(jù)德國(guó)非營(yíng)利機(jī)構(gòu)Algorithm Watch 的統(tǒng)計(jì), 世界范圍內(nèi)迄今已有160多個(gè)機(jī)構(gòu)或組織提出了各自的人工智能倫理準(zhǔn)則建議,世界主要國(guó)家都將人工智能倫理原則的提出或政策的制定上升為國(guó)家戰(zhàn)略,各國(guó)政府陸續(xù)出臺(tái)了相關(guān)政策以推動(dòng)并規(guī)范人工智能的發(fā)展:美國(guó)頒布了《國(guó)家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》和《為人工智能的未來做好準(zhǔn)備》兩個(gè)國(guó)家級(jí)政策框架;日本出臺(tái)了《第五期(2016-2020年度)科學(xué)技術(shù)基本計(jì)劃》,提出了超智能社會(huì)5.0的概念;英國(guó)政府發(fā)布了《人工智能:未來決策制定的機(jī)遇與影響》;法國(guó)發(fā)布了《人工智能戰(zhàn)略》;我國(guó)也發(fā)布了《新一代人工智能發(fā)展規(guī)劃》等相關(guān)政策。雖然各國(guó)人工智能的倫理規(guī)范與政策不盡相同,但他們都高度關(guān)注人工智能的規(guī)范性與治理問題。同時(shí),各國(guó)的人工智能倫理規(guī)范呈現(xiàn)出差異化特征。例如,美國(guó)是第一個(gè)出臺(tái)軍用人工智能倫理規(guī)范的國(guó)家。2019 年10月,美國(guó)國(guó)防創(chuàng)新委員會(huì)發(fā)布《人工智能原則:國(guó)防部應(yīng)用人工智能倫理建議》,對(duì)美國(guó)國(guó)防部設(shè)計(jì)、開發(fā)和部署人工智能用于戰(zhàn)斗或非戰(zhàn)斗用途作出倫理層面的規(guī)范建議。歐盟試圖通過規(guī)則的制定來占據(jù)國(guó)際競(jìng)爭(zhēng)的主導(dǎo)權(quán),促使歐洲成為人們信任的、以人為本的人工智能領(lǐng)導(dǎo)者。歐盟委員會(huì)人工智能高級(jí)專家組于2019年發(fā)布了《可信人工智能倫理指南》,提出可信AI具有三個(gè)組成部分:合法性、倫理性和魯棒性(robustness)。此外,企業(yè)、行業(yè)對(duì)人工智能倫理與社會(huì)發(fā)展的關(guān)注度較高,各領(lǐng)軍企業(yè)也日益重視人工智能的安全和倫理問題,發(fā)起行業(yè)人工智能倫理倡議,紛紛提出了各自的人工智能倫理原則。Facebook、亞馬遜、谷歌、IBM、微軟等公司聯(lián)合成立 Partnership on AI 組織,匯集全球不同的聲音,以保障人工智能在未來能夠安全、透明、合理地發(fā)展,讓世界更好地理解人工智能的影響。

      相對(duì)于蓬勃發(fā)展的技術(shù)研究,人工智能倫理的系統(tǒng)性研究尚未成熟。實(shí)際上,人工智能倫理的發(fā)展具有階段性:第一階段是對(duì)人工智能倫理必要性的討論。在這方面,耶魯大學(xué)溫德爾·瓦拉赫(Wendell Wallach) 等美國(guó)學(xué)者起了帶頭作用,在國(guó)際上引起了普遍重視。第二階段是對(duì)人工智能倫理理論和重要問題的討論,以及相關(guān)規(guī)則和政策的出臺(tái)。隨著人工智能技術(shù)的迅猛發(fā)展,人工智能技術(shù)帶來的倫理和安全問題日益凸顯,而一般性的規(guī)范和原則已無法滿足技術(shù)的實(shí)際需求。如何將倫理規(guī)范融入人工智能技術(shù)設(shè)計(jì)和使用中?是否可形成“可計(jì)算的倫理”來打通倫理原則與技術(shù)實(shí)現(xiàn)之間的鴻溝?對(duì)這些問題的回答預(yù)示著人工智能倫理已經(jīng)開始從“是什么”轉(zhuǎn)變?yōu)椤霸趺醋觥?。本文認(rèn)為,人工智能倫理已經(jīng)進(jìn)入發(fā)展的第三階段,即人工智能倫理的3.0時(shí)代,倫理原則的技術(shù)實(shí)現(xiàn)將成為未來人工智能倫理的重要方向。

      二、人工智能倫理應(yīng)用原則技術(shù)落地中的困境

      當(dāng)前,人工智能倫理泛意性的原則尚未充分應(yīng)用于具體的技術(shù)場(chǎng)景和技術(shù)產(chǎn)品中,倫理原則的可計(jì)算性尚未實(shí)現(xiàn)。我們不能期待人工智能倫理會(huì)比人類倫理簡(jiǎn)單,在融合了很多技術(shù)問題后情況可能會(huì)更加復(fù)雜。(6)Thomsen, K., “Ethics for Artificial Intelligence, Ethics for All”, Paladyn, Journal of Behavioral Robotics , 10 (1), 2019,pp.359-363.已有的對(duì)人工智能倫理的理論性研究或規(guī)則政策的出臺(tái)是倫理原則實(shí)現(xiàn)可操作性的必要基礎(chǔ),但仍然與在技術(shù)中實(shí)現(xiàn)這些原則存在巨大的鴻溝,人工智能倫理原則往往過于抽象,類似“以人為本”的原則雖獲得了一致認(rèn)可,但對(duì)人工智能技術(shù)產(chǎn)品的開發(fā)設(shè)計(jì)并不具有直接的指導(dǎo)性和實(shí)際的可操作性。因此,倫理原則并不能很好地在技術(shù)實(shí)踐中發(fā)揮作用。

      首先,人工智能倫理作為一種規(guī)約和價(jià)值判斷,似乎先天具有不可計(jì)算性。段偉文提出機(jī)器倫理的理論預(yù)設(shè)是可以用數(shù)量、概率和邏輯來描述和計(jì)算各種價(jià)值與倫理范疇,進(jìn)而用負(fù)載價(jià)值內(nèi)涵的道德代碼為智能機(jī)器編寫倫理算法。(7)段偉文:《人工智能的道德代碼與倫理嵌入》,《光明日?qǐng)?bào)》2017年9月4日。但目前這種設(shè)想可操作性不強(qiáng),也存在一定的問題,如量化的倫理如何保真,機(jī)器如何與人有效溝通等,都是難以解決的問題。人類的情感也具有先天不可計(jì)算性,倫理計(jì)算與情感計(jì)算具有相似性。與運(yùn)算和邏輯等可量化能力不同,情感與倫理都是基于個(gè)體的情境性主觀反饋。20世紀(jì)80年代麻省理工學(xué)院媒體實(shí)驗(yàn)室羅莎琳德·皮卡德(Rosalind Picard)教授就提出情感計(jì)算的概念,然而很長(zhǎng)時(shí)間以來,情感計(jì)算并沒有獲得主流學(xué)界的認(rèn)可,當(dāng)時(shí)人工智能學(xué)界追逐的是運(yùn)算、推理等“理性”能力在機(jī)器上的實(shí)現(xiàn),情感并沒有被視為實(shí)現(xiàn)智能的相關(guān)因素。情感作為一種主觀體驗(yàn),體現(xiàn)了人與環(huán)境的互動(dòng)關(guān)系。隨著技術(shù)的發(fā)展和人們對(duì)“何為智能”的認(rèn)識(shí)更加深入,有研究者認(rèn)為,未來人工智能技術(shù)的突破將是實(shí)現(xiàn)情感智能,馬文·明斯基(Marvin Minsky)認(rèn)為,情感是人們用于增強(qiáng)智能的思維方式。(8)[美]馬文·明斯基:《情感機(jī)器:人類思維與人工智能的未來》,王文革等譯,浙江人民出版社2016年版,第5頁。情感計(jì)算目前的主要路徑是通過對(duì)人的面部表情、生理指標(biāo)等信息、數(shù)據(jù)的獲取進(jìn)行情感計(jì)算建模,這已經(jīng)在面部識(shí)別、語音理解、人機(jī)交互等實(shí)際應(yīng)用中取得了一定進(jìn)展,但其面臨的挑戰(zhàn)也是多方面的,因?yàn)榍楦信c倫理一樣具有主觀色彩,具有不確定性、模糊性和動(dòng)態(tài)變化等特征,因此很難在其中尋找和發(fā)現(xiàn)客觀規(guī)律。未來似乎可以沿著情感計(jì)算的路徑去發(fā)展倫理計(jì)算,從而讓倫理內(nèi)嵌于機(jī)器中。然而倫理比情感負(fù)載更多的價(jià)值判斷,因此在計(jì)算性上也更加困難。

      其次,人工智能倫理具有一定的社會(huì)屬性。復(fù)雜的社會(huì)場(chǎng)景涉及的關(guān)系眾多、要素復(fù)雜,這決定了倫理問題難以還原為可量化的具體問題。麥克·安妮(Mike Ananny)等指出,現(xiàn)實(shí)是算法系統(tǒng)是人類和非人類角色的集合,它們具有許多非確定性的影響。要理解(并因此管理)倫理含義需要理解整個(gè)系統(tǒng)是如何工作的——包括系統(tǒng)部署后可能發(fā)生的未知事情,或該系統(tǒng)被用于其他目的,而這些都與最初的系統(tǒng)開發(fā)者所承諾的不同。(9)Ananny, M., Crawford, K.,“Seeing Without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability”,New Media & Society, 20(3), 2018, pp.973-989.人工智能倫理是一項(xiàng)集成多種技術(shù)指標(biāo)、協(xié)調(diào)多種利益訴求和沖突的活動(dòng)行為,是一種相對(duì)復(fù)雜的人工實(shí)踐,需要眾多的行動(dòng)者參與。這些行動(dòng)者包括人類行動(dòng)者、非人類行動(dòng)者以及特殊的行動(dòng)者。人類行動(dòng)者主要有規(guī)則制定者、智能機(jī)器的設(shè)計(jì)者、智能技術(shù)的使用者、智能技術(shù)監(jiān)管者等。這些人類行動(dòng)者代表了不同的利益訴求方和價(jià)值主體,這使得人工智能技術(shù)在人類行動(dòng)者中形成了一個(gè)復(fù)雜的社會(huì)網(wǎng)絡(luò),特別是擁有智能技術(shù)的對(duì)立雙方。非人類行動(dòng)者主要是人工智能的機(jī)器、裝備等。區(qū)別于其他技術(shù)種類,智能技術(shù)還產(chǎn)生了一類特殊的行動(dòng)者:人機(jī)協(xié)同行動(dòng)者??梢?,人工智能實(shí)踐中具有不同類型的行動(dòng)者,出現(xiàn)了分布式的倫理形態(tài),復(fù)雜的利益訴求形成了非單一的道德主體,而分布式的道德主體正是人工智能倫理困境的源頭。在人工智能場(chǎng)景中,人類行動(dòng)者、非人類行動(dòng)者網(wǎng)絡(luò)彼此交織,圍繞著技術(shù)的開發(fā)和應(yīng)用構(gòu)成了一個(gè)立體的社會(huì)網(wǎng)絡(luò)。這個(gè)立體網(wǎng)絡(luò)在“內(nèi)部”和“外部”關(guān)系上存在著多種復(fù)雜的安全利益和價(jià)值關(guān)系。不同行動(dòng)者既可能是合作關(guān)系,也不可避免地存在沖突。從倫理研究的發(fā)展歷程我們也可以發(fā)現(xiàn),對(duì)于價(jià)值判斷和倫理標(biāo)準(zhǔn)的選擇本身就具有一定的多元性,不同國(guó)家、地區(qū),不同文化背景和利益訴求的人在討論問題時(shí)都會(huì)具有相當(dāng)強(qiáng)烈的主觀認(rèn)識(shí)和意圖。

      最后,人工智能技術(shù)或產(chǎn)品是為了實(shí)現(xiàn)某種特定功能,倫理在一定程度上會(huì)弱化功能的實(shí)現(xiàn),智能產(chǎn)品的倫理考量和技術(shù)考慮實(shí)現(xiàn)的是綜合效益,但具有一定的矛盾性。倫理本質(zhì)上是對(duì)做什么合適、不能做什么的規(guī)約,技術(shù)實(shí)現(xiàn)的是能做什么,相互之間有一定的反向作用力。例如在軍事應(yīng)用中,人工智能技術(shù)的倫理問題尤為突出。第一,關(guān)于人的尊嚴(yán)問題所涉及的機(jī)器奪取人的生命權(quán)的合法性,一些人認(rèn)為,人具有其固有的尊嚴(yán),其生命被自主武器剝奪永遠(yuǎn)是錯(cuò)誤的,這與機(jī)器人殺人這一行為是否正確無關(guān),與這一生命剝奪方法、過程的道德合法性有關(guān),而自主武器不具有道德判斷能力。在他們看來,只有能做出道德判斷且自身擁有尊嚴(yán)的人,才有資格在道德層面為奪取他人生命進(jìn)行自我辯護(hù)。第二,機(jī)器行為的無道德意識(shí)問題。人類戰(zhàn)士具有諸如同情、尊重生命等情感意識(shí),可在復(fù)雜的形勢(shì)下進(jìn)行適當(dāng)?shù)牡赖驴剂?、約束過度的暴力傾向與行為,而機(jī)器不具備這種意識(shí),它更注重效率、硬性標(biāo)準(zhǔn),沒有情感的機(jī)器系統(tǒng)缺乏任何正義戰(zhàn)爭(zhēng)所必需的基本人類特征。第三,遠(yuǎn)程操控(如無人機(jī))可以讓操控人員遠(yuǎn)離真實(shí)戰(zhàn)場(chǎng),虛擬化、游戲化的操縱方式往往降低了操控人員對(duì)死亡、身體損傷的真切感受。因此,在人工智能技術(shù)軍事應(yīng)用的場(chǎng)景下,技術(shù)的自主化程度越高、先進(jìn)性越強(qiáng)就越會(huì)弱化倫理效度。

      綜上,倫理在人類社會(huì)中尚且需要德性、義務(wù)、契約等方式去規(guī)范,其所具有的個(gè)體性、主觀性、價(jià)值與利益負(fù)載性在本質(zhì)上不具有可計(jì)算性,是一種復(fù)雜的社會(huì)行為,何況人工智能倫理呢?那么,人工智能倫理在技術(shù)發(fā)展中究竟要如何發(fā)揮實(shí)際作用?可計(jì)算性究竟能否實(shí)現(xiàn)?

      三、可計(jì)算倫理的探索:EaaS與社會(huì)實(shí)驗(yàn)

      當(dāng)前人工智能倫理原則的主要制定者是人工智能從業(yè)者,其習(xí)慣性地傾向于采用自己較易理解的方式,而不是大眾想要的方式來解釋人工智能相關(guān)倫理準(zhǔn)則,現(xiàn)行倫理準(zhǔn)則偏向于指出問題而不是給出解決問題的方案,已有的倫理編譯工具一般為一次性工具,僅僅在人工智能系統(tǒng)創(chuàng)建時(shí)發(fā)揮作用,不能隨著系統(tǒng)的更新而更新,從而有可能為倫理準(zhǔn)則的確立產(chǎn)生負(fù)面影響。莫利(Jessica Morley)等人認(rèn)為,由于人工智能技術(shù)發(fā)展過快、人工智能行業(yè)的覆蓋面極廣,以及監(jiān)管不到位等因素的共同作用,現(xiàn)行的倫理準(zhǔn)則不能很好地適應(yīng)各方需求。具體來說,人工智能技術(shù)發(fā)展過快導(dǎo)致倫理準(zhǔn)則呈現(xiàn)出滯后性;人工智能行業(yè)覆蓋面極廣導(dǎo)致倫理準(zhǔn)則表現(xiàn)出模糊性;人工智能行業(yè)監(jiān)管不到位導(dǎo)致倫理準(zhǔn)則缺少標(biāo)準(zhǔn)性。(10)Morley, J., Elhalal A., et al.,“Ethics as a Service: A Pragmatic Operationalisation of AI Ethics” (February 11, 2021), Available at SSRN: https://ssrn.com/abstract=3784238.

      在制定人工智能倫理應(yīng)用規(guī)范和原則的基礎(chǔ)上,各國(guó)在完善技術(shù)設(shè)計(jì)研發(fā)規(guī)范方面也做了相應(yīng)探索。在劃定使用權(quán)限方面,提出人工智能系統(tǒng)的應(yīng)用應(yīng)具有時(shí)間、地域及任務(wù)類型限制,一旦超出限制,便應(yīng)終止任務(wù),避免帶來不必要的危害;在可控性標(biāo)準(zhǔn)方面,提出人工智能系統(tǒng)的設(shè)計(jì)和使用應(yīng)確保實(shí)現(xiàn)其預(yù)期功能,建立系統(tǒng)的手動(dòng)或自動(dòng)重定向或一鍵運(yùn)行停止等功能,以應(yīng)對(duì)人工智能系統(tǒng)出現(xiàn)事故、遇到突發(fā)事件、被嚴(yán)重干擾、機(jī)器決策明顯失誤等情形,特別是針對(duì)已部署的人工智能系統(tǒng)發(fā)生意外升級(jí)或其他行為時(shí),操作員有權(quán)限及時(shí)干預(yù)、停止系統(tǒng)的行動(dòng);在可靠性標(biāo)準(zhǔn)方面,要求進(jìn)行嚴(yán)格的測(cè)試,建立明確的、定義良好的測(cè)試體系與標(biāo)準(zhǔn),測(cè)試包括設(shè)計(jì)過程、應(yīng)用過程、反饋過程等全生命周期,實(shí)現(xiàn)自治系統(tǒng)的安全性與穩(wěn)定性運(yùn)行,可通過建立虛擬“沙箱”,在所有安全級(jí)別上對(duì)機(jī)器學(xué)習(xí)技術(shù)進(jìn)行試驗(yàn),或進(jìn)行紅藍(lán)對(duì)抗,發(fā)現(xiàn)人工智能方法中的弱點(diǎn)并進(jìn)行改進(jìn);(11)孫琴:《美媒:美聯(lián)合人工智能中心應(yīng)采取六種方式加速人工智能的軍事應(yīng)用》,《國(guó)防科技要聞》2021年2月7日。在可追蹤性方面,要求確保對(duì)自治系統(tǒng)的開發(fā)與運(yùn)行過程的追蹤,使技術(shù)專家能對(duì)人工智能系統(tǒng)的技術(shù)、開發(fā)過程和操作方法有適當(dāng)?shù)牧私?,包括透明和可審?jì)的方法、數(shù)據(jù)源、設(shè)計(jì)程序和文件。這些方法和探索在一定程度上起到了對(duì)風(fēng)險(xiǎn)的預(yù)防和監(jiān)管,但人工智能倫理原則并沒有在根本上融入技術(shù)實(shí)踐。拉布(Raab)認(rèn)為,自上而下、指導(dǎo)性的方針意味著可以采取公式化的方法將倫理規(guī)范、原則和一般規(guī)則應(yīng)用于具體實(shí)例。(12)Raab, C. D.,“Information Privacy, Impact Assessment, and the Place of Ethics”, Computer Law and Security Review, 2020,Scopus, https://doi.org/10.1016/j.clsr.2020.105404.

      國(guó)內(nèi)外已有學(xué)者展開前期探索。凱特·克勞福德(Kate Crawford)等人指出,目前人工智能技術(shù)規(guī)范工具主要是對(duì)倫理規(guī)則的自覺遵守或哲學(xué)思辨,包括(1)守序準(zhǔn)則(deploy and comply),即用道德約束人工智能技術(shù),如谷歌算法歧視、臉書刪除兒童色情圖片等;(2)規(guī)范準(zhǔn)則(values in design),即人工智能的設(shè)計(jì)應(yīng)遵循行業(yè)規(guī)范,慎重對(duì)待涉及用戶隱私、環(huán)境等問題;(3)思想實(shí)驗(yàn)(thought experiments),即為了解決人工智能所蘊(yùn)含的諸多問題,學(xué)者們提出的諸多思想實(shí)驗(yàn),如電車難題、中文屋等。而對(duì)于技術(shù)落地影響的測(cè)量和分析,是目前研究的盲區(qū)。(13)Crawford K.,Calo R.,“There is a Blind Spot in AI Research”, Nature,538 (7625), 2016, pp. 311-313.一些研究者提出了“倫理即服務(wù)”(Ethics as a service,EaaS)的人工智能倫理實(shí)踐方式,使人工智能倫理成為一種可實(shí)際運(yùn)用的操作。他們認(rèn)為,現(xiàn)行的AI倫理政策大致可以分為兩類:一方面是“硬”的治理機(jī)制,如現(xiàn)行標(biāo)準(zhǔn)和法規(guī);另一方面是“軟”的治理機(jī)制,如道德編碼、指南、框架以及相應(yīng)針對(duì)性政策。前者具有強(qiáng)制性,而后者更多起引導(dǎo)作用。(14)Morley, J., Elhalal A., et al., “Ethics as a Service: A Pragmatic Operationalisation of AI Ethics”(February 11, 2021), Available at SSRN: https://ssrn.com/abstract=3784238.如果“硬”機(jī)制過于嚴(yán)格,受技術(shù)的限制相關(guān)倫理準(zhǔn)則無法實(shí)現(xiàn),就會(huì)制約AI的發(fā)展;但如果“硬”機(jī)制過于靈活,又會(huì)失去制衡的意義。同樣,“軟”機(jī)制如果過于模糊就會(huì)失去參考價(jià)值,如果過于具象化雖然可以解決特異性問題,但又會(huì)失去普遍性。因此,如何分別在兩種機(jī)制的兩個(gè)方向中找到平衡是一個(gè)重要問題。對(duì)于如何尋找“硬”和“軟”的折衷方案,研究者認(rèn)為人工智能倫理準(zhǔn)則應(yīng)經(jīng)過社會(huì)、學(xué)界等多方人士的審核,并且定期對(duì)其內(nèi)容進(jìn)行更新;從業(yè)者應(yīng)當(dāng)用可重復(fù)、可復(fù)制的方法將這些準(zhǔn)則轉(zhuǎn)化為程序;相關(guān)準(zhǔn)則制定、轉(zhuǎn)化的全階段應(yīng)受到監(jiān)管。同時(shí),還應(yīng)聚合好的準(zhǔn)則,推廣這些準(zhǔn)則,并屏蔽壞的準(zhǔn)則。基于此,他們認(rèn)為人工智能倫理學(xué)的問題中心正在由倫理?xiàng)l例轉(zhuǎn)移到算法實(shí)現(xiàn)上,“倫理即服務(wù)”是一個(gè)可行的方案,在制定相關(guān)準(zhǔn)則時(shí)將所有有關(guān)方案納入考量,結(jié)合實(shí)際解釋倫理準(zhǔn)則的具體含義,提供可行的、可重復(fù)使用的算法工具以供選擇,同時(shí)對(duì)產(chǎn)品進(jìn)行定期審核,以確保它們符合倫理標(biāo)準(zhǔn)。但是“倫理即服務(wù)”的實(shí)用性仍然需要進(jìn)一步研究與論證。

      賈開、薛瀾以2021年全國(guó)信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——人工智能倫理安全風(fēng)險(xiǎn)防范指引》發(fā)布為研究背景指出,從全球來看,人工智能治理原則大多以“軟體系”的方式出現(xiàn),未形成有效的“硬體系”,在關(guān)鍵概念、具體內(nèi)容或決策過程中仍存在含糊與不一致。他們認(rèn)為,由于人工智能發(fā)展應(yīng)用進(jìn)程即風(fēng)險(xiǎn)涌現(xiàn)的緊迫,治理規(guī)范在逐步向“硬體系”轉(zhuǎn)移。(15)賈開、薛瀾:《人工智能倫理問題與安全風(fēng)險(xiǎn)治理的全球比較與中國(guó)實(shí)踐》,《公共管理評(píng)論》 2021年第1期。蘇竣等在2020年提出人工智能社會(huì)實(shí)驗(yàn)的研究路徑,應(yīng)面向廣泛的人工智能應(yīng)用場(chǎng)景開展人工智能社會(huì)實(shí)驗(yàn)研究,基于“控制-對(duì)照-比較”的研究邏輯,探索將泛意性概念轉(zhuǎn)變?yōu)檫吔缜逦目茖W(xué)變量并進(jìn)行測(cè)量和比較的技術(shù)路線,將人工智能社會(huì)實(shí)驗(yàn)室的基本研究路徑劃分為組織應(yīng)用、科學(xué)測(cè)量和綜合反饋三個(gè)階段,最后形成技術(shù)規(guī)范、技術(shù)標(biāo)準(zhǔn)和政策建議。(16)蘇竣、魏鈺明、黃萃:《社會(huì)實(shí)驗(yàn):人工智能社會(huì)影響研究的新路徑》,《中國(guó)軟科學(xué)》2020年第9期。2021年,蘇竣等又進(jìn)一步提出了基于場(chǎng)景生態(tài)的人工智能社會(huì)影響整合分析框架,并在對(duì)近3000篇中英文文獻(xiàn)分析的基礎(chǔ)上,從微觀層面技術(shù)與人的互動(dòng)、中觀層面行業(yè)與組織變革、宏觀層面制度變遷與政策回應(yīng)三個(gè)維度,從科學(xué)測(cè)量的角度建立了人工智能社會(huì)影響的數(shù)據(jù)采集與評(píng)價(jià)體系。(17)蘇竣、魏鈺明、黃萃:《基于場(chǎng)景生態(tài)的人工智能社會(huì)影響整合分析框架》,《科學(xué)學(xué)與科學(xué)技術(shù)管理》2021年第9期。

      綜上所述,我們可以發(fā)現(xiàn):一方面,人工智能倫理由“軟性”規(guī)范到“硬性”規(guī)范的轉(zhuǎn)變正在逐步發(fā)生,現(xiàn)階段的人工智能倫理的應(yīng)用原則已不能滿足技術(shù)快速發(fā)展所帶來的社會(huì)問題,技術(shù)的快速發(fā)展對(duì)倫理規(guī)范提出了更高的要求,對(duì)技術(shù)問題的思考也推動(dòng)了科技時(shí)代倫理等人文社會(huì)科學(xué)的發(fā)展;另一方面,已經(jīng)有學(xué)者開始用科學(xué)測(cè)量等技術(shù)方法探索人工智能對(duì)社會(huì)影響的科學(xué)規(guī)律,無論是“倫理即服務(wù)”還是“社會(huì)實(shí)驗(yàn)”,一種科技與社會(huì)交叉研究的范式已然開啟。

      四、計(jì)算社會(huì)科學(xué)的研究路徑——人機(jī)認(rèn)知平衡

      文藝復(fù)興后期,社會(huì)科學(xué)開始運(yùn)用科學(xué)方法中的一些概念和原理,于是統(tǒng)計(jì)學(xué)和數(shù)學(xué)的方法逐步被運(yùn)用到社會(huì)領(lǐng)域的研究中。二戰(zhàn)后計(jì)算社會(huì)科學(xué)開始興起,先驅(qū)人物查爾斯·斯皮爾曼(Charles Spearman)、魯?shù)婪颉だ罓?Rudolf Rummel)等人做了大量探索性工作,包括對(duì)人類認(rèn)知空間維數(shù)等方面的研究。計(jì)算社會(huì)科學(xué)被定義為對(duì)復(fù)雜的,通常是大規(guī)模人類行為 (有時(shí)是仿真的) 數(shù)據(jù)計(jì)算方法的開發(fā)和應(yīng)用,(18)Lazer D., Pentland A., Adamic L., et al.,“Computational Social Science”,Science, 323 (5915), 2009, pp.721-723.它基于一種社會(huì)的信息加工范式,以信息為關(guān)鍵要素去理解社會(huì)系統(tǒng)及其進(jìn)程,通過信息處理來理解和解釋社會(huì)復(fù)雜系統(tǒng),以信息加工作為重要手段。它的一個(gè)重要特征是包含純科學(xué)研究和應(yīng)用政策分析,也就是除了研究對(duì)社會(huì)的基本理解之外,還具有改進(jìn)社會(huì)生活的向度。(19)[美]克勞迪奧·喬菲-雷維利亞:《計(jì)算社會(huì)科學(xué):原則與應(yīng)用》,梁君英等譯,浙江大學(xué)出版社2019年版。

      復(fù)雜適應(yīng)系統(tǒng)是計(jì)算社會(huì)科學(xué)中的重要概念,指一個(gè)隨著外部環(huán)境的改變而改變其自身結(jié)構(gòu)及狀態(tài)的系統(tǒng)。社會(huì)是一個(gè)復(fù)雜適應(yīng)系統(tǒng),是一個(gè)由人、機(jī)器及其中關(guān)涉的倫理問題所構(gòu)成的系統(tǒng)。赫伯特·西蒙(Herbert A.Simon)在其經(jīng)典著作《人工科學(xué)》(TheSciencesoftheArtificial)中引入了人工制品理論的概念。他認(rèn)為,在本體論層面上存在自然系統(tǒng)、人類系統(tǒng)和人工系統(tǒng)三類,人工系統(tǒng)是由人類設(shè)計(jì)建造的,是人與自然之間的緩沖。西蒙認(rèn)為,人工制品存在的起因是其作為人與自然之間緩沖的功能,人工智能技術(shù)也是人類的一種適應(yīng)性策略,解決人類所面臨的替代勞動(dòng)的一些問題。我們已經(jīng)分析過人工智能倫理作為一種社會(huì)復(fù)雜系統(tǒng)涉及的行動(dòng)者和關(guān)系要素,那么如何通過計(jì)算社會(huì)科學(xué)的信息加工方法來實(shí)現(xiàn)其可計(jì)算性呢?

      社會(huì)科學(xué)家已經(jīng)在諸多領(lǐng)域使用抽象來制定復(fù)雜社會(huì)的統(tǒng)計(jì)方法和數(shù)學(xué)模型,用計(jì)算機(jī)程序和計(jì)算模型來抽象、表征、分析并理解人類和社會(huì)的復(fù)雜性。針對(duì)人工智能倫理應(yīng)用原則這一問題域,我們需要通過社會(huì)信息提取并建立社會(huì)仿真模型。本文僅從微觀層面考察人工智能倫理應(yīng)用原則的計(jì)算社會(huì)科學(xué)實(shí)驗(yàn)路徑,從人類信念體系來探索人工智能倫理的計(jì)算路徑。人類的信念體系是跨文化的普遍性概念,但不同文化的信念體系會(huì)出現(xiàn)相異性。個(gè)體具有個(gè)人信念體系,但人類會(huì)共享某些信念體系,形成集體信念體系,如共同的倫理規(guī)范、社會(huì)認(rèn)同等。信念體系包含一組概念實(shí)體(節(jié)點(diǎn)),節(jié)點(diǎn)可以代表某種態(tài)度價(jià)值、觀點(diǎn)或概念。信念體系在計(jì)算上的困難主要有兩個(gè)方面:一方面是巨大的數(shù)據(jù)規(guī)模,語言學(xué)家估計(jì)普通人大約認(rèn)識(shí)一萬個(gè)詞,可能的關(guān)聯(lián)和高階連接大約有一千萬個(gè),而二元結(jié)構(gòu)的數(shù)量可達(dá)數(shù)億,那么節(jié)點(diǎn)信息量無疑更加巨大;另一方面人類信念體系是動(dòng)態(tài)變化的,新的信息不斷產(chǎn)生會(huì)增加新的節(jié)點(diǎn)。這種巨大的信息規(guī)模和動(dòng)態(tài)變化卻能保持一種整體平衡,這一重要現(xiàn)象被稱為認(rèn)知平衡(見圖1)。(20)[美]克勞迪奧·喬菲-雷維利亞:《計(jì)算社會(huì)科學(xué):原則與應(yīng)用》,第117-118頁。認(rèn)知平衡遵循符號(hào)代

      圖1 價(jià)值網(wǎng)絡(luò)的簡(jiǎn)單模型

      數(shù)邏輯,該邏輯中正向連接用實(shí)線表示、負(fù)向連接用虛線表示,在二元和多重連接情況中符號(hào)代數(shù)都會(huì)出現(xiàn)正向結(jié)果。羅伯特·埃布爾森(Robert P. Abelson)認(rèn)為,人類有否認(rèn)、支持、超越、分化四種平衡機(jī)制(21)Abelson R.P.,“Modes of Resolution of Belief Dilemmas”, Journal of Conflict Resolution,3(4), 1959, pp.343-352.,認(rèn)知平衡所遵循的符號(hào)代數(shù)邏輯如下:

      +·+=+

      -·-=+

      +·-=-

      -·+=-

      人工智能倫理應(yīng)用原則可作為信念節(jié)點(diǎn)通過四種機(jī)制應(yīng)用于機(jī)器中,嘗試在特定問題或情境中達(dá)到人機(jī)認(rèn)知平衡。本文以算法歧視和公平性原則為例:(1)否認(rèn)機(jī)制。消解機(jī)器認(rèn)知節(jié)點(diǎn)不平衡最簡(jiǎn)單的方法是否認(rèn),或者直接忽略問題,忽略數(shù)據(jù)中會(huì)產(chǎn)生變化的信息。比如,在篩選簡(jiǎn)歷的算法系統(tǒng)中不特意標(biāo)注性別。(2)支持機(jī)制。強(qiáng)調(diào)信息體系中的平衡部分,并堅(jiān)信該部分更加重要。例如,選擇信用系統(tǒng)強(qiáng)化“對(duì)60歲以上人群的信任”而忽略“60歲以上人群中仍有特定比例的不誠(chéng)信率”。(3)超越機(jī)制。超越認(rèn)知不平衡的不一致性。例如,面對(duì)著名的“電車難題”,電車究竟是撞向少數(shù)還是多數(shù),在危機(jī)時(shí)期通常會(huì)考慮到“為了大眾利益”維持社會(huì)秩序,雖然這種機(jī)制不一定是正確的。(4)分化機(jī)制。將一個(gè)概念劃分為兩個(gè)(或多個(gè))概念,得出一些更加復(fù)雜但平衡的穩(wěn)定結(jié)構(gòu)。例如,在智能武器的使用中,武器(+)傷害人群(-),但出于人道主義的原因又不能傷害人類(+)這會(huì)導(dǎo)致認(rèn)知不平衡,即+·+·-=-,可以通過劃分人群里的敵人(-)和平民(+)來進(jìn)行平衡,分化后的結(jié)構(gòu)會(huì)達(dá)到新的平衡(見圖2)。

      圖2 分化機(jī)制的認(rèn)知平衡

      從計(jì)算角度而言,這四種機(jī)制都可以應(yīng)用于人工智能倫理所涉及的復(fù)雜系統(tǒng),既可以單獨(dú)使用,也可以組合使用,盡管都可能出現(xiàn)突發(fā)現(xiàn)象,但仍不失為一種可行的探索路徑。

      結(jié) 語

      雖然計(jì)算和社會(huì)體系之間的映射并不精確,隨著社會(huì)理論和研究的進(jìn)步,以及計(jì)算各領(lǐng)域的發(fā)展,計(jì)算社會(huì)科學(xué)在研究復(fù)雜社會(huì)問題中取得了良好效果。從基礎(chǔ)的理論研究到原則與規(guī)范的提出,再到人工智能技術(shù)之中的倫理原則的落地,人工智能倫理的研究范式也在發(fā)生相應(yīng)變化。本研究從社會(huì)復(fù)雜網(wǎng)絡(luò)中人類認(rèn)知結(jié)構(gòu)平衡機(jī)制來探討人工智能倫理所面臨的相同問題,是對(duì)人工智能倫理應(yīng)用原則技術(shù)落地微觀層的范式探究,后續(xù)的倫理決策、歸責(zé)機(jī)制等問題還需要進(jìn)一步研究,包括對(duì)人工智能倫理應(yīng)用原則的社會(huì)仿真等,都將成為計(jì)算社會(huì)科學(xué)有益的探索。

      猜你喜歡
      倫理道德人工智能
      《心之死》的趣味與倫理焦慮
      頭上的星空與心中的道德律
      十幾歲(2021年24期)2021-11-18 02:18:40
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      跟蹤導(dǎo)練(五)(2)
      道德是否必需?——《海狼》對(duì)道德虛無主義的思考
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      用道德驅(qū)散“新聞霧霾”
      新聞前哨(2015年2期)2015-03-11 19:29:31
      临汾市| 乌鲁木齐县| 昌乐县| 宿迁市| 闸北区| 色达县| 双辽市| 四子王旗| 沁阳市| 资阳市| 平湖市| 喀喇沁旗| 黄大仙区| 同仁县| 三江| 邮箱| 平乡县| 云安县| 高安市| 安顺市| 武平县| 河池市| 龙南县| 林芝县| 塘沽区| 石林| 自贡市| 南充市| 土默特右旗| 台中市| 南部县| 阳谷县| 剑河县| 饶阳县| 锡林浩特市| 江孜县| 米易县| 澄城县| 望城县| 通化县| 泗洪县|