• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能抗疫及倫理風(fēng)險(xiǎn)管理再探討

      2020-05-25 09:06:02郭銳
      關(guān)鍵詞:抗疫倫理人工智能

      郭銳

      中國(guó)人民大學(xué)法學(xué)院副教授 、未來(lái)法治研究院社會(huì)責(zé)任與治理研究中心主任

      自新冠肺炎疫情發(fā)生以來(lái),國(guó)內(nèi)數(shù)家人工智能企業(yè)將最先進(jìn)的技術(shù)應(yīng)用于抗疫,多人體溫快速檢測(cè)、智能健康問(wèn)答、肺部圖像分析、基于人工智能的防疫方案等技術(shù)解決方案紛紛涌現(xiàn)。其中,公眾對(duì)人工智能驅(qū)動(dòng)的健康登記最有體會(huì)。在杭州等城市,居民持有經(jīng)過(guò)健康登記的二維碼出入小區(qū)、公共場(chǎng)所,健康狀態(tài)根據(jù)個(gè)人行動(dòng)軌跡、接觸人群自動(dòng)更新。在國(guó)際上,不少國(guó)家也將最新的人工智能技術(shù)用于疫情防控。韓國(guó)政府抗疫的經(jīng)驗(yàn)是大規(guī)模檢測(cè)、追蹤和隔離冠狀病毒患者,其中追蹤患者所依賴的就是通過(guò)人工智能系統(tǒng)對(duì)監(jiān)控錄像、智能手機(jī)的位置數(shù)據(jù)和信用卡消費(fèi)記錄的數(shù)據(jù)處理找出患者的活動(dòng)地點(diǎn)并確立病毒傳播鏈。意大利倫巴第當(dāng)局則通過(guò)人工智能系統(tǒng)分析市民手機(jī)傳送的位置數(shù)據(jù)和他們每天通常行走的距離來(lái)確定有多少人遵守政府的封鎖令。以色列政府基于人工智能系統(tǒng)使用手機(jī)位置數(shù)據(jù)的緩存來(lái)精確尋找可能的冠狀病毒患者,等等。

      在為新技術(shù)助力防控疫情感到欣喜的同時(shí),我們必須關(guān)注人工智能可能的倫理風(fēng)險(xiǎn)。這里所說(shuō)的倫理風(fēng)險(xiǎn),不限于因技術(shù)尚不完善導(dǎo)致的負(fù)面后果,而是與技術(shù)本身的特征和它可能產(chǎn)生的深遠(yuǎn)影響相關(guān)。1人們常見(jiàn)的擔(dān)心是,政府在防控疫情的名義之下使用了人工智能系統(tǒng)來(lái)阻止病毒傳播,可能會(huì)帶來(lái)隱私信息泄漏、更多的政府濫權(quán)等結(jié)果。但是,對(duì)人工智能倫理的反思不限于直接的風(fēng)險(xiǎn)。如果是技術(shù)尚不完善,其負(fù)面后果還可以通過(guò)完善技術(shù)加以解決;如果是因人工智能技術(shù)本身的特征帶來(lái)的倫理問(wèn)題,則需要更深入的探討。

      人工智能的倫理風(fēng)險(xiǎn)管理是世紀(jì)難題

      相比以往的技術(shù),人工智能技術(shù)的獨(dú)特之處就在于它的自主性。這種自主性或來(lái)自技術(shù)本身,或來(lái)自應(yīng)用的過(guò)程中社會(huì)賦予它的角色。換言之,人工智能可能超越傳統(tǒng)意義上的工具屬性,也可能參與人的決策。此處說(shuō)的參與“決策”,并不限于讓人工智能直接進(jìn)行決策,也包括它的應(yīng)用對(duì)人們的觀念、行為與相應(yīng)的社會(huì)關(guān)系的改變。20世紀(jì)重要的思想家之一、 法國(guó)哲學(xué)家米歇爾·福柯(Michel Foucault)認(rèn)為,技術(shù)不僅僅是工具,或者不僅僅是達(dá)到目的的手段。??聫?qiáng)調(diào)了作為“工具”的技術(shù)和參與“決策”的技術(shù)之間的區(qū)分。“全景敞視監(jiān)獄”(或稱圓形監(jiān)獄)的設(shè)計(jì),不僅僅是提供了一種監(jiān)視方式而已,而是深刻地改變了監(jiān)視者和被監(jiān)視者的心理認(rèn)知,故此也改變了社會(huì)關(guān)系。在另一位法國(guó)哲學(xué)家雅克·埃呂爾(Jacques Ellul)的眼中,技術(shù)參與人的決策最直接的表現(xiàn)是它對(duì)效率的追求。埃呂爾提出在當(dāng)代技術(shù)已經(jīng)成為一個(gè)系統(tǒng):技術(shù)不再是工具或機(jī)械而已,在十五到十九世紀(jì)的工業(yè)、政治、科學(xué)、科技革命之后,技術(shù)已經(jīng)彌漫在現(xiàn)代思想、生活的每個(gè)層面,讓一切都能被測(cè)量、提升和商品化。2

      上述分析思路,在人工智能技術(shù)的語(yǔ)境下尤其值得借鑒。實(shí)際上,這也是人工智能的倫理風(fēng)險(xiǎn)得到全球各國(guó)關(guān)注的緣由。2019年,全球各國(guó)達(dá)成一項(xiàng)基本共識(shí),就是將人工智能的負(fù)面影響視為倫理風(fēng)險(xiǎn)。中國(guó)在2019年發(fā)布了《人工智能倫理風(fēng)險(xiǎn)分析報(bào)告》,在這一國(guó)際討論中做出了貢獻(xiàn)。從倫理風(fēng)險(xiǎn)的角度來(lái)應(yīng)對(duì)人工智能給社會(huì)帶來(lái)的挑戰(zhàn),使人工智能產(chǎn)生的負(fù)面后果可以在嚴(yán)格的風(fēng)險(xiǎn)管理系統(tǒng)中進(jìn)行識(shí)別、預(yù)防和管理。這意味著在人工智能系統(tǒng)的研發(fā)和應(yīng)用生態(tài)中各個(gè)主體,包括研究機(jī)構(gòu)、行業(yè)領(lǐng)域的科技企業(yè)和科技工作者都要承擔(dān)相應(yīng)的風(fēng)險(xiǎn)管理角色并且各負(fù)其責(zé)、共同協(xié)作。對(duì)社會(huì)而言,當(dāng)可能的負(fù)面后果能夠防控,社會(huì)才能對(duì)人工智能產(chǎn)生信任。人工智能的倫理風(fēng)險(xiǎn)管理,毫不夸張地說(shuō),已是一個(gè)亟待求解的世紀(jì)難題。

      人類對(duì)風(fēng)險(xiǎn)認(rèn)知的非理性和局限性

      應(yīng)當(dāng)看到,風(fēng)險(xiǎn)管理的提出固然為控制人工智能的負(fù)面后果指明了方向,我們還必須注意潛在于其中的某種樂(lè)觀的、進(jìn)化論式的科學(xué)主義的認(rèn)知局限?,F(xiàn)代社會(huì)較之前傳統(tǒng)社會(huì)面臨的風(fēng)險(xiǎn)大大增加了,一定程度上源自于科學(xué)主義傾向。以貝克、吉登斯、拉什為代表的風(fēng)險(xiǎn)社會(huì)理論家看到,現(xiàn)代社會(huì)的風(fēng)險(xiǎn)有別于傳統(tǒng)社會(huì)局部性、個(gè)體性、自然性的外部風(fēng)險(xiǎn),呈現(xiàn)出全球性、社會(huì)性、人為性等結(jié)構(gòu)性特征。高度的現(xiàn)代化往往帶來(lái)高度的風(fēng)險(xiǎn)性。文化人類學(xué)家瑪麗·道格拉斯警告,應(yīng)對(duì)風(fēng)險(xiǎn)等主流方法的內(nèi)在局限也在于其科學(xué)主義傾向:風(fēng)險(xiǎn)被看作是客觀的、可計(jì)算、進(jìn)而可預(yù)防的,而文化因素被排斥在風(fēng)險(xiǎn)研究之外。應(yīng)當(dāng)看到,在當(dāng)代社會(huì)某些風(fēng)險(xiǎn)被人們廣泛認(rèn)知和重視,而其他的風(fēng)險(xiǎn)卻被忽略。當(dāng)現(xiàn)代社會(huì)以科學(xué)、理性的名義對(duì)風(fēng)險(xiǎn)進(jìn)行選擇與排序時(shí),上述基本事實(shí)并未改變。

      換言之,現(xiàn)代社會(huì)的風(fēng)險(xiǎn)的認(rèn)知有其強(qiáng)烈的、未被承認(rèn)的主觀性。這種主觀性體現(xiàn)在行為經(jīng)濟(jì)學(xué)家所看到的社會(huì)對(duì)風(fēng)險(xiǎn)認(rèn)知的非理性,如美國(guó)孫斯坦教授在《風(fēng)險(xiǎn)與理性》中所批評(píng)的。3但更深層次的主觀性,則是我們的“理性”的局限:無(wú)論作為個(gè)體還是社會(huì),人的偏見(jiàn)無(wú)處不在、無(wú)法避免,這必然導(dǎo)致對(duì)人們賴以評(píng)估風(fēng)險(xiǎn)的所謂理性體系的質(zhì)疑。如華東師范大學(xué)社會(huì)發(fā)展學(xué)院人類學(xué)研究所黃劍波教授所言:“限于觀察力、感情動(dòng)機(jī)或者信息不透明,人們不可能洞察所有風(fēng)險(xiǎn),更加不可能將所有備選決策和結(jié)果一一列出。因此,沒(méi)有人能夠認(rèn)識(shí)所有的風(fēng)險(xiǎn),人們僅僅能夠根據(jù)所知的基礎(chǔ)來(lái)選擇風(fēng)險(xiǎn)和安全,對(duì)風(fēng)險(xiǎn)的認(rèn)識(shí)幾乎將必然落入片面狹小的空間中。”4

      對(duì)風(fēng)險(xiǎn)的主觀性的承認(rèn),并非風(fēng)險(xiǎn)管理的“阿喀琉斯之踵”。恰恰相反,這種承認(rèn)可以幫助我們深化對(duì)技術(shù)產(chǎn)生的風(fēng)險(xiǎn)的認(rèn)知。瑪麗·道格拉斯的洞見(jiàn)是,風(fēng)險(xiǎn)根植于人的觀念世界中,表達(dá)的是社會(huì)對(duì)危險(xiǎn)的集體信念與價(jià)值。當(dāng)一種風(fēng)險(xiǎn)產(chǎn)生,我們可以去追溯的除了技術(shù)、經(jīng)濟(jì)等緣由,更應(yīng)當(dāng)深入到它所反映的倫理秩序的危機(jī)中。

      人類所恐懼的是人工智能對(duì)創(chuàng)造秩序的顛覆

      對(duì)人工智能而言,這種危機(jī)或許可以稱為“創(chuàng)造秩序危機(jī)”。大部分人對(duì)探討人工智能倫理的必要性的認(rèn)知,來(lái)自對(duì)機(jī)器智能這一未知事物的恐懼。在藝術(shù)史上,反映這一恐懼最著名的形象是“弗蘭肯斯坦”(英國(guó)作家瑪麗·雪萊長(zhǎng)篇小說(shuō)主角)——一個(gè)在雷電中誕生的人和機(jī)器結(jié)合的怪物。對(duì)這些強(qiáng)大卻并不良善的力量,社會(huì)本能地感到恐懼,因?yàn)槲覀兒ε挛覀兯鶆?chuàng)造的最終帶給我們毀滅。人工智能會(huì)不會(huì)和“弗蘭肯斯坦”一樣危及作為技術(shù)創(chuàng)造者的人類?改變這一創(chuàng)造秩序,將完全顛覆人所能想象的社會(huì)秩序,這是人們感知到風(fēng)險(xiǎn)的根本緣由。站在一場(chǎng)技術(shù)革命的入口處,人類所恐懼的是秩序的顛覆:伊甸園中的亞當(dāng)和夏娃被魔鬼描述的分辨善惡樹(shù)的果子所誘惑,上帝的創(chuàng)造秩序因此被顛覆。如果說(shuō)人類對(duì)人工智能的恐懼不是因?yàn)闄C(jī)器做出某個(gè)不利于人的決策,而是機(jī)器代替人決策這件事情本身,那么我們也許可以看到人工智能倫理最深層的問(wèn)題是對(duì)創(chuàng)造秩序的顛覆:人類面對(duì)被自己創(chuàng)造的技術(shù)反噬的可能性。換言之,人們將人工智能的負(fù)面后果看作是風(fēng)險(xiǎn),本身體現(xiàn)了我們對(duì)世界的應(yīng)然性的想象可能遭遇的挫敗。

      面對(duì)一個(gè)被自己創(chuàng)造的技術(shù)顛覆的可能性,人類不得不重新面對(duì)一系列的問(wèn)題。當(dāng)我們思考對(duì)人工智能倫理風(fēng)險(xiǎn)的治理,必須謹(jǐn)慎對(duì)待技術(shù)對(duì)個(gè)人自我認(rèn)知、人際關(guān)系、政治秩序的改變。我們要特別關(guān)注人工智能技術(shù)在應(yīng)用中潛藏的“簡(jiǎn)單化”的進(jìn)路。有了人工智能技術(shù),商業(yè)和公共決策者似乎可以將社會(huì)以一種更為清晰的方式呈現(xiàn)在眼前:人們的偏好可以用大數(shù)據(jù)描述,眾人的選擇可以越來(lái)越精準(zhǔn)地預(yù)測(cè)。但這種清晰化的預(yù)測(cè)往往難以避開(kāi)算法設(shè)計(jì)中的錯(cuò)誤、疏忽和歪曲以及數(shù)據(jù)記錄、統(tǒng)計(jì)中不同程度的不準(zhǔn)確和缺失。當(dāng)大數(shù)據(jù)為公共決策提供了廣闊的樣本依托時(shí),社會(huì)生活中的人也逐漸被簡(jiǎn)化為統(tǒng)計(jì)學(xué)意義上的“人”,其主體性在無(wú)限的樣本容量下被不斷削弱,這為某些算法的濫用、算法歧視的產(chǎn)生鋪平了道路。人工智能不是一個(gè)可預(yù)測(cè)的、完美的理性機(jī)器,它會(huì)擁有人類可能擁有的道德缺陷,受制于人們使用的目標(biāo)和評(píng)估體系。對(duì)人工智能的使用故此少不了對(duì)人性和社會(huì)本身的審視——誰(shuí)在使用?為了什么而使用?在我們的世界中扮演著怎樣的角色?數(shù)據(jù)是誰(shuí)給的?訓(xùn)練的目標(biāo)是誰(shuí)定的?我們期望中的人工智能決策會(huì)與我們自己的善惡選擇一致嗎?

      人工智能抗疫須警惕倫理風(fēng)險(xiǎn)

      防控疫情事關(guān)重大,應(yīng)用于其中的人工智能技術(shù)固然并不完美,但我國(guó)民眾對(duì)此表現(xiàn)出巨大的寬容。媒體報(bào)道多起居民遇到健康碼出問(wèn)題的事件,其中受影響的居民總是耐心地等待和配合。在新加坡、韓國(guó)、以色列和歐美一些國(guó)家,在抗疫期間對(duì)隱私信息的獲取總體上也得到了民眾的支持。但是,應(yīng)當(dāng)看到,人工智能技術(shù)本身帶來(lái)的倫理風(fēng)險(xiǎn)仍在。這其中既有直觀的短期風(fēng)險(xiǎn),如隱私信息的保護(hù)問(wèn)題、算法存在安全隱患、算法偏見(jiàn)導(dǎo)致歧視性政策等,也有相對(duì)間接的長(zhǎng)期風(fēng)險(xiǎn),如人工智能對(duì)個(gè)人隱私、產(chǎn)權(quán)、競(jìng)爭(zhēng)、就業(yè)甚至社會(huì)結(jié)構(gòu)的影響。盡管短期風(fēng)險(xiǎn)更具體可感,但長(zhǎng)期風(fēng)險(xiǎn)所帶來(lái)的社會(huì)影響更為廣泛而深遠(yuǎn),同樣應(yīng)予重視。5 在抗疫緊急狀態(tài)結(jié)束之后,人類仍然必須面對(duì)這一世紀(jì)難題。

      1? ?關(guān)于人工智能倫理風(fēng)險(xiǎn)的相關(guān)內(nèi)容,參見(jiàn)《人工智能倫理風(fēng)險(xiǎn)報(bào)告》(國(guó)家標(biāo)準(zhǔn)委人工智能總體組,2019年5月), 中國(guó)電子技術(shù)標(biāo)準(zhǔn)化研究院網(wǎng)站,http://www.cesi.cn/201904/5036.html。

      2? ?Ellul, Jacques. The Technological Society. New York: Knopf, 1967.

      3? ?孫斯坦:《風(fēng)險(xiǎn)與理性》,中國(guó)政法大學(xué)出版社,2005年。

      4? ?黃劍波、熊暢:《瑪麗·道格拉斯的風(fēng)險(xiǎn)研究及其理論脈絡(luò)》,《思想戰(zhàn)線》2019年第4期。

      5? ?更多的討論,見(jiàn)《人工智能倫理風(fēng)險(xiǎn)報(bào)告》,前注1。

      猜你喜歡
      抗疫倫理人工智能
      抗疫路上 不屈前行
      《心之死》的趣味與倫理焦慮
      “畫(huà)”說(shuō)抗疫
      抗疫之歌
      團(tuán)結(jié)抗疫
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      台中县| 贵阳市| 沈阳市| 汶川县| 新疆| 彭山县| 托克托县| 茂名市| 平凉市| 天峻县| 井陉县| 鸡东县| 东丽区| 博湖县| 阜平县| 揭东县| 固阳县| 泗阳县| 静安区| 金乡县| 拉孜县| 时尚| 会昌县| 四平市| 彰化县| 桦南县| 普洱| 鱼台县| 阿合奇县| 喀喇沁旗| 尼勒克县| 攀枝花市| 盈江县| 江川县| 东莞市| 聂荣县| 揭西县| 郓城县| 雷州市| 贡山| 玉林市|