• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能的法律風(fēng)險及應(yīng)對路徑

      2021-01-15 02:43:14
      關(guān)鍵詞:個人信息人工智能人類

      李 旭

      (湖南師范大學(xué) 馬克思主義學(xué)院,湖南 長沙410000)

      人工智能科技的跨越式發(fā)展已迅速推動我國多領(lǐng)域的聯(lián)動進(jìn)步,其應(yīng)用之廣、影響之深已成為我國新時代的新引擎。人工智能使人類進(jìn)入“智能時代”,體驗“智能生活”,不過這種智能時代與生活卻給人以復(fù)雜的雙重情感表征。一方面,人工智能可指引我們破解現(xiàn)有諸多領(lǐng)域的困境,帶領(lǐng)我們探索神秘未知領(lǐng)域的奧妙,擔(dān)任工具角色更好地服務(wù)于人類的生活和工作。另一方面,我們目前生活在“弱人工智能時代”,但是科技的發(fā)展呈指數(shù)倍態(tài)勢,或許在不久的未來,我們會面臨新的“智能拐點”,屆時“強(qiáng)人工智能”甚至“超人工智能”將會統(tǒng)馭人類生活。在各種制度尚有缺陷、尚未有效建立前,且存在尚無法約束的法外空間,或許人工智能將會是人類親手建造并開啟的“潘多拉魔盒”。因此,人工智能的科技革新并非一帆風(fēng)順,會面臨諸多未知艱巨的挑戰(zhàn)。比如,如何讓人工智能獲得感情、思維、自我意識等技術(shù)難關(guān);如何進(jìn)行預(yù)先立法來防范人工智能法律風(fēng)險的法律制度難關(guān)等等。這些已成為社會公眾共同關(guān)心的重點、熱點問題,事實上,未來人工智能的發(fā)展會超出法律的可控邊界這一趨勢是極可能的。中共十九屆四中全會《中共中央關(guān)于堅持和完善中國特色社會主義制度 推進(jìn)國家治理體系和治理能力現(xiàn)代化若干重大問題的決定》(簡稱《決定》)提出:“建立健全運用互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等技術(shù)手段進(jìn)行行政管理的制度規(guī)則?!笨梢姡h與國家對人工智能技術(shù)予以高度重視,通過風(fēng)險管控來降低人工智能所帶來的風(fēng)險已成為共識與當(dāng)務(wù)之急。

      一 人工智能技術(shù)法律風(fēng)險的主要形態(tài)

      法律風(fēng)險一般是指由于合約在法律范圍內(nèi)無效而無法履行,或者合約訂立不當(dāng)?shù)仍蛞鸬娘L(fēng)險。根據(jù)《巴塞爾新資本協(xié)議》,法律風(fēng)險是一種特殊類型的操作風(fēng)險,包括但不限于因監(jiān)管措施和民商事糾紛解決而產(chǎn)生的罰款或懲罰性賠償所帶來的風(fēng)險敞口。而本文人工智能技術(shù)法律風(fēng)險的定義為:在人工智能技術(shù)的發(fā)展進(jìn)程中,由于智能化程度的高低差異,使得智能技術(shù)處于或超出法律的邊界而引發(fā)的一系列法律問題,包括風(fēng)險發(fā)生的概率(可能性、危險性)及風(fēng)險導(dǎo)致的后果(期待損失值、損失的不確定性)。

      (一)個人信息與個人隱私泄露風(fēng)險

      無論是哪種類型的人工智能(弱、強(qiáng)、超),只要涉及大數(shù)據(jù),都有可能因使用大數(shù)據(jù)而造成個人信息侵權(quán)。[1]而個人信息與個人隱私有重合交叉,根據(jù)Daniel J. Solove 和Paul M. Schwartz 的觀點,個人信息的精髓是一種隱私,在法律上作為隱私受到保護(hù)。且《中華人民共和國民法總則》(簡稱《民法總則》)將隱私權(quán)與個人信息置于同一章下的人格權(quán)編制度中,充分說明了二者的高度相關(guān)性。此外,隨著互聯(lián)網(wǎng)智能化的不斷發(fā)展,雖呈現(xiàn)出諸多立法對個人隱私權(quán)保護(hù)明顯增強(qiáng)的態(tài)勢,但若落到實處,反而難以令人滿意。特別是互聯(lián)網(wǎng)智能化與商業(yè)智能化浪潮的出現(xiàn),網(wǎng)絡(luò)社交、娛樂、購物等網(wǎng)絡(luò)平臺實名制度的建立及個人征信機(jī)制的確立,每個人的實時信息都被網(wǎng)絡(luò)大數(shù)據(jù)、區(qū)塊鏈技術(shù)所容納,個人信息由于脫離本體而寄托于技術(shù)載體的特征使得個人隱私的保護(hù)難度不斷攀升。事實上,人工智能的日益進(jìn)步和發(fā)展,必然會增強(qiáng)站在人工智能發(fā)展前沿的那些“大數(shù)據(jù)控制者”的能力,使越來越多的人難以保護(hù)自己的隱私和自由。[2]而這一態(tài)勢必然致使傳統(tǒng)隱私權(quán)的保護(hù)與現(xiàn)實的逐漸脫節(jié)。

      個人信息與個人隱私的保護(hù)有賴于人工智能的本質(zhì)支撐,即人工智能的“感知—推理—學(xué)習(xí)—行動”四個環(huán)節(jié)均以大數(shù)據(jù)為內(nèi)驅(qū)力。人工智能的服務(wù)系統(tǒng)需要對個人信息進(jìn)行“收集—分析—使用”,才能更好地為人們提供精準(zhǔn)化、高效化服務(wù)。在這一系列環(huán)節(jié)中,將涉及如何更好地使用個人信息數(shù)據(jù)來有效保護(hù)個人隱私的難題。比如,在智能傳播環(huán)境下,為了使個人數(shù)據(jù)的商業(yè)價值最大化,控制傳播權(quán)的媒體公司利用智能技術(shù)擴(kuò)大傳播力,吞噬人們的隱私。同時,隨著公眾獨立傳播能力的提高,“迷戀個人曝光”和窺探他人隱私的行為持續(xù)增長,人們隱私面臨的風(fēng)險也越來越大。[3]再如,我們在進(jìn)行網(wǎng)絡(luò)搜索后,后臺便會保留搜索瀏覽痕跡,在多次操作后,該技術(shù)平臺便會對多次瀏覽痕跡進(jìn)行關(guān)聯(lián)分析,進(jìn)而推送各種相關(guān)信息。顯然,我們的隱私信息在不自覺狀況下已泄露給一些網(wǎng)絡(luò)平臺。正如Lori Andrews 所言:我們的時代不再是零隱私的時代,而是消極隱私的時代,我們的隱私到處都被偷窺,甚至在我們自己的朋友圈或微博上,隱私權(quán)已經(jīng)不復(fù)存在,它在你毫無準(zhǔn)備地輕觸鍵盤的那一刻消失了。[4]或許我們的數(shù)字信息將比我們真實的自己更重要、更有價值。

      (二)侵權(quán)責(zé)任風(fēng)險

      人工智能技術(shù)欲獲得快速發(fā)展與廣泛運用,就必須以產(chǎn)品形式投入實踐環(huán)節(jié),而在產(chǎn)品使用過程中,不可避免地會產(chǎn)生侵權(quán)問題,包括人工智能產(chǎn)品本身質(zhì)量問題而產(chǎn)生的侵權(quán),或是人工智能產(chǎn)品被不當(dāng)使用而產(chǎn)生的侵權(quán)。例如,2016 年5 月,特拉斯發(fā)生了世界上第一起自動駕駛汽車因系統(tǒng)故障而產(chǎn)生的車禍。而以目前的消費趨勢,消費者更愿意購買經(jīng)過計算機(jī)處理的標(biāo)準(zhǔn)化產(chǎn)品。[5]而確定侵權(quán)責(zé)任涉及人工智能的法律主體地位問題,須予以區(qū)別對待。在弱人工智能狀態(tài)下,人工智能產(chǎn)品僅具有工具屬性,不具備自主意識,不能獲得法律主體地位;而在強(qiáng)人工智能與超人工智能狀態(tài)下,人工智能產(chǎn)品具有獨立自主意識,可自主實施行為,這類智能技術(shù)產(chǎn)品可以獲得法律主體地位。前者會產(chǎn)生受人類控制的“輕微”侵權(quán)后果,而后者可能會產(chǎn)生超越人類控制邊界的“嚴(yán)重”侵權(quán)后果。

      (三)刑事犯罪風(fēng)險

      人工智能技術(shù)最大的威脅莫過于其刑事風(fēng)險。一方面,智能產(chǎn)品研發(fā)方或使用方不當(dāng)利用,甚至將其作為犯罪工具而造成的刑事后果;另一方面,人工智能產(chǎn)品具備獨立自主意識后可能會形成犯罪動機(jī)、產(chǎn)生犯罪意圖、甚至實施犯罪行為而造成的刑事后果。前者可能使某些傳統(tǒng)犯罪形式造成的危害后果加深、程度加重、面積變廣,即產(chǎn)生“量變”;后者可能致使新型犯罪形式的出現(xiàn),其犯罪表現(xiàn)更加智能,危害后果更深,即產(chǎn)生“質(zhì)變”。這些后果可能對人類的生存構(gòu)成巨大威脅,即對人類造成傷害或毀滅人類。例如,有學(xué)者預(yù)言:“在人工智能時代,人類的神圣地位將會消亡、不復(fù)存在,人類將變成機(jī)器人的奴隸,成為機(jī)器人飼養(yǎng)的動物,還有可能被機(jī)器人隨意宰殺?!保?]未來的人工智能技術(shù)可能會逐漸進(jìn)化至非常強(qiáng)大,脫離人類為其設(shè)定的“法律制度”與“道德紅線”,亦有可能會產(chǎn)生“反叛意識”,進(jìn)而對抗人類,而人類又如何對此進(jìn)行限制呢?如果其施行犯罪后,人類該如何對待這類“犯人”?是否應(yīng)該像人類一樣承擔(dān)刑事處罰?這些問題值得進(jìn)一步深究。

      (四)勞動者就業(yè)風(fēng)險

      人工智能時代的到來是對人類中心主義的巨大挑戰(zhàn),必將對人類各個行業(yè)形成巨大沖擊,屆時將導(dǎo)致人類與其密不可分的“勞動”相分離,引發(fā)一系列失業(yè)問題。就像比爾·蓋茨和埃隆·馬斯克所表示的那樣,“人工智能將使世界各地的許多人失業(yè)”,“它有著不可思議的潛力,然而,它也帶來了巨大的危險,應(yīng)該審慎地追求,并投入足夠的思想來改變我們的社會”[7]。不僅如此,它也是對馬克思“勞動價值論”原理的挑戰(zhàn),“勞動”使得人類區(qū)別于其他物種,但是當(dāng)人工智能替代人類勞動時,“勞動”這一特質(zhì)將與人類逐漸分離,人類將成為這一偉大創(chuàng)造物的配角或淪為其附庸?!吨腥A人民共和國勞動法》(簡稱《勞動法》)中對“勞動者”有清晰的界定,即“勞動者”主要是“自然人”,本質(zhì)是“人”而非“物”。比如蘇寧發(fā)布的“臥龍一號”自動送貨機(jī)器人,順豐與京東研發(fā)的配送貨物的無人機(jī),其實質(zhì)仍是“物”。但是,當(dāng)人工智能技術(shù)越來越進(jìn)步,步入成熟階段時,或許它將站在“勞動”的金字塔頂端,從而形成“勞動壟斷”,或許它將進(jìn)入《勞動法》,成為勞動法的主角。研究表明,“人工智能技術(shù)在金融服務(wù)、安全保障、客戶服務(wù)等領(lǐng)域的應(yīng)用,其效率和準(zhǔn)確性都遠(yuǎn)遠(yuǎn)超出了人類”[8]。也有研究者表明,人工智能“在改變勞動就業(yè)市場格局的基礎(chǔ)上,也給勞動法制改革帶來了空前挑戰(zhàn)”[9]。

      (五)行政規(guī)制風(fēng)險

      人工智能技術(shù)的進(jìn)步將會對行政決策與立法產(chǎn)生一定影響。一方面,當(dāng)科技時代以人為中心時,即在弱人工智能狀態(tài)下時,人們主要的行為內(nèi)容便是依靠行政公法手段來對人工智能的決策與行為予以規(guī)制,但是由于規(guī)制有一定的標(biāo)準(zhǔn),且此標(biāo)準(zhǔn)程度較低,在數(shù)據(jù)安全方面與數(shù)據(jù)共享方面尤為突出,并存在一定制度分歧,可能引發(fā)行政規(guī)制主體(尤其是國家或地區(qū))內(nèi)部萌生不協(xié)調(diào)因素。另一方面,當(dāng)科技時代以“人工智能”為中心時,即在強(qiáng)人工智能或超人工智能狀態(tài)下時,人類擔(dān)憂的是利用人工智能技術(shù)進(jìn)行決策與立法或人工智能自主決策與立法可能會給法治社會帶來的影響。一是人工智能的行政主體地位并不明確,倘若發(fā)生決策與立法的失誤時,引發(fā)的追責(zé)困難問題;二是人工智能自主決策與立法難以由人為加以控制,超出行政行為主體的認(rèn)知范疇,且決策與立法的合理性、合法性、程序正當(dāng)性、高效實用性等難以預(yù)測。

      (六)軍事應(yīng)用的國際法風(fēng)險

      當(dāng)下,人工智能技術(shù)已被世界各國廣泛應(yīng)用于軍事領(lǐng)域,涉及核心的軍事指揮系統(tǒng)、強(qiáng)大的軍事裝備環(huán)節(jié)、高效的后勤保障系統(tǒng)、先進(jìn)的軍事訓(xùn)練方案等,覆蓋海陸空甚至網(wǎng)絡(luò)空間等領(lǐng)域。例如:在空軍領(lǐng)域,有美國的“RQ-4 全球鷹戰(zhàn)略無人機(jī)”;在陸軍領(lǐng)域,有法國的“FELIN 單兵作戰(zhàn)系統(tǒng)”;在海軍領(lǐng)域,有世界上最大的無人水上機(jī)器人“美國無人駕駛軍艦‘海上獵鷹’”;在網(wǎng)絡(luò)空間領(lǐng)域,美國將網(wǎng)絡(luò)攻擊也視為戰(zhàn)爭行為,作為第五作戰(zhàn)領(lǐng)域。雖然,人工智能技術(shù)在軍事應(yīng)用方面已取得較大成效,但是,人工智能技術(shù)本身所具有的自主性、非理智性、不可靠性、不可預(yù)測性等特征可能會引發(fā)一系列國際法風(fēng)險。尤其是人工智能武器的運用,更加劇了這種風(fēng)險。一般而言,“人工智能武器是指將人工智能應(yīng)用于軍事目的的武器系統(tǒng)。它是一種能夠識別、分析甚至選擇目標(biāo)以施加武力的機(jī)器,不需要人力資源的參與或干預(yù),或是具有先進(jìn)的自動控制能力,基于對世界的主動感知做出自主決策,直接或間接地實現(xiàn)軍事偵察目的或軍事攻擊目的的新型先進(jìn)武器”[10]。

      其一,作為人工智能武器最高形式的自主武器作戰(zhàn)系統(tǒng)的運用,應(yīng)該嚴(yán)格遵守戰(zhàn)爭法的法律規(guī)范,但其使用可能會造成違反國際法的后果,倘若對攻擊目標(biāo)識別錯誤,造成誤判,將會導(dǎo)致其行為違反國際人道法原則。假使有些國家將“自主開火權(quán)”賦予該武器,可能使自主武器成為戰(zhàn)爭的“最佳代理”,屆時人類將遭遇難以承受的嚴(yán)重后果。

      其二,人工智能系統(tǒng)可能使人類依賴于其強(qiáng)大的軍事指揮模擬系統(tǒng)、輔助決策系統(tǒng),甚至依賴其執(zhí)行指揮作戰(zhàn)任務(wù),倘若將軍事決策權(quán)交于人工智能,可能會因其決策失誤而引起嚴(yán)重的國際政治風(fēng)險。

      其三,依賴于數(shù)據(jù)與算法的人工智能具有不確定性與不可預(yù)測性,本身具有質(zhì)量和安全風(fēng)險。如果其數(shù)據(jù)庫與算法遭到破壞與攻擊,將會使算法偏離原有路徑,人工智能武器將難辨敵我,會嚴(yán)重挑戰(zhàn)武裝沖突法的區(qū)分原則與比例原則。

      其四,世界各國可能會為了保證其軍事領(lǐng)域的實力或優(yōu)勢,不在人工智能武器上加以設(shè)限,大規(guī)模研發(fā)與使用,導(dǎo)致全球范圍內(nèi)上演激烈而緊張的軍備競賽,給國際關(guān)系增添諸多不確定性因素。

      二 人工智能技術(shù)法律風(fēng)險的成因分析

      (一)主觀因素

      1.研發(fā)者與設(shè)計者的主觀因素。人工智能通俗來說就是人類的一種獨創(chuàng)性作品,該作品的創(chuàng)作主體即研發(fā)者與設(shè)計者的主觀價值追求會對人工智能的外化行為產(chǎn)生諸多影響。由于人工智能依賴于互聯(lián)網(wǎng)、大數(shù)據(jù)、算法三大核心要素,而人工智能的外化行為主要就是算法的外化,而算法的價值以研發(fā)者與設(shè)計者的主觀價值為依托,倘若研發(fā)者與設(shè)計者的人文情懷、感性經(jīng)驗、利益衡量、道德倫理、公平正義、社會理解等價值觀念被融入算法,由于此類價值觀念具有不確定性、不可預(yù)測性,難免產(chǎn)生一系列法律風(fēng)險。

      2.使用者的主觀因素。人工智能被研發(fā)者與設(shè)計者所創(chuàng)造出來時,已然成為脫離于其創(chuàng)作主體的獨立產(chǎn)品,該產(chǎn)品使用者的主觀價值決定了人工智能法律風(fēng)險的發(fā)生與否。由于我們現(xiàn)在生活在弱人工智能時代,人工智能此時并無獨立自我意識與行為,只能由其使用者來進(jìn)行操控,而其使用者的主觀目的、內(nèi)在動機(jī)、利益追求等價值觀念會決定人工智能的外在行為,倘若此價值觀念呈惡性態(tài)勢,那將會引發(fā)諸多法律風(fēng)險。

      (二)客觀因素

      1.算法疏漏。人工智能技術(shù)依賴人類編寫的算法進(jìn)行系統(tǒng)運作,但是,“當(dāng)算法觸發(fā)一些自動動作(如自動傷害行為)時,人類便會被排除在此循環(huán)之外,只能被動性地接受結(jié)果”,且“危險在于沒有人能夠確保算法的設(shè)計是準(zhǔn)確無誤的,尤其是當(dāng)它與許多算法交互時”。[11]此外,在人工智能的算法運行中,即“在其不可預(yù)測的序列中更容易發(fā)生一些小的疏漏,這可能會導(dǎo)致更大、更具破壞性的事故”[12]。如果放任由人工智能調(diào)整復(fù)雜的社會關(guān)系,極有可能引發(fā)社會治理的混亂,進(jìn)而引發(fā)一系列不可預(yù)知的法律風(fēng)險。

      2.數(shù)據(jù)不足。數(shù)據(jù)是人工智能的主要原料,算法是人工智能的技術(shù)工具。當(dāng)代社會,數(shù)據(jù)更新與發(fā)展的速度非常之快,若人工智能沒有足夠龐大、實時更新的數(shù)據(jù)為原料,就無法準(zhǔn)確、快速、成熟地將其創(chuàng)作主體的思維、邏輯、經(jīng)驗轉(zhuǎn)化為算法,也就無法實現(xiàn)精準(zhǔn)的行為外化,從而發(fā)生行為失誤、遲滯等不利后果。若某些重要領(lǐng)域應(yīng)用了沒有足夠數(shù)據(jù)支撐的人工智能技術(shù),其造成的后果更為嚴(yán)重,極易致使法律風(fēng)險的形成。

      3.行為失控。人工智能依賴于大數(shù)據(jù)的持續(xù)“喂養(yǎng)”,作為一種前所未有的方式,大數(shù)據(jù)可以通過對海量數(shù)據(jù)的分析獲得有價值的產(chǎn)品和服務(wù)或獲得洞察力。作為計算機(jī)科學(xué)的一個分支,人工智能技術(shù)憑借大數(shù)據(jù)容量大、種類多、速度快、復(fù)雜化、變化快等特征使通過“智能感知—推理—學(xué)習(xí)—行動”四個環(huán)節(jié)成為一門基于多學(xué)科互相滲透的綜合性學(xué)科,旨在通過收集、分析、使用海量數(shù)據(jù)并借助機(jī)器對人類大腦予以模擬。倘若人工智能的感知、推理與學(xué)習(xí)能力不斷深化,以致達(dá)到對人腦的高度模擬,使其擁有自我意識、情感、思維與創(chuàng)造力或自我決策、自我執(zhí)行的能力時,人類將無法預(yù)知該意識的內(nèi)容與趨勢,對其行動全然未知并不可理解,就似昆蟲無法探知與理解人類如何進(jìn)行思考與行為一般,它將是由人類造就并脫離人類掌控的智能頂端技術(shù),并且其行為的“善”與“惡”不可預(yù)知。這種寄托于人工智能技術(shù)自身道德的做法,極易對人類產(chǎn)生重大威脅,也自然會產(chǎn)生許多不可預(yù)測的法律風(fēng)險。

      三 人工智能技術(shù)法律風(fēng)險的應(yīng)對路徑

      中共十九屆四中全會《決定》提出:“加強(qiáng)重要領(lǐng)域立法,以良法保障善治?!比斯ぶ悄芗夹g(shù)作為科技發(fā)展的重要領(lǐng)域,必須要有相應(yīng)的立法措施為其立法,才能構(gòu)建完善的法律體系。但是,人工智能技術(shù)的進(jìn)步與立法并不同步,即立法具有遲延性與滯后性。因此,除了立法措施外,亦可采取以下應(yīng)對路徑來應(yīng)對未來人工智能可能引起的法律風(fēng)險。

      (一)個人信息與個人隱私泄露風(fēng)險的應(yīng)對路徑

      在智能化時代,每個人的個人信息與隱私將是其價值的外現(xiàn),真正對其實現(xiàn)保護(hù)便是使其處于“自由”狀態(tài)。“然而,在數(shù)據(jù)和信息繁榮的背后,個人基礎(chǔ)數(shù)據(jù)、設(shè)備數(shù)據(jù)、網(wǎng)絡(luò)數(shù)據(jù)和行為數(shù)據(jù)等隱私和信息將面臨巨大的安全風(fēng)險”[13]。為此,亟須對個人信息與個人隱私加強(qiáng)保護(hù)。

      1.明確個人信息與個人隱私的保護(hù)范圍。在《中華人民共和國民法典》(簡稱《民法典》)人格權(quán)編分別對隱私權(quán)與個人信息的基本內(nèi)容予以細(xì)致規(guī)定。一方面,《民法典》第一〇三二條對自然人隱私權(quán)明確規(guī)定為“不愿為他人知曉的私密空間、私密活動和私密信息等”,這將其設(shè)置為一種排他性權(quán)利。另一方面,《民法典》第一〇三四條對個人信息明確規(guī)定為“以電子或者其他方式記錄的能夠單獨或者與其他信息結(jié)合識別特定自然人的各種信息”,且對收集個人信息的具體原則與免責(zé)事由、信息主體享有的權(quán)利等加以規(guī)定。由此可看出此規(guī)定的明顯表征:將二者分別進(jìn)行不同的規(guī)定,對二者范圍予以明確界定,未將二者等同;將個人信息予以擴(kuò)張,增加電話號碼、電子郵箱地址與行蹤信息。

      2.堅持并遵守目的正當(dāng)原則、必要原則與告知同意原則。一方面,三項原則的平行并用,從橫向進(jìn)行保護(hù)。正當(dāng)目的原則包括四要素:服務(wù)相關(guān)、目的具體特定、信息方有一致明確的理解、合法。這就要求信息業(yè)者在收集數(shù)據(jù)之前,要確保收集信息目的的正當(dāng)性,即收集到的信息與所提供的服務(wù)相關(guān)、具體、清晰、合法。如“裸貸”這種以“裸”換“貸”的信息收集方式,不僅違反了民法的公序良俗原則,還明顯違反了正當(dāng)目的原則。必要原則具體包含三個要素:信息必需且充足、服務(wù)相關(guān)、必要且不過量。這就要求信息業(yè)者需要確保收集到的信息是實現(xiàn)其服務(wù)功能的最小信息。告知同意原則包含兩個要素:對方充分告知與個人自愿同意。這要求信息業(yè)者在收集個人信息時,必須充分告知服務(wù)與產(chǎn)品信息并經(jīng)個人自愿同意。另一方面,告知同意原則受目的正當(dāng)原則與必要原則的限制,類似上下位關(guān)系,進(jìn)而從縱向進(jìn)行保護(hù)。這就要求信息業(yè)者在收集個人信息時,首先要考慮目的是否正當(dāng)、必要。只有在符合此前提下,才能考慮征得信息主體的同意這一條件,若個人信息的收集與使用目的無關(guān),將失去要求信息主體同意的前提。[14]如荷蘭數(shù)據(jù)保護(hù)局對谷歌數(shù)據(jù)融合事件的調(diào)查報告案件,由于谷歌目的不清、主動收集用戶信息,違反了目的正當(dāng)與必要原則,即便用戶同意,也是違法行為。

      3.增強(qiáng)自然人個人信息與隱私的自主控制能力與主動防御能力。在智能化時代,個人信息具有被全方位收集、永久性存儲的特點,個人隱私具有動態(tài)化、場景化、相對性、持久性等特征,可通過立法賦予自然人對其個人信息的刪除、更正權(quán)利,并且在權(quán)利的范圍上,“它需要進(jìn)一步擴(kuò)展,以涵蓋所有類型的個人信息處理行為,信息主體應(yīng)具有更完整的個人信息權(quán),包括轉(zhuǎn)讓權(quán)、異議權(quán)和限制權(quán)”[15]。并且,這些權(quán)利應(yīng)遵循目的正當(dāng)性、行為必要性、涉他無害性的要求,信息業(yè)者在個體合法行權(quán)時不得以任何理由加以拒絕,如此,可強(qiáng)化個人對信息與隱私的自控力與防御力。

      (二)侵權(quán)責(zé)任風(fēng)險的應(yīng)對路徑

      1.弱人工智能狀態(tài)下的責(zé)任承擔(dān)。在此關(guān)系下,人工智能尚不具備法律主體地位,“也就是說,人類對人工智能的態(tài)度還處于人工智能薄弱的階段。大數(shù)據(jù)雖然在發(fā)揮作用,但本質(zhì)上仍處于工具化階段,與傳統(tǒng)產(chǎn)品并無區(qū)別”[16]。故此,縱使其造成侵權(quán)后果,其背后的數(shù)據(jù)擁有者也不應(yīng)該承擔(dān)責(zé)任,而一般應(yīng)由人工智能產(chǎn)品的生產(chǎn)方與銷售方承擔(dān)多數(shù)責(zé)任,銷售方承擔(dān)過錯責(zé)任,生產(chǎn)方有免責(zé)事由時不承擔(dān)責(zé)任。若使用時存在過失,當(dāng)使用方與操作方為同一主體時,便由其分擔(dān)相應(yīng)責(zé)任,當(dāng)使用方與操作方非屬同一主體時,應(yīng)遵循“誰的行為誰承擔(dān)”的原則。

      2.強(qiáng)人工智能狀態(tài)下的責(zé)任承擔(dān)。在此關(guān)系下,人工智能產(chǎn)品具有一定法律主體地位,一般應(yīng)由產(chǎn)品生產(chǎn)方承擔(dān)多數(shù)責(zé)任,銷售方有過錯時才承擔(dān)責(zé)任。而使用方則相當(dāng)于人工智能產(chǎn)品“監(jiān)護(hù)人”的角色,當(dāng)使用方盡到監(jiān)管職責(zé)時,侵權(quán)責(zé)任由具備獨立意識的人工智能產(chǎn)品與其生產(chǎn)方承擔(dān)責(zé)任,而當(dāng)使用方未盡到監(jiān)管職責(zé)時,侵權(quán)責(zé)任由使用方、人工智能產(chǎn)品及其生產(chǎn)方承擔(dān)相應(yīng)責(zé)任。

      3.超人工智能狀態(tài)下的責(zé)任承擔(dān)。在此關(guān)系下,人工智能產(chǎn)品具備法律主體地位,完全具備獨立自主意識,此時不存在產(chǎn)品使用方與銷售方承擔(dān)責(zé)任的問題,而由生產(chǎn)方與人工智能產(chǎn)品共同擔(dān)責(zé)。不論生產(chǎn)方有無免責(zé)事由,只要該智能產(chǎn)品存在侵權(quán)行為并造成侵權(quán)后果,不論后果嚴(yán)重與否,生產(chǎn)方均應(yīng)與該智能產(chǎn)品共同承擔(dān)責(zé)任。

      4.可成立人工智能監(jiān)管部門,出臺人工智能物保險制度。一方面,可在人工智能產(chǎn)品進(jìn)入市場前進(jìn)行檢測調(diào)查,降低其侵權(quán)概率。另一方面,保險制度的設(shè)計,可以保證侵權(quán)損害程度的最小化。

      (三)刑事犯罪風(fēng)險的應(yīng)對路徑

      1.確定研發(fā)者與使用者的刑事責(zé)任。首先,倘若其故意利用人工智能技術(shù)或產(chǎn)品實施犯罪危害行為,應(yīng)將人工智能技術(shù)或產(chǎn)品視作其“犯罪工具”,所有刑事責(zé)任均應(yīng)當(dāng)由研發(fā)者或使用者承擔(dān)。倘若人工智能產(chǎn)品通過深度學(xué)習(xí),具備了一定獨立自主意識,可自主決定犯罪行為或判斷犯罪方式,若該智能產(chǎn)品故意實施了犯罪行為,此時智能產(chǎn)品實現(xiàn)的仍是研發(fā)者的延伸意識,刑事責(zé)任應(yīng)當(dāng)由研發(fā)者承擔(dān),智能產(chǎn)品本身不承擔(dān)刑事責(zé)任。其次,倘若以當(dāng)時的人工智能技術(shù)無法預(yù)見危害結(jié)果的發(fā)生,最終致使危害結(jié)果發(fā)生的,研究人員和使用者沒有義務(wù)預(yù)見此有害后果。如果當(dāng)時的人工智能技術(shù)能夠完全預(yù)見有害后果的發(fā)生,研發(fā)者由于“疏忽大意”或“過于自信”而沒有預(yù)見,最終導(dǎo)致危害結(jié)果發(fā)生的,研發(fā)者應(yīng)按具體情況承擔(dān)相應(yīng)過失責(zé)任。同樣,倘若使用者未按照要求進(jìn)行使用,導(dǎo)致危害結(jié)果發(fā)生的,也將按具體情況承擔(dān)相應(yīng)過失責(zé)任。

      2.刑事責(zé)任主體地位的界定。此問題需分別討論:一方面,“智能機(jī)器人具有工具屬性,是人類改造世界的工具,完全在人類設(shè)計和編制的程序范圍內(nèi)進(jìn)行,它不具備在獨立意志和意識支配下的辨認(rèn)和控制能力,不能成為刑事責(zé)任主體”[17]。另一方面,“隨著科學(xué)技術(shù)的出現(xiàn),不受人類設(shè)計和編程程序控制、具有獨立意志和意識、能夠獨立決策和執(zhí)行行為的智能機(jī)器人成為可能。在我看來,這種機(jī)器人會成為刑事責(zé)任的主體”[17]。界定刑事責(zé)任主體符合當(dāng)下“罪責(zé)自負(fù)”原則,無論智能產(chǎn)品的犯罪后果是否應(yīng)由研發(fā)者或使用者承擔(dān),都不影響智能產(chǎn)品刑事責(zé)任主體地位的獲得與刑事責(zé)任的承擔(dān)。

      3.增設(shè)相關(guān)罪名。“在未來社會,濫用人工智能進(jìn)行犯罪可能會成為一種常態(tài)”[1]。由此,必須對刑法體系予以完善。有學(xué)者認(rèn)為,“在罪名的選擇上,暫時可以考慮設(shè)立‘濫用人工智能罪’和‘人工智能事故罪’”[18]。確實,增設(shè)該罪名可針對當(dāng)下實情起到預(yù)防作用,應(yīng)在刑法分則的危害國家安全犯罪、人身安全犯罪、公共安全犯罪、財產(chǎn)類犯罪這四大重要犯罪類型中增設(shè)相關(guān)“人工智能犯罪類罪名”,并遵循高度概括原則、情勢緊迫原則和簡單少量原則。也可以在刑法總則編設(shè)置總括性原則:更改或刪除數(shù)據(jù)原則、調(diào)整或修正程序原則、終止或銷毀實體原則等。

      (四)勞動者就業(yè)風(fēng)險的應(yīng)對路徑

      算法所形成的人工智能雖然不能直接決定勞動立法的價值取向,但它會影響勞動形式和勞動力市場環(huán)境,進(jìn)而影響勞動法的價值選擇。[19]由于人工智能技術(shù)的影響,勞動方與雇傭方的“和諧穩(wěn)定關(guān)系”將被打破,故此,應(yīng)重塑勞動法立法價值,且勞動法立法價值應(yīng)著重強(qiáng)調(diào)勞資雙方的“和諧”與勞動者就業(yè)的“穩(wěn)定”。

      1.重塑和諧價值?!昂椭C”意味著勞資雙方成為一個協(xié)調(diào)有序的利益、事業(yè)、命運與使命共同體,勞動方通過就業(yè)平臺發(fā)揮專長實現(xiàn)自身價值,雇傭方通過勞動者創(chuàng)造的價值實現(xiàn)自身利益,二者互為所需?!秳趧臃ā窇?yīng)將人工智能視為勞資雙方有效合作的溝通媒介,而非替代者,實現(xiàn)人機(jī)靈活性合作,才能實現(xiàn)對勞動者的尊重。

      2.重塑穩(wěn)定價值?!胺€(wěn)定”意味著勞動者就業(yè)的持續(xù)性、長期性,《勞動法》應(yīng)充分考慮勞動者的就業(yè)需求,但技術(shù)的發(fā)展使得人們對“收入穩(wěn)定”的需求大于“崗位穩(wěn)定”的需求,這是社會發(fā)展的必然態(tài)勢。“西方國家一直在努力以穩(wěn)定的收入彌補(bǔ)工作穩(wěn)定的犧牲”[20],西方發(fā)達(dá)國家這一經(jīng)驗或許值得我國借鑒。最后,在基本生活保障制度的建立上,我們可以考慮“無條件”社會保障制度的建立[19],建立一張保障勞動者就業(yè)的“安全網(wǎng)”,才能為勞動者抵御逆境提供保證。

      (五)行政規(guī)制風(fēng)險的應(yīng)對路徑

      1.依托行政主體對未來風(fēng)險進(jìn)行預(yù)測。風(fēng)險預(yù)測本身具有不確定性,但是可以最大限度地綜合考慮各種可能因素,“隨著研究方法的多樣化,通過對歷史數(shù)據(jù)的全面調(diào)查分析,通過情景模擬、災(zāi)害反演、數(shù)值試驗等,獲得不同的致災(zāi)因子強(qiáng)度和相應(yīng)的概率值,是一種更可靠的方法。并以此為依據(jù),繪制出滿足減災(zāi)實際需要的圖表或方程,對不同發(fā)生概率下特定強(qiáng)度的風(fēng)險源進(jìn)行定性定量分析”[21]。如此,便可以通過“風(fēng)險圖表法”“風(fēng)險曲線法”“公式法”對人工智能技術(shù)可能會帶來的致災(zāi)因子進(jìn)行定性與定量分析,提前預(yù)知風(fēng)險發(fā)生概率、風(fēng)險發(fā)生強(qiáng)度及風(fēng)險大致走向,進(jìn)而將預(yù)測結(jié)果作為制定規(guī)制計劃與方案的充分依據(jù),力求形成科學(xué)性、合理性的規(guī)制結(jié)果。換句話說就是,“根據(jù)技術(shù)手段,監(jiān)管主體有權(quán)采取各種行政行為,防止可能造成社會危害或損害他人權(quán)利的行為發(fā)生,即有權(quán)要求被監(jiān)管主體從事具體的實體性或程序性行為,最后,有權(quán)要求被監(jiān)管主體對因風(fēng)險監(jiān)管而損害其合法權(quán)益的相對人進(jìn)行賠償”[22]。

      2.將法律編入算法,并保證決策程序公開透明。一方面,人工智能依靠大數(shù)據(jù)與算法進(jìn)行系統(tǒng)運作,研發(fā)者可通過編程將法律規(guī)則或原則、法律精神編入算法之中,使其容納法律一般規(guī)范與社會主義核心價值觀等法治要素,并將技術(shù)規(guī)范與法律規(guī)范按照合適比例予以調(diào)配,且將法律規(guī)范設(shè)置成為技術(shù)規(guī)范發(fā)揮作用的必經(jīng)程序,最后通過程序語言使其發(fā)揮功用,從而改進(jìn)人工智能系統(tǒng)的運行規(guī)則,達(dá)到理想預(yù)期效果。另一方面,行政程序越來越強(qiáng)調(diào)公眾參與度、程序公開化與透明化、程序可追溯性,以來保障公眾知情權(quán)、參與權(quán)及監(jiān)督權(quán)。在人工智能時代,應(yīng)該更加注重對人工智能的設(shè)計原則、運行原理、學(xué)習(xí)過程及決策與立法程序、重要決策的依據(jù)與行為產(chǎn)生的基礎(chǔ)予以公開化與透明化,必要時可做出適當(dāng)解釋與說明,以此來防止“黑箱算法”與“暗箱操作”。

      (六)軍事應(yīng)用國際法風(fēng)險的應(yīng)對路徑

      1.建立人工智能專業(yè)性國際組織。聯(lián)合國曾采取召開非正式會議與成立致命性自主武器系統(tǒng)(法律)政府專家組的方式對人工智能技術(shù)進(jìn)行干預(yù),[23]但是聯(lián)合國的此項干預(yù)機(jī)制在目前的情勢下顯得無能為力?!?016 年,我國曾呼吁將全自動武器置于國際法的控制之下”[24]。遺憾的是,此呼吁未有成效。為此,可建立一個人工智能專業(yè)性國際組織的多邊機(jī)構(gòu),作為世界各國人工智能軍事應(yīng)用問題的管控與協(xié)商交流平臺,使世界各國在人工智能軍事應(yīng)用領(lǐng)域達(dá)成一致。

      2.制定相應(yīng)國際規(guī)則,加強(qiáng)國際學(xué)術(shù)交流。目前,世界各國都發(fā)布了在人工智能武器領(lǐng)域的支持政策文件,例如:2018 年,美國國防部發(fā)布面向2040年的《無人系統(tǒng)綜合路線圖》,旨在大幅提升機(jī)器人和無人作戰(zhàn)平臺在美軍兵力中的比重;2018 年11月,英國國防部發(fā)布《2018—2028 國家武器裝備計劃》,采購包括潛艇、水面戰(zhàn)艦和輔助艦只、航空支援、陸軍技術(shù)和武器裝備等。[25]從這些政策文件可以看出,各國仍在日益加強(qiáng)人工智能武器在軍事領(lǐng)域應(yīng)用的力度,這對戰(zhàn)爭法與武裝沖突法構(gòu)成極大威脅,必須有相應(yīng)措施來解決這一重大問題。因此,制定權(quán)威的國際規(guī)則,盡快將人工智能武器的軍控問題提上國際議程,是國際社會的當(dāng)務(wù)之急。[25]另外,加強(qiáng)人工智能軍事應(yīng)用的國際學(xué)術(shù)交流是十分必要的。通過各種國際組織和多邊、雙邊學(xué)術(shù)平臺,探討人工智能軍事應(yīng)用的相關(guān)問題,并充分討論,達(dá)成共識,為國際社會智能軍事應(yīng)用條約提供理論指導(dǎo)。[26]

      3.加強(qiáng)國際合作。人工智能武器在軍事領(lǐng)域的廣泛運用,其產(chǎn)生的問題并非一國之力可以解決。因此,需要加強(qiáng)國際合作,積極開展多邊協(xié)商交流與談判,使世界各國攜手同行、共商共治,并制定一部規(guī)制各國國際性法律文件的“軟法”,以求逐步推進(jìn)國際共識的達(dá)成。

      四 結(jié)語

      人工智能的法律風(fēng)險是一個非常龐大的問題類別,既包括人工智能對現(xiàn)行法律的挑戰(zhàn),也包括人工智能給未來社會帶來的不確定性和不可預(yù)測性。因此,不僅需要明確人類與人工智能之間的關(guān)系,而且需要根據(jù)部門法的不同特性對法律風(fēng)險予以細(xì)化分類。由于人工智能的法律風(fēng)險可能涉及法律的各個部門,本文不能一一予以列舉,只能針對較為重要的部門法領(lǐng)域進(jìn)行論述,并提出相應(yīng)解決方案。無論何時,都應(yīng)堅持一個底線,那就是一旦人工智能裝備的存在或活動對人類造成傷害時都應(yīng)該停止使用并加以限制?;蛟S這樣,才能從源頭上抑制人工智能技術(shù)可能帶來的法律風(fēng)險。又或許,人工智能給人類帶來的并非風(fēng)險,而是最大多數(shù)人的最大幸福,正如功利主義法學(xué)派代表人物邊沁所說的那樣。

      猜你喜歡
      個人信息人工智能人類
      如何保護(hù)勞動者的個人信息?
      工會博覽(2022年16期)2022-07-16 05:53:54
      個人信息保護(hù)進(jìn)入“法時代”
      人類能否一覺到未來?
      人類第一殺手
      好孩子畫報(2020年5期)2020-06-27 14:08:05
      警惕個人信息泄露
      綠色中國(2019年14期)2019-11-26 07:11:44
      1100億個人類的清明
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      榆林市| 荆州市| 广安市| 绥芬河市| 汕尾市| 天台县| 丰顺县| 策勒县| 永兴县| 牙克石市| 嘉禾县| 梁平县| 桓仁| 土默特左旗| 荥经县| 广丰县| 临夏县| 抚州市| 乐山市| 长海县| 璧山县| 巴林右旗| 呼玛县| 靖边县| 阜新市| 大竹县| 陈巴尔虎旗| 宜城市| 社旗县| 青河县| 峡江县| 洛宁县| 利川市| 宜良县| 乐安县| 扬中市| 连江县| 新余市| 枣庄市| 漳浦县| 勃利县|