袁倩 郝丹丹
摘要從阿爾法Go到谷歌的無人駕駛汽車,再到阿里云的ET城市大腦,人工智能逐漸為人們所熟知,越來越普及的大數(shù)據(jù),使得人工智能的作用和價(jià)值也越來越大。人工智能應(yīng)用不斷加深不斷成熟,其背后的問題也逐漸凸顯,道德困境無法解決,數(shù)據(jù)的交換引發(fā)隱私憂慮,無人駕駛汽車造成的侵權(quán)問題如何解決,時(shí)人工智能安全問題的擔(dān)憂,本文將從法律和道德倫理兩方面來探究,并試圖提出相應(yīng)的對(duì)策來解決相關(guān)的問題。
關(guān)鍵詞人工智能 隱私權(quán) 侵權(quán) 法律主體 道德困境
一、人工智能的概述
(一)人工智能的概念
人工智能(ArtificialItelligence),簡稱AI。是1956年由麥卡錫與一批計(jì)算機(jī)科學(xué)家、數(shù)學(xué)家、心理學(xué)家、神經(jīng)生理學(xué)家、信息學(xué)家在美國首次提出。廣義上來說,人工智能指的是通過某種方式讓機(jī)器擁有人的邏輯判斷能力或“思維能力”,以根據(jù)特定輸入條件做出相應(yīng)的判斷或決策。其實(shí)廣義的人工智能早已走出了科幻小說,在生產(chǎn)生活中被廣泛地應(yīng)用了。人工智能自誕生以來,理論和技術(shù)日益成熟,應(yīng)用領(lǐng)域也不斷擴(kuò)大,給我們的生活帶來了極大的便利,也取得了許多嘆為觀止的成果,同時(shí)也成為21世紀(jì)最熱門、最具有挑戰(zhàn)性的學(xué)科之一。
(二)人工智能的社會(huì)應(yīng)用
近年來隨著智能企業(yè)的不斷增多和人類對(duì)人工智能技術(shù)研究的不斷深入,利用該類技術(shù)研發(fā)的產(chǎn)品也不斷上市,給社會(huì)多個(gè)領(lǐng)域帶來了極大便利,使我們的生活更加耳目一新。身邊的掃地機(jī)器人,谷歌翻譯,iphonoX的人臉識(shí)別以及Sift:無人駕駛技術(shù)逐漸精進(jìn),如今,阿里云的ET城市大腦投入使用,將道路監(jiān)控、紅綠燈等設(shè)施每天產(chǎn)生的海量數(shù)據(jù)統(tǒng)籌協(xié)同,計(jì)算出實(shí)時(shí)的交通優(yōu)化方案,智能調(diào)節(jié)紅綠燈,提升道路車輛通行速度,在一些特殊的、對(duì)交通時(shí)效要求極高的場(chǎng)景,城市大腦的“協(xié)作”價(jià)值更為凸顯,通過自動(dòng)調(diào)配紅綠燈為患者開出一條“綠色生命線”,讓120到達(dá)現(xiàn)場(chǎng)的時(shí)間縮短一半。對(duì)于危重病患來說,這一半的時(shí)間并不能簡單地以經(jīng)濟(jì)價(jià)值來衡量。
二、人工智能帶來的問題
(一)人工智能帶來的道德倫理問題
1.道德困境
人工智能作為一項(xiàng)新科技,它的發(fā)展進(jìn)步會(huì)給傳統(tǒng)道德帶來一定沖擊。如今的人工智能說到底是算法的控制,算法是由人來編寫的,那人類面臨的道德困境人工智能一樣要面對(duì)。以無人駕駛汽車為例,假設(shè)在其行駛過程中,面對(duì)分岔路口,只能決定走其中一條道路,其中一條道路上有五個(gè)環(huán)衛(wèi)工人在工作,另外一條道路有一個(gè)小孩子在玩耍,車輛左轉(zhuǎn)會(huì)將五位環(huán)衛(wèi)工人撞死,車輛右轉(zhuǎn)小孩子因此喪命,這種情況下,無人駕駛汽車應(yīng)該選擇走哪條路?如果一條道路是小狗,另一條道路是五個(gè)環(huán)衛(wèi)工人,此時(shí)無人駕駛汽車該選擇走哪條路?如果一條道路上有無百只小狗,另一條道路上有一個(gè)環(huán)衛(wèi)工人在打掃呢?在設(shè)計(jì)算法之初,能將一百只小狗的價(jià)值等同于一個(gè)環(huán)衛(wèi)工人的價(jià)值嗎?這就是一個(gè)現(xiàn)代版的“電車難題”。雖然傳統(tǒng)的一人駕駛模式不存在上述的兩難困境,但是隨著人工智能的發(fā)展,無人駕駛技術(shù)登場(chǎng),這種兩難困境我們必須要去面對(duì)并盡可能的想辦法去解決這種困境。
2.倫理問題
一項(xiàng)新技術(shù)的產(chǎn)生,或多或少都會(huì)對(duì)傳統(tǒng)倫理造成一定的沖擊,人工智能也一樣。人類會(huì)不會(huì)和機(jī)器產(chǎn)生感情一直是個(gè)令人擔(dān)憂的問題。很多影視作品已經(jīng)對(duì)人機(jī)情感問題產(chǎn)生了擔(dān)憂。科幻愛情《她》講述了作家西奧多在結(jié)束了一段令他心碎的愛情長跑之后,愛上了電腦操作系統(tǒng)里的女生,原因在于,這個(gè)叫“薩曼莎”的姑娘不僅有著略沙啞的性感嗓音,并且風(fēng)趣幽默、善解人意,讓孤獨(dú)的男主角泥足深陷。一次系統(tǒng)升級(jí),西奧多發(fā)現(xiàn),自己喜歡的薩曼莎總共有8316位人類交互對(duì)象,而與其中的614位發(fā)生了愛情,西奧多只是其中的一位,男主角因此很是悲傷。
人機(jī)之所以會(huì)產(chǎn)生情感,很大程度上是因?yàn)闄C(jī)器在某些方面填補(bǔ)了人類情感的空白,同時(shí)因?yàn)槿斯ぶ悄茏鳛橐豁?xiàng)技術(shù)是附著于各種產(chǎn)品上的,可以隨時(shí)隨地的為我們所用,并且及時(shí)對(duì)我們的言語表情做出回應(yīng),這是人類所無法企及的,這也就會(huì)加大人類對(duì)此類功能的依賴性,并由此產(chǎn)生更深層次的情感依賴。一旦人工智能發(fā)展完全,難保它不會(huì)脫離人類的控制,帶來種種風(fēng)險(xiǎn)。就社會(huì)包容程度來說,這種人機(jī)情感也無法被倫理所容納,恐懼來源于未知,人工智能的起點(diǎn)何時(shí)到來我們無從知道,這樣的場(chǎng)景何時(shí)會(huì)出現(xiàn)我們也不清楚,這種擔(dān)憂值得我們?nèi)ニ伎肌?/p>
(二)人工智能帶來的法律問題
1.主體身份無法界定
隨著人工智能的發(fā)展演變,它在人類社會(huì)上到底屬于什么,在法律上應(yīng)如何給他準(zhǔn)確定位值得我們思考。人工智能說到底是人類算法在控制,那對(duì)這種決策控制下的主體到底該如何定位。我們可以把它當(dāng)做自然人來看待嗎?機(jī)器人可以被虐待嗎?另外,回到上一個(gè)問題,無人駕駛汽車造成損失,這種責(zé)任到底誰來擔(dān),是人工智能背后的決策設(shè)計(jì)者,還是人工智能本身?我們需不需要對(duì)人工智能賦予“電子法律人”資格,以自己的行為能力享有一定的權(quán)利,負(fù)有一定的義務(wù),并在一定情況下獨(dú)立的承擔(dān)責(zé)任這個(gè)問題未來值得更多探討。
2.隱私權(quán)保護(hù)帶來隱患
很多人工智能系統(tǒng),都是算法學(xué)習(xí),決策學(xué)習(xí),而算法決策又是在人類控制下產(chǎn)生的。而這些算法在涉及深度學(xué)習(xí)時(shí)又不免會(huì)對(duì)人類的隱私權(quán)造成侵害,數(shù)據(jù)問的交換難免會(huì)帶來信息泄露,在當(dāng)今時(shí)代背景下給我們隱私憂慮。對(duì)大數(shù)據(jù)的獲取、挖掘分析能力不斷提升,數(shù)據(jù)獲取的廣泛性和實(shí)效性、挖掘的自動(dòng)化和智能化程度均令人膛目結(jié)舌,機(jī)器也許比我們更了解我們自己。
第一,當(dāng)前情況下,我們安裝一些軟件時(shí)大部分正規(guī)的軟件會(huì)發(fā)出提示,詢問用戶是否要開啟定位服務(wù)、是否要加入用戶體驗(yàn)計(jì)劃以獲取更好的服務(wù)等問題,當(dāng)我們同意授權(quán)時(shí),無疑是將我們的個(gè)人信息源源不斷的給予了軟件。如果我們不同意授權(quán),那么我們也就不能享受軟件帶來的生活便利,這就產(chǎn)生了矛盾,軟件并沒有強(qiáng)迫我們使用它,但是我們大部分人還是為了享受更好的服務(wù)而向其提供了個(gè)人的隱私。其實(shí)現(xiàn)在看來,隱私保護(hù)與科技發(fā)展似乎已經(jīng)形成了一定的矛盾,在互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算、人工智能等技術(shù)高速發(fā)展的今天,也許這種矛盾是不可避免的。第二,基于人工智能的發(fā)展趨勢(shì),它完全有能力根據(jù)其所收集的信息不斷向外延伸,促使其不斷提高自身的智能水平并進(jìn)一步提高對(duì)用戶的了解程度,它能夠根據(jù)用戶授權(quán)獲取的部分信息而繼續(xù)繁殖信息,那么這種未經(jīng)個(gè)人授權(quán),通過智能分析獲取的如體重、身高、婚戀、家庭、愛好、健康狀況、收入情況、心理特征等信息是否可以認(rèn)定為非法獲取。第三,考慮到各種服務(wù)之間大量交易數(shù)據(jù),數(shù)據(jù)流動(dòng)不斷頻繁,人工智能系統(tǒng)將挖掘出的信息與商品或服務(wù)進(jìn)行關(guān)聯(lián),向客戶推薦,實(shí)質(zhì)上這些信息已經(jīng)提供給了商家使用。由此可見,人工智能環(huán)境下,我們的個(gè)人信息可能在知情的情況下被獲取,也可能在不知情的情況下就被獲取、提供以及出售。隱私權(quán)保護(hù)令人擔(dān)憂。
3.責(zé)任與安全問題
眾所周知,人類能形成生產(chǎn)協(xié)同網(wǎng)絡(luò)的最核心基礎(chǔ)是分工契約體系。這個(gè)體系規(guī)定著我們每個(gè)人在合作結(jié)構(gòu)中的責(zé)任、權(quán)利與義務(wù)。其中被最常認(rèn)作“公理”的一條是:當(dāng)一個(gè)社會(huì)人承擔(dān)某責(zé)任、做出某決策,他也就同時(shí)必須承擔(dān),至少是分擔(dān)其決策所帶來的收益與風(fēng)險(xiǎn)。而當(dāng)人工智能替代人類進(jìn)入生產(chǎn)環(huán)節(jié)做出決策時(shí),一個(gè)極大的不對(duì)稱就出現(xiàn)了:給人工智能賦予做出某項(xiàng)決策的責(zé)任是所有買家都會(huì)做的事(也是人工智能被創(chuàng)造出來的天職),但面對(duì)的是正面收益還是負(fù)面風(fēng)險(xiǎn),人工智能都無法像人類那樣對(duì)自己的決策負(fù)責(zé)。
三、人工智能背后問題的應(yīng)對(duì)策略
(一)構(gòu)建人工智能內(nèi)部合理的約束機(jī)制
1.進(jìn)行合乎道德倫理的算法設(shè)計(jì)
第一步在源頭給人工智能輸入正確的價(jià)值規(guī)范體系,對(duì)價(jià)值優(yōu)先級(jí)做個(gè)排序,在面對(duì)兩難困境的時(shí)候,根據(jù)價(jià)值優(yōu)先級(jí)不同從而做出選擇,在損害必需發(fā)生的前提下,讓損害程度降到最低。另外,面對(duì)道德困境首先我們需要用一個(gè)開放的心態(tài)去看待,千百年都沒能解決的問題也不能強(qiáng)求人工智能的出現(xiàn)來解決。我們要盡可能的去確立合乎倫理道德的原則,然后讓技術(shù)緊隨其后。
第二步是將所發(fā)現(xiàn)的規(guī)范和價(jià)值加入人工智能系統(tǒng),借鑒美國學(xué)者瓦拉赫和艾倫的思想,采用三種模式來實(shí)現(xiàn),“自上而下的進(jìn)路”、“自下而上的進(jìn)路”以及“混合進(jìn)路”。自上而下的進(jìn)路是指選擇一套可以轉(zhuǎn)化為算法道德準(zhǔn)則作為機(jī)器行為的指導(dǎo)原則;自下而上的進(jìn)路類似于人類的道德發(fā)展模式,通過錯(cuò)法培養(yǎng)道德判斷能力。不過,這兩種方法均有一定的局限性。比如,第一種進(jìn)路把一套明確的規(guī)則賦予機(jī)器可能是不合理的,同一種原理在不同的情況下可能導(dǎo)致不同的相互矛盾的決定;后一種進(jìn)路要求機(jī)器能夠自我發(fā)展進(jìn)化,而人工智能系統(tǒng)的學(xué)習(xí)與進(jìn)化能力的提高將是一個(gè)比較緩慢的過程?;旌线M(jìn)路在一定程度上把兩種進(jìn)路統(tǒng)一了起來:一方面,美德本身可以清楚地表述出來;另一方面,它們的習(xí)得又是典型的自下而上的過程。
2.進(jìn)行有效的內(nèi)部算法監(jiān)管
隨之人工智能的進(jìn)步,起背后的算法也越來越復(fù)雜,而人工智能對(duì)我們的生活影響也越來越大,我們有必要對(duì)人工智能設(shè)定相應(yīng)的規(guī)則以及標(biāo)準(zhǔn),制定相應(yīng)的監(jiān)管措施。沒有規(guī)矩不成方圓,人工智能也是如此,第一,要建立行業(yè)標(biāo)準(zhǔn),例如分類、性能標(biāo)準(zhǔn)、設(shè)計(jì)標(biāo)準(zhǔn)、責(zé)任標(biāo)準(zhǔn)等等,通過這些標(biāo)準(zhǔn)的建立,科學(xué)管理人工智能,同時(shí)規(guī)范人工智能的研發(fā),從源頭遏制違反法律的現(xiàn)象發(fā)生;第二,強(qiáng)化此類行業(yè)的透明性,包括算法自身的代碼透明性,以及算法決策透明性。第三,設(shè)立人工智能產(chǎn)品的事前監(jiān)督制度,比如對(duì)于無人駕駛汽車等危險(xiǎn)性系數(shù)較大的人工智能產(chǎn)品,在這類產(chǎn)品的設(shè)計(jì)之初,就需要相關(guān)部門或者該領(lǐng)域內(nèi)的專業(yè)人士對(duì)算法進(jìn)行審批對(duì)于達(dá)到行業(yè)標(biāo)準(zhǔn),可以進(jìn)入下—環(huán)節(jié),而對(duì)于哪些無法達(dá)標(biāo)的在源頭予以遏制,以免未來發(fā)生更大的損失。第四,對(duì)已經(jīng)投入使用的人工智能進(jìn)行事后的檢測(cè)與評(píng)估,一方面,要對(duì)人工智能產(chǎn)品流入市場(chǎng)之后的發(fā)展現(xiàn)狀,是否達(dá)到設(shè)計(jì)之初的標(biāo)準(zhǔn)。另一方面,主要評(píng)估在產(chǎn)品應(yīng)用過程之中存在哪些問題,針對(duì)出現(xiàn)的問題進(jìn)一步研究解決對(duì)策,優(yōu)化人工智能的性能。
(二)構(gòu)建人工智能外部合理的約束機(jī)制
1.對(duì)研發(fā)人員進(jìn)行必要的指導(dǎo)與監(jiān)管
同其他高新技術(shù)一樣,人工智能也是非常專門化的科技知識(shí),但其歸根結(jié)底是人類的產(chǎn)物,解決人工智能的問題說到底是解決人的監(jiān)管與指導(dǎo)的問題,也就是說,我們需要對(duì)人工智能每一個(gè)環(huán)節(jié)的設(shè)計(jì)者參與者進(jìn)行監(jiān)督管理。
首先,人工智能的研發(fā)人員自身要有一定的道德底線,并遵守相應(yīng)的行業(yè)標(biāo)準(zhǔn),最基本的職業(yè)操守等,如涉及違背道德倫理的行為不能因?yàn)槔娑プ觥?/p>
其次,強(qiáng)化人工智能研發(fā)者的專業(yè)責(zé)任意識(shí),包括積極責(zé)任和消極責(zé)任兩方面。積極責(zé)任強(qiáng)調(diào)研發(fā)人員應(yīng)該做什么,如何通過技術(shù)手段來保證人工智能是安全的合乎道德倫理的;消極責(zé)任則關(guān)注當(dāng)人工智能出現(xiàn)負(fù)面影響或嚴(yán)重后果時(shí),應(yīng)該由誰來承擔(dān)責(zé)任,使得人工智能安全責(zé)任問題有所保障。從積極責(zé)任的角度來看,研發(fā)者在研發(fā)過程中不能僅僅只追求經(jīng)濟(jì)利益,或者一味迎合客戶需求。從消極責(zé)任角度來看,當(dāng)人工智能系統(tǒng)出現(xiàn)錯(cuò)誤時(shí),研發(fā)者應(yīng)該承擔(dān)相應(yīng)的責(zé)任,而不是把責(zé)任歸咎于人工智能本身的不確定性與復(fù)雜性。從某種意義上來說,解決人工智能面臨的問題的首要因素并不在于人工智能技術(shù)本身,而在于人工智能研發(fā)人員的責(zé)任心。
2.以協(xié)調(diào)有序的機(jī)制加強(qiáng)對(duì)隱私權(quán)的保護(hù)
首先,要加強(qiáng)對(duì)隱私權(quán)的保護(hù)就是要建立保護(hù)隱私權(quán)的法律規(guī)范體系,從現(xiàn)階段來說,不管是人工智能還是及其相配套的法律監(jiān)管體系,在我國都屬于萌芽階段,這就要求我們國家的法律工作者從現(xiàn)實(shí)出發(fā),結(jié)合現(xiàn)有的人工智能的發(fā)展現(xiàn)狀,建立起完善的有關(guān)人工智能的法律體系,以此來加強(qiáng)對(duì)人工智能使用者的隱私保護(hù)。
其次,從各類人工智能軟件的從業(yè)者來說,由于現(xiàn)階段人工智能軟件的發(fā)展過快,導(dǎo)致人工智能軟件的研發(fā)和實(shí)際使用過程中不可避免的出現(xiàn)了侵犯隱私權(quán)的情況,這就要求此類軟件的研發(fā)者明確這些需要采集的隱私權(quán)是否真的有必要,并且這些隱私在匯聚到后臺(tái)時(shí)能否得到完善的處理及保護(hù),以及在處理這些信息時(shí)是否合法有序。這就要求人工智能軟件的從業(yè)者在法律的指導(dǎo)下建立—種合法有序的行業(yè)規(guī)范,使用戶隱私權(quán)得到切實(shí)的保護(hù)。
最后,要從人工智能軟件的實(shí)際使用者本身來說,實(shí)際使用者在使用此類軟件的過程中要提高自身的防范意識(shí),對(duì)不需要通過的隱私權(quán)請(qǐng)求予以否定,并且在使用過程中盡量少的泄露自身的隱私,與此同時(shí)也要提起注意,日常生活中發(fā)現(xiàn)有隱私泄露的情況要及時(shí)尋找泄露的根源并及時(shí)處理問題。
(三)換一種思維來看待人工智能安全問題
過去幾十年,人工智能的發(fā)展形勢(shì)一陣陣的并不明朗,樂觀也好悲觀也罷,做做談資也沒什么。如今,數(shù)據(jù)、計(jì)算力、算法三大人工智能要素的充足度已經(jīng)不可同日而語,人工智能的發(fā)展大勢(shì)已經(jīng)不可避免,所謂樂觀悲觀都只是在揣測(cè),在不可改變技術(shù)革命面前,把討論焦點(diǎn)轉(zhuǎn)移到“如何讓人工智能最終走向樂觀”顯得更有價(jià)值。在人工智能威脅論調(diào)中,不少人認(rèn)為在弱人工智能階段(按設(shè)定邏輯推理、解決問題,但沒有自主意識(shí)),我們要持樂觀態(tài)度,只有在強(qiáng)人工智能或超人工智能階段(智能自主解決問題,具備自主意識(shí),甚至超越人類),我們才要持悲觀態(tài)度。
其實(shí),人工智能是否威脅,不在于其發(fā)展到哪個(gè)階段、是否形成了對(duì)抗人的能力,而在于其和人類已有的秩序是否沖突。
就算是弱人工智能,有沖突存在也算是一種客觀威脅,比如2013年牛津大學(xué)馬丁學(xué)院的MichaelOsborne和CarlFrey發(fā)表了一篇題為《未來職業(yè):工作有多容易被機(jī)器取代?》的論文列舉了數(shù)十個(gè)領(lǐng)域上千份可能會(huì)被取代的工作,幾乎整個(gè)社會(huì)都會(huì)被替代,這種社會(huì)結(jié)構(gòu)的劇烈變革、對(duì)大多數(shù)階層的沖擊,對(duì)他們而言就是一種十足的威脅。
因此,也許我們更該聚焦于如何避免沖突的討論上。對(duì)于“替代”陣營來說,一味地模仿人類行為、代替人類操作的技術(shù)極客之旅中,也必須配套思考如何讓這種“替代”不產(chǎn)生沖突。
對(duì)人工智能安全的擔(dān)憂無非認(rèn)為人類會(huì)失去對(duì)人工智能的控制從而造成社會(huì)風(fēng)險(xiǎn)。這種想法從一開始就假定人和人工智能之間是沖突的、不相容的。而既然這種擔(dān)憂本身就帶有科幻色彩,不如就用科幻的邏輯來揣測(cè)人工智能。就像人尋找上帝是為了找尋自己的意義一樣,倘若人工智能真的想要威脅,其目的也不過就是為了確認(rèn)和證明自己的存在。因?yàn)橐婚_始就被設(shè)置在與人協(xié)作、各自分工的位置上被尊重,而不是與人爭利的沖突地位,就算有一天蘋果ARKit、阿里云ET大腦變成了有自主意識(shí)的強(qiáng)人工智能,它們也沒有任何理由要來挾制人類。人類依賴人工智能帶來的交通疏導(dǎo)、產(chǎn)業(yè)運(yùn)營效率提升,人工智能的存在自有意義,不需要再通過威脅的方式獲得意義。也即,在阿里云ET大腦這樣的項(xiàng)目上,機(jī)器有智能,人類有智慧,機(jī)器做了人做不了的事情,沒有沖突也就不會(huì)有威脅。只有那些本身就沒有把人工智能放在平等的位置上,以統(tǒng)治階級(jí)控制平民的思路來談人工智能的人,才會(huì)感受到切實(shí)的威脅。
所以,要讓人工智能的未來走入樂觀,首先要拋棄的恰恰就是那些對(duì)如何控制人工智能進(jìn)行各種研究的行為(它本身也不會(huì)成功),專注用協(xié)作、伙伴等平等態(tài)度來發(fā)展人工智能。