王曉蘭 徐艷 張慶芳 劉孝趙 蔣中
摘要:人工智能發(fā)展方興未艾,已應(yīng)用在了人類社會的很多方面。該文主要從深淺兩個層次闡述人工智能的潛在風(fēng)險。顯而易見的風(fēng)險主要是人工智能技術(shù)的興起,將威脅到人類就業(yè)崗位,造成潛在的失業(yè)風(fēng)險;另一個風(fēng)險是現(xiàn)行法律法規(guī)對潛在的人工智能引發(fā)的各類危害沒有完備的處理機(jī)制,受害的一方很難獲得有效的法律應(yīng)援,面臨無法可依的風(fēng)險。深層次的風(fēng)險一是人工智能在戰(zhàn)爭中進(jìn)行應(yīng)用,另一個是人工智能的自我迭代超出人類的控制,發(fā)展出超級智能,都可能將人類帶入到災(zāi)難的深淵。該文提出三個方面的預(yù)防對策,一是從技術(shù)上進(jìn)行風(fēng)險預(yù)防,即在算法設(shè)計之初就給予必要的安全性可控性設(shè)計;二是從法律法規(guī)上約束人工智能開發(fā)企業(yè)或者個人的開發(fā)權(quán)限;三是構(gòu)建人工智能“全球治理”聯(lián)盟,多方合作信息共享,預(yù)防潛在的人工智能公共危害事件的發(fā)生。
關(guān)鍵詞:人工智能;風(fēng)險;預(yù)防;對策
中圖分類號:TP18 文獻(xiàn)標(biāo)識碼:A 文章編號:1009-3044(2018)27-0182-03
1 背景
近年來,人工智能(AI:Artificial Intelligence)取得了長足發(fā)展,但其潛在風(fēng)險并沒有像AI的技術(shù)應(yīng)用研究一樣引起廣泛關(guān)注。
霍金說過,“我認(rèn)為強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的?!卑B ゑR斯克也就人工智能發(fā)展,對人們發(fā)出過警告:超人類人工智能可能帶來不可估量的利益,但是如果部署不當(dāng),則可能給人類帶來相反的效果。
2015年,科學(xué)家霍金和科技企業(yè)家埃隆·馬斯克,以及許多其他的人工智能專家簽署了一份關(guān)于人工智能的公開信,目的是提倡就人工智能對社會所造成的影響做認(rèn)真的調(diào)研。這封信也引起了社會各界的廣泛關(guān)注。
為確保人工智能不被誤用,或者應(yīng)用于不符合人類利益的場景,美國谷歌公司專門成立一個倫理委員會,用于監(jiān)督谷歌公司的人工智能技術(shù)研發(fā)。
毫無疑問,人工智能的崛起,對人類影響與日俱增。如果人類在大力發(fā)展AI的同時沒有做好相應(yīng)的風(fēng)險預(yù)防和相關(guān)對策研究,其潛在的風(fēng)險很可能帶來意想不到的后果。隨著日常生活中越來越多的領(lǐng)域日益受到人工智能的影響,我們需要確保人工智能無論現(xiàn)在還是將來,都為人類而服務(wù)。
2 人工智能的主要潛在風(fēng)險
人工智能的潛在風(fēng)險,可以從淺層次和深層次兩個層面進(jìn)行探討。
2.1.1 人類失業(yè)風(fēng)險
目前人工智能已經(jīng)學(xué)會了下棋、作畫、創(chuàng)作音樂、寫新聞稿、掃地、做飯甚至是設(shè)計、無人駕駛、航行等。一些無須天賦,經(jīng)由訓(xùn)練即可掌握的技能或者大量的重復(fù)性勞動工作崗位,已經(jīng)被智能機(jī)器人取代。在未來,人工智能因其高效率和低成本,將取代更多人類勞動力,造成潛在的大量人口失業(yè)風(fēng)險。
對傳統(tǒng)工作崗位的替代會在全球范圍內(nèi)導(dǎo)致大量失業(yè),而新的就業(yè)崗位能否被創(chuàng)造出來還面臨很大的不確定性。從國家角度來看,人工智能的先發(fā)國家和大國,依舊可以通過發(fā)展人工智能的收益來彌補傳統(tǒng)產(chǎn)業(yè)的損失,通過將部分收益用于轉(zhuǎn)移支付和社會保障系統(tǒng)來維護(hù)社會的基本穩(wěn)定。而一些未能跟上人工智能發(fā)展浪潮的國家,大量就業(yè)可能會轉(zhuǎn)移到國外,導(dǎo)致政府缺乏足夠的資源來應(yīng)對失業(yè)風(fēng)險的沖擊。
霍金在英國《衛(wèi)報》的一個專欄中寫道:“工廠自動化已經(jīng)讓眾多傳統(tǒng)制造業(yè)工人失業(yè),人工智能的興起很有可能會讓失業(yè)潮波及中產(chǎn)階級,最后只給人類留下護(hù)理、創(chuàng)造和監(jiān)督工作?!?/p>
在當(dāng)前和可預(yù)見的未來,人工智能技術(shù)的發(fā)展正在對勞動力市場產(chǎn)生越來越明顯的影響。AI大大提高了工業(yè)生產(chǎn)效率,人工智能這對很多普通勞動者來說是一個潛在的工作競爭對手,因為他們的工作逐漸被機(jī)器取代。
花旗銀行與牛津大學(xué)合作發(fā)布的報告預(yù)測顯示,美國47%的就業(yè)崗位可能被機(jī)器人代替。在英國,這個比例是35%。在中國,該比例高達(dá)77%,而在經(jīng)合組織國家,平均57%的工作崗位將實現(xiàn)自動化。
全球最大的10個雇主中有三個正在用機(jī)器人取代工人,并且這個數(shù)據(jù)會不斷增長。
北京大學(xué)市場與網(wǎng)絡(luò)經(jīng)濟(jì)研究中心研究員陳永偉也提交了一份人工智能研究報告。他認(rèn)為,從全國范圍來看,可能有70%的職業(yè)會受到人工智能的沖擊。如果剔除掉農(nóng)業(yè)人口受到?jīng)_擊的概率,可能大概有60%的職業(yè)會受到?jīng)_擊,大量人口面臨失業(yè)的風(fēng)險。
2.1.2 法律問題
人工智能在提高人類生活水平的同時也引發(fā)了一些侵權(quán)事件。不斷出現(xiàn)的人工智能傷人事件或者失誤現(xiàn)象引發(fā)了人們的擔(dān)憂,也直接對各國的法律和司法提出了新的難題?,F(xiàn)行的法律法規(guī)若不增補相應(yīng)條款,對后期由人工智能引起的法律糾紛,將面臨法律空白的問題,立法保護(hù)相關(guān)方的基本權(quán)利,勢在必行。然而法律的條款在面對此類新興技術(shù)帶來的問題,也需要一個漫長的實踐和修正的過程。其潛在的很多法律問題,我們不得不提前進(jìn)行預(yù)防。
2016年有報道稱,有機(jī)器人突然出現(xiàn)失控現(xiàn)象,在沒有指令的情況下,自行打砸玻璃站臺,誤傷觀眾。這只是機(jī)器人傷人事件中的一個輕微事件,但是如果因為故障或者黑客惡意入侵,機(jī)器人失控發(fā)生暴力行為,完全可能會導(dǎo)致被侵權(quán)人的死亡。隨著機(jī)器人智能化的發(fā)展,人類也正在進(jìn)入兩難抉擇之中,一方面為了更好地讓人類生活便捷化,需要進(jìn)行人工智能的不斷開發(fā),以期得到良好的自動化智能服務(wù)。但另一方面這種活動也可能是危險的,對應(yīng)發(fā)生的侵權(quán)與糾紛,其責(zé)任主體的確認(rèn),都是法律空白。
一旦機(jī)器人或其他人工智設(shè)備能對人類產(chǎn)生某種傷害,那就涉及刑法的適用原則,如何對機(jī)器人造成的損害進(jìn)行賠償,賠償責(zé)任由誰承擔(dān)也是未來的法律難題,例如失控的機(jī)器人到底是由于本身的故障還是因為黑客的惡意操控,這個問題技術(shù)界定與法理界定上的困難,會給受害者帶來無法合理保護(hù)自身合法權(quán)益的潛在風(fēng)險。
2.2 人工智能的深層次潛在風(fēng)險
2.2.1 AI技術(shù)在武器與戰(zhàn)爭中的應(yīng)用
隨著各國不斷努力發(fā)展以人工智能為基礎(chǔ)的軍事力量,人類已處于人工智能軍備競賽的邊緣。人工智能和機(jī)器人技術(shù)可能在軍事力量方面提供重要優(yōu)勢,世界可能面臨新的軍備競賽,人工智能和機(jī)器人技術(shù)將取代冷戰(zhàn)時期的核武器。人工智能將徹底改變?nèi)驔_突,甚至有可能改變政府使用武裝力量的形式和時間。
2018年近4000名谷歌員工發(fā)出一份內(nèi)部請愿書,呼吁谷歌停止跟軍方合作的Maven項目。雖然工程師想要阻止人工智能應(yīng)用于戰(zhàn)爭,但是對各國軍方而言,人工智能在軍事領(lǐng)域的應(yīng)用開發(fā)具有非常強大的吸引力?,F(xiàn)在,包括未來,這種風(fēng)險將與日俱增,隨時可能把人類帶來毀滅性的災(zāi)難。
2018年2月《自然》刊登了一項引人注目的研究,一個模擬的人工智能神經(jīng)網(wǎng)絡(luò)能利用少量數(shù)據(jù)在幾小時內(nèi)在玩游戲上打敗人類。如果把這種技術(shù)放到戰(zhàn)爭之中,將可能帶來無法估量的結(jié)果。
對此,美國新安全中心技術(shù)與國家安全項目的兼職研究員格雷戈里·艾倫表示,人工智能可能會像核武器、計算機(jī)或飛機(jī)的發(fā)明一樣對軍事產(chǎn)生重大影響。目前尚不清楚的是,各國將如何使用它。
俄羅斯總統(tǒng)普京在對一群學(xué)生發(fā)表演講時稱,掌握人工智能意味著掌握了世界的主導(dǎo)權(quán)。普京說:“在這個領(lǐng)域成為領(lǐng)袖的人將是世界的統(tǒng)治者?!彼O(shè)想了這樣一個未來:在各種形式的戰(zhàn)爭中,從坦克、戰(zhàn)斗機(jī)到武裝直升機(jī),都有各種各樣的機(jī)器人作戰(zhàn)。他還提道:“當(dāng)一方的機(jī)器人被另一邊的機(jī)器人摧毀時,戰(zhàn)爭就會結(jié)束?!痹谀侵?,繼續(xù)戰(zhàn)斗是毫無意義的。你只能屈服。”
普京的言論并非毫無根據(jù)。俄羅斯軍事工業(yè)委員會已經(jīng)批準(zhǔn),計劃于2030年從遠(yuǎn)程控制和人工智能機(jī)器人平臺上獲得30%的作戰(zhàn)力量。
自主武器是指能夠在無人干預(yù)情況下獨立搜索、識別并攻擊目標(biāo)的一種新式武器。2016年12月,123個成員國已在聯(lián)合國常規(guī)武器大會的總結(jié)會議上,一致同意開展對自主武器的正式討論,其中19個國家已呼吁全面禁止?!爸旅淖灾餍晕淦鲗⒊蔀閼?zhàn)爭的第三次革命。”一旦發(fā)展起來,武裝沖突的規(guī)模將比以往任何時候都大,并且速度快到人類所不能駕馭。”“這些武器可能是恐怖主義的武器,是專制者和恐怖分子用來對付無辜民眾的武器,同時也有可能被黑客利用?!?/p>
普京將人工智能的破壞性潛力與核能相提并論,可見人工智能對各國軍備建設(shè)方面的吸引力會有多大,不加約束的開發(fā)帶來的后果可能比核武器本身更具破壞力。人工智能在軍事領(lǐng)域的發(fā)展,如果不加約束的開發(fā),很可能會帶來災(zāi)難性的后果。
2.2.2 人工智能自的失控風(fēng)險
未來,隨著算法的進(jìn)一步發(fā)展,人工智能自我迭代可能發(fā)展出超級智能,即這個人工智能如同有自我意識一般,可以發(fā)展出自我意志,從而發(fā)生不受人類控制的風(fēng)險。
有學(xué)者認(rèn)為,出現(xiàn)具備思考能力的機(jī)器只是時間問題,人工智能產(chǎn)生意識也是水到渠成的事。我們可否通過寫入信息的形式去干涉它的意識,從而保障人類自身的安全和利益,起到監(jiān)管目的。
互聯(lián)網(wǎng)和物聯(lián)網(wǎng)技術(shù)使使得人工智能的安全問題變得更為復(fù)雜化。人工智能本身更多的是終端或者單一設(shè)備,但是,眾多網(wǎng)絡(luò)資源的易獲取性,使得人工智能的自身進(jìn)化和發(fā)展所需要的資源趨于無窮,源源不斷的數(shù)據(jù)資源為人工智能自我迭代發(fā)展出超級智能提供可能。另一方面,互聯(lián)網(wǎng)和物聯(lián)網(wǎng)技術(shù)使得黑客、病毒等人為因素對人工智能產(chǎn)品的入侵更為容易,人工智能產(chǎn)品失去原本的控制與約束,造成其他不可控的危害。人工智能的失控風(fēng)險向我們提出了新的挑戰(zhàn)。
3 人工智能潛在風(fēng)險的預(yù)防對策
面對人工智能的各類風(fēng)險,主要應(yīng)該從以下三個方面進(jìn)行預(yù)防。
3.1 技術(shù)的安全壁壘
對人工智能技術(shù)不加約束的開發(fā),會讓機(jī)器獲得超越人類智力水平的智能,并引發(fā)一些難以控制的安全隱患。一些研究團(tuán)隊正在研究高層次的認(rèn)知智能,如機(jī)器情感和機(jī)器意識等。盡管還不清楚超級智能是否會到來,但如果在還沒有完全做好應(yīng)對措施之前出現(xiàn)技術(shù)突破,安全威脅就有可能爆發(fā),人們應(yīng)提前考慮到可能的風(fēng)險。
人工智能的技術(shù)核心是算法,也是安全的核心,在算法設(shè)計之初就要充分考慮到安全與可控性,即在遇到突發(fā)事件時,如何在技術(shù)上進(jìn)行控制權(quán)的保護(hù),或者實現(xiàn)智能終端的自我關(guān)閉,以實現(xiàn)最大化的安全壁壘。提高人工智能產(chǎn)業(yè)安全可控水平,在技術(shù)上設(shè)置一道安全屏障,才能更好地促進(jìn)人工智能先進(jìn)技術(shù)的發(fā)展。各國和各人工智能發(fā)展領(lǐng)先的公司,在進(jìn)行技術(shù)開發(fā)的同時,更有必要預(yù)先設(shè)置好各類技術(shù)安全壁壘,增強安全厚度,為人工智能的健康發(fā)展保駕護(hù)航。
3.2 標(biāo)準(zhǔn)制定與法律約束
在我國,為促進(jìn)人工智能產(chǎn)業(yè)的健康發(fā)展,新成立的互聯(lián)網(wǎng)新技術(shù)新業(yè)務(wù)安全評估中心,主要針對人工智能等新興領(lǐng)域網(wǎng)絡(luò)產(chǎn)品和應(yīng)用開展安全評估。該組織編寫的《人工智能安全白皮書》,指導(dǎo)行業(yè)充分認(rèn)識人工智能安全風(fēng)險,強化應(yīng)對措施,促進(jìn)人工智能安全可控發(fā)展。
2017年1月初,“阿西洛馬人工智能原則”被提出。這些原則是于2017年1月阿西洛馬會議上來自全球各地的頂級行業(yè)領(lǐng)袖討論而制定的。名稱是根據(jù)此次會議的地點,美國加州的阿西洛馬市來命名,旨在確保AI為人類利益服務(wù)。本次會議參加者是業(yè)界最負(fù)盛名的領(lǐng)袖,全球2000多人,包括844名人工智能和機(jī)器人領(lǐng)域的專家聯(lián)合簽署該原則。呼吁全世界的人工智能領(lǐng)域在發(fā)展AI的同時嚴(yán)格遵守這些原則,共同保障人類未來的利益和安全。這一系列原則目前共23項,分為三大類,分別為:科研問題(Research Issues)、倫理和價值(Ethics and values)、更長期的問題(Longer-term Issues)。
阿西洛馬人工智能23條原則,有助于這個世界上最領(lǐng)先的行業(yè)領(lǐng)袖和技術(shù)精英關(guān)注到人工智能的安全問題,具有里程碑的意義。為后續(xù)人工智能技術(shù)的良性開發(fā)奠定了良好的基礎(chǔ)。
設(shè)計制定合理的人工智能行業(yè)發(fā)展標(biāo)準(zhǔn),強化人工智能技術(shù)和安全方面的法律法規(guī)的約束,可以很大程度上預(yù)防各類潛在的風(fēng)險。
3.3 人工智能“全球治理”聯(lián)盟的構(gòu)建
人工智能被譽為引領(lǐng)科技變革的通用型技術(shù),同時也是一項顛覆性技術(shù)。各國政府紛紛制定戰(zhàn)略,推動人工智能在民用和軍事領(lǐng)域快速發(fā)展。與此同時,人們也應(yīng)提高警惕,人工智能不僅會帶來倫理、經(jīng)濟(jì)結(jié)構(gòu)等社會性變革,同時也有可能對國際經(jīng)濟(jì)和安全秩序產(chǎn)生根本性影響。因此,要從全球治理的高度,加大對人工智能可能給全球秩序帶來挑戰(zhàn)的關(guān)注。
人工智能安全問題不僅僅是一個地區(qū)或組織的問題,而是全人類共同面對的問題,也必須依靠所有參與者一起努力才可能較好地解決,各國政府和國際組織應(yīng)該是協(xié)調(diào)人工智能安全問題的組織機(jī)構(gòu)。目前,世界各國競相加大對人工智能的投入力度,但同時也應(yīng)該劃撥專門經(jīng)費用于研究人工智能的安全問題,政策的介入是必不可少的環(huán)節(jié)。另外,國際合作在解決人工智能安全問題中將起到舉足輕重的作用。人工智能的發(fā)展與應(yīng)用限度、安全標(biāo)準(zhǔn)與規(guī)范等問題,只有落實到具體的制度上才有意義,而只有國際組織才能實現(xiàn)這樣的目標(biāo)。從倫理責(zé)任的角度看,應(yīng)當(dāng)明確科學(xué)家、政府與國際組織各自的責(zé)任。構(gòu)建全球范圍內(nèi)人工智能“全球治理”聯(lián)盟,為人工智能安全問題進(jìn)行國際合作提供很好的平臺與基礎(chǔ),在面對錯綜復(fù)雜的安全問題,更高效地取得共識并解決問題。
4 結(jié)束語
正如馬斯克在推文里說的。“我們必須像對食物、藥物、飛機(jī)和汽車那樣規(guī)范人工智能和機(jī)器人技術(shù)。公共風(fēng)險需要公眾監(jiān)督。沒有聯(lián)邦航空局(FAA)不會讓飛行更安全。他們的存在是有原因的?!?/p>
人工智能的發(fā)展,對人類而言是福是禍,決定權(quán)現(xiàn)在還掌握在人類自己手里,是不加節(jié)制約束的放任人工智能瘋狂生長,還是有計劃、有目的,謹(jǐn)慎的發(fā)展人工智能,確保人工智能永遠(yuǎn)在可控制的范圍下發(fā)展,也許全在人類的一念之間。
人工智能對全球經(jīng)濟(jì)和安全的影響還處于早期階段,但其潛在的風(fēng)險不容忽視,反思如何通過全球治理發(fā)揮人工智能的積極作用,減小其可能的沖擊。在發(fā)展人工智能之時,不僅需要重視法理、失業(yè)等直接相關(guān)的問題,更應(yīng)關(guān)注軍備的人工智能化,超級智能帶來的風(fēng)險問題。
我們需要在技術(shù)上進(jìn)行風(fēng)險預(yù)防,即在算法設(shè)計之初就給予必要的安全性可控性設(shè)計;從法律法規(guī)上約束人工智能開發(fā)企業(yè)或者個人的開發(fā)權(quán)限;通過構(gòu)建人工智能“全球治理”聯(lián)盟,多方合作信息共享,預(yù)防潛在的人工智能公共危害事件的發(fā)生。
保障人工智能安全是一項復(fù)雜的系統(tǒng)工程,需要多管齊下,筑牢人工智能的安全防線。
參考文獻(xiàn):
[1] 杜嚴(yán)勇. 人工智能安全問題及其解決進(jìn)路[J]. 哲學(xué)動態(tài), 2016(9):99-104.
[2] 高奇琦, 張鵬. 論人工智能對未來法律的多方位挑戰(zhàn)[J]. 華中科技大學(xué)學(xué)報: 社會科學(xué)版, 2018, 32(1):86-96.
[3] 霍金. 自動化和人工智能將讓中產(chǎn)階級大面積失業(yè)[EB/OL].http://tech.qq.com/a/20161203/002359.html.
[4] 23條阿西洛馬人工智能原則[EB/OL].http://www.sohu.com/a/223638426_322883.
[通聯(lián)編輯:謝媛媛]