陳奇琪 吳應燕 郭紅 周海燕
摘 要:人工智能潛在的風險正在日益顯現(xiàn)。短期內(nèi),侵權責任分配問題,著作權保護問題亟待解決;長期來看,超級人工智能系統(tǒng)可能會給人類帶來不可控的風險。針對短期擔憂,本文從人工智能本身、其存在的現(xiàn)實意義以及社會認同度三個角度論證賦予人工智能實體以法律客體地位的合理性,進而用現(xiàn)行法律加以規(guī)范。為了合理規(guī)避風險,筆者從加強對設計者的倫理規(guī)范方面提出了建議。
關鍵詞:人工智能;法律地位;風險控制
一、問題的提出
從Alpha-Go和柯潔的世紀圍棋大戰(zhàn),到機器人索菲亞的出現(xiàn),人工智能正以前所未有的速度和廣度,滲透、甚至顛覆、重塑人類的各個領域,成為時下最炙手可熱的話題。人工智能的確為人類帶來了諸多便利,但也帶來了不容忽視的問題。具體而言:
(一)侵權問題
2016年,機器人“小胖”傷人事件引發(fā)熱議;2018年,優(yōu)步的一輛自動駕駛汽車撞上了一名行人并導致其死亡,成為全球首例無人駕駛汽車致人死亡的事故。上述案例表明,人工智能產(chǎn)品本身雖然經(jīng)過安全測試及認證,但是一旦程序出錯或操作不當,其破壞力是巨大的。由此產(chǎn)生的侵權責任如何界定,是對現(xiàn)有侵權責任制度的挑戰(zhàn)。
(二)人工智能成果的著作權保護問題
《陽光失了玻璃窗》是人工智能機器人——微軟小冰出版的一本詩集。除了文學領域,在電影、音樂領域,人工智能的產(chǎn)物都曾讓人大跌眼鏡,似乎要把人類拉下創(chuàng)作神壇。在這種背景下,學者們開始討論人工智能完成的內(nèi)容是否應當受到著作權法保護的問題。有人認為現(xiàn)有的著作權制度無法解決人工智能成果產(chǎn)生的著作權問題;也有人認為,人工智能生成內(nèi)容的過程是計算,產(chǎn)生的內(nèi)容不是“作品”,不應獲得著作權保護[1]。未來,如果法律制度不對人工智能的創(chuàng)造物加以調(diào)整,隨著大量人工智能創(chuàng)造物的出現(xiàn),可能會導致現(xiàn)有秩序的失衡和混亂。
二、人工智能的法律地位
人工智能的興起給社會帶來的沖擊不限于上述問題,然而,不論是著作權保護問題還是侵權責任的界定問題,均須以對人工智能法律地位的確定為前提。法律地位決定著其“權利”如何被保護以及責任如何歸屬。筆者認為,在法律范疇人工智能應被置于客體地位,具體原因如下:
(一)人工智能不具備理性能力
成為法律主體意味著擁有法律人格。我們現(xiàn)代法律上人格的內(nèi)涵來源于以康德為代表的德國古典哲學??档抡軐W認為,人格具有理性與自由的倫理性意義。因此,具備這種理性能力與自由也就成為了人工智能具備法律主體地位的必要條件[2]。如何理解這種理性與自由呢?我們應當承認的是,人類正如實體世界之內(nèi)的其他同類一般受到因果的影響,例如,人們生病,就會想恢復健康,人們饑餓,就會想填飽肚子,但是,人類具備意志力,而這種意志力是自由的,即使我們很餓,我們?nèi)钥煞穸ㄌ铒柖亲拥挠绻覀儾蛔杂傻脑?,就無法否定我們的行動傾向。相比而言,人工智能依靠人類為其編制的程序來運作,它僅僅有做這件事的能力,而沒有不做這件事的自由。它可以基于人類為其設定的程序進行深度學習,但它并不具有理性能力和自由。
(二)與法人概念之比較
縱觀人類社會歷史的發(fā)展,從原始社會、奴隸社會,封建社會到現(xiàn)代社會,法律人格經(jīng)歷了從“人可非人”到“非人可人”的演變歷程[3]。法人概念的出現(xiàn)便是一個例證。人工智能與法人一樣同屬“非人”范疇,是否賦予人工智能法律主體地位可以與“法人”概念進行比較。賦予非自然人之法律人格,其價值在于解決非自然人參加法律關系時的人格和能力問題[4]。相較而言,人工智能雖然在某些領域能夠超越并取代人類的工作,但即使賦予其法律人格,它也不能像法人一樣獨立地行使權利并承擔義務。因為從目前來看,人工智能無法獨立承擔其行為后果??紤]到責任承擔方式,無論是民法、刑法、行政法等實體法的規(guī)則,還是程序法相應的強制與執(zhí)行措施,對人工智能來說都不具備實質性意義。
(三)社會認同度
賦予一個客觀存在的事物以何種社會身份,除了取決于其自身的本質特征,還取決于能否得到社會上的其他群體的認同。在古羅馬城邦時期,奴隸制盛行,被貼上“奴隸”標簽的人在當時的社會社會中不能被稱為“人”。這反映了社會認同對一個事物社會地位的重要作用?;诖?,本團隊以西南某大學學生為總體調(diào)查對象,采取抽樣調(diào)查的方式,發(fā)放了159份問卷,調(diào)查大學生對人工智能的社會認同度。本文選取了比較有代表性的題目進行分析說明。從調(diào)查結果中看出,目前,大部分同學未從心底里將人工智能與其自身置于同等地位,例如:56.6%的同學認為人類沒有必要賦予每個機器人獨立身份,只有14%的同學表示能接受和機器人結婚,且只有6%的同學認為人工智能實體應該被賦予法律主體地位。
三、人工智能的風險防范
目前,人工智能的客體地位意味著我們不需要為其單獨制定一套法律程序,而是進一步明確責任承擔機制,在知識產(chǎn)權領域明確權利歸屬。但必須指出的是,隨著人工智能不斷地“智能化”,強人工智能系統(tǒng)的出現(xiàn)也許只是時間問題?;艚鹪娣Q如果智能機器缺乏監(jiān)管,人類將迎來一個黑暗的未來。法律作為維護人類社會秩序的工具,應當具有敏銳性和前瞻性來面對此種風險。具體而言,法律應當規(guī)范設計者。只有程序的設計者能對機器人行為機制產(chǎn)生直接影響。我們應該樹立風險防范意識,加強對程序設計者的倫理規(guī)范,實現(xiàn)對AI的風險控制。
四、結語
目前的人工智能雖然只是在特定功能領域超越了人類,但我們?nèi)匀灰硇詫Υ斯ぶ悄艿呐d起,積極應對人工智能帶來的挑戰(zhàn),在研發(fā)過程中提高風險意識,避免智能爆發(fā)的出現(xiàn)。
參考文獻
[1]王遷.論人工智能生成的內(nèi)容在著作權法中的定性[J].法律科學(西北政法大學學報),2017,35(05):148-155.
[2]沈建銘.論人工智能實體的法律主體資格[D].華中師范大學,2017.
[3]徐文.反思與優(yōu)化:人工智能時代法律人格賦予標準論[J].西南民族大學學報(人文社科版),2018,39(07):100-110.
[4]史際春,胡麗文.論法人[J].法學家,2018(03).
作者簡介
陳奇琪(1997—),女,蒙古族,內(nèi)蒙古興安人,本科,研究方向:法學。
基金項目
西南科技大學大學生創(chuàng)新基金項目精準資助專項資助,項目編號JZ19-009。