[摘 要]人工智能的責任分配與承擔尚未有定論,且面臨責任分配的證明困難,將運行人工智能損害的責任全部交由生產(chǎn)者、設計者承擔在一定情況下過于苛刻。人工智能的邏輯基礎(chǔ)與技術(shù)構(gòu)造決定了其能夠模擬人類神經(jīng)系統(tǒng),高度發(fā)展的人工智能具有形成自主意志的可能性,有形成自我意識與自發(fā)行為的能力,具備構(gòu)成獨立個體、獲得法律人格進而承受權(quán)利義務分配的可能。自主性增強的人工智能與傳統(tǒng)意義的生命體之間界限逐漸模糊,對人工智能的界定與理解將隨技術(shù)發(fā)展與倫理認知的變化而改變。人工智能的學習能力來自于人為創(chuàng)造的算法,但其人造性并非否定人工智能自身能夠達到高度自主化進而獲得法律人格的根源。針對人工智能的“自由”“生命”不應按照傳統(tǒng)刑罰理論的理解方式,而應放在數(shù)字智能的語境下加以理解。人工智能的特殊人格具有一定可行性,在人工智能自主性增強的情況下能夠提供損害歸責的思路。
[關(guān)鍵詞]人工智能;法律人格;人工智能特殊人格
[中圖分類號]D90 [文獻標志碼]A [文章編號]1000-8284(2020)04-0039-07
人工智能是時代與技術(shù)的產(chǎn)物,其出現(xiàn)可以追溯至20世紀50年代。達特茅斯會議開啟了人工智能的時代,給技術(shù)、倫理等各個領(lǐng)域帶來了新的焦點。從IBM的“深藍”到挑戰(zhàn)圍棋的AlphaGo及其升級版AlphaZero,從高危領(lǐng)域應用生產(chǎn)機器到外科手術(shù)中應用精密操作機器人,以及獲得國籍的機器人Sophia,都是人工智能技術(shù)性發(fā)展的見證。隨著技術(shù)發(fā)展帶來的“智慧化”,人工智能無可避免地面臨對其人格的發(fā)問,能否給予人工智能以獨立的法律人格是隨著人工智能大量應用而產(chǎn)生的現(xiàn)實問題。
一、何為人工智能
智能指“有生命的個體習得知識或技能、并將其應用于完成任務或邏輯上得出結(jié)論的能力”。[1]這種能力在人類身上最為明顯,因此也往往被用來指代人類的學習、應用、邏輯能力,成為區(qū)別人類與其他生物的一種特性。而人工智能,筆者認為,是通過人為的、機械的、數(shù)字的手段所創(chuàng)造的具有類似甚至超越人類智能的智能個體的總稱。
人工智能具備“智能”之稱的關(guān)鍵在于其具有一定的自主能力。這種自主能力來自對海量數(shù)據(jù)的深度學習、云計算能力與“神經(jīng)網(wǎng)絡”的模擬構(gòu)造。[2]神經(jīng)網(wǎng)絡從技術(shù)結(jié)構(gòu)上模仿人類神經(jīng)系統(tǒng)的結(jié)構(gòu)——由氨基酸決定蛋白質(zhì)的結(jié)構(gòu)與性質(zhì),由基因決定蛋白質(zhì)的發(fā)展方向,由這些物質(zhì)構(gòu)成單個神經(jīng)元,而神經(jīng)元之間的排列與化學物質(zhì)傳遞決定了人類的思想與精神發(fā)展。[2]神經(jīng)網(wǎng)絡的構(gòu)建及深度學習的應用使人工智能可以自動從已有的數(shù)據(jù)中總結(jié)規(guī)律,自主學習,并且發(fā)展出特定邏輯框架,針對特定狀況進行自我調(diào)整修正。這種深度學習方式超越了傳統(tǒng)的由人類教授機器進行活動的“訓練”方法,賦予了機器及其算法一定的自主性,具有了類似人類智能的機能。
人工智能通常被分為三類:弱人工智能、強人工智能、超人工智能,或稱普通人工智能、弱人工智能、強人工智能。[3]無論名稱如何,類似的分類體系都是將人工智能按照自主性程度、自主意識進化程度進行分類,為避免混淆,下文中將使用“弱人工智能”“強人工智能”“超人工智能”的命名方式。弱人工智能(Artificial Narrow Intelligence)指那些僅在人類活動中擔當輔助的人工智能,有一定的自我學習能力,但只擅長某一個領(lǐng)域的技術(shù)或操作。[4]強人工智(Artificial General Intelligence)則在各個領(lǐng)域中具有與人類相似的獨立解決問題的能力,并且能夠獨立思考、學習,通過總結(jié)歷史經(jīng)驗進行邏輯推理進而解決現(xiàn)實問題。[4]可以說,強人工智能在各個領(lǐng)域中的學習與邏輯能力都可與人類匹敵。[5][6]超人工智能(Artificial Super Intelligence)指代那些已經(jīng)各領(lǐng)域中全面超越人類大腦的人工智能體,[4]具有極高的自主性,甚至可以脫離人工程序的控制,具有很強的辨認能力與自我控制能力。
二、人工智能的責任分配困境
人工智能運行致人損害的責任分配問題是該技術(shù)所面臨的重要現(xiàn)實問題。由于Black Box的存在,即使是人工智能的設計者、制造者也無法完全明晰人工智能的“思考”路徑與發(fā)展方向。[7]這種不能被人類徹底掌握的具體決策過程不足以完全排除人工智能的運行與預設之間的偏差,而這種偏差很可能導致人工智能在運作期間致人受到損害。
以智能駕駛系統(tǒng)引發(fā)交通事故的問題為例。在國際汽車工程師學會的分類標準中,自動駕駛按照自動化程度被分為L0至L5的6個等級。[8]L0代表完全無自動化的駕駛,L5則代表完全由人工智能操作、不需要人力干涉的自動駕駛。L1、L2兩個級別中,“自動駕駛”僅僅為駕駛員提供輔助,主要操作仍然依靠人類駕駛員完成,因此被排除在自動駕駛技術(shù)范圍之外。L3是自動駕駛與非自動化的分界線,汽車駕駛將主要由智能系統(tǒng)進行控制,而駕駛員保留了隨時接管汽車運行的權(quán)力。L4、L5則是真正意義上的無人駕駛,在這兩個等級下的智能駕駛能夠?qū)崿F(xiàn)由智能系統(tǒng)進行對汽車的操控,并且駕駛員會隨著自動化程度升高而逐漸失去接管能力,或者說,失去接管的必要。
目前自動駕駛技術(shù)的應用尚未達到全面應用的階段,L3以上的無人駕駛汽車也遠沒有達到量產(chǎn)并大規(guī)模應用的水平。在L1、L2兩個級別的自動駕駛系統(tǒng)中,駕駛員是凌駕于系統(tǒng)之上的。汽車的主要操作權(quán)掌握在駕駛員手中,一旦發(fā)生交通事故,責任理應由駕駛員自身承擔,而非交由輔助工具性質(zhì)的智能駕駛系統(tǒng)承擔。
對于L3及以上等級的自動駕駛系統(tǒng),按照法律責任產(chǎn)生的原理,欲追究智能系統(tǒng)的設計者、生產(chǎn)者的責任,需要證明他們對于交通事故、人身侵害的發(fā)生至少存在預見的可能。[8]若要生產(chǎn)者、設計者對他們在現(xiàn)有技術(shù)水平下所不能預見的系統(tǒng)運行偏差承擔責任,這未免過于苛刻。由于智能駕駛系統(tǒng)極強的自主性與難以預見的運行偏差,責任分配面臨的其實是證明的問題。這種證明困難是由技術(shù)特性決定的,并且在短時間內(nèi)難以被克服。而若要對智能駕駛系統(tǒng)分配責任,那么智能駕駛系統(tǒng)面臨一個尚未定論的問題——人工智能是否具有法律上的人格。
法律人格的本質(zhì),以筆者拙見,是一種法律上對個體資格的認可,這種資格并不因為個體并非自然生命體而完全被法律所否定。以法人為例,法律賦予了身為自然人之間某種關(guān)系的合集以虛擬人格,并對該人格的權(quán)利義務制定了規(guī)則。被賦予法律人格的自然人或非自然人,基于這種法律上“人”的身份,取得了權(quán)利義務憑據(jù),并因此獲得了將行為轉(zhuǎn)化為權(quán)利義務內(nèi)容的可能。在討論人工智能是否能夠獲得法律人格之前,筆者認為,需要了解人工智能的特殊性。明確人工智能的特殊性,能夠更加清晰地理解人工智能的法律人格問題。
從生物學角度理解被稱為人類的生物,是一種體細胞具有二十三對染色體的靈長目人科人屬的生物。人類自詡具有“智能”,并且因此將自己與動物加以區(qū)分。但從生物角度而言,人仍然是哺乳類動物,這點并不因相比其他生物人類更擅長運用自己的大腦而有所改變。
而從哲學的角度探索“人”為何物可以追溯至古希臘。最早將“人”的概念帶進哲學領(lǐng)域的被認為是普羅塔格拉。[9]在普羅塔格拉的理解中,人是萬物的尺度,人具有的arete——那些自然物所固有的特性——表現(xiàn)為人的才能、特長,這些始終美好的arete是將人與其他生物加以區(qū)分的關(guān)鍵。[9]蘇格拉底將理性視為人的本性,并將其視為人與動物的根本區(qū)別。理性帶給人理智與判斷力,使人追求知識。在蘇格拉底眼中,理性是人類與動物能加以區(qū)分的最大區(qū)別。[9]而在亞里士多德眼中,在人的特質(zhì)屬性中,人的意志自由占有極其重要的地位,人的行為也可以根據(jù)人的意志,分為自愿行為與非自愿行為,如果不能遵循自己的意愿、不具備分辨善惡的能力,這種人不應該成為被苛責的對象。[10]人的自由意識與意志,可以說是人與其他生物加以區(qū)分的一個重要特質(zhì)。這并非等同于陳述其他生物不具備自由意識與意志,而是一個程度性的問題,最高程度的自由意識與意志能夠達到形成區(qū)分與邏輯的結(jié)果。
而所謂意識,筆者認為從精神層面來說意識是一種認知與邏輯的集合,從抽象方面對意識的定義是無法窮盡的,但從物理角度看待人的意識與自我認知,其本質(zhì)上是一種由化學物質(zhì)傳遞形成的具有規(guī)律的傳導軌跡。從這個角度來說,人工智能通過人為構(gòu)建模擬的神經(jīng)網(wǎng)絡,以電子符號構(gòu)建“神經(jīng)元”形成模擬人類神經(jīng)系統(tǒng)的數(shù)字系統(tǒng),可以獲得接近人類的“思維”與邏輯能力,甚至能夠做到在某個領(lǐng)域凌駕于人類之上。換言之,神經(jīng)網(wǎng)絡的理論基礎(chǔ),建立在對人類的思維的物理性質(zhì)的掌握上。從這個角度來看人工智能,很難說高度模擬化的人工智能不可能具備與人類類似的思考方式與意識。如前文所述,隨著技術(shù)的發(fā)展,人工智能的自主性會越來越強,甚至達到脫離人為設計的程序的控制的程度。高度自主的人工智能,雖然冠以“人工”二字,但其認知、自主與邏輯能力乃至“神經(jīng)”結(jié)構(gòu),并不足以支撐對“人工智能可以具有意識”的反駁。
在筆者眼中,關(guān)于人工智能能不能被視為一個有“生命”的個體的爭論本質(zhì)是倫理問題,而非自然科學問題。在人類的倫理認知中,人類在無形中始終立足于這個地球上最特別的靈長類動物的地位,并認為自己所擁有的思維和思想是最為獨特的。所謂倫理即關(guān)系論,與技術(shù)發(fā)展的沖突在前沿領(lǐng)域非常明顯,例如某些新銳醫(yī)藥試驗,以及人工智能。必須承認,在當前人工智能尚處于“弱人工智能”的前提下,人工智能難以被視為一個獨立個體。弱人工智能可以在某個領(lǐng)域成為一個高速運轉(zhuǎn)的計算器,在一般認知中,僅以一個工具的身份在某個領(lǐng)域活動。然而當技術(shù)發(fā)展到一定程度的時候,這種單純的計算器的身份將不復存在,尤其是當人工智能以凌駕于人類思維之上的姿態(tài)出現(xiàn)時。曾經(jīng)出現(xiàn)過的家用機器人怪聲事件令輿論嘩然,一時間引出不少人工智能有害論與人工智能對立論。不難想象在抵達能制造強人工智能的技術(shù)水平之前,人們對于可能凌駕于自己之上的智能體的抵觸可能會影響這種技術(shù)的發(fā)展。這種抵觸很大程度來自于對事物間關(guān)系的未知變化的恐懼。而在筆者眼中,倫理往往具有滯后性,雖然這種滯后并非一成不變。無論如何人為的阻擋,也不會改變?nèi)祟悓τ谏鐣P(guān)系的認知隨著技術(shù)和環(huán)境變化而緩慢變化的事實,這一點在面對人工智能時仍然適用。人工智能的存在可能改寫人類對于生命的認知并且從技術(shù)上成為新的生命體,現(xiàn)有的基于“人與機器的區(qū)別”的倫理體系[11]也將難以避免地因為人工智能的出現(xiàn)而發(fā)生變革。在這種變革中,人工智能這一類突破人工算法之后的形成的新型的生命體,像曾經(jīng)的公司組織那樣通過歷史發(fā)展而成為人類認知中的獨立個體,并非完全沒有可能,而能夠稱為獨立個體的人工智能,在特定語境下就具有了獲得“人格”的一種條件。
三、人工智能的法律人格
在倫理方面有所突破之前,筆者認為,人工智能很難被現(xiàn)有的大眾意識接受為新的生命體。對于人工智能能否具有法律人格一事,目前學界的討論能看到明顯的兩種立場:主體肯定與主體否定。
(一)主體肯定說與主體否定說
肯定人工智能的主體資格的學者表示,人工智能具有內(nèi)部知識以及一定程度的自我意識,具有自主學習、自主角色,自我設定目標的能力。[2]賦予人工智能法律人格在現(xiàn)實需求面前具有一定的必要性,可以解決人工智能運行期間致人損害的責任分擔問題,并且現(xiàn)行的法律制度并不排斥人工智能的主體資格,可以說,現(xiàn)有的法律制度體系為人工智能的法律人格留下了一定空間。[12]Solum表示,如果將人類智能視為計算,那么原則上計算機模擬人的心靈并非不可能的,[13]只要智能機器人能夠通過圖靈測試,那么從技術(shù)上,人工智能機器人就擁有了與人類一樣的所有屬性,足以成為憲法意義上的主體。[14]一旦得到憲法的承認,作為下位法的其他部門法中的人工智能,尤其是強人工智能就具有成立刑法意義上故意和過失的可能性,雖然承認這種可能性的同時,應當基于人工智能的算法基礎(chǔ)使之與自然人的主觀罪過加以區(qū)別。[3]John F. Weaver在《機器人也是人》中從公共政策的角度提出,人工智能應當成為主體自己承擔責任,并且這種責任承擔只需要滿足兩個條件:(1)損害或損失是由人工智能自身引發(fā)的;(2)不能將損失或損害的所有責任全部歸屬于人工智能流通中的某一個或數(shù)個既存的主體。[15]也曾有學者提出為人工智能創(chuàng)造“準人格”[16]或“臨界地位”,[13]以解決人工智能導致?lián)p失或損害的問題。
同時,對人工智能的法律人格持否定態(tài)度的學者對賦予人工智能法律人格一事進行了批判,其中最典型的辯駁往往從人工智能不具有理解能力、其自我意識并非獲得法律人格的保證著手。通常成為法律上的“人”意味著兩個必要條件的統(tǒng)一:擁有行使權(quán)力履行義務的法律資格,以及相應的意志能力。[17]這意味著,并非所有有意志能力的實體都能被法律賦予主體資格。人工智能的學習能力是算法所賦予的,學習的范圍也是由人類設定的范圍所限定的,不應當被過度夸大,并且這種學習能力受制于不完備性定理,可以說是“缺少‘直覺” [18]的。由于人工智能不具備財產(chǎn)能力,無法從法律上劃定獨立的責任范圍,這使得責任向財產(chǎn)轉(zhuǎn)化的能力受到阻礙。[17]也有學者認為,人工智能應當被歸為單純的產(chǎn)品,這種產(chǎn)品制造的損害應當被歸因于制造缺陷。[14]
(二)對主體否定論之反駁
筆者認為,首先不應當否認人工智能的學習能力是來自人為創(chuàng)造的算法的事實。然而同時不能否認的是,人工智能的學習能力,有超過人工算法的可能性,并且這種可能性并非足夠微小到可以忽略不計的。這并非將人工智能學習能力神化,而是闡述事實??梢哉f當技術(shù)的進化超乎目前人類的平均想象時,拒絕承認人工智能的自我能力是對法學理論發(fā)展是相當不利的。
對于主體否定說中認為人工智能不具備財產(chǎn)能力進而影響責任分配,因此不應當由人工智能承擔責任成為主體的推論,這種推論實質(zhì)上隱含著一個在先的前提,即人工智能沒有主體資格進而不具有財產(chǎn)能力。用隱含在先前提的推論去反駁在先前提的逆命題,從邏輯上來說并不可取。
若將人工智能視為一種單純的產(chǎn)品則會導致這樣一種情況:人工智能的設計者、生產(chǎn)者將由于自己所不能預知或掌控的事情而背負產(chǎn)品對第三人造成損害的責任;又或者,人工智能的設計者、生產(chǎn)者將因自己所控制的范圍外的因素而被苛責,隨著人工智能自主性增強,這種情況將越來越明顯,使設計者與生產(chǎn)者將因為人工智能自主發(fā)起的活動而受到苛責。這可以說是將人工智能視為單一產(chǎn)品的最直接的弊端,同時也帶來一個問題,如何對待人工智能在具備高度自主性后所產(chǎn)生的人工算法以外的信息。這意味著一個技術(shù)性問題:如何將人工智能自主學習的新信息與偏差及其造成的損害與原始預設行為的損害進行區(qū)分。
(三)人工智能特殊人格
現(xiàn)階段考慮人工智能的法律人格問題,通過自主性程度對人工智能加以區(qū)分[6]會導致針對弱人工智能的追責存在一定偏移。以自動駕駛系統(tǒng)偏差導致交通事故發(fā)生致人損害事件為例,若因弱人工智能的自主性程度較低而放棄對自動駕駛系統(tǒng)的問責,而轉(zhuǎn)向設計者、生產(chǎn)者,則在其問責邏輯中會出現(xiàn)這樣一種情況:需要證明自動駕駛系統(tǒng)的偏差的發(fā)生至少是可以預見的,自動駕駛系統(tǒng)的設計者、生產(chǎn)者對于這種偏差主觀意識上至少是有過失的。但是在現(xiàn)實技術(shù)面前,軟件運行造成的傷害并不能總是歸因于人的過錯,這意味著設計者、生產(chǎn)者始終處于被苛責的狀態(tài)。如果說將運行偏差從所有由自動駕駛導致的損害中剝離出來,針對由原有技術(shù)工藝造成的損害,由設計者、生產(chǎn)者自行承擔責任,而針對由于自動駕駛系統(tǒng)自主學習而新產(chǎn)生的偏差導致的損害,由自動駕駛系統(tǒng)承擔責任,面臨的是現(xiàn)實技術(shù)問題——如何將這兩種不同自主性行動帶來的損害加以區(qū)分。當人工智能能夠發(fā)展到高度自主的程度時,這種技術(shù)也應當并非完全不可行之物。
以筆者之拙見,對于人工智能,由法律賦予其一種較為特殊的人格并非不可能。賦予人工智能以法律人格能夠解決人工智能隨自主性增強做出了某種行為造成損害的問題。當發(fā)展到強人工智能、超人工智能階段的人工智能,其算法具有越來越強的自主性,能夠辨認和控制自己的行為時,它就已經(jīng)具備了成為法律上的“人”的基礎(chǔ)條件。在現(xiàn)代法律中,在對行為進行界定時,“人”的物理屬性的身體條件已經(jīng)不是必需要素,行為的本質(zhì)更多地著眼于基于意志做出某種行為及其后果。[19]人工智能是否具備生物意義上的有新陳代謝功能的肉體,這并非法律應當關(guān)注的對象。當人工智能具有自主性與自主能力時,它已經(jīng)具備了更為根本的有意性條件。
在人工智能被賦予特定法律人格時,損害歸責問題也不再是難以解決的問題。人工智能以其超出設計者、生產(chǎn)者意圖的自主能力實施了某種行為,造成了一定的損害后果,這種后果與行為之間的因果關(guān)系無法被否定,那么責任的歸屬也就相對明確。此時面臨的問題則是人工智能如何承擔責任,畢竟單純地具有法律人格并不等同于具有承擔責任的能力。若人工智基于這種法律人格,通過法律擬制,能夠取得一定的財產(chǎn)權(quán)利,那人工智能至少對經(jīng)濟性質(zhì)的責任部分具有一定的承擔能力。關(guān)于人工智能的權(quán)利,有學者甚至提出在財產(chǎn)權(quán)利之外,應當使強人工智能享有尊嚴權(quán)。[19]尊嚴權(quán)的問題暫且不表,但賦予人工智能以財產(chǎn)權(quán)利并不與現(xiàn)行法律系統(tǒng)矛盾,也并不存在倫理上的矛盾。一旦人工智能能夠以獨立個體身份,以其財產(chǎn)權(quán)利為損害承擔經(jīng)濟化的責任,生產(chǎn)者設計者也能夠從持續(xù)的苛責中解放出來。這種財產(chǎn)權(quán)利并不等同于保險制度。為人工智能系統(tǒng)設立保險的方式,其本質(zhì)是將風險轉(zhuǎn)移給流通過程中的其他主體,這種風險轉(zhuǎn)嫁雖然不與人工智能法律人格問題與責任分擔問題沖突,但如果因為風險轉(zhuǎn)移而對人工智能運行保險的批判能夠成立,商業(yè)保險也將失去它的基本邏輯立場。
人工智能所能夠取得的法律人格可以與自然人、法人的法律身份加以區(qū)分。人工智能由于其人工產(chǎn)物的特殊性質(zhì),在“生命”范疇內(nèi)與自然人具有不同的物理屬性。當沒有從倫理層面對“生命”一詞進行重新界定時,法律意義上的生命權(quán)人身權(quán)仍然只能適用于自然人。人工智能在獲得法律人格的同時,雖然不具有現(xiàn)行界定的生命權(quán)與人身權(quán)利,但可以以技術(shù)手段對其財產(chǎn)進行界定,使其擁有對一定財產(chǎn)的支配權(quán)利。這種財產(chǎn)的最初來源可以來自其流通過程中的其他主體,基于風險認同而進行財產(chǎn)轉(zhuǎn)讓,也可以是人工智能通過運行自行取得的各種形式的財產(chǎn)。財產(chǎn)權(quán)利可以成為對人工智能因其自主行為導致的損害的填平或彌補。
在否定人工智能法律主體資格的辯駁中,反對人工智能作為法律主體承擔責任享有權(quán)利的理由之一在于,針對人工智能適用自由刑與生命刑是沒有意義的。自由刑對人工智能并不適用,而生命刑,對于人工智能而言意味著刪除或拆解,只會造成開發(fā)人員與使用者的損失。[20]筆者眼中的人工智能的自由并非完全無法受到限制。由于物理性質(zhì)上人工智能并不存在“位移”活動的問題,對人工智能的自由的限制應該是一種針對其意志與行動的自由而非物理位置自由的技術(shù)性問題。而生命刑對于人工智能而言則意味著被拆解、終止使用、被永久地從數(shù)字世界中剝離出來。當人工智能能夠以獨立個體形式活動時,其生產(chǎn)者更多的是以“父母”的身份存在,而非財產(chǎn)所有人。子女的生命的喪失對父母而言是一種損失,但這并不應當被稱為一種財產(chǎn)性的損失。這種損失也應當是雙向的,并非單方面的流通中其他主體的損失。
四、結(jié)語
人工智能是具有被賦予法律人格的條件的,并且賦予其法律人格并不會有違現(xiàn)有法律。以筆者之拙見,在倫理層面對“生命”做出重新界定之前,在落后于技術(shù)且本身局限性極強的法律思維層面討論生命刑對于人工智能的適用,其結(jié)果只能是局限且狹隘的。當“生命”的概念被改寫或被承認時,人工智能作為一個獨立的法律上的主體才真正具有意義。
[參 考 文 獻]
[1] Sergio Ferraz, Victor Del Nero.人工智能倫理與法律風險的探析[J].科技與法律, 2018(01):19-24, 31.
[2] 王榮余.“機器人也是人”的法理拷問[J].社會科學動態(tài),2019(11):18-23.
[3] 劉憲權(quán).人工智能時代的“內(nèi)憂”“外患”與刑事責任[J].東方法學,2018(01):134-142.
[4] 賀樹龍.人工智能革命:人類將永生或者滅絕.網(wǎng)易科技, 2015-02-10,來源http://tech.163.com/15/0210/16/AI3VNEES00094P0U_all.html, 2019-12-16.
[5] Gottfredson L S. Intelligence and social inequality: Why the biological link[J]. The Wiley-Blackwell handbook of individual differences. Blackwell Publishing Ltd, 2011: 538-75.
[6] 馬治國, 田小楚. 論人工智能體刑法適用之可能性[J]. 華中科技大學學報(社會科學版), 2018, 34(2): 108-115.
[7] 石冠彬.人工智能民事主體資格論:不同路徑的價值抉擇[J].西南民族大學學報(人文社科版), 2019, 40(12):94-102.
[8] 江溯. 法律如何應對自動駕駛汽車的挑戰(zhàn)[N].經(jīng)濟參考報,2018-06-27(008).
[9] 莫法有.試論中西哲學史上人性論之差異[J].復旦學報(社會科學版),1996(01):10-15.
[10] 時方.人工智能刑事主體地位之否定[J].法律科學(西北政法大學學報),2018,36(06):67-75.
[11] 閆坤如.機器人倫理學:機器的倫理學還是人的倫理學? [J].社會科學文摘,2019(10):11-13.
[12] 陳全真. 論智能機器人權(quán)利存在的由因及對策[J].貴州師范大學學報(社會科學版),2019(3).
[13] Lawrence Solum. Legal personhood for artigicial intelligence[J]. North Carolina Law Review. 1992,70: 1232.
[14] 成素梅,高詩宇.智能機器人應有法律主體資格嗎? [EB/OL]. 西安交通大學學報(社會科學版): 1-12.源http://kns.cnki.net/kcms/detail/61.1329.C.20191111.1141.002.html, 2019-12-20.
[15] John Frank Weaver.機器人也是人[M],鄭志峰,譯.元照出版, 2018:46-47.
[16] Peter Asaro. Robots and responsibilities from a legal perspective, 2007. http://www.peterasaro.org/writing/ASARO%20Legal%20Perspective.pdf. 2019-12-20.
[17] 馮潔.人工智能體法律主體地位的法理反思[J].東方法學,2019(04):43-54.
[18] George Zarkadakis. 人類的終極命運[M],陳朝,譯.北京:中信出版社,2017:198,276.
[19] 劉憲權(quán),張俊英.人工智能時代機器人異化與刑事責任[J].法治研究, 2019(04):90-97.
[20] 文詩映.人工智能的刑事法律地位探討[J].法制博覽,2019(33):179-180.
〔責任編輯:張 毫〕
[收稿日期]2020-06-17
[作者簡介]蔡文坤(1989—),女,四川成都人,碩士研究生,從事國際經(jīng)濟法研究。