袁 曾
(中山大學(xué) 法學(xué)院,廣州 510275)
人工智能換臉軟件“ZAO”在2019年底被工信部要求限制過(guò)度采集用戶隱私及修正用戶安全協(xié)議,由此,理論界與實(shí)務(wù)界對(duì)人工智能深刻影響社會(huì)現(xiàn)實(shí)的關(guān)注度再次提升。[1]無(wú)人駕駛汽車、智能合約、自動(dòng)寫(xiě)作機(jī)器人等人工智能產(chǎn)品已滲透進(jìn)個(gè)人生活的方方面面,但是法學(xué)理論仍對(duì)如何對(duì)待人工智能及采取何種立法方式應(yīng)對(duì)其帶來(lái)的變革缺少定論。習(xí)近平同志在主持中共中央政治局第九次集體學(xué)習(xí)時(shí)強(qiáng)調(diào),要努力在人工智能發(fā)展方向和理論、方法、工具、系統(tǒng)等方面取得變革性、顛覆性突破,確保我國(guó)在人工智能這個(gè)重要領(lǐng)域的理論研究走在前面。規(guī)制人工智能按照人類的設(shè)計(jì)方向妥善發(fā)展并為人類社會(huì)服務(wù),首先需要明晰的就是人工智能的法律地位問(wèn)題,即人工智能是否具有法律人格,具有什么樣的法律人格。隨著相關(guān)研究的深入,人工智能法律人格問(wèn)題已成為法學(xué)界研究人工智能法律問(wèn)題所關(guān)注的核心問(wèn)題,[2]必須對(duì)人工智能的法律地位有著清晰的界定,才能以此為基礎(chǔ)做出法律規(guī)制研究與制定的相應(yīng)調(diào)整。
隨著算法技術(shù)的快速更新與5G網(wǎng)絡(luò)等基礎(chǔ)設(shè)施的不斷完善,人工智能技術(shù)正逐步走向成熟并投入規(guī)?;瘧?yīng)用。以無(wú)人駕駛汽車為例,2018年4月,工信部、公安部、交通部聯(lián)合印發(fā)了《智能網(wǎng)聯(lián)汽車道路測(cè)試管理規(guī)范(試行)》,2019年9月,武漢市有關(guān)部門(mén)為無(wú)人駕駛公交車頒發(fā)了全球首張商用道路運(yùn)輸牌照。 L5級(jí)的無(wú)人駕駛汽車可以完全實(shí)現(xiàn)由計(jì)算機(jī)控制駕駛?cè)^(guò)程,妥善地解決了人為操作引發(fā)的道路交通安全事故,但現(xiàn)行法律規(guī)制已明顯落后于技術(shù)的發(fā)展。[3]無(wú)人駕駛汽車無(wú)需人類駕駛員,但根據(jù)現(xiàn)行《道路交通安全法》第19條對(duì)于駕駛?cè)吮仨毴〉民{駛證件的規(guī)定,無(wú)人駕駛汽車是否可以被認(rèn)定為駕駛主體即存在法律空白。[4]駕駛主體規(guī)制的缺位又直接引致《侵權(quán)責(zé)任法》《保險(xiǎn)法》等法律對(duì)于機(jī)動(dòng)車侵權(quán)責(zé)任的規(guī)定無(wú)法適用,而現(xiàn)實(shí)中已出現(xiàn)Uber公司路試的無(wú)人駕駛汽車在2018年3月致人死亡的案例,現(xiàn)行基于駕駛?cè)诉^(guò)錯(cuò)形成的機(jī)動(dòng)車侵權(quán)責(zé)任體系面臨重大修改的緊迫現(xiàn)實(shí)。從更為廣闊的法律鏈條分析,無(wú)人駕駛汽車至少還涉及包括產(chǎn)品責(zé)任、保險(xiǎn)責(zé)任、合同責(zé)任等在內(nèi)的責(zé)任體系的系統(tǒng)性調(diào)整,而無(wú)人駕駛汽車的法律主體地位問(wèn)題是必須厘清的首要問(wèn)題。
再以知識(shí)產(chǎn)權(quán)涉及的問(wèn)題為例。在專利權(quán)領(lǐng)域,根據(jù)《專利法》第22條的相關(guān)規(guī)定,專利權(quán)取得的要件包括創(chuàng)造性、新穎性和實(shí)用性。[5]現(xiàn)階段,判斷是否具有創(chuàng)造性的重要考量因素是與現(xiàn)有技術(shù)進(jìn)行比對(duì),即對(duì)于本領(lǐng)域普通技術(shù)人員而言構(gòu)成了非顯而易見(jiàn)性。法條規(guī)定下的普通技術(shù)人員為擬制的人,但在涉及人工智能產(chǎn)品的專利認(rèn)定時(shí),確定普通技術(shù)人員的應(yīng)有標(biāo)準(zhǔn)存在較大困難。人工智能的數(shù)據(jù)攝取和學(xué)習(xí)能力具有理論上的無(wú)限性,已突破了傳統(tǒng)技術(shù)領(lǐng)域的限制,而算法的強(qiáng)大綜合分析能力又可能導(dǎo)致生成結(jié)果的意外嬗變,本領(lǐng)域的創(chuàng)造性規(guī)則因此難以統(tǒng)一。[6]在著作權(quán)領(lǐng)域,根據(jù)美國(guó)《憲法》第一修正案等法律的規(guī)定,作者與創(chuàng)作者在限定的時(shí)間內(nèi)具有科學(xué)發(fā)明與藝術(shù)創(chuàng)作的排他權(quán)利。人工智能是否可被認(rèn)定為“作者”地位,將直接決定知識(shí)產(chǎn)權(quán)的歸屬并涉及切實(shí)的人格、財(cái)產(chǎn)利益。如果人工智能具有完整的法律人格,則人工智能創(chuàng)造的作品的著作權(quán)等知識(shí)產(chǎn)權(quán)的權(quán)利主體是誰(shuí)?從長(zhǎng)遠(yuǎn)分析,人工智能法律主體資格的認(rèn)定,將對(duì)技術(shù)發(fā)展乃至人與機(jī)器之間關(guān)系的建構(gòu)平衡起到基礎(chǔ)性的作用。
人工智能深度改變了權(quán)利與義務(wù)的生成、運(yùn)行與實(shí)現(xiàn)的模式。傳統(tǒng)模式下,權(quán)利和義務(wù)在紙質(zhì)合同中予以體現(xiàn),須由當(dāng)事人閱讀、理解后產(chǎn)生行動(dòng)與外部性。該種模式需花費(fèi)大量的時(shí)間和精力,并不符合復(fù)雜的生活場(chǎng)景性與數(shù)據(jù)網(wǎng)絡(luò)便利帶來(lái)的交互繁雜性,如在微信朋友圈投放的程序性廣告,數(shù)據(jù)平臺(tái)在網(wǎng)絡(luò)空間中自動(dòng)運(yùn)行的廣告位競(jìng)拍與成交可以達(dá)到每秒上萬(wàn)次,以實(shí)現(xiàn)廣告的精準(zhǔn)播放。20世紀(jì)末,利用計(jì)算機(jī)語(yǔ)言編制自動(dòng)執(zhí)行而無(wú)需交易信用基礎(chǔ)的智能合約開(kāi)始出現(xiàn),并隨著區(qū)塊鏈技術(shù)的發(fā)展成熟,顯著提高了網(wǎng)絡(luò)空間的交易速率。以往起草商務(wù)合同是律師的工作,但人工智能可以并已經(jīng)開(kāi)始提供更多的程序、平臺(tái)與解決方案。美國(guó)貝克·豪斯特(Baker & Hostetler)律所已開(kāi)始雇傭機(jī)器人律師羅斯(Ross)提供特定法律問(wèn)題的答案或提出指導(dǎo)性意見(jiàn)。[7]在人工智能生成的自動(dòng)化合同中,人工智能的法律地位又直接決定了法律應(yīng)如何對(duì)待其產(chǎn)生的關(guān)聯(lián)性問(wèn)題。由于人工智能具有的深度學(xué)習(xí)能力與自動(dòng)運(yùn)行機(jī)制,人工智能涉及合同的因果關(guān)系判定需要以其法律地位的判定為基礎(chǔ),但人工智能技術(shù)依靠數(shù)據(jù)信息的搜索整合與綜合運(yùn)用形成了不同于傳統(tǒng)計(jì)算機(jī)的線性運(yùn)算路徑,造成了原有因果關(guān)系的現(xiàn)實(shí)割裂。如部分互聯(lián)網(wǎng)企業(yè)利用海量的數(shù)據(jù)資源與終端端口優(yōu)勢(shì),購(gòu)買其他企業(yè)的人工智能技術(shù)進(jìn)行隱蔽的用戶數(shù)據(jù)畫(huà)像,從而利用大數(shù)據(jù)“殺熟”。此時(shí)人工智能在利用“網(wǎng)絡(luò)爬蟲(chóng)”技術(shù)的過(guò)程中自動(dòng)收集數(shù)據(jù)的行為應(yīng)由人工智能技術(shù)的提供者、使用者還是人工智能本身承擔(dān)責(zé)任,需由法律予以明確,而此種邏輯關(guān)系的判定將直接決定不同主體間權(quán)利與義務(wù)的設(shè)定與承擔(dān)。
在司法實(shí)踐方面,上海法院系統(tǒng)自2019年已開(kāi)始大規(guī)模使用“刑事案件智能輔助辦案系統(tǒng)”(即206系統(tǒng)),通過(guò)圖文識(shí)別、自然語(yǔ)言理解、司法實(shí)體識(shí)別、要素自動(dòng)提取等工程技術(shù)的系統(tǒng)性運(yùn)用,智能識(shí)別抓取關(guān)聯(lián)證據(jù)、規(guī)范刑事辦案過(guò)程,在提高實(shí)體公正的基礎(chǔ)上顯著提升審判效率。[8]2016年,有學(xué)者提出了去中心化仲裁和調(diào)解網(wǎng)計(jì)算法院(即計(jì)算陪審團(tuán)),參照法律仲裁規(guī)定的程序,在區(qū)塊鏈上通過(guò)自動(dòng)執(zhí)行合約的方式,取代仲裁員解決爭(zhēng)議。[9]2018年4月,美國(guó)亞利桑那州通過(guò)HB-2603法案,主張區(qū)塊鏈數(shù)字簽名具有法律效力,而弗蒙特州已允許區(qū)塊鏈信息作為呈堂證物。[10]人工智能帶來(lái)的司法效率提升毋庸置疑,其利用大數(shù)據(jù)校驗(yàn)與排除非法證據(jù)的準(zhǔn)確度遠(yuǎn)超人工,并可借助同案同判的技術(shù)安排有效緩解法院“人少案多”的矛盾。但隨著人工智能逐步滲入裁判的全過(guò)程,其自動(dòng)利用法律數(shù)據(jù)庫(kù)資源、加載模塊化功能運(yùn)行帶來(lái)的偏差裁判、僵化裁判等問(wèn)題形勢(shì)嚴(yán)峻。如美國(guó)威斯康星州等地司法機(jī)關(guān)使用的指南針(Compass)人工智能判案系統(tǒng),就被詬病其專有算法含有極具社會(huì)爭(zhēng)議的隱形種族歧視與性別偏見(jiàn)。是否承認(rèn)人工智能的法律人格,或言在何種程度上承認(rèn)人工智能的法律人格,將直接決定人工智能裁判的性質(zhì)與有效性。人工智能必將并且已經(jīng)介入司法裁判,因此,人工智能法律人格的審視將直接關(guān)系未來(lái)法律的發(fā)展和走向。
法律人格,即行使權(quán)利、履行義務(wù)的法律主體資格。目前,關(guān)于人工智能法律人格的研究較多,提出的學(xué)說(shuō)也較多,綜合分析可以提煉為以下幾類:一是否定說(shuō),該學(xué)說(shuō)認(rèn)為人工智能只是法律關(guān)系的客體,直接否定人工智能法律主體地位的存在。二是肯定說(shuō),該學(xué)說(shuō)認(rèn)為人工智能應(yīng)當(dāng)具有法律主體資格,其中又包括代理說(shuō)、虛擬人格說(shuō)、電子人格說(shuō)等具體類型。三是折中說(shuō),又稱人工智能法律人格有限說(shuō)。該學(xué)說(shuō)認(rèn)為人工智能具有法律人格,但這種人格較為特殊,其權(quán)利與義務(wù)的范圍相較其他法律主體較為有限。
人工智能法律人格否定說(shuō)主要包括以下幾種類型:一是工具說(shuō)。工具說(shuō)將人工智能作為用于生產(chǎn)的工具,其雖具有深度學(xué)習(xí)與運(yùn)算能力也無(wú)法改變作為工具的屬性,法律人格必須以人為中心。[11]但工具說(shuō)無(wú)法回應(yīng)前文所述人工智能法律人格缺失所面臨的現(xiàn)實(shí)困境,同時(shí)也與實(shí)踐中“索菲亞”等人型機(jī)器人已取得國(guó)籍授予的實(shí)踐現(xiàn)實(shí)不符。二是軟件代理說(shuō)。軟件代理說(shuō)認(rèn)為,人工智能技術(shù)僅用作傳遞設(shè)定的信息,本質(zhì)上是軟件的代理。[12]但該說(shuō)未考慮現(xiàn)階段具有深度學(xué)習(xí)與數(shù)據(jù)挖掘能力的人工智能已經(jīng)開(kāi)始投入應(yīng)用的現(xiàn)實(shí),例如人工智能通過(guò)算法的應(yīng)用已經(jīng)可以自行運(yùn)作無(wú)人駕駛汽車,其執(zhí)行的算法邏輯與行為結(jié)果間屬于軟件代理的說(shuō)法已較難成立。三是道德能力缺乏說(shuō)。該說(shuō)從法律源于道德立足,分析法律下的人應(yīng)為具有道德的人,包括人工智能在內(nèi)的無(wú)道德認(rèn)知能力的主體無(wú)法擁有法律人格。[13]但是道德能力的定義自身就具有模糊性,例如孺牛跪乳、忠犬救主等行為是否屬于道德的范疇就值得商榷,由此延伸至人工智能的運(yùn)算規(guī)則與邏輯可以根據(jù)人類設(shè)定的道德邏輯執(zhí)行,很難證否人工智能不具有按照道德規(guī)范運(yùn)作的能力。四是缺乏認(rèn)知能力說(shuō)。該說(shuō)認(rèn)為無(wú)認(rèn)知能力即無(wú)法律人格,人工智能因此絕無(wú)法律人格存在的可能。[14]但隨著實(shí)踐的發(fā)展,無(wú)認(rèn)知能力的胎兒權(quán)益已經(jīng)獲得了《民法總則》第127條的承認(rèn),證成認(rèn)知能力與法律人格間并無(wú)絕對(duì)一致的對(duì)應(yīng)關(guān)系。五是缺乏意思能力說(shuō)。該說(shuō)與缺乏認(rèn)知能力說(shuō)類似,認(rèn)為精神病人、嬰幼兒等無(wú)意思表達(dá)能力的主體無(wú)法具有法律人格。[15]但意思能力的表達(dá)需考慮實(shí)際情況,例如人工智能通過(guò)復(fù)雜運(yùn)算而做出的駕駛汽車、識(shí)別圖片等動(dòng)作與人類的意思能力有何本質(zhì)上區(qū)別?上述五類人工智能法律人格否定說(shuō)的主要論據(jù),在于人工智能不符合現(xiàn)行法律下的某些要件構(gòu)成,但分析法律人格的取得與發(fā)展過(guò)程,具有法律人格的主體范圍歷來(lái)均以功能性為導(dǎo)向,注重實(shí)踐的需要而呈不斷擴(kuò)大趨勢(shì),若機(jī)械地遵循當(dāng)時(shí)條件下的法律要件,則法人等擬制主體絕無(wú)取得法律主體資格的可能。
承認(rèn)人工智能法律人格的學(xué)說(shuō)主要包括以下幾類:一是代理說(shuō)。在此學(xué)說(shuō)下,人工智能與所有人、使用人間的關(guān)系屬于法定代理關(guān)系,代理人對(duì)被代理人的行為負(fù)責(zé)。[16]根據(jù)法理,作為代理人的人應(yīng)當(dāng)具有行為能力從而具有法律主體地位,該種學(xué)說(shuō)存在法律依據(jù),例如美國(guó)《統(tǒng)一電子交易法》第14條規(guī)定,合同可由雙方的電子代理人形成,即使無(wú)人知道或?qū)彶殡娮哟砣说男袨榛蛴纱水a(chǎn)生的條款或協(xié)議。[17]二是電子人格說(shuō)。2016年5月,歐洲議會(huì)法律事務(wù)委員會(huì)發(fā)布《關(guān)于機(jī)器人民事法律規(guī)則立法建議致歐盟委員會(huì)的報(bào)告草案》, 要求從承擔(dān)損害賠償?shù)目紤]著手為機(jī)器人創(chuàng)設(shè)特定的法律人格,明確其電子人格(Electronic Person),但該份報(bào)告并未擴(kuò)展解釋如何具體落實(shí)該電子人格的建構(gòu)?,F(xiàn)有已經(jīng)承認(rèn)人工智能法律人格的案例,更多的涉及商業(yè)宣傳與炒作。三是虛擬人格說(shuō)。該說(shuō)認(rèn)為,由于網(wǎng)絡(luò)空間與實(shí)體空間存在物理阻隔,可以將網(wǎng)絡(luò)空間上的虛擬人格與自然人格相剝離,將自然人在網(wǎng)絡(luò)空間中的人格予以主體化表達(dá)。與自然人格不同,虛擬人格屬于主觀人格賦予,其年齡、身份、性格等均由參與角色任意設(shè)定,將人工智能賦予虛擬人格符合假定型人格的特征。四是法釋義學(xué)說(shuō)。該說(shuō)認(rèn)為,人工智能不屬于成文法下的法律主體,但可通過(guò)法律解釋予以擴(kuò)展認(rèn)定。[18]法律主體資格來(lái)源于法律的高度抽象,人工智能的法律人格問(wèn)題將直接關(guān)系人類如何處理機(jī)器與人的未來(lái)發(fā)展邏輯,[19]但是若貿(mào)然承認(rèn)人工智能法律人格的完整法律人格,將直接造成現(xiàn)行法律規(guī)范的沖突與人類社會(huì)邏輯價(jià)值的混亂,例如人型性愛(ài)機(jī)器人能否被認(rèn)作具有完全民事行為能力人的伴侶,將直接改變現(xiàn)行婚姻法律體系。
人工智能法律人格有限說(shuō),又被稱為人工智能法律人格折中說(shuō),該說(shuō)認(rèn)為人工智能具有法律人格,但其人格又具有特殊性,由于人類創(chuàng)設(shè)人工智能就是為人類服務(wù)的,因此人工智能無(wú)法完全實(shí)現(xiàn)與人類平起平坐,因此人工智能法律人格無(wú)法完全等同于自然人法律人格。法律人格有限說(shuō)承認(rèn)人工智能可以做出行為并承擔(dān)后果,但其承擔(dān)行為后果的能力是存在限制的。[20]在擬制人工智能權(quán)利能力上,應(yīng)將人工智能的權(quán)利劃分為人類應(yīng)保留與人工智能應(yīng)賦予這兩類權(quán)利。將部分權(quán)利明確限定為人類保留性權(quán)利有助于牽制人工智能權(quán)利的無(wú)序擴(kuò)張,人類應(yīng)保留的權(quán)利通常為基本權(quán)利,屬于由憲法規(guī)定的最基礎(chǔ)公民權(quán),包括投票等政治性權(quán)利、人類對(duì)于私有人工智能毀滅的決定權(quán)以及人的生命健康權(quán)等方面。[21]也有學(xué)者對(duì)人工智能有限人格提出過(guò)異議,認(rèn)為人工智能的深度學(xué)習(xí)能力與法律主體資格無(wú)法等同,人工智能法律人格的證成路徑是受到了唯技術(shù)論的錯(cuò)誤引導(dǎo)。[22]部分學(xué)者認(rèn)為,由于人工智能尚未升級(jí)至強(qiáng)人工智能階段,還不具備真正的自我意識(shí)與行為能力,現(xiàn)時(shí)討論人工智能法律人格尚為時(shí)過(guò)早,并且由于法律主體資格只存在是或者不是這兩種絕對(duì)性選擇,并不存在折中的法律人格。[23]
根據(jù)現(xiàn)有法學(xué)理論,法律人格包括自然人主體與法律擬制主體這兩種。自然人主體的法律人格自動(dòng)取得,雖然有責(zé)任能力的差異,但自然人始終具有法律人格。法律擬制主體需要經(jīng)過(guò)法定程序的確認(rèn)后方可取得,例如公司法人等。分析法律主體資格的歷史淵源,具有法律人格的主體范圍不斷擴(kuò)大,河流、動(dòng)物等均存在或存在過(guò)法律人格,而自然人享有的法律人格也由于生產(chǎn)力水平的差異而存在變化。
人類進(jìn)入文明社會(huì)的早期,統(tǒng)治階級(jí)將自然人劃分為不同階級(jí),分別賦予不同權(quán)利,如《漢謨拉比法典》將古巴比倫人分為自由民、無(wú)投票權(quán)的自由民以及奴隸,其法律人格差異巨大。為了維護(hù)統(tǒng)治的穩(wěn)定性,古羅馬時(shí)期曾實(shí)施人格減等制度,只有享有完全法律人格的人才能擁有自由權(quán)、市民權(quán)和家族權(quán)的完整權(quán)利,這種權(quán)利伴隨著階層身份存在,如果因?yàn)橛|犯法律而喪失某種身份權(quán)則其法律人格將不再完整,形成人格減等。法律人格的形成和取得與當(dāng)時(shí)所處的生產(chǎn)力水平和人類文明的認(rèn)知存在巨大關(guān)聯(lián),直至“二戰(zhàn)”以后,婦女、有色人種才完全取得平等的法律人格。
根據(jù)英國(guó)法學(xué)家莫里斯的觀點(diǎn),自然法下人類權(quán)利并非一定不能侵犯,各種自然界下的主體均應(yīng)享有權(quán)利。伴隨著近年來(lái)人類對(duì)于自然環(huán)境的重視與保護(hù)動(dòng)物的呼聲見(jiàn)漲,雖然大部分國(guó)家并未承認(rèn)動(dòng)物的法律人格,但基本認(rèn)同人類存在人道主義的義務(wù),人類不得肆意虐待侮辱動(dòng)物,特別是瑞士1992年《憲法》規(guī)定了動(dòng)物為“存在體”,而瑞士蘇黎世的地方法律規(guī)定受虐的動(dòng)物存在擁有律師的權(quán)利。格拉斯法官在美國(guó)“色拉俱樂(lè)部”案的判決附帶意見(jiàn)中分析,應(yīng)為森林、河流、動(dòng)物等特殊自然物賦予法律主體資格,給予其表達(dá)權(quán)利的地位。(1)Sierra Club Case. 405 U.S. at 741-43, 749(1972)。新西蘭已多次為無(wú)生命體賦予法律人格,2014年新西蘭尤瑞瓦拉國(guó)家公園已經(jīng)獲準(zhǔn)為法人。為保護(hù)新西蘭第三大河流旺格努伊河的民族信仰地位,2017年,新西蘭國(guó)會(huì)決定賦予該河流以法人地位。新西蘭為公園與河流賦權(quán)是為了解決環(huán)境保護(hù)的實(shí)際需要,由于該國(guó)境內(nèi)的部分水體與土地既不屬于政府又不屬于毛利民族,賦予該類無(wú)生命體以法律人格以使其可以代表自身利益出庭應(yīng)訴。
雖然動(dòng)物、無(wú)生命體等不具有人類的認(rèn)知能力、意思表達(dá)能力,但出于保護(hù)某類具有特殊意義的現(xiàn)實(shí)需要,法律將人格賦予了此類特殊主體。法律人格的取得與授予必須符合生產(chǎn)力的現(xiàn)實(shí)發(fā)展水平,即使是自然人的法律人格取得也歷經(jīng)了漫長(zhǎng)的過(guò)程,但綜上所述,法律主體資格呈不斷擴(kuò)大的正向趨勢(shì),從法律促進(jìn)人工智能發(fā)展的現(xiàn)實(shí)需要與解決目前階段的現(xiàn)實(shí)問(wèn)題分析,人工智能存在被賦予法律主體資格的可能性與必要性。
法律主體資格與自然人的身份剝離是人類歷史發(fā)展到近代之后才出現(xiàn)的,如上文所述,法律主體的范圍會(huì)隨著社會(huì)生產(chǎn)力水平的提高而呈動(dòng)態(tài)變化,而設(shè)置法律主體資格的目的是為了解決實(shí)際需要,因此,法律主體資格的確認(rèn)經(jīng)歷了人可非人到非人可人的階段性變化。而自然人法律人格本身也源自法律的確認(rèn),法律基于現(xiàn)實(shí)需要擬制法人人格就是法律本身的異化。法律人格本質(zhì)上是權(quán)利能力與行為能力的高度抽象以消除不同個(gè)體間的種種差異,而法人等擬制主體的出現(xiàn)就是為了解決權(quán)利義務(wù)承擔(dān)的問(wèn)題。如《德國(guó)民法典》第43條規(guī)定,法人享有法律人格,具有權(quán)利能力,通過(guò)權(quán)利能力的設(shè)定,使得法人與自然人在法律上取得實(shí)質(zhì)上的平等。法律人格擬制將立法技術(shù)與社會(huì)實(shí)際相結(jié)合,直接促進(jìn)了現(xiàn)代商業(yè)文明的繁榮并改變了人類經(jīng)濟(jì)的發(fā)展走向。
人工智能與量子技術(shù)、基因工程等并稱新科技時(shí)代改變世界的重要技術(shù),但人工智能與其他技術(shù)不同,其具有深度學(xué)習(xí)能力與類人神經(jīng)網(wǎng)絡(luò)的運(yùn)算思考能力。人類智力的基礎(chǔ)功能即為管理、記憶以及應(yīng)用外部信息,無(wú)論是符號(hào)型的簡(jiǎn)單知識(shí)表達(dá),還是非符號(hào)型的復(fù)雜知識(shí)表達(dá),人工智能均已實(shí)現(xiàn)處理或部分處理的能力?,F(xiàn)階段超過(guò)五分之一的律師業(yè)務(wù)已可由人工智能替代完成,在人工智能律師與人類律師對(duì)于案件文書(shū)的比對(duì)中,其準(zhǔn)確率已領(lǐng)先于人類律師。[24]此外,香港創(chuàng)投公司Deep Knowledge Ventures在2014年將計(jì)算機(jī)算法軟件任命為董事會(huì)成員,2017年美國(guó)Abyss Creations公司推出了具有永久性記憶的性愛(ài)人型機(jī)器人。如本文第一章所論述,人工智能技術(shù)的規(guī)?;瘧?yīng)用已經(jīng)引致一些必須由法律予以界定的現(xiàn)實(shí)難題,但人工智能法律主體資格的缺失直接造成了實(shí)踐處理相關(guān)法律問(wèn)題的模糊,最終將在客觀上阻礙科技服務(wù)人類的進(jìn)程。
人工智能的法律地位實(shí)際是人類如何對(duì)待與處理智能機(jī)器的身份問(wèn)題。筆者認(rèn)為,在對(duì)待人工智能法律人格的問(wèn)題上,必須以實(shí)用的功能性為導(dǎo)向,從解決現(xiàn)實(shí)問(wèn)題、厘清實(shí)際矛盾的角度出發(fā)辨析其擬制人格的可能與意義。雖然目前人工智能暫未進(jìn)化至強(qiáng)人工智能階段,但可通過(guò)適度賦予其人格以應(yīng)對(duì)人工智能侵權(quán)、智能合約簽訂、權(quán)利與義務(wù)的自動(dòng)運(yùn)行等多重復(fù)雜問(wèn)題。2016年2月,美國(guó)國(guó)家交管局決定賦予谷歌公司改裝的無(wú)人駕駛汽車以司機(jī)地位。2017年7月,美國(guó)眾議院表決通過(guò)了《自動(dòng)駕駛法案》,修訂了《美國(guó)法典》第49條,明確了無(wú)人駕駛汽車的相關(guān)安全標(biāo)準(zhǔn)與豁免條款,更多國(guó)家開(kāi)始注意到人工智能法律人格問(wèn)題對(duì)于解決實(shí)際問(wèn)題的重要性。尤瓦爾·赫拉利在《未來(lái)簡(jiǎn)史》中指出,既然公司等既無(wú)身體也無(wú)心智的實(shí)體可被承認(rèn)具有法律人格,則人工智能未來(lái)也必然將獲得相應(yīng)的主體地位。[25]人工智能法律地位的證成或證否,將直接關(guān)系到立法工程的系統(tǒng)性調(diào)整。經(jīng)過(guò)考察近現(xiàn)代法律主體資格的賦予進(jìn)程與賦權(quán)目的,可以得出結(jié)論,從促進(jìn)人工智能發(fā)展的角度承認(rèn)其法律地位,符合法律的功能性目標(biāo),有助于確保人工智能技術(shù)在法律規(guī)制的范圍內(nèi)發(fā)展。
根據(jù)所處運(yùn)算能力與運(yùn)行機(jī)制的不同,可以將人工智能劃分為四種智力水平層次:類人思考、類人行為、自我思考、自主行為。當(dāng)人工智能不斷升級(jí)進(jìn)化至自我思考、自主行為時(shí),人工智能顯然已經(jīng)具備了實(shí)際的思維能力與行為能力。根據(jù)《第一財(cái)經(jīng)周刊》2018年7月的報(bào)道,IBM公司旗下的人工智能Project Debater僅靠現(xiàn)場(chǎng)搜索資料并尋找論據(jù),就在辯論賽中戰(zhàn)勝了人類冠軍選手,人工智能的優(yōu)勢(shì)在于其強(qiáng)大的深度學(xué)習(xí)與超強(qiáng)的運(yùn)算能力。根據(jù)馬克思主義哲學(xué)的觀點(diǎn),勞動(dòng)是人與其他物種的本質(zhì)區(qū)別。若從勞動(dòng)的角度論證,人工智能早已具備了人的特征屬性,并且此種屬性與靈長(zhǎng)類動(dòng)物的機(jī)械勞作不同,具備思維與行為的智慧特征。根據(jù)結(jié)果導(dǎo)向,人工智能勞動(dòng)創(chuàng)造的價(jià)值與人類勞動(dòng)創(chuàng)造的價(jià)值并無(wú)本質(zhì)上的不同。而事實(shí)上智能合約的簽訂與履約、程序化合同的自動(dòng)運(yùn)行等實(shí)際情況,已經(jīng)將人工智能的法律地位推到了不得不明確的位置。如在人工智能自主簽訂合同時(shí),人工智能可否要求其署名權(quán)或代理權(quán)?人工智能按照其算法邏輯與運(yùn)算能力做出的選擇是否具有法律承認(rèn)的效力?人型人工智能是否具有人格權(quán)?人工智能法律主體資格的缺位已經(jīng)在事實(shí)上造成了技術(shù)的發(fā)展缺少法律價(jià)值的導(dǎo)向。以前文述及的無(wú)人駕駛汽車為例,無(wú)人駕駛汽車由人工智能發(fā)出全部駕駛指令,在發(fā)生無(wú)人駕駛汽車致人傷亡的事故時(shí),由于不存在駕駛員,由乘客承擔(dān)侵權(quán)責(zé)任顯然有失公平,從侵權(quán)規(guī)制的角度出發(fā),必須明確無(wú)人駕駛汽車致?lián)p的責(zé)任承擔(dān)主體,若無(wú)人駕駛汽車自身可根據(jù)周圍環(huán)境做出判斷并進(jìn)行獨(dú)立的動(dòng)作,則其符合取得法律人格的基礎(chǔ)要件并無(wú)不妥。從更長(zhǎng)遠(yuǎn)的經(jīng)濟(jì)學(xué)角度分析,若無(wú)人駕駛汽車等人工智能技術(shù)的應(yīng)用與發(fā)展無(wú)人擔(dān)責(zé),則其必然陷入停滯或野蠻生長(zhǎng)的極端情況。[26]人工智能法律人格的確定將直接解決其侵權(quán)責(zé)任承擔(dān)、人格權(quán)財(cái)產(chǎn)權(quán)確定、智能技術(shù)發(fā)展等一系列關(guān)鍵性問(wèn)題。筆者認(rèn)為,根據(jù)前文所述法律主體地位賦予的功能性導(dǎo)向,人工智能具有獨(dú)立自主的行為能力,具有權(quán)利能力與行為能力,應(yīng)當(dāng)承認(rèn)其具有法律人格。
基于目前人工智能已可以自動(dòng)運(yùn)行合同、部分作出司法裁判的現(xiàn)實(shí)分析,人工智能具備作為法律主體的資格,但這是否證明人工智能能夠取得完全的法律人格?基于大數(shù)據(jù)技術(shù)與網(wǎng)絡(luò)技術(shù)的發(fā)展,網(wǎng)絡(luò)被遺忘權(quán)、數(shù)據(jù)財(cái)產(chǎn)權(quán)等部分涉及人工智能的虛擬性權(quán)利需要在事實(shí)上予以確權(quán),但這是否可以將人工智能擁有的權(quán)利能力與人類的權(quán)利能力畫(huà)等號(hào)?筆者認(rèn)為上述問(wèn)題的答案是否定的。即使人工智能具有深度學(xué)習(xí)與類神經(jīng)網(wǎng)絡(luò)的運(yùn)算機(jī)制,但并不能將人工智能完全等同于人類。人權(quán)是人類作為獨(dú)立個(gè)體對(duì)于自身基本利益的訴求,該訴求通過(guò)其他方式予以保障,不論個(gè)體屬于何種國(guó)籍、階層,具備何種行為能力,人人平等是人權(quán)最基本的內(nèi)涵,是享有所有權(quán)利的先決條件。[27]婚姻權(quán)、生育權(quán)、休息權(quán)等作為人權(quán)的基本內(nèi)容是人之為人的基礎(chǔ),若賦權(quán)人工智能以完整的法律人格,則會(huì)直接影響到現(xiàn)有的倫理道德體系,如人型機(jī)器人能否與人類共同生育子女就會(huì)直接挑戰(zhàn)人類現(xiàn)有認(rèn)知底線。從虛擬主體權(quán)利能力的角度分析,人工智能雖然促進(jìn)了數(shù)據(jù)空間的要素流動(dòng),但依然無(wú)法改變?nèi)斯ぶ悄茏鳛樘厥忸惞ぞ叩幕A(chǔ)屬性。
從人工智能是一種具有特殊性質(zhì)工具的角度出發(fā),[28]人工智能法律人格應(yīng)具有有限性,這種有限性表現(xiàn)在以下兩個(gè)方面:一是人工智能享有的權(quán)利與負(fù)有的義務(wù)存在有限性。人工智能的本質(zhì)是具有特殊性質(zhì)的智慧工具,其無(wú)法擁有生殖、婚育等人類的基礎(chǔ)性倫理權(quán),從人工智能賦權(quán)的功能性需要分析,人工智能可被賦權(quán)的范圍應(yīng)集中于虛擬空間、財(cái)產(chǎn)權(quán)等具有現(xiàn)實(shí)利益的經(jīng)濟(jì)類權(quán)利上。而人工智能的義務(wù)有限性更加明確,由于人工智能存在的目的是為了服務(wù)人類社會(huì)更好更快發(fā)展,因此其義務(wù)就是在可控范圍內(nèi)從事指定勞動(dòng),同時(shí)此義務(wù)需要加以不得傷害人類的絕對(duì)性限制,這也是阿西莫夫“機(jī)器人三原則”(2)1940年由科幻作家阿西莫夫所提出,包括:機(jī)器人不得傷害人類。機(jī)器人必須服從人類的命令,除非這條命令與第一條相矛盾。機(jī)器人必須保護(hù)自己,除非這種保護(hù)與以上兩條相矛盾。中對(duì)于機(jī)器人義務(wù)的限定。二是人工智能的行為能力存在有限性。無(wú)論人工智能技術(shù)向何處去,其背后一定存在人類意志,作為智慧型生產(chǎn)工具,雖然人工智能可以參與社會(huì)分工,但人工智能永遠(yuǎn)無(wú)法在各個(gè)方面均取代人類,基于此類特殊生產(chǎn)工具的屬性,人工智能的損害賠償責(zé)任最終需要由涉及人工智能產(chǎn)業(yè)鏈條上不同身份的人類主體承擔(dān),如明確無(wú)人駕駛汽車的侵權(quán)責(zé)任根據(jù)具體情況由其設(shè)計(jì)、開(kāi)發(fā)、制造、使用等環(huán)節(jié)的人類主體承擔(dān),避免某單一主體的風(fēng)險(xiǎn)成本過(guò)高。
毫無(wú)疑問(wèn),人工智能對(duì)于提高生產(chǎn)率,解決生產(chǎn)關(guān)系矛盾具有重要意義。研究結(jié)果顯示,無(wú)人駕駛汽車投入大規(guī)模應(yīng)用后,僅美國(guó)就可以獲得1.3萬(wàn)億美元的收入,其中燃料成本的節(jié)省、堵車成本的降低以及因交通事故減少而節(jié)省的醫(yī)療和保險(xiǎn)成本就接近萬(wàn)億美元。[29]從經(jīng)濟(jì)學(xué)中功效比的實(shí)際出發(fā),只有無(wú)人駕駛汽車技術(shù)減少的資金人力等成本將顯著減少政府支出,才可獲得政府更大的支持力度,并不斷吸引新的市場(chǎng)主體投資人工智能技術(shù)。考慮法律設(shè)置法律人格的目的性,為了可持續(xù)地鼓勵(lì)公私資本對(duì)于人工智能的發(fā)展,在承認(rèn)人工智能法律人格有限性后,應(yīng)當(dāng)從法律體系的整體建構(gòu)出發(fā),為人工智能設(shè)計(jì)合理的行為能力規(guī)制,特別是在未來(lái)的《人工智能發(fā)展法》等相關(guān)法律中確定合理的責(zé)任承擔(dān)機(jī)制。筆者認(rèn)為,人工智能的本質(zhì)屬性為智慧型的生產(chǎn)工具,即便人工智能具備自我思考能力也無(wú)法改變其本質(zhì),即使進(jìn)入到強(qiáng)人工智能階段,也無(wú)法改變?nèi)斯ぶ悄芊扇烁裼邢薜奶匦?。在部門(mén)法對(duì)待人工智能的法律地位上,與公司等法人的法律地位并無(wú)實(shí)際差別。[30]有關(guān)公司的民商法與刑罰理論中,最重要的歸責(zé)路徑是“實(shí)際控制人說(shuō)”,通過(guò)“刺破公司面紗”的原則確定責(zé)任主體。而在人工智能領(lǐng)域,同樣應(yīng)適用“刺破人工智能面紗”的歸責(zé)機(jī)制,以使得人工智能的行為最終由鏈條終端的人類主體承擔(dān)。近期對(duì)于人工智能發(fā)展應(yīng)用的法學(xué)研究基本均呼吁為人工智能產(chǎn)品投保強(qiáng)制責(zé)任保險(xiǎn),以實(shí)現(xiàn)責(zé)任分擔(dān)、促進(jìn)行業(yè)發(fā)展的目的。[31]確定強(qiáng)制責(zé)任保險(xiǎn)的賠付責(zé)任同樣屬于“刺破人工智能面紗”機(jī)理范疇,在人工智能產(chǎn)品致?lián)p并由強(qiáng)制保險(xiǎn)人賠付后,通過(guò)因果關(guān)系鏈條確定產(chǎn)生問(wèn)題的具體環(huán)節(jié),最終由擔(dān)責(zé)主體承擔(dān)責(zé)任,既實(shí)現(xiàn)了人工智能法律風(fēng)險(xiǎn)與經(jīng)濟(jì)風(fēng)險(xiǎn)的轉(zhuǎn)移,又在客觀上保護(hù)了人工智能產(chǎn)業(yè)的發(fā)展。而實(shí)踐同樣采用了這一模式,德國(guó)《道路交通法》規(guī)定機(jī)動(dòng)車持有人的道路交通事故嚴(yán)格責(zé)任獨(dú)立于車輛的自動(dòng)系統(tǒng),駕駛員在車輛行駛過(guò)程中必須履行全程保持警惕、手不脫離方向盤(pán)等強(qiáng)制義務(wù),否則需要承擔(dān)人工智能造成的損害。2013 年,美國(guó)道路交通安全管理局發(fā)布了《無(wú)人駕駛汽車的基本政策》,對(duì)無(wú)人駕駛汽車測(cè)試事故的責(zé)任承擔(dān)進(jìn)行了規(guī)定,車輛在被第三方改造為自動(dòng)駕駛車輛后,測(cè)試過(guò)程中導(dǎo)致財(cái)產(chǎn)損失、人員傷亡的,車輛的原始制造商不對(duì)無(wú)人駕駛車輛的缺陷負(fù)責(zé),除非有證據(jù)證明車輛在被改造為自動(dòng)駕駛車輛前已存在缺陷,同樣對(duì)無(wú)人駕駛汽車的歸責(zé)適用了“刺破人工智能面紗”原則,以確保改裝人承擔(dān)相應(yīng)明確責(zé)任。
人工智能是新時(shí)代產(chǎn)業(yè)革命的新興關(guān)鍵性技術(shù),其深度學(xué)習(xí)與類人思考的能力,決定了其智慧性生產(chǎn)工具的特殊性質(zhì),而其規(guī)?;膹V泛應(yīng)用,已經(jīng)引致了一些涉及法律未來(lái)發(fā)展的關(guān)鍵性問(wèn)題,法律必須對(duì)人工智能的特殊法律地位作出正向回應(yīng)。若全面否定人工智能法律人格的存在,則其與人工智能的特殊性質(zhì)存在不符,更無(wú)法解決人工智能發(fā)展帶來(lái)的代理能力確定、侵權(quán)責(zé)任承擔(dān)、知識(shí)產(chǎn)權(quán)歸屬等一系列的深層次問(wèn)題,最終阻礙人工智能技術(shù)作為國(guó)家戰(zhàn)略的發(fā)展。但若貿(mào)然承認(rèn)人工智能的完整法律人格,既與現(xiàn)階段人工智能所處的發(fā)展階段不符,又直接與人類社會(huì)的倫理底線相悖。因此,必須從實(shí)用的角度,考慮人工智能擬制法律人格的特殊性。法律人格源于法律的確認(rèn),考察法律人格的賦予進(jìn)路與法人等擬制主體的創(chuàng)設(shè),法律人格的設(shè)定歷來(lái)均以解決實(shí)際目的的功能性為重,擬制法律主體資格是為了解決生產(chǎn)力與生產(chǎn)關(guān)系的矛盾現(xiàn)實(shí)而不斷衍變的。從人工智能面臨的發(fā)展問(wèn)題分析,應(yīng)當(dāng)賦予人工智能以法律人格,但囿于人工智能的特殊智慧型工具的本質(zhì)屬性,其權(quán)利義務(wù)能力特別是行為能力有限,只能具有有限的法律人格,通過(guò)“穿透人工智能面紗”的原則,明確涉人工智能鏈條上的最終責(zé)任主體。通過(guò)法律規(guī)制的系統(tǒng)性調(diào)整,確保人工智能可控、高效發(fā)展。