隨著ChatGPT的廣泛應(yīng)用,如何對人工智能進行制度設(shè)計的議題成為當(dāng)下熱點。筆者認(rèn)為,首要任務(wù)便是明確人工智能在法律框架中的定位。當(dāng)前,學(xué)術(shù)界對此議題的討論大致分為肯定論、中間論及否定論。其中,持肯定論者頗多,且出發(fā)點各異;持中間論者則觀點集中于有限人格說,該理論實質(zhì)上暗藏對人工智能法律主體地位的否定之義;持否定論者雖結(jié)論趨同,但僅有權(quán)利義務(wù)說直指要害,揭示了人工智能法律人格缺失之癥結(jié)。因此,本文將圍繞三個維度——對肯定論的批評、對中間論中有限人格說與否定論中自然人說和理性說的辨析,以及對否定論中權(quán)利義務(wù)說的認(rèn)可與思考展開對現(xiàn)有理論的思辨,對人工智能法律主體資格予以否定證成。鑒于弱人工智能與一般的計算機技術(shù)不存在本質(zhì)區(qū)別,而超人工智能的誕生將有可能對現(xiàn)有的制度與社會秩序產(chǎn)生重大影響,故文章僅圍繞當(dāng)前技術(shù)發(fā)展階段及制度體系下的強人工智能法律地位問題展開辨析。
一、關(guān)于肯定論中相關(guān)觀點的批評
(一)法律主體范圍的確定取決于人類需要
部分學(xué)者基于法律主體范圍不斷擴大的歷史趨勢,提出法律主體資格是法律以服務(wù)人類生活為目的而創(chuàng)設(shè)的概念。他們認(rèn)為以人工智能不具備權(quán)利能力為由否定其主體地位是“因果倒置的認(rèn)知方式”。該觀點僅停留在法律主體內(nèi)涵擴展的“形式”層面,未能觸及其實質(zhì)核心問題?;诜蓪傩陨系谋举|(zhì)差異,現(xiàn)階段的人工智能不應(yīng)被涵蓋于法律主體范圍。
從奴隸制時期的奴隸不具備法律主體資格,到現(xiàn)代法律制度賦予法人與自然人同等的法律地位,可見法律主體范圍的不斷發(fā)展的深層動因在于經(jīng)濟的發(fā)展、思想的解放以及社會關(guān)系的日益復(fù)雜。人類對于法律主體的核心要素——權(quán)利能力的理解在不斷深化。而在涉及人工智能的法律現(xiàn)象中,設(shè)計者和制作者是主體,相關(guān)智力成果是客體,人工智能則是承載客體的對象。無論智能化程度如何,人工智能的本質(zhì)始終是科技應(yīng)用和算法運算的現(xiàn)代化成果,其可能展現(xiàn)的類人化表象,所反映的依然是人類科技水平與智識能力的不斷進步,而并非其法律屬性的實質(zhì)性轉(zhuǎn)變。
(二)關(guān)于意志能力及責(zé)任能力的觀點
有學(xué)者通過類比不具備意志能力的無民事行為能力人,以及需由意思機關(guān)作出意思表示的法人,提出法律主體資格應(yīng)以責(zé)任能力和意思能力為要件,而非意志能力,并由此認(rèn)定人工智能應(yīng)為法律主體。而針對責(zé)任能力問題,部分觀點認(rèn)為,當(dāng)人工智能自主意識支配的行為造成嚴(yán)重社會危害時,應(yīng)認(rèn)定其具備刑事責(zé)任能力;部分觀點則認(rèn)為人工智能欠缺主動犯罪能力,但民事責(zé)任不以主觀過錯為前提,故可賦予其民法主體地位,并配置獨立財產(chǎn)。
上述觀點過分割裂了意思能力與意志能力,于法律主體而言,兩者缺一不可。同時,法律主體還需擁有承擔(dān)義務(wù)與行為后果的責(zé)任能力,而人工智能本質(zhì)上并不具備這類能力。一方面,自然人之間的意志能力雖因個體差異而有所不同,但在法律概念上仍屬于統(tǒng)一的類別,具備辨認(rèn)、反思與調(diào)整行為的意志能力,而不僅是意思能力。而法人依賴于其意思機關(guān),能完成所有意思表示和行為的作出,故其同時擁有意思能力和意志能力。相較之下,人工智能的“判斷”與“選擇”完全依賴于算法的預(yù)設(shè)與運行,缺乏自主思維能力,因而不可能真正具備意志能力。
另一方面,責(zé)任能力要求主體能理解其行為后果,而人工智能對其行為的社會危害或民事后果缺乏主觀認(rèn)知。故,其既不具備刑事領(lǐng)域的主觀犯意與再犯可能性,也無法通過承擔(dān)民事責(zé)任實現(xiàn)對被侵害權(quán)益的保護,其行為后果理應(yīng)由其背后的開發(fā)、使用等主體承擔(dān)。同時,人工智能的財產(chǎn)耗費與財富創(chuàng)造最終也歸于具體的個人所有,故相應(yīng)財產(chǎn)責(zé)任應(yīng)由個人承擔(dān)。
(三)人工智能與法人的概念對比
盡管論證思路各有偏重,但肯定論的多數(shù)觀點都類比法人來主張人工智能的擬制人格說。有學(xué)者以ChatGPT為例,認(rèn)為人工智能在研發(fā)者的“訓(xùn)練”與“喂養(yǎng)”下已呈現(xiàn)“近人性”特征。這與法人基于多方參與人的共同作用完成行為異曲同工,他們由此主張賦予人工智能主體地位并無法理障礙。然而,這類觀點未能充分認(rèn)識到自然人在法人制度與人工智能領(lǐng)域截然不同的角色定位。法人的權(quán)利義務(wù)的真正執(zhí)行者為相關(guān)自然人,故自然人在為一定行為負(fù)責(zé)時會產(chǎn)生評價其行為責(zé)任歸屬于該自然人或其所在法人的現(xiàn)實需要。由此,法學(xué)創(chuàng)設(shè)了法人概念與制度,賦予法人獨立的權(quán)利能力和行為能力。人工智能則是人類創(chuàng)造的工具性事物,其行為實際上屬于發(fā)明者研發(fā)成果的外在表現(xiàn)。故,相關(guān)自然人理應(yīng)對該等行為負(fù)責(zé),通過制度安排區(qū)分行為后果的責(zé)任承擔(dān)者缺乏客觀必要。
二、有限人格說、自然人說與理性說
(一)中間論即有限人格說及其辨析
中間論的觀點主要聚焦于有限人格說,主張人工智能應(yīng)被賦予“準(zhǔn)人格”,享有部分權(quán)利與義務(wù),可以成為特定范圍內(nèi)的權(quán)利主體,與其所有者共同承擔(dān)法律責(zé)任。然而,一方面,該觀點誤判了人工智能所謂“行為”的本質(zhì);另一方面,其沒有認(rèn)識到能力或資格是“質(zhì)”的問題而非“量”的問題,但基于其不對人工智能作出具備擬制人格的定性,可見其實質(zhì)上并不認(rèn)可人工智能具備法律主體資格。
中間論關(guān)于人工智能享有部分權(quán)利能力的觀點,實際上是對其智能水平的一種反映。即使人工智能能在一定程度上作出意思表達和行為表示,但這些僅構(gòu)成獨立人格核心要素的一小部分,不足以使人工智能在法律地位上發(fā)生質(zhì)的變化。相反,法人雖權(quán)利義務(wù)有限,但已具備獨立行為能力和責(zé)任能力,故而才能被賦予法律人格。此外,從司法實踐的角度出發(fā),若賦予人工智能有限范圍內(nèi)的權(quán)利、義務(wù)及責(zé)任,反而會增加現(xiàn)實糾紛處理的不確定性和爭議。
(二)否定論中的自然人說及其辨析
否定論雖然在“人工智能不屬于法律主體”的結(jié)論上達成共識,但部分說法顯然并未觸及爭議焦點的本質(zhì)。自然人說認(rèn)為,法律體系以自然人利益為中心,故法律人格只屬于自然人或與之相似的物種。該觀點看到了自然人與法律主體的共通性,但忽視了自然人并不天然為法律主體,而是因其具備獨立的自由意志,能辨認(rèn)、控制自己的行為,賦予其法律主體地位在客觀上才有意義。筆者認(rèn)為,在判斷人工智能應(yīng)否為法律主體的問題上,以是否與人類相似這種表層、外觀的特征為依據(jù)在一定程度上有失偏頗。
(三)否定論中的理性說及其辨析
德國古典哲學(xué)家康德強調(diào),理性存在者因其內(nèi)在價值,即尊嚴(yán)而被賦予人格,因而具有可歸責(zé)性。理性說以康德的理論為基礎(chǔ),提出人工智能僅有技術(shù)理性,而不具備獨立意識與行動自由,無法成為理性主體。上述其他觀點關(guān)注到法律主體的內(nèi)在特性,并將其總結(jié)為具備理性和尊嚴(yán),但該觀點對人格問題的探討更多是從哲學(xué)角度出發(fā),欠缺從法理層面對法律人格的分析。相對于抽象的理性,賦予法律主體以法律人格,更多的是基于對其權(quán)利義務(wù)配置的考量。同時,理性說過度聚焦哲學(xué)理性,無法為法律責(zé)任的認(rèn)定與歸屬等問題提供指引與論據(jù),在處理人工智能法律問題的實踐中顯得捉襟見肘。
三、基于權(quán)利義務(wù)說的否定證成
(一)否定論中的權(quán)利義務(wù)說
該觀點認(rèn)為,法律通過權(quán)利、義務(wù)來調(diào)控行為,而只有具備意志能力的個體才能享有權(quán)利和履行義務(wù),這是擁有法律主體資格的前提。這清晰地揭示了法律人格的核心要素,并指出人工智能不能成為法律主體的根本原因,其所實施的行為并非權(quán)利與義務(wù)的表現(xiàn)形式。
(二)人工智能法律主體地位的否定證成
盡管人工智能能夠進行深度學(xué)習(xí),展現(xiàn)出為達成特定目標(biāo)而自行設(shè)計行動路徑的自我意識,以及在出現(xiàn)錯誤時調(diào)整路徑的能力,但其行為并非基于對規(guī)范的認(rèn)知,而是基于算法對規(guī)律的遵守。這是內(nèi)部算法所傳達的“做”與“不做”的信號的外在表現(xiàn),反映的是編程中0和1的差別。即使人工智能在技術(shù)上不斷進步,可能呈現(xiàn)出類似人類的外觀,但其所謂的自主行動實際上是基于數(shù)據(jù)分析得出的客觀結(jié)論,人工智能對此并不提供主觀的情感或思考,這樣的意思表達構(gòu)不成獨立意志。
此外,人工智能缺乏承擔(dān)行為后果的責(zé)任能力,它既無“應(yīng)當(dāng)”與“不應(yīng)當(dāng)”的意識,也無對“不能為”行為的悔悟能力。雖然它能通過修正算法避免重復(fù)錯誤,但這種調(diào)整并非出自主觀反思,而是設(shè)計者對研發(fā)失誤的回應(yīng)。法律設(shè)置責(zé)任制度旨在通過懲罰和教育預(yù)防違法犯罪,這些功能對無自主意識的人工智能無法實現(xiàn)。沒有責(zé)任,就沒有義務(wù),法律中不可能也不應(yīng)存在只享受權(quán)利而不承擔(dān)義務(wù)的主體。如果讓人工智能在責(zé)任承擔(dān)上獨立于自然人,將可能導(dǎo)致責(zé)任逃避的后果。
(三)從司法實踐看權(quán)利義務(wù)說
從實踐層面分析,現(xiàn)有法律能夠滿足評價人工智能相關(guān)法律事實的需要,作為科技運用的產(chǎn)物,人工智能因技術(shù)缺陷作出在法律或道德上應(yīng)受懲罰的行為,相應(yīng)責(zé)任應(yīng)由設(shè)計和制造者承擔(dān)。在我國首例AI聲音人格權(quán)侵權(quán)案中,被告通過AI技術(shù)處理原告的配音作品,向用戶提供文本轉(zhuǎn)語音服務(wù)。法院最終認(rèn)定被告侵害了原告的聲音權(quán)益。顯然,該案不需要也不應(yīng)當(dāng)通過懲罰該語音生成平臺以實現(xiàn)定分止?fàn)?。在全球首例AI致死案中,Character.AI的未成年用戶模型的技術(shù)缺陷造成了悲劇,但該聊天機器人既無主觀惡意,也無因未盡注意義務(wù)而產(chǎn)生的過失。因此,該致人死亡的刑事責(zé)任應(yīng)由聊天機器人的研發(fā)公司承擔(dān)。
由此可見,在既有法律體系的框架下,認(rèn)定人工智能引發(fā)的侵權(quán)事件實為相關(guān)自然人或組織以人工智能為工具實施侵權(quán)行為,是合乎法理的正當(dāng)評價。相反,將人工智能定性為法律主體并增設(shè)其財產(chǎn)及責(zé)任制度,既無法為維護司法秩序提供便利,還將造成不必要的制度繁冗。
結(jié) 語
2024年3月,《中華人民共和國人工智能法(學(xué)者建議稿)》發(fā)布。其規(guī)定了在人工智能造成損害時,開發(fā)者和提供者需承擔(dān)相應(yīng)責(zé)任,而有過錯的使用者亦需承擔(dān)相應(yīng)責(zé)任。由此看來,在當(dāng)前及未來可預(yù)見的時期內(nèi),對于強人工智能的發(fā)展,以權(quán)利義務(wù)說為邏輯基礎(chǔ)的法律主體否定論仍是解決人工智能問題責(zé)任主體的主導(dǎo)思路。在排除其主體地位后,立法和司法實踐還要更多地關(guān)注人工智能應(yīng)用各類存在及衍生的問題,諸如人工智能的客體類別、責(zé)任劃分等課題,不斷完善以人為本的法律制度的理性構(gòu)建,進而為智能科技革命提供與時俱進的強有力的法治力量保障。
(作者單位:廣西大學(xué)法學(xué)院)