天津大學 徐巖
關鍵字:人工智能;法律主體;法律客體
法律最為核心的功能是維護社會規(guī)范性期望的穩(wěn)定,但人工智能潮流來臨,對現有的法律制度提出了新挑戰(zhàn),最為核心的問題在于人工智能是否具備法律主體資格。主體資格也稱為人格,是法律賦予其成為法律上的“人”,進而在法律關系中享有權利、承擔義務資格,即作為法律主體應具備的法律資格。學界對于人工智能是否具備法律主體資格觀點不一,當前探討該問題的代表觀點包括主體說、客體說和折中說。
“人工智能”這一概念于1955年由約翰·麥卡錫首次提出,將人工智能定義為“制造智能機器的科學和工程”。隨著科技發(fā)展,人工智能定義愈發(fā)多樣,但可以明確人工智能與智力技能水平直接相關,具有能夠獨立于開發(fā)人員或用戶的理解、學習和自主決策的能力。因此本文認為,所謂人工智能是與自然智能相對的機器智能,能夠感知所處環(huán)境,根據環(huán)境變化自主作出反應。
人工智能以算法程序為基礎,以類似于人類的智能水平運行?;诖?,人工智能主要具有但不限于以下特征:一是借助搜索解決問題。當人工智能解決問題時,程序設計并未提供具體的方法,而只是給出讓人工智能能夠識別解決方案的描述。二是能夠獨自進行機器學習。人工智能通過數據進行事實學習,并用學到的知識去適應新情況。比如新一代的阿爾法狗,不需要學習歷史棋譜,更不需要參考人類現有知識,只借助自身就可完成強化學習和參悟。三是能夠“理解”自然語言。通過對人類語言的理解、加工和啟發(fā)來進行人機交互,進而實現人工智能與人類的實時對話。四是擁有強大的人工神經網絡。人工神經網絡是一個復雜的自適應系統,可以根據外界環(huán)境變化、信息流動等作出相應的反應和調整。
持法律主體說觀點的學者認為,隨著人工智能在各領域的應用,為了迎接人工智能社會化應用的趨勢,應當肯定人工智能的法律主體資格。在民事領域方面,非自然人早已突破了自然人的范圍局限,“非人可人”趨勢日益明顯,也為人工智能取得法律主體資格提供了理論基礎。
應當指出,在法律主體資格的問題上,只存在“是”或者“不是”兩種回答,并不存在模糊的中間地帶。對于某個實體而言,即使其只享有部分權利義務,或者是享有的主體地位不充分,這一邏輯的前提,都在本質上承認了其本身的法律主體資格,而對于存在的部分瑕疵,則只是程度問題,并不影響對本質的判斷。因此,基于上述思考,本文認為將這種觀點放于主體說的討論中較為恰當。
1.有限人格說
有限人格說認為,人工智能目前雖然應用于諸多領域,但其水平和人類智慧相比遠遠不在一個層級。但在實際應用中,人工智能已具備部分法律主體的必備要素,因此人工智能只能在有限的范圍內享有權利、履行義務,是有限的法律主體。郭萬明在其文章中指出,隨著智能程度的提高,人工智能獨立性增強,具有獲得法律人格的可能性和法理基礎。第一,“非人可人”的功利主義表明,法律承認主體地位是基于經濟生活的客觀要求;第二,承認人工智能的人格,能避免具體人格缺乏帶來的現實問題;第三,人工智能有獨立享有權利、承擔義務的必要,其法律人各有獨立的存在價值。因此,不應局限于自然人和法人這兩種法律人格,而應該以更為多元的主體設計,賦予不同程度的權利、責任。袁曾指出,不同于以往的傳統工具,人工智能具有高度智慧性和獨立的行為決策能力,性質上可以定性為能獨立表示意思的特殊主體。隨著人工智能侵權事件頻發(fā),人工智能有必要設計成具有可責性和可驗證性的實體,不能夠因人工智能非人類,就可以逃脫法律制裁。但是,即使人工智能發(fā)展到了具備自主意志的程度,其內部構造、生產方式等方面與人類仍有本質差別,本質上是人類創(chuàng)造的工具,因此只能賦予其有限人格。
2.擬制人格說
持有擬制人格說觀點的學者認為,人工智能具備人類思維能力,因而超越了一般的“物”的概念,但又不同于生物學意義上的人,本質上不能擺脫為人類服務的工具角色,因此對人工智能來說,其既不是工具也不是人,就可以像法人一樣,為其在法律上擬制一個新的主體,賦予其類似于自然人的法律地位。
張紹欣從法律主體概念回歸到法律位格概念,論述了古典羅馬法中從上到下的“位格減等”制度。羅馬公民享有三類身份權:自由權、市民權、家族權,其中的一種或者兩種喪失便成為法律位格上不完整的人,在法理上以“位格減等”的方式把人轉化為喪失三類身份權的自動化工具。接著以“位格減等”的反向邏輯“位格加等”為視角,解讀現代法人制度如何實現法律主體意義上的“位格加等”:擬制人設組織的法律人格,賦予其一定法律位格的主體地位,進而明確其法律責任,享有既區(qū)別于自然人又有別于法人組織的法律位格。當然,人工智能作為人造物,實定法律地位也必然低于人類。
基于法釋義學的討論,陳吉棟分析了如何運用“擬制”這門法律技術,將實為權利客體的人工智能認定為民事主體,在“擬制”技術的運用下,具體問題也不應一概而論,比如,對于知識產權歸屬的實際問題就應交由現行法規(guī)進行分析,只要人工智能創(chuàng)作的作品符合知識產權法的作品要求,便無需進行智能測試,即可將其視為法律主體。
3.電子人格說
韓國制定了《機器人基本法案》,規(guī)定政府制定機器人倫理,政策賦予人工智能電子人格地位,從而享有相應的權利義務,進而確認人工智能致害的責任承擔方案,人工智能設計方、制造商以及用戶都應遵守這一政策,從而提升對于人工智能的倫理關懷。
郭少飛在其文章中認為,人工智能法律主體一方面擁有人類的智能特征,另一方面本質上是電子化技術構建的機器設備,因而可命名為“電子人”,其主體性通過權利能力來體現,而智能程度、理性程度影響權利能力的范圍。“電子人”人格本質上是“人工類人格”,體現的是其輔助人類的工具價值,因并不具備自然血親關系,亦不會產生社會結構,因此目前可享有物質性人格權和較為完全的財產權,而沒有必要具備精神性人格權和身份權。類似于法人的設立與終止,“電子人”獲得法律主體資格也需要經過嚴格規(guī)范的程序。作者在文章中給出的思路是,“電子人”以登記設立為主,由制造商等監(jiān)管者提出設立申請,經過登記機關審核登記方可成立。
主體說的論證思路是由未知探需知、從結果推原因。學者對是否賦予人工智能法律主體資格進行了價值判斷,認為應將人工智能納入到法律體系中,進而在價值判斷的前提下進行了選擇,強調賦予人工智能法律主體地位的必要性,并探索人工智能成為法律主體的可能性。這也可以看出,主體說很大程度上是價值判斷的選擇結果,而忽略了從價值判斷到得出結論這中間的論證過程和解釋方法,因此論證并不完善。人工智能的活動本質是自身算法決定行為,并不具備人類所特有的自主思考能力,所以如何認定其獨立人格?在一定時期,現有法律體系可以解決人工智能的致害糾紛,那是否有必要將人工智能納入民事主體法律體系?這些都是主體說需要完善的問題。
持有客體說觀點的學者認為,人工智能在本質上是人類的輔助工具,不具有法律的人格屬性,因而不能賦予其法律主體資格。人工智能不具備人類肉體的生理構造,因而無法獨立承擔責任,無法獨立擁有財產,亦不能像法人一樣被“擬制”為法律主體。同時考慮到“人類中心主義”和“智能機器人工具論”,應在法律上將人工智能定位為客體。
1.絕對客體說
劉練軍在其文章中指出,法律主體是人且只能是人。即使是法人,其本質也是一種有意識的人組成的集合體,而非隨機生成的松散產物,作為一種目的性存在物,其權利義務具有獨立性,享有權利承擔義務的社團本身而非全體成員,此乃法人取得法律人格的基本條件。而人工智能缺乏基本的認知能力,作為其“大腦”的算法本質上是一套符號運算程序,其所有動作不是源于心理認知意志,而是來自大數據和算法的機械指令,因而不屬于法律意義上的行為。時方通過檢驗刑罰目的實現與否,反面論證得出了人工智能沒有必要認定為刑事主體的結論。從刑法懲治與安撫的功能來看,人工智能本身既無生命也無財產,亦無對行動自由、積累財富的客觀需求,同時也無法產生類似于人類的肉體痛苦感和心理負罪感,故無法通過刑罰懲罰手段達到對被害人安撫的目的。從刑罰矯正功能來看,犯罪是行為人主客觀要件相統一的結果,而人工智能的行為是程序運行的結果,其主觀惡性難以認定,自然無法作出社會危險性和再犯可能性的判斷,教育改造的目標也難以談起。
2.特殊物說
劉洪華認為,人類之外者,本質皆是人類之工具。人工智能不具備人之理性,不能取得類似于自然人的人格,賦予其主體地位也無實際益處,故不能取得類似于法人的獨立地位。鑒于人工智能的自主性和智能性,人工智能應被定義為法律上的特殊物而處于法律客體地位,同時根據智能程度對人工智能進行分類規(guī)制。
與主體說相反,持有客體說觀點的學者更注重解釋作出價值判斷的過程,即從已知條件推導結果。人工智能在根本上不符合法律主體的成立條件,因而不應納入現有法律主體體系,亦沒有納入法律主體體系的必要。但是在客觀說結論的推導過程中,存在的邏輯疏漏是自然人、法人、非法人組織是我國現行民事法律制度下的三類主體,而這三種民事主體何以成為民事主體?三種之外的主體何以不能成為民事主體?在民法規(guī)定中,并未對自然人、法人、非法人組織的民事主體參與資格作出解釋,導致“民事主體成立根據”存在空白,也直接關乎到人工智能法律主體資格的最終答案。
雖然人工智能的法律主體資格尚存爭議,但我們應在研究分析其法律主體資格的基礎之上,為人工智能選擇進行合理有序的制度設計,形成以人工智能技術發(fā)展與保障為主題的社會治理體系,筆者提出以下構想:
根據人工智能發(fā)展的階段性特征,推進其權利、義務、責任的法制化。一方面,根據人工智能研發(fā)應用的現實需要,創(chuàng)制人工智能的基礎性法律,以彌補現有法律體系的缺失。另一方面,對于已在專門領域如自動駕駛等領域成熟應用的機器人,制定專門的管理規(guī)定,以明確法律責任。同時,也應制定一套完整的人工智能行業(yè)規(guī)范,作為內部約束的行為準則,為人工智能的研發(fā)與應用確定框架性制度,實現人工智能法律標準一體化。
就現有監(jiān)管體系而言,我國是領域性的分類監(jiān)管模式,監(jiān)管力量分散于專門行業(yè)。人工智能監(jiān)管對專業(yè)知識的要求程度較高,因此可設立獨立的人工智能監(jiān)管機構,統一對人工智能研發(fā)、應用等方面進行監(jiān)管,從而避免職能推諉,提升監(jiān)管效率。綜合考慮人工智能的智能水平、社會風險和論題難題等因素,對生產型機器人、服務型機器人等進行分級分類監(jiān)管,從而實現分級監(jiān)管、重點治理。