●韋 然
自從AlphaGo 大戰(zhàn)李世石取得人工智能界的勝利后,人工智能的優(yōu)越性開始得到廣泛討論。然而任何事物都有兩面性,當產生不利的法律后果時,人工智能是否能成為法律主體,是否能對該后果負責,也同時需要法律人來回答。在實踐中有很多爭議點,目前出現(xiàn)的問題例如人工智能創(chuàng)作品的歸屬、自動駕駛汽車肇事的責任追究,這些使得人工智能與法律的探討增多。人工智能是否有法律主體地位?這個問題掀起了一股學術熱潮,引起學術界廣泛關注。國家《新一代人工智能發(fā)展規(guī)劃》提出,加強法律制度建設是人工智能技術發(fā)展的同時必須推進的事情,人工智能法律地位的不明確亟需法律盡快作出回應。與此同時,法律制度的制定與完善必然基于一定的價值追求,法律制度具有制定與修改上的滯后性,對于新生事物無法及時地進行完善與規(guī)范,這就需要對平等、正義、安全、秩序等重要價值進行進一步的考量。
從人工智能進入人們視野的那天開始,世界范圍內的不少國家就對人工智能是否具有法律主體地位做出了回應。就機器人民事法律規(guī)則的問題,歐盟在《向歐委會提出建議的報告》中,建議以“電子人”身份進行規(guī)定,“讓這些為人類服務的機器人今后也享有薪酬、版權保護以及社會保險等部分權利,并且為其設定部分義務。”這種方式使得機器人可以利用其電子人格進行自主決策或獨立互動,但享有權利的同時,也要為自己的致害行為負責。俄羅斯《格里申法案》認為機器人是“代理人”,可以以自己的名義行使權利承擔義務,擁有獨立財產,為債務承擔責任。在全球引起轟動的機器人索菲亞,在沙特被賦予女性公民的身份,引起國內外眾多專家學者的熱烈討論。
對于法理學來說,法律主體的界定標準究竟是什么?
從法理的角度而言,法律主體要具備兩個條件,分別是規(guī)范條件和事實條件。規(guī)范條件即享有權利履行義務的資格,事實條件即享有權利履行義務的意志能力。其中,事實條件是規(guī)范條件的前提,是一種必要而不充分的前提。
關于第一個條件,法律賦予法律主體以權利和義務,通過法律正當程序授予他們占有、使用、收益、處分財產的資格,若此種資格被侵犯則可以通過起訴的方式維護,同時在其自身因某些原因而違反義務時可以被起訴。法律是通過規(guī)定公民的權利、義務來調整人們的具體行為的,所以由此一來,可以知道法律主體是權利義務的承擔者,因此法律人格就是法律資格,法律主體就是擁有這些資格的實體。資格是法秩序本身所賦予的。那么可以認為,自然人“擁有”權利和義務只是一種擬人化的說法,當我們說,法秩序賦予生物人以人格時,大家所關心的是行為,而不是“人”這個名詞所代表的本身,“人”只是在數(shù)學學習中我們提取出的“公因數(shù)”,所有擁有權利和義務的主體的集合,統(tǒng)一叫做“人”,“人”就是統(tǒng)一的擬人化代表詞而已。我國《民法總則》第4條規(guī)定民事主體均享有完全民事權利能力,意味著要么完全擁有,要么徹底喪失,并無類似受限制的民事權利能力這種中間狀態(tài)。但在“荷花女”案的復函中,法院第一次提出死者人格權利應當受到法律的保護,另外我國規(guī)定胎兒在涉及遺產繼承、接受贈與方面視為具有民事權利能力。這些是否可以認為該種限制民事權利能力的理論切實可行?在學術界,楊立新教授提出的“準人格”概念十分有意義。準人格,即限制民事權利能力或部分民事權利能力,雖然法律尚未對其作出規(guī)定,同時準人格不具備作出完整意思表示的能力,但是具備部分的人格要素,具有開放性的特征。雖然我國并未明確提出該概念,卻在相關裁判和司法解釋中多多少少透露了此觀點。是否可以類比此觀點,在不遠的未來對人工智能采取“準人格”的方式進行規(guī)定呢?
對于第二個條件,要求需要具有意志能力。根據(jù)智力水平的標準可以區(qū)分強、弱人工智能。就目前的智能機器人來看,弱人工智能只是自行歸納和提煉規(guī)則,只是基于算法程序的規(guī)律性表達,對權利、義務這樣的概念只是編程中0 與1 的差別,尚無法提高到法律上的規(guī)范性規(guī)則的層面。例如,在審判輔助人工智能系統(tǒng)中,各類案件種類繁多,機器人將每個案件中存在的不同的事實特征進行一定的總結歸納,利用算法聯(lián)結起相應的法律后果,甚至將不同參數(shù)的事實聯(lián)結起來。但這樣一來,我們會發(fā)現(xiàn)個案的特征被忽略了,更忽略了“同案同判”本身的意義。有學者認為“確立對量刑實踐的積極效能,也必須清醒認識其無法取代法官的客觀現(xiàn)實。”
目前理論界對人工智能法律地位存在主體說和客體說的區(qū)別。
主體說認為應當賦予人工智能體以法律人格,持這種觀點的學者認為,也同樣可以給予人工智能一定的權利義務,為其行為承擔責任??腕w說認為,人工智能是法律上的特殊物而處于法律客體地位。在人類利用人工智能的同時,可以規(guī)制其存在的風險。但筆者認為,承認弱人工智能主體地位的必要性需要進一步進行討論。
其一是人工智能作品的歸屬。國外普遍持反對意見,美國版權局明確規(guī)定“受著作權法保護的作品必須來源于人的創(chuàng)作。”這種定位使得作品的產出源頭只能是人,而非人工智能。英國確認該內容為作品,但認為“權利歸屬于使計算機獲得獨立生成內容之能力的主體?!蹦戏呛托挛魈m后來也針對此問題采取了同樣的態(tài)度。國內學者王遷認為:“是算法、規(guī)則和模板的結果,不能體現(xiàn)創(chuàng)作者獨特的個性?!毙茜J為應借鑒法人作品“將人工智能的所有者視為著作權人。”筆者認為,從根本上來說即便承認人工智能為作者,也無法享受作者應有的實際權利。同時由于人工智能是機器人,而機器人不需要獲得排他權的激勵創(chuàng)造更多的新鮮作品,那么可以在一定程度上來說,版權制度所涉及的經濟激勵意義也就無從體現(xiàn)。因此給予人工智能的主體地位,對于解決人工智能作品的歸屬沒有實際益處。
其二,主要是關于損害賠償責任的承擔。歐盟和俄羅斯賦予強人工智能以法律主體地位,但未提出如何承擔責任,而讓相關人類承擔最終責任。如果執(zhí)行財產性賠償,人工智能由于沒有獨立的財產而無意義。如果是非財產性賠償,不存在人類情感的前提下,賠禮道歉等也無法真正地實際履行。最終,不同于賦予團體法人資格的是,以何種方式承擔責任的最終承擔者都將會是自然人,給予人工智能以主體地位毫無價值。所以從這種方面來看,賦予其法律主體地位對損害賠償責任的承擔并無多大意義。
綜上所述,筆者認為對于人工智能不能一概而論,應該區(qū)分弱人工智能(工具)和強人工智能(類人)兩種屬性,對于低端的弱人工智能如掃地機器人等,可以適用普通物(產品)的法律規(guī)范;按照生活習慣,強人工智能可以從事較高端的工作,例如秘書、家庭服務,這類人工智能長相與人類似,通常比照人類外形的模具做出。不僅是外形,而且比其他類別的人工智能具備更高級的智力水平和情感模擬程序,長期相處下來與人類產生更親密的聯(lián)系,人類可能會對這些“服務者”產生感情。因此,在法律保護、致害責任以及損害賠償責任方面應該與弱人工智能區(qū)別對待,這樣也符合人類倫理道德觀。
除了有關法律主體的法理基礎外,對其進行適當?shù)姆蓛r值評價對于人工智能在法律領域的發(fā)展來說也十分重要。
既然我們知道平等價值貫穿整個法律體系,那么人工智能也可能存在兩種不平等的情況:其一是橫向的平等,具體表現(xiàn)為不同的人工智能機器人相互之間的平等關系;其二是縱向的平等,表現(xiàn)為人與人工智能機器人之間的平等。
關于橫向平等,前文已經論述過“類人”的強人工智能和“工具性”的弱人工智能,在這其中沒有絕對意義上的平等,人工智能由于其不同類型、不同智能化程度,因此在法律地位上也不可能完全平等。是否可以在未來基于其在智能化方面存在的不同,給予不同的人工智能以類似于完全民事行為能力機器人、限制民事行為能力機器人與無民事行為能力機器人的區(qū)別,有待考察。
其次,關于縱向平等,我們會產生疑惑的是人工智能與人類的平等問題。人類突出的優(yōu)勢在于記憶與現(xiàn)實的量化和抽象,可以自由獲取外界知識并創(chuàng)造新知。機器人對于一些人的主要特征還未被完全輸入和量化,所以不能迅速準確地辨認出每個動態(tài)的人。從根本上,機器人本身也無法創(chuàng)造知識,其記憶主要源于人類的靜態(tài)輸入。因此,在人工智能尚無法與人類智慧相提并論的現(xiàn)在,在人工智能系統(tǒng)的潛能未被完全發(fā)掘出來以前,它與人類之間還不存在平等的問題,兩者不在同一比較區(qū)間內。但是我們給予強人工智能以法律地位并且在機器人與機器人相互之間的橫向對比中適用平等價值,是為了預防和處理未來人工智能在運行工作中可能出現(xiàn)的法律問題。
法律正義有無標準?卓澤淵教授認為有多種正義論,要想對法律正義標準進行歸納總結似乎有些不現(xiàn)實。但如果我們仔細分析其中的規(guī)律可以發(fā)現(xiàn),一般來說對于正義標準的判斷大多數(shù)是價值標準的判斷。但是目前來講,尚未發(fā)現(xiàn)可以容括所有正義形式的標準,例如從秩序價值角度來看,蘇格拉底認為合乎法律的就是正義,從平等價值角度來看,蒲魯東認為,正義、秩序等原理是模糊的,從自由價值角度來看,博登海默認為,法律與正義建立在自由價值之上。
由此我們可以發(fā)現(xiàn),法律正義極其抽象,沒有絕對特定的內涵,對其證成需要通過其他法律價值來進行論證。正義價值主要是在縱向的人與人工智能之間進行適用,對橫向的人工智能與人工智能之間的探討并不具備一定的必要性。目前的更高級的算法使得人工智能擁有類似人類的感情奠定了基礎,人工智能若能擁有感情,那么他屬于強人工智能,那么人類是否應當公平、公正對待機器人就會自然而然進入世界上眾多學者和專家的討論范圍。這種類人情感與思維的產生,使機器人的各項特征逐漸與人類趨近,適當給予機器人以情感上的關心、以一定的休息時間變?yōu)榈赖律系默F(xiàn)實考量。
安全價值是每個公民格外關注的法律價值之一。自從人工智能進入我們的公眾視野,我們對安全的重視程度越來越高,例如人工智能對信息的使用和加工將會很可能涉及信息安全問題,因而對消費者個人信息、各個行業(yè)的商業(yè)秘密等相關數(shù)據(jù)依法進行一定的保護和加密,以保障個人和商主體的合法權利;另一方面,對于消費者生命健康問題的侵害,例如人工智能汽車侵權,不利于保護公民的安全權。隨著《網絡安全法》以及其他相關法律法規(guī)的實施,我們要通過法理學的研究,從法學原理上強調安全價值,增進人工智能的安全透明性、法律可解釋性,加強全流程的網絡實時防控,使其處于人類的可控范圍內。霍金、馬斯克、蓋茨等認為人工智能可能威脅全人類安全,這不僅是個人問題。重視“阿西莫夫法則”,在兩者利益出現(xiàn)沖突時,優(yōu)先保障人類的根本利益,堅持“以人為本”,建立安全的“人機關系”,這是人工智能時代對于安全的保障所必不可少的。
人工智能不僅在平等、正義、安全方面有巨大影響,對社會經濟秩序也同樣存在很大的影響。人工智能的廣泛應用,使得許多抗風險能力較弱的、受技術進步影響較大的產業(yè)慢慢衰落,人員產生流動,市場進行重整,由此已經產生了就業(yè)市場的深深憂慮。我們從無數(shù)新聞報道中窺探出,個別行業(yè)特別是流水線工作和可進行算法編輯類行業(yè)大幅度裁員,造成失業(yè),勞動密集型產業(yè)由于其自身的特點而更甚。在這種情況下,一旦應對有任何的不恰當,都可能會危及行業(yè)秩序,進一步引起整個社會動蕩,必須要在一定程度上規(guī)制人工智能在秩序價值方面的影響。如何降低人工智能對社會秩序產生的巨大影響?可能需要我們進一步進行調研和重整。
張文顯教授說過:“要善于創(chuàng)新法律這個人類最偉大的發(fā)明去駕馭人工智能等科技發(fā)明,引導日新月異的網信科技在與時俱進的法治的軌道上造福人類社會。”我們可以認為,人工智能時代下調整社會關系的法律制度,期待多于憂慮和疑慮。
本文通過分析法律主體在資格和意志能力兩方面的判斷標準,整理學界關于法律主體地位的不同觀點,得出未來將區(qū)分強弱人工智能并將高度智能化的人工智能作為特殊主體的結論。不僅是法律主體地位,進一步探討法律價值也是人工智能法律制度發(fā)展的重要環(huán)節(jié),價值評價對于人工智能這種新鮮事物發(fā)展路徑的影響巨大。季衛(wèi)東教授認為“大數(shù)據(jù)、云計算、人工智能都只是實現(xiàn)合法正義的輔助手段。”我們對人工智能與平等、正義、安全、秩序等法律價值進行評價,有利于尊重人類的主體性,維護合理的價值體系,主動擁抱變化,充分利用好人工智能。