齊恩平,曹一夔
(天津商業(yè)大學法學院,天津300134)
人工智能技術作為科技的未來發(fā)展方向,對于其所進行的研究和應用將迎來爆發(fā)式的增長。為保障人工智能技術能夠平穩(wěn)且快速地融入社會之中,在發(fā)展人工智能技術的同時,于民法層面對于人工智能技術所進行的引導和規(guī)范也需要同步開展,不能形成“先發(fā)展而后治理”的形式。盡管相較于歐美國家,我國因為受制于人工智能技術的發(fā)展水平和普及程度,對于人工智能民法問題的關注相對較晚,但是,我國對于引導和調(diào)整人工智能民法問題必要性的認識成熟度卻相對較高。在國務院2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中,將建設人工智能法律法規(guī)、倫理規(guī)范和政策體系視為在發(fā)展人工智能技術的過程中所必須同步完成的工作。
人工智能技術的發(fā)展水平和普及程度會受制于諸多因素,包括科技水平和倫理道德觀念等,卻很難受制于民法理論的內(nèi)容。而伴隨著人工智能的技術發(fā)展和產(chǎn)品普及,極有可能出現(xiàn)人工智能民法問題不適用于當前民法理論調(diào)整的現(xiàn)象。其具體表現(xiàn)為,作為民法理論調(diào)整的新對象,當前民法理論對于人工智能民法問題的調(diào)整能力不足或調(diào)整范圍未曾涉及。因此,在討論人工智能民法問題時,首先需要厘清人工智能民法問題的特殊性,明確各類人工智能民法問題的具體表現(xiàn),為人工智能民法問題的討論和解決提供基礎。
由于人工智能所涉民法問題很多,不同問題之間存在共性的同時,也存在著明顯的差異。因此,本文將僅對人工智能代理、人工智能與隱私權保護、人工智能侵權責任等具有典型意義的問題展開討論,梳理這三種傳統(tǒng)民法問題在涉及人工智能技術時所展現(xiàn)出的特殊性。
“人工智能代理”盡管名為代理,但實際上并不是一個嚴謹?shù)姆▽W概念,也不是法學領域內(nèi)對于代理的傳統(tǒng)分類方式。“人工智能代理”只是通過對具體行為的特征進行抽象或總結(jié),從而得出的一種定義或稱謂。其與“電子代理人”概念相類似,最初均屬于工學中特有的概念,隨著技術的普及逐漸為其他領域所吸收并加以使用。在工學領域內(nèi),對于“人工智能代理”有著這樣的描述:“協(xié)助人們工作并代表其辦事的軟件,智能代理人使人們將本可以自己辦理的事情交由代理軟件辦理,代理人可以做到如同助手一樣,自動處理重復的工作,記憶人們可能忘記的事項,聰明地匯總復雜的數(shù)據(jù),向人們學習,甚至可以向人們提出建議?!盵1]基于該描述,可以認為“人工智能代理”的工作模式與法學中的代理行為有著相似地方,但并不能據(jù)此就將“人工智能代理”簡單地認定為民法上的代理行為。
討論“人工智能代理”的本質(zhì),應將其與民法中代理行為的概念進行比對。民法理論中的代理行為一般會滿足四項內(nèi)容,即代理關系的三方當事人、以被代理人的名義從事法律行為、代理行為的結(jié)果由本人承擔、代理委托授權。對于以被代理人的名義從事法律行為、代理行為的結(jié)果由本人承擔這兩項內(nèi)容,通過前文對“人工智能代理”的工作模式的梳理,可以判斷其符合民法中代理行為的要求。而代理權問題則是在明確“人工智能代理”為真正的代理行為之后所需要討論的問題。但是,對于代理關系的三方當事人問題,即無法從“人工智能代理”的工作模式進行直觀的比對,因此,判斷“人工智能代理”是否符合民法中代理行為的條件,必須對該問題加以討論。
民法中的代理行為一般包含三方當事人,即代理人、被代理人和第三人。在“人工智能代理”中,最需要討論的是有關代理人的問題。人工智能并不是民法上的獨立的主體,而是屬于自然人或法人所有的財產(chǎn)。在這一前提之下,人工智能缺乏成為被代理人的可行性。而能否賦予人工智能獨立的主體資格,本身也是一個十分具有爭議性的法學問題。因此,仍需立足于人工智能作為財產(chǎn)的前提,對于“人工智能代理”中的代理人進行討論。
在將人工智能看作財產(chǎn)的前提之下,對于“人工智能代理”中的代理人需要進行分類分析。若人工智能為被代理人所有的財產(chǎn),那么盡管人工智能具有自主性和智能性,但是在“人工智能代理”中仍然缺乏作為代理人而存在的可能性。此種情況下,“人工智能代理”更有可能被認定為被代理人借助人工智能所進行的一種直接行為。
還有一種情況是,人工智能屬于獨立于代理關系之外的自然人或法人所有。在此種情形下,人工智能的所有者不再是被代理人本身,可以滿足代理行為對于三方當事人的要求。但是,當被代理人通過代理合同與“人工智能代理”就某項代理工作達成一致時,對于被代理人是對人工智能授予了代理權,還是對人工智能的所有者授予了代理權則會存在爭議。如果將此種情形視作被代理人與人工智能所有者之間就某項代理行為達成了一致,那么“人工智能代理”就只能作為一種混淆視聽的錯誤概念而被予以摒棄。
除了“人工智能代理”的本質(zhì)以及代理人的問題之外,還有很多涉及“人工智能代理”的問題值得討論,例如,如何判斷人工智能的行為能力,人工智能代理權的來源,“人工智能代理”能否構成表見代理、構成條件以及被代理人的抗辯事由,被代理人在進行(使用)“人工智能代理”時所應承擔注意義務,以及人工智能在進行代理行為時侵權責任的歸屬。但是,這些問題的討論基礎在于確定“人工智能代理”是否屬于民法理論中的代理行為,以及代理人的歸屬問題。
人工智能技術并沒有對現(xiàn)有的隱私權理論或隱私權保護體系造成變革性的影響,其對于隱私權保護的影響,主要體現(xiàn)在其加劇了隱私權保護的難度。因此,本文認為,開展人工智能與隱私權保護問題的討論,首先需要梳理人工智能技術加劇隱私權保護難度的具體表現(xiàn),然后才能夠討論在民法上如何對這些新的不利因素進行有效的調(diào)整和規(guī)范。
保護隱私權不受侵犯的最根本的方式在于遏制他人獲取個人隱私的途徑。在沒有人工智能,甚至是沒有互聯(lián)網(wǎng)之前,對于個人隱私的獲取方式,往往是直接窺探涉及他人個人隱私的信息或者行為。但是,人工智能技術的信息搜集能力和處理能力,使得獲取他人隱私的途徑不再只是直接的窺探行為。人工智能所有者或使用者能夠借助人工智能技術,在大量的信息之中快速地搜集到與特定人相關的個人信息。盡管這些個人信息沒有向搜索者直接展現(xiàn)權利人的隱私內(nèi)容,但是,在搜索者掌握足夠充分的個人信息,并利用人工智能對這些個人信息進行進一步處理之后,這些原本單一的個人信息內(nèi)容會揭示有關特定人的生活規(guī)律、個人偏好,以及極其私隱的個人信息內(nèi)容。原本存在于對特定人龐雜信息進行搜集和處理的困難,隨著人工智能技術的發(fā)展和普及得到了解決。面對這樣的情況,需要我們重新審視衡量侵犯他人隱私的標準,對于此種通過搜集并分析他人的個人信息,進而推導出他人隱私的行為加以約束。
隨著人工智能技術的快速普及,許多涉及日常生活的服務都引入了人工智能技術。在某些情況下,個人為了能夠享受到后續(xù)的服務,不得不使用服務提供商所提供的人工智能服務。在此過程中,個人無法依照自己的意愿將人工智能服務和自己所希望獲取的服務行為進行分割,也就無力阻止個人信息被他人大量搜集。而大量個人信息的泄露,就會導致前文所說的通過搜集個人信息從而推導出個人隱私的情況的發(fā)生。
當然,并不是所有的使用帶有人工智能服務的行為,均非出于個人意愿。人工智能中的個人搜索服務便捷了個人的生活。但是,智能搜索服務需要了解搜索者在某一時刻的個人需求才能完成搜索服務。甚至,智能搜索需要通過不斷地搜集、記錄、分析搜索服務用戶的搜索歷史、搜索偏好和搜索興趣,才能為搜索者或具有相同需求的人群提供更為優(yōu)質(zhì)的智能服務。
因此,無論是出于被迫的還是自愿的使用行為,人工智能都不可避免地要對使用者在使用人工智能服務過程中所瀏覽或輸入的信息進行搜集、記錄、分析,甚至是學習。而使用者所提供的與個人相關的大量信息可以使人工智能或他人據(jù)此推測出與使用者相關的個人隱私,甚至使用者所瀏覽或輸入的某些信息可能會直接涉及到個人隱私。因此,需要為人工智能的搜集行為設定必要的前提和界限,避免在享受人工智能服務的過程中被侵犯隱私權。
相較于互聯(lián)網(wǎng)等相關科技,人工智能技術的特點之一在于其所具有的深度學習能力。而這種深度學習能力也是我們大力發(fā)展人工智能技術所希望獲得的成果之一,可以說對于人工智能學習能力的研究符合我們的公共利益。但是,人工智能進行深度學習,甚至是完成對人類行為活動的模仿,都離不開對于不特定人群的個人信息甚至是隱私內(nèi)容的搜集。盡管人工智能技術符合公共利益的發(fā)展,但是,個人讓渡私權利去滿足公共利益是有一定界限的,甚至在某些情形下是完全取決于個人的選擇。
因此,在發(fā)展人工智能的過程中,如何平衡公共利益和個人權利之間的界限,需要我們進行更進一步的探討。無論我們進入哪一種極端的情況,對于人工智能技術的發(fā)展或個人隱私的保護都會造成重大的影響。
隨著互聯(lián)網(wǎng)的快速發(fā)展,個人能夠在更為公開化的平臺上發(fā)布涉及個人身份、出行,甚至是各種敏感信息,而此種行為往往伴隨著一種主動性和不理智性。但是,被分享的這些能夠使他人推導出個人隱私,或本就涉及個人隱私的內(nèi)容,在權利人向他人公開后,是否仍然能夠被納入隱私權的客體范圍內(nèi)本身就存在著爭議。并且,權利人發(fā)布的內(nèi)容極有可能會被他人進一步轉(zhuǎn)發(fā)或擴散,從而被更多人所獲知。在這一過程中,無論是權利人所做的初次發(fā)布,還是其他人的瀏覽和轉(zhuǎn)發(fā)行為,都使人工智能有可能獲取到涉及權利人隱私的內(nèi)容,并且就這些被獲取的隱私進行分析和學習。而對于這些已經(jīng)由權利人向特定主體或不特定主體所公開的個人隱私,或可以推導出個人隱私的信息,法律是否仍然應該進行保護,以及應在何種程度上去追究侵權人的責任都需要進行具體討論。
在利用人工智能進行某種活動的時候,一般存在三方不同主體,分別是人工智能的研發(fā)者、運營者和使用者。人工智能的研發(fā)者、運營者和使用者在人工智能運轉(zhuǎn)過程中的權利義務分配,是確定人工智能侵權責任歸屬的重要前提。
在分配人工智能技術所涉及的三方主體的權利義務時,需要結(jié)合人工智能的相關屬性,即智能性、自主性以及高度專業(yè)性。首先,要對權利義務的分配方式進行討論。一般而言,權利義務的分配方式包括法定分配、格式合同分配和意定分配等方式。對于這幾種分配方式,選擇哪一種方式或配合使用對于分配人工智能三方主體的權利義務能夠更為合理,以及在使用格式合同分配和意定分配時所能自由規(guī)定的內(nèi)容,都需要進行具體討論。其次,要明確權利義務的分配標準,在人工智能的研發(fā)者、運營者和使用者之間進行權利與義務的分配,要兼顧公平、正義和效率的原則。但是,在公平、正義和效率三者之間往往又會有所側(cè)重,受限于人工智能的高度專業(yè)性,以及當前人工智能技術發(fā)展階段和普及水平,在分配研發(fā)者、運營者和使用者的權利與義務時,要考慮側(cè)重于哪種原則更能有利于人工智能技術的發(fā)展,以及有利于保護人工智能的研發(fā)者、運營者、使用者和其他人的合法權益。
討論人工智能侵權責任的認定問題,需要根據(jù)被侵權人的不同而進行分類討論??梢苑譃閮煞N,第一種是討論被侵權人為使用者時的侵權責任認定問題,第二種則是要討論使用者在使用過程中對他人造成侵權時的責任認定問題。對于這兩種情況,都需要從侵權責任構成要件和歸責原則兩方面進行討論。
首先,需要討論人工智能侵權責任的歸責原則。當被侵權人為使用者時,承擔侵權責任的主體一般應是人工智能的研發(fā)者和運營者。而當被侵權人為使用者以外的主體時,承擔侵權責任的主體一般應是人工智能的研發(fā)者、運營者和使用者。但是,基于人工智能的智能性、自主性以及高度專業(yè)性,是否能夠在這兩種情況下均要求侵權責任的潛在承擔者承擔無過錯責任和連帶責任是需要探討的。
如果讓人工智能的研發(fā)者、運營者和使用者在各種情況下,均承擔無過錯責任和連帶責任,或許可以充分保護被侵權人的利益,但是對于侵權人的利益以及人工智能的發(fā)展均有可能造成不利影響。因此,應對不同主體承擔責任時所適用的歸責原則進行分類討論,并明確不同主體所享有的免責事由。在明確了歸責原則之后,就能為應采納侵權責任中的“三要件”說還是“四要件”說提供理論支持。
在認定人工智能侵權責任的具體類型時,有可能出現(xiàn)兩種侵權責任類型的競合。這一問題的根本原因在于人工智能的自主性和智能性,使用者在操作人工智能的過程中,往往不會下達非常具體的命令,更多地是選擇人工智能運行模式或基本設定。此時,人工智能在使用過程中的具體行為往往無法由使用者做出提前的預判,并加以干涉。因此,使用者在使用人工智能的過程中出現(xiàn)侵權行為,會出現(xiàn)與產(chǎn)品責任的競合。因為無法區(qū)分兩種責任,或是同時涉及到使用者與研發(fā)者、運營者共同侵權的可能性。
例如,當無人駕駛汽車造成交通事故的時候,如果認為是作為產(chǎn)品的無人駕駛汽車存在瑕疵,則需要追究產(chǎn)品研發(fā)者和運營者的產(chǎn)品責任。但是,若在無人駕駛汽車使用過程中,使用者存在操作不當或違規(guī)操作的問題,則應認定為交通事故責任。此種情形下,被侵權人尚能清晰地辨明自己所主張的對象。但是,假如無法區(qū)分責任歸屬,或是既存在產(chǎn)品瑕疵又存在操作不當?shù)男袨?,就會產(chǎn)生產(chǎn)品責任和交通事故責任的競合問題。再如,人工智能醫(yī)療器械在進行診療行為時所發(fā)生的醫(yī)療損害,也有可能如上述無人駕駛汽車的侵權問題一樣,導致產(chǎn)品責任和醫(yī)療事故責任的競合。因此,為了使被侵權人獲得充分的保護,也為了保護不應承擔侵權責任的一方主體的利益,需要針對此類具有特殊性的人工智能侵權問題的責任類型進行討論,進一步分析其是否能夠真正構成侵權責任的競合,討論在適用不同侵權責任時為同一人工智能侵權行為所帶來的不同結(jié)果,以及應如何界定此類人工智能侵權責任更為合理。
人工智能民法問題的種類具有多樣性,遠不是本文所論述的有關人工智能代理問題、人工智能和隱私權保護問題以及人工智能侵權責任問題所能涵蓋的。本文僅僅是以代理、隱私權保護和侵權責任為例,對當前對人工智能民法問題中,利用傳統(tǒng)民法理論進行調(diào)整時所產(chǎn)生的不適用的突出表現(xiàn)進行了簡要的梳理。同時,本文的主要目的在于,梳理具體類型的人工智能民法問題在適用傳統(tǒng)民法理論進行調(diào)整時所表現(xiàn)出的不適。對于如何合理地解決這些問題,則需要進行進一步的討論。
[1]瑪麗蓮·格林斯坦,托德M.法因曼.電子商務:安全、風險管理與控制[M].北京:機械工業(yè)出版社,2002:330.
[2]DAHIYAT E A R.Intelligent agents and liability:is it a doctrinal problem or merely a problem of explanation[J].Artificial Intelligence and Law,2010(18):103-121.
[3]BROZEK B.On the legal responsibility of autonomous machine[J].Artificial Intelligence and Law,2017(25):293-304.
[4]ALLEN A L.Protecting one’s own privacy in a big data economy[J].Harvard Law Review Forum,2016(130):71-78.
[5]CALO R.Robotics&the Law:Liability for Personal robots[J/OL].[2017-11-25]https://cyberlaw.stanford.edu/blog/2009/11/robotics-law-liability-personal-robots.