李建文
摘要:近年來,人工智能的優(yōu)越性得到充分肯定,單也可能存在不利的法律后果時,人工智能是否能成為法律主體,是否能對該后果負責。加強法律制度建設是人工智能技術發(fā)展的同時必須推進的事情,人工智能法律地位的不明確亟需法律盡快作出回應。與此同時,法律制度的制定與完善必然基于一定的價值追求,法律制度具有制定與修改上的滯后性,對于新生事物無法及時地進行完善與規(guī)范,這就需要對平等、正義、安全、秩序等重要價值進行進一步的考量。
關鍵詞:人工智能;法律;主體論
1.引言
人工智能研究在當下我國法學界可謂炙手可熱。其中,人工智能的法律主體地位問題爭議尤為激烈,備受關注。人工智能只是一種人造的智能化工具,而非人造的智能人。如果人工智能在各個方面都與我們人類不分伯仲,它具備法律主體資格定當不存疑問。在當下人工智能還只是一種具備某些智能能力的特定“物”,而絕不可將之視為通常意義上的“人”。于是,需要亦值得進一步追問的是,為何“人”天生地具備法律主體資格,而像人工智能這種在某些智能方面還遠超人類的“物”,反而被拒之于法律主體的門外?
2.人工智能缺乏人格人特征的法律客體
2.1人工智能不具有心理認知意義上的意志
具有深度學習能力的人工智能,確實很容易被人誤以為它擁有自己的意志??墒牵坏┪覀兘议_其智能的面紗,掌握其“意志”是如何形成的,就知道所謂人工智能意志,其實并非通常所說的心理認知意義上的意志。意志乃是由多個領域的認知能力綜合而成的,人工智能建立在深度學習基礎上的自主性,僅僅是一種源于算法程序的機械意志,而絕非心理認知意義上的自由意志。在人類的神經(jīng)認知領域如視覺認知、嗅覺認知、味覺認知、觸覺認知,當今的人工智能還遠沒有達到人類的認知能力與水平,既然對種種情緒、痛苦和幸福毫無感覺,不管人工智能的深度學習能力強到何等程度,它從中所能獲得的所謂“意志”,絕不會是我們人類通常所言的意志。它不過是一種根據(jù)既定算法程序所得出的技術化與機械化的運算結果而已。對于這種算法程序的運用及其結果,可以稱之為智力,而不應該將之認定為富有心理認知色彩的意志或智能。
2.2人工智能自身并非一種目的性存在
人工智能的制造者或擁有者在拆散乃至徹底銷毀人工智能時,內心同樣不會引起任何良知上的不安,更不會有所謂的違法之嫌。為什么呢?因為對于我們人類來說,人工智就像鱷魚一樣只不過是一種工具性的存在物,其本身并非一種目的性的存在物。人工智能盡管自身可以儲存海量數(shù)據(jù),并能夠以閃電般的速度對這些數(shù)據(jù)進行搜索和加工,其深度學習能力令人嘆為觀止,但是此種能力終究只是一種高度程序化和技術化的邏輯運算能力而已。如果說這種建立在暴力計算基礎上的學習能力可以產(chǎn)生自主性的話,那這種自主性也是一種純粹技術化的自主性,而決不是我們通常所理解的、建立在包括情感和審美等多種主觀認知能力基礎上的自主性。
2.3人工智能自身不具有自律性
自律本身是一種意志,而且是那種經(jīng)過理性反思后的、旨在抑制本能沖動和意氣用事的糾偏性意志。人工智能本質上還是一種人造的機器,盡管它具有強大的計算能力,在某些方面的智力甚至超過人類,但它絕非一種倫理性與道德性的生物體,跟人不具有可比性。即使人工智能對自律有主觀認知,且愿意在實踐過程中真正做到自律———這事實上都不可能,但現(xiàn)有的人工智能研發(fā)技術亦將使之陷入“心有余而力不足”的窘境。尤為關鍵的是,自律的形成及其實踐程度受社會風俗習慣、文化傳統(tǒng)及個體的道德觀念、宗教信仰等多種社會文化因素的影響。沒有這些因素,就是人也決不可能具有自律性。
2.4人工智能無法承載法
法律主體乃是承載法的人格人,只有能作為法律上的權利義務承擔者,才能成為法律主體。否則,即便人為地賦予人工智能法律主體地位,那它也只能是語義層面上的法律主體,而絕非規(guī)范意義上的法律主體———法律規(guī)范對其自身具有重要價值的主體。人工智能的所有動作都不是法律意義上的行為,它們都是基于大數(shù)據(jù)和算法程序而得出的結果。關于此等結果對自身及社會有何意義,其會造成何等法律后果,人工智能其實一無所知。
3人工智能與法律價值
除了有關法律主體的法理基礎外,對其進行適當?shù)姆蓛r值評價對于人工智能在法律領域的發(fā)展來說也十分重要。
3.1平等
“類人”的強人工智能和“工具性”的弱人工智能沒有絕對意義上的平等,人工智能由于其不同類型、不同智能化程度,因此在法律地位上也不可能完全平等。是否可以在未來基于其在智能化方面存在的不同,給予不同的人工智能以類似于完全民事行為能力機器人、限制民事行為能力機器人與無民事行為能力機器人的區(qū)別,有待考察。人類突出的優(yōu)勢在于記憶與現(xiàn)實的量化和抽象,可以自由獲取外界知識并創(chuàng)造新知。機器人對于一些人的主要特征還未被完全輸入和量化,所以不能迅速準確地辨認出每個動態(tài)的人。從根本上,機器人本身也無法創(chuàng)造知識,其記憶主要源于人類的靜態(tài)輸入。
3.2正義
法律正義極其抽象,沒有絕對特定的內涵,對其證成需要通過其他法律價值來進行論證。正義價值主要是在縱向的人與人工智能之間進行適用,對橫向的人工智能與人工智能之間的探討并不具備一定的必要性。目前的更高級的算法使得人工智能擁有類似人類的感情奠定了基礎,人工智能若能擁有感情,那么他屬于強人工智能,那么人類是否應當公平、公正對待機器人就會自然而然進入世界上眾多學者和專家的討論范圍。這種類人情感與思維的產(chǎn)生,使機器人的各項特征逐漸與人類趨近,適當給予機器人以情感上的關心、以一定的休息時間變?yōu)榈赖律系默F(xiàn)實考量。
3.3安全
安全價值是每個公民格外關注的法律價值之一。自從人工智能進入我們的公眾視野,我們對安全的重視程度越來越高,例如人工智能對信息的使用和加工將會很可能涉及信息安全問題,因而對消費者個人信息、各個行業(yè)的商業(yè)秘密等相關數(shù)據(jù)依法進行一定的保護和加密,以保障個人和商主體的合法權利;另一方面,對于消費者生命健康問題的侵害,例如人工智能汽車侵權,不利于保護公民的安全權。隨著《網(wǎng)絡安全法》以及其他相關法律法規(guī)的實施,我們要通過法理學的研究,從法學原理上強調安全價值,增進人工智能的安全透明性、法律可解釋性,加強全流程的網(wǎng)絡實時防控,使其處于人類的可控范圍內。
3.4秩序
人工智能的廣泛應用,使得許多抗風險能力較弱的、受技術進步影響較大的產(chǎn)業(yè)慢慢衰落,人員產(chǎn)生流動,市場進行重整,由此已經(jīng)產(chǎn)生了就業(yè)市場的深深憂慮。我們從無數(shù)新聞報道中窺探出,個別行業(yè)特別是流水線工作和可進行算法編輯類行業(yè)大幅度裁員,造成失業(yè),勞動密集型產(chǎn)業(yè)由于其自身的特點而更甚。在這種情況下,一旦應對有任何的不恰當,都可能會危及行業(yè)秩序,進一步引起整個社會動蕩,必須要在一定程度上規(guī)制人工智能在秩序價值方面的影響。如何降低人工智能對社會秩序產(chǎn)生的巨大影響,可能需要我們進一步進行調研和重整。
4結束語
總而言之,“智能機器無法理解和響應法律的行止要求、無法接受法律的調整、無法理解財產(chǎn)之于自身的意義,旨在通過賦予其法律人格以達到的責任限定效果不符合正義的基本要求,并且與法人的類比論證忽略了自然人之于法人的重要意義,因而賦予智能機器以法律人格,從理論上看是無法成立的”。法律乃是一種具有相當抽象性的意識與觀念,它不是人工智能所能理解和掌握的,人工智能絕不是合格的權利義務承載者。
參考文獻:
[1]人工智能的法律主體地位初探[J].王倩倩.長沙民政職業(yè)技術學院學報.2019(01)
[2]人工智能法律人格問題研究[J].詹可.信息安全研究.2018(03)