毛高杰
(河南牧業(yè)經(jīng)濟(jì)學(xué)院學(xué)報(bào)編輯部,河南 鄭州 450044)
隨著人工智能在近幾年重新得到人們的關(guān)注,人工智能法律問(wèn)題在法學(xué)界、實(shí)務(wù)界、技術(shù)界、商界等各個(gè)領(lǐng)域都受到了廣泛的關(guān)注。2017年法理學(xué)年會(huì)將主題定為“信息時(shí)代的法律與法治”,兩百多名學(xué)者對(duì)法律與技術(shù)的有關(guān)問(wèn)題進(jìn)行了討論,有一批高校也相繼成立相關(guān)研究中心。已有研究大致存在以下幾種觀點(diǎn):(1)認(rèn)為人工智能對(duì)法律問(wèn)題產(chǎn)生嚴(yán)重沖擊,這些觀念包括對(duì)美國(guó)開始大量投入法律人工智能所帶來(lái)的影響進(jìn)行論述,認(rèn)為人工智能會(huì)在很大程度上替代傳統(tǒng)法律工作者的部分職能;持有這一觀念的主要是新型法律服務(wù)企業(yè);(2)認(rèn)為人工智能在一定程度上可以更好地增加法律從業(yè)人員的工作效率,進(jìn)而實(shí)現(xiàn)法律上的公平和正義。這一部分以國(guó)家有關(guān)部門和司法工作人員為主,認(rèn)為可以通過(guò)人工智能的使用,在一定程度上解決現(xiàn)在所面臨的案多人少問(wèn)題,并且通過(guò)大數(shù)據(jù)和人工智能以實(shí)現(xiàn)司法的統(tǒng)一和精準(zhǔn)。(3)還有一類研究者并不簡(jiǎn)單將人工智能對(duì)法律的影響做單一的歸類,而是盡可能地對(duì)人工智能可能帶來(lái)的影響進(jìn)行分析。這些研究在很大程度上反映了中國(guó)法律研究和實(shí)踐對(duì)人工智能的敏銳反應(yīng),但受制于人工智能和法律之間的專業(yè)隔閡,偏重于法律的研究者更多關(guān)注人工智能對(duì)人類影響的價(jià)值問(wèn)題,采用應(yīng)然的規(guī)范性研究較多,而偏重于技術(shù)和商業(yè)行為的研究者更多關(guān)注人工智能的資本回報(bào),但較少關(guān)注可能帶來(lái)的價(jià)值問(wèn)題。雖然已有研究很多,但分屬于不同的領(lǐng)域,基于不同的邏輯前提,各種觀念之間無(wú)法形成有效的溝通。
造成這種局面的重要原因在于面對(duì)人工智能時(shí)未能深入分析人工智能多個(gè)維度面臨的不同法律問(wèn)題,而是將人工智能當(dāng)作一個(gè)無(wú)須分析的單一問(wèn)題進(jìn)行討論。從縱向上來(lái)說(shuō),人工智能具有理念層、物理層和應(yīng)用層三個(gè)層面,理念層對(duì)應(yīng)的是哲學(xué)層面的問(wèn)題,由此產(chǎn)生的是需要在法哲學(xué)層面深入探討的主體、法律原則等基底問(wèn)題;物理層對(duì)應(yīng)的是一個(gè)產(chǎn)權(quán)歸屬和可能的代理問(wèn)題,需要具體的產(chǎn)權(quán)規(guī)則加以調(diào)整就可以;最復(fù)雜又最為切近社會(huì)實(shí)踐的是應(yīng)用層的人工智能,即人工智能在特定的目的之下以特定的功能在原有的社會(huì)互動(dòng)關(guān)系中展開,無(wú)論采用強(qiáng)人工智能還是弱人工智能,都是在考慮人工智能介入原有人類社會(huì)之后的社會(huì)行動(dòng)所面臨的法律問(wèn)題,因此這一層面的人工智能帶來(lái)的問(wèn)題最為復(fù)雜,既關(guān)系到人工智能主體性問(wèn)題,也關(guān)系到一個(gè)混合了人工智能的社會(huì)秩序問(wèn)題。這三個(gè)層面的人工智能法律問(wèn)題又可以在另一個(gè)角度上加以區(qū)別,即在柔性的人類智能和剛性的人工智能之下,將三個(gè)層面的人工智能問(wèn)題予以更加細(xì)化的區(qū)分。這些層面的人工智能法律問(wèn)題,首先要在最基本的理念層面予以準(zhǔn)確理解,才能為后面兩個(gè)層面的人工智能法律問(wèn)題提供邏輯基礎(chǔ)。
在法律邊界的討論中,更多關(guān)注法律與道德的問(wèn)題,但歸根到底是關(guān)于人的行為問(wèn)題。因此,在法律與道德的框架之下無(wú)法容納在法律的角度如何分析人工智能的問(wèn)題,盡管在語(yǔ)言的意義上我們可以純粹符號(hào)性的指稱人工智能法律問(wèn)題,但如何定義人工智能首先是一個(gè)認(rèn)知問(wèn)題,然后才是法律問(wèn)題。
首先,認(rèn)知是一個(gè)自然進(jìn)化行為,無(wú)論是采用稍微抽象一些的先驗(yàn)理論,即康德關(guān)于人的先驗(yàn)事實(shí),抑或采取笛卡爾關(guān)于個(gè)體認(rèn)知與世界的關(guān)系,都是一個(gè)哲學(xué)前提下的探討,無(wú)法在任何經(jīng)驗(yàn)意義上予以規(guī)范化。即便采用更加實(shí)證的腦科學(xué)和認(rèn)知行為學(xué)的理論,關(guān)于人的認(rèn)知的事實(shí)也無(wú)法給予精確的描述,更無(wú)法在某一個(gè)相對(duì)統(tǒng)一的共同體范圍內(nèi)獲得統(tǒng)一的規(guī)則化,這導(dǎo)致事實(shí)上無(wú)法納入任何人類自身建構(gòu)或者演化的規(guī)則范疇。從這一層面來(lái)說(shuō),作為認(rèn)知現(xiàn)象而出現(xiàn)的智能本身無(wú)法作為任何法律規(guī)則的調(diào)整對(duì)象,即不存在可法律性的基礎(chǔ)。
其次,如果采取稍微寬泛一點(diǎn)的定義,將智能看作可以通過(guò)一定的規(guī)則予以調(diào)整的人類互動(dòng)關(guān)系,從而在最弱的意義上允許對(duì)智能加以分類,可以將其納入某一規(guī)則系統(tǒng)。一個(gè)可能的邏輯衍生就會(huì)推演下來(lái)。第一步,將智能看作可以調(diào)整的人類互動(dòng)關(guān)系意味著智能必須在價(jià)值上可以評(píng)價(jià),一些智能在價(jià)值上必然優(yōu)于另一些價(jià)值,因此在面對(duì)時(shí)間、空間以及資源限制的時(shí)候,某些價(jià)值必然要受到約束甚至被消除。對(duì)于人類社會(huì)來(lái)說(shuō),盡管在歷史上形成過(guò)某些種群的存在價(jià)值低于另外一些種群的歷史[1]。第二步,一旦將智能看作可以和一般行為一樣進(jìn)行價(jià)值賦予的情況,認(rèn)知本身就成為可操作的對(duì)象,操作知識(shí)的知識(shí)也將被看作可以進(jìn)行明確予以規(guī)則調(diào)整的領(lǐng)域。這似乎可以看作是人們?cè)诜蓪?shí)踐的歷史中一直在遵循的邏輯,通過(guò)把主體、權(quán)利義務(wù)、法律關(guān)系、法律事實(shí)等進(jìn)行價(jià)值化的轉(zhuǎn)換,人和世界都可以歸結(jié)為某種合理性依據(jù)的規(guī)則系統(tǒng)。第三步,建立一個(gè)具有立法權(quán)力和執(zhí)行權(quán)力的制度體系。在現(xiàn)實(shí)社會(huì)中,立法權(quán)力和執(zhí)行權(quán)力具有馬克思意義上的絕對(duì)壟斷性,在解決霍布斯叢林狀態(tài)的情況下,也能夠解決盧梭的自然狀態(tài),在一個(gè)由多元文化所組成的世界上以現(xiàn)代民族國(guó)家的形態(tài)調(diào)整不同國(guó)家和地區(qū)的社會(huì)秩序。對(duì)于智能來(lái)說(shuō),如果要建立一個(gè)可以對(duì)智能進(jìn)行調(diào)整的體系,需要在更加底層的智能產(chǎn)生和運(yùn)行狀態(tài)下進(jìn)行。
第三,在這一可操作的層面,需要對(duì)智能的形成和變化具有充分的控制。在粗略的傳統(tǒng)法律體系之下,隱藏著可以通過(guò)規(guī)則對(duì)人的行為進(jìn)行引導(dǎo)的前提。但這一前提并不能夠?qū)⑷祟惿鐣?huì)發(fā)展的所有結(jié)果單一推到法律規(guī)則的調(diào)整效果上,或者在更進(jìn)一步的反思下,一個(gè)文化之所以形成某種法律規(guī)則體系,可能并不是某種人類社會(huì)共同遵循的結(jié)果,相反更可能是某一人類社會(huì)共同體受到相同的文化和社會(huì)框架的約束,從而做出具有相似選擇行為的結(jié)果。因此,將建立在粗糙經(jīng)驗(yàn)前提下的法律規(guī)則適用在對(duì)智能調(diào)整上,在缺乏足夠的了解和可以控制的機(jī)制的前提下,很大程度上可能只是一個(gè)文化上的想象而非真實(shí)的結(jié)果。
第四,一個(gè)文化想象并不意味著對(duì)理念層的人工智能加以法律化后不存在后果。只是這一后果可能與預(yù)期相違背。這里有兩個(gè)問(wèn)題:(1)一旦人們采用了可以操作智能的思路,就必然將人工智能與人類智能進(jìn)行比較,從中尋找到可能的一致性,將所有的智能納入法律規(guī)則的調(diào)整之下,使得人類智能本身也在人工智能的陰影之下潛在地轉(zhuǎn)化為可以加以分類的對(duì)象。(2)人類智能與人類本體的一體性意味著調(diào)整智能需要調(diào)整人力本體,一些人類相比其他人類更加具有優(yōu)越性。也許不會(huì)采取在歷史上被反思過(guò)的明確種族主義的方式,但通過(guò)將某些個(gè)體置于更加不利的話語(yǔ)地位上進(jìn)而弱化其社會(huì)和政治地位,則是文化體系中更加容易實(shí)現(xiàn)的操作。在人類智能和人工智能越來(lái)越具有技術(shù)上的一致性的情況下,技術(shù)優(yōu)勢(shì)疊加文化優(yōu)勢(shì)和政治優(yōu)勢(shì),人類智能事實(shí)上被更加嚴(yán)重地加以歧視,就被系統(tǒng)化的折疊進(jìn)試圖對(duì)人工智能進(jìn)行分類規(guī)制的邏輯前提之內(nèi)。
最后,認(rèn)知的可法律性在虛幻與歧視中,人工智能的可法律性也處在晦暗不明狀態(tài)。從前面分析來(lái)看,智能本身缺少足夠的可法律性,但因?yàn)槿斯ぶ悄苁艿劫Y本、傳媒和政治的青睞,導(dǎo)致關(guān)于人工智能法律問(wèn)題的討論成立一個(gè)足夠熱鬧的問(wèn)題。這種人工智能法律問(wèn)題缺乏對(duì)智能本體的考慮,也缺乏對(duì)人工智能在現(xiàn)實(shí)社會(huì)中呈現(xiàn)形式的考慮,因此在某種程度上是一個(gè)沒(méi)有人工智能的人工智能法律問(wèn)題,具有極強(qiáng)的虛幻色彩。但這種虛幻的人工智能法律問(wèn)題帶來(lái)的是非常實(shí)在的歧視性問(wèn)題,在最弱的層面上是對(duì)不同的人工智能層級(jí)予以不同的對(duì)待,因?yàn)槿斯ぶ悄苤黧w性的缺失,因此在面對(duì)技術(shù)迭代和資本逐利的貪婪下,基本無(wú)法確定哪一個(gè)人工智能才能獲得穩(wěn)定的法律上的主體性,由此而導(dǎo)致的人類智能本身的主體性也在逐漸模糊,借助于技術(shù)和資本的能力的不同,一個(gè)逐漸加大的技術(shù)和資本的歧視結(jié)構(gòu)的法律價(jià)值基礎(chǔ)正在逐漸顯現(xiàn)。
第一部分從智能本身分析認(rèn)為人工智能不具有可法律性,但人工智能在人類社會(huì)中的應(yīng)用一定會(huì)出現(xiàn)間接的可傳遞的法律效應(yīng),本部分對(duì)此進(jìn)行簡(jiǎn)要論述。
首先,人工智能的去主體性會(huì)帶來(lái)價(jià)值屬性的消解,導(dǎo)致人類社會(huì)法律的根基坍塌。對(duì)于人類社會(huì)的法律來(lái)說(shuō),無(wú)論是原始的習(xí)慣或者現(xiàn)代文明社會(huì)中的法律規(guī)范,都指向人類本體,即便在現(xiàn)代法律傳統(tǒng)以前,法律對(duì)人類加以明確的法律上的區(qū)分,將有些群體當(dāng)作不完整的法律意義上的不完整人類主體,但在加以保護(hù)的人類主體上,都在最低限度上將人類當(dāng)作一個(gè)具有不可替代價(jià)值的主體,因此在抽象的人格到具體的財(cái)產(chǎn)權(quán)的保護(hù),都得到完備的法律系統(tǒng)的調(diào)整。所以,法律的前提建立在一個(gè)不言自明的邏輯前提之下,即法律是為了保護(hù)法律意義上的人類主體,無(wú)論被納入該類群體的人類具有何種智能和形體,只需要落入法律所規(guī)定的主體范疇之內(nèi)就可以獲得當(dāng)然的主體權(quán)利。但人工智能并沒(méi)有明確的可確定歸類的群體,無(wú)法在人工智能認(rèn)知的意義上對(duì)人工智能進(jìn)行主體的界定,也就無(wú)法產(chǎn)生人工智能本土的法律問(wèn)題。這一消解侵蝕人類主體的方式會(huì)經(jīng)由人工智能對(duì)人類智能的介入而產(chǎn)生。雖然沒(méi)有能夠完全替代人類智能的人工智能,但在信息技術(shù)、基因編輯技術(shù)、人機(jī)交互技術(shù)、腦科學(xué)、認(rèn)知科學(xué)等多領(lǐng)域的共同作用下,人類現(xiàn)在已經(jīng)處在一個(gè)被技術(shù)包圍的境地,沒(méi)有物理意義上的人工智能對(duì)人類智能的替代機(jī)制,人類智能浸泡在技術(shù)空間的社會(huì)結(jié)構(gòu)已是事實(shí),一些主體因?yàn)榧夹g(shù)和資本的優(yōu)勢(shì)擁有構(gòu)建世界的可能力量,而更多的人類主體則在消極地接受技術(shù)的澆灌,因?yàn)榧夹g(shù)在主體性上價(jià)值的消解,由此必然帶來(lái)技術(shù)和資本優(yōu)勢(shì)不同的人類主體原來(lái)價(jià)值屬性的消解。相對(duì)于傳統(tǒng)社會(huì)中對(duì)某些群體的歧視性對(duì)待,人工智能間接影響的人類主體消解在最終意義上并沒(méi)有得到統(tǒng)一確認(rèn)的前提,因?yàn)榧夹g(shù)本身處在一個(gè)迭代沖動(dòng)之下,只有迭代才有價(jià)值,而迭代意味著快速的新生和死亡,穩(wěn)定的主體則意味著衰落和遺棄。
其次,這種屬性進(jìn)一步擴(kuò)大了人類社會(huì)的基本結(jié)構(gòu)的差距,羅爾斯式的正義結(jié)構(gòu)將受到嚴(yán)重沖擊。總體上來(lái)說(shuō),羅爾斯式的正義結(jié)構(gòu)是西方工業(yè)社會(huì)具有的特定產(chǎn)物,建立在自由主義基礎(chǔ)之上。自由主義對(duì)社會(huì)基本結(jié)構(gòu)的假定是一個(gè)成熟的理想市場(chǎng)、理性的市民社會(huì)以及民主制度相互協(xié)調(diào),在一個(gè)穩(wěn)定的互動(dòng)結(jié)構(gòu)下才能維持基本的正義結(jié)構(gòu)。對(duì)于理想的市場(chǎng)來(lái)說(shuō),需要市場(chǎng)參與者具有足夠的競(jìng)爭(zhēng)能力,并且滿足市場(chǎng)一直能夠保持自生自發(fā)秩序的演進(jìn)。但人工智能在結(jié)構(gòu)上依賴一個(gè)高度中心化的體系,通過(guò)數(shù)據(jù)計(jì)算中心對(duì)所有接入人工智能的要素進(jìn)行支配。這種支配結(jié)構(gòu)并不存在競(jìng)爭(zhēng)性而是簡(jiǎn)單的命令與服從問(wèn)題。技術(shù)哲學(xué)家芒福德將技術(shù)分為兩類,一類是“集權(quán)的單一技術(shù)”,指的是那些“基于科學(xué)之力和大量生產(chǎn),以復(fù)雜的,高度權(quán)力化的機(jī)器為中心,目的在于經(jīng)濟(jì)擴(kuò)張,物質(zhì)豐盈和軍事優(yōu)勢(shì),簡(jiǎn)言之,就是為了權(quán)力?!盵4]
這就改變了理想市場(chǎng)的存在基礎(chǔ),形成愈加明顯的技術(shù)官僚體系,在技術(shù)和資本的疊加下甚至具有明顯的軍事色彩。對(duì)于理性的市民社會(huì)來(lái)說(shuō),一個(gè)基本的以個(gè)體為基礎(chǔ)的前提必須滿足,即任一個(gè)體都具備通過(guò)自由的社會(huì)互動(dòng)獲得關(guān)于社會(huì)的知識(shí),并且能夠得到充分的政治上的實(shí)現(xiàn)。人工智能介入人類社會(huì)之后,隨著個(gè)體接近和利用人工智能能力的不同,個(gè)體獲得有關(guān)社會(huì)知識(shí)的能力也不相同,彼此之間進(jìn)行溝通和表達(dá)的能力也不相同。這種異質(zhì)性與布勞所說(shuō)的個(gè)體因?yàn)榉A賦和運(yùn)氣等因素導(dǎo)致的差異不同,因?yàn)榉A賦和運(yùn)氣等因素導(dǎo)致的差異并不能被有意識(shí)地控制,并通過(guò)技術(shù)方式在群體之間進(jìn)行目的性配制。而人工智能介入之后所形成的差異是后天技術(shù)和資本所帶來(lái)的結(jié)果,在中心化的支配下,個(gè)體被動(dòng)地分配在技術(shù)等級(jí)鏈條的不同位置,獲取信息和表達(dá)對(duì)世界的看法,都被技術(shù)等級(jí)鏈條所型塑,一旦個(gè)體獲得信息的行為可以被算法精確預(yù)測(cè),個(gè)體在認(rèn)知意義上的主體性也將被算法消解,公民社會(huì)的基礎(chǔ)也將在人工智能基礎(chǔ)之上受到徹底的摧毀。
最后,人工智能介入人類社會(huì),帶來(lái)人類社會(huì)基本價(jià)值觀念的轉(zhuǎn)變,改變公平正義的基本含義。對(duì)于現(xiàn)代法律來(lái)說(shuō),其存在正當(dāng)性的基礎(chǔ)是能夠滿足當(dāng)代倫理所假定的一系列基本價(jià)值,為每一個(gè)公民提供基本的存在性基礎(chǔ)。在文化、宗教、政治、主權(quán)等現(xiàn)實(shí)障礙之下,人工智能會(huì)因?yàn)槿祟惿鐣?huì)現(xiàn)有的社會(huì)結(jié)構(gòu)本身的限制而呈現(xiàn)為更強(qiáng)的差異,形成基于人工智能的人類支配關(guān)系,并且出現(xiàn)極化的社會(huì)結(jié)構(gòu),最終在一個(gè)日漸陡峭的高維中心化基礎(chǔ)上,形成嚴(yán)峻的不平等結(jié)構(gòu)、更加被控制的自由和更加被設(shè)定的正義。人工智能所具有的高維中心化特征不再具備原有假設(shè)基礎(chǔ),即每一個(gè)個(gè)體不再被看作完全獨(dú)立的個(gè)體,而是處在人工智能網(wǎng)絡(luò)不同位置的節(jié)點(diǎn),該節(jié)點(diǎn)處在技術(shù)等級(jí)鏈條的特定位置,并與現(xiàn)實(shí)社會(huì)中的政治、經(jīng)濟(jì)和文化資本相互糾纏強(qiáng)化。當(dāng)個(gè)體的先天價(jià)值不再看作來(lái)自天賦人權(quán),而是一個(gè)可以借助于現(xiàn)代技術(shù)改變的對(duì)象,先天價(jià)值的神圣性和不可剝奪、不可修改就隨之消解,取而代之的是在人工智能介入后的計(jì)算引導(dǎo)。
在該問(wèn)題上更多觀念認(rèn)為人類主體性不會(huì)變化,但無(wú)法解釋的是社會(huì)中不同個(gè)體借助于人工智能所獲得的權(quán)力和巨大的支配能力如何改變?nèi)祟愃哂械幕A(chǔ)要素,從而形成通用計(jì)算滲透、影響甚至決定的人類社會(huì)基礎(chǔ)。第一,對(duì)于自由來(lái)說(shuō),具體體現(xiàn)在意志自由上,即個(gè)體具有根據(jù)自己的意愿獲得信息、表達(dá)意愿、做出行動(dòng)的選擇空間,該選擇空間不受任何明確的目的性支配。如果個(gè)體的選擇空間被強(qiáng)制在人為的空間內(nèi),即意味著個(gè)體缺乏自由。這里又可以區(qū)分為主觀的和客觀的自由兩方面,在主觀意義上,任何選擇空間都可看做個(gè)體的自由。但在現(xiàn)代法治價(jià)值中,自由更多指的是客觀意義上的選擇空間。當(dāng)個(gè)體獲得信息的選擇空間被人工智能進(jìn)行計(jì)算之后予以分配,個(gè)體得到的是更加符合歷史上的個(gè)體需求意向的信息,將個(gè)體封閉在更加狹窄而人為的信息空間之中,從而形成更加隱蔽的信息選擇約束;在意愿表達(dá)上,人工智能通過(guò)去語(yǔ)境化的方式營(yíng)造純空間,個(gè)體的意愿表達(dá)在純空間內(nèi)可以得到自由的表達(dá),但是無(wú)法逾越人工智能所設(shè)定的語(yǔ)言邊界,一些詞匯被修辭為不能出現(xiàn)的對(duì)象,而人工智能所允許的詞匯被更加明顯地強(qiáng)化。其中更加強(qiáng)化的是人工智能通過(guò)情緒計(jì)算,可以全面而隱蔽地允許個(gè)體表達(dá)出自己的意愿,而該意愿是人工智能或者借助于人工智能的技術(shù)、資本和政治力量獲取自身更大利益所需要的形式自由。第二,公平價(jià)值從抽象的人格向具體的數(shù)字化人格轉(zhuǎn)化,形成可計(jì)算的公平價(jià)值,但計(jì)算的終極權(quán)威由抽象的道德權(quán)威轉(zhuǎn)化為具體的人工智能算法。從亞里士多德開始,對(duì)公平價(jià)值的認(rèn)識(shí)都交由道德判斷加以衡量。在道德領(lǐng)域中,公平價(jià)值無(wú)法以量化的方式給出標(biāo)準(zhǔn),而只能采取思辨方式認(rèn)為有關(guān)人格的核心價(jià)值不可以量化的標(biāo)準(zhǔn)衡量,更不能以具體的量化標(biāo)準(zhǔn)對(duì)不同的個(gè)體進(jìn)行公平價(jià)值上的區(qū)別對(duì)待。對(duì)于資本主義社會(huì)中愈來(lái)愈多以功利標(biāo)準(zhǔn)衡量公平正義等價(jià)值的現(xiàn)象,羅爾斯以“應(yīng)得”應(yīng)對(duì)天賦在道德上的挑戰(zhàn),同樣桑德?tīng)栆矃^(qū)別了個(gè)體在功利層面上的能力和道德上的應(yīng)得之間的區(qū)別。正是道德領(lǐng)域中堅(jiān)守這些基本價(jià)值的不可計(jì)算屬性,才能保持整個(gè)西方社會(huì)價(jià)值的基礎(chǔ)。隨著人工智能介入程度的深化,個(gè)體可計(jì)算的屬性更加明顯。從市場(chǎng)角度來(lái)說(shuō),個(gè)體的可計(jì)算屬性一直與個(gè)人財(cái)富密切相關(guān),但這一計(jì)算僅僅是個(gè)體眾多屬性的一種,在道德理論的強(qiáng)制下,個(gè)人人格的其他要素都不容許可計(jì)算屬性的侵入。與資本主義功利價(jià)值屬性不同,人工智能的基礎(chǔ)是通用計(jì)算,并不區(qū)別構(gòu)成個(gè)人形象的屬性中哪些是歸屬于不可計(jì)算的人格領(lǐng)域,還是歸屬于可計(jì)算的資本主義功利領(lǐng)域。因此,在人工智能領(lǐng)域,構(gòu)成個(gè)人形象的所有要素都能夠以可計(jì)算的標(biāo)準(zhǔn)加以衡量,無(wú)論是個(gè)體表面行動(dòng)的數(shù)字化特征,還是個(gè)體認(rèn)知層面的數(shù)字化特征,抑或是個(gè)體情感層面的數(shù)字化特征,人工智能都能通過(guò)通用計(jì)算以最接近的方式再現(xiàn)出來(lái),形成個(gè)體在人工智能黑箱中的數(shù)字化人格存在。如果說(shuō)最低級(jí)的人工智能與資本主義社會(huì)的功利觀念相銜接,高級(jí)的人工智能則可以接管個(gè)體的完整人格。人工智能在決策過(guò)程中產(chǎn)生的無(wú)意識(shí)的歧視會(huì)導(dǎo)致特定人群受到不公正的待遇[5]。在前述人工智能、資本、權(quán)力三者的相互強(qiáng)化下,被通用計(jì)算建構(gòu)起來(lái)的個(gè)體成為完整的可計(jì)算對(duì)象,根據(jù)可計(jì)算的數(shù)字化需要,個(gè)體被直接或者間接支配到相應(yīng)的社會(huì)位置,一個(gè)顛覆公平正義的基本結(jié)構(gòu)就全部出現(xiàn)。當(dāng)然這一理想型并不一定完全出現(xiàn),但人工智能愈來(lái)愈強(qiáng)大的計(jì)算能力對(duì)個(gè)體形象的入侵,人工智能、資本與權(quán)力三者的相互合作,重建人工智能時(shí)代的公平正義社會(huì)結(jié)構(gòu)以及技術(shù)結(jié)構(gòu),成為必須要面對(duì)和解決的問(wèn)題。
人工智能法律問(wèn)題的根源在理念層,沒(méi)有對(duì)理念層的正確認(rèn)識(shí),只是對(duì)人工智能應(yīng)用中的問(wèn)題進(jìn)行對(duì)策性的解決,無(wú)法從根本上解決本文所提出的問(wèn)題。人工智能在理念層所面臨的主體消解、社會(huì)結(jié)構(gòu)顛覆、公平正義觀念改變等問(wèn)題,需要法律理論對(duì)其做出回應(yīng)。
首先,主體消解的間接法律調(diào)整。在人工智能廣泛發(fā)展之前,個(gè)體與技術(shù)的關(guān)系有異化的傾向,但個(gè)體并不會(huì)在生活的各個(gè)領(lǐng)域被計(jì)算,更不會(huì)被精確地?cái)?shù)字化描寫。技術(shù)的這種模糊傾向使得我們面對(duì)人工智能的時(shí)候無(wú)法找到一個(gè)準(zhǔn)確的描述方式,尤其是在人文社科領(lǐng)域中缺乏對(duì)人工智能的道德化描述語(yǔ)言。對(duì)技術(shù)入侵人類社會(huì)最為敏銳的當(dāng)屬埃呂爾,他認(rèn)為:“如果我們把人放在這個(gè)社會(huì)中來(lái)考察,那么他只能被當(dāng)作一個(gè)陷在由對(duì)象、機(jī)器以及無(wú)數(shù)物質(zhì)構(gòu)成的世界中的存在物。技術(shù)世界不是把人,而是把物質(zhì)的東西放到首位,所以它不是,也不可能是一個(gè)真正的人本主義社會(huì)”[6]。馬爾庫(kù)塞也說(shuō):“科學(xué)—技術(shù)的合理性和操縱一起被溶解成一種新型的社會(huì)控制形式?!薄凹夹g(shù)已經(jīng)變成物化——處于最成熟和最優(yōu)形式的物化——的重要工具,個(gè)人的社會(huì)地位及其同他人的關(guān)系,看來(lái)不僅要受到客觀性質(zhì)和規(guī)律的支配,而且這些性質(zhì)和規(guī)律似乎也會(huì)喪失其神秘性和無(wú)法駕馭的特征;它們是作為科學(xué)合理性的可靠證明而出現(xiàn)的。這個(gè)世界勢(shì)必變成甚至把管理者也包括在內(nèi)的全面管理的材料,統(tǒng)治的羅網(wǎng)已經(jīng)變成理性自身的羅網(wǎng),這個(gè)社會(huì)最終也會(huì)被困在該羅網(wǎng)之中。理性的超越性方式看來(lái)會(huì)超越理性自身。”[7]在純粹認(rèn)知和哲學(xué)層面無(wú)法通過(guò)對(duì)人類認(rèn)知而加以控制,因此在這一層面沒(méi)有法律適用的空間,也即前文所解釋的不可法律性。從人類整體來(lái)說(shuō),人工智能或者其他技術(shù)都可以看作人類在廣義互動(dòng)中所產(chǎn)生的文化結(jié)果。在人工智能技術(shù)之前,所有的技術(shù)發(fā)展可以看作整個(gè)人類社會(huì)多個(gè)要素共同作用的結(jié)果[8]。這一共同作用并沒(méi)有一個(gè)明確的設(shè)計(jì)者和指引者,更加類似于達(dá)爾文的進(jìn)化模式。對(duì)于人工智能來(lái)說(shuō),即便是弱人工智能,已經(jīng)可以借助廣泛的信息收集和數(shù)字化描述能力形成關(guān)于人類形象的簡(jiǎn)單描述,這一描述準(zhǔn)確而有效,在與資本、權(quán)力結(jié)合之后,人工智能已經(jīng)具有明顯的壟斷能力。建立一個(gè)有著明確目的主體性干預(yù)機(jī)制就變得極為迫切:第一,必須建立一個(gè)既保持技術(shù)演化的開放性和競(jìng)爭(zhēng)性,又保持對(duì)人類主體性嚴(yán)格保護(hù)的觀念。這意味著不能采取封閉的目標(biāo)系統(tǒng),技術(shù)不能侵害最低限度的人類主體性尊嚴(yán),當(dāng)技術(shù)或者思想在涉及這一禁地的時(shí)候必須加以改變。第二,這一思想需要一個(gè)更強(qiáng)的知識(shí)競(jìng)爭(zhēng)結(jié)構(gòu),不允許任何名義的知識(shí)占據(jù)唯一的權(quán)威位置,更不允許人工智能技術(shù)所獲得的知識(shí)占據(jù)唯一的權(quán)威位置。當(dāng)一種知識(shí)具有借助人工智能獲得實(shí)質(zhì)上的唯一權(quán)威位置的時(shí)候,通過(guò)法律的手段對(duì)其進(jìn)行強(qiáng)制約束,以保持最低限度的強(qiáng)知識(shí)競(jìng)爭(zhēng)結(jié)構(gòu),保證人類知識(shí)上的多樣性不受損害。第三,通過(guò)立法方式約定人工智能絕對(duì)低于人類人格的法律資格,并在原初代碼中強(qiáng)制設(shè)定無(wú)條件不可傷害人類的倫理代碼。人工智能在信息的獲取和功利性的計(jì)算能力上高于人類智能的某些方面,只有從基礎(chǔ)上切斷能夠演化人工智能獨(dú)立人格的前提,才可以避免在人工智能越過(guò)技術(shù)奇點(diǎn)之后帶來(lái)不可逆轉(zhuǎn)的局面。第四,在人工智能技術(shù)領(lǐng)域設(shè)置明確的法律機(jī)制,其效力和地位應(yīng)當(dāng)不低于人類憲法。建立由科學(xué)、社科、人文、藝術(shù)等領(lǐng)域?qū)<医M成的人類倫理審查組織,通過(guò)組織化的干預(yù)最大程度避免人工智能在科學(xué)這一單一領(lǐng)域中的過(guò)度發(fā)展,通過(guò)社科、人文、藝術(shù)等領(lǐng)域多樣化價(jià)值的賦予,在保有人類自身價(jià)值的獨(dú)特性基礎(chǔ)上,保證人工智能與人類自身屬性的一致性,最低限度上能夠和人類智能共同和平互動(dòng)。
其次,通過(guò)強(qiáng)制性補(bǔ)貼措施,糾正人工智能帶來(lái)的中心化弊端。上海交通大學(xué)江曉原教授從宏觀上探討了人工智能特殊的技術(shù)與社會(huì)發(fā)展的關(guān)系,將人工智能的威脅分為三個(gè)層次:近期威脅是大批失業(yè)、軍事化;中期的威脅是人工智能的反叛和失控;遠(yuǎn)期的威脅是消解人類生存的根本意義,他認(rèn)為應(yīng)該以技術(shù)自治為主體結(jié)合政府管制對(duì)人工智能進(jìn)行引導(dǎo)和規(guī)范[5]。相對(duì)于其他技術(shù)形態(tài),人工智能的泛在性具有更強(qiáng)的中心化特征。在人工智能廣泛應(yīng)用的社會(huì)中,與人工智能結(jié)合程度的不同會(huì)導(dǎo)致占據(jù)資源的冪律分布更加陡峭,出現(xiàn)整體的社會(huì)差距。這種差距不僅僅是經(jīng)濟(jì)上的,更體現(xiàn)在社會(huì)的全方位差距。因?yàn)槿斯ぶ悄芡ㄟ^(guò)計(jì)算可以描述人類共同和社會(huì)的各個(gè)要素,因此也意味著人工智能技術(shù)與個(gè)體的接近不限于經(jīng)濟(jì)領(lǐng)域,而是形成全方位的描述,形成一個(gè)倒T型的社會(huì)結(jié)構(gòu),少數(shù)技術(shù)精英、政治精英和資本精英借助人工智能塑造一個(gè)更加符合精英需求的社會(huì),形成事實(shí)上更加陡峭的社會(huì)差距。解決這一問(wèn)題有兩個(gè)方案,一種是直接削減人工智能的應(yīng)用,這會(huì)導(dǎo)致一個(gè)國(guó)家的技術(shù)處于絕對(duì)劣勢(shì),是一個(gè)過(guò)于消極而不可取的方案。另一種是建立強(qiáng)制性的補(bǔ)償機(jī)制,將少數(shù)精英借助于人工智能而獲得整體壟斷性資源以一定的方式進(jìn)行再分配??梢哉J(rèn)為是一種人工智能稅收,在避免過(guò)大差距導(dǎo)致社會(huì)嚴(yán)重不公和社會(huì)基礎(chǔ)脆弱的同時(shí),為社會(huì)流動(dòng)提供充分的制度保障,近似于目前為止最為穩(wěn)定的橄欖型社會(huì)結(jié)構(gòu)或者金字塔形社會(huì)結(jié)構(gòu),激勵(lì)個(gè)體為獲得人工智能資源的獎(jiǎng)勵(lì)而努力競(jìng)爭(zhēng)。與人工智能之前的再分配體系不同的是,人工智能資源的再分配涉及少數(shù)精英借助于人工智能所獲得的整體性資源的再分配,包括資本、信息、數(shù)據(jù)、機(jī)會(huì)、知識(shí)等一系列人工智能強(qiáng)化壟斷的資源。通過(guò)這種強(qiáng)制性再分配機(jī)制,為整個(gè)人類社會(huì)在人工智能時(shí)代保持基本的社會(huì)結(jié)構(gòu)的一致性,避免人工智能的高維中心化帶來(lái)過(guò)度汲取導(dǎo)致的社會(huì)脆弱,以維護(hù)人類整體的社會(huì)價(jià)值。
具體包括:第一,將人工智能所帶來(lái)的各種資源集聚以法律方式予以公共化。在人工智能介入人類社會(huì)之后,技術(shù)、資本和權(quán)力精英能夠通過(guò)人工智能全面壟斷各種資源,這種壟斷形成對(duì)一般個(gè)體的全方位黑箱式覆蓋,只有將這種資源集聚以一定的方式加以公共化,轉(zhuǎn)變成具有更強(qiáng)公共目標(biāo)的資源,才能夠在根源上避免人工智能所帶來(lái)的社會(huì)結(jié)構(gòu)分化差距過(guò)大的問(wèn)題。第二,限制人工智能所帶來(lái)的各種資源集聚所具有的一般交換能力。在市場(chǎng)觀念中,資源的交換是最符合效率和正義的一種機(jī)制,但這種觀念強(qiáng)調(diào)所有市場(chǎng)主體能夠均等地獲取和利用各項(xiàng)資源。在人工智能高度介入人類社會(huì)之后,市場(chǎng)主體呈現(xiàn)為高度分化的個(gè)體,少數(shù)精英可以整體性地利用優(yōu)勢(shì)構(gòu)建隱性不平等社會(huì)結(jié)構(gòu)。如果不對(duì)交換加以限制,少數(shù)精英就可以利用人工智能的高維中心化優(yōu)勢(shì)獲取任何領(lǐng)域的交換優(yōu)勢(shì),進(jìn)而形成對(duì)社會(huì)各領(lǐng)域的全面剝奪。這種危機(jī)意識(shí)一般體現(xiàn)在對(duì)貨幣的一般交換能力的擔(dān)憂上,桑德?tīng)栒J(rèn)為“由市場(chǎng)驅(qū)動(dòng)的社會(huì)的缺陷之一,就是它會(huì)使利他心、慷慨、團(tuán)結(jié)和公民精神這些美德失去活力?!盵5]通過(guò)創(chuàng)制一定的社會(huì)形式限制交換的非道德因素,強(qiáng)化社會(huì)交換的一般道德屬性,更好地發(fā)揮人工智能介入人類社會(huì)之后所帶來(lái)的高維中心化優(yōu)勢(shì),同時(shí)通過(guò)間接的方式將人工智能帶來(lái)的資源集聚反饋整個(gè)社會(huì),以更好地維護(hù)社會(huì)基本結(jié)構(gòu)的穩(wěn)定和公平。第三,通過(guò)法律強(qiáng)制在人工智能中嵌入社會(huì)公平倫理代碼。人工智能發(fā)展到一定程度之后,機(jī)器智能存在著異于人類智能的可能,由此必將產(chǎn)生人工智能的倫理與人類倫理之間的潛在風(fēng)險(xiǎn)。盡管這一擔(dān)心并沒(méi)有明顯的現(xiàn)實(shí)依據(jù),但作為一種理念,從人類倫理所面臨的潛在風(fēng)險(xiǎn)著手防范,具有一定的倫理價(jià)值。當(dāng)機(jī)器智能具有完全獨(dú)立于人類倫理的狀況出現(xiàn)時(shí),再想對(duì)人工智能進(jìn)行倫理上的干涉就很難從底層代碼層面展開,所面臨的狀況就有失控的風(fēng)險(xiǎn)[9]。這種法律強(qiáng)制要求所有的人工智能在底層算法中必須加入社會(huì)公平倫理代碼,最低限度上不能出現(xiàn)以人本體的物化為對(duì)象,無(wú)論何種狀況都需要無(wú)條件地將人作為目的。這包括不能以任何具體的形式將人本體拆解為碎片化的物化價(jià)值,禁止將人本體的要素拆解之后以算法再造人本體的各種價(jià)值,尤其不能以經(jīng)濟(jì)價(jià)值為唯一的衡量標(biāo)準(zhǔn)。還包括不能在宏觀層面上將人本體作為算法可操作的對(duì)象,尤其要避免在腦科學(xué)、神經(jīng)行為學(xué)理論之下將個(gè)體或者群體的生物學(xué)、心理學(xué)特征當(dāng)作可控制的對(duì)象,以限制介入人工智能之后少數(shù)精英借助技術(shù)的力量大規(guī)??刂迫吮倔w,并獲取絕對(duì)的壟斷利益。
最后,在人工智能時(shí)代重塑公平正義觀念。在人類歷史上,公平正義觀念并沒(méi)有絕對(duì)的形象,也無(wú)法找到一個(gè)被歷史上各種社會(huì)形態(tài)均接受的單一標(biāo)準(zhǔn)。隨著資本的不斷擴(kuò)張,資本家對(duì)技術(shù)的要求也越來(lái)越高,這也進(jìn)一步刺激了技術(shù)的發(fā)展?!罢怯捎谫Y本主義生產(chǎn)方式的發(fā)展,科學(xué)技術(shù)的進(jìn)步與革新才會(huì)以前所未有的規(guī)模和速度向前發(fā)展,而資本又把技術(shù)統(tǒng)治作為實(shí)現(xiàn)自身增殖邏輯的工具和手段。”關(guān)于正義的討論中,大多關(guān)注正義的政治內(nèi)容,即認(rèn)為“在同每一個(gè)人的幸福有關(guān)的事情上,公平地對(duì)待他,衡量這種對(duì)待的唯一標(biāo)準(zhǔn)是考慮受者的感受和施者的能力”[11]。
對(duì)于正義觀念來(lái)說(shuō),核心是人的行為。這一傳統(tǒng)含義并沒(méi)有來(lái)自人工智能介入人類社會(huì)之后的內(nèi)容,只是針對(duì)具有相同理性能力的人類個(gè)體展開正義觀念的建構(gòu)。自近代以來(lái),正義觀念越來(lái)越多地被用來(lái)評(píng)價(jià)一種社會(huì)制度是否符合某一倫理準(zhǔn)則。羅爾斯認(rèn)為正義的對(duì)象是社會(huì)的基本結(jié)構(gòu),后來(lái)羅爾斯又認(rèn)識(shí)到需要解決基本社會(huì)結(jié)構(gòu)能否滿足重新論述的兩個(gè)正義原則[12]。這種正義所包含的自由平等前提受到阻礙的主要原因并不是技術(shù),而是來(lái)自社會(huì)資源分配和政治制度的不平等。在人工智能介入人類社會(huì)之后,技術(shù)因素急劇擴(kuò)大其影響,必須將技術(shù)因素納入公平正義內(nèi)部,內(nèi)部加以重塑以建構(gòu)人工智能法律問(wèn)題中的公平正義。傳統(tǒng)的公平正義觀念都是倫理屬性的,無(wú)論是個(gè)體之間公平相待,或者一種社會(huì)結(jié)構(gòu)能夠更好地分配機(jī)會(huì)和資源,都是基于倫理屬性的評(píng)價(jià)。人工智能則具有更強(qiáng)的技術(shù)色彩,如何在二者之間建立一種新的協(xié)調(diào)關(guān)系就影響到人工智能法律問(wèn)題下的公平正義。(1)擴(kuò)展公平正義的倫理范式,將人工智能的實(shí)質(zhì)性影響納入公平正義的固有屬性中。人工智能技術(shù)本身具有高維中心化的趨勢(shì),占據(jù)技術(shù)核心的精英群體具有更多的選擇自由,所占據(jù)的各項(xiàng)資源也更具有優(yōu)勢(shì),極容易形成社會(huì)位置的陡峭差距。只有設(shè)置最大限度最大差別原則,才能容納人工智能介入人類社會(huì)之后所帶來(lái)的法律問(wèn)題,從而建立起一種能夠滿足人工智能社會(huì)結(jié)構(gòu)的法律原則。因此,不能將來(lái)自于人類社會(huì)自身的差異性作為認(rèn)定最不利社會(huì)成員的唯一標(biāo)準(zhǔn),應(yīng)當(dāng)將能否獲得人工智能技術(shù)協(xié)助個(gè)體獲得綜合社會(huì)位置作為衡量標(biāo)準(zhǔn),以應(yīng)對(duì)人工智能介入人類社會(huì)所導(dǎo)致的社會(huì)位置差距極端擴(kuò)大。(2)構(gòu)建綜合倫理正義、制度正義、技術(shù)正義的人工智能的正義觀念綜合體。“正義是倫理學(xué)意義上的概念,無(wú)論東方,還是西方,正義概念首先是人們的一種道德觀念”[13]。倫理正義并不考慮具體的人的條件,只是沿襲柏拉圖的理念,將人與人、人與群體、群體與群體的理想關(guān)系描述出來(lái),作為社會(huì)和政治中人的社會(huì)的理想狀態(tài)。這一理想狀態(tài)無(wú)法解釋人工智能介入人類社會(huì)之后主體能力的差距陡然增大的事實(shí),必須將人工智能所帶來(lái)的個(gè)體能力在技術(shù)上的壟斷優(yōu)勢(shì)考慮進(jìn)來(lái),從有應(yīng)然的正義形態(tài)轉(zhuǎn)向人的能力的現(xiàn)實(shí)差距,對(duì)當(dāng)前利用人工智能能力不同的主體之間的關(guān)系作出新的分配框架。法律能夠成為現(xiàn)代社會(huì)的重要行動(dòng)指南,在區(qū)別于其他治理方式的優(yōu)勢(shì)上被認(rèn)為具有當(dāng)然的正義基因。富勒將倫理正義的價(jià)值劃分為義務(wù)的道德和愿望的道德兩部分[15]。法律通過(guò)權(quán)威性的制度體系體現(xiàn)道德的內(nèi)在要求,將人的行為從任意和神秘的領(lǐng)域轉(zhuǎn)化為可以把握和預(yù)期的理性王國(guó)。這一正義要素與技術(shù)理性具有內(nèi)在的一致性,但人工智能對(duì)主體的滲透和影響不能僅僅在技術(shù)內(nèi)部得到解決,更不能解決人類目的性和人工智能的非意向性之間的矛盾。真正的問(wèn)題是人工智能所具有的技術(shù)邏輯與基于理念的正義邏輯之間的不協(xié)調(diào)。當(dāng)少數(shù)精英借助人工智能獲得絕對(duì)的壟斷優(yōu)勢(shì)的時(shí)候,技術(shù)邏輯在簡(jiǎn)化、效率和目的等力量的推動(dòng)下更加忽視理念邏輯下的正義是否實(shí)現(xiàn),而僅僅關(guān)注技術(shù)的應(yīng)用能否實(shí)現(xiàn)預(yù)期的目的。以倫理正義為最終的理念歸屬,設(shè)置一個(gè)技術(shù)和理性絕對(duì)不能入侵的領(lǐng)域,并通過(guò)法律正義為人類社會(huì)關(guān)系提供底線保障,使得人類社會(huì)借助人工智能的技術(shù)正義普遍提高個(gè)體動(dòng)用資源的能力,形成一個(gè)自身充分發(fā)展的高級(jí)社會(huì)形態(tài),或者形成一個(gè)借助技術(shù)整體同步協(xié)調(diào)提升的社會(huì)進(jìn)步形態(tài),才可能是人工智能法律在法律哲學(xué)層面真正要逐步解決的問(wèn)題。
西昌學(xué)院學(xué)報(bào)(社會(huì)科學(xué)版)2018年4期