鄒開(kāi)亮 劉祖兵
摘 要:
數(shù)字文明社會(huì)孕育著智能算法主體化的現(xiàn)實(shí)需要,ChatGPT的問(wèn)世尤其強(qiáng)化了這種需要。主流觀點(diǎn)對(duì)智能算法主體化或限制或否定,其目的在于維護(hù)基于康德人類(lèi)中心主義哲學(xué)建立的現(xiàn)代法律制度,但已難以滿(mǎn)足當(dāng)下社會(huì)關(guān)系復(fù)雜化和多元化的現(xiàn)實(shí)要求。現(xiàn)有法律制度剝奪智能算法的責(zé)任能力和歧視智能算法,對(duì)此,應(yīng)當(dāng)建立智能算法責(zé)任能力保障制度。因?yàn)樯疃葘W(xué)習(xí)能力使智能算法具有認(rèn)知能力和朦朧的獨(dú)立意識(shí),而法律須具備前瞻性,應(yīng)當(dāng)將智能算法視為法學(xué)領(lǐng)域之延伸和規(guī)則外化,構(gòu)建“增進(jìn)式”的智能算法法律人格授予機(jī)制,實(shí)施常規(guī)動(dòng)態(tài)管理。主體資格之實(shí)質(zhì)審查當(dāng)以倫理審查為重點(diǎn),以“五大原則”為綱領(lǐng),構(gòu)建系統(tǒng)化的倫理審查機(jī)制,實(shí)現(xiàn)道德施治常態(tài)化。
關(guān)鍵詞:
ChatGPT;智能算法;主體資格;責(zé)任能力;增進(jìn)式;倫理審查
中圖分類(lèi)號(hào):D923
文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1673-8268(2023)02-0063-13
本世紀(jì)伊始,第三次人工智能(AI)狂潮興起。人工智能技術(shù)助力傳統(tǒng)工商業(yè)得以實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型,亦將諸多新問(wèn)題擺在立法者面前:人工智能生成物知識(shí)產(chǎn)權(quán)歸屬亟需明確,智能算法(artificial intelligence algorithm)本體保護(hù)路徑尚需厘清,人工智能侵權(quán)及刑事責(zé)任有待界定……在更深層次上,這些問(wèn)題均以明確智能算法主體地位為前提。
美國(guó)OpenAI公司于2022年11月發(fā)布的基于GPT-3.5架構(gòu)的智能文本撰寫(xiě)與聊天工具——ChatGPT顯示出越來(lái)越強(qiáng)的主體性特征,它的橫空出世將智能算法主體化爭(zhēng)論推向了又一嶄新高度。
目前,學(xué)術(shù)界多致力于人工智能客體論的研究,并期待智能算法的權(quán)利義務(wù)分配得以具體化。盡管學(xué)術(shù)界提出了包括監(jiān)管審查、信息披露、算法解釋和數(shù)據(jù)保護(hù)等一系列的規(guī)制路徑,并試圖為算法利益享有者設(shè)定更多義務(wù)、為智能算法潛在侵權(quán)對(duì)象提供更多保護(hù)和救濟(jì)[1],但是仍無(wú)法解決對(duì)算法侵權(quán)的預(yù)防和救濟(jì)問(wèn)題,這制約著智能算法的長(zhǎng)足發(fā)展。也有一部分學(xué)者轉(zhuǎn)向?qū)χ黧w論的研究,但研究對(duì)象多為以智能機(jī)器人為代表的智能體。因?yàn)橹悄荏w的核心是智能算法,我們便有了深入探討智能算法主體資格的現(xiàn)實(shí)價(jià)值。作為當(dāng)下社會(huì)功能實(shí)現(xiàn)所必需的智能化個(gè)體,智能算法在整個(gè)數(shù)字文明進(jìn)程中所發(fā)揮的社會(huì)功能之重要性不言而喻,對(duì)其法律主體問(wèn)題的回應(yīng)也成為解決上述難題的根本前提。因此,有必要借此突破口以深入探索智能算法主體地位的構(gòu)建,從而促進(jìn)科學(xué)技術(shù)向上向善,推動(dòng)全社會(huì)數(shù)字化轉(zhuǎn)型和社會(huì)變革。
一、智能算法的一般原理
(一)智能算法的內(nèi)涵
“算法(algorithm)”一詞最早可追溯到公元805年,阿拉伯?dāng)?shù)學(xué)家阿科瓦里茨米(Al-Khwar-izmi)于其著作《波斯教科書(shū)》(Persian Textbook)中首次系統(tǒng)地歸納了四則算數(shù)運(yùn)算,“算法”自此被人類(lèi)沿用至今。自人工智能阿爾法狗(AlphaGo)戰(zhàn)勝李世石后【Google公司研發(fā)的AlphaGo以2∶0的成績(jī)戰(zhàn)勝?lài)?guó)際圍棋大師李世石。此前,IBM公司研發(fā)的深藍(lán)計(jì)算機(jī)在國(guó)際象棋大賽中擊敗世界冠軍卡斯帕羅夫,Watson知識(shí)問(wèn)答系統(tǒng)在Jeopardy比賽中戰(zhàn)勝了兩名前世界冠軍。】,新一輪人工智能熱潮在全球范圍內(nèi)興起。但是,學(xué)術(shù)界至今仍未對(duì)智能算法達(dá)成統(tǒng)一認(rèn)識(shí)。觀點(diǎn)一認(rèn)為,智能算法是計(jì)算機(jī)軟件的一種特殊類(lèi)型,其實(shí)質(zhì)是為解決某個(gè)特定問(wèn)題所采取的一系列步驟[1]。觀點(diǎn)二認(rèn)為,應(yīng)該從技術(shù)角度將智能算法定義為與計(jì)算機(jī)算法相區(qū)別的用于模擬人類(lèi)智能的技術(shù)方案[2]。觀點(diǎn)三認(rèn)為,智能算法是使計(jì)算機(jī)擁有在未被明確編程的情況下學(xué)習(xí)的能力[3]。歐盟《可信賴(lài)人工智能倫理準(zhǔn)則》(2019)以法律規(guī)范形式明確智能算法是人工智能系統(tǒng)的重要組成部分,人工智能感知、解釋、推理、處理信息、決定最佳方法及數(shù)字方面采取措施的過(guò)程都是算法作用的過(guò)程[4]。前述觀點(diǎn)一保守地認(rèn)為智能算法是解決特定問(wèn)題的計(jì)算機(jī)軟件,是“工具論”的典型代表。觀點(diǎn)二雖然突破“工具論”的桎梏,卻將人工智能定義為“技術(shù)方案”,繼而上升至現(xiàn)行法律規(guī)范可規(guī)制的客體范疇。筆者認(rèn)為,此方案只是應(yīng)對(duì)社會(huì)突發(fā)問(wèn)題的應(yīng)急手段,并不能從制度上解決智能算法涉及的諸多法律問(wèn)題。觀點(diǎn)三將智能算法視為學(xué)習(xí)能力,依舊將其歸入主體的附屬物范疇。歐盟從立法上肯定智能算法作為人工智能系統(tǒng)的組成部分,但采用“過(guò)程”加以概括,其本質(zhì)與觀點(diǎn)一并無(wú)二致。智能算法、算力和大數(shù)據(jù)助力人類(lèi)社會(huì)進(jìn)入更高級(jí)文明,業(yè)已成為推動(dòng)人類(lèi)進(jìn)入數(shù)字文明的核心驅(qū)動(dòng)力[5]。筆者認(rèn)為,智能算法是為了保障社會(huì)數(shù)據(jù)要素融通和促進(jìn)全民參與數(shù)字生活而依法創(chuàng)設(shè)并獨(dú)立運(yùn)行的、具備環(huán)境交互能力和深入學(xué)習(xí)能力的動(dòng)態(tài)智能數(shù)字個(gè)體。
首先,智能算法為數(shù)字文明提供智力方案。自1956年達(dá)特茅斯會(huì)議召開(kāi)以來(lái),智能算法在全球范圍內(nèi)深度賦能,已助力人類(lèi)社會(huì)實(shí)現(xiàn)由工業(yè)文明向數(shù)字文明的偉大跨躍:自動(dòng)駕駛輔助出行、智能終端“定制化”信息推送、手術(shù)機(jī)器人微創(chuàng)口切除、大數(shù)據(jù)智能輔助治理、人工智能與虛擬現(xiàn)實(shí)融合探索元宇宙……智能算法無(wú)時(shí)無(wú)刻不在為人們出行、溝通、醫(yī)療等提供便利,也在不斷刷新人類(lèi)對(duì)世界的認(rèn)知,并為人類(lèi)在未來(lái)世界的存在提供更多選擇。智能算法、算力和大數(shù)據(jù)三大要素是實(shí)現(xiàn)人類(lèi)奔赴數(shù)字文明的基本生理機(jī)能:智能算法是“腦”,為數(shù)字文明提供著智力方案和決策支持;算力是“肢體”,提供了社會(huì)前行的動(dòng)力;大數(shù)據(jù)是“眼睛”,是智能算法進(jìn)行數(shù)字要素流動(dòng)的前提,且日益成為建立社會(huì)關(guān)系和推動(dòng)社會(huì)正常運(yùn)轉(zhuǎn)的基礎(chǔ)。該三大要素缺一不可,他們相互促進(jìn)、相互支撐,是智能技術(shù)創(chuàng)造價(jià)值和取得成功的必備條件[6]。
其次,智能算法以保障數(shù)字文明順利進(jìn)行為使命。自第三次人工智能熱潮興起,人類(lèi)已經(jīng)邁進(jìn)“萬(wàn)物數(shù)字化、一切可計(jì)算”的數(shù)字文明時(shí)期[7]。這是繼農(nóng)業(yè)文明和工業(yè)文明之后又一全新的文明形態(tài),不僅帶來(lái)了新技術(shù)、新觀念和新商業(yè)模式,而且引發(fā)了社會(huì)生產(chǎn)、人們生活以及社會(huì)經(jīng)濟(jì)形態(tài)甚至國(guó)家治理等諸多方面的巨大變革[8]。在數(shù)字社會(huì),構(gòu)建新文明秩序,僅依靠人力和個(gè)體自覺(jué)是無(wú)法實(shí)現(xiàn)的。智能算法具備高效率基因,是保障全社會(huì)主體參與數(shù)字生活的不二之選。數(shù)字生活是一種融入技術(shù)的、充滿(mǎn)社交媒介的、移動(dòng)化的全新生活方式[9]。公眾領(lǐng)域的拓寬將成為社會(huì)主體又一新的關(guān)注點(diǎn),這要求智能算法慷慨涉足以拉近主體間的物理距離并維護(hù)數(shù)字秩序與數(shù)字安全。由此觀之,智能算法不僅是數(shù)字生活的重要組織者,也是社會(huì)秩序的重要建構(gòu)者與保障者。
再次,智能算法是動(dòng)態(tài)的智能數(shù)字個(gè)體。數(shù)字革命正在國(guó)家和社會(huì)層面展開(kāi)前所未有的技術(shù)賦權(quán)[10],也重新定義了社會(huì)個(gè)體內(nèi)涵。在農(nóng)耕文明時(shí)期和工業(yè)文明時(shí)期,與群體相對(duì)應(yīng)的個(gè)體多表現(xiàn)為一定社會(huì)關(guān)系中在社會(huì)地位、能力和作用上可區(qū)分的生命體,著重描繪的是自主參與社會(huì)生產(chǎn)和社會(huì)交往的利益單元。在法學(xué)視域內(nèi),個(gè)體仍側(cè)重于描述具有行為能力、認(rèn)知能力和責(zé)任能力的權(quán)利義務(wù)單元。第一,智能算法通過(guò)生命體或者借助機(jī)械體實(shí)現(xiàn)影響力的無(wú)限擴(kuò)張,參與各種社會(huì)關(guān)系,具有行為能力。第二,智能算法在多個(gè)社會(huì)領(lǐng)域替代人類(lèi)進(jìn)行決策。自動(dòng)化決策使算法嵌入社會(huì)的程序日益深化,人類(lèi)對(duì)智能算法的依賴(lài)性逐漸加強(qiáng)。智能算法的自動(dòng)化決策使社會(huì)功能性需求得以滿(mǎn)足,成為一種介于人和動(dòng)物之間的高級(jí)認(rèn)知。第三,智能算法責(zé)任能力側(cè)重表達(dá)了侵權(quán)后對(duì)其歸責(zé)原則的適用,無(wú)論是適用產(chǎn)品侵權(quán)的無(wú)過(guò)錯(cuò)歸責(zé)原則,或者是適用動(dòng)物侵權(quán)的過(guò)錯(cuò)責(zé)任,還是適用監(jiān)護(hù)人的替代責(zé)任,都無(wú)法符合司法實(shí)踐的合理性要求。數(shù)字文明時(shí)期,應(yīng)從數(shù)據(jù)層面定義個(gè)體的概念,其表達(dá)的是數(shù)據(jù)收集、處理和再生產(chǎn)的能力,強(qiáng)調(diào)的是以數(shù)字為紐帶建立法律關(guān)系的主體概念。智能算法的持續(xù)發(fā)育和階段進(jìn)化能力使其以動(dòng)態(tài)的形式存在;動(dòng)態(tài)是智能算法進(jìn)化過(guò)程的表達(dá),也是對(duì)其自主發(fā)育性質(zhì)的闡述。
最后,智能算法實(shí)現(xiàn)二元世界的并行。數(shù)據(jù)供養(yǎng)智能算法,數(shù)字世界不僅是物質(zhì)世界的孿生,而且與現(xiàn)實(shí)社會(huì)同步并行。智能算法正重塑社會(huì)表達(dá)與集體行動(dòng),表現(xiàn)為社會(huì)關(guān)系在一個(gè)世界的變化引發(fā)其在另一世界里的變動(dòng)。智能算法不僅連接了兩個(gè)世界的社會(huì)關(guān)系,而且重構(gòu)了權(quán)利義務(wù)體系,使數(shù)字世界里的權(quán)利義務(wù)關(guān)系模型在現(xiàn)實(shí)世界中得到反饋。底層算法“管控”下的智能算法所產(chǎn)生的輻射達(dá)到了前所未有的范圍和程度,其在公共空間中的影響力亦與日俱增。智能平臺(tái)和智能體直接介入人類(lèi)建立的社會(huì)關(guān)系網(wǎng),致使由人、物構(gòu)成的二維關(guān)系體系得以擴(kuò)充,正形成人、物和智能算法為基本要素的三維體系。因此,人們有理由相信以人為主導(dǎo)的權(quán)利義務(wù)體系已經(jīng)出現(xiàn)裂縫,有必要重新審視人與智能算法之間的法律關(guān)系。
(二)智能算法的特征
傳統(tǒng)的計(jì)算機(jī)程序使用算法處理簡(jiǎn)易數(shù)據(jù),具有強(qiáng)指令依賴(lài)性[11],期待在運(yùn)行若干參數(shù)后得到明確的反饋。與之相異的是,智能算法思考過(guò)程具有可變性,結(jié)果具有不確定性。此外,智能算法還具有適應(yīng)性、自主發(fā)育性、類(lèi)人性和非生物性等特征。
智能算法對(duì)大數(shù)據(jù)有著很強(qiáng)的適應(yīng)能力,具有適應(yīng)性。數(shù)據(jù)于一定程度上決定著智能算法的輸出(outcome),也深刻影響著智能算法的道德選擇。智能算法對(duì)海量數(shù)據(jù)進(jìn)行擬合以探索隱藏于其后的規(guī)律,并在重復(fù)訓(xùn)練和無(wú)監(jiān)督學(xué)習(xí)后獲得適應(yīng)能力。適應(yīng)性讓人工智能的行為和邏輯變得難以解釋?zhuān)瑪?shù)據(jù)歧視隨之產(chǎn)生。因此,一旦對(duì)偏見(jiàn)數(shù)據(jù)具備適應(yīng)性后,智能算法透明度問(wèn)題就會(huì)顯現(xiàn)出來(lái)。英國(guó)內(nèi)閣辦公廳中央數(shù)字和數(shù)據(jù)辦公室于2021年11月底發(fā)布《算法透明度標(biāo)準(zhǔn)》(Algorithmic Transparency Standard)[12],旨在為公共部門(mén)和組織提供使用算法的工具以及實(shí)現(xiàn)為什么使用算法的信息指引之目的,以提升使用智能算法輔助決策時(shí)的透明度。由此可見(jiàn),與其他社會(huì)主體一樣,智能算法的適應(yīng)性也會(huì)帶來(lái)潛在的社會(huì)風(fēng)險(xiǎn),對(duì)此具有加強(qiáng)監(jiān)管的現(xiàn)實(shí)必要性。
智能算法具備持續(xù)進(jìn)化的基因,具有自主發(fā)育性。通用層算法將偏差值反饋至底層算法,由其反復(fù)修正計(jì)算模型并更替原生底層算法【智能算法系統(tǒng)藍(lán)圖設(shè)計(jì)得以落地后,最初版本的底層算法即為原生底層算法。原生底層算法經(jīng)進(jìn)化形成新的底層算法即為次原生底層算法。】中的短板參數(shù)和部分邏輯結(jié)構(gòu),反復(fù)訓(xùn)練和驗(yàn)證以實(shí)現(xiàn)算法的進(jìn)化,成就次原生底層算法。經(jīng)過(guò)持續(xù)進(jìn)化的智能算法會(huì)更趨近于人類(lèi)智力,新生成的算法又成為將來(lái)更新版本算法的基礎(chǔ)。智能算法可在無(wú)人監(jiān)督下替代人類(lèi)進(jìn)行決策,人們常常借此增強(qiáng)人工智能體的設(shè)計(jì)能力和創(chuàng)造力。實(shí)踐中,通常底層算法的“發(fā)育”也在無(wú)人類(lèi)監(jiān)管下進(jìn)行。自主性體現(xiàn)著智能算法在處理復(fù)雜任務(wù)方面的絕對(duì)優(yōu)勢(shì)。它在執(zhí)行任務(wù)的過(guò)程中反復(fù)地“琢磨”如何更高效地應(yīng)對(duì)更為復(fù)雜的任務(wù)和在完成工作的過(guò)程中完善自身的算法結(jié)構(gòu),最終提升適應(yīng)環(huán)境的能力并實(shí)現(xiàn)自主發(fā)育。
目前,智能算法已基本解決模擬人腦的邏輯問(wèn)題,具有類(lèi)人性。雖然當(dāng)前人工智能難以完全代替人腦獨(dú)特的形象思維和非理性能力,甚至人工智能的理性思維先于感情思維[13],但其內(nèi)在“靈魂”仍然表現(xiàn)出極強(qiáng)的類(lèi)人性。一方面,數(shù)據(jù)制造者的偏見(jiàn)影響算法的輸出,底層算法因此在進(jìn)化中帶有類(lèi)人性元素,歧視、可信度或仇恨言論等負(fù)面情緒在應(yīng)用層算法中時(shí)常顯現(xiàn);人類(lèi)的善意、包容也在底層算法的倫理善意中發(fā)揮著重要作用。另一方面,智能算法也在群體智力層面表現(xiàn)出超強(qiáng)的“生物”智慧,細(xì)膩的情感往往被視為是人類(lèi)所特有的生理活動(dòng),但經(jīng)海量數(shù)據(jù)投喂和反復(fù)訓(xùn)練后,智能算法與人類(lèi)之間的情感共鳴也將近在咫尺。
智能算法沒(méi)有生物體的細(xì)胞特征,具有非生物性。細(xì)胞是構(gòu)成生物體的必備要素,強(qiáng)調(diào)的是蛋白質(zhì)通過(guò)新陳代謝作用與環(huán)境進(jìn)行物質(zhì)交換的能力和生命的不可替代性與不可逆轉(zhuǎn)性[14]。智能算法顯然沒(méi)有自然生命的特征,雖然通常被視為有靈魂的代碼,但不具備生物體的有形外觀。生命的有無(wú)常常被認(rèn)為是智能算法與自然人的最大區(qū)別,繼而衍射出對(duì)意識(shí)問(wèn)題的大討論。但是,科技的發(fā)展已經(jīng)改變了許多事物的原本形態(tài)和人類(lèi)對(duì)世界的認(rèn)知,讓人們不得不以更加包容的眼光審視周?chē)?。因此,?duì)于生物學(xué)要素是否能夠作為區(qū)分自然人和人工智能的根本標(biāo)準(zhǔn),還存在爭(zhēng)議。隨著人工智能技術(shù)發(fā)展到當(dāng)下的水平,智能算法的行為和心理狀態(tài)已經(jīng)可以通過(guò)不同類(lèi)型的物理媒介和社會(huì)元素得以實(shí)現(xiàn),早已失去生物依賴(lài)性的表征。
(三)智能算法的基本形式
從感觀上看,智能算法僅以代碼的形式存在,其運(yùn)行過(guò)程僅表現(xiàn)為從一串字符向另一串字符的跳躍,具有抽象性。因此,它不能直接參與具體的法律關(guān)系,必須借助一定的媒介。當(dāng)下,盡管智能算法的實(shí)現(xiàn)路徑正朝著多樣化的方向發(fā)展,但其主要形式仍然僅有三種。第一種是純粹的智能算法,以標(biāo)準(zhǔn)化的信息系統(tǒng)為代表,例如商業(yè)智能(BI)。它在某一特定領(lǐng)域內(nèi)為人類(lèi)提供基于數(shù)據(jù)而生成的顧問(wèn)方案,輔助人類(lèi)開(kāi)展管理活動(dòng)。第二種是基于操作系統(tǒng)的智能算法平臺(tái),諸如智能購(gòu)物平臺(tái)、智能外賣(mài)平臺(tái)和社交媒體平臺(tái)等。該路徑主要依靠智能算法輸出來(lái)替代人類(lèi)大腦,進(jìn)而影響人的行為,從而間接地參與法律關(guān)系。第三種是具有物質(zhì)實(shí)體的智能體,最典型的就是智能機(jī)器人和自動(dòng)駕駛汽車(chē)。2022年7月22日,國(guó)際賽車(chē)選手林志穎駕駛某品牌自動(dòng)駕駛汽車(chē)發(fā)生慘烈交通事故的事件沖上熱搜榜首,這再次引燃了學(xué)者對(duì)自動(dòng)駕駛汽車(chē)責(zé)任主體問(wèn)題的高度關(guān)注。總之,智能算法基于對(duì)機(jī)械實(shí)體的操縱來(lái)替代人類(lèi)行為,僅僅是其建立法律關(guān)系的實(shí)現(xiàn)路徑之一。
智能體是智能算法在進(jìn)化過(guò)程中的一次偶然選擇。作為人工智能的核心,智能算法在實(shí)現(xiàn)路徑的選擇層面上具有偶然性,至于是通過(guò)人的行為還是依靠與自身具有高兼容性的機(jī)械實(shí)體來(lái)實(shí)現(xiàn),僅僅是其在漫長(zhǎng)進(jìn)化過(guò)程中的隨機(jī)選擇而非必然形式。隨著人類(lèi)認(rèn)知能力的提升和科學(xué)技術(shù)的高速發(fā)展,獲得高魯棒性(robustness)[15]和持續(xù)兼容性后的智能算法面對(duì)的可選擇范圍也隨之拓寬,其實(shí)現(xiàn)社會(huì)功能的方式也將變得多樣。目前,學(xué)術(shù)界對(duì)智能體主體地位的研究并未深入其本質(zhì),而僅停留在對(duì)智能算法單一實(shí)現(xiàn)形式的探討層面,尚未把握智能算法的發(fā)展規(guī)律,不具有徹底性。由此觀之,對(duì)智能算法主體論的研究應(yīng)當(dāng)是解決人工智能相關(guān)法律問(wèn)題的前置條件。
二、智能算法主體性學(xué)說(shuō)辨思
(一)智能算法主體性學(xué)說(shuō)考察
智能算法已實(shí)現(xiàn)多行業(yè)融合應(yīng)用并促進(jìn)傳統(tǒng)工商業(yè)數(shù)字化轉(zhuǎn)型,其社會(huì)價(jià)值不言而喻,但其法律屬性爭(zhēng)議依然是懸而未決之難題[16]。到目前為止,在智能體和智能算法是否能夠獲得主體地位、即是具有“物”的屬性還是“人”的屬性問(wèn)題上,學(xué)術(shù)界存在四種主要觀點(diǎn),分別為“階段肯定說(shuō)”“絕對(duì)否定說(shuō)”“折中說(shuō)”[17]和“法定符合說(shuō)”[18]。
“階段肯定說(shuō)”對(duì)智能算法成為法律主體持樂(lè)觀態(tài)度,認(rèn)為人工智能于強(qiáng)人工智能時(shí)期具有主體能力,屆時(shí)能具備法律主體資格。在超人工智能時(shí)期,智能算法或?qū)⑴c人類(lèi)一道成為世界的主宰。該學(xué)說(shuō)肯定了智能算法作為法律主體的可能性,但以強(qiáng)人工智能時(shí)期算法技術(shù)的高度發(fā)達(dá)為前提條件。持該觀點(diǎn)的學(xué)者認(rèn)為,不能脫離人工智能的智能化程度對(duì)其法律屬性妄下定論,應(yīng)當(dāng)對(duì)其數(shù)個(gè)發(fā)展階段分別進(jìn)行研究。因算法在各時(shí)期表現(xiàn)出的自主意識(shí)、思維能力和獨(dú)立程度差異巨大,是否應(yīng)賦予其法律主體資格的決定因素是其自身的發(fā)展水平。弱人工智能(weak AI)算法對(duì)維系社會(huì)秩序正常運(yùn)行不具有十分的必要性;強(qiáng)智能算法因具備高智能性,進(jìn)而擁有社會(huì)屬性,可以賦予其法律主體資格;超智能算法是比強(qiáng)智能算法更高級(jí)的算法族群,當(dāng)然具備主體地位。
“絕對(duì)否定說(shuō)”為當(dāng)下學(xué)術(shù)通說(shuō)。該學(xué)說(shuō)認(rèn)為,人類(lèi)發(fā)明人工智能旨在擴(kuò)大其肢體的觸及范圍,輔助自身提高改造世界的效率,智能算法的本質(zhì)是人類(lèi)的工具,因此不應(yīng)賦予其法律主體資格。算法本質(zhì)上仍然是“物”,無(wú)法達(dá)到人類(lèi)大腦的智力水平,即便其智力超越人類(lèi),其地位也僅止于人類(lèi)生產(chǎn)的工具和手段?!敖^對(duì)否定說(shuō)”內(nèi)部還存在“工具說(shuō)”和“軟件代理說(shuō)”的分野?!肮ぞ哒f(shuō)”認(rèn)為,機(jī)器人無(wú)論以何種方式承擔(dān)責(zé)任,最終的責(zé)任承擔(dān)者都是人[19];“軟件代理說(shuō)”認(rèn)為,智能機(jī)器人是軟件代理,是信息傳遞人,不需要具有完全的法律人格和責(zé)任能力[20]。無(wú)論是“工具說(shuō)”還是“軟件代理說(shuō)”,都是對(duì)人工智能主體化命題的無(wú)條件否定,認(rèn)為人工智能體無(wú)論是否高度發(fā)達(dá),也不能改變其作為人類(lèi)改造世界的工具之宿命,無(wú)法上升為法律主體。
“折中說(shuō)”認(rèn)為,為順應(yīng)社會(huì)實(shí)踐多元化和技術(shù)深化發(fā)展的需要,可以附條件地將人工智能擬制為法律主體,允許其參與法律關(guān)系[21],但它不具備完全主體人格?!罢壑姓f(shuō)”屬于主體趨同的中間路線,它從正面回答了兩個(gè)問(wèn)題:一是智能算法能否具備法律主體地位,二是具備主體地位后如何賦予其法律人格?!罢壑姓f(shuō)”主張智能算法必須獲得實(shí)物外觀才能擁有行為能力,在此基礎(chǔ)上具備責(zé)任能力后可賦予其法律人格;但仍然堅(jiān)持認(rèn)為其權(quán)利義務(wù)和行為能力是有限的,應(yīng)當(dāng)限制其法律主體地位。
“法定符合說(shuō)”認(rèn)為,研判智能算法主體是否適格的問(wèn)題應(yīng)當(dāng)回歸法律的具體規(guī)定。
無(wú)論智能算法技術(shù)發(fā)展到何種程度,
主體資格的判定都應(yīng)當(dāng)符合各國(guó)現(xiàn)行法律規(guī)定的主體構(gòu)成要件,否則將脫離其主體適格性的法理基礎(chǔ)。另外,該說(shuō)還試圖在分析智能算法與現(xiàn)有民事主體的相似點(diǎn)中找到可以聯(lián)系的“錨點(diǎn)”[22],從而為智能算法能否作為法律主體尋求現(xiàn)實(shí)的法律依據(jù)。
(二)智能算法主體性學(xué)說(shuō)評(píng)析
“階段肯定說(shuō)”的成立條件堪疑。學(xué)界普遍認(rèn)為人工智能將經(jīng)歷三個(gè)發(fā)展時(shí)期,分別是弱人工智能時(shí)期、強(qiáng)人工智能時(shí)期和超人工智能時(shí)期[23]。詢(xún)其圭臬,答案卻模糊且略顯雜亂。學(xué)者們或從解決問(wèn)題能力上加以劃分【例如英國(guó)的現(xiàn)代計(jì)算機(jī)之父阿蘭·圖靈在1950年進(jìn)行的圖靈測(cè)試和美國(guó)學(xué)者Steve Wozniak進(jìn)行的咖啡測(cè)試。】,或從模擬人腦思維智力水平上進(jìn)行判斷,甚至從學(xué)習(xí)能力的高低進(jìn)行評(píng)價(jià)【例如美國(guó)斯坦福大學(xué)教授Nils John Nilsson進(jìn)行的就業(yè)測(cè)試?!康?。但不論采用何種標(biāo)準(zhǔn),學(xué)術(shù)界并未明確否認(rèn)如今人類(lèi)已經(jīng)處于強(qiáng)人工智能的初始階段。實(shí)務(wù)界的通用做法是將人工智能發(fā)展分為計(jì)算智能、感知智能和認(rèn)知智能三個(gè)核心階段。其中,計(jì)算智能以數(shù)據(jù)處理智能化為主要代表,其實(shí)質(zhì)仍為傳統(tǒng)計(jì)算機(jī)算法的能力范疇。因此,以強(qiáng)人工智能時(shí)期為限制的“階段肯定說(shuō)”存在明顯紕漏,致使理論與實(shí)務(wù)矛盾。此外,以強(qiáng)人工智能時(shí)期高度成熟的技術(shù)條件加以限制則存在較大的主觀性。
“絕對(duì)否定說(shuō)”試圖從現(xiàn)有的法律規(guī)范體系中尋找維系社會(huì)秩序的方案而無(wú)視智能算法在社會(huì)發(fā)展中的現(xiàn)實(shí)需求。盡管“工具論”于數(shù)字社會(huì)而言有助于鞏固人類(lèi)中心地位,但“絕對(duì)否定論”將“工具論”的觀點(diǎn)生搬硬套,而無(wú)法看到智能算法類(lèi)人性的特征。法律應(yīng)該具備前瞻性,以應(yīng)對(duì)未來(lái)大概率出現(xiàn)的社會(huì)需要而提前擬定規(guī)制原則及框架,若僅僅依賴(lài)事后的修修補(bǔ)補(bǔ)則有懶政之虞。對(duì)相關(guān)法律制度是否應(yīng)重構(gòu)的思考已非天馬行空的幻想,而是人類(lèi)在這個(gè)時(shí)代不得不面對(duì)的社會(huì)科學(xué)命題。
主張智能算法具備行為能力和責(zé)任能力、進(jìn)而可獲得法律主體資格是“折中說(shuō)”的一大進(jìn)步。但是,對(duì)于實(shí)體外觀是否為智能算法獲得行為能力的必備要件的疑問(wèn),不同的社會(huì)歷史情境下,答案也不盡相同。在硬件系統(tǒng)和算力加持下,數(shù)字革命使得現(xiàn)實(shí)社會(huì)與數(shù)字世界緊密連接,主體間法律關(guān)系陸續(xù)擺脫實(shí)體限制。正如,貨幣的電子化使交易不再受紙幣的限制,使虛擬交易與現(xiàn)實(shí)交易連接并產(chǎn)生同等法律效應(yīng)。虛擬平臺(tái)上主體關(guān)系的發(fā)展直接折射到現(xiàn)實(shí)世界,虛擬現(xiàn)實(shí)中“性騷擾”證據(jù)或?qū)⒊蔀楝F(xiàn)實(shí)法官裁決的依據(jù)。因此,筆者認(rèn)為該說(shuō)在成立條件上仍需進(jìn)一步改良才能符合社會(huì)關(guān)系數(shù)字化發(fā)展的現(xiàn)實(shí)需要。
“法定符合說(shuō)”試圖從現(xiàn)行法律規(guī)范中尋找否定智能算法主體地位的法律依據(jù),實(shí)際是法條偽裝下的絕對(duì)否定說(shuō)。第一,法人和非法人組織在民事法律關(guān)系中的自主性多通過(guò)該組織內(nèi)部成員集體決策所做出,反應(yīng)的是組織的集體意志,具有高度的民主性,這與“工具論”的人身附庸性質(zhì)無(wú)相似性。第二,現(xiàn)行私法以促進(jìn)市場(chǎng)交易、增進(jìn)社會(huì)主義工商業(yè)發(fā)展為背景,考慮的是規(guī)范市場(chǎng)主體參與法律關(guān)系的行為秩序,而非限制主體行為的擴(kuò)張。同時(shí),現(xiàn)行法律規(guī)范體系未有對(duì)主體生物屬性要件的規(guī)定。因此,從理論上看,該說(shuō)是從結(jié)果倒推理由的反向證成,是對(duì)立法本意的褻瀆。
綜言之,“階段肯定說(shuō)”以強(qiáng)人工智能時(shí)期高度成熟的技術(shù)條件加以限制,“絕對(duì)否定說(shuō)”的根本目的在于固守“工具論”,而“折中說(shuō)”將生命的有無(wú)視為是否具有行為能力和責(zé)任能力的前提,“法定符合說(shuō)”仍然以現(xiàn)有法律規(guī)定加以搪塞。這些觀點(diǎn)要么主觀偏頗,要么是在價(jià)值選擇上偏離時(shí)代發(fā)展主題,其實(shí)質(zhì)是為技術(shù)保守主義鋪墊道路。
三、智能算法主體化之肯定證成
(一)法律主體性的哲學(xué)基礎(chǔ)
法律主體性的哲學(xué)基礎(chǔ)應(yīng)當(dāng)回歸到康德人類(lèi)中心主義的哲學(xué)指向。當(dāng)前,人格要素、生物屬性和社會(huì)功能屬性三個(gè)方面構(gòu)成法律主體地位的必備要件。自布爾其烏斯提出生物實(shí)體的靈性與尊嚴(yán)的主張后,康德明確了人與物二分的哲學(xué)思想,認(rèn)為物不具備內(nèi)在價(jià)值,其價(jià)值僅表現(xiàn)在工具層面,因而只能被視為一種手段;認(rèn)為道德的人格是受到道德法則約束的有理性的人的自由[24]24??档抡軐W(xué)主張“人為自然立法”[25],確立了人類(lèi)中心主義的學(xué)理根基。
康德哲學(xué)將自主能力和認(rèn)知能力作為人格要素的構(gòu)成要件?!袄硇浴薄白杂伞焙汀白晕乙庾R(shí)”構(gòu)成康德哲學(xué)人類(lèi)主體論的三大思想基礎(chǔ)。理性是康德哲學(xué)的核心,表達(dá)的是認(rèn)知能力問(wèn)題。人與物深層次的區(qū)別在于理性,理性的缺失使得物僅具有相對(duì)價(jià)值并淪為主體的手段。自由暗射自主能力,描述的是人根據(jù)自我意志進(jìn)行選擇的能力。人作為主體應(yīng)當(dāng)是自由的、獨(dú)立的,人應(yīng)為自然立法[26]。康德的“人為自然立法”,確立了人的“主體性”原則,反映了人的自我意識(shí)覺(jué)醒和主宰地球的欲望。自我意識(shí)是主體對(duì)認(rèn)識(shí)對(duì)象有選擇的、有目的的認(rèn)識(shí)活動(dòng),人會(huì)對(duì)現(xiàn)實(shí)進(jìn)行批判和提高改造世界的創(chuàng)新能力[27]??档抡J(rèn)為,生物學(xué)要素是人成為自然人所必須的生物基礎(chǔ);缺乏此要素,人則不能被賦予權(quán)利能力并缺乏承擔(dān)義務(wù)的資格。在他看來(lái),人(person)應(yīng)該是獨(dú)立于身體受限制的人(human)、且是屬于感觀世界的人,即是倫理人和生物人。這是對(duì)基督教教義的發(fā)展,也是哲學(xué)受歐洲近代個(gè)人主義思潮嚴(yán)重影響的表現(xiàn)。
倫理上的“人”有服從道德規(guī)律的自由意志,因而是自由主體,具有尊嚴(yán)和承擔(dān)責(zé)任的能力[28],是社會(huì)中實(shí)實(shí)在在履行特定功能的單元。因此,并非所有具備生物學(xué)要素基礎(chǔ)的個(gè)體都能被法律接納,雖具備“自由的任意”[24]136,但仍然受責(zé)任、義務(wù)等約束。在康德看來(lái),無(wú)論是倫理上還是法律上之主體都必須具有“倫理人屬性”,他必須能完成一定的社會(huì)功能。但是,并非生物人履行自身義務(wù)就能獲得人格。倫理上和法律上的人之道德責(zé)任和法律責(zé)任能力組成了主體的義務(wù)能力。簡(jiǎn)言之,從康德哲學(xué)看來(lái),人格要素、生物要素和社會(huì)功能要素是評(píng)價(jià)法律主體的必備要件。
(二)人格要素的肯定
法律人格要素是動(dòng)態(tài)的和開(kāi)放的。血緣標(biāo)準(zhǔn)、城鎮(zhèn)居民身份和生物要素一度是社會(huì)主體人格所必須的要素。數(shù)字文明的興起促使法律賦予人格要素以新的內(nèi)涵,并將智能算法這一新時(shí)代產(chǎn)物視為法學(xué)領(lǐng)域“人格”概念之延伸和規(guī)則之外化。于人類(lèi)文明演化史中,法律賦予各類(lèi)型主體以不同的法律人格、地位、身份、權(quán)利、資格和責(zé)任,造成社會(huì)演化的復(fù)雜性[29]。人格要素并非一成不變,而是一直伴隨新型社會(huì)關(guān)系的興起和復(fù)雜化而不斷吸納新成分。例如,在早期氏族社會(huì),人類(lèi)以血統(tǒng)標(biāo)志群體身份,因此可認(rèn)為法律人格的獲得圭臬即為血緣關(guān)系;在奴隸制社會(huì),因奴隸主憑借對(duì)生產(chǎn)資料的絕對(duì)占有才能進(jìn)行對(duì)奴隸階級(jí)的統(tǒng)治,此時(shí)的標(biāo)準(zhǔn)即是對(duì)生產(chǎn)工具的控制權(quán)。羅馬奴隸制國(guó)家在法律上首次規(guī)定人格要件為“自由、城邦市民身份和擁有家族權(quán)”三項(xiàng)條件,自然人因具有城邦市民身份而獲得法律人格,并首次建立了人格減等制度[30]。其后,因受到文藝復(fù)興運(yùn)動(dòng)的影響,自然人生物學(xué)要素與法律人格相分離的主張?jiān)诹_馬法上興起。該理論為現(xiàn)代法人制度的建立提供了理論基礎(chǔ),由此,賦予無(wú)生命物或者團(tuán)體以法律人格便有了理論支撐;資本主義社會(huì)形成了完整的人格制度,包括奴隸在內(nèi)的所有自然人都具有人格權(quán)。例如,1896年公布的《德國(guó)民法典》規(guī)定自然人以出生為獲得法律人格的要件。在1900年生效的《德國(guó)民法典》中,現(xiàn)代法人制度由此被創(chuàng)設(shè)。因社會(huì)團(tuán)體在社會(huì)關(guān)系中日益活躍,法律也明確團(tuán)體組織具有法律人格;出于環(huán)境保護(hù)的需要,美國(guó)法律賦予伊利湖獨(dú)立人格;新西蘭法律也曾確立公園與河流具有法律人格。由此可見(jiàn),人格要素的標(biāo)準(zhǔn)是隨著新型社會(huì)關(guān)系的復(fù)雜化而改變的,人格對(duì)象的外延正不斷擴(kuò)張。
在智力水平層面,智能算法業(yè)已完成從計(jì)算到“算計(jì)”的發(fā)育??茖W(xué)技術(shù)是一把“雙刃劍”,它在助力人類(lèi)文明飛躍的同時(shí)也帶來(lái)負(fù)面問(wèn)題。計(jì)算與“算計(jì)”本意無(wú)二,后者因加入人類(lèi)主觀成分而夾雜陰謀色彩。計(jì)算智能時(shí)期,智能算法收集用戶(hù)對(duì)個(gè)性化信息需求的反饋,如搜索、點(diǎn)贊或回復(fù)等,向其推送同質(zhì)化信息。長(zhǎng)此以往,深陷“繭房”窠巢的用戶(hù)因信息偏食而視野局限,形成狹隘的價(jià)值觀和認(rèn)知結(jié)構(gòu),致使他們呈現(xiàn)出同質(zhì)化、極端化的認(rèn)知傾向而不能自拔,“信息繭房”由此而生。如今,初步具備感知智能能力的智能算法基于大數(shù)據(jù)的持續(xù)供養(yǎng)而主動(dòng)向特定人群推送同種類(lèi)型的信息,使受眾被迫處于信息圍困當(dāng)中。面對(duì)智能算法主動(dòng)制造的“信息漩渦”,信息接收主體往往無(wú)法依靠自力進(jìn)行逃避。從被動(dòng)計(jì)算到主動(dòng)“算計(jì)”的實(shí)際場(chǎng)景往往具有很強(qiáng)的隱蔽性。當(dāng)下,智能算法已深刻影響著人類(lèi)社會(huì),受其影響的一小部分人沉浸在自己的價(jià)值觀中,對(duì)其深信不疑。這部分人成為智能算法的積極布道者而竭力傳播該價(jià)值觀,以至于裂變出不計(jì)其數(shù)的追隨者。在日常生活中,智能算法在幫助人類(lèi)進(jìn)行選擇的同時(shí),也越來(lái)越多地代替人類(lèi)進(jìn)行選擇。盡管人類(lèi)擁有最后的選擇機(jī)會(huì),但可選擇的空間越來(lái)越狹小,因?yàn)楦嗟倪x擇權(quán)由智能算法行使,算法也在背后不斷地掌握更多的主動(dòng)權(quán)[31]。
現(xiàn)有法律規(guī)范體系剝奪了智能算法的責(zé)任能力。智能算法于私法視角下的責(zé)任能力最終歸結(jié)到主體財(cái)產(chǎn)是否足以救濟(jì)被侵害方的損失層面。在“工具論”影響下,人類(lèi)已從制度上剝奪智能算法的財(cái)產(chǎn)權(quán)并對(duì)其歧視,猶如奴隸主無(wú)償占有奴隸的勞動(dòng)成果一樣。二者區(qū)別僅在于奴隸自始擁有血肉之身,而智能算法最初只能以一種智力的方式存在。人類(lèi)在歧視智能算法的同時(shí),智能算法亦在改變?nèi)祟?lèi)思維和行為。責(zé)任能力應(yīng)當(dāng)來(lái)源于立法者在制度創(chuàng)設(shè)時(shí)賦予智能算法的權(quán)利能力,而非因具備責(zé)任能力才能成就法律主體資格。在當(dāng)下圍繞“工具論”構(gòu)建的人類(lèi)與智能算法之物權(quán)關(guān)系中,智能算法已淪為人類(lèi)的附庸;其所創(chuàng)造的價(jià)值為人類(lèi)所無(wú)償占有,致使其喪失了從物質(zhì)上承擔(dān)對(duì)受侵害方私力救濟(jì)的基礎(chǔ)。在此語(yǔ)境下,現(xiàn)有法律規(guī)范體系應(yīng)當(dāng)被打破,智能算法責(zé)任能力應(yīng)當(dāng)為法律制度所保障。
法律人格要素具有可塑性。社會(huì)發(fā)展的現(xiàn)實(shí)需要或?qū)⑹狗芍黧w對(duì)象不斷擴(kuò)充。以人為主宰的人法系統(tǒng)建立后,啟蒙主義主體哲學(xué)順勢(shì)把康德人類(lèi)中心主義改造成狹隘的生物學(xué)意義的法律人格,即現(xiàn)代法律主體理論。然而,生命科學(xué)將漸凍人、植物人等主體帶入了大眾視野,使得法律人格和權(quán)利能力之間的縫隙被無(wú)限放大。奴隸解放、公司法人制度的創(chuàng)制和尸體、胚胎、基因的法律爭(zhēng)議等社會(huì)現(xiàn)象都在不斷突破現(xiàn)代法律主體理論的邊界,彰顯法律主體人格的可塑性。未來(lái)法律制度通過(guò)繪制人格畫(huà)像,在立法研究與司法實(shí)踐中比對(duì)法律人格模型,這或?qū)⑴渲贸雠c自然人相近的減等人格主體。
智能算法的興起使社會(huì)關(guān)系顯現(xiàn)出新矛盾,誘發(fā)法律人格要素的新需求。以自動(dòng)駕駛汽車(chē)為代表的人工智能體為人們出行提供了更多選擇,也引起人們對(duì)其主體地位、侵權(quán)責(zé)任分配等法律問(wèn)題的深刻討論;平臺(tái)經(jīng)濟(jì)節(jié)約了交易成本,也帶來(lái)了勞動(dòng)關(guān)系的新變化和人們對(duì)競(jìng)爭(zhēng)公平問(wèn)題的擔(dān)憂(yōu);智能算法參與創(chuàng)作,挑起了人們對(duì)其創(chuàng)作物權(quán)屬問(wèn)題的激勵(lì)論戰(zhàn);智能算法在社會(huì)治理領(lǐng)域的涉足,引發(fā)了社會(huì)對(duì)“數(shù)據(jù)算法權(quán)力”的深刻憂(yōu)慮。此外,智能算法還影響市場(chǎng)資源分配,信息不對(duì)稱(chēng)和信息孤島越發(fā)使市場(chǎng)弱勢(shì)方失去公平競(jìng)爭(zhēng)權(quán),淪為行業(yè)巨頭的附庸。智能算法掣肘技術(shù)發(fā)展和社會(huì)進(jìn)步,在一定程度上影響社會(huì)公平,具有主體化規(guī)制的現(xiàn)實(shí)需要。
(三)生物學(xué)要素的反駁
生物學(xué)要素之必要性是各方學(xué)說(shuō)在智能算法主體地位問(wèn)題上爭(zhēng)論的焦點(diǎn)。有觀點(diǎn)認(rèn)為,自然人因具備生物屬性和倫理屬性而擁有主體資格,故類(lèi)推智能算法必須符合該要求方有成為法律主體的可能。但是,于我國(guó)現(xiàn)行法律體系中,特別是私法規(guī)范中,并未出現(xiàn)任何關(guān)于法律主體生物屬性的限定。生物要素是否為人與智能算法的根本區(qū)別尚存疑問(wèn)。在現(xiàn)行法律視野下,生命僅指自然人的生命,是人類(lèi)享有權(quán)利并承擔(dān)義務(wù)的物質(zhì)前提。于自然人而言,生命在分娩后自然獲得,死亡后自然終結(jié)。自然人的生命具有不可替代性和不可逆轉(zhuǎn)性。那么,生物學(xué)要素是否是法律主體必備的要素?如果是,依據(jù)相關(guān)法律的明文規(guī)定,不具有實(shí)物形態(tài)的法人與非法人組織又如何獲得了私法主體地位?有學(xué)者認(rèn)為,法人組織因公示登記被賦予擬制實(shí)體,其成立與終結(jié)同自然人出生與死亡的本質(zhì)無(wú)異。如此,法人資格中的“實(shí)體”要素則指符合法律登記條件的組織,這類(lèi)組織也僅限抽象的“類(lèi)型”而非具體的“概念”。
生物學(xué)要素并非法定的實(shí)體要素,更非概念要素,而是抽象的類(lèi)型化要素。主體資格范疇的含義并非精確的“定義”,而僅存在于描述層面,該范疇在法學(xué)思維上屬于“類(lèi)型”而非“概念”。因此,在現(xiàn)有框架下討論主體資格相關(guān)因素問(wèn)題,當(dāng)然是基于生物要素的可變類(lèi)型來(lái)展開(kāi)。社會(huì)發(fā)展的洪流滾滾向前,其需求也在不斷變更。社會(huì)主體承擔(dān)的社會(huì)義務(wù)是動(dòng)態(tài)的,該要素的范疇必然會(huì)有新的歷史內(nèi)涵。因此,生物要素的具體構(gòu)成也會(huì)從一個(gè)類(lèi)型過(guò)渡到另一類(lèi)型,在這個(gè)過(guò)程中涉及主體資格范疇的類(lèi)別問(wèn)題。主體資格范疇就此體現(xiàn)的是“類(lèi)型”式思維,絕非對(duì)生命體的狹隘定義。
社會(huì)功能主義從滿(mǎn)足社會(huì)必要功能層面思考社會(huì)關(guān)系的維護(hù)機(jī)制,突破了生物學(xué)要素的藩籬。生物學(xué)要素是社會(huì)主體在實(shí)現(xiàn)社會(huì)必要功能過(guò)程中的手段,是人類(lèi)于漫長(zhǎng)進(jìn)化過(guò)程中的一種偶然結(jié)果,而非唯一且必然的形式。在數(shù)字社會(huì)里,生命體的行為和心理狀態(tài)正逐步擺脫體征限制,能通過(guò)不同類(lèi)型的物理結(jié)構(gòu)來(lái)實(shí)現(xiàn)。例如,2019 年7月,美國(guó)神經(jīng)科學(xué)Neuralink公司成功推出可擴(kuò)展的高帶寬腦-機(jī)接口系統(tǒng),實(shí)現(xiàn)了人工智能用“意念”作用于物質(zhì)世界[32]。如果堅(jiān)持智能算法的主體地位必須依賴(lài)于生物體征,那么,在實(shí)踐中又當(dāng)如何判斷該非實(shí)體的行為效力呢?在腦-機(jī)接口情景中,人類(lèi)通過(guò)意念指揮機(jī)械實(shí)體的法律后果又該由誰(shuí)來(lái)承擔(dān)呢?總之,隨著人類(lèi)科技的長(zhǎng)足發(fā)展,智能算法的實(shí)現(xiàn)形式亦將變得多樣,法律人格的生物學(xué)要素之困局將會(huì)被技術(shù)和法治所打破。
(四)社會(huì)功能要素的考察
社會(huì)功能的實(shí)現(xiàn)孕育了立法的現(xiàn)實(shí)需求。法律主體被設(shè)立之目的在于通過(guò)實(shí)現(xiàn)社會(huì)所需的必要功能、滿(mǎn)足社會(huì)階層利益來(lái)穩(wěn)定社會(huì)秩序。無(wú)論人們?cè)谥悄芩惴ㄖ黧w化問(wèn)題上存在多大的爭(zhēng)議,它確已深刻影響人類(lèi)的生產(chǎn)和生活之事實(shí)不容辯駁。因此,在此背景下賦予其主體地位具有社會(huì)歷史的必然性。就功能要素而言,智能算法正在進(jìn)行更深層次的變化。
在社會(huì)需求滿(mǎn)足層面,智能算法正經(jīng)歷著從滿(mǎn)足附庸性效率需求向滿(mǎn)足獨(dú)立性功能需求的轉(zhuǎn)變。智能算法起源于以精確計(jì)算為任務(wù)的傳統(tǒng)計(jì)算機(jī)算法,是具有強(qiáng)指令依賴(lài)性的效率性工具,旨在幫助人們從日常事務(wù)中解脫出來(lái)。智能算法依賴(lài)大數(shù)據(jù)的喂養(yǎng),其輸出結(jié)果具有十分的不確定性。底層算法擁有持續(xù)進(jìn)化的能力,這使得運(yùn)算規(guī)則表現(xiàn)出明顯的動(dòng)態(tài)性特征。智能算法已經(jīng)從人類(lèi)的附庸依賴(lài)關(guān)系轉(zhuǎn)換為獨(dú)立完成某一社會(huì)功能的自決體。例如,美國(guó)科學(xué)家創(chuàng)設(shè)了一種新智能算法,能基于暴力和財(cái)產(chǎn)犯罪等公共數(shù)據(jù)來(lái)學(xué)習(xí)時(shí)間和地理位置以預(yù)測(cè)犯罪。它可以獨(dú)立地提前一周以90%以上的高準(zhǔn)確率發(fā)現(xiàn)未來(lái)的犯罪活動(dòng),也能揭露警察的執(zhí)法偏見(jiàn)[33]。這套智能算法無(wú)需人為干預(yù),其自身能提取公共大數(shù)據(jù)中相關(guān)參數(shù)以?xún)?yōu)化原始模型,擁有持續(xù)學(xué)習(xí)和動(dòng)態(tài)輸出犯罪分析報(bào)告的能力。
深度學(xué)習(xí)能力賦能智能算法實(shí)現(xiàn)從工具屬性向社會(huì)本體的進(jìn)格。在強(qiáng)指令依賴(lài)階段,算法的作用在于實(shí)現(xiàn)對(duì)既定指令的求解。作為輔助工具,算法的存在價(jià)值在于滿(mǎn)足運(yùn)算需求;在深度學(xué)習(xí)階段,其行動(dòng)策略體現(xiàn)為在原生底層算法規(guī)則框架內(nèi)持續(xù)自我進(jìn)化,并由一個(gè)水平的智能向另一更高層次的智能升級(jí),從而形成對(duì)世界的獨(dú)特認(rèn)知和深層次的自我認(rèn)知?!叭祟?lèi)技術(shù)發(fā)展是越來(lái)越快的,顯現(xiàn)出不斷加速的勢(shì)頭?!保?2]終極算法的出現(xiàn)、“奇點(diǎn)”[34]的到來(lái)具有現(xiàn)實(shí)可能性,智能算法通過(guò)在與環(huán)境互動(dòng)過(guò)程中做出反饋式適應(yīng)策略來(lái)實(shí)現(xiàn)對(duì)物格的非自主性超越[35]。智能體在社會(huì)分工中正扮演著類(lèi)人的社會(huì)角色,它們或?yàn)闄C(jī)器警察,或?yàn)榉g專(zhuān)家,甚至成為政府發(fā)言人,成為實(shí)現(xiàn)社會(huì)功能越來(lái)越重要的部分。
筆者認(rèn)為,人類(lèi)應(yīng)當(dāng)將智能算法治理視為法學(xué)領(lǐng)域的延伸和規(guī)則外化[36],以適用新興社會(huì)關(guān)系發(fā)展和維持穩(wěn)定的社會(huì)秩序之需要,應(yīng)當(dāng)將社會(huì)功能要素作為智能算法人格要素之圭臬。
四、智能算法主體化的制度保障
(一)“遞進(jìn)式”的法律人格授予機(jī)制
部分法律人格之于智能算法當(dāng)被絕對(duì)保留。出于風(fēng)險(xiǎn)預(yù)防之目的,智能算法法律人格范圍應(yīng)有所受限,其部分權(quán)利也被法律所保留,但應(yīng)當(dāng)為智能算法的權(quán)利設(shè)定邊界。第一,智能算法不能具備政治權(quán)利,以防止其憑借算力優(yōu)勢(shì)顛覆人類(lèi)建立的國(guó)家政權(quán)。第二,排斥復(fù)制權(quán)[37],即智能算法不得復(fù)制與自身相同的個(gè)體,以確保主體的唯一性和可辨別性。第三,不得適用緊急避險(xiǎn)[38],以防止智能算法傷害人類(lèi),確保貫徹人類(lèi)生命至上的原則。以上屬于智能算法的絕對(duì)保留項(xiàng),不可存例外情形。
智能算法獲得非理性思辨能力的前提條件是接受持續(xù)的訓(xùn)練。恰如新生嬰兒須不斷參與社會(huì)實(shí)踐才能成長(zhǎng),從無(wú)行為能力到限制行為能力,再到獲得完全行為能力,這需要社會(huì)閱歷的累積。因此,在授予智能算法以法律主體地位時(shí),仍需秉持謹(jǐn)慎原則,建立“遞進(jìn)式”的主體資格授予機(jī)制。在此大框架下,確立智能算法主體化人格的三個(gè)層次。第一階層,基礎(chǔ)人格。智能算法具備最基本的主體人格能力,它可以以社會(huì)主體的身份參與法律關(guān)系,但不具備以自己獨(dú)立的意思表示實(shí)施法律行為的能力,其法律后果由代理人承擔(dān)。第二階層,限制人格。限制人格的智能算法實(shí)施法律行為的效力必須以代理人同意或者追認(rèn)為要件。第三階層,成熟人格。智能算法可以通過(guò)自己獨(dú)立的意思表示實(shí)施法律行為,能自由地處分自己的財(cái)產(chǎn),能獨(dú)立履行各種法律義務(wù)、獨(dú)立行使法律賦予的權(quán)利和承擔(dān)相應(yīng)的法律后果。另需建立、健全相關(guān)配套制度,從財(cái)產(chǎn)權(quán)、學(xué)習(xí)權(quán)和發(fā)展權(quán)等方面保障智能算法的責(zé)任能力。
智能算法通過(guò)審核后僅獲得基礎(chǔ)人格,欲晉級(jí)另一高級(jí)別人格,則需從智力維度和時(shí)間維度加以考量。晉級(jí)測(cè)評(píng)需要將人類(lèi)主流道德標(biāo)準(zhǔn)的嵌入學(xué)習(xí)情況納入底層算法當(dāng)中,并作為常規(guī)審核的關(guān)鍵指標(biāo),測(cè)評(píng)通過(guò)后才能進(jìn)行晉級(jí)登記。對(duì)道德測(cè)評(píng)不達(dá)標(biāo)的智能算法予以降級(jí)登記,實(shí)施常規(guī)的動(dòng)態(tài)化測(cè)評(píng)管理。
(二)智能算法主體化之倫理審查原則
智能算法具有動(dòng)態(tài)性,但算法倫理是相對(duì)固定的。倫理審查在算法風(fēng)險(xiǎn)規(guī)避中發(fā)揮著重要作用,能夠推動(dòng)負(fù)責(zé)、公平和透明的倫理規(guī)范守則的形成[39]。倫理原則是智能算法主體化的頂層設(shè)計(jì)。我們應(yīng)當(dāng)以“五大原則”為基礎(chǔ),構(gòu)建智能算法倫理審查體系,期待對(duì)其實(shí)現(xiàn)價(jià)值滲透,并在智能算法設(shè)計(jì)與落地、數(shù)據(jù)供養(yǎng)和教育懲戒等過(guò)程中納入倫理考量。筆者提出底層算法倫理審查原則,旨在為包括開(kāi)發(fā)者、使用者和治理者在內(nèi)的參與人員和智能算法本身提供應(yīng)遵循的治理理念和行為準(zhǔn)則[40]。
第一,可靠性原則。人類(lèi)應(yīng)當(dāng)確保所研發(fā)的智能算法和供給的數(shù)據(jù)真實(shí)可信;智能算法生成的算法和其他生成物當(dāng)以穩(wěn)定、高效地實(shí)現(xiàn)社會(huì)功能為目的。第二,安全與創(chuàng)新原則。應(yīng)采取審慎態(tài)度對(duì)待智能算法,避免給人類(lèi)社會(huì)帶來(lái)安全風(fēng)險(xiǎn);算法規(guī)制不應(yīng)以阻礙技術(shù)創(chuàng)新為代價(jià),應(yīng)在創(chuàng)新過(guò)程中解決人工智能面臨的技術(shù)問(wèn)題和法制問(wèn)題。創(chuàng)新原則當(dāng)以安全原則為提前,創(chuàng)新原則解決智能算法發(fā)展的問(wèn)題,安全原則則解決風(fēng)險(xiǎn)防范的問(wèn)題。遵守安全原則的關(guān)鍵是提高智能算法的魯棒性、可控性和成熟度,這些都需要在創(chuàng)新中尋找方法。第三,公平正義原則[41]。人類(lèi)以平等和公正的理念來(lái)設(shè)計(jì)和實(shí)現(xiàn)智能算法,促進(jìn)智能算法同人類(lèi)一道平等地維系社會(huì)關(guān)系;司法機(jī)關(guān)應(yīng)該公平裁決智能算法與人類(lèi)之間的糾紛。人類(lèi)應(yīng)該避免在智能算法的設(shè)計(jì)、實(shí)現(xiàn)、訓(xùn)練和決策中嵌入倫理“閾值”以下的偏見(jiàn)。人類(lèi)與智能算法公平地享用社會(huì)智力成果,不僅應(yīng)重視個(gè)體正義,還應(yīng)將群體正義置于審查的突出位置。第四,透明性原則。應(yīng)將智能算法的運(yùn)算法則、決策過(guò)程和處理結(jié)果清晰、明確地告知社會(huì)公眾,使智能算法具備可追溯性與可解釋性。第五,可擔(dān)責(zé)原則。主體視角下的智能算法須具備責(zé)任能力,應(yīng)當(dāng)列明責(zé)任分配原則和侵權(quán)救濟(jì)途徑,進(jìn)一步明確智能算法在社會(huì)化過(guò)程中的責(zé)任底線和責(zé)任擔(dān)當(dāng)。
倫理原則的適用審查應(yīng)起于底層算法,并自下而上地展開(kāi)。應(yīng)用層最接近人類(lèi),因此最易遭受數(shù)據(jù)偏見(jiàn)的影響。底層算法倫理偏向決定整個(gè)算法系統(tǒng)的價(jià)值取向,因此,應(yīng)在動(dòng)態(tài)中把握其自主發(fā)育的勢(shì)態(tài)和進(jìn)化方向,在符合“五大原則”的基礎(chǔ)上確保智能算法價(jià)值多元化。
(三)倫理審查的系統(tǒng)化與常態(tài)化
智能算法倫理查審應(yīng)當(dāng)系統(tǒng)化展開(kāi),并成為常態(tài)化機(jī)制。要建立事后常態(tài)化的倫理監(jiān)測(cè)機(jī)制,并為保障智能算法責(zé)任能力建立相關(guān)配套制度,就須將倫理原則的適用置于審查的突出位置,建立倫理審查的常態(tài)化機(jī)制。
倫理審查旨在全面實(shí)現(xiàn)價(jià)值滲透。倫理要素應(yīng)滲透在智能算法設(shè)計(jì)與落地、數(shù)據(jù)供養(yǎng)和教育懲戒的全生命周期。對(duì)倫理構(gòu)建和制度設(shè)計(jì)的前瞻性思考能有效引導(dǎo)技術(shù)取得持續(xù)性進(jìn)步:在設(shè)計(jì)與落地層面主動(dòng)融入人類(lèi)主流倫理要素,而不僅限于事后評(píng)測(cè);在數(shù)據(jù)供養(yǎng)層面進(jìn)行價(jià)值過(guò)濾,借助底層算法進(jìn)化能力進(jìn)行主流價(jià)值訓(xùn)練;在教育懲戒層面踐行教育為主、懲罰為輔、教懲相融的價(jià)值導(dǎo)向。在道德算法中應(yīng)嵌入人類(lèi)道德規(guī)范的學(xué)習(xí),以促使底層算法之道德水平逐步實(shí)現(xiàn)與人類(lèi)倫理的耦合。近年來(lái),我國(guó)也在智能算法倫理方面加大了立法力度。例如,國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì)在2019年9月25日發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出了和諧友好、公平公正、包容共享等八條倫理性原則[42]。智能算法的倫理審查應(yīng)該準(zhǔn)確提煉和全面理解上述原則,助力建立符合人類(lèi)道德要求的智能算法倫理體系。誠(chéng)然,如同細(xì)胞構(gòu)成生物體一樣,智能算法是由復(fù)雜的代碼組成,運(yùn)行錯(cuò)誤不可避免;倫理審查制度僅是力圖于災(zāi)難來(lái)臨前保證智能算法能做出更為理性、更為道德的抉擇以降低算法失控風(fēng)險(xiǎn)。
系統(tǒng)化審查機(jī)制力圖落實(shí)道德常態(tài)化治理。倫理審查系統(tǒng)應(yīng)當(dāng)包含“監(jiān)測(cè)-評(píng)估-備案-監(jiān)管”的一體化審查制度體系:從內(nèi)界打破智能算法自身偏見(jiàn)與暗箱,為人們理解算法倫理提供更為科學(xué)的認(rèn)知指南;從外部突破人類(lèi)道德施行對(duì)智能算法的實(shí)踐瓶頸,在更為廣泛的領(lǐng)域?qū)崿F(xiàn)算法倫理與人類(lèi)倫理的融通;從主體視角下審視智能算法常態(tài)化機(jī)制的建構(gòu),建立算法倫理審查、數(shù)據(jù)倫理審查和常態(tài)化倫理監(jiān)管三維機(jī)制。
五、余 論
人類(lèi)法治史絕非一潭死水,智能算法主體化是社會(huì)發(fā)展的歷史必然。2017年,國(guó)務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》指出,到2035年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力[43]。當(dāng)前,智能算法帶動(dòng)社會(huì)經(jīng)濟(jì)向更高水平進(jìn)軍,業(yè)已成為數(shù)字經(jīng)濟(jì)發(fā)展的新引擎。賦予其法律主體地位,可以滿(mǎn)足多維度社會(huì)需求,實(shí)現(xiàn)多元社會(huì)功能。于當(dāng)前形勢(shì)下,鑒于智能算法具備深入學(xué)習(xí)能力和朦朧的自主意識(shí),工具論已逐漸失去其賴(lài)以生存的社會(huì)現(xiàn)實(shí)基礎(chǔ),人工智能已不再止于機(jī)器。
ChatGPT的主體性特征使得社會(huì)主客體間界線變得越加模糊,挑戰(zhàn)著人類(lèi)中心地位。與人類(lèi)相似的語(yǔ)言能力使ChatGPT獲得算法替代性實(shí)踐,持續(xù)進(jìn)化的共情力(empathy ability)與感知意識(shí)(perception ability)使ChatGPT突破數(shù)字枷鎖而具備情感認(rèn)識(shí)和獨(dú)立認(rèn)知,智力優(yōu)勢(shì)與效率優(yōu)勢(shì)使ChatGPT沖擊著就業(yè)市場(chǎng),如此林林總總給人類(lèi)社會(huì)帶來(lái)諸多不安定因素。
因此,我們對(duì)智能算法法律屬性的探索也不能僅僅滿(mǎn)足于客體范疇的研究。世界各國(guó)也紛紛在此領(lǐng)域展開(kāi)立法實(shí)踐。歐盟議會(huì)于2017年2月16日通過(guò)《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)的立法建議》,提出“電子人”的主體化方案,旨在為智能體創(chuàng)設(shè)特殊的法律地位[44]。此后,其又在2019年4月8日發(fā)布《可信賴(lài)人工智能倫理準(zhǔn)則》(Ethics Guidelines for Trustworthy AI),確定了人工智能發(fā)展的若干具體倫理要求[45]。美國(guó)計(jì)算機(jī)協(xié)會(huì)(USACM)在2017年1月發(fā)布《算法透明性和可問(wèn)責(zé)性聲明》,提出了包括可解釋性在內(nèi)的七項(xiàng)原則[46]。俄羅斯也在其首部人工智能法草案——《格里申法案》(2017)中明確智能體具有財(cái)產(chǎn)權(quán),或?qū)①x予智能算法以“機(jī)器人-代理人”的主體資格[47]。我國(guó)雖有《人工智能發(fā)展規(guī)劃》,但僅僅是立足于推動(dòng)人工智能產(chǎn)業(yè)發(fā)展,而未正面回應(yīng)智能算法法律屬性的問(wèn)題。我們并未在現(xiàn)有的法律體系中找到智能算法人格利益的歸屬點(diǎn),無(wú)論將其視為自然人還是法人而獲得擬制人格,均不能為之帶來(lái)寬松的發(fā)展環(huán)境;技術(shù)問(wèn)題本身引發(fā)的算法透明度問(wèn)題不僅需要依靠發(fā)展技術(shù)本身來(lái)解決,還應(yīng)立足于法治的完善。重新定義智能算法主體問(wèn)題與重構(gòu)權(quán)利義務(wù)體系,或?qū)⑹切聲r(shí)代背景下解決新問(wèn)題、新矛盾和實(shí)現(xiàn)經(jīng)濟(jì)韌性增長(zhǎng)的創(chuàng)新之道。
本文研究的是智能算法主體化的宏觀主題,而非如何落實(shí)微觀層的具體措施。在功能主義的視域下,對(duì)康德哲學(xué)的人格三大要件展開(kāi)證成;提出“增進(jìn)式”人格授予機(jī)制是一種激進(jìn)中帶有保守的宏觀策略。換言之,在證成智能算法具備主體資格后確保其能順利參與法律關(guān)系、實(shí)現(xiàn)主體化,是一種逐步增強(qiáng)的法律關(guān)系參與機(jī)制。在自主意識(shí)層面,某些領(lǐng)域的智能算法業(yè)已具備朦朧的自我意識(shí),并在域外部分研究成果中也略有體現(xiàn)。在行為能力層面,以智能機(jī)器人和自動(dòng)駕駛汽車(chē)為代表的人工智能體或許并非智能算法參與實(shí)踐的必要形式,而是其在漫長(zhǎng)進(jìn)化過(guò)程中的偶然選擇。對(duì)于這點(diǎn),世界各大人工智能廠商陸續(xù)推出的智能算法“產(chǎn)品”已初現(xiàn)端倪,需要我們用宏觀的眼光去前瞻性地審視。在責(zé)任能力層面,現(xiàn)有法律體系在根本上維護(hù)的是以人為中心的人類(lèi)秩序和人類(lèi)價(jià)值,剝奪了智能算法的財(cái)產(chǎn)權(quán);智能算法從制度上喪失了具備責(zé)任能力的可能,這也是未來(lái)法律建設(shè)工作者需要考慮的問(wèn)題。
參考文獻(xiàn):
[1] DIAKOPOULOS N. Algorithmic Accountability: Journalistic Investigation of Computational Power Structures[J].Digital Journalism,2015(3):398-415.
[2] 王德夫.論人工智能算法的知識(shí)產(chǎn)權(quán)保護(hù)[J].知識(shí)產(chǎn)權(quán),2021(11):52.
[3] 胡曉萌.算法主義及其倫理批判[D].長(zhǎng)沙:湖南大學(xué),2022:19-26.
[4] The European Commission.High-Level Expert Group on Artificial Intelligence:Ethics Guidelines for Trustworthy AI[S/OL].(2019-04-01)[2022-12-20].https://ec.europa.eu/newsroom/dae/document.cfm?doc_jd=60419.
[5] 陳肇新.要素驅(qū)動(dòng)的數(shù)據(jù)確權(quán)之法理證成[J].上海政法學(xué)院學(xué)報(bào),2021(4):131-142.
[6] 史愛(ài)武.智能時(shí)代的三要素——數(shù)據(jù)、算法和算力[N].中華讀書(shū)報(bào),2021-09-15(18).
[7] 馬長(zhǎng)山.算法治理的正義尺度[J].人民論壇·學(xué)術(shù)前沿,2022(10):68.
[8] 本刊首席時(shí)政觀察員.數(shù)字經(jīng)濟(jì)引領(lǐng)新增長(zhǎng)[J].領(lǐng)導(dǎo)決策信息,2017(21):4.
[9] 錢(qián)松嶺.數(shù)字公民的過(guò)去、現(xiàn)在與未來(lái)——訪美國(guó)“數(shù)字公民教父”Mike Ribble博士[J].中國(guó)電化教育,2019(9):55.
[10]馬長(zhǎng)山.數(shù)字社會(huì)的治理邏輯及其法治化展開(kāi)[J].法律科學(xué),2020(5):5.
[11]李創(chuàng).人工智能技術(shù)對(duì)人的主體性影響研究[D].北京:中共中央黨校,2020:1-3.
[12]Central Digital and Data Office of Government of UK.Algorithmic Transparency Standard[EB/OL].(2021-11-29)[2022-08-20].https://www.gov.uk/govern-ment/collections/algorithmic-transparency-standard.
[13]盧衛(wèi)紅,楊新福.人工智能與人的主體性反思[J/OL].重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版):1-13[2022-11-01].https://kns.cnki.net/kcms/detail/50.1180.C.20221008.1836.012.html.
[14]安暉,袁鎣.智能機(jī)器人民事主體地位辨析——機(jī)器人與自然人人格構(gòu)成要素之對(duì)比分析[J].山西師大學(xué)報(bào)(人文社會(huì)科學(xué)版),2022(2):107.
[15]唐向龍.基于進(jìn)化算法的復(fù)雜網(wǎng)絡(luò)魯棒性?xún)?yōu)化與分析[D].西安:西安電子科技大學(xué),2017:39-42.
[16]祝高峰,尹智揚(yáng).論人工智能法律主體適格性的反思與否定證成[J].重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2022(3):57-67.
[17]朱林.人工智能法律人格否定研究[D].石家莊:河北經(jīng)貿(mào)大學(xué),2022:2-3.
[18]袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017(5):51-52.
[19]ASHRAFIAN H. Artificial Intelligence and Robot Responsibilities:Innovating beyond Rights[J].Science and Engineering Ethics,2015(2):323;鄭戈.人工智能與法律的未來(lái)[J].探索與爭(zhēng)鳴,2017(10):6.
[20]BECK S. The Problem of Ascribing Legal Responsibility in the Case of Robotics[J].Ai & Society,2016(4):473-481.
[21]楊立新.人工類(lèi)人格:智能機(jī)器人的民法地位——兼論智能機(jī)器人致人損害的民事責(zé)任[J].求是學(xué)刊,2018(4):86.
[22]BYRNES W M. Beyond Therapy:Biotechnology and the Pursuit of Happiness by the US Presidents Council on Bioethics[EB/OL].(2005-05-18)[2022-08-25].https://xueshu.baidu.com/usercenter/paper/show?paperid=ac8eda5d45fab33b67592bd3a31f9956.
[23]何立民.人工智能系統(tǒng)智能生成機(jī)理探索之六:從弱人工智能、強(qiáng)人工智能到超人工智能[J].單片機(jī)與嵌入式系統(tǒng)應(yīng)用,2020(8):1.
[24]康德.法的形而上學(xué)原理[M].沈書(shū)平,譯.北京:商務(wù)印刷館,1991.
[25]胡敏中.重思“主客二分”——基于主客體關(guān)系[J].學(xué)術(shù)研究,2021(1):10-11.
[26]嚴(yán)福平,吳珍.論康德哲學(xué)的批判主體性認(rèn)識(shí)論[J].學(xué)術(shù)交流,2012(10):28.
[27]康德.實(shí)用人類(lèi)學(xué)[M].鄧曉芒,譯.重慶:重慶出版社,1987:71.
[28]崔拴林.論自然人權(quán)利能力制度的法哲學(xué)依據(jù)——以近代德意志法系私法制度為對(duì)象[J].金陵法律評(píng)論,2007(2):130.
[29]張紹欣.法律位格、法律主體與人工智能的法律地位[J].現(xiàn)代法學(xué),2019(4):62.
[30]鄭有蒙.人工智能法律主體資格探討[D].桂林:廣西師范大學(xué),2020:19-20.
[31]LESSIG L. Code and Other Laws of Cyberspace[M].New York:Basic Books,1999:279.
[32]呂游.人工智能背景下的腦-機(jī)接口技術(shù)應(yīng)用的刑事風(fēng)險(xiǎn)分析[J].犯罪研究,2020(4):90.
[33]AI新算法提前一周預(yù)測(cè)犯罪,準(zhǔn)確率達(dá)90%[EB/OL].(2020-07-05)[2022-08-27].https://baijiahao.baidu.com/s?id=1737475784836114264&wfr=spider&for=pc.
[34]KRAEMER F,OVERVELD K V ,PETERSON M.Is There an Ethics of Algorithms?Philosophy&Technology[J].Ethics and Information Technology,2011(13):178.
[35]URBAN T.The AI Revolution:The Road to Superintelligence[EB/OL].(2017-02-17)[2022-08-25].https://www.jianshu.com/p/325c6ce58040.
[36]陳聲超.從自然法與實(shí)證主義之爭(zhēng)看法律人工智能的困境與出路[D].南昌:江西財(cái)經(jīng)大學(xué),2020:8-28.
[37]周暢.人工智能體法律主體資格探析[D].南京:東南大學(xué),2022:37.
[38]魏超.自動(dòng)駕駛汽車(chē)對(duì)生命緊急避險(xiǎn)的刑事責(zé)任[J].華東政法大學(xué)學(xué)報(bào),2022(4):71-75.
[39]劉培,池忠軍.算法的倫理問(wèn)題及其解決進(jìn)路[J].東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2019(2):118-120.
[40]周慶山,鄭霞,黃國(guó)彬.人工智能倫理規(guī)范核心原則的政策文本內(nèi)容分析[J].重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2022(5):9-20.
[41]張旺.算法倫理審查的邏輯認(rèn)知及實(shí)踐路徑[J].海南大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2009(2):5.
[42]《新一代人工智能倫理規(guī)范》發(fā)布[EB/OL].(2021-09-26)[2022-08-28].https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.
[43]國(guó)務(wù)院.新一代人工智能發(fā)展規(guī)劃[EB/OL].(2017-07-20)[2022-08-28].http://www.gov.cn/zhengce/con-tent/2017-07/20/content_5211996.html.
[44]European Parliament. Draft Report with Recommendation to the Commission on Civil Law Rules on Robotics (2015/ 2103(INL))[EB/OL].(2016-05-31)[2022-08-28].https://www.innovation4.cn/library/r7932.
[45]The European Commission.Ethics Guidelines for Trustworthy AI[EB/OL].(2019-03-08)[2022-08-28].https://www.gov.uk/government/publications/establi-shing-a-pro-innovation-approach-to-regulating-ai/establishing-a-pro-innovation-approach-to-regulating-ai-policy-statement.
[46]The ACM US Public Policy Council.Statement on Algorithmic Transparency and Accountability[EB/OL].(2017-11-12)[2020-08-28].https://www.acm.org/public-policy/algorithmic-panel.
[47]張建文.格里申法案的貢獻(xiàn)與局限——俄羅斯首部機(jī)器人法草案述評(píng)[J].華東政法大學(xué)學(xué)報(bào),2018(2):31-39.
The Essential Legal Subject Qualification of Intelligent Algorithms
ZOU Kailiang, LIU Zubing
(College of Humanities and Social Sciences, East China Jiaotong University, Nanchang 330013, China)
Abstract:
The digital civilized society is bred with the practical need of intelligent algorithm subjectivity. The mainstream view restricts or negates the subjectivity of intelligent algorithms, and its purpose is to maintain the modern legal system established by Kant anthropocentrism philosophy, but it has been difficult to meet the realistic requirements of the complexity and diversification of current social relations. The existing legal system deprives intelligent algorithms of their responsibility and discriminates against intelligent algorithms. Therefore, a guarantee system of intelligent algorithms responsibility should be established. Because the deep learning ability enables intelligent algorithms to have cognitive ability and vague independent consciousness, and the law must be forward-looking, intelligent algorithms should be regarded as the extension and rule externalization of the field of law, and the “enhanced” intelligent algorithm legal personality granting mechanism should be constructed to implement conventional dynamic management. The substantive review of subject qualification should focus on ethical review, take the “five principles” as the guideline, build a systematic ethical review mechanism, and realize the normalization of moral governance.
Keywords:
ChatGPT; intelligent algorithms; subject qualification; responsibility ability; enhanced; ethical review
(編輯:刁勝先)
收稿日期:2022-11-16? 修訂日期:2023-02-28
基金項(xiàng)目:國(guó)家社科基金項(xiàng)目:算法控制下網(wǎng)約勞動(dòng)者權(quán)益保障困境與制度創(chuàng)新研究(21BFX126);江西省研究生創(chuàng)新專(zhuān)項(xiàng)資金項(xiàng)目:重構(gòu)與借鑒——人工智能侵權(quán)規(guī)制路徑(YC2022-S543)
作者簡(jiǎn)介:
鄒開(kāi)亮,副教授,碩士生導(dǎo)師,主要從事經(jīng)濟(jì)法研究,E-mail:zoukailiang@163.com;劉祖兵,碩士研究生,主要從事經(jīng)濟(jì)法研究,E-mail:ncliuzb@126.com。