胡小偉
(華東交通大學(xué) 人文社會(huì)科學(xué)學(xué)院, 江西 南昌 330013)
伴隨著互聯(lián)網(wǎng)、云計(jì)算、大數(shù)據(jù)與人工智能的深度融合,“萬物互聯(lián)、人人在線、事事算法”的人工智能時(shí)代悄然而至。學(xué)理上對(duì)人工智能法律問題的研究如火如荼、方興未艾,但基于研究立場不同,研究分野隨之產(chǎn)生。若立足于“人機(jī)共處”(人類機(jī)器人)研究視角,則對(duì)人類安全、法律主體資格、倫理問題等強(qiáng)人工智能應(yīng)用風(fēng)險(xiǎn)關(guān)注甚多,如人工智能創(chuàng)作物的法律性質(zhì)、無人駕駛汽車交通事故責(zé)任、人工智能民事和刑事責(zé)任等(1)相關(guān)研究參見易繼明:《人工智能創(chuàng)作物是作品嗎?》,《法律科學(xué)》2017年第5期;葉明、張潔:《無人駕駛汽車交通事故損害賠償責(zé)任主體認(rèn)定的挑戰(zhàn)及對(duì)策》,《電子政務(wù)》2019年第1期;楊立新:《人工類人格:智能機(jī)器人的民法地位——兼論智能機(jī)器人致人損害的民事責(zé)任》,《求是學(xué)刊》2018年第4期;葉良芳:《人工智能是適格的刑事責(zé)任主體嗎?》,《環(huán)球法律評(píng)論》2019年第4期。。若立足于“人機(jī)交互”(人類人類控制機(jī)器人方式)研究視角,則側(cè)重于從本源角度對(duì)支撐人工智能運(yùn)行的數(shù)據(jù)、算法等所引起的風(fēng)險(xiǎn)問題加以研究,如對(duì)算法黑箱、算法歧視、數(shù)據(jù)壟斷、信息繭房、大數(shù)據(jù)殺熟、算法共謀等問題的探討(2)相關(guān)研究參見徐鳳:《人工智能算法黑箱的法律規(guī)制——以智能投顧為例展開》,《東方法學(xué)》2019年第6期;劉友華:《算法偏見及其規(guī)制路徑研究》,《法學(xué)雜志》2019年第6期;洪丹娜:《算法歧視的憲法價(jià)值調(diào)適:基于人的尊嚴(yán)》,《政治與法律》2020年第8期;崔海燕:《大數(shù)據(jù)時(shí)代“數(shù)據(jù)壟斷”行為對(duì)我國反壟斷法的挑戰(zhàn)》,《中國價(jià)格監(jiān)管與反壟斷》2020年第1期;丁曉蔚、王雪瑩等:《論“信息繭房”矯治——兼及大數(shù)據(jù)人工智能2.0和“探索—開發(fā)”模式》,《中國地質(zhì)大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版)2018年第1期;時(shí)建中:《共同市場支配地位制度拓展適用于算法默示共謀研究》,《中國法學(xué)》2020年第2期。。未來人工智能無論是奔向替代人類的方向發(fā)展,抑或是朝向模擬、延伸和擴(kuò)展人類智慧的方向發(fā)展,作為當(dāng)前具有主體性地位的人類在架構(gòu)“人機(jī)融合”理想圖景之前,還應(yīng)對(duì)人工智能的內(nèi)在運(yùn)行規(guī)則和外在運(yùn)化結(jié)果加以合理預(yù)判和控制。
從學(xué)術(shù)趨勢觀之,有學(xué)者認(rèn)為法學(xué)界近兩年對(duì)算法相關(guān)法律問題的研究,從最初算法應(yīng)用層面的大數(shù)據(jù)處理、人工智能以及算法黑箱問題的研究轉(zhuǎn)向算法風(fēng)險(xiǎn)層面(3)熊鑫:《風(fēng)險(xiǎn)社會(huì)背景下算法的構(gòu)建及司法運(yùn)用研究》,《四川行政學(xué)院學(xué)報(bào)》2020年第4期。,理論轉(zhuǎn)向反映了學(xué)界對(duì)算法風(fēng)險(xiǎn)研究的逐步深入(4)以“算法規(guī)制”和“算法風(fēng)險(xiǎn)規(guī)制”為主題在中國知網(wǎng)進(jìn)行檢索,可以發(fā)現(xiàn),2018—2020三年文獻(xiàn)量,“算法規(guī)制”主題分別為9篇、44篇、55篇;“算法風(fēng)險(xiǎn)規(guī)制”主題分別為0篇、7篇、8篇。而在2018年之前,學(xué)者鮮有對(duì)算法或算法風(fēng)險(xiǎn)規(guī)制的直接討論。。當(dāng)前,學(xué)界對(duì)算法風(fēng)險(xiǎn)分類不盡一致,既有用戶畫像、算法黑箱、算法歧視、算法操控之分(5)邵國松、黃琪:《算法傷害和解釋權(quán)》,《國際新聞界》2019年第12期。,亦有信息繭房、隱私泄露、算法歧視(6)孫建麗:《算法自動(dòng)化決策風(fēng)險(xiǎn)的法律規(guī)制研究》,《法治研究》2019年第4期。以及“社會(huì)風(fēng)險(xiǎn)”、“法律風(fēng)險(xiǎn)”、“政治風(fēng)險(xiǎn)”(7)孫逸嘯、鄭浩然:《算法治理的域外經(jīng)驗(yàn)與中國進(jìn)路》,《信息安全研究》2021年第1期。之分等,不勝枚舉。學(xué)界賢達(dá)對(duì)算法風(fēng)險(xiǎn)的法律規(guī)制雖不乏“點(diǎn)上突破”式的研究,但缺乏“線上貫通、面上展開”式的系統(tǒng)性研究。算法風(fēng)險(xiǎn)的法律規(guī)制研究總體呈現(xiàn)平面化、散狀化、碎片化態(tài)勢,較易陷入“頭痛醫(yī)頭、腳痛醫(yī)腳”式的規(guī)制定式。如一些研究對(duì)算法黑箱等技術(shù)類風(fēng)險(xiǎn)的研究偏重于從算法透明度、算法監(jiān)管等角度加強(qiáng)防范(8)譚九生、范曉韻:《算法“黑箱”的成因、風(fēng)險(xiǎn)及其治理》,《湖南科技大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版)2020年第6期。;對(duì)數(shù)據(jù)類風(fēng)險(xiǎn)的討論多止于算法偏見或算法黑箱等風(fēng)險(xiǎn)成因的討論(9)趙學(xué)剛、馬羽男:《算法偏見的法律矯正研究》,《遼寧大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2020年第5期。,缺乏將諸如個(gè)人信息保護(hù)、企業(yè)數(shù)據(jù)保護(hù)等納入算法風(fēng)險(xiǎn)規(guī)制整體框架之中;一些研究對(duì)算法共謀(10)周圍:《算法共謀的反壟斷法規(guī)制》,《法學(xué)》2020年第1期。、大數(shù)據(jù)“殺熟”(11)鄒開亮、劉佳明:《大數(shù)據(jù)“殺熟”的法律規(guī)制困境與出路——僅從〈消費(fèi)者權(quán)益保護(hù)法〉的角度考量》,《價(jià)格理論與實(shí)踐》2018年第8期。、智能機(jī)器民法和刑法責(zé)任(12)參見司曉、曹建峰:《論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車和智能機(jī)器人為切入點(diǎn)》,《法律科學(xué)》2017年第5期;劉憲權(quán):《人工智能時(shí)代的刑事風(fēng)險(xiǎn)與刑法應(yīng)對(duì)》,《法商研究》2018年第1期。等決策類風(fēng)險(xiǎn)則分別從反壟斷法、消費(fèi)者權(quán)益保護(hù)法、民法、刑法等視角進(jìn)行了探討,由于算法決策風(fēng)險(xiǎn)場景化規(guī)制側(cè)重于部門法領(lǐng)域某一具體法律問題的剖析,較易忽略規(guī)制前移問題。
縱然學(xué)界對(duì)算法風(fēng)險(xiǎn)規(guī)制保持了一定的關(guān)注,但基于人工智能運(yùn)行機(jī)理而進(jìn)行算法風(fēng)險(xiǎn)的分層分類規(guī)制并非理所當(dāng)然的理論范式。“算法規(guī)制需要建立譜系,將零敲碎打的制度安排及學(xué)理思考整合為系統(tǒng)性的思考圖式”(13)蘇宇:《算法規(guī)制的譜系》,《中國法學(xué)》2020年第3期。。人工智能運(yùn)行流程可破觚斫雕,簡要描述為“隱含層(建立算法模型)→輸入層(將實(shí)際數(shù)據(jù)置入算法模型)→輸出層(得到輸出結(jié)果)”,也即存在著算法技術(shù)層、算法基礎(chǔ)層、算法結(jié)果層三個(gè)重要階段(14)類似劃分如有學(xué)者便將人工智能產(chǎn)業(yè)結(jié)構(gòu)劃分為技術(shù)層(算法、語言處理、計(jì)算機(jī)視覺等)、基礎(chǔ)層(數(shù)據(jù)、芯片、傳感器、生物識(shí)別等)、應(yīng)用層(機(jī)器人、智能應(yīng)用、可穿戴設(shè)備等)。參見房超、李正風(fēng)等:《基于比較分析的人工智能技術(shù)創(chuàng)新路徑研究》,《中國工程科學(xué)》2020年第4期。,并由此對(duì)應(yīng)于算法技術(shù)類、數(shù)據(jù)類、決策類風(fēng)險(xiǎn)。從橫向維度中人工智能各要素面上展開觀之,算法技術(shù)層、算法基礎(chǔ)層、算法結(jié)果層皆有其內(nèi)在運(yùn)行機(jī)理和風(fēng)險(xiǎn)主題,算法技術(shù)層要完成算法技術(shù)的邏輯實(shí)現(xiàn)到代碼實(shí)現(xiàn)轉(zhuǎn)變,可能產(chǎn)生算法黑箱、算法歧視等風(fēng)險(xiǎn);算法基礎(chǔ)層要完成算法學(xué)習(xí)的規(guī)則學(xué)習(xí)到自主學(xué)習(xí)轉(zhuǎn)變,可能產(chǎn)生數(shù)據(jù)濫用、數(shù)據(jù)壟斷等風(fēng)險(xiǎn);算法結(jié)果層要完成算法決策的輔助決策到智能決策轉(zhuǎn)變,可能產(chǎn)生決策失控等風(fēng)險(xiǎn)。從縱向維度中人工智能各要素線上貫通觀之,誠如“軟件開發(fā)各個(gè)階段之間的關(guān)系不可能是順序的、線性的,而應(yīng)該是帶有反饋的迭代過程”(15)周玉萍主編:《信息技術(shù)基礎(chǔ)》,北京:清華大學(xué)出版社,2017年,第242頁。,算法技術(shù)層、算法基礎(chǔ)層、算法結(jié)果層之間并非孤立體,而是相互依存、相互傳導(dǎo)的整體,如數(shù)據(jù)喂養(yǎng)算法,算法決策生成新的數(shù)據(jù),新的數(shù)據(jù)又不斷優(yōu)化算法,任何一個(gè)階段所產(chǎn)生的風(fēng)險(xiǎn)皆可引發(fā)算法風(fēng)險(xiǎn)連鎖反應(yīng),如算法偏見與數(shù)據(jù)偏見在相互影響、轉(zhuǎn)化的同時(shí),任何一種偏見亦皆可引起算法決策偏見,并循環(huán)往復(fù)下去?!缎乱淮斯ぶ悄馨l(fā)展規(guī)劃》明確提出要“實(shí)現(xiàn)對(duì)人工智能算法設(shè)計(jì)、產(chǎn)品開發(fā)和成果應(yīng)用等的全流程監(jiān)管”。聚焦某一算法風(fēng)險(xiǎn)主題的規(guī)制對(duì)完善算法風(fēng)險(xiǎn)規(guī)制體系無疑是具有重要意義的,但算法作為人工智能的“大腦”,貫穿于人工智能設(shè)計(jì)開發(fā)、后臺(tái)運(yùn)行、場景應(yīng)用等全過程,須以算法為邏輯線索,立足算法技術(shù)層、算法基礎(chǔ)層、算法結(jié)果層之間的不同思考維度,把握人機(jī)交互與人機(jī)共處兩種不同面向,拓展規(guī)制研究視野,動(dòng)態(tài)、系統(tǒng)考量算法風(fēng)險(xiǎn)規(guī)制問題。從算法技術(shù)、算法學(xué)習(xí)、算法決策三個(gè)切面,人機(jī)交互與人機(jī)共處兩種視角,厘定橫向維度中不同階段的算法風(fēng)險(xiǎn),條分縷析縱向維度中不同層面算法風(fēng)險(xiǎn)轉(zhuǎn)化邏輯,并據(jù)此拿出周全的因應(yīng)規(guī)制之策,構(gòu)建集算法技術(shù)類風(fēng)險(xiǎn)、數(shù)據(jù)類風(fēng)險(xiǎn)、決策類風(fēng)險(xiǎn)于一體的全流程規(guī)制體系,方可為完善我國人工智能法治體系提供更為有益的啟示。
算法勾連人工智能應(yīng)用全過程,上承數(shù)據(jù),即依賴于現(xiàn)有數(shù)據(jù)結(jié)構(gòu)進(jìn)行算法建模、設(shè)計(jì);中連程序,即以程序設(shè)計(jì)語言編碼算法;下接應(yīng)用,即算法自動(dòng)化決策。然而,算法并不存在技術(shù)中立性(16)孫瑩:《人工智能算法規(guī)制的原理與方法》,《西南政法大學(xué)學(xué)報(bào)》2020年第1期。,數(shù)據(jù)的社會(huì)性、算法的價(jià)值偏好以及決策的偏見更是強(qiáng)化人工智能的價(jià)值非中立性實(shí)質(zhì)(17)樸毅、葉斌等:《從算法分析看人工智能的價(jià)值非中立性及其應(yīng)對(duì)》,《科技管理研究》2020年第24期。。人的意志因素可融入算法以及算法技術(shù)復(fù)雜性,導(dǎo)致算法偏見、算法黑箱不可避免,算法運(yùn)行不可控因素隨之增加。
算法可被界定為一系列“已被編碼的程序”或者“為了快速實(shí)現(xiàn)特定目標(biāo)對(duì)一組數(shù)據(jù)進(jìn)行處理的邏輯步驟”(18)Tarleton Gillespie,Pablo J.Boczkowski,eds.,Media Technologies:Essays on Communication,Materiality,and Society,Cambridge,MA:MIT Press,2014,p.167.。作為一種解決特定問題的步驟或方法的邏輯思維,算法是有限序列指令,生發(fā)于程序之前,多以自然語言、偽代碼、流程圖等多種方式加以描述。而代碼是由字符、符號(hào)或信號(hào)碼元以離散形式表示的一系列計(jì)算機(jī)指令。程序員運(yùn)用諸如C++、JAVA等計(jì)算機(jī)語言所編寫的計(jì)算機(jī)程序被稱為源程序或源代碼。機(jī)器學(xué)習(xí)語境下,“模型的求解是對(duì)給定的輸入找到針對(duì)數(shù)據(jù)的一系列處理步驟(即算法),以得到預(yù)期的輸出。用計(jì)算機(jī)求解實(shí)際問題還需要把模型映射到存儲(chǔ)器并將算法轉(zhuǎn)換為程序”(19)沈華:《數(shù)據(jù)結(jié)構(gòu)、算法和程序之間關(guān)系的探討》,《計(jì)算機(jī)教育》2013年第4期。。算法與代碼關(guān)系可描述為:算法欲在計(jì)算機(jī)世界之中獲得立錐之地,則需將其轉(zhuǎn)換成計(jì)算機(jī)能夠理解的源代碼形式,方能使人的抽象思維為計(jì)算機(jī)所感知。此時(shí)便需要既懂自然語言又懂程序設(shè)計(jì)語言的程序員運(yùn)用某種程序設(shè)計(jì)語言將算法編寫成源程序代碼,使算法模型映射至存儲(chǔ)器中,進(jìn)而為計(jì)算機(jī)完成某種特定任務(wù)提供指令。綜合觀之,算法屬邏輯實(shí)現(xiàn),編程屬于代碼實(shí)現(xiàn),為實(shí)現(xiàn)同一種算法可通過BASIC語言、C語言、JAVA語言、HTML語言等不同的程序語言編寫源代碼。算法設(shè)計(jì)與算法實(shí)現(xiàn)分屬人類世界和程序世界兩個(gè)不同的范疇。正因如此,“代碼創(chuàng)設(shè)了算法的運(yùn)行方式,其亦具有反向管理算法的權(quán)能”(20)崔靖梓:《算法歧視挑戰(zhàn)下平等權(quán)保護(hù)的危機(jī)與應(yīng)對(duì)》,《法律科學(xué)》2019年第3期。,算法規(guī)制在一定程度上可借助代碼規(guī)制實(shí)現(xiàn)。
算法運(yùn)行本質(zhì)是數(shù)據(jù)輸入、輸出的過程,但在輸入輸出之間存在無法解釋的“黑洞”,引發(fā)“算法黑箱”問題。究其原因,其一,算法技術(shù)的復(fù)雜性,使算法設(shè)計(jì)、開發(fā)、應(yīng)用等階段分散于不同的研發(fā)主體。同一算法還可通過不同程序設(shè)計(jì)語言加以編碼,思想與表達(dá)之間存在諸多可能。無論是業(yè)內(nèi)人員,還是其他人員,系統(tǒng)了解算法內(nèi)部運(yùn)行機(jī)理并非易事。其二,多種算法的疊加及多個(gè)隱含層的存在加劇了算法的不可解釋性風(fēng)險(xiǎn)?!八惴ㄓ袃?yōu)先級(jí)排序算法、分類算法、關(guān)聯(lián)度算法和濾波算法等多種類型,而自動(dòng)化決策往往不是單一的某個(gè)算法可以完成的,有時(shí)可能需要多種算法的疊加”(21)張淑玲:《破解黑箱:智媒時(shí)代的算法權(quán)力規(guī)制與透明實(shí)現(xiàn)機(jī)制》,《中國出版》2018年第7期。。人工智能算法行為是一種由算法底層的簡單規(guī)則生成的復(fù)雜行為,不是邊界清晰的單個(gè)行為而是集體行為的演化,具有涌現(xiàn)性(22)劉勁楊:《人工智能算法的復(fù)雜性特質(zhì)及倫理挑戰(zhàn)》,《光明日?qǐng)?bào)》2017年9月4日,第15版。。以深度學(xué)習(xí)為代表的算法,在每個(gè)學(xué)習(xí)步驟或環(huán)節(jié)不再存在相對(duì)獨(dú)立的算法,機(jī)器學(xué)習(xí)的各個(gè)組成部分被視為一個(gè)整體,不同算法的一體化運(yùn)用已然成為常態(tài)。其三,基于神經(jīng)深層網(wǎng)絡(luò)的深度學(xué)習(xí)元從數(shù)據(jù)中學(xué)習(xí)特征并自動(dòng)生成結(jié)果,在輸入層與輸出層之間存在著復(fù)雜的線性變換和大規(guī)模的神經(jīng)元連接也即隱含層,很難準(zhǔn)確解釋其內(nèi)部規(guī)則。“算法黑箱”將會(huì)導(dǎo)致人工智能決策不可解釋,進(jìn)而引起算法決策失控。有學(xué)者指出:在司法和醫(yī)療等一些不可逆的決策領(lǐng)域,由于無法對(duì)決策過程做出充分而有效的解釋,一旦通過算法進(jìn)行最終決策,算法的不可解釋性將會(huì)使基于這一技術(shù)的醫(yī)療診斷或者司法裁決很難令人信服(23)高奇琦:《互聯(lián)網(wǎng)與人工智能發(fā)展:風(fēng)險(xiǎn)及治理》,《中國社會(huì)科學(xué)報(bào)》2019年3月29日,第5版。。
與此同時(shí),“一系列的數(shù)據(jù)代碼背后是算法主體的行為目標(biāo)和價(jià)值選擇”(24)金夢(mèng):《立法倫理與算法正義——算法主體行為的法律規(guī)制》,《政法論壇》2021年第1期。。以數(shù)學(xué)形式或計(jì)算機(jī)代碼表達(dá)意見的算法并非完全客觀,算法開發(fā)和設(shè)計(jì)者可能將自己持有的偏見嵌入智能算法之中(25)蘇令銀:《透視人工智能背后的“算法歧視”》,《中國社會(huì)科學(xué)報(bào)》2017年10月10日,第5版。?!八惴ㄔO(shè)計(jì)的效率導(dǎo)向、作為算法運(yùn)行基礎(chǔ)的數(shù)據(jù)之偏差與算法黑箱造成的透明度缺失共同觸發(fā)了算法歧視”(26)崔靖梓:《算法歧視挑戰(zhàn)下平等權(quán)保護(hù)的危機(jī)與應(yīng)對(duì)》。。申言之,人類主觀情感可能隱形化身于算法之中加以表達(dá)。算法作為一種數(shù)學(xué)表達(dá),其在設(shè)計(jì)和開發(fā)中可能通過特征選擇、損失函數(shù)選擇、超參數(shù)調(diào)節(jié)等方式夾帶著算法開發(fā)、設(shè)計(jì)者的主觀價(jià)值判斷。數(shù)據(jù)在人工智能中的本源性地位,使得經(jīng)過主觀選擇的數(shù)據(jù)運(yùn)用于算法設(shè)計(jì)之中,極易產(chǎn)生“偏見進(jìn),偏見出(BIBO:Bias In,Bias Out)”(27)D.U.Himmelstein,S.Woolhandler,“Bias in,Bias out:A Reply to Sheils,Young,and Rubin”,Health Affairs,Vol.11,No.2,1992.的現(xiàn)象。一旦數(shù)據(jù)和算法被人類主觀偏見裹挾,算法決策領(lǐng)域中的算法歧視現(xiàn)象將難以避免。谷歌圖像識(shí)別算法曾將黑色人種圖片標(biāo)記為“大猩猩”;微軟公司的人工智能聊天機(jī)器人Tay上線首日,便被網(wǎng)絡(luò)使用者訓(xùn)練出具有反猶太人、性別歧視、種族歧視等不良價(jià)值取向,不到24小時(shí)便被迫下線。數(shù)據(jù)偏見和算法偏見引發(fā)的疊加效應(yīng),較易引發(fā)公平正義、社會(huì)穩(wěn)定問題。如以帶有偏見的算法來決定貸款是否獲批、保險(xiǎn)費(fèi)率、具體量刑幅度、人員錄用等,將會(huì)加劇社會(huì)不平等,引起社會(huì)失調(diào),增加社會(huì)不穩(wěn)定因素。
從算法設(shè)計(jì)到算法實(shí)現(xiàn),完成了由自然語言向程序語言的轉(zhuǎn)變、抽象思想向具體表達(dá)的轉(zhuǎn)變。在技術(shù)層面對(duì)算法加以規(guī)制,須結(jié)合這種轉(zhuǎn)變過程加以綜合考量。
1.算法知識(shí)產(chǎn)權(quán)保護(hù)中的技術(shù)風(fēng)險(xiǎn)規(guī)制。第一,包含算法在內(nèi)技術(shù)方案的專利權(quán)保護(hù)可促進(jìn)算法公開。算法本身作為一種智力活動(dòng)規(guī)則和方法,不具有專利適格性。新修訂的《專利審查指南》明確規(guī)定,“對(duì)一項(xiàng)包含算法特征或商業(yè)規(guī)則和方法特征的權(quán)利要求是否屬于技術(shù)方案進(jìn)行審查時(shí),需要整體考慮權(quán)利要求中記載的全部特征”。當(dāng)算法與特定應(yīng)用領(lǐng)域結(jié)合,并解決了該領(lǐng)域內(nèi)的技術(shù)問題,所述技術(shù)特征功能與算法特征相互支持、相互作用,共同構(gòu)成了解決某一技術(shù)問題的技術(shù)手段,并且能夠獲得相應(yīng)的技術(shù)效果時(shí),對(duì)包含算法在內(nèi)的技術(shù)方案并不能排除授予專利權(quán)的可能性。由于存在專利申請(qǐng)公開程序或?qū)@跈?quán)公布程序,故算法的專利權(quán)保護(hù)對(duì)促進(jìn)算法透明性具有積極意義。但對(duì)包含算法特征的技術(shù)方案的專利權(quán)保護(hù)并不能囊括所有算法,以專利權(quán)規(guī)制算法風(fēng)險(xiǎn)具有較大局限性。第二,軟件著作權(quán)保護(hù)有利于算法的特定公開和算法行政監(jiān)管。依據(jù)“思想—表達(dá)”二分法,軟件著作權(quán)主要保護(hù)計(jì)算機(jī)程序及其相關(guān)文檔,不延及開發(fā)軟件所含思想、操作方法或者數(shù)學(xué)概念等。算法作為一種抽象思想或智力活動(dòng)規(guī)則,排除在著作權(quán)保護(hù)范圍之外。但算法的實(shí)現(xiàn)依賴于源程序,而源代碼作為算法的表達(dá)方式,可通過軟件著作權(quán)進(jìn)行保護(hù)。軟件著作權(quán)登記需要提交軟件開發(fā)情況、軟件用途和技術(shù)特點(diǎn)、源程序、計(jì)算機(jī)文檔等材料,有利于算法公開及備案,便于算法行政監(jiān)管。即使如此,欲以軟件著作權(quán)保護(hù)源代碼的方式將算法技術(shù)風(fēng)險(xiǎn)控制在可控范圍并不具有普適性。首先,計(jì)算機(jī)軟件著作權(quán)保護(hù)權(quán)不延及思想,軟件著作權(quán)人并不需要向社會(huì)公眾公開軟件技術(shù)方案或技術(shù)構(gòu)思。其次,程序是算法的真子集,通過軟件著作權(quán)保護(hù)算法的范圍也僅局限于對(duì)算法加以編程后的源程序。再次,基于深層神經(jīng)網(wǎng)絡(luò)算法等發(fā)展,顯性編程并非必須,也即“借助機(jī)器學(xué)習(xí),程序員則無需將指令譯成代碼,只要操作系統(tǒng)即可”(28)《機(jī)器學(xué)習(xí)不需要人工編碼?》,《中國經(jīng)濟(jì)周刊》2016年第23期。,借助代碼保護(hù)對(duì)算法加以控制的方法將無適用之地。最后,在部分軟件公開程序源代碼的背景下,“盡管開源軟件允許用戶自由的使用、復(fù)制、修改和再發(fā)布,但這種行為并不是毫無限制的,用戶必須在遵循許可協(xié)議的條件下使用開源軟件”(29)肖建華、柴芳墨:《論開源軟件的著作權(quán)風(fēng)險(xiǎn)及相應(yīng)對(duì)策》,《河北法學(xué)》2017年第6期。,未來一段時(shí)間內(nèi)閉源軟件仍占主流。第三,算法商業(yè)秘密保護(hù)可在一定程度上促進(jìn)算法創(chuàng)新。通過商業(yè)秘密保護(hù)可突破傳統(tǒng)知識(shí)產(chǎn)權(quán)保護(hù)的期限性、客體性等限制,算法開發(fā)者和利用者通過算法的商業(yè)秘密保護(hù)可獲得更高的算法權(quán)力,進(jìn)而促進(jìn)算法創(chuàng)新。然而,算法的商業(yè)秘密保護(hù)可能與算法透明原則之間存在沖突。誠如有學(xué)者所言,算法的商業(yè)秘密保護(hù)將面臨算法操縱被視為可以合理付出的代價(jià),算法黑箱亦被視為算法正常情形的尷尬境地(30)陳景輝:《算法的法律性質(zhì):言論、商業(yè)秘密還是正當(dāng)程序?》,《比較法研究》2020年第2期。。過于倚重商業(yè)秘密保護(hù),除了存在“客體和主體界定困難、保密難度較大、保密成本偏高和價(jià)值性證明不易等缺陷外”(31)李宗輝:《論人工智能的商業(yè)秘密保護(hù)》,《中國發(fā)明與專利》2019年第2期。,算法的商業(yè)秘密保護(hù)還與算法的可解釋性、透明度等存在較大沖突,加劇“算法黑箱”困境。綜合觀之,算法的知識(shí)產(chǎn)權(quán)保護(hù)在一定程度上對(duì)促進(jìn)算法公開、算法監(jiān)管、算法創(chuàng)新具有積極意義,但受制于專利權(quán)保護(hù)適格性要求、軟件著作權(quán)保護(hù)僅延及表達(dá)、商業(yè)秘密保護(hù)的保密性等限制,算法技術(shù)風(fēng)險(xiǎn)的知識(shí)產(chǎn)權(quán)保護(hù)并不能成為算法技術(shù)風(fēng)險(xiǎn)的主要規(guī)制路徑。
2.引入算法解釋權(quán)。算法解釋權(quán)指“當(dāng)自動(dòng)化決策的具體決定對(duì)相對(duì)人有法律上或者經(jīng)濟(jì)上的顯著影響時(shí),相對(duì)人向算法使用人提出異議,要求提供對(duì)具體決策解釋,并要求更新數(shù)據(jù)或更正錯(cuò)誤的權(quán)利”(32)張凌寒:《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,《法律科學(xué)》2018年第3期。。對(duì)算法解釋權(quán)在我國設(shè)立的必要性,學(xué)理上不乏從算法可理解性、權(quán)利沖突等角度加以質(zhì)疑。如一些學(xué)者認(rèn)為,旨在提升算法透明度的硬性規(guī)定“既不可行,也無必要”(33)沈偉偉:《算法透明原則的迷思——算法規(guī)制理論的批判》,《環(huán)球法律評(píng)論》2019年第6期。,披露計(jì)算機(jī)源代碼和增設(shè)算法解釋權(quán)均存有各種弊端。尤其是,算法解釋權(quán)對(duì)以深度學(xué)習(xí)為代表的人工智能算法根本不具備技術(shù)上實(shí)現(xiàn)的可能性;對(duì)于非深度學(xué)習(xí)算法,算法解釋權(quán)也有擾亂商業(yè)實(shí)踐的隱憂,算法解釋權(quán)應(yīng)為我國法律所拒絕(34)林洹民:《個(gè)人對(duì)抗商業(yè)自動(dòng)決策算法的私權(quán)設(shè)計(jì)》,《清華法學(xué)》2020年第4期。。在存在個(gè)人信息保護(hù)制度、消費(fèi)者權(quán)益保護(hù)制度下,算法解釋權(quán)無獨(dú)立存在之必要(35)賈章范:《論算法解釋權(quán)不是一項(xiàng)法律權(quán)利——兼評(píng)〈個(gè)人信息保護(hù)法(草案)〉第二十五條》,《電子知識(shí)產(chǎn)權(quán)》2020年第12期。。然而,技術(shù)的非中立性和算法的復(fù)雜性,將使依賴人工智能作出的關(guān)鍵決策判斷具有較高的風(fēng)險(xiǎn)。除了功能偶發(fā)性失常所引發(fā)恐慌之外,人工智能很可能會(huì)超出人類已有的認(rèn)知界限,知識(shí)的終點(diǎn)無法預(yù)測,更是增加了人們對(duì)于人工智能功能的恐懼(36)孫波、周雪健:《人工智能“倫理迷途”的回歸與進(jìn)路——基于荷蘭學(xué)派“功能偶發(fā)性失?!狈治龅幕卮稹罚蹲匀晦q證法研究》2020年第5期。。人工智能風(fēng)險(xiǎn)會(huì)引發(fā)人工智能恐懼,而恐懼本身又可使人類對(duì)人工智能“投鼠忌器”,最終導(dǎo)致人工智能發(fā)展裹足不前。由此可見,縱然算法解釋面臨著技術(shù)、法律上的諸多難題,但亦不能因噎廢食,否定算法解釋權(quán)存在的意義。算法解釋權(quán)可消解人工智能的可解釋性難題,建立更透明、更魯棒(37)“魯棒控制”是針對(duì)機(jī)器人不確定性的基本控制策略,“魯棒性”是指控制系統(tǒng)在一定(結(jié)構(gòu)、大小)的參數(shù)攝動(dòng)下,維持某些性能的特性。參見謝明江、代穎、施頌椒:《機(jī)器人魯棒控制研究進(jìn)展》,《機(jī)器人》2000年第1期。、更信賴的人工智能系統(tǒng),確保人工智能在更廣領(lǐng)域的應(yīng)用。
算法解釋權(quán)作為一種請(qǐng)求權(quán),“向誰請(qǐng)求、由誰請(qǐng)求、請(qǐng)求內(nèi)容、算法問責(zé)”等問題需根據(jù)特定場景、決策類型加以明晰。其一,在“向誰請(qǐng)求、由誰請(qǐng)求”問題上,人工智能牽涉算法設(shè)計(jì)、產(chǎn)品開發(fā)、成果應(yīng)用等環(huán)節(jié),算法設(shè)計(jì)者、算法使用者(數(shù)據(jù)控制者)可能分屬于不同的主體,算法解釋的主體應(yīng)根據(jù)特定場景循名責(zé)實(shí)。在算法決策對(duì)個(gè)人隱私、信息保護(hù)產(chǎn)生影響時(shí),受算法決策影響的相對(duì)人可依就近原則徑直向算法使用者請(qǐng)求算法解釋;對(duì)影響公共利益、國家安全等公共算法,政府監(jiān)管部門可要求算法設(shè)計(jì)者、使用者對(duì)算法分別加以決策解釋。其二,就“請(qǐng)求內(nèi)容”的問題,算法解釋的范圍應(yīng)根據(jù)具體場景加以界定。學(xué)理上探討的算法解釋范圍包括決策系統(tǒng)的邏輯、意義、設(shè)想后果和一般功能以及具體決策的基本原理、理由和個(gè)體情況(38)張恩典:《大數(shù)據(jù)時(shí)代的算法解釋權(quán):背景、邏輯與構(gòu)造》,《法學(xué)論壇》2019年第4期。;或至少應(yīng)包括數(shù)據(jù)(原始數(shù)據(jù)和訓(xùn)練數(shù)據(jù)等)、代碼(算法的運(yùn)算法則)、決策目標(biāo)、決策結(jié)果、合規(guī)情況、利益沖突情況(算法的關(guān)聯(lián)方及潛在的利害關(guān)系)、數(shù)據(jù)使用方法等(39)包康赟:《論算法解釋的基本原則——來自司法公開的啟示》,《時(shí)代法學(xué)》2020年第6期。。然而,算法決策場景、決策類型的不同,決定了算法解釋范圍并無統(tǒng)一定式??梢罁?jù)公共算法和商業(yè)算法不同類型制定算法解釋標(biāo)準(zhǔn)清單,并就每一項(xiàng)解釋對(duì)象的適用條件加以規(guī)定,且對(duì)基于深度學(xué)習(xí)的算法亦應(yīng)規(guī)定特殊的解釋清單。同時(shí)可參照《專利審查指南》給出實(shí)施例的做法,就每種適用情形給出具體解釋實(shí)例,避免因算法技術(shù)復(fù)雜性造成非技術(shù)人員的難以理解。其三,算法解釋應(yīng)以必要、合理為原則,解釋的對(duì)象范圍、人員范圍等須控制在一定限度之內(nèi)。對(duì)涉及影響個(gè)人信息利益的數(shù)據(jù)挖掘算法解釋,按照請(qǐng)求的相對(duì)性,僅向該相對(duì)人解釋即可,而不必將人員范圍擴(kuò)大至社會(huì)公眾;算法解釋不應(yīng)侵害他人在先權(quán)利等。其四,算法解釋要與算法問責(zé)做好銜接。對(duì)經(jīng)過解釋的算法,相關(guān)部門可依情形分別采取公開源代碼、修正后使用、限制使用、禁止使用等措施。同時(shí)將算法解釋的結(jié)論應(yīng)用于具體個(gè)案之中。如對(duì)算法共謀問題,由于涉嫌壟斷行為,危害公共市場競爭秩序,競爭執(zhí)法機(jī)關(guān)既可要求壟斷行為實(shí)施者也可要求算法設(shè)計(jì)者進(jìn)行算法解釋,并將算法解釋結(jié)論作為判定是否構(gòu)成壟斷行為的考量因素。
3.算法的行政監(jiān)管。人工智能的治理主要包括政府主導(dǎo)模式、第三方主導(dǎo)模式和企業(yè)自我規(guī)制模式(40)汪亞菲、張春莉:《人工智能治理主體的責(zé)任體系構(gòu)建》,《學(xué)習(xí)與探索》2020年第12期。。由于算法技術(shù)牽涉公共利益,除了加強(qiáng)企業(yè)內(nèi)部審查以及引入算法解釋權(quán)、算法知識(shí)產(chǎn)權(quán)保護(hù)等加以私法規(guī)制外,行政機(jī)關(guān)亦應(yīng)加強(qiáng)對(duì)算法的監(jiān)管。當(dāng)前,學(xué)界對(duì)建立算法專門監(jiān)管主體、算法審查機(jī)制、算法監(jiān)管的技術(shù)標(biāo)準(zhǔn)內(nèi)容與算法并重的雙軌審查機(jī)制、算法的分層分類的多元監(jiān)管分別進(jìn)行了探討(41)參見孫建麗:《算法自動(dòng)化決策風(fēng)險(xiǎn)的法律規(guī)制研究》;靖鳴、婁翠:《人工智能技術(shù)在新聞傳播中倫理失范的思考》,《出版廣角》2018年第1期;江溯:《自動(dòng)化決策、刑事司法與算法規(guī)制——由盧米斯案引發(fā)的思考》,《東方法學(xué)》2020年第3期;張凌寒:《風(fēng)險(xiǎn)防范下算法的監(jiān)管路徑研究》,《交大法學(xué)》2018年第4期;倪弋:《網(wǎng)絡(luò)時(shí)代,應(yīng)如何規(guī)范“算法”》,《人民日?qǐng)?bào)》2018年7月4日,第19版。,但對(duì)算法立體式監(jiān)管體系構(gòu)建的關(guān)鍵共性問題討論尚存不足。第一,針對(duì)算法監(jiān)管主體設(shè)置,考慮到算法的技術(shù)復(fù)雜性和場景應(yīng)用的多元性,可設(shè)立專門的數(shù)據(jù)和算法監(jiān)管機(jī)構(gòu),負(fù)責(zé)算法的審核、管理、解釋標(biāo)準(zhǔn)制定等事項(xiàng)。第二,針對(duì)算法監(jiān)管工具的選擇,可綜合采用算法認(rèn)證、算法備案、算法評(píng)級(jí)、算法有限披露、算法有效性測試、內(nèi)容審查、監(jiān)管接口、監(jiān)管沙箱(42)沙箱是法律監(jiān)管外的一個(gè)“安全空間”,準(zhǔn)入的企業(yè)可在其中測試創(chuàng)新產(chǎn)品、服務(wù)、業(yè)務(wù)模式和交付機(jī)制,監(jiān)管沙箱可縮短創(chuàng)新想法進(jìn)入市場的時(shí)間。參見柴瑞娟:《監(jiān)管沙箱的域外經(jīng)驗(yàn)及其啟示》,《法學(xué)》2017年第8期。目前監(jiān)管沙箱在金融科技領(lǐng)域探索較多,今后可將監(jiān)管沙箱模式在算法應(yīng)用重點(diǎn)領(lǐng)域加以推廣,在促進(jìn)算法創(chuàng)新同時(shí),亦有利于創(chuàng)新算法行政監(jiān)管方式,進(jìn)行算法的動(dòng)態(tài)監(jiān)管。等手段,既強(qiáng)調(diào)對(duì)算法技術(shù)層面的過程監(jiān)管,又重視對(duì)算法決策的結(jié)果監(jiān)管。如在金融領(lǐng)域,“開發(fā)公司可根據(jù)宏觀金融形勢,每月或每季度對(duì)算法模型進(jìn)行檢驗(yàn),并根據(jù)市場的波動(dòng)規(guī)律對(duì)算法模型進(jìn)行檢查驗(yàn)證,修改完成后需向監(jiān)管部門進(jìn)行備案”(43)陳慧華:《監(jiān)管視角下智能投顧算法的應(yīng)用風(fēng)險(xiǎn)治理研究》,《保險(xiǎn)職業(yè)學(xué)院學(xué)報(bào)》2020年第3期。;又如依據(jù)算法評(píng)級(jí)為算法使用設(shè)定準(zhǔn)入門檻。第三,針對(duì)算法監(jiān)管方式,可分為決策前、決策中、決策后的監(jiān)管。某種算法采取何種監(jiān)管方式,須綜合考量算法類型(公共算法、商業(yè)算法)、算法分級(jí)、應(yīng)用場景等因素。對(duì)影響國家安全和公共利益的公共算法,既需要算法有效性測試、算法評(píng)級(jí)、算法備案等事前監(jiān)管,還可能需要通過接入監(jiān)管接口進(jìn)行動(dòng)態(tài)監(jiān)管以及對(duì)算法決策內(nèi)容加以事后審查等。第四,針對(duì)算法監(jiān)管的行政責(zé)任,對(duì)于過程監(jiān)管,除了對(duì)未履行監(jiān)管要求承擔(dān)相應(yīng)的不利的后果之外,算法監(jiān)管機(jī)構(gòu)可視情形對(duì)某一算法作出自由使用、限制使用、禁止使用等決定;對(duì)于結(jié)果監(jiān)管,依據(jù)行為違法性質(zhì)及所適用的法律來確定相應(yīng)責(zé)任。
算法從邏輯實(shí)現(xiàn)到代碼實(shí)現(xiàn),是人類世界與程序世界對(duì)話的發(fā)端,但受算法技術(shù)的復(fù)雜性、人類主觀性偏見等影響,引發(fā)了算法黑箱和算法歧視等技術(shù)類風(fēng)險(xiǎn)。算法貫穿人工智能系統(tǒng)運(yùn)行的全過程且存在迭代過程,導(dǎo)致算法技術(shù)類風(fēng)險(xiǎn)“感染性”極強(qiáng),可引發(fā)算法數(shù)據(jù)類、決策類風(fēng)險(xiǎn)連鎖反應(yīng)。通過算法知識(shí)產(chǎn)權(quán)保護(hù)、引入算法解釋權(quán)、算法行政監(jiān)管等措施,可從源頭上減少算法風(fēng)險(xiǎn)的發(fā)生。有學(xué)者提出,對(duì)機(jī)器進(jìn)行雙重意義的編碼,將人類所要實(shí)現(xiàn)的法律目的寫入法律,同時(shí)寫入控制機(jī)器的軟件(44)孫那:《人工智能的法律倫理建構(gòu)》,《江西社會(huì)科學(xué)》2019年第2期。,進(jìn)而實(shí)現(xiàn)法律規(guī)則的代碼化(45)馬長山:《人工智能的社會(huì)風(fēng)險(xiǎn)及其法律規(guī)制》,《法律科學(xué)》2018年第6期。,也即代碼即是法律,以代碼規(guī)制代碼(46)勞倫斯·萊斯格:《代碼2.0:網(wǎng)絡(luò)空間中的法律》,李旭、沈偉偉譯,北京:清華大學(xué)出版社,2009年,第89頁。。然而,以深層神經(jīng)網(wǎng)絡(luò)技術(shù)為代表的深度學(xué)習(xí)發(fā)展,算法實(shí)現(xiàn)由顯性編碼向非顯性編碼轉(zhuǎn)變,寄希望于借助代碼規(guī)制實(shí)現(xiàn)算法規(guī)制具有較大局限性,未來對(duì)算法技術(shù)類風(fēng)險(xiǎn)的規(guī)制應(yīng)適應(yīng)這種變化,精耕細(xì)作算法解釋權(quán)、算法行政監(jiān)管等規(guī)制方式和手段,確保人類世界與程序世界和平對(duì)話,封住算法風(fēng)險(xiǎn)“潘多拉之盒”。
早期的人工智能以與人類邏輯推理過程相符的推理方法去驗(yàn)證命題或謂詞正確與否,或者學(xué)習(xí)推導(dǎo)出新規(guī)則新知識(shí)(47)吳飛:《人工智能:從規(guī)則學(xué)習(xí),到數(shù)據(jù)驅(qū)動(dòng),再到能力增強(qiáng)》,《杭州科技》2017年第2期。,屬于有監(jiān)督學(xué)習(xí)。隨著機(jī)器學(xué)習(xí)的發(fā)展,人工智能的發(fā)展從依賴諸多編程規(guī)則軟件的規(guī)則學(xué)習(xí)階段向基于機(jī)器學(xué)習(xí)尤其是深層神經(jīng)網(wǎng)絡(luò)自我反復(fù)訓(xùn)練數(shù)據(jù)的無監(jiān)督學(xué)習(xí)系統(tǒng)階段轉(zhuǎn)變。基于數(shù)據(jù)庫編碼的計(jì)算機(jī)自動(dòng)化逐漸讓位于基于機(jī)器學(xué)習(xí)的算法自動(dòng)化,數(shù)據(jù)加持機(jī)器學(xué)習(xí)模型,在范圍不確定的環(huán)境中進(jìn)行規(guī)律挖掘或模式識(shí)別,并逐步向基于神經(jīng)網(wǎng)絡(luò)的超級(jí)自動(dòng)化邁進(jìn)(48)唐林垚:《“脫離算法自動(dòng)化決策權(quán)”的虛幻承諾》,《東方法學(xué)》2020年第6期。。機(jī)器學(xué)習(xí)語境下,算法基于自身已有模型對(duì)新輸入數(shù)據(jù)的排列和分類,除了依賴于算法框架,更依賴于用于訓(xùn)練人工智能的大數(shù)據(jù)(49)吳午東:《人工智能生成內(nèi)容與傳統(tǒng)版權(quán)制度的分歧》,《山東社會(huì)科學(xué)》2020年第7期。。數(shù)據(jù)質(zhì)量與自主學(xué)習(xí)能力的密切關(guān)系,防范數(shù)據(jù)風(fēng)險(xiǎn)對(duì)人工智能發(fā)展具有重要意義。
機(jī)器學(xué)習(xí)依賴算法模型,而算法模型的形成離不開海量數(shù)據(jù)的喂養(yǎng)和訓(xùn)練。算法的應(yīng)用對(duì)象主要是數(shù)據(jù)結(jié)構(gòu),在算法研發(fā)中,往往先要進(jìn)行數(shù)據(jù)結(jié)構(gòu)的調(diào)整和搭建,以保證算法對(duì)其有充分的適應(yīng)性(50)范玉紅:《數(shù)據(jù)結(jié)構(gòu)、算法和程序之間關(guān)系分析》,《中國新通信》2017年第18期。。在給定已知數(shù)據(jù)前提下,機(jī)器學(xué)習(xí)算法的步驟可分為“確定模型→訓(xùn)練模型→使用模型”。人類在由傳統(tǒng)物理社會(huì)牛頓的“大定律,小數(shù)據(jù)”技術(shù)范式向人工智能算法時(shí)代默頓的“大數(shù)據(jù),小定律”技術(shù)范式轉(zhuǎn)移過程中(51)王飛躍:《人工智能:第三軸心時(shí)代的來臨》,《文化縱橫》2017年第6期,以量子力學(xué)為基礎(chǔ),利用規(guī)則由小數(shù)據(jù)產(chǎn)生大數(shù)據(jù),再由大數(shù)據(jù)練就“小定律”,通過“小定律”精準(zhǔn)地掌握知識(shí)(52)鄭智航:《人工智能算法的倫理危機(jī)與法律規(guī)制》,《法律科學(xué)》2021年第1期。,這里的“小定律”便可視為基于大數(shù)據(jù)訓(xùn)練所生成的算法模型。計(jì)算機(jī)科學(xué)家尼克勞斯·沃思提出“數(shù)據(jù)結(jié)構(gòu)+算法=程序”。機(jī)器學(xué)習(xí)語境下,對(duì)數(shù)據(jù)、算法、程序(代碼)、算法決策之間的關(guān)系可進(jìn)一步描述為,數(shù)據(jù)結(jié)構(gòu)→算法模型(輸入實(shí)際數(shù)據(jù))→代碼形式+數(shù)據(jù)結(jié)構(gòu)(可執(zhí)行程序)→(輸出)算法決策??傮w來看,人工智能經(jīng)歷了規(guī)則學(xué)習(xí)、機(jī)器學(xué)習(xí)(深度學(xué)習(xí))發(fā)展歷程,從依賴編程邏輯的規(guī)則學(xué)習(xí)轉(zhuǎn)向非顯性編碼的深度學(xué)習(xí),由模仿人類理性行為的系統(tǒng)轉(zhuǎn)向模擬基于數(shù)據(jù)驅(qū)動(dòng)的深層神經(jīng)網(wǎng)絡(luò)系統(tǒng),對(duì)數(shù)據(jù)愈發(fā)依賴。
“基礎(chǔ)數(shù)據(jù)的不完善將直接影響算法輸出的科學(xué)性”(53)李婕:《算法規(guī)制如何實(shí)現(xiàn)法治公正》,《檢察日?qǐng)?bào)》2018年7月10日,第3版。?!盁o論學(xué)習(xí)算法有多好用,也只是在獲得數(shù)據(jù)時(shí)好用??刂屏藬?shù)據(jù)的人也就控制了學(xué)習(xí)算法”(54)佩德羅·多明戈斯:《終極算法:機(jī)器學(xué)習(xí)和人工智能如何重塑世界》,黃芳萍譯,北京:中信集團(tuán)出版社,2017年,第58頁。。算法開發(fā)離不開數(shù)據(jù)的喂養(yǎng),而一旦數(shù)據(jù)本身出現(xiàn)缺陷或偏見,將可能使“算法決策可以強(qiáng)化已有的社會(huì)歧視模式,繼承人類決策的某種偏見”(55)B.Lepri,N.Oliver,et al.,“Fair,Transparent,and Accountable Algorithmic Decision-making Processes”,Philosophy & Technology,Vol.31,No.4,2018.。在數(shù)據(jù)資源向數(shù)據(jù)資產(chǎn)的轉(zhuǎn)變過程中,數(shù)據(jù)屬性、數(shù)據(jù)主體、數(shù)據(jù)形式、數(shù)據(jù)價(jià)值等不斷發(fā)生變化,誰擁有數(shù)據(jù)、誰控制數(shù)據(jù)等問題并未定于一尊。數(shù)據(jù)法律保護(hù)的闕如導(dǎo)致數(shù)據(jù)缺陷、數(shù)據(jù)濫用等常有發(fā)生,影響著數(shù)據(jù)的獲取及流通,為算法在具體領(lǐng)域運(yùn)用產(chǎn)生諸如歧視、安全、隱私等風(fēng)險(xiǎn)埋下了隱患。有學(xué)者指出:算法訓(xùn)練時(shí)采用的數(shù)據(jù)和實(shí)際輸入的數(shù)據(jù)在數(shù)據(jù)質(zhì)量上重合度愈高,愈能得出符合預(yù)期目標(biāo)的結(jié)論數(shù)據(jù)。如果用于訓(xùn)練算法的數(shù)據(jù)存在諸如不完整、陳舊、不相關(guān)等缺陷,無論算法設(shè)計(jì)得多么完美,最后的數(shù)據(jù)輸出也是錯(cuò)誤的(56)張超:《新聞生產(chǎn)中的算法風(fēng)險(xiǎn):成因、類型與對(duì)策》,《中國出版》2018年第13期。。數(shù)據(jù)在人工智能中的本源性地位,數(shù)據(jù)錯(cuò)誤極易引起結(jié)果失真。同時(shí),訓(xùn)練數(shù)據(jù)與實(shí)際輸入數(shù)據(jù)之間存在偏差,也會(huì)產(chǎn)生內(nèi)容失實(shí)、信息錯(cuò)誤乃至偏見;若未經(jīng)許可將他人隱秘信息和個(gè)人信息納入輸入范圍,還可能存在侵犯他人隱私權(quán)和個(gè)人信息權(quán)等風(fēng)險(xiǎn)。
算法風(fēng)險(xiǎn)的規(guī)制不能拘泥于算法本身的規(guī)制?!爱?dāng)對(duì)數(shù)據(jù)進(jìn)行嚴(yán)格保護(hù)的時(shí)候,其實(shí)就在源頭上對(duì)人工智能進(jìn)行了規(guī)制”(57)汪慶華:《人工智能的法律規(guī)制路徑:一個(gè)框架性討論》,《現(xiàn)代法學(xué)》2019年第2期。?!八惴ㄒ?guī)制本身就體現(xiàn)著對(duì)數(shù)據(jù)收集、利用層面的規(guī)制”(58)F.H.Cate,M.S.Viktor,“Notice and Consent in a World of Big Data”,International Data Privacy Law,Vol.3,No.2,2013.。為防范數(shù)據(jù)層面的風(fēng)險(xiǎn)對(duì)算法所造成的影響,確保數(shù)據(jù)的流通和共享,需對(duì)個(gè)人信息保護(hù)、企業(yè)數(shù)據(jù)保護(hù)等加以合理制度安排。
1.原始數(shù)據(jù)的適度保護(hù)?!袄斎耄敵?GIGO:Garbage in,Garbage Out)”(59)Y.Kim,J.Huang,et al.,“Garbage in,Garbage Out:Data Collection,Quality Assessment and Reporting Standards for Social Media Data Use in Health Research,Infodemiology and Digital Disease Detection”,Journal of Medical Internet Research,Vol.18,No.2,2016.,數(shù)據(jù)人格權(quán)對(duì)原始數(shù)據(jù)的適度保護(hù),在保護(hù)原始數(shù)據(jù)生成者利益的同時(shí),亦有利于保證高質(zhì)量數(shù)據(jù)的持續(xù)供給,防止諸如大數(shù)據(jù)殺熟和信息繭房現(xiàn)象的發(fā)生。由于“當(dāng)代個(gè)人信息保護(hù)法的諸項(xiàng)原則以經(jīng)濟(jì)活動(dòng)中的個(gè)人信息采集和處理為主要假設(shè)場景”(60)劉文杰:《被遺忘權(quán):傳統(tǒng)元素、新語境與利益衡量》,《法學(xué)研究》2018年第2期。,若對(duì)數(shù)據(jù)人格利益采取超越技術(shù)發(fā)展水平的保護(hù),將可能引起數(shù)據(jù)流通的“梗阻”,使算法缺乏數(shù)據(jù)的持續(xù)供給,影響算法決策的科學(xué)性,進(jìn)而阻礙人工智能產(chǎn)業(yè)發(fā)展。原始數(shù)據(jù)主要包括私密信息、個(gè)人信息等,如用戶基于某種事實(shí)行為而形成的數(shù)據(jù)。《民法典》頒布之后,基于原始數(shù)據(jù)的形態(tài)不同,對(duì)隱私和個(gè)人信息的保護(hù)加以區(qū)分的同時(shí),并對(duì)個(gè)人信息的保護(hù)加以專門規(guī)定。但《民法典》并未將個(gè)人信息的保護(hù)進(jìn)行正面確權(quán),而是將其視為一種防御性利益予以保護(hù)(61)李媛:《民法典為個(gè)人信息保護(hù)確立方向》,《中國社會(huì)科學(xué)報(bào)》2020年7月22日,第4版。。縱然數(shù)據(jù)的獲取和利用受到個(gè)人信息處理規(guī)則的約束,數(shù)據(jù)獲取須經(jīng)過原始數(shù)據(jù)主體的許可或授權(quán),但這種約束須保持在合理的限度。企業(yè)數(shù)據(jù)主要包括原生數(shù)據(jù)與衍生數(shù)據(jù),原生數(shù)據(jù)主要指匯集個(gè)人數(shù)據(jù)而形成的規(guī)?;瘮?shù)據(jù)?!霸鷶?shù)據(jù)被記錄、存儲(chǔ)后,經(jīng)過算法加工、計(jì)算、聚合而成的系統(tǒng)的、可讀取、有使用價(jià)值的數(shù)據(jù)”(62)楊立新、陳小江:《衍生數(shù)據(jù)是數(shù)據(jù)專有權(quán)的客體》,《中國社會(huì)科學(xué)報(bào)》2016年7月13日,第5版。稱之衍生數(shù)據(jù)。司法實(shí)踐中形成的“三重授權(quán)”原則,明晰了獲取企業(yè)數(shù)據(jù)時(shí)“用戶、數(shù)據(jù)控制者、第三方”之間的授權(quán)規(guī)則,但對(duì)不具有識(shí)別性的企業(yè)數(shù)據(jù)的獲取,個(gè)人信息處理規(guī)則并不能延及于此,否則數(shù)據(jù)流通將受到極大限制。誠如學(xué)者所言,個(gè)人數(shù)據(jù)可以基于不同的目的進(jìn)行開發(fā)和使用,產(chǎn)生不同的增值服務(wù)或衍生應(yīng)用,而這種多目的或多用途的適用之間又會(huì)產(chǎn)生更復(fù)雜和更高級(jí)的應(yīng)用(63)吳偉光:《大數(shù)據(jù)技術(shù)下個(gè)人數(shù)據(jù)信息私權(quán)保護(hù)論批判》,《政治與法律》2016年第7期。。所以,考慮到數(shù)據(jù)收集目的與利用目的之間的偏差,當(dāng)企業(yè)數(shù)據(jù)不具有可識(shí)別性時(shí),企業(yè)數(shù)據(jù)形成階段的用戶授權(quán)規(guī)則并不能對(duì)后續(xù)衍生數(shù)據(jù)的利用加以約束。
2.企業(yè)數(shù)據(jù)的權(quán)利保護(hù)及行使限制。衍生數(shù)據(jù)雖然是算法決策的產(chǎn)物,但從動(dòng)態(tài)觀之,其之后亦可成為算法建模時(shí)的訓(xùn)練數(shù)據(jù)。當(dāng)前,企業(yè)數(shù)據(jù)保護(hù)主要存在立法賦權(quán)模式和行為規(guī)制兩種模式(64)寧立志、傅顯揚(yáng):《論數(shù)據(jù)的法律規(guī)制模式選擇》,《知識(shí)產(chǎn)權(quán)》2019年第12期。。有學(xué)者認(rèn)為,數(shù)據(jù)用益權(quán)屬于一項(xiàng)新興財(cái)產(chǎn)權(quán),根據(jù)不同主體對(duì)數(shù)據(jù)形成的貢獻(xiàn)來源和程度的不同,應(yīng)當(dāng)設(shè)定數(shù)據(jù)原發(fā)者擁有數(shù)據(jù)所有權(quán)與數(shù)據(jù)處理者擁有數(shù)據(jù)用益權(quán)的二元權(quán)利結(jié)構(gòu),以實(shí)現(xiàn)數(shù)據(jù)財(cái)產(chǎn)權(quán)益分配的均衡(65)申衛(wèi)星:《論數(shù)據(jù)用益物權(quán)》,《中國社會(huì)科學(xué)》2020年第11期。。此外,按照“數(shù)據(jù)權(quán)屬—數(shù)據(jù)獲取與使用—數(shù)據(jù)控制”的規(guī)則框架,在肯認(rèn)數(shù)據(jù)權(quán)基礎(chǔ)上,還可依據(jù)反不正當(dāng)競爭法對(duì)數(shù)據(jù)獲取和使用進(jìn)行調(diào)整(66)曹勝亮、張曉萌:《人工智能時(shí)代數(shù)據(jù)競爭的法律規(guī)制》,《學(xué)習(xí)與實(shí)踐》2019年第10期。。然而,數(shù)據(jù)權(quán)利保護(hù)方式亦廣受質(zhì)疑,一些學(xué)者認(rèn)為依靠傳統(tǒng)財(cái)產(chǎn)權(quán)路徑,存在阻礙數(shù)據(jù)流通以及權(quán)利配置中權(quán)利客體不清晰、缺乏法律排他性、權(quán)利內(nèi)容和范圍缺乏公示等問題,數(shù)據(jù)治理合同路徑更契合當(dāng)前數(shù)據(jù)經(jīng)濟(jì)的發(fā)展(67)金耀:《數(shù)據(jù)治理法律路徑的反思與轉(zhuǎn)進(jìn)》,《法律科學(xué)》2020年第2期。。通過賦權(quán)模式保護(hù)數(shù)據(jù)隱藏著邏輯漏洞與風(fēng)險(xiǎn),并可能制約數(shù)據(jù)、人工智能行業(yè)的發(fā)展,應(yīng)構(gòu)建以合同為中心的中間權(quán)模式(68)張素華、李雅男:《數(shù)據(jù)保護(hù)的路徑選擇》,《學(xué)術(shù)界》2018年第7期。。數(shù)據(jù)合約保護(hù)模式繞過權(quán)利保護(hù)寄希望于合約對(duì)數(shù)據(jù)交易方的行為加以一定規(guī)范,雖具有一定的靈活性,但亦存在合同具有相對(duì)性、產(chǎn)權(quán)不清晰導(dǎo)致數(shù)據(jù)交易成本過高、數(shù)據(jù)投資激勵(lì)不足等問題,從而制約著數(shù)據(jù)的創(chuàng)新和流通。算法建模和機(jī)器學(xué)習(xí)過程中,離不開海量的企業(yè)數(shù)據(jù),若對(duì)企業(yè)數(shù)據(jù)采取絕對(duì)性的權(quán)利保護(hù)方式,將可能給數(shù)據(jù)流通形成阻礙;若不對(duì)企業(yè)數(shù)據(jù)加以保護(hù),將可能挫傷數(shù)據(jù)創(chuàng)新動(dòng)力,進(jìn)而影響數(shù)據(jù)生成、算法訓(xùn)練、機(jī)器學(xué)習(xí)。對(duì)基于原始數(shù)據(jù)的加工和處理所形成的企業(yè)數(shù)據(jù)尤其是衍生數(shù)據(jù)的保護(hù),應(yīng)平衡好數(shù)據(jù)原始主體與數(shù)據(jù)經(jīng)營者、數(shù)據(jù)流通與數(shù)據(jù)創(chuàng)新等之間的關(guān)系,并將其作為一種新興權(quán)利并納入知識(shí)產(chǎn)權(quán)體系保護(hù)之中,但對(duì)其權(quán)能內(nèi)容應(yīng)加以合理設(shè)計(jì)和限制,確保數(shù)據(jù)創(chuàng)新、數(shù)據(jù)流通、數(shù)據(jù)共享之間的互動(dòng)發(fā)展。
3.原始數(shù)據(jù)的刪除、移植、修改。數(shù)據(jù)的必要?jiǎng)h除、有序流動(dòng)、合理修改可為算法提供干凈、高質(zhì)量的數(shù)據(jù),進(jìn)而推動(dòng)人工智能的發(fā)展。其一,被遺忘權(quán)和數(shù)據(jù)攜帶權(quán)皆起源于歐盟《一般數(shù)據(jù)保護(hù)條例》。對(duì)被遺忘權(quán)的本土化,學(xué)界進(jìn)行較為廣泛的討論。有學(xué)者認(rèn)為,從歐盟數(shù)據(jù)保護(hù)體制來看,“被遺忘權(quán)”具有遺忘權(quán)與刪除權(quán)兩個(gè)維度(69)張里安、韓旭至:《“被遺忘權(quán)”:大數(shù)據(jù)時(shí)代下的新問題》,《河北法學(xué)》2017年第3期。,其中,刪除權(quán)針對(duì)的是缺乏法律基礎(chǔ)的信息,以排除對(duì)信息的不法收集和處理;被遺忘權(quán)所針對(duì)的信息則是在合法的基礎(chǔ)上收集、使用、加工、傳輸?shù)囊堰^時(shí)、不相干、有害和不準(zhǔn)確的信息(70)滿洪杰:《被遺忘權(quán)的解析與構(gòu)建:作為網(wǎng)絡(luò)時(shí)代信息價(jià)值糾偏機(jī)制的研究》,《法制與社會(huì)發(fā)展》2018年第2期。。還有學(xué)者認(rèn)為,被遺忘權(quán)應(yīng)改為刪除權(quán),且納入個(gè)人信息權(quán)之中(71)鄭志峰:《網(wǎng)絡(luò)社會(huì)的被遺忘權(quán)研究》,《法商研究》2015年第6期。。被遺忘權(quán)的權(quán)能主要在于刪除,試圖根據(jù)刪除信息的不同劃分為遺忘權(quán)與刪除權(quán)實(shí)無必要。在人這一主體身份“被數(shù)據(jù)化”背景下,被遺忘權(quán)作為一項(xiàng)主動(dòng)性權(quán)利,可打破固有數(shù)據(jù)記憶,維護(hù)人格尊嚴(yán)、減少隱私泄露,有效紓解記憶與遺忘的困境,保證數(shù)據(jù)合理流動(dòng)。但凡事過猶不及,“被遺忘權(quán)并不是任意刪除,也不是對(duì)個(gè)人信息、人生痕跡的任意涂改或掩過飾非”(72)滿洪杰:《被遺忘權(quán)的解析與構(gòu)建:作為網(wǎng)絡(luò)時(shí)代信息價(jià)值糾偏機(jī)制的研究》。。基于無監(jiān)督機(jī)器學(xué)習(xí)的人工智能系統(tǒng)離不開多元、全面的數(shù)據(jù),而刪除決定其關(guān)鍵規(guī)則的數(shù)據(jù)可能會(huì)降低人工智能的精確性。故在權(quán)利設(shè)置中,應(yīng)對(duì)被遺忘權(quán)的主體和客體等加以嚴(yán)格限制。被遺忘權(quán)權(quán)利主體應(yīng)在公眾人物和普通人物之間有所區(qū)分,不具有人格屬性的法人組織等應(yīng)排除在權(quán)利主體范圍之外;被遺忘權(quán)客體應(yīng)僅限于侵害隱私和個(gè)人信息權(quán)益、過時(shí)的、錯(cuò)誤的數(shù)據(jù)等,從而防止被遺忘權(quán)的濫用造成數(shù)據(jù)失真及匱乏,影響人工智能健康發(fā)展;被遺忘權(quán)內(nèi)容主要包括刪除權(quán),但不同的刪除義務(wù)主體(數(shù)據(jù)控制者)所承擔(dān)刪除義務(wù)亦有差異,如對(duì)于搜索引擎服務(wù)商,刪除主要表現(xiàn)為斷開鏈接,而對(duì)既提供平臺(tái)亦介入交易的內(nèi)容服務(wù)商,刪除則表現(xiàn)為具體的可識(shí)別性信息內(nèi)容。其二,數(shù)據(jù)攜帶權(quán)“指數(shù)據(jù)主體有權(quán)獲得其提供給控制者的個(gè)人數(shù)據(jù)或者有權(quán)將這類數(shù)據(jù)轉(zhuǎn)移給另一個(gè)控制者”(73)卓力雄:《數(shù)據(jù)攜帶權(quán):基本概念,問題與中國應(yīng)對(duì)》,《行政法學(xué)研究》2019年第6期。。但數(shù)據(jù)攜帶權(quán)一方面在增加用戶體驗(yàn)、推動(dòng)數(shù)據(jù)開放利用和數(shù)據(jù)分享、防止數(shù)據(jù)壟斷方面具有積極意義,另一方面可能誘發(fā)其他企業(yè)在數(shù)據(jù)獲取時(shí)“搭便車”的行為。為促進(jìn)數(shù)字經(jīng)濟(jì)的發(fā)展,在確保隱私和個(gè)人信息安全基礎(chǔ)上,我國在相關(guān)制度構(gòu)建中應(yīng)以不對(duì)數(shù)據(jù)轉(zhuǎn)移設(shè)置技術(shù)障礙為前提,并依據(jù)不同場景為用戶獲取、轉(zhuǎn)移數(shù)據(jù)以及跨平臺(tái)數(shù)據(jù)交換提供便利,逐步推進(jìn)數(shù)據(jù)攜帶權(quán)的建立。其三,《民法典》第1037條規(guī)定,“自然人可以依法向信息處理者查閱或者復(fù)制其個(gè)人信息;發(fā)現(xiàn)信息有錯(cuò)誤的,有權(quán)提出異議并請(qǐng)求及時(shí)采取更正等必要措施”。未來可對(duì)數(shù)據(jù)修改條件、修改程序作出更加具體明確的規(guī)定,在動(dòng)態(tài)上確保數(shù)據(jù)的準(zhǔn)確性,為人工智能的持續(xù)發(fā)展提供高質(zhì)量的數(shù)據(jù)。
理性主義與經(jīng)驗(yàn)主義的不同哲學(xué)取向?qū)θ斯ぶ悄艿难芯慨a(chǎn)生了深遠(yuǎn)影響(74)趙澤林:《理性主義與經(jīng)驗(yàn)主義:人工智能的哲學(xué)分析》,《系統(tǒng)科學(xué)學(xué)報(bào)》2018年第4期。。規(guī)則學(xué)習(xí)到自主學(xué)習(xí)的演變伴隨著人工智能從理性主義到經(jīng)驗(yàn)主義的轉(zhuǎn)向,數(shù)據(jù)的角色日益重要,如深度學(xué)習(xí)依賴于以數(shù)據(jù)驅(qū)動(dòng)為基礎(chǔ)的隨機(jī)梯度下降算法、卷積神經(jīng)網(wǎng)絡(luò)算法等。在某種程度上,“算法自動(dòng)化決策系統(tǒng)事實(shí)上是以決策為用、以數(shù)據(jù)為體、以機(jī)器學(xué)習(xí)為魂的”(75)肖冬梅:《“后真相”背后的算法權(quán)力及其公法規(guī)制路徑》,《行政法學(xué)研究》2020年第4期。?;谏疃葘W(xué)習(xí)人工智能系統(tǒng)的自主性、反饋性、迭代性等特征,對(duì)數(shù)據(jù)的依賴日漸加深,然而,諸如個(gè)人信息泄露、數(shù)據(jù)安全、數(shù)據(jù)缺陷、數(shù)據(jù)壟斷等問題不斷涌現(xiàn),掣肘人工智能發(fā)展。通過個(gè)人信息保護(hù)、企業(yè)數(shù)據(jù)權(quán)利保護(hù)以及對(duì)數(shù)據(jù)風(fēng)險(xiǎn)的防范,處理好數(shù)據(jù)創(chuàng)新與數(shù)據(jù)流通之間的關(guān)系,便是對(duì)人工智能時(shí)代法律變革的有力回應(yīng),可為人工智能的持續(xù)發(fā)展提供持續(xù)資源保障。
自動(dòng)化決策可劃分為計(jì)算機(jī)技術(shù)(1980—2000)、算法程序(2000—2020)、深度學(xué)習(xí)或神經(jīng)網(wǎng)絡(luò)(2020+)三個(gè)階段(76)唐林垚:《“脫離算法自動(dòng)化決策權(quán)”的虛幻承諾》。。輔助系統(tǒng)主要指在人工智能發(fā)展中,人類處于主導(dǎo)地位,機(jī)器僅視作人類支配的工具;智能系統(tǒng)指機(jī)器具有獨(dú)立的主體地位,并能承擔(dān)一定的法律責(zé)任的“主體”。算法決策作為算法、程序(代碼)、數(shù)據(jù)等作用于計(jì)算機(jī)的產(chǎn)物,交織著人機(jī)交互和機(jī)器自我學(xué)習(xí),使得算法決策形態(tài)具有多元性、算法決策機(jī)制具有隱蔽性、算法決策主體具有模糊性,從而對(duì)算法決策風(fēng)險(xiǎn)的規(guī)制形成了挑戰(zhàn)。
算法決策的形態(tài)既可表現(xiàn)為數(shù)據(jù)產(chǎn)品,又可表現(xiàn)為某種推薦或選擇,還可表現(xiàn)為人工智能生成物乃至具有思維能力的智能機(jī)器。具體說來,有以下四種呈現(xiàn)方式:(1)數(shù)據(jù)產(chǎn)品。大數(shù)據(jù)產(chǎn)品屬于算法生成物,是網(wǎng)絡(luò)運(yùn)營者在收集巨量用戶數(shù)據(jù)的基礎(chǔ)上,以特定的算法或人工處理、分析、整合后產(chǎn)生的衍生數(shù)據(jù)產(chǎn)品(77)李永明、戴敏敏:《大數(shù)據(jù)產(chǎn)品的權(quán)利屬性及法律保護(hù)研究》,《浙江大學(xué)學(xué)報(bào)》(人文社會(huì)科學(xué)版)2020年第2期。。數(shù)據(jù)產(chǎn)品形態(tài)印證了數(shù)據(jù)與算法是相輔相成的關(guān)系,數(shù)據(jù)在喂養(yǎng)算法、促進(jìn)算法不斷優(yōu)化的同時(shí),算法也使數(shù)據(jù)的獲取和分析更加科學(xué)和精準(zhǔn),并不斷生成新的數(shù)據(jù)。(2)算法推薦。推薦系統(tǒng)是幫助用戶解決信息過載問題的有效工具,協(xié)同過濾、基于內(nèi)容推薦、基于圖結(jié)構(gòu)推薦和混合推薦是目前較為常見的推薦方法(78)楊博、趙鵬飛:《推薦算法綜述》,《山西大學(xué)學(xué)報(bào)》(自然科學(xué)版)2011年第3期。。算法造成的風(fēng)險(xiǎn)主要是濫用數(shù)據(jù)挖掘和深度學(xué)習(xí)技術(shù),不當(dāng)收集、分析用戶數(shù)據(jù),并利用用戶畫像對(duì)用戶進(jìn)行定制化服務(wù),甚至對(duì)用戶進(jìn)行歧視性定價(jià)或進(jìn)行差別化對(duì)待(79)魯春雅:《自動(dòng)化決策算法的法律規(guī)制》,《民主與法制時(shí)報(bào)》2020年11月19日,第6版。,如大數(shù)據(jù)殺熟和算法共謀等。(3)人工智能生成物。未來將存在“外部制造”的“人化物”(越來越高級(jí)的機(jī)器人)和“內(nèi)部改造”的“物化人”(即通過植入芯片乃至基因改造“新人”)(80)何懷宏:《何以為人,人將何為——人工智能的未來挑戰(zhàn)》,《探索與爭鳴》2017年第10期。?!艾F(xiàn)階段,人工智能生成的內(nèi)容只是應(yīng)用某種算法、規(guī)則和模板的結(jié)果”(81)王遷:《論人工智能生成的內(nèi)容在著作權(quán)法中的定性》,《法律科學(xué)》2017年第5期。。弱人工智能時(shí)代,計(jì)算機(jī)軟件智能生成報(bào)告與人工智能生成物并非同一概念,前者游離于數(shù)據(jù)庫、衍生數(shù)據(jù)、商業(yè)秘密等形態(tài)之間。而“人工智能的生成成果是人工智能程序在人類參與度極低的情況下基于數(shù)據(jù)和算法通過自主學(xué)習(xí)和建模所自動(dòng)生成的內(nèi)容”(82)陶乾:《論著作權(quán)法對(duì)人工智能生成成果的保護(hù)——作為鄰接權(quán)的數(shù)據(jù)處理者權(quán)之證立》,《法學(xué)》2018年第4期。。(4)人工智能主體(機(jī)器人)。當(dāng)前,人類自然世界與機(jī)器程序世界的相互影響,“機(jī)器正在生物化,而生物正在工程化”(83)凱文·凱利:《失控:全人類的最終命運(yùn)和結(jié)局》,東西文庫譯,北京:新星出版社,2010年,第3頁。。弱人工智能時(shí)代,智能機(jī)器并不具有主體地位,更多附屬于人類,屬于人類的支配工具。強(qiáng)人工智能時(shí)代,人工智能將不再是簡單的以技術(shù)工具角色參與人類社會(huì)生活,未來將可能產(chǎn)生各種各樣的具有獨(dú)立思維意識(shí)的機(jī)器人,對(duì)基于“主客體二分法”以人類為中心而構(gòu)建的法律體系帶來前所未有的沖擊與挑戰(zhàn)。
在人工智能的不同發(fā)展階段,算法應(yīng)用所引起的決策風(fēng)險(xiǎn)具有不同的表征,當(dāng)前人們對(duì)算法推薦、算法共謀、人工智能責(zé)任等決策風(fēng)險(xiǎn)較為關(guān)注。
其一,算法推薦問題。伴隨信息技術(shù)迅猛發(fā)展,信息爆炸式增長、信息過載的時(shí)代悄然邁入。有學(xué)者指出:越來越多的信息被生產(chǎn)出來,而最終信息總量遠(yuǎn)遠(yuǎn)超過了個(gè)人或系統(tǒng)所能接受、處理或有效利用的范圍(84)徐瑞朝、曾一昕:《國內(nèi)信息過載研究述評(píng)與思考》,《圖書館學(xué)研究》2017年第18期。。個(gè)性化推薦算法通過收集用戶之前的一些歷史記錄等信息,分析用戶的偏好并向用戶推薦,有效解決了信息過載問題。然而,在個(gè)性化推薦算法具體應(yīng)用中,基于逐利動(dòng)機(jī)、信息的不對(duì)稱等影響,諸如“個(gè)人信息泄密、大數(shù)據(jù)殺熟、信息繭房”等現(xiàn)象相伴而生。如搜索引擎的競價(jià)排名、電子商務(wù)的商品推薦、社交網(wǎng)絡(luò)的朋友推薦、資訊APP的新聞推薦等基于推薦算法所產(chǎn)生的大數(shù)據(jù)殺熟、信息繭房、低俗劣質(zhì)信息精準(zhǔn)推送等問題,對(duì)互聯(lián)網(wǎng)內(nèi)容治理、用戶知情權(quán)的保障、競爭秩序維護(hù)造成嚴(yán)重影響。又如,效率導(dǎo)向是算法的主導(dǎo)原則,在算法應(yīng)用某一領(lǐng)域時(shí)可能會(huì)缺乏人性關(guān)懷。受一味追求效率、實(shí)現(xiàn)利益最大化影響,外賣騎手可能會(huì)被困在平臺(tái)算法精確設(shè)計(jì)的系統(tǒng)里,被算法所壓榨,同時(shí)觸發(fā)交通安全等問題。
其二,算法共謀問題。數(shù)據(jù)在算法加持下,使經(jīng)營者對(duì)產(chǎn)品需求、價(jià)格變化、用戶習(xí)慣、競爭對(duì)手等信息獲取更為便利,為不同經(jīng)營者之間通過利用算法尋找利益共同點(diǎn)并達(dá)成共謀提供可能。算法共謀可分為“信使型、軸輻型、預(yù)測型、自主型”等幾種方式,其中,“信使”類算法和“軸輻”類算法只是執(zhí)行企業(yè)共謀限制競爭意圖的工具,屬于以正式協(xié)議、意思聯(lián)絡(luò)或一致意志為基礎(chǔ)的“明示共謀”;“預(yù)測”類算法和“自主”類算法屬于不依賴任何協(xié)議、意思聯(lián)絡(luò)的“默示共謀”(85)時(shí)建中:《共同市場支配地位制度拓展適用于算法默示共謀研究》。。算法可能構(gòu)成經(jīng)營者共謀達(dá)成壟斷協(xié)議的工具,而受到反壟斷法調(diào)整。但在算法缺乏透明度情形下,如何界定人為合謀與機(jī)器合謀則需要競爭執(zhí)法機(jī)關(guān)在實(shí)踐中結(jié)合算法類型、主觀意圖、損失大小等加以綜合判斷。
其三,人工智能主體地位問題。在弱人工智能向強(qiáng)人工智能轉(zhuǎn)變過程中,機(jī)器自主學(xué)習(xí)得到前所未有的提升,人工智能由客體性地位向主體性地位轉(zhuǎn)變的可能性不再是天方夜譚,附屬關(guān)系的人機(jī)交互由平等關(guān)系的人與人工智能交互替代的圖景可期,強(qiáng)人工智能是否具有主體資格引起人們關(guān)注,啟迪人們進(jìn)行面向未來的法治研究。判斷人工智能是否具有主體地位,關(guān)鍵在于算法自動(dòng)化決策中占據(jù)主導(dǎo)作用的是人類抑或機(jī)器本身,這也是輔助系統(tǒng)與智能系統(tǒng)的分水嶺。對(duì)于無人駕駛事故責(zé)任,規(guī)制對(duì)象由傳統(tǒng)的駕駛?cè)藛T向算法設(shè)計(jì)者、智能系統(tǒng)制造者乃至智能系統(tǒng)本身轉(zhuǎn)變。對(duì)于人工智能生成物,可區(qū)分為人工智能作為人類創(chuàng)作輔助工具生成的計(jì)算機(jī)衍生作品和人工智能創(chuàng)作無需人類事先定義規(guī)則而作為獨(dú)立的創(chuàng)作主體(86)劉影:《人工智能生成物的著作權(quán)法保護(hù)初探》,《知識(shí)產(chǎn)權(quán)》2017年第9期。。根據(jù)人為因素與機(jī)器因素參與程度的不同,人工智能生成物的權(quán)利歸屬存在著“虛擬法律人格說”、“人工智能編程設(shè)計(jì)者為作者說”、“社會(huì)公有領(lǐng)域說”、“人工智能使用者說”、“人工智能編程設(shè)計(jì)者與使用者為共同作者說”(87)朱夢(mèng)云:《人工智能生成物的著作權(quán)歸屬制度設(shè)計(jì)》,《山東大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2019年第1期。等不同論斷。
算法應(yīng)用場景十分廣泛,非某一部法律法規(guī)所能囊括,關(guān)于算法決策風(fēng)險(xiǎn)討論范圍十分廣泛。“智能革命對(duì)當(dāng)下的法律規(guī)則和法律秩序帶來一場前所未有的挑戰(zhàn),在民事主體法、著作權(quán)法、侵權(quán)責(zé)任法、人格權(quán)法、交通法、勞動(dòng)法等諸多方面與現(xiàn)有法律制度形成沖突”(88)吳漢東:《人工智能時(shí)代的制度安排與法律規(guī)制》,《法律科學(xué)》2017年第5期。。有學(xué)者認(rèn)為,算法可能因?yàn)檫\(yùn)用算法主體、針對(duì)對(duì)象、涉及問題等不同而具有不同性質(zhì)。算法規(guī)制應(yīng)采取場景化的規(guī)制路徑(89)丁曉東:《論算法的法律規(guī)制》,《中國社會(huì)科學(xué)》2020年第12期。。算法的應(yīng)用若侵犯了消費(fèi)者的公平交易權(quán),有消費(fèi)者權(quán)益保護(hù)法規(guī)制;若涉及濫用市場支配地位,有反壟斷法規(guī)制;若與價(jià)格欺詐有關(guān)聯(lián),有價(jià)格法規(guī)制,還有民法、電子商務(wù)法、網(wǎng)絡(luò)安全法等法律作保障(90)沈亮亮:《算法在市場競爭中的應(yīng)用與法律難題——從大數(shù)據(jù)殺熟談起》,《太原學(xué)院學(xué)報(bào)》(社會(huì)科學(xué)版)2019年第3期。。同理,基于算法推薦的“大數(shù)據(jù)殺熟”行為,可能涉及價(jià)格法、網(wǎng)絡(luò)安全法、反壟斷法、電子商務(wù)法等多部法律法規(guī)的協(xié)調(diào)規(guī)制。弱人工智能時(shí)代的算法法律問題主要以人類為法律關(guān)系主體,機(jī)器并未獲得獨(dú)立的法律主體地位。而在向強(qiáng)人工智能時(shí)代轉(zhuǎn)變過程中,諸如人工智能可否成為著作權(quán)法上的主體、無人駕駛汽車事故的責(zé)任認(rèn)定等問題對(duì)法治轉(zhuǎn)型和制度變革提出了新要求。有學(xué)者認(rèn)為,“在智能機(jī)器人不具有獨(dú)立法律地位之前,由算法運(yùn)營商和算法技術(shù)開發(fā)商對(duì)智能機(jī)器人提供的算法服務(wù)造成的妨害全盤承擔(dān)民事責(zé)任;一旦智能機(jī)器人具有獨(dú)立法律地位,則可認(rèn)定智能機(jī)器人有優(yōu)于運(yùn)營商和技術(shù)開發(fā)方的信息地位,由智能機(jī)器人與運(yùn)營商、技術(shù)開發(fā)方共同承擔(dān)連帶責(zé)任”(91)唐林垚:《人工智能時(shí)代的算法規(guī)制:責(zé)任分層與義務(wù)合規(guī)》,《現(xiàn)代法學(xué)》2020年第1期。。我國《電子商務(wù)法》便確定了“對(duì)網(wǎng)絡(luò)平臺(tái)的搜索算法明示義務(wù)、搜索算法自然結(jié)果的提供義務(wù)及推薦和定價(jià)算法的消費(fèi)者保護(hù)義務(wù)”(92)張凌寒:《〈電子商務(wù)法〉中的算法責(zé)任及其完善》,《北京航空航天大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版)2018年第6期。??梢?,人工智能領(lǐng)域法律問題維度由單向的“人機(jī)交互”向多維的“人機(jī)共處”轉(zhuǎn)變。
當(dāng)前,人工智能處于輔助系統(tǒng)向智能系統(tǒng)的轉(zhuǎn)型期,算法自動(dòng)化決策的法律性質(zhì)定位較為混沌,混雜著人機(jī)交互場景和人機(jī)融合愿景的雙重視角討論。對(duì)于人工智能算法風(fēng)險(xiǎn)決策的規(guī)制,其一,就現(xiàn)有制度框架可以解決的算法決策風(fēng)險(xiǎn)問題,可通過法律解釋等方式,增強(qiáng)現(xiàn)有法律適用張力。如對(duì)算法共謀問題,本質(zhì)上仍是壟斷行為在算法決策領(lǐng)域的新表現(xiàn),可通過完善壟斷行為認(rèn)定規(guī)則,確保算法共謀行為適配于現(xiàn)有壟斷行為類型之中。其二,對(duì)于現(xiàn)有法律制度無法解決且已經(jīng)出現(xiàn)的算法決策風(fēng)險(xiǎn)問題,通過法律修訂、立法續(xù)造等方式,及時(shí)出臺(tái)相關(guān)規(guī)則,裨補(bǔ)缺漏,使新型算法自動(dòng)化決策風(fēng)險(xiǎn)的規(guī)制有法可依。其三,對(duì)未來可能出現(xiàn)的算法決策風(fēng)險(xiǎn)問題,可通過不具有傳統(tǒng)管理型法律規(guī)范結(jié)構(gòu)的“促進(jìn)型”立法方式,對(duì)涉及算法決策風(fēng)險(xiǎn)防范的關(guān)鍵技術(shù)和行業(yè)加以扶持,為未來算法決策風(fēng)險(xiǎn)規(guī)制提前做好制度安排。
我國《新一代人工智能發(fā)展規(guī)劃》對(duì)建立保障人工智能健康發(fā)展的法律法規(guī)框架提出了明確要求。有學(xué)者認(rèn)為,我國應(yīng)當(dāng)構(gòu)建“國家戰(zhàn)略—基本法律—標(biāo)準(zhǔn)體系”三級(jí)人工智能規(guī)范(93)張玉潔:《論我國人工智能的法治化進(jìn)程:現(xiàn)狀、挑戰(zhàn)與革新》,《廣州大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版)2019年第2期。。在人工智能由作為工具性價(jià)值的輔助系統(tǒng)向主體性價(jià)值的智能系統(tǒng)嬗變過程中,交織著弱人工智能、強(qiáng)人工智能的復(fù)雜討論,考驗(yàn)著算法自動(dòng)化決策過程中人為主導(dǎo)因素和機(jī)器主導(dǎo)因素的精確甄別和判斷能力,加之算法技術(shù)風(fēng)險(xiǎn)、數(shù)據(jù)風(fēng)險(xiǎn)、決策風(fēng)險(xiǎn)面向不同的維度,決定了不但構(gòu)建一部集算法技術(shù)風(fēng)險(xiǎn)、數(shù)據(jù)風(fēng)險(xiǎn)、決策風(fēng)險(xiǎn)于一體的人工智能算法風(fēng)險(xiǎn)規(guī)制體系并不現(xiàn)實(shí),而且算法決策場景的復(fù)雜性、所涉領(lǐng)域的廣泛性,使得算法決策法律規(guī)制自成體系亦不具有邏輯自洽性?!盎ㄩ_兩朵,各表一枝”,較為可行的辦法是,采取立足當(dāng)下的“漸進(jìn)式立法”與面向未來的“頂層式立法”并重、并存的立法模式,也即對(duì)基于弱人工智能所產(chǎn)生的算法風(fēng)險(xiǎn),除了依據(jù)現(xiàn)有制度予以規(guī)制外,可分別采取“成熟一部制定一部、成熟一條制定一條”的漸進(jìn)式立法模式彌補(bǔ)規(guī)制依據(jù)不足問題,對(duì)基于未來強(qiáng)人工智能可能產(chǎn)生的算法風(fēng)險(xiǎn),在構(gòu)建人工智能算法風(fēng)險(xiǎn)規(guī)制的基本原則、倫理標(biāo)準(zhǔn)、政策體系基礎(chǔ)上,采取制定人工智能促進(jìn)法的頂層式立法模式,強(qiáng)化政府在扶持和引導(dǎo)算法決策風(fēng)險(xiǎn)防范領(lǐng)域關(guān)鍵技術(shù)和行業(yè)領(lǐng)域的責(zé)任。待時(shí)機(jī)成熟,再通過人工智能基本法的方式,將算法公開、算法問責(zé)、知識(shí)產(chǎn)權(quán)保護(hù)、隱私和個(gè)人信息保護(hù)、企業(yè)數(shù)據(jù)保護(hù)、網(wǎng)絡(luò)安全和信息安全、算法自動(dòng)化決策、人工智能法律主體地位等予以法律確認(rèn),指引人工智能具體發(fā)展領(lǐng)域的立法,為建立友好人工智能(94)友好人工智能指人工智能不僅在當(dāng)下,而且在將來都能夠與人類和諧相處并且給人類帶來益處,而不是傷害與威脅。參見杜嚴(yán)勇:《建構(gòu)友好人工智能》,《自然辯證法通訊》2020年第4期。提供制度保障。
恐懼往往來源于未知,當(dāng)人們訝異人工智能開始全面滲透、互嵌人類生活的同時(shí),算法黑箱、算法歧視、算法共謀、算法損害(95)張凌寒:《搜索引擎自動(dòng)補(bǔ)足算法的損害及規(guī)制》,《華東政法大學(xué)學(xué)報(bào)》2019年第6期。、算法操縱(96)高奇琦:《警惕“算法操縱”》,《領(lǐng)導(dǎo)決策信息》2019年第5期。、算法霸權(quán)(97)凱西·奧尼爾:《算法霸權(quán)——數(shù)學(xué)殺傷性武器的威脅》,馬青玲譯,北京:中信出版集團(tuán),2018年,第21-22頁。、算法權(quán)力(98)許天穎、顧理平:《人工智能時(shí)代算法權(quán)力的滲透與個(gè)人信息的監(jiān)控》,《現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報(bào))》2020年第11期。、算法監(jiān)獄(99)周建明、馬璇:《個(gè)性化服務(wù)與圓形監(jiān)獄:算法推薦的價(jià)值理念及倫理抗?fàn)帯罚渡鐣?huì)科學(xué)戰(zhàn)線》2018年第10期。、算法囚徒(100)彭蘭:《假象、算法囚徒與權(quán)利讓渡:數(shù)據(jù)與算法時(shí)代的新風(fēng)險(xiǎn)》,《西北師大學(xué)報(bào)》(社會(huì)科學(xué)版)2018年第5期。、算法奴隸(101)郝雨、李林霞:《算法推送:信息私人定制的“個(gè)性化”圈套》,《新聞?dòng)浾摺?017年第2期。等概念相繼提出,折射出人們對(duì)人工智能發(fā)展過程中的算法風(fēng)險(xiǎn)隱憂。在智能社會(huì)形態(tài)由雛形走向成熟過程中,對(duì)國家治理能力現(xiàn)代化提出了新要求,“技術(shù)+規(guī)則”的國家治理體系建設(shè)刻不容緩。應(yīng)該基于整體性治理和全流程規(guī)制的視野,將算法技術(shù)層、基礎(chǔ)層、結(jié)果層視為一個(gè)整體,在關(guān)注“邏輯實(shí)現(xiàn)—代碼實(shí)現(xiàn)”、“規(guī)則學(xué)習(xí)—自主學(xué)習(xí)”、“輔助系統(tǒng)—智能系統(tǒng)”橫向維度中算法風(fēng)險(xiǎn)生成的同時(shí),嵌入“輸入層→隱含層→輸出層”縱向維度中算法風(fēng)險(xiǎn)轉(zhuǎn)化的考量,秉持前瞻性、系統(tǒng)性、包容性、審慎性等原則,對(duì)人工智能時(shí)代所產(chǎn)生的算法技術(shù)風(fēng)險(xiǎn)、數(shù)據(jù)風(fēng)險(xiǎn)、決策風(fēng)險(xiǎn)等的規(guī)制提出因應(yīng)之策,以期突破算法風(fēng)險(xiǎn)對(duì)人工智能發(fā)展的桎梏,助推國家治理體系和治理能力現(xiàn)代化。然而,伴隨人工智能尤其是深度神經(jīng)網(wǎng)絡(luò)算法應(yīng)用的迅猛發(fā)展,人工智能經(jīng)歷著由理性主義向經(jīng)驗(yàn)主義轉(zhuǎn)變、由輔助系統(tǒng)向智能系統(tǒng)轉(zhuǎn)變、由客體地位向主體地位轉(zhuǎn)變的過程,無論是輸入變量、輸出變量,抑或是二者之間的隱含層,存在諸多人類無法探究、觸及之處。“人是生而自由的,但卻無往不在枷鎖之中;自以為是其他的一切主人的人,反而比其他一切更是奴隸”(102)盧梭:《社會(huì)契約論》,何兆武譯,北京:商務(wù)印書館,2005年,第4頁。。為防止墜入人工智能奴隸的深淵,人類須以超前智慧做好人機(jī)共處的制度準(zhǔn)備和應(yīng)對(duì),讓人工智能“帶著鐐銬跳舞”。法國學(xué)者帕斯卡爾曾言,“人只不過是一根葦草,是自然界最脆弱的東西;但他是一根會(huì)思想的葦草”(103)帕斯卡爾:《思想錄——論宗教和其他主題的思想》,何兆武譯,北京:商務(wù)印書館,1985年,第157-158頁。,人工智能倒逼人類將其思維帶至窮極之處。誠如有學(xué)者將個(gè)人信息保護(hù)、數(shù)據(jù)治理、算法規(guī)制、大數(shù)據(jù)競爭、人工智能倫理與治理等納入未來法治領(lǐng)域之中一樣(104)王軼:《在未來法治領(lǐng)域發(fā)展中國特色法學(xué)理論》,《北京日?qǐng)?bào)》2021年1月25日,第19版。,人工智能的法治建設(shè)沒有“完成時(shí)”,只有“進(jìn)行時(shí)”,需要人們以“面向未來、走向未來、引領(lǐng)未來”的學(xué)術(shù)定力和學(xué)術(shù)容量,不斷精進(jìn)、豐富算法風(fēng)險(xiǎn)的法律規(guī)制范式,將不確定的未來納入法治軌道,破解“人工智能的崛起可能是人類文明的終結(jié)”之命題。