孫瑩
摘要:人工智能算法推薦的運行機(jī)制決定了算法的非技術(shù)中立性和價值取向性。人工智能算法本身蘊含強(qiáng)大的技術(shù)權(quán)力,算法黑箱的技術(shù)壁壘則加劇了人與算法之間權(quán)力失衡。人工智能算法本身的邏輯并不考慮作為主體的個人的主體性,每一個個體都只是算法邏輯體系下的參數(shù)。在算法權(quán)力的技術(shù)權(quán)力表象之下還潛藏著資本的權(quán)力,并使國家主權(quán)面臨挑戰(zhàn),沖擊全球治理體系。因此,應(yīng)當(dāng)構(gòu)建政府主導(dǎo)并掌握核心算法的大數(shù)據(jù)系統(tǒng),強(qiáng)化倫理約束組織的建設(shè),在立法上壓實人工智能算法開發(fā)者、控制者的主體責(zé)任。
關(guān)鍵詞:人工智能算法;非技術(shù)中立性;算法權(quán)力;主體責(zé)任
中圖分類號:DF0-05 文獻(xiàn)標(biāo)志碼:A
DOI:10.3969/j.issn.1008-4355.2020.01.08
引言
從2018年開始,作為人工智能核心要素的“算法”概念開始興起,并逐漸取代空泛的“人工智能”概念,成為法學(xué)界研究人工智能的聚焦點。人工智能算法,即通過計算機(jī)來模擬人的思維和智能,在一定的輸入前提之下,按照設(shè)定程序運行,由計算機(jī)來完成特定功能的輸出,解決特定問題的方法的準(zhǔn)確描述或清晰的有限指令。它可以增強(qiáng)人在某些領(lǐng)域的決策能力,甚至在某些方面可以代替人作出決策。但其在為人類提供更加迅捷高效的決策依據(jù)的同時,也會潛在地對人類的視域、判斷乃至選擇產(chǎn)生影響,進(jìn)而不斷改變資本與個人權(quán)利、國家權(quán)力的關(guān)系。人工智能算法的控制者憑借“算法黑箱”的數(shù)據(jù)技術(shù)壁壘,利用算法影響受眾群體的社會偏好和政治偏好,并潛移默化地影響、操縱受眾的行為模式。此外,對人工智能算法監(jiān)管的缺位所導(dǎo)致的“信息繭房”、“算法歧視”等現(xiàn)象,日益成為新的社會治理難題,亟待立法規(guī)制。
一、人工智能算法的非技術(shù)中立性
隨著以大數(shù)據(jù)應(yīng)用為基礎(chǔ)的算法推薦在電子商務(wù)領(lǐng)域的成熟運用。人工智能算法開始為法學(xué)界關(guān)注?;ヂ?lián)網(wǎng)電商平臺經(jīng)過一段時間的經(jīng)營,沉淀的用戶數(shù)據(jù)早已是天文數(shù)字,結(jié)合其注冊信息和瀏覽偏好,并據(jù)此描繪用戶的個人特征乃至某類用戶群體的社會特征畫像,是其長久以來的深耕領(lǐng)域?;ヂ?lián)網(wǎng)電商平臺的巨頭們也正基于此,開始分析用戶最迫切的購買需要,這便是人工智能算法進(jìn)入社會領(lǐng)域并開始興起的最初時刻。人工智能算法也以此為起點,通過大數(shù)據(jù)支撐的算法分析和算法推薦,開始介入社交媒體平臺等其他互聯(lián)網(wǎng)空間,進(jìn)而深度影響人類社會生活,并引發(fā)政治風(fēng)險。
(一)人工智能算法推薦在社交媒體平臺的廣泛運用
隨著人工智能算法運用技術(shù)的迭代,算法推薦開始從電商平臺延伸到互聯(lián)網(wǎng)社交媒體平臺,并日益成為決定信息推送的根本性力量。人工智能算法通過此類網(wǎng)絡(luò)平臺積累了大量用戶數(shù)據(jù),人工智能算法控制者(很多情況下也是開發(fā)者)的價值觀也因此深深嵌入據(jù)稱中立的技術(shù)之下,并悄然影響著受眾的觀念、決斷和行為模式。
通過不斷的機(jī)器學(xué)習(xí),算法在數(shù)據(jù)抓取、學(xué)習(xí)、推送方面相對人類已經(jīng)取得巨大優(yōu)勢,并由此強(qiáng)化了對受眾的影響。包括今日頭條等平臺媒體和微信等社交平臺,都在積極運用人工智能算法增加用戶黏性,并增強(qiáng)市場滲透率。不同于傳統(tǒng)媒體時代的新聞人工篩選推送機(jī)制,也不同于社交網(wǎng)絡(luò)時代的新聞社交過濾機(jī)制,大數(shù)據(jù)時代之下的人工智能算法推薦機(jī)制擁有更強(qiáng)的數(shù)據(jù)抓取能力和學(xué)習(xí)能力,使得信息推送的規(guī)模和效率成幾何倍數(shù)增長。
傳統(tǒng)的新聞人工篩選推送機(jī)制通過媒體編輯對新聞進(jìn)行把關(guān),體現(xiàn)的是媒體編輯的價值取向,在新聞內(nèi)容的呈現(xiàn)上有著很強(qiáng)的價值偏好。媒體編輯通過熱點問題、核心情況的歸納,引導(dǎo)輿論的爭論焦點。在社交媒體興起以后,個體獲取信息的主要方式變革為社交過濾的方式。此類獲取信息方式的弊端在于,不斷擴(kuò)大的社交網(wǎng)絡(luò)當(dāng)中發(fā)布、流傳的信息魚龍混雜,需要用戶耗費精力加以甄別。
人工智能算法的出現(xiàn)顛覆性地改變了這一點。依托大數(shù)據(jù)技術(shù)的應(yīng)用,人工智能算法依據(jù)用戶的行為數(shù)據(jù)——如瀏覽內(nèi)容、轉(zhuǎn)發(fā)、評論等,以及身份數(shù)據(jù)進(jìn)行深度的機(jī)器學(xué)習(xí)與算法分析,為每一個用戶精準(zhǔn)識別并推送其價值需求和相關(guān)偏好的信息,即“只有你關(guān)注的才是頭條”。在此基礎(chǔ)上,人工智能算法推薦依據(jù)不同的價值偏好和信息需求,將用戶劃分為多個交叉重疊的群體,并為其分別推送需要的信息,實現(xiàn)區(qū)別于朋友圈過濾的大數(shù)據(jù)過濾,使得用戶更加自由的掌控信息的捕捉和接收。正如阿克塞爾·布倫斯(Axel Bruns)所認(rèn)為的那樣,原子式的用戶在數(shù)據(jù)信息的場域劃出了巨大的空間,傳統(tǒng)的媒體已不再具有引導(dǎo)話題辯論的能力,真正起到?jīng)Q定性作用的是用戶的偏好和抓取。隨著大數(shù)據(jù)時代的到來,信息愈發(fā)根據(jù)人的價值和需求而自由流動,但是這樣的“自由”,始終帶有為人工智能算法支配的陰霾。
(二)算法推薦運行機(jī)制的非技術(shù)中立性
計算機(jī)和大數(shù)據(jù)學(xué)科理論認(rèn)為,“算法”綜合了邏輯與控制(algorithm as a sum of logic andcontrol),實際上就是一種編程,即為其設(shè)立一個為了解決某問題而自我推演的運行邏輯,并對其輸入指令,在輸入數(shù)據(jù)的不斷精準(zhǔn)“榫接”的步驟中,得出邏輯推演的結(jié)果。在這個意義上,人工智能算法的本質(zhì),實際上就是依照其自身邏輯展開一系列對用戶和數(shù)據(jù)的抓取,通過其技術(shù)邏輯設(shè)定的方向?qū)С瞿硞€結(jié)果。而不間斷的機(jī)器學(xué)習(xí)則保證了該套匹配模式精準(zhǔn)度的不斷提升、完善。在此過程中,大數(shù)據(jù)技術(shù)的應(yīng)用,則不斷為人工智能算法的自我學(xué)習(xí)提供源源不斷的“能量”。基于此,人工智能算法推薦在深度分析受眾個人數(shù)據(jù)如瀏覽記錄、停留時長、用戶注冊信息、評論轉(zhuǎn)發(fā)等信息的基礎(chǔ)上,為其精準(zhǔn)推送其偏好的信息。
與傳統(tǒng)的人工篩選推送信息的方式相比較,人工智能算法推薦實際上顛覆了整個行業(yè)的底層邏輯,推送信息的標(biāo)準(zhǔn)已經(jīng)由信息的內(nèi)容本身,轉(zhuǎn)向“用戶偏好的信息”,亦即用戶決定信息。因此,信息的價值不再取決于其內(nèi)容,而取決于用戶的偏好。即在信息推送接收的邏輯鏈條之下,決定用戶接收某類信息的不再是用戶的主觀意愿,而是人工智能算法的內(nèi)部評判標(biāo)準(zhǔn)。對于某一類用戶全體,人工智能算法在分析了主流的偏好需求、類型特征后,會通過建立推送模型的方式,將群體內(nèi)的其他偏好交叉推送給群體成員。
事實上,人工智能算法推薦存在某種傾向的價值觀,絕非一些“技術(shù)中立論”所宣稱的那樣,沒有價值觀的傾向。這種傾向性有的來自人工智能算法開發(fā)者輸入的底層邏輯,更多的來自在底層邏輯的基礎(chǔ)之上的算法本身邏輯自生自發(fā)的演繹。人工智能算法通過數(shù)據(jù)指令的不斷輸入和深度學(xué)習(xí),其自我展開的邏輯必然會建構(gòu)出一整套運行的系統(tǒng),有其自身的機(jī)制。同時由于算法受眾在該機(jī)制中的不斷反饋,使得算法機(jī)制本身糅合了算法邏輯和人的價值觀。因此,雜糅著社會價值觀的人工智能算法又強(qiáng)化了自身的價值傾向,并在各領(lǐng)域得到不斷展現(xiàn)。這也使得互聯(lián)網(wǎng)平臺的用戶均處于人工智能算法價值觀的影響之下。人的行為模式、思想觀念也在悄然發(fā)生改變,并愈發(fā)接近算法暗含的價值觀。
(三)算法的非技術(shù)中立性易引發(fā)政治風(fēng)險
隨著人工智能算法在互聯(lián)網(wǎng)電商平臺和社交平臺的深度運用。其影響力開始從商業(yè)社會蔓延到政治領(lǐng)域,引導(dǎo)某種價值觀念的算法往往容易在現(xiàn)實政治中產(chǎn)生影響。究其根源,在于人工智能算法在現(xiàn)代性之下,憑借其對于每一個用戶的了解,以用戶之間類似的價值觀念迅速將單個的用戶捏合成有共同訴求的強(qiáng)大團(tuán)體。
現(xiàn)代性的重要特征之一就是原有的宗教、宗族、社團(tuán)等不斷消解,并在其之上誕生原子式的社會結(jié)構(gòu),每個人不再是血緣、宗教紐帶等之下的某一份子,而成為社會的基礎(chǔ)單位。人與人之間不再以血親、宗教聯(lián)系為主,每個人都在法律意義上成為平等的主體,具有普遍性的平等權(quán)利和義務(wù)。與此同時,個體的現(xiàn)實生活逐漸為普遍性所消解,植根于現(xiàn)代性之上的人工智能算法則根據(jù)每一個用戶的偏好和行為模式,向其推送相關(guān)的信息,為單個用戶之間賦予某種聯(lián)系并將其組織起來。在某種意義上,人工智能算法是在為每一個用戶賦予特殊性,并將其組織起來,由此在個體碎片化的時代,形成全新政治力量。極端情況下,算法將可能被用于操縱用戶,影響國家政治。
以“劍橋分析”(Cambridge Analytica)事件為例,英國政治咨詢公司“劍橋分析”利用劍橋大學(xué)心理測量學(xué)中心開發(fā)的數(shù)據(jù)搜集應(yīng)用,通過比對用戶的評論和個人資料建立了一個強(qiáng)大的算法模型,再用這個模型來預(yù)測和影響其他用戶的行為模式和投票選擇。算法和大數(shù)據(jù)運用最終造就了一款強(qiáng)大的政治工具,可識別搖擺不定的選民,并針對性地推送可能會產(chǎn)生共鳴的新聞資訊和政治廣告,左右選民投票。
通過“劍橋分析”事件可以看到,結(jié)合了大數(shù)據(jù)技術(shù)的人工智能算法,已經(jīng)在現(xiàn)實生活中對公眾產(chǎn)生深刻影響,并成為現(xiàn)代政治中的不穩(wěn)定因素。在烏克蘭、委內(nèi)瑞拉等國家發(fā)生的社會動蕩,其背后均有資本力量依托人工智能算法在政治新聞(甚至假新聞)對潛在受眾精準(zhǔn)投放的影子。在這個意義上,人工智能算法,已經(jīng)成為資本力量動搖主權(quán)國家安全的重要支點,亟待規(guī)制。
二、人工智能算法權(quán)力的日益膨脹
不同于傳統(tǒng)的技術(shù)進(jìn)步,運用于基礎(chǔ)性高新科技的人工智能算法不斷迭代更新,通用于各行各業(yè)而支撐起新一輪的產(chǎn)業(yè)革命。人工智能算法本身即蘊含著強(qiáng)大的技術(shù)權(quán)力,算法黑箱的技術(shù)壁壘則加劇了人與算法之間的權(quán)力失衡?,F(xiàn)有法律法規(guī)缺乏對人工智能算法的有效規(guī)制,此外在行政監(jiān)管體制中,行政審查、風(fēng)險監(jiān)控等監(jiān)管程序仍然缺位,導(dǎo)致了人工智能算法的技術(shù)權(quán)力開始壓制個人權(quán)利。而未經(jīng)嚴(yán)格規(guī)制的算法權(quán)力推演到極致,本身作為人類的對象的算法,將成為外化于人類生活的算法霸權(quán),潛移默化地將人類生活對象化和工具化。
(一)作為新興技術(shù)權(quán)力的人工智能算法
人工智能算法在大數(shù)據(jù)技術(shù)及人工智能應(yīng)用過程中。其在數(shù)據(jù)處理和深度學(xué)習(xí)算法上的技術(shù)優(yōu)勢生成的對政府、公民、社會組織等對象擁有的影響力和控制力,可以被認(rèn)為是算法權(quán)力。其最重要的特征是通過普通人幾乎無法逾越的技術(shù)壁壘,維持對個人權(quán)利的絕對優(yōu)勢。
人工智能算法在數(shù)字時代的高效率運轉(zhuǎn),賦予了算法權(quán)力的合理性。借助于海量的大數(shù)據(jù)和具備強(qiáng)大計算能力的硬件設(shè)備。擁有深度學(xué)習(xí)能力的人工智能算法可以通過自主學(xué)習(xí)和強(qiáng)化訓(xùn)練來不斷提升自身的能力,解決很多人類難以有效應(yīng)對的治理難題。算法作為人工智能的基石之一,其運轉(zhuǎn)效率的高低,在很大程度上決定了人工智能應(yīng)用的廣度和深度。伴隨人工智能算法在國家和社會治理中重要性的日漸凸顯,國家和社會對于算法的依賴也逐漸加深,如前文所述社交媒體平臺,其運行的基礎(chǔ)就在于人工智能算法的運用。算法權(quán)力作為一種新型的技術(shù)權(quán)力形態(tài),開始逐步得到學(xué)界和實務(wù)界的關(guān)注。
傳統(tǒng)政治學(xué)的關(guān)注重點之一,在于如何協(xié)調(diào)和平衡國家和社會的關(guān)系,即通過合理配置國家權(quán)力和利用一定的技術(shù)手段來有效規(guī)制國家權(quán)力的行使,以達(dá)到國家與社會之間的平衡。人工智能深度學(xué)習(xí)算法在國家和社會治理中的應(yīng)用,使得政府運行過程更加公開透明,民眾的治理需求能夠得到有效識別和及時回應(yīng),有效地降低了國家和社會治理的成本和難度,提升了國家和社會治理的績效,算法也由此成為社會有效規(guī)制國家機(jī)器運行的強(qiáng)大技術(shù)支撐。隨著人工智能應(yīng)用場景的不斷拓展和應(yīng)用程度的不斷加深,依據(jù)人工智能算法分析的結(jié)果來決策、聽取人工智能算法的指令而行動,在不久的將來可能會成為人類決策和行為時的常態(tài)。人類對于人工智能算法的技術(shù)依賴將會不斷增強(qiáng),算法作為一種技術(shù)形態(tài)的權(quán)力開始嵌入人類社會的形態(tài)當(dāng)中,并深度影響人類的思維、行為模式。算法權(quán)力從表象上看是一種技術(shù)權(quán)力,但其背后潛藏著控制算法設(shè)計和研發(fā)過程的資本的權(quán)力,時刻在侵蝕著個體的權(quán)利。如不加以有效的引導(dǎo)和規(guī)制,在不遠(yuǎn)的將來,通過不斷地機(jī)器學(xué)習(xí)愈加強(qiáng)大的人工智能算法權(quán)力,將出現(xiàn)脫離人類控制的風(fēng)險,并有可能演化成為人類異己的人工智能算法霸權(quán)。
(二)從算法權(quán)力到算法霸權(quán)
近年來,伴隨人工智能技術(shù)的不斷推進(jìn),有人認(rèn)為人類社會正逐漸從弱人工智能時代向強(qiáng)人工智能時代轉(zhuǎn)變。人工智能形態(tài)的不斷變革,也引發(fā)了法學(xué)界關(guān)于人工智能體屬性和地位的爭論。
主張人工智能是機(jī)器的學(xué)者認(rèn)為,人工智能的實質(zhì)是人類設(shè)計出來用于提高企業(yè)生產(chǎn)效率、降低國家和社會治理難度、滿足人類美好生活訴求的機(jī)器,人工是智能的前提。而主張人工智能應(yīng)該被賦予主體人格的學(xué)者認(rèn)為,深度學(xué)習(xí)算法的出現(xiàn),使得人工智能具備了越來越多的自主意識和自主行為能力,應(yīng)該賦予其部分的法律人格和財產(chǎn)權(quán)利。也有的學(xué)者認(rèn)為:“簡單地以機(jī)器‘長得是否像人或者‘表現(xiàn)得是否像人作為評判其能否獲得法律主體地位的標(biāo)準(zhǔn)要件。不僅容易因概念的含混不清導(dǎo)致可操作性不強(qiáng),還可能會陷入法律與科學(xué)技術(shù)雙重認(rèn)識不一致的泥潭”。
人工智能是主體還是客體的爭論還將持續(xù)存在,但是在深度學(xué)習(xí)算法的推動之下,人工智能的自主學(xué)習(xí)能力正不斷增強(qiáng),自主意識也在不斷形成。面對人工智能時代的到來,目前資本權(quán)力主導(dǎo)的人工智能算法出現(xiàn)某種類自我意識并試圖擺脫的可能性也在逐漸增加。在這個漫長轉(zhuǎn)折到來的前夜,有必要擔(dān)心人工智能算法權(quán)力有可能正在從技術(shù)權(quán)力的表象和資本權(quán)力的實質(zhì)演化成人工智能算法對于人類的技術(shù)優(yōu)勢,并最終有可能轉(zhuǎn)變?yōu)槿斯ぶ悄軐τ谡麄€人類的霸權(quán)。
(三)算法權(quán)力加劇人的異化
人工智能算法本身的邏輯并不考慮作為主體的個人的主體性,每一個個體都只是算法邏輯體系下的參數(shù)。在這個意義上,每一個具體的人都被算法所對象化,算法權(quán)力也因此加劇作為主體的人對自身的疏離感,即經(jīng)典馬克思主義所說的“異化”“物化”或“物象化”。
人工智能算法為指令的輸入和大數(shù)據(jù)的機(jī)器學(xué)習(xí)所預(yù)留的空間是無限的。但無論輸入多少指令都無法改變其“刺激一反應(yīng)”這一模式的底層邏輯,申言之,在人工智能算法所設(shè)定和復(fù)制的人類行為模式中,沒有考慮到自由意志和倫理自主性。人作為社會性的主體,其一舉一動都為其自由意志所設(shè)定,為其道德倫理所約束,而人工智能算法主導(dǎo)下的行為模式,是缺乏道德觀念和倫理性思考的反應(yīng),對現(xiàn)有的人類社會道德秩序會產(chǎn)生極大地沖擊。人工智能算法這一先天缺陷,已經(jīng)在影響現(xiàn)實的人類社會,且暫時難以克服。
由上可見,對比人工篩選的信息推薦模式,人工智能算法推薦缺乏倫理道德的認(rèn)知。事實上,由于倫理道德的非確定性,人工智能算法無法依據(jù)抽象的原則,在具體的事件中作出符合道德規(guī)范的反應(yīng)。在人工智能算法的邏輯中,很難訓(xùn)練出類似人的道德決策能力,其只能復(fù)制人的行為,而不能理解其中的道德性。這種先天缺陷的存在,源于一方面技術(shù)理性排除了價值判斷,另一方面算法追求效率最大化所決定的。
因此。人工智能算法之邏輯與人的主體性的沖突。在某種意義上可以歸結(jié)到認(rèn)識論的差異之上。即人工智能算法依托對人類行為的大數(shù)據(jù)的機(jī)器學(xué)習(xí),不斷積累某種情況下人類似的反應(yīng),并由這些碎片化的底層知識,歸納總結(jié)出算法在應(yīng)對此類情況時所可能做出的反應(yīng)的依據(jù)。亦即人工智能算法依照其工具理性的要求,把來自外界的混雜多樣的刺激劃分成若干部分。在這些部分中,算法只是在范疇上把對于其實際干預(yù)具有突出作用的組成部分裁剪下來。這樣的反應(yīng)模式白形成之初,就缺乏人的自由意志和倫理道德的精神內(nèi)核。由此可見,人工智能算法不再僅僅作為在某些領(lǐng)域中輔助、替代人類決策的工具,而是總結(jié)人類的行為,形成另外一套反應(yīng)(決策)的邏輯體系。換言之,其完全以工具理性改造了人類行為的邏輯,并在此基礎(chǔ)上排除價值判斷,并形成基于人工智能算法的類似人類行為模式。
正如法蘭克福學(xué)派在了解美國式傳媒工業(yè)后總結(jié)的那樣,文化工業(yè)始終強(qiáng)調(diào)其提供的標(biāo)準(zhǔn)化產(chǎn)品是觀眾內(nèi)心所需的。但實際上觀眾回饋的調(diào)查問卷,就是文化工業(yè)本身按照自身的價值規(guī)范,通過穩(wěn)定投放類型化的文化節(jié)目,引導(dǎo)、營銷、暗示觀眾的價值觀念,觀眾本身也就成為標(biāo)準(zhǔn)化產(chǎn)品的結(jié)果而非價值源泉。相較而言,人工智能算法受益于大數(shù)據(jù)技術(shù)的運用和社交媒體帶來的信息的分類推送理念。其展現(xiàn)出的算法權(quán)力必將是在一個更加封閉的信息繭房內(nèi)對受眾更為深刻的影響?,F(xiàn)代人也因此被割裂開來,接收著人工智能算法定向推送的差異化的信息,行為模式和價值觀念也在不知不覺中為算法所滲透。在某種意義上,算法的進(jìn)步過程,也表現(xiàn)為人類退化的那種隱蔽的過程。
在本質(zhì)上,算法權(quán)力將直接導(dǎo)致對人類行動模式的工具性支配,即算法通過消除人類社會的多種多樣的印象,將多姿多彩的人類社會排除在外,得到人類社會的可改造性。在算法權(quán)力的這種支配性實踐中,其最終從現(xiàn)實中能夠察覺到的只是那些可以有計劃、有步驟地控制和有制造條件的事物。因此,推演到極致的算法霸權(quán),將會把人類社會剪裁成對社會統(tǒng)治的那種單純的投射。
(四)算法權(quán)力對個人權(quán)利的壓制
人工智能算法導(dǎo)致人自身異化的同時,成為壓迫個人權(quán)利的新的力量,并切實威脅著個人權(quán)利。在大數(shù)據(jù)網(wǎng)絡(luò)時代,個人對其在網(wǎng)絡(luò)上產(chǎn)生的數(shù)據(jù),天然享有數(shù)據(jù)所有權(quán)、數(shù)據(jù)隱私權(quán)等基礎(chǔ)性權(quán)利,并存在希望就個人數(shù)據(jù)獲取回報的機(jī)會。法律因此規(guī)制了個人信息權(quán)、數(shù)據(jù)權(quán)、拒絕權(quán)等新的權(quán)利。但依托大數(shù)據(jù)技術(shù)發(fā)展的人工智能算法,由于其深度專業(yè)性和缺乏相應(yīng)的行政、立法規(guī)制,而日益形成對個人權(quán)利的結(jié)構(gòu)性壓迫,這是算法控制者與算法對人的雙重壓迫。
一方面,當(dāng)人工智能算法成為公共空間不可或缺的一部分,就會自然而然地滋生權(quán)力。算法的控制者與作為數(shù)據(jù)主體的個人之間,由信息不對稱深化為知識不對等,進(jìn)而導(dǎo)致權(quán)力失衡。如今大數(shù)據(jù)和算法所承載的權(quán)力日益集中掌握在少數(shù)企業(yè)手中。伴隨著神經(jīng)網(wǎng)絡(luò)算法的升級,人工智能算法權(quán)力對個人權(quán)利的壓制不斷加深。例如,通過人工智能算法推薦形成對個體的信息繭房,算法歧視與隱私保護(hù)問題不斷浮現(xiàn),通過大數(shù)據(jù)交叉驗證精準(zhǔn)識別用戶的情形已經(jīng)成為事實,個人上網(wǎng)注冊信息和數(shù)據(jù)信息也會被識別出敏感的價值傾向。
另一方面,人工智能算法時代與此前的網(wǎng)絡(luò)時代最大的區(qū)別,在于人工智能算法不再僅僅收集數(shù)據(jù),而是在大數(shù)據(jù)的基礎(chǔ)之上開始自身的學(xué)習(xí),并通過晝夜不斷的機(jī)器學(xué)習(xí),一步步深化對作為數(shù)據(jù)主體的個人的了解。而作為缺乏專業(yè)訓(xùn)練(這樣的專業(yè)訓(xùn)練所需要花費的時間、精力、金錢等絕非普通個體所能輕松付出的)的普通個體,即使其知曉其數(shù)據(jù)為人工智能算法所用,但也很難理解算法的運行機(jī)制和潛在風(fēng)險。即使是專業(yè)人士,算法的代碼、參數(shù)也絕非可以完全識別的。這使得作為主體的人,完全和社會運行的整個邏輯脫節(jié)而陷入自我認(rèn)同的虛無當(dāng)中,其通過勞動創(chuàng)造出來的不再是自身價值和認(rèn)同感,而僅僅是人工智能算法不斷成長的“養(yǎng)料”——數(shù)據(jù)。人工智能算法對個人權(quán)利的壓制,還體現(xiàn)在神經(jīng)網(wǎng)絡(luò)算法在人類觀察之外的自我深度學(xué)習(xí)上,當(dāng)神經(jīng)網(wǎng)絡(luò)算法發(fā)展出自己的邏輯體系,就可能造成嚴(yán)重的決策偏差。
三、人工智能算法改變資本權(quán)力與國家權(quán)力的關(guān)系
算法權(quán)力作為一種技術(shù)權(quán)力,在降低行政運行成本、提高行政運行效率、改善政府治理績效的同時,更為公民和社會深度參與國家治理、充分表達(dá)利益訴求和有效規(guī)制國家機(jī)器運行提供了堅強(qiáng)的技術(shù)保障,推動了國家與社會關(guān)系發(fā)生著積極的變革。
但同時,在算法權(quán)力的技術(shù)權(quán)力表象之下還潛藏著資本的權(quán)力。大型互聯(lián)網(wǎng)企業(yè)憑借數(shù)據(jù)優(yōu)勢獨占算法開發(fā)的能力,既是算法的開發(fā)者,又是算法的使用者,在同一實體內(nèi)完成技術(shù)的商業(yè)轉(zhuǎn)化,意味著技術(shù)權(quán)力轉(zhuǎn)化為資本權(quán)力。作為大數(shù)據(jù)時代新型權(quán)力的人工智能算法權(quán)力,人類在其邏輯體系之下不再具有主體的地位,而僅僅只是某種可計算、可預(yù)測、可控制的客體。在這個意義上,作為科學(xué)與技術(shù)的人工智能算法,不僅成為第一生產(chǎn)力,而且也成了一種類似以科學(xué)為偶像的新型的意識形態(tài)。資本權(quán)力憑借高效利用的大數(shù)據(jù)技術(shù)和人工智能算法開發(fā)運用方面的領(lǐng)先優(yōu)勢,深刻改變、塑造著國家權(quán)力與資本權(quán)力的關(guān)系,并在與國家的不斷博弈中影響國家的主權(quán),進(jìn)而對全球治理體系和治理秩序產(chǎn)生較為深刻的影響。與之相較,法律監(jiān)管制度、行政監(jiān)管權(quán)力和社會監(jiān)督力量在算法領(lǐng)域已經(jīng)處于落后地位。
(一)政府內(nèi)部數(shù)據(jù)淤塞凸顯人工智能算法之上的資本權(quán)力
數(shù)據(jù)是算法的權(quán)力特征得以不斷凸顯的重要支撐。人工智能算法水平的提升依賴于海量大數(shù)據(jù)為其提供了幾乎無邊無際的自我學(xué)習(xí)和訓(xùn)練機(jī)會。社會治理中人工智能算法技術(shù)優(yōu)勢的持續(xù)發(fā)揮也有賴于對海量大數(shù)據(jù)進(jìn)行自動提取和分析的結(jié)果。在人工智能算法領(lǐng)域,行政監(jiān)管不足的主要原因之一在于,沉淀的數(shù)據(jù)沒有得到很好的運用。數(shù)據(jù)作為重要的戰(zhàn)略資源,它的價值需要通過互聯(lián)和共享并進(jìn)行深度的挖掘方能體現(xiàn)出來,與之相對應(yīng),不被使用的數(shù)據(jù)是沒有價值的。
通過對現(xiàn)代社會的觀察,我們可以看到,在服務(wù)型政府的管理之下,政府沉淀下來的數(shù)據(jù)比市場和社會掌握的數(shù)據(jù)量要多,政府在數(shù)據(jù)的數(shù)量上具有明顯的優(yōu)勢。但是,受到科層體制的束縛,政府內(nèi)部的數(shù)據(jù)存在著較為嚴(yán)重的數(shù)據(jù)壁壘和信息孤島問題,不同區(qū)域之間、不同層級之間和不同部門之間的數(shù)據(jù)在存儲系統(tǒng)的對接和數(shù)據(jù)資源的共享上存在諸多的障礙,大量的政府?dāng)?shù)據(jù)處于沉睡狀態(tài)。同時,政府在數(shù)據(jù)的存儲、分類、處理和分析等方面的技術(shù)積累和人才儲備上也面臨較多的短板。與政府在數(shù)據(jù)的共享和使用等方面存在諸多障礙不同,少數(shù)企業(yè)利用自身研發(fā)的應(yīng)用軟件和智能政務(wù)平臺,不僅掌握了海量的大數(shù)據(jù),而且憑借其在云存儲和云計算等方面的技術(shù)優(yōu)勢,能夠充分的挖掘出數(shù)據(jù)的價值并加以有效利用。
目前,少數(shù)企業(yè)在數(shù)據(jù)存儲和處理上的技術(shù)優(yōu)勢正演變成為對國家和社會的權(quán)力優(yōu)勢,并有形成數(shù)據(jù)壟斷乃至數(shù)據(jù)霸權(quán)的可能,對傳統(tǒng)的資本與國家的關(guān)系產(chǎn)生深刻的影響,公民的信息安全也會遭到一定程度的危險。
(二)資本權(quán)力使國家主權(quán)安全面臨新的挑戰(zhàn)
人工智能時代的到來和智能治理形態(tài)的出現(xiàn),給現(xiàn)代國家治理體系的完善和治理能力的提升帶來了前所未有的機(jī)遇,人工智能算法已經(jīng)逐漸成為現(xiàn)代國家治理體系的重要治理主體,推動著國家治理現(xiàn)代化進(jìn)程的加速。但同時,隨著國家治理的各個應(yīng)用場景下,由資本主導(dǎo)的人工智能算法的不斷滲透與融合,國家的主權(quán)安全也正面臨著嚴(yán)峻的考驗。
目前,各類算法幾乎均由私人部門即各類企業(yè)所開發(fā),而這些算法為企業(yè)帶來了豐厚的利潤。因此,企業(yè)毫無疑問的將其算法看作商業(yè)秘密以獲得法律保護(hù),更有甚者,在美國的判例中,算法被認(rèn)為是一種言論,繼而獲得其憲法有關(guān)言論自由的保護(hù)。作為私人部門所掌握的算法,在企業(yè)追逐利益的目的驅(qū)動下,算法將會成為謀取利益的工具。極端的情況下,算法將可能被用于操縱輿論和信息,影響國家主權(quán)安全。
首先,國家治理中應(yīng)用的智能技術(shù)平臺在幫助解決國家治理難題的同時,也在不斷地收集國家治理中產(chǎn)生的重要數(shù)據(jù),其中很多是關(guān)系到國家和公民切身利益的核心數(shù)據(jù),主權(quán)國家正面臨著數(shù)據(jù)泄露的危險?,F(xiàn)代化治理體系離不開大數(shù)據(jù)及依附其上的人工智能算法,但當(dāng)政府與市場中的大數(shù)據(jù)控制者合作開發(fā)智能技術(shù)平臺時,就意味著國家權(quán)力的某種削弱。這種強(qiáng)化智能技術(shù)平臺的運用反而削弱國家權(quán)力的現(xiàn)象不獨存在于行政權(quán)力,而是一種普遍現(xiàn)象。即使是在現(xiàn)代社會中主張中立價值的司法,也在試點“智慧法院”時引發(fā)巨大爭議。建立在數(shù)據(jù)化之上的智慧法院,必然要求大數(shù)據(jù)和云計算的支撐,這就必然對司法權(quán)力的獨立地位產(chǎn)生沖擊。
其次,在算法研發(fā)和運行過程中,人工智能算法欠缺模型透明度和可追溯性。在此背景下,當(dāng)國家治理和社會管理在問題判斷、治理決策過程的實施等環(huán)節(jié)上對算法產(chǎn)生高度技術(shù)依賴,使得算法背后的資本擁有了影響和主導(dǎo)國家治理秩序的能力。以智能技術(shù)平臺的建設(shè)為例,在涉及大數(shù)據(jù)和算法等新興領(lǐng)域,滯后的立法與缺位的監(jiān)管使得公權(quán)力與私權(quán)利的邊界日益模糊,本應(yīng)作為監(jiān)管對象的大數(shù)據(jù)所有者(很多情況下即算法開發(fā)者、掌控者)憑借提供便利公權(quán)力行使的“智能技術(shù)平臺”,反而成為公權(quán)力行使過程中的最重要一環(huán),并因此分享權(quán)力,這不得不說是一種吊詭。與此同時,通過公權(quán)力合法收集的各種個人數(shù)據(jù)乃至公權(quán)力行使機(jī)關(guān)本身的大量數(shù)據(jù)均會在“智能技術(shù)平臺”流動,并為人工智能算法所學(xué)習(xí)和掌控,進(jìn)而發(fā)展出應(yīng)對方式。國家的主權(quán)安全也正是在此背景下面臨著挑戰(zhàn)。
最后,資本憑借其在算法技術(shù)上的優(yōu)勢,有發(fā)動算法戰(zhàn)爭的可能?!坝捎谌狈ο鄳?yīng)技術(shù)積累,發(fā)展中國家并沒有充分有效的方式保護(hù)自己的數(shù)據(jù)安全,也沒有足夠的能力應(yīng)對算法所帶來的干涉。人工智能技術(shù)的進(jìn)步將進(jìn)一步凸顯其在政治安全領(lǐng)域的脆弱性特征。傳統(tǒng)的國家政治安全將面臨嚴(yán)峻的考驗?!敝悄苤卫淼暮诵氖撬惴?,資本的力量可運用人工智能算法的領(lǐng)先地位,開展封鎖主權(quán)國家的算法戰(zhàn)爭,以完成資本對于該國國家主權(quán)控制的目的,特別是那些在算法研制、應(yīng)用和規(guī)制等方面缺乏技術(shù)優(yōu)勢和安全意識淡漠的發(fā)展中國家受到的威脅更大。
(三)全球治理體系受到資本權(quán)力沖擊
人工智能深度學(xué)習(xí)算法的出現(xiàn)和應(yīng)用,不僅會對國家的數(shù)據(jù)安全產(chǎn)生影響,誘發(fā)數(shù)據(jù)霸權(quán)等問題,進(jìn)而危及民族國家的主權(quán),而且也正在對全球治理秩序和治理格局產(chǎn)生重大的影響。自1648年威斯特伐利亞體系確定的主權(quán)國家原則以來,主權(quán)國家一直是國際公法上的行為主體。但在大數(shù)據(jù)時代的數(shù)據(jù)空間中,主權(quán)國家的面相同樣由數(shù)據(jù)構(gòu)成,相比大而全的數(shù)據(jù)構(gòu)成的主權(quán)國家面相,資本依托人工智能算法的技術(shù)優(yōu)勢。在某一領(lǐng)域的數(shù)據(jù)權(quán)力將深刻影響該領(lǐng)域的治理規(guī)則和行為范式,由此影響全球治理體系的變革。
具體來說,一方面,少數(shù)擁有算法技術(shù)和數(shù)據(jù)優(yōu)勢的超級企業(yè)可能會成為新的全球治理體系的主體,推動著長期以來一直以主權(quán)國家為主導(dǎo)的全球治理體系發(fā)生重大變革。另一方面,傳統(tǒng)的全球治理秩序也面臨解構(gòu)的可能。資本對于國家的強(qiáng)勢會在一定程度上影響到新的全球治理秩序的形成。人工智能算法背后的資本權(quán)力,可能會在政治體系中由內(nèi)而外地增強(qiáng)影響力,通過更為高效的服務(wù)機(jī)制,對建立在工業(yè)化基礎(chǔ)上的現(xiàn)代政治體系形成挑戰(zhàn),并主張更多的政治權(quán)力。畢竟,現(xiàn)代權(quán)力不再具有傳統(tǒng)語境下的主體、客體等劃分,不再強(qiáng)調(diào)必須是一個行動著的實體,而在于一種提供公共服務(wù)的能力,誰更能提供公共服務(wù),滿足人類的現(xiàn)代化生活需求,誰就享有真實的權(quán)力。
四、人工智能算法規(guī)制的方法
新生勃發(fā)的人工智能算法,其本身資本主導(dǎo)的因素是無法磨滅的,而其野蠻生長帶來的種種問題已經(jīng)日益浮現(xiàn)。在當(dāng)今種種新技術(shù)、新產(chǎn)業(yè)高度依賴算法的背景下,迫切需要對其加強(qiáng)引導(dǎo),將自我監(jiān)管和行政監(jiān)管相結(jié)合,構(gòu)建人工智能算法規(guī)制的法治基礎(chǔ)。
(一)構(gòu)建政府主導(dǎo)并掌握核心算法的大數(shù)據(jù)系統(tǒng)
在現(xiàn)代化治理轉(zhuǎn)型中,政府應(yīng)樹立服務(wù)型政府的觀念,強(qiáng)化公共服務(wù)的提供能力。面對掌握數(shù)據(jù)優(yōu)勢的企業(yè)及人工智能算法背后的資本力量,要構(gòu)建人工智能算法的監(jiān)管、規(guī)制體系,首先應(yīng)當(dāng)利用行政機(jī)關(guān)掌握的海量數(shù)據(jù),建立行政力量主導(dǎo)的大數(shù)據(jù)人工智能算法系統(tǒng),強(qiáng)化公共服務(wù)的提供能力。
傳統(tǒng)上,政府治理習(xí)慣于全面鋪開的事前監(jiān)管,并通過“組織目標(biāo)進(jìn)行分工”的科層制作為權(quán)力實現(xiàn)的保障。但在人工智能算法時代,人工智能算法開源性的數(shù)據(jù)特征使得有效監(jiān)管難以著手。因此,政府應(yīng)當(dāng)依托自身大數(shù)據(jù)平臺的建設(shè),破除政府內(nèi)部的科層制造成的數(shù)據(jù)淤積、部門之間缺乏有效數(shù)據(jù)共享、區(qū)域之間數(shù)據(jù)互聯(lián)不暢等問題,以實現(xiàn)數(shù)據(jù)互聯(lián)互通,形成在大數(shù)據(jù)領(lǐng)域的主導(dǎo)地位,并依托于此確保對互聯(lián)網(wǎng)巨頭開發(fā)的人工智能算法的監(jiān)管落到實處。最終避免由少數(shù)企業(yè)主導(dǎo)大數(shù)據(jù)而引發(fā)的權(quán)力失衡問題,以維護(hù)整體政治穩(wěn)定。
具體而言,政府應(yīng)當(dāng)利用人工智能算法的技術(shù)優(yōu)勢,以政務(wù)信息化的實現(xiàn)和政府大數(shù)據(jù)資源的壯大為根本前提,實現(xiàn)人工智能算法在政府治理層面的嵌入,以此為基礎(chǔ),梳理沉積數(shù)據(jù),對其歸納、整理、分析,找出其中蘊含的數(shù)據(jù)價值,構(gòu)建大數(shù)據(jù)平臺用于服務(wù)型政府的建設(shè),從而掌握數(shù)據(jù)權(quán)力,以應(yīng)對資本控制下的人工智能算法權(quán)力的挑戰(zhàn)。同時,還應(yīng)當(dāng)逐步與各類大數(shù)據(jù)平臺對接,通過強(qiáng)化對其外部監(jiān)管與內(nèi)部技術(shù)監(jiān)管,厘清公權(quán)力與私權(quán)利之間的模糊領(lǐng)域,以增強(qiáng)大數(shù)據(jù)領(lǐng)域的政府監(jiān)管權(quán)威。
(二)強(qiáng)化倫理約束組織的建設(shè)
已有的“機(jī)器人三定律”“人工智能三原則”“人工智能開發(fā)六項倫理原則”“23條阿西洛馬人工智能原則”,均為了保證人工智能算法的技術(shù)中立性,法學(xué)界已經(jīng)多有討論,我們在此不予贅述。但我們認(rèn)為,算法本質(zhì)上就不存在技術(shù)中立性,為實現(xiàn)算法保有倫理性原則,在加強(qiáng)行政監(jiān)管的同時,還應(yīng)當(dāng)強(qiáng)化行業(yè)內(nèi)的倫理約束組織的建設(shè)。
因此,可以參照日本人工智能學(xué)會在內(nèi)部常設(shè)“倫理委員會”的做法,負(fù)責(zé)監(jiān)管業(yè)內(nèi)各項研究不逾越倫理道德的紅線。事實上,這樣的倫理機(jī)構(gòu)的設(shè)立,在國內(nèi)反而更具強(qiáng)大的執(zhí)行力。以某市互聯(lián)網(wǎng)協(xié)會為例,該協(xié)會覆蓋了與互聯(lián)網(wǎng)相關(guān)的眾多企事業(yè)單位、科研院校、新聞媒體和行政管理單位,其會員包括互聯(lián)網(wǎng)運營商、內(nèi)容提供商、設(shè)備制造商、集團(tuán)客戶及政府管理部門等,同時在業(yè)務(wù)上接受某市通信管理局和中國互聯(lián)網(wǎng)協(xié)會的指導(dǎo)。
因此,我們建議至少應(yīng)當(dāng)在省級互聯(lián)網(wǎng)協(xié)會內(nèi)部設(shè)立“倫理委員會”。首先在監(jiān)管對象上,即覆蓋了絕大多數(shù)大數(shù)據(jù)企業(yè)和算法開發(fā)者;其次,在指導(dǎo)機(jī)制上,同時接受中國互聯(lián)網(wǎng)協(xié)會的垂直指導(dǎo)和省級通信管理局的科層指導(dǎo),既能保證倫理原則監(jiān)督的嚴(yán)肅性,又有較強(qiáng)的專業(yè)性和靈活性。再次,省級互聯(lián)網(wǎng)協(xié)會作為省級區(qū)域內(nèi)非營利性的專業(yè)社會團(tuán)體,實際上也反映著從業(yè)者的利益訴求與現(xiàn)實需要,體現(xiàn)的是一種積極的基層自治。最后,與人工智能算法相關(guān)的其他業(yè)內(nèi)協(xié)會,均可以作為“倫理委員會”的試點機(jī)構(gòu)。
國內(nèi)在互聯(lián)網(wǎng)企業(yè)、人工智能算法企業(yè)、相關(guān)行業(yè)協(xié)會等組織內(nèi)部設(shè)立“倫理委員會”,將有利于提升人工智能算法領(lǐng)域從業(yè)者的社會責(zé)任感,強(qiáng)化作為人工智能算法控制者的私營部門的倫理操守,并在不斷實踐中探索各項倫理原則的邊界與不足。
(三)立法上壓實人工智能算法開發(fā)者、控制者的主體責(zé)任
算法難以追責(zé)的原因,主要在于算法黑箱的技術(shù)壁壘難以克服。有學(xué)者認(rèn)為,通過增強(qiáng)算法透明度,公開源代碼和輸入數(shù)據(jù)、輸出結(jié)果可以明確問責(zé),但在實踐中,往往難以適用。例如,在涉及某些決策時,往往將某些決定性因素、算法的輸出結(jié)果甚至執(zhí)行的人工智能算法本身進(jìn)行保密。此外,人工智能算法本身就處在不斷自我學(xué)習(xí)、升級的過程中,其自動化決策的步驟,往往會在算法機(jī)器學(xué)習(xí)后或經(jīng)人類的操控,結(jié)合新的數(shù)據(jù)進(jìn)行更新。就此而言,即便掌握了源代碼和數(shù)據(jù),也難以還原人工智能算法決策的流程。面對以上難題,我們可以借鑒歐盟的最新立法成果,壓實人工智能算法開發(fā)者、控制者的主體責(zé)任。
2018年5月25日,歐盟《通用數(shù)據(jù)保護(hù)條例》(以下簡稱GDPR)正式生效,GDPR第5條不再就算法的數(shù)據(jù)技術(shù)問題進(jìn)行探討,而直接將保護(hù)個人數(shù)據(jù)的舉證責(zé)任歸于數(shù)據(jù)的控制者,以達(dá)到規(guī)范人工智能算法控制者行為責(zé)任的效果。GDPR第35條提出數(shù)據(jù)保護(hù)影響評估義務(wù),要求數(shù)據(jù)控制者具體承擔(dān)數(shù)據(jù)處理風(fēng)險的分析、評估和控制,監(jiān)管機(jī)構(gòu)僅對評估報告展開審查而不參與具體的評估過程。在這種模式下,數(shù)據(jù)保護(hù)影響評估既保留了自我規(guī)制的靈活性,同時又受到傳統(tǒng)的“命令一控制”型規(guī)制中外部壓力的影響。
結(jié)合我國當(dāng)前的立法情況可見,由于我國尚未針對人工智能算法出臺專項立法,也沒有對數(shù)據(jù)權(quán)利和個人信息權(quán)利進(jìn)行明確區(qū)分,現(xiàn)有涉及算法的法律條文分散在多部網(wǎng)絡(luò)立法中,因此現(xiàn)有的涉及算法規(guī)制的法律條文主要以互聯(lián)網(wǎng)企業(yè)為監(jiān)管對象。這實際上是和GDPR所對應(yīng)的“數(shù)據(jù)控制者”是高度重合的,并同樣“通過界定平臺企業(yè)對于平臺生態(tài)內(nèi)算法使用和運行的管理義務(wù),以特定企業(yè)為抓手,同時賦予用戶相應(yīng)權(quán)利構(gòu)筑多元主體的權(quán)利義務(wù)機(jī)制?!被诖耍梢詤⒖?xì)W盟立法,以監(jiān)管“數(shù)據(jù)”和“數(shù)據(jù)控制者”為切入點,達(dá)到算法監(jiān)管的目的。具體而言,我們建議:
1.在未來的人工智能算法法治規(guī)制架構(gòu)中,增添算法開發(fā)者的特定義務(wù),將透明度要求嵌入算法設(shè)計環(huán)節(jié),同時引入零知識證明(zero-KnoMedge Proofs)概念,即在某些重大決策時,允許決策者在不透露重要因素的內(nèi)容和政策的前提下,對決策的作出提供證明。通過零知識證明的方式,既可以保證某種程度的透明性,又可以有效杜絕決策泄密的問題。
2.借鑒GDPR第35、42條的規(guī)定,“基于算法的預(yù)期用途、關(guān)鍵類型和可接受的錯誤類型等指標(biāo)提出設(shè)計、測試以及指導(dǎo)算法開發(fā)應(yīng)當(dāng)符合安全邊際的績效標(biāo)準(zhǔn)”,要求數(shù)據(jù)控制者在使用人工智能算法進(jìn)行數(shù)據(jù)采集、畫像、推送時,積極履行“數(shù)據(jù)保護(hù)影響評估義務(wù)”,對可能涉及的數(shù)據(jù)風(fēng)險向有關(guān)部門提交處理預(yù)案。同時,制定對人工智能算法可能侵犯個人權(quán)利(包括財產(chǎn)權(quán)利)、算法歧視等負(fù)面影響的處理預(yù)案。
3.借鑒GDPR第40、42條的規(guī)定,建立第三方監(jiān)管下的算法審查機(jī)制。人工智能算法的開發(fā)者在算法設(shè)計之初,可以向第三方監(jiān)管機(jī)構(gòu)或認(rèn)證機(jī)構(gòu)提交涉及算法源代碼、運行參量、輸入數(shù)據(jù)和輸出結(jié)果的《承諾書》,如后期發(fā)現(xiàn)侵權(quán)行為的發(fā)生,則監(jiān)管機(jī)構(gòu)有權(quán)依據(jù)《承諾書》作出的內(nèi)容進(jìn)行驗證,若實際運行的算法與《承諾書》不一致的,則有權(quán)處罰算法的開發(fā)者。第三方監(jiān)管機(jī)構(gòu)在必要時,還應(yīng)當(dāng)有權(quán)凍結(jié)數(shù)據(jù)控制者的行為權(quán)限。同樣,在法律糾紛中,法院有權(quán)調(diào)取該《承諾書》作為認(rèn)定責(zé)任的重要依據(jù)。
綜上,應(yīng)當(dāng)摒棄算法作為“技術(shù)產(chǎn)品”中立性法律地位的立場,做到關(guān)口前移,防患于未然,逐步建立對人工智能算法開發(fā)者、控制者和算法的雙重審查機(jī)制。通過加強(qiáng)人工智能算法開發(fā)者、控制者與算法之間的聯(lián)系,壓實人工智能算法開發(fā)者、控制者的主體責(zé)任,強(qiáng)化其自我監(jiān)管、自我規(guī)制。
結(jié)語
當(dāng)前我國互聯(lián)網(wǎng)已進(jìn)入智媒化、移動化、社交化發(fā)展階段,以大數(shù)據(jù)技術(shù)的應(yīng)用為驅(qū)動,量化分析和數(shù)據(jù)挖掘技術(shù)不斷提高,使得用戶逐漸拆解、演變成為大數(shù)據(jù)不同類別的參數(shù)。人工智能算法依托大數(shù)據(jù)應(yīng)用的發(fā)展而日益成為現(xiàn)代生活不可或缺的組織形式。并在各類新生的應(yīng)用領(lǐng)域中不斷獲得發(fā)展,人工智能算法深度介入人類社會生活的歷史時刻已經(jīng)從想象成為現(xiàn)實。
在這個歷史性的轉(zhuǎn)折時刻,首先應(yīng)當(dāng)積極構(gòu)建對人工智能算法的規(guī)制體系,以立法的形式增強(qiáng)算法透明度和可追溯性,壓實算法開發(fā)者和控制者的主體責(zé)任;同時應(yīng)當(dāng)建立第三方有權(quán)監(jiān)管機(jī)構(gòu)審查機(jī)制,保存算法的基礎(chǔ)信息,同時對算法黑箱、算法歧視等問題進(jìn)行技術(shù)界定,對算法侵權(quán)進(jìn)行核驗。最后,還應(yīng)當(dāng)在算法開發(fā)之初,為其自我學(xué)習(xí)賦予道德紅線,在其“刺激一反應(yīng)”模式中注入倫理性的選擇結(jié)果,使得在人工智能算法自我學(xué)習(xí)的進(jìn)展中,在涉及道德及政治性的選擇時,算法程序自動地將選擇權(quán)和決定權(quán)交還人類。