侯東德 張可法
決策是人類的一種專屬行為。自古以來,人類是決策的唯一主體。決策行為帶有確定的目的性,它是運用決策者的智能、見識、經(jīng)驗以及理性判斷等能力,在權衡利弊要素后作出最優(yōu)行動方案選擇的過程。然而,在數(shù)字時代,智能算法介入并重新定義傳統(tǒng)的決策方式、呈現(xiàn)形態(tài)和運行邏輯,決策者的有限理性和經(jīng)驗由于算法技術的定量分析介入趨于高度智能化,當算法自動化在決策過程中出現(xiàn)算法權利化傾向時,會產(chǎn)生難以預料的破壞性效果。
綜上所述,算法決策已經(jīng)深刻影響個人生活和公共管理,我們在探究自動化決策算法帶來擔憂的同時,更重要的任務是認清決策算法的法律屬性,并依據(jù)決策二分法,科學判斷算法決策應用的合理場域和界定原由,以及在合理應用場域下如何防控算法風險。
算法是數(shù)字化、智能化的技術手段,并非自然人意思自治的延伸,算法自動化決策方式從形式上切斷了“行為—責任”邏輯鏈條,要還原算法自動化決策的本來面目,可以回歸到法律關系的架構中去驗證。
2.自動化決策算法是“人格性工具”。算法自動化決策與人的關系并非完全分離,這是由算法的技術特點決定的。自動化決策算法既非人也非物,是人機交互的行為,其本質(zhì)是一種“人格性工具”,原因有三。一是算法自動化決策的依據(jù)是設計者和代碼編譯者創(chuàng)設的,是決策者意思自治的物理性手段延伸,不存在完全內(nèi)生、自主思維和自主學習的算法。二是算法自動化決策過程需要人類的全程參與、密切關注和評估結果。算法決策依賴于大量初始訓練數(shù)據(jù),訓練數(shù)據(jù)和算法決策結果是相互成就的,訓練數(shù)據(jù)影響算法決策結果的質(zhì)量,反過來算法決策的結果反饋能引導決策者對訓練數(shù)據(jù)的調(diào)適和改進。三是算法自動化決策離不開持續(xù)的管理和維護。算法決策是輔助性手段,其行為與后果都由人來承擔,因此,人們有義務對算法決策的偏差和錯誤進行全過程的防控。
3.自動化決策算法易背離“人本主義”。人的主體地位和尊嚴是憲法價值的延伸,源自于哲學道德要求向法律規(guī)則的轉(zhuǎn)變,是憲法給予人的終極認可與推崇,但機器是冰冷且沒有理性思想的,算法自動化決策不加區(qū)分合理應用場域的后果,便是人的主體地位受到算法的不斷蠶食,讓人們在智能算法背景下不得不重新定位人的尊嚴和價值,并在價值指引之下,把“人本主義”價值被動地帶入算法應用的正當性論證之中,顯然“人本主義”價值遵循本身是不容動搖的,人們過度依賴算法自動化帶來的便捷和經(jīng)濟利益,必然會付出背離人的價值和價值意蘊的代價,削弱了自身的主體地位。
顯而易見,當厘清了決策算法的法律本質(zhì),就能揭開算法自動化決策的“面紗”,確定決策算法設計者(控制者)是算法決策失控后相關法律責任的承擔者,為算法自動化決策風險如何在私法權利譜系中進行規(guī)制奠定了基礎。
為了確定人工決策與算法自動化決策適用的應然范圍,基于“決策二分法”探討場域問題,是解決決策風險防控問題的基礎,決策應用場域劃分的科學與否,涉及對決策風險的兩種不同邏輯對應問題。簡言之,應依據(jù)理性標準劃分出兩類決策的應用邊界,確定哪些場域運用算法自動化決策是合理的,反之,就會出現(xiàn)算法自動化決策侵占人工決策權場域的越位行為。
本文認為,對決策界域劃分問題應該形成一種判斷共識:算法決策通常能夠識別輸入和結果之間的相關關系,而不是因果關系;在沒有可供預測的數(shù)據(jù)參數(shù)反饋的情況下,不應該使用算法機器進入該應用領域開展自動化決策;同時,當決策內(nèi)容涉及倫理或其他道德價值方面的定性判斷時,也不應使用算法機器去完成該決策。監(jiān)督者對決策風險監(jiān)督的首要任務就是判斷決策手段與決策邏輯之間的適應性,對算法自動決策審查的重點應當落到算法程序中是否存在技術倫理風險的防控上。
2.對數(shù)據(jù)、代碼、算法的正義價值考量。數(shù)據(jù)是算法的基礎,作為重要的生產(chǎn)要素,數(shù)據(jù)要素有其正義性的需求。譬如,近年來的“大數(shù)據(jù)殺熟”盛行,對算法決策的定點式推送再次提出警示。尤其當行政管理部門和經(jīng)濟平臺運用數(shù)據(jù)挖掘技術對原始數(shù)據(jù)進行抓取、分類、整理和賦值,并依據(jù)訓練數(shù)據(jù)給服務對象提供相對應的算法模塊,或者建立新的技術規(guī)范和社會管理模式時,此種情形的數(shù)據(jù)資源利益關系就需要規(guī)則的平衡,尤其在數(shù)據(jù)賦值環(huán)節(jié),面對相同的基礎數(shù)據(jù)常常形成不同的算法決策結果,這就不單是一個技術問題,而是包含著一定的價值判斷,隱藏和交織著不同的利益訴求和權利主張,這些挑戰(zhàn)都需要構建相應的數(shù)據(jù)正義觀給予指引。
3.算法決策與法律決策之間的鴻溝。算法決策遵循數(shù)理邏輯,法律決策依據(jù)社會邏輯。它們處于兩個不同的邏輯系統(tǒng),因為法律決策必須要以法律規(guī)范為基礎,而法律規(guī)范是人們長期在社會實踐中人為創(chuàng)設出來的行為規(guī)范,折射出人類的理性思維、智慧思辨邏輯和社會關系運行規(guī)律,本質(zhì)上體現(xiàn)了人與人之間的社會關系。而算法決策是由自然人經(jīng)過收集、加工數(shù)據(jù)后設計出來的算法模塊,反映了數(shù)據(jù)算力和數(shù)理邏輯,本質(zhì)上是人與機器的交互行為。算法可視為對數(shù)據(jù)的計算過程,這種計算方式的內(nèi)部運行結構就是算法系統(tǒng),算法系統(tǒng)只能通過數(shù)據(jù)模塊運算來確定數(shù)據(jù)輸入與結果輸出的數(shù)值關系或相關關系,卻無法解釋二者的因果關系和運算機理。目前,算法自動化決策僅能做到提高效率、減少工作重復和簡單的推理,若要將算法決策轉(zhuǎn)化為法律決策,擺在前面的技術障礙和理論阻卻難以突破。
算法自動化決策雖產(chǎn)生眾多擔憂,但過分的從規(guī)范性基本原則證成擔憂并放大人工決策的糾偏效能似乎也不適應社會發(fā)展的規(guī)律,甚至有阻礙算法科技發(fā)展的嫌疑。人工決策和算法決策的糾纏是智能時代決策二分性的體現(xiàn),對于程序性、簡單推理、有高效要求的決策事項,在一個相對閉合的預判環(huán)境下,算法決策往往更高效且錯誤總量更少。反觀人工決策,決策結果是在規(guī)則和規(guī)范引導下,依靠決策者的意思自治和對各種社會關系利弊的理性權衡,判斷往往受經(jīng)驗主義和堅守“人本主義”及倫理道德價值的影響,同時,它還承擔對算法自動化決策的動態(tài)校準,及時糾正算法越界域決策后的不良后果的重要職責。由于決策過程邏輯的不同,要求決策者辯證地看待彼此不同的兩種決策方式,二者各有其應然存在的合理空間,當決策者在選擇適用工具時,在不同的場景下應遵循二者的邏輯本質(zhì),取長補短,相互不僭越,彼此合理的場域。
即使揭開了算法自動化決策的面紗,最終目的也是為了對其帶來的風險加以規(guī)制。當前,算法決策給現(xiàn)實生活帶來的安全問題已經(jīng)多有顯現(xiàn),決策者必須清醒地認識到,只有洞悉算法決策風險的發(fā)生邏輯,合理區(qū)分風險類型,才能找到具有針對性地防范與治理算法自動化決策風險的辦法。
從社會發(fā)展的維度看,算法決策風險是智能化發(fā)展帶來的負外部性溢出。智能算法驅(qū)動社會管理和人們的經(jīng)濟生活發(fā)生巨大變革,產(chǎn)生了人機交互并存的新型社會生產(chǎn)關系,算法自動化決策系統(tǒng)在提高經(jīng)濟效率和緩解勞動力成本的同時,逐步形成了一種新的算法權力,該權力使人們?nèi)菀桩a(chǎn)生路徑依賴,并在公、私法兩個領域擴大算法權力界域和固化對人類自決權的蠶食,這種變化過程必然給社會結構的穩(wěn)定帶來挑戰(zhàn)。
從算法應用的維度看,智能算法具有技術屬性和社會屬性高度融合的特征,使得算法決策在社會各領域得以展開,當算法決策在公權力領域應用,會對國家、社會和個人安全產(chǎn)生直接影響。在經(jīng)濟領域的應用,平臺算法可以利用制定算法規(guī)制的優(yōu)勢地位,在算法中嵌入符合自己最大經(jīng)濟利益的代碼,使得算法決策權利化,固化決策者的算法權利地位。在個人信息處理中,算法決策利用算法的不可解釋性和不透明性,可以選擇性地盜取用戶的個人信息,存在個人信息泄露的風險。
本文認為,產(chǎn)生這種問題的主要原因是算法決策明顯違背其應運的場域問題,算法決策應用必須堅守的原則和標準是:人們不應該在算法決策中嵌入因果關系判斷,更不應該將對人的道德品行定性評價賦權給機器去決策。否則,新的不公平會被算法技術帶入社會管理和經(jīng)濟生活,產(chǎn)生效率掩蓋公正的現(xiàn)象。
恐懼往往來源于未知,算法決策風險源自人和技術兩方面,但關鍵要素在于算法技術本身和決策控制者的價值追求,我們應該將其放置在法律規(guī)制框架下,明確算法控制者與數(shù)據(jù)主體各方的權利義務關系,刻不容緩地架構“立法+監(jiān)督+協(xié)同”的治理體系。
2.監(jiān)管部門對算法決策異化的防控。算法決策系統(tǒng)涉及多方主體,包括算法系統(tǒng)設計者、算法決策者、數(shù)據(jù)主體等,加之決策流程的不透明和難解釋特性,算法成為形式上的決策主體后,形成了多方參與者責任剝離的理由。因此,要面向算法決策設立專門的科技監(jiān)管機構,給予監(jiān)督機構針對算法決策風險享有相應的監(jiān)督、管理和問責權限,逐步形成算法倫理性評估、外督內(nèi)審及第三方制約等監(jiān)督鏈條。