摘 要:算法決策已成為建設(shè)數(shù)字中國(guó)的一項(xiàng)基礎(chǔ)性技術(shù)。由于算法決策系統(tǒng)的復(fù)雜性和科技依賴性等特征,在決策過(guò)程中容易引發(fā)隱私泄露風(fēng)險(xiǎn)、算法決策錯(cuò)誤風(fēng)險(xiǎn)、算法偏見(jiàn)風(fēng)險(xiǎn)和聲譽(yù)風(fēng)險(xiǎn)等算法風(fēng)險(xiǎn),使用戶面臨不確定的算法決策環(huán)境。算法風(fēng)險(xiǎn)會(huì)引發(fā)公眾對(duì)算法決策的信任危機(jī),產(chǎn)生算法恐慌情緒并可能導(dǎo)致算法污名化,進(jìn)而阻礙數(shù)字中國(guó)的進(jìn)程。應(yīng)對(duì)算法決策的信任危機(jī),理念層面,要明確算法決策的技術(shù)理性;規(guī)制層面,要提前規(guī)避算法決策的風(fēng)險(xiǎn);聲譽(yù)層面,要為算法決策正名,實(shí)現(xiàn)算法“去污名化”;用戶層面,要營(yíng)造一個(gè)良好的算法用戶環(huán)境,以構(gòu)建算法決策的社會(huì)信任機(jī)制。
關(guān)鍵詞:數(shù)字中國(guó);算法決策;算法風(fēng)險(xiǎn);社會(huì)信任
中圖分類號(hào):C91
文獻(xiàn)標(biāo)志碼:A文章編號(hào):1002-7408(2021)10-0090-06
作者簡(jiǎn)介:黎夢(mèng)兵(1992-),男,土家族,湖南張家界人,湘潭大學(xué)法學(xué)院博士研究生,研究方向:社會(huì)信任、算法治理。
一、數(shù)字中國(guó)背景下算法決策的普適性
“算法”一詞原指使用數(shù)字進(jìn)行加、減、乘、除的方法?,F(xiàn)代意義上的算法決策是指以海量數(shù)據(jù)為基礎(chǔ),進(jìn)行自我運(yùn)算、學(xué)習(xí),以提供備選決策的過(guò)程,其運(yùn)算模式可以理解為“輸入數(shù)據(jù)——輸出結(jié)果”的輸入輸出模型,算法決策的結(jié)果多用來(lái)進(jìn)行具體事物的管理,并可以實(shí)現(xiàn)社會(huì)資源的配置。相對(duì)于人類決策或借助其他數(shù)理工具決策而言,算法決策具有其不可替代的優(yōu)勢(shì),如應(yīng)用場(chǎng)景豐富、適應(yīng)能力強(qiáng)、計(jì)算精準(zhǔn)程度高等,能夠在復(fù)雜環(huán)境下執(zhí)行大量復(fù)雜的任務(wù),包括信息安全加密、用戶偏好推薦、風(fēng)險(xiǎn)預(yù)測(cè)、結(jié)果分析、深度偽造和系統(tǒng)優(yōu)化等,能夠大幅節(jié)約時(shí)間和提升工作效率[1]。
《中華人民共和國(guó)國(guó)民經(jīng)濟(jì)和社會(huì)發(fā)展第十四個(gè)五年規(guī)劃和2035年遠(yuǎn)景目標(biāo)綱要》[HTF](以下簡(jiǎn)稱《綱要》)提出要加快數(shù)字化發(fā)展,建設(shè)數(shù)字中國(guó),明確了通過(guò)數(shù)據(jù)要素推進(jìn)網(wǎng)絡(luò)強(qiáng)國(guó)建設(shè)的宏觀目標(biāo)。算法決策作為大數(shù)據(jù)時(shí)代智能決策的基礎(chǔ),將對(duì)生產(chǎn)方式、生活方式和治理方式產(chǎn)生重要的影響。在數(shù)字中國(guó)環(huán)境下,算法逐漸運(yùn)用于社會(huì)生活的各個(gè)場(chǎng)景,從信息精準(zhǔn)推送到智能路線導(dǎo)航,從預(yù)測(cè)治安風(fēng)險(xiǎn)到輔助法官量刑,算法可以適用于新聞、教育、醫(yī)療、執(zhí)法、金融、社會(huì)保障等不同領(lǐng)域,并發(fā)揮著越來(lái)越重要的作用。
科學(xué)技術(shù)成為國(guó)家強(qiáng)盛的基礎(chǔ),通過(guò)創(chuàng)新引領(lǐng)高質(zhì)量發(fā)展是我國(guó)未來(lái)的發(fā)展趨勢(shì)。第四次工業(yè)革命以來(lái),世界范圍內(nèi)的許多國(guó)家都開(kāi)始注重以信息產(chǎn)業(yè)主導(dǎo)經(jīng)濟(jì)發(fā)展,大數(shù)據(jù)、人工智能、量子信息、物聯(lián)網(wǎng)、區(qū)塊鏈等新興信息技術(shù)逐漸成熟,應(yīng)用場(chǎng)景逐漸豐富,而算法決策成為這些新興信息技術(shù)的重要紐帶,可以說(shuō)沒(méi)有算法決策,信息技術(shù)發(fā)展將寸步難行。在算法決策的作用下,新興數(shù)字信息技術(shù)不斷推陳出新,逐漸發(fā)揮技術(shù)群的系統(tǒng)作用和規(guī)模效應(yīng),以此衍生的數(shù)字經(jīng)濟(jì)成為經(jīng)濟(jì)增長(zhǎng)的新動(dòng)力。世界各國(guó)紛紛借助“技術(shù)東風(fēng)”,調(diào)整優(yōu)化經(jīng)濟(jì)結(jié)構(gòu),以實(shí)現(xiàn)經(jīng)濟(jì)發(fā)展速度穩(wěn)步提升。
十九大以來(lái),中國(guó)大力推動(dòng)數(shù)字技術(shù)與實(shí)體經(jīng)濟(jì)深度融合,算法決策作為重要的基礎(chǔ)性工具,逐漸成為我國(guó)發(fā)展數(shù)字經(jīng)濟(jì)和共享經(jīng)濟(jì)的技術(shù)支撐。然而,算法在給社會(huì)生活帶來(lái)便利的同時(shí)也引發(fā)了一系列社會(huì)問(wèn)題,算法規(guī)制逐漸成為社會(huì)科學(xué)領(lǐng)域的研究熱點(diǎn)。在大數(shù)據(jù)時(shí)代,各類信息都可通過(guò)數(shù)據(jù)化途徑儲(chǔ)存,數(shù)據(jù)成為信息與社會(huì)利益的載體。換言之,大數(shù)據(jù)時(shí)代將面臨處理海量數(shù)據(jù)的難題,由于處理海量數(shù)據(jù)所需的算力超出傳統(tǒng)計(jì)算工具的能力范圍,這便意味著社會(huì)資源的分配權(quán)力從人工轉(zhuǎn)向算法,而基于數(shù)據(jù)所進(jìn)行的算法決策則成為一種事關(guān)社會(huì)公眾利益消長(zhǎng)的社會(huì)建構(gòu)?!斑@使得算法逐漸脫離數(shù)學(xué)工具的角色,并與數(shù)據(jù)資源結(jié)合成為重要的新興社會(huì)力量?!盵2]可見(jiàn),大數(shù)據(jù)時(shí)代算法決策已經(jīng)成為一項(xiàng)普適性技術(shù),并逐漸超越其技術(shù)范疇,具備了社會(huì)屬性。
二、算法決策的風(fēng)險(xiǎn)表征
隨著人類社會(huì)從弱人工智能階段向強(qiáng)人工智能階段過(guò)渡,算法自動(dòng)化決策存在的局限性逐步顯現(xiàn),也引發(fā)了諸多問(wèn)題,如“算法霸權(quán)”“信息繭房”效應(yīng)以及“算法殺熟”現(xiàn)象等,而算法人為“操縱”等風(fēng)險(xiǎn)將妨礙數(shù)據(jù)主體的人格尊嚴(yán)及經(jīng)濟(jì)利益等合法權(quán)益[3],進(jìn)而引發(fā)算法自動(dòng)化決策風(fēng)險(xiǎn)。隨著一系列算法妨害案例的出現(xiàn),如針對(duì)罪犯再犯概率的預(yù)測(cè)系統(tǒng)出現(xiàn)種族歧視、谷歌算法操縱排除競(jìng)爭(zhēng)、電商營(yíng)銷中的算法殺熟以及深度偽造的假新聞等等,對(duì)算法決策的不信任逐漸成為普遍的社會(huì)現(xiàn)象,一時(shí)間“談算法色變”。
大數(shù)據(jù)時(shí)代的算法決策較為特殊,因此算法決策的風(fēng)險(xiǎn)表征亦更為隱晦。一是算法的公開(kāi)和透明程度較低,容易形成“算法黑箱”;二是算法的復(fù)雜程度較高,其工作原理難以被社會(huì)公眾所理解;三是算法結(jié)果具有不可預(yù)測(cè)性,算法結(jié)果的科學(xué)性依賴于算法設(shè)計(jì)、數(shù)據(jù)量及監(jiān)管等多重因素,實(shí)踐中算法設(shè)計(jì)要考慮一定的隨機(jī)性,這意味著算法結(jié)果難以預(yù)測(cè);四是算法結(jié)果不可控性,由于算法決策多應(yīng)用于海量數(shù)據(jù)的處理,需要針對(duì)某一類特殊情形而及時(shí)、精準(zhǔn)及多次輸出特定結(jié)果,這便意味著算法決策需要針對(duì)不特定主體及情形多次輸出類型化的結(jié)果,而一旦出現(xiàn)算法妨害,往往會(huì)引發(fā)不可控的算法決策危機(jī)。
在大數(shù)據(jù)時(shí)代,隨著算法應(yīng)用場(chǎng)景更廣,各行各業(yè)可以提供更加豐富的源數(shù)據(jù),數(shù)據(jù)采集主體更為廣泛。算法決策過(guò)程涉及到數(shù)據(jù)采集者、算法設(shè)計(jì)者及算法使用者等主體。由于算法技術(shù)本身的特殊性和算法使用過(guò)程的不確定性,致使算法自身可能存在缺陷,使技術(shù)的公正性、合理性和可行性達(dá)不到要求。對(duì)于一般公眾而言,算法決策往往具有較強(qiáng)的科技背書(shū)特征或監(jiān)管機(jī)構(gòu)背書(shū)特征,要么被科技外觀所隱藏,不被理解;要么被自動(dòng)視為中立的、權(quán)威的、科學(xué)的。因此,在數(shù)據(jù)采集者、算法設(shè)計(jì)者和使用者之間存在算法認(rèn)知的鴻溝,容易引發(fā)算法決策的風(fēng)險(xiǎn)。如圖1所示,算法決策系統(tǒng)涉及多重主體,從源數(shù)據(jù)輸入到輸出算法決策的過(guò)程中,存在隱私泄露、算法決策錯(cuò)誤、算法偏見(jiàn)和算法聲譽(yù)等算法風(fēng)險(xiǎn)。
其一,隱私泄露風(fēng)險(xiǎn)。算法系統(tǒng)運(yùn)行立足于大量的基礎(chǔ)數(shù)據(jù),其輸出結(jié)果的準(zhǔn)確性以足夠全面的樣本為基礎(chǔ),因此算法系統(tǒng)往往需要采集、掌握或存儲(chǔ)大量數(shù)據(jù)信息。這一過(guò)程可能存在過(guò)度搜集數(shù)據(jù)的情形,如大量收集個(gè)體的敏感數(shù)據(jù)或企業(yè)的涉密信息,引發(fā)數(shù)據(jù)隱私保護(hù)問(wèn)題。由于個(gè)體和一般企業(yè)無(wú)法突破“算法黑箱”,處于相對(duì)弱勢(shì)的地位,而互聯(lián)網(wǎng)企業(yè)可以利用其優(yōu)勢(shì)地位逐漸形成“技術(shù)割據(jù)”,加劇了互聯(lián)網(wǎng)企業(yè)和其他主體之間的強(qiáng)弱對(duì)比,導(dǎo)致算法系統(tǒng)中主體地位不平等[4],出現(xiàn)隨意流轉(zhuǎn)、買賣數(shù)據(jù)等現(xiàn)象,造成隱私數(shù)據(jù)泄露等危機(jī)。
其二,算法決策錯(cuò)誤風(fēng)險(xiǎn)。由于算法本身是一種計(jì)算程序,盡管可以通過(guò)自我學(xué)習(xí)進(jìn)行優(yōu)化,但算法決策系統(tǒng)的科學(xué)性受到設(shè)計(jì)缺陷、源數(shù)據(jù)的體量、決策程序等客觀因素影響,難免出現(xiàn)錯(cuò)誤的結(jié)論。如新聞媒體算法決策錯(cuò)誤,在信息傳遞過(guò)程中根據(jù)“用戶畫(huà)像”推薦大量虛假新聞,不僅不利于應(yīng)急管理,反而會(huì)引發(fā)公眾的恐慌。
其三,算法偏見(jiàn)風(fēng)險(xiǎn)。由于算法決策系統(tǒng)可能被人為操縱,導(dǎo)致決策過(guò)程存在偏見(jiàn)因素,使得算法系統(tǒng)重復(fù)輸出不公平、不合理的結(jié)果。算法偏見(jiàn)存在于算法設(shè)計(jì)和運(yùn)行的每一個(gè)環(huán)節(jié),包括算法設(shè)計(jì)者的偏見(jiàn)、輸入數(shù)據(jù)的偏見(jiàn)和算法局限的偏見(jiàn)[5]。算法歧視主要表現(xiàn)為輸入相同而結(jié)果不同或輸入不同而結(jié)果相同,進(jìn)而引發(fā)“針對(duì)種族、性別、年齡、消費(fèi)及弱勢(shì)群體的算法歧視”[6]。算法偏見(jiàn)的存在是導(dǎo)致算法信任危機(jī)的主要成因之一。
其四,算法聲譽(yù)風(fēng)險(xiǎn)。在數(shù)字中國(guó)建設(shè)過(guò)程中,算法決策應(yīng)用將進(jìn)一步推廣,影響社會(huì)的方方面面,其中還包含了公共事業(yè)管理、新聞媒體、醫(yī)療、教育乃至司法裁判等公共利益領(lǐng)域,良好的聲譽(yù)對(duì)公共利益領(lǐng)域而言至關(guān)重要,也是獲取公眾信任,實(shí)現(xiàn)社會(huì)穩(wěn)定的壓艙石[7]。算法的科學(xué)決策是新時(shí)期我國(guó)實(shí)現(xiàn)社會(huì)治理能力現(xiàn)代化的必然要求,但如若算法妨害導(dǎo)致算法聲譽(yù)受損,乃至出現(xiàn)“算法決策污名”,則必然影響公共事業(yè)管理,不利于社會(huì)穩(wěn)定,造成社會(huì)多重信任危機(jī)。
三、算法決策信任危機(jī)
算法決策本身存在著“黑箱”“信息繭房”等特質(zhì),其高度不確定性易造成“算法恐慌”“算法污名”等問(wèn)題。因此,社會(huì)公眾對(duì)算法決策易于產(chǎn)生的不信任情緒,進(jìn)而導(dǎo)致算法決策的信任危機(jī)。
(一)算法決策風(fēng)險(xiǎn)的社會(huì)放大
按照風(fēng)險(xiǎn)的社會(huì)放大理論,如果某項(xiàng)危機(jī)受到社會(huì)公眾強(qiáng)烈關(guān)注時(shí),基于各種機(jī)制,有關(guān)算法決策的風(fēng)險(xiǎn)可能會(huì)在風(fēng)險(xiǎn)傳導(dǎo)過(guò)程中被放大[8]。這種風(fēng)險(xiǎn)放大表現(xiàn)為社會(huì)公眾的強(qiáng)烈風(fēng)險(xiǎn)感知,并逐步演變?yōu)橛脩魧?duì)算法風(fēng)險(xiǎn)的憤怒情緒。具體而言,算法決策風(fēng)險(xiǎn)的社會(huì)放大一方面會(huì)導(dǎo)致算法污名,使公眾無(wú)差別地不信任算法決策,妨礙算法決策的社會(huì)效果;另一方面也會(huì)影響算法決策的合理使用進(jìn)程,不利于算法技術(shù)本身的革新。
在互聯(lián)網(wǎng)時(shí)代,算法等新興技術(shù)借助互聯(lián)網(wǎng)平臺(tái)定向推送感性化的信息進(jìn)而導(dǎo)致謠言的泛濫,“是一種利用群眾情緒極化謀求流量及利益從而掩蔽真相,破壞網(wǎng)絡(luò)傳播秩序,阻礙主流價(jià)值傳播及輿論引導(dǎo)的時(shí)代現(xiàn)象”[9]。這造成了算法決策的“后真相”現(xiàn)象,算法決策的實(shí)際危害已然顯現(xiàn)。學(xué)者多以選民投票為例證實(shí)“后真相”社會(huì)的算法妨害,其實(shí)現(xiàn)模式為:“第一步,根據(jù)已掌握的數(shù)據(jù)隱私群分選民,形成有不同偏向的群體;第二步,通過(guò)算法決策實(shí)現(xiàn)精準(zhǔn)的信息推送,構(gòu)筑‘信息繭房;第三步,通過(guò)精心選擇、制作內(nèi)容以搭售操控者意圖,引導(dǎo)選民群體投票?!盵10]算法決策的“后真相”特質(zhì)不僅成為部分群體操縱選民投票的方式,更是社會(huì)層面算法決策信任危機(jī)的重要原因之一。
隨著互聯(lián)網(wǎng)和移動(dòng)智能終端的進(jìn)一步普及,信息的“點(diǎn)擊量”“關(guān)注度”“轉(zhuǎn)發(fā)率”等指標(biāo)可以轉(zhuǎn)化為經(jīng)濟(jì)利益。為攫取更多利益,傳統(tǒng)媒體和新媒體在傳遞信息過(guò)程中,往往會(huì)迎合用戶偏好對(duì)既定的事實(shí)進(jìn)行加工或渲染,導(dǎo)致信息的傳遞過(guò)程中其經(jīng)濟(jì)價(jià)值、娛樂(lè)價(jià)值及獵奇價(jià)值優(yōu)先于真實(shí)價(jià)值,算法針對(duì)用戶偏好的定向推送則會(huì)加深這種偏見(jiàn),如出現(xiàn)迎合用戶口味的“深度偽造”短視頻,鑒偽難度更高、影響更為深遠(yuǎn)[11]。在事實(shí)被澄清后,會(huì)出現(xiàn)信息的反轉(zhuǎn),而大量的反轉(zhuǎn)信息和反轉(zhuǎn)新聞會(huì)持續(xù)沖擊主流意識(shí)形態(tài)的價(jià)值共識(shí),導(dǎo)致社會(huì)公眾對(duì)算法決策和定向推送的普遍懷疑,進(jìn)而引發(fā)算法污名化現(xiàn)象。
算法決策污名是指不特定主體形成的針對(duì)算法決策的一種不合理負(fù)面評(píng)價(jià),造成算法決策普遍的負(fù)面形象。在算法決策模型中,社會(huì)信任是不同群體價(jià)值共識(shí)得以形成的社會(huì)基礎(chǔ),這種信任可以節(jié)約社會(huì)資本。但算法決策“后真相”會(huì)引發(fā)針對(duì)算法等新興技術(shù)的污名,在反轉(zhuǎn)信息的不斷證實(shí)下,污名的影響范圍將不斷擴(kuò)大,導(dǎo)致付出信任的成本大于不信任造成的損失。在互聯(lián)網(wǎng)、自媒體所主導(dǎo)的虛擬“賽博空間”之中,“算法等技術(shù)污名”的妨害進(jìn)一步放大,在這種不信任基礎(chǔ)上,社會(huì)公眾的判斷和決策將脫離科學(xué)事實(shí)的理性證據(jù)和高尚道德的感性情愫,形成一種泛化且武斷的不信任判斷,最終引發(fā)針對(duì)算法決策等技術(shù)的社會(huì)信任危機(jī)。
(二)算法決策信任危機(jī)的表征
盧曼認(rèn)為:“熟悉與信任是吸收復(fù)雜性的互補(bǔ)方式?!盵12]對(duì)于具備復(fù)雜性外觀的算法技術(shù),算法決策信任危機(jī)將打破原有的熟悉機(jī)制,使復(fù)雜性簡(jiǎn)化困難重重。熟悉機(jī)制可分為傳統(tǒng)群體層面的人際信任和社會(huì)宏觀層面的系統(tǒng)信任,與之對(duì)應(yīng),算法決策的信任危機(jī)亦可分為人際信任危機(jī)和系統(tǒng)信任危機(jī)。
就算法決策人際信任危機(jī)而言,隨著算法逐漸改變用戶的傳統(tǒng)生活狀態(tài),公眾形成算法依賴,這沖擊了傳統(tǒng)的人際信任基礎(chǔ)——相同地域范圍內(nèi)熟人社會(huì)。在算法決策的影響下,公眾獲取信息的渠道多元、內(nèi)容復(fù)雜繁多,但所獲取的信息具有一定用戶偏好,持續(xù)反復(fù)的偏好信息會(huì)強(qiáng)化公眾對(duì)“特定事實(shí)”的認(rèn)知,甚至形成偏見(jiàn),進(jìn)而導(dǎo)致公眾在個(gè)性定制的碎片化信息中強(qiáng)化個(gè)人認(rèn)知而不信任其他人,引發(fā)人際信任危機(jī)。
就算法決策系統(tǒng)信任危機(jī)而言,由于算法決策的普遍性和“黑箱”特質(zhì),很多用戶不知道其利益是否為算法所影響,會(huì)產(chǎn)生對(duì)算法決策的泛化恐慌情緒。換言之,在日常社會(huì)生活中,用戶會(huì)形成一種“它為什么這么懂我”式的疑問(wèn),不知道生活場(chǎng)景中有沒(méi)有算法,不知道算法在何處,不知道算法是否科學(xué)及不知道如何救濟(jì)等。在這種多維不確定性情緒主導(dǎo)下,公眾會(huì)對(duì)整個(gè)算法決策系統(tǒng)產(chǎn)生懷疑。算法決策系統(tǒng)信任的確立依賴于算法制度監(jiān)管體系,算法決策的系統(tǒng)信任具有提高社會(huì)活動(dòng)效率、節(jié)約交往或交易成本等重要作用。在監(jiān)管措施不夠完善的情況下,由于算法決策缺乏必要的安全外觀,用戶對(duì)算法損害救濟(jì)缺乏信心,導(dǎo)致對(duì)算法決策的不信任擴(kuò)大至對(duì)算法決策及監(jiān)管體系的不信任,此時(shí)懷疑情緒演變?yōu)橄到y(tǒng)的不信任,增加達(dá)成合作或交易的社會(huì)成本,形成算法系統(tǒng)信任危機(jī)。
四、算法決策社會(huì)信任機(jī)制的構(gòu)建
世界各國(guó)都意識(shí)到算法決策的風(fēng)險(xiǎn),并采取了相應(yīng)措施,從立法實(shí)踐等方面關(guān)注涉及到算法決策的個(gè)人信息保護(hù)、數(shù)據(jù)保護(hù)等內(nèi)容。如2018年歐盟《通用數(shù)據(jù)保護(hù)條例》生效,被稱為“史上最嚴(yán)數(shù)據(jù)保護(hù)條例”,明確算法決策者應(yīng)當(dāng)以合法、合理和透明的方式處理個(gè)人數(shù)據(jù)等。我國(guó)立法也回應(yīng)了算法決策風(fēng)險(xiǎn),如《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《信息網(wǎng)絡(luò)傳播權(quán)保護(hù)條例》等法律法規(guī),以及《個(gè)人信息保護(hù)法》草案大多提到要約束算法自動(dòng)決策,強(qiáng)調(diào)個(gè)人信息保護(hù)等。但是,針對(duì)算法決策的爭(zhēng)議卻愈演愈烈,并逐漸形成信任危機(jī)。算法決策通過(guò)技術(shù)進(jìn)行綜合決策是一個(gè)社會(huì)建構(gòu)的過(guò)程,法律是其中較為重要的一環(huán),但并非唯一一環(huán)?;诖耍鐖D2所示,在數(shù)字中國(guó)背景下,應(yīng)對(duì)算法信任危機(jī)不僅要立足于法律規(guī)制,還應(yīng)以算法風(fēng)險(xiǎn)防治為核心,不斷修復(fù)算法等新興信息技術(shù)的信任鏈條并形成信任閉環(huán),最終構(gòu)筑算法決策系統(tǒng)的社會(huì)信任機(jī)制。
(一)算法理念更新:技術(shù)理性
技術(shù)信任以技術(shù)理性為基礎(chǔ),在算法決策過(guò)程中,算法使用者不僅要考慮算法技術(shù)的應(yīng)用功能,還要考慮通過(guò)算法進(jìn)行決策的目的正義、過(guò)程公正以及結(jié)果正當(dāng)。盡管每一次技術(shù)的迭代、更新都會(huì)在帶來(lái)便利的同時(shí)引發(fā)風(fēng)險(xiǎn)和不確定性,但這種不確定性也間接促使技術(shù)自身的革新,推動(dòng)技術(shù)配套制度體系逐漸完善。申言之,技術(shù)風(fēng)險(xiǎn)與技術(shù)理性之間存在一種伴生關(guān)系,由技術(shù)風(fēng)險(xiǎn)促成技術(shù)理性不僅是技術(shù)推陳出新的規(guī)律,也是技術(shù)信任的必然要求。
算法決策的社會(huì)信任需要樹(shù)立算法技術(shù)理性,具體可從合理、動(dòng)態(tài)、規(guī)范和價(jià)值等方面展開(kāi)。首先,算法決策技術(shù)要符合技術(shù)合理性要求。合理要求技術(shù)使用達(dá)到價(jià)值期許,算法決策原理具備科學(xué)性、可行性和可操作性,算法決策規(guī)范有效。其次,算法決策技術(shù)需要?jiǎng)討B(tài)調(diào)整。技術(shù)是使用者意愿的具象化,具有統(tǒng)籌多重抽象可能性的作用,這近似一個(gè)創(chuàng)造理想的過(guò)程,因而算法技術(shù)需要不斷調(diào)整、更新和完善,“算法技術(shù)發(fā)展中伴隨而來(lái)的各種風(fēng)險(xiǎn)可以通過(guò)增強(qiáng)技術(shù)可靠性以及開(kāi)拓技術(shù)周邊措施的方式來(lái)增加公眾信任”[13]。因而算法決策技術(shù)要符合技術(shù)原理,借助科學(xué)技術(shù)規(guī)律動(dòng)態(tài)應(yīng)對(duì)算法決策風(fēng)險(xiǎn)。再次,從算法決策的規(guī)范視角而言,由于技術(shù)本身不具備價(jià)值評(píng)判,因此應(yīng)對(duì)算法決策風(fēng)險(xiǎn)要強(qiáng)化技術(shù)創(chuàng)造者、使用者及監(jiān)管者等參與主體的行為規(guī)制。要發(fā)揮法律、道德、市場(chǎng)等多重規(guī)制機(jī)制作用,使算法決策公開(kāi)、公正及可責(zé),這也是算法決策社會(huì)信任機(jī)制的重要抓手。最后,就算法決策技術(shù)理性的價(jià)值層面而言,要體現(xiàn)對(duì)算法決策用戶的終極關(guān)懷,并以此為出發(fā)點(diǎn),促使技術(shù)創(chuàng)造者和使用者形成高度自律的道德約束體系,促使監(jiān)管者形成高度完備的監(jiān)管體系,這種技術(shù)理性價(jià)值也成為算法決策系統(tǒng)信任的最優(yōu)形態(tài)。
(二)算法規(guī)制提前:風(fēng)險(xiǎn)預(yù)防
算法決策風(fēng)險(xiǎn)是算法決策信任危機(jī)的主要誘因,針對(duì)算法決策過(guò)程中可能存在的隱私泄露、算法決策錯(cuò)誤、算法偏見(jiàn)和算法污名等風(fēng)險(xiǎn),要通過(guò)法律規(guī)制實(shí)現(xiàn)風(fēng)險(xiǎn)的防治。而區(qū)別于算法決策產(chǎn)生危害后再行處理的“末端反應(yīng)機(jī)制”,算法決策風(fēng)險(xiǎn)的應(yīng)對(duì)需要提前,在事前階段就采取有效的風(fēng)險(xiǎn)預(yù)防措施。這種風(fēng)險(xiǎn)預(yù)防不僅可以從實(shí)然層面降低算法決策風(fēng)險(xiǎn),還可使算法決策監(jiān)管者樹(shù)立積極應(yīng)對(duì)的形象,增加公眾的信心。
然而,在風(fēng)險(xiǎn)社會(huì),絕對(duì)的風(fēng)險(xiǎn)預(yù)防是無(wú)法達(dá)到的。換言之,我們無(wú)法逃避在日常生活中面臨各式各樣的風(fēng)險(xiǎn),形成“在未知之中決策、監(jiān)管、工作及生活”的狀態(tài)。因此,并非所有算法決策風(fēng)險(xiǎn)都需要采取預(yù)防措施,要實(shí)現(xiàn)技術(shù)革新與風(fēng)險(xiǎn)預(yù)防的動(dòng)態(tài)平衡。一方面,算法決策風(fēng)險(xiǎn)需要被懷疑到一定程度,以合法權(quán)益受到威脅的可能性、緊迫性及破壞性為限度,此時(shí)風(fēng)險(xiǎn)的法律規(guī)制需要采取謹(jǐn)慎的態(tài)度,將合理審查作為風(fēng)險(xiǎn)預(yù)防措施的適用前提。另一方面,要依據(jù)算法風(fēng)險(xiǎn)特征靈活選取所采取的風(fēng)險(xiǎn)預(yù)防措施,在采取風(fēng)險(xiǎn)預(yù)防措施所獲得的成效與放棄的利益之間進(jìn)行權(quán)衡,如算法決策涉及到國(guó)家秘密等敏感信息,造成的損害難以挽回,對(duì)此無(wú)論需放棄多少利益都要嚴(yán)格采取風(fēng)險(xiǎn)預(yù)防措施。
算法決策風(fēng)險(xiǎn)預(yù)防要從風(fēng)險(xiǎn)識(shí)別、風(fēng)險(xiǎn)溝通及應(yīng)急管理等層面開(kāi)展,并在制度層面予以回應(yīng),如監(jiān)管者與互聯(lián)網(wǎng)企業(yè)合作,建立算法決策風(fēng)險(xiǎn)評(píng)估制度及算法決策突發(fā)事件后評(píng)估機(jī)制等。首先,算法決策風(fēng)險(xiǎn)識(shí)別,是指在算法決策系統(tǒng)設(shè)計(jì)、輸入、運(yùn)算及輸出的全過(guò)程中,運(yùn)用各種方法或技術(shù)持續(xù)地辨識(shí)不同時(shí)間節(jié)點(diǎn)的各種算法決策風(fēng)險(xiǎn)。其次,風(fēng)險(xiǎn)溝通是算法決策公開(kāi)透明的要求之一,要及時(shí)與用戶之間傳遞風(fēng)險(xiǎn)信息。最后,應(yīng)急管理是發(fā)生算法決策妨害之后的沖突協(xié)調(diào)預(yù)案或措施,如對(duì)某些特殊領(lǐng)域使用算法決策“白名單”制度,即為了保障該領(lǐng)域的信息安全,只有那些被證實(shí)不存在風(fēng)險(xiǎn)的算法決策才可以被使用。
公眾對(duì)風(fēng)險(xiǎn)高度關(guān)注且本能存有恐慌情緒,實(shí)踐中多依據(jù)其社會(huì)生活經(jīng)驗(yàn)進(jìn)行感性的危機(jī)判斷,因此社會(huì)信任的程度與信心相關(guān)[14]。盡管算法決策風(fēng)險(xiǎn)較為隱蔽,但風(fēng)險(xiǎn)預(yù)防的出現(xiàn)使得風(fēng)險(xiǎn)規(guī)制提前,讓算法用戶獲取足量有效的風(fēng)險(xiǎn)信息,掌握風(fēng)險(xiǎn)辨別的手段,實(shí)現(xiàn)算法決策的透明化和公開(kāi)化。可見(jiàn),風(fēng)險(xiǎn)預(yù)防可以增強(qiáng)公眾對(duì)風(fēng)險(xiǎn)監(jiān)管的信心,消解負(fù)面的風(fēng)險(xiǎn)感知,形成理性的風(fēng)險(xiǎn)認(rèn)知,因而風(fēng)險(xiǎn)預(yù)防是算法決策社會(huì)信任機(jī)制的關(guān)鍵。
(三)算法決策正名:“去污名化”
算法決策的“污名化”會(huì)加深用戶的恐慌,“去污名化”則成為算法決策社會(huì)信任機(jī)制構(gòu)建的重點(diǎn)。從污名化的產(chǎn)生來(lái)看,用戶對(duì)于算法決策的恐慌往往并非基于直接利益損害,而是基于害怕、從眾等情感所形成的認(rèn)知。為應(yīng)對(duì)公眾對(duì)算法決策所形成的非理性判斷,防止風(fēng)險(xiǎn)的社會(huì)放大,需要去除算法決策的污名化標(biāo)簽。首先,算法決策污名化源頭的管控。在自媒體時(shí)代,大量有關(guān)算法偏見(jiàn)、算法歧視的報(bào)道獲得了公眾的關(guān)注,對(duì)公眾而言算法“看不見(jiàn)、摸不著”,較為復(fù)雜晦澀,這加強(qiáng)了公眾對(duì)算法決策的反感或恐懼,并逐漸形成了算法不好的認(rèn)知模式。因此,要從源頭改善這種負(fù)面形象,通過(guò)算法解釋實(shí)現(xiàn)公開(kāi)、透明;此外在信息傳遞時(shí),使用簡(jiǎn)明扼要、直觀的表述方式表達(dá)算法決策,消除用戶對(duì)算法的恐懼,淡化對(duì)算法決策的負(fù)面情感認(rèn)知。其次,保障算法決策技術(shù)本身的安全。批判性與建構(gòu)性是辯證統(tǒng)一的,算法決策的正面形象立足于算法技術(shù)本身的安全可靠,這要求通過(guò)法律、道德等不同約束體系建構(gòu)算法決策技術(shù)的監(jiān)督體系,形成相對(duì)安全的算法決策系統(tǒng)。要強(qiáng)化監(jiān)管部門對(duì)算法決策的監(jiān)管,結(jié)合技術(shù)特征形成專業(yè)的算法監(jiān)管主體,如借助第三方主體參與算法決策風(fēng)險(xiǎn)評(píng)估等,構(gòu)筑精細(xì)化、場(chǎng)景化的算法決策監(jiān)管框架,形成全面的算法監(jiān)管體系。這種“家長(zhǎng)式”的監(jiān)管體系不僅是算法決策風(fēng)險(xiǎn)防治的需要,更是塑造算法良好形象的最有力措施。最后,加強(qiáng)對(duì)算法決策污名化信息傳播的管控與引導(dǎo)。媒體在污名化信息傳播中起到至關(guān)重要的作用,尤其是近年來(lái)流行的短視頻、微信公眾號(hào)等新媒體渠道,具有無(wú)可替代的信息傳播優(yōu)勢(shì)。技術(shù)的“雙刃劍”特性使新媒體同樣為算法決策污名信息的管控與引導(dǎo)提供了便利,要通過(guò)媒體渠道積極宣傳算法知識(shí),介紹算法決策的功效及作用等,讓公眾通過(guò)學(xué)習(xí)算法決策的知識(shí),自主判斷算法決策風(fēng)險(xiǎn),并建立起算法決策風(fēng)險(xiǎn)的理性認(rèn)知。
(四)用戶環(huán)境優(yōu)化:社會(huì)信任
由于算法決策人際信任危機(jī)和系統(tǒng)信任危機(jī)是同步出現(xiàn)的,算法決策的社會(huì)信任機(jī)制構(gòu)建便需要關(guān)注人際信任與系統(tǒng)信任的協(xié)調(diào)問(wèn)題,這就需要營(yíng)造一個(gè)信任的算法環(huán)境。此時(shí)多數(shù)公眾認(rèn)為社會(huì)上大多數(shù)人和技術(shù)都是值得信任的,從而在實(shí)現(xiàn)人際信任和制度信任相互配合、彼此平衡下,達(dá)成算法決策社會(huì)信任鏈條的閉環(huán)效應(yīng)。
算法決策的社會(huì)信任環(huán)境立足于算法技術(shù)理性、算法風(fēng)險(xiǎn)預(yù)防及算法聲譽(yù)正名,同時(shí)要體現(xiàn)對(duì)算法決策用戶的價(jià)值關(guān)懷,著眼于用戶的多樣性需求,系統(tǒng)全面地加強(qiáng)算法決策環(huán)境優(yōu)化。一是關(guān)注用戶的“生理需求”。算法與信任結(jié)合多集中在算法決策具體操作層面,如算法決策不僅要符合用戶的偏好,更要保障算法決策的正確性,避免產(chǎn)生負(fù)面影響而導(dǎo)致用戶放棄算法系統(tǒng)。二是關(guān)注用戶的“安全需求”。確保用戶使用算法系統(tǒng)是安全可靠的,避免隱私泄露等安全風(fēng)險(xiǎn),同時(shí)算法決策往往會(huì)對(duì)用戶利益消長(zhǎng)產(chǎn)生直接或間接影響,合法權(quán)益的保障是獲取信任的最基礎(chǔ)要素。三是關(guān)注用戶的“知情需求”。要突破“算法黑箱”“信息繭房”等。在算法決策等全新的決策模式中,信息、新聞、商品和服務(wù)的虛擬性和隱蔽性更強(qiáng),因此要完善算法公開(kāi)、算法解釋等制度,并通過(guò)法律制度予以保證,如在未來(lái)的《個(gè)人信息保護(hù)法》等立法中對(duì)此進(jìn)行相應(yīng)的規(guī)范。四是關(guān)注用戶“尊重需求”。算法決策系統(tǒng)要尊重用戶,建立起制度化溝通機(jī)制,充分尊重受眾的情緒。五是關(guān)注用戶“參與需求”。在大數(shù)據(jù)時(shí)代,算法決策逐漸為行政監(jiān)管所吸納和運(yùn)用,算法決策并不意味著公眾參與權(quán)利的讓渡或放棄,同傳統(tǒng)決策機(jī)制充分重視公眾參與一樣,算法決策同樣需要關(guān)注公眾參與,并不斷創(chuàng)新參與方式來(lái)保障公眾參與權(quán)。
結(jié)語(yǔ)
在數(shù)字中國(guó)建設(shè)中,算法決策是建設(shè)數(shù)字經(jīng)濟(jì)、數(shù)字社會(huì)及數(shù)字政府的重要工具。然而,在風(fēng)險(xiǎn)社會(huì),算法決策又不可避免會(huì)帶來(lái)不確定性,這種不確定性沖擊了當(dāng)前的社會(huì)信任機(jī)制。作為一項(xiàng)技術(shù),算法決策存在于數(shù)字中國(guó)的每一個(gè)場(chǎng)景,自然也得到了公眾、企業(yè)、監(jiān)管機(jī)構(gòu)乃至全社會(huì)的關(guān)注,一時(shí)間算法偏見(jiàn)、算法歧視及算法風(fēng)險(xiǎn)規(guī)制成為理論研究的寵兒。通觀技術(shù)風(fēng)險(xiǎn)規(guī)制的理論研究范式,其核心是對(duì)掌握技術(shù)、使用技術(shù)的“人的規(guī)制”,社會(huì)信任在這種規(guī)制體系之中既是目的也是手段。在未來(lái)的數(shù)字中國(guó)建設(shè)中,我們要強(qiáng)化技術(shù)的社會(huì)建構(gòu),在擁抱技術(shù)革新的同時(shí)營(yíng)造社會(huì)層面的信任機(jī)制,以避免“馬拉火車式”的荒誕。
參考文獻(xiàn):
[1] 劉友華.算法偏見(jiàn)及其規(guī)制路徑研究[J].法學(xué)雜志,2019(6)∶55-56.
[2]張凌寒.算法權(quán)力的興起、異化及法律規(guī)制[J].法商研究,2019(4)∶63-75.
[3]解正山.算法決策規(guī)制:以算法“解釋權(quán)”為中心[J].現(xiàn)代法學(xué),2020(1)∶179-182.
[4]呂炳斌.個(gè)人信息權(quán)作為民事權(quán)利之證成:以知識(shí)產(chǎn)權(quán)為參照[J].中國(guó)法學(xué),2019(4)∶44-60.
[5]LEPRI B, OLIVER N.Fair, transparent, and accountable algorithmic decision-making processes: the premise, the proposed solutions, and the open challenges[J]. Philosophy and technology,2018(4)∶611-627.
[6]汪懷君,汝緒華.人工智能算法歧視及其治理[J].科學(xué)技術(shù)哲學(xué)研究,2020(2)∶101-103.
[7]孫建麗.算法自動(dòng)化決策風(fēng)險(xiǎn)的法律規(guī)制研究[J].法治研究,2019(4)∶108-117.
[8]珍妮·X.卡斯帕森,羅杰·E.卡斯帕森.風(fēng)險(xiǎn)的社會(huì)視野:公眾、風(fēng)險(xiǎn)溝通及風(fēng)險(xiǎn)的社會(huì)放大[M]. 童蘊(yùn)芝,譯.北京:中國(guó)勞動(dòng)社會(huì)保障出版社,2010∶92.
[9]郭明飛,許科龍波.“后真相時(shí)代”的價(jià)值共識(shí)困境與消解路徑[J].思想政治教育研究,2021(1)∶54-55.
[10]肖冬梅.“后真相”背后的算法權(quán)力及其公法規(guī)制路徑[J].行政法學(xué)研究,2020(4)∶3.
[11]黎夢(mèng)兵,吳勇.新媒體的社會(huì)信任問(wèn)題研究:基于“深度偽造”短視頻視角[J].理論月刊,2020(12)∶81-84.
[12]尼古拉斯·盧曼.信任:一個(gè)社會(huì)復(fù)雜性的簡(jiǎn)化機(jī)制[M]. 翟鐵鵬,李強(qiáng),譯.上海:上海世紀(jì)出版集團(tuán),2005∶22.
[13]張欣.從算法危機(jī)到算法信任:算法治理的多元方案和本土化路徑[J].華東政法大學(xué)學(xué)報(bào),2019(6)∶27.
[14]張璇,伍麟.風(fēng)險(xiǎn)認(rèn)知中的信任機(jī)制:對(duì)稱或不對(duì)稱?[J].心理科學(xué),2013(6)∶1333-1338.
【責(zé)任編輯:張亞茹】