信息過(guò)載時(shí)代海量信息的碎片化很大程度上導(dǎo)致了信息接收利用的低效化,加之個(gè)體和群體的信息技術(shù)素養(yǎng)的鴻溝也在不斷加劇社會(huì)撕裂,人類(lèi)轉(zhuǎn)而向大數(shù)據(jù)技術(shù)和智能算法尋求理性解決方案,擁抱算法社會(huì)。然而,算法社會(huì)終究還是人的社會(huì),只有結(jié)合中國(guó)國(guó)情力求客觀(guān)全面地對(duì)算法社會(huì)做到預(yù)判預(yù)防才能夯實(shí)未來(lái)社會(huì)穩(wěn)定的基礎(chǔ)。
算法的定義最早從Tarleton Gillespie 的假設(shè)開(kāi)始,即“算法不需要是軟件,在最廣泛的意義上,它們是基于指定計(jì)算將輸入數(shù)據(jù)轉(zhuǎn)換為期望輸出的編碼過(guò)程。這個(gè)過(guò)程既指出了一個(gè)問(wèn)題,也指出了解決這個(gè)問(wèn)題的步驟”[1]。國(guó)內(nèi)學(xué)者則指出,算法在本質(zhì)上是“以數(shù)學(xué)方式或者計(jì)算機(jī)代碼表達(dá)的意見(jiàn)”,算法偏見(jiàn)則是在算法程序自輸入-學(xué)習(xí)-輸出-應(yīng)用循環(huán)閉環(huán)中由所產(chǎn)生的失去客觀(guān)中立立場(chǎng)的表現(xiàn),影響著公眾對(duì)信息的客觀(guān)全面認(rèn)知。
雖然目前我們還處在弱人工智能(Artificial Narrow Intelligence,ANI)階段,但是公眾傾向于認(rèn)為以數(shù)據(jù)和算法為基礎(chǔ)的機(jī)器決策可以較大程度地克服人類(lèi)因認(rèn)知局限或主觀(guān)任意而導(dǎo)致的偏見(jiàn),促進(jìn)結(jié)果的客觀(guān)、準(zhǔn)確和公平。這也正是今日頭條的個(gè)性化智能推送、犯罪風(fēng)險(xiǎn)智能評(píng)估系統(tǒng)COMPAS 等人工智能產(chǎn)品廣受追追捧的原因。然而,由算法主導(dǎo)的人工智能的價(jià)值觀(guān)并不能完全中立,甚至非常隱匿地?cái)y帶著人類(lèi)社會(huì)所固有的劣根性——偏見(jiàn)。
就算法本身而言,“不存在價(jià)值中立的平等算法”這一觀(guān)點(diǎn)的提出打破了人們的美好愿景。丁曉冬(2017)以美國(guó)聯(lián)邦最高法院兩個(gè)著名的教育平權(quán)案件:Grutter v.Bollinge 案和Gratz v.Bollinger 案,案件相似而判決不同的角度,驗(yàn)證論述了人工智能時(shí)代大數(shù)據(jù)算法同樣難逃不中立難公平窠臼[2]。而隨著人工智能技術(shù)的逐漸應(yīng)用普及,越來(lái)越多的算法偏見(jiàn)事實(shí)也迫使人們理性關(guān)注這一現(xiàn)象,劉友華(2019)將算法偏見(jiàn)對(duì)公眾權(quán)利的侵害表現(xiàn)分為3 類(lèi),損害公眾基本權(quán)利如種族和性別歧視等、損害競(jìng)爭(zhēng)性利益如利用算法設(shè)置貿(mào)易壁壘等和損害特定個(gè)體利益如大數(shù)據(jù)價(jià)格“殺熟”等[3]。更細(xì)化的行業(yè)表現(xiàn)則以新聞業(yè)和法律界最為明顯,新聞算法推薦系統(tǒng)在提高信息獲取效率的同時(shí),也會(huì)成為偏見(jiàn)、劣質(zhì)信息的傳聲筒和媒體負(fù)面效應(yīng)的放大器。美國(guó)部分法院采用的犯罪風(fēng)險(xiǎn)智能評(píng)估系統(tǒng)COMPAS 被證明存在明顯的種族歧視,或?qū)?qiáng)化司法不公的影響。
Batya Friedman 等人將計(jì)算機(jī)系統(tǒng)偏見(jiàn)按照來(lái)源的不同分為3 類(lèi)[4],相似的算法偏見(jiàn)也可以分為先行存在偏見(jiàn)(Pre-existing Bias)如文化偏見(jiàn)、社會(huì)制度差異等、技術(shù)性偏見(jiàn)(Technical Bias)如計(jì)算能力、硬件限制等及突發(fā)性偏差(Emergent Bias)如新的社會(huì)現(xiàn)象和知識(shí)成果等變動(dòng)。
人類(lèi)根深蒂固的文化偏見(jiàn)存于與人類(lèi)社會(huì)同構(gòu)的大數(shù)據(jù)中,并且作為人類(lèi)思維的外化物,偏見(jiàn)性也是算法的“生物學(xué)”表現(xiàn)。除了上算法偏見(jiàn)的內(nèi)在成因,從技術(shù)角度看,偏見(jiàn)進(jìn)偏見(jiàn)出,大小樣本的懸殊以及像深度學(xué)習(xí)一類(lèi)不能觀(guān)察甚至不能理解的“黑箱”,加劇了信息的不對(duì)稱(chēng)性。
“期望算法、模型等數(shù)學(xué)方法重塑一個(gè)更加客觀(guān)公正的現(xiàn)實(shí)社會(huì)”的“數(shù)學(xué)洗腦”式想法未免過(guò)于一廂情愿。正確認(rèn)識(shí)算法偏見(jiàn)可能帶來(lái)的后果才有利于我們采取正面積極的態(tài)度加以應(yīng)對(duì)。
2018 年今日頭條肆意挑釁《英雄烈士保護(hù)法》看似屢教不改無(wú)視警告,但深究其原因還是因?yàn)槠鋮f(xié)同過(guò)濾算法本身的缺陷——只要低俗、惡搞類(lèi)新聞信息達(dá)到一定的用戶(hù)熱度而被算法選中,那么傳播就會(huì)形成愈演愈烈的態(tài)勢(shì),而同時(shí),大量?jī)?yōu)質(zhì)UGC 卻無(wú)法被展示在聚光燈下,被算法冷落,加劇了信息傳播的偏態(tài)。同時(shí),2016 年5 月“Facebook偏見(jiàn)門(mén)”中運(yùn)營(yíng)團(tuán)隊(duì)常規(guī)性地壓制美國(guó)有意保守派信息,2018 年3 月“劍橋分析”事件都暴露出新聞算法的人為偏見(jiàn)的可操作性,嚴(yán)重違背了新聞客觀(guān)公正的理念。
算法的本身如果用過(guò)去不準(zhǔn)確或者有偏見(jiàn)的數(shù)據(jù)去訓(xùn)練算法,其輸出的結(jié)果自然而然也是含有偏見(jiàn)的;然后再以其輸出產(chǎn)生的數(shù)據(jù)對(duì)系統(tǒng)進(jìn)行反饋,則會(huì)使算法偏見(jiàn)得到鞏固,如果在司法判決的智能產(chǎn)品中會(huì)帶來(lái)一系列類(lèi)型案件的決策造成影響,長(zhǎng)此以往會(huì)對(duì)司法系統(tǒng)造成系統(tǒng)性威脅。然而更值得關(guān)注的是隱匿的算法偏見(jiàn)所傳播的歧視性信息,在潛移默化之中會(huì)一直攜帶著歧視性基因并在算法的“反饋循環(huán)”中被鞏固加強(qiáng),固話(huà)和限制了受眾的思想,甚至形成極端的社會(huì)撕裂。
我們正在進(jìn)入“算法統(tǒng)治的時(shí)代”,成為了“物聯(lián)網(wǎng)時(shí)代”的“量化自我”或“可測(cè)量自我”,當(dāng)算法應(yīng)用于社會(huì)福利等資格審查監(jiān)測(cè)當(dāng)中,算法測(cè)量和建構(gòu)出的公民畫(huà)像是被圈定在原社會(huì)條件和位置上的,底層公民、劣勢(shì)群體、少數(shù)族群擁有的通往更多機(jī)會(huì)和資源的的途徑和幾率愈來(lái)愈少(例如女性在求職網(wǎng)上受到高職位簡(jiǎn)歷算法推送的概率要遠(yuǎn)小于男性用戶(hù)),最終,算法偏見(jiàn)將導(dǎo)致社會(huì)資源的“馬太效應(yīng)”進(jìn)一步被放大。
國(guó)內(nèi)較大一部分學(xué)者的研究是結(jié)合相關(guān)行業(yè)背景對(duì)行業(yè)內(nèi)智能產(chǎn)品所包含的算法偏見(jiàn)成因、影響及應(yīng)對(duì)措施為切入點(diǎn)進(jìn)行探討的,在此基礎(chǔ)之上需要站在更為宏觀(guān)的角度結(jié)合中國(guó)特殊國(guó)情討論在中國(guó)語(yǔ)境下算法偏見(jiàn)的應(yīng)對(duì)挑戰(zhàn)和監(jiān)管措施。
良好可控的算法程序的編寫(xiě)實(shí)踐除了需要有堅(jiān)實(shí)的專(zhuān)業(yè)知識(shí)背景,同時(shí)還需要具備大數(shù)據(jù)智能倫理的意識(shí),具備信息理論的基本規(guī)范。我國(guó)的中小學(xué)的信息倫理教育開(kāi)始于21 世紀(jì),相較于歐美日等國(guó)家相對(duì)較晚,為了從根本上培養(yǎng)年輕一代具備良好的信息倫理觀(guān)念,需要結(jié)合國(guó)情適當(dāng)增加基礎(chǔ)教育階段適齡學(xué)生的信息倫理教育內(nèi)容,培養(yǎng)信息倫理教育的教育隊(duì)伍。
此處的相關(guān)行業(yè)并不僅僅指信息編程類(lèi)工作,而包括了絕大多數(shù)人工智能時(shí)代的產(chǎn)生大量可供分析的數(shù)據(jù)的行業(yè),通過(guò)利益相關(guān)人的信息倫理意識(shí)的提高,以保證算法輸入端的輸入數(shù)據(jù)的客觀(guān)公正性,從源頭處提高算法運(yùn)算的公正性。
針對(duì)算法黑箱問(wèn)題,不僅僅存在著諸如深度學(xué)習(xí)等不可控,難觀(guān)察,難解釋的運(yùn)算過(guò)程,還存在著由于商業(yè)利益,資本控制等等因素所導(dǎo)致的算法不公開(kāi),此時(shí),需要政府頒布相關(guān)法律條例,以增加相關(guān)企業(yè)尤其是涉及到公眾利益的企業(yè)的算法的透明度,并且要求企業(yè)將算法進(jìn)行可解釋性的注解,及時(shí)進(jìn)行事前的審查,提前進(jìn)行風(fēng)險(xiǎn)的防范。