□卞 清 陳 迪
【導(dǎo) 讀】當(dāng)前,全球性的網(wǎng)絡(luò)仇恨事件頻發(fā),同時(shí)科技公司的內(nèi)容過(guò)濾與言論監(jiān)管策略成為爭(zhēng)議焦點(diǎn)。本文通過(guò)梳理西方主要社交媒體對(duì)于仇恨言論的界定、規(guī)制與算法困境,認(rèn)為當(dāng)前互聯(lián)網(wǎng)公司正在代替國(guó)家/政府,成為規(guī)制仇恨言論的主要行動(dòng)者,并且可能進(jìn)一步卷入全球政治的動(dòng)態(tài)變遷中,加劇與國(guó)際政治體的摩擦,而算法識(shí)別的未來(lái)則關(guān)涉了關(guān)鍵的全球政治想象。
“仇恨言論”(Hate Speech)也被譯為憎恨言論,這一概念自古就存在于西方社會(huì)。早在希臘古典時(shí)期,仇恨言論就被看作一種非理性的暴力行為,對(duì)公共性有害,會(huì)引發(fā)社會(huì)對(duì)立與矛盾,危害民主,有損公民美德。《圣經(jīng)·舊約》中也談到,“仇恨引起爭(zhēng)端”,由此“智者要慎于言”。從20世紀(jì)中葉開(kāi)始,由于“二戰(zhàn)”所引發(fā)的種族仇恨、性別與移民歧視等問(wèn)題日益突出,西方社會(huì)對(duì)于仇恨言論的關(guān)注越來(lái)越多,國(guó)家(state)逐漸成為界定和規(guī)制(regulation)仇恨言論的主要行動(dòng)者。如朱迪斯·巴特勒(Judith Butler)所說(shuō):“國(guó)家(The state)作為積極的行動(dòng)者生產(chǎn)、劃定了可以被接受的公共言論(publicly acceptable speech)范圍,區(qū)分了什么是可說(shuō)的(speakable)和不可說(shuō)的(unspeakable)。”[1]
但是,由于與言論自由理念相對(duì),長(zhǎng)期以來(lái)國(guó)家是否有權(quán)力來(lái)限制仇恨言論以及在什么范圍內(nèi)是合理的限制一直被不斷爭(zhēng)論。國(guó)家對(duì)仇恨言論的界定尺度被認(rèn)為反映了言論自由的邊界。[2]仇恨言論是一個(gè)與政治、哲學(xué)、倫理、社會(huì)文化纏繞交織、不斷界定中的概念,它依據(jù)社會(huì)情境、歷史以及文化價(jià)值觀的變動(dòng)而變化,在不同社會(huì)環(huán)境下容忍度也不同,至今也沒(méi)有統(tǒng)一定義。從全球比較來(lái)看,相對(duì)來(lái)說(shuō),歐洲國(guó)家態(tài)度趨于保守,美國(guó)則寬容開(kāi)放。除此之外,一些國(guó)際社會(huì)組織也在仇恨言論的界定與規(guī)制中扮演呼吁與倡導(dǎo)的中間人角色。
歐洲的保守態(tài)度與第二次世界大戰(zhàn)所帶來(lái)的社會(huì)陰影與傷痕密切相關(guān)。這場(chǎng)戰(zhàn)爭(zhēng)使得仇恨言論問(wèn)題越來(lái)越顯著,很多國(guó)家遭遇了激烈的跨文化、跨民族的沖突挑戰(zhàn),如納粹德國(guó)引發(fā)的種族仇恨以及對(duì)戰(zhàn)后移民的歧視與仇視等,因此很多歐洲國(guó)家采取的策略是將仇恨言論納入正式的立法范圍。[3]比如,1986年英國(guó)制定的《公共秩序法》。而德國(guó)為了祛除法西斯主義的遺產(chǎn),更為保守,將仇恨言論作為一種犯罪事實(shí)明確納入德國(guó)《基本法》《刑法典》《民法典》之中。相對(duì)來(lái)說(shuō),美國(guó)對(duì)仇恨言論則長(zhǎng)期保持寬容和開(kāi)放的態(tài)度。這是因?yàn)榛凇兜谝恍拚浮?,言論自由作為一種最根本的意識(shí)形態(tài)與美國(guó)的民主政治制度、立國(guó)之根本價(jià)值觀緊密相嵌。所以長(zhǎng)期以來(lái),在美國(guó)的主流價(jià)值觀中,仇恨包括政治極端言論都不被國(guó)家或者法律干涉,因?yàn)檫@種對(duì)言論的寬容和自由被看作從根本上體現(xiàn)了美國(guó)體制的優(yōu)越性,是一種美國(guó)式的“美德”。如李·卡羅爾·布林格(Lee C.Bollinger)所說(shuō):“美國(guó)作為極度崇尚自由的國(guó)度,應(yīng)當(dāng)允許人們自由發(fā)表或接觸甚至是極端的言論……這種寬容與自由的美德是美國(guó)社會(huì)最重要的美德?!保?]直到9·11事件發(fā)生以后,有關(guān)仇恨與極端言論的問(wèn)題才真正在美國(guó)引發(fā)關(guān)注和討論,但仍然非常有限,國(guó)家并不會(huì)輕易主動(dòng)參與其中。2019年,美國(guó)白宮就表示,美國(guó)將與各國(guó)政府共同打擊網(wǎng)絡(luò)恐怖主義,但不能支持新西蘭和法國(guó)發(fā)起的“克賴(lài)斯特徹奇呼吁”,因?yàn)閷?duì)言論自由持有“更多絕對(duì)主義的立場(chǎng)”。[5]主張“寬容”態(tài)度的美國(guó)既不認(rèn)同網(wǎng)絡(luò)仇恨言論的規(guī)制治理,也沒(méi)有與網(wǎng)絡(luò)仇恨言論相應(yīng)的法律。[6]美國(guó)政府對(duì)于自身不可能是言論規(guī)制者(regulation)也絕不會(huì)是審查者(censorship)的角色定位小心翼翼。
此外,一些國(guó)際組織以及區(qū)域性的政治體也會(huì)根據(jù)區(qū)域內(nèi)的共性問(wèn)題制定一些國(guó)際條例,比如,《歐洲人權(quán)公約》《消除一切形式種族歧視國(guó)際公約》《公民權(quán)利和政治權(quán)利國(guó)際公約》等,但它們更多以“倡導(dǎo)”“倡議”“公約”“呼吁”的形式出現(xiàn)。歐盟是在仇恨言論規(guī)制領(lǐng)域最為積極的政治組織之一。而它主要以發(fā)起“反仇恨言論運(yùn)動(dòng)”(no hate speech movement)[7]為形式,倡導(dǎo)和呼吁各方和公眾共同行動(dòng)與合作。
進(jìn)入新世紀(jì)后,隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展以及社交媒體時(shí)代的到來(lái),再加上仇恨言論界定、規(guī)制仍然模糊困難,網(wǎng)絡(luò)仇恨的問(wèn)題越來(lái)越顯著,并迅速成為當(dāng)前全球爆發(fā)的最突出的現(xiàn)實(shí)問(wèn)題之一。
首先,互聯(lián)網(wǎng)上的仇恨言論包裹在海量、匿名、跨越國(guó)界的互聯(lián)網(wǎng)內(nèi)容海洋中,同時(shí)呈現(xiàn)多語(yǔ)言、多形態(tài)的樣貌,還結(jié)合了表情符號(hào)、圖像、音視頻等,內(nèi)容越來(lái)越隱晦、抽象、符號(hào)化,給計(jì)算機(jī)快速識(shí)別造成了極大困難。其次,互聯(lián)網(wǎng)的跨國(guó)性更有利于個(gè)人和組織游離與回避本國(guó)政府監(jiān)管,因此短短數(shù)年間全球出現(xiàn)了大量仇恨網(wǎng)站。根據(jù)西蒙·維森塔爾中心(The Simon Wiesenthal Center)的統(tǒng)計(jì),早在2000年,全世界就有2300多家“有問(wèn)題”的傳播仇恨信息的網(wǎng)站,其中包括500多家歐洲人創(chuàng)辦的極端分子網(wǎng)站,都寄住在美國(guó)的服務(wù)器上,以逃避歐洲的反仇恨法律。[8]隨后在短短的10余年間,推廣仇恨與恐怖主義行為的網(wǎng)站、論壇和社交媒體賬戶(hù)就突破了30000個(gè)。[9]最后,由于全球政治近年來(lái)的不穩(wěn)定、民粹主義抬頭、各類(lèi)社會(huì)運(yùn)動(dòng)以及新冠肺炎疫情的暴發(fā),全球網(wǎng)絡(luò)仇恨迎來(lái)新的井噴。根據(jù)Facebook的統(tǒng)計(jì),自2020年年初以來(lái),網(wǎng)絡(luò)仇恨進(jìn)一步呈現(xiàn)出極度上升的趨勢(shì),特別是與新冠肺炎的緊張局勢(shì)有關(guān)的仇恨、反亞洲言論、性別與種族歧視、煽動(dòng)內(nèi)亂、暴力、黑人運(yùn)動(dòng)、恐怖主義以及極端行動(dòng),甚至2020年總統(tǒng)大選、特朗普卸任引發(fā)的國(guó)會(huì)山事件,等等。Facebook 2020年第四季度的統(tǒng)計(jì)顯示,目前在Facebook上平均每一萬(wàn)次內(nèi)容瀏覽,就會(huì)有7~8次能看到仇恨言論。[10]
互聯(lián)網(wǎng)不再適用于單一國(guó)家規(guī)制,那么究竟應(yīng)由誰(shuí)來(lái)決定全球性、跨國(guó)界的社交媒體平臺(tái)中哪些內(nèi)容是“仇恨言論”?這些內(nèi)容是否應(yīng)該被監(jiān)管和規(guī)制?誰(shuí)來(lái)監(jiān)管?原有的國(guó)家法條與規(guī)制方案是否還適用?本文的看法是,在這種不確定中,互聯(lián)網(wǎng)科技公司代替國(guó)家,成為主要行動(dòng)者。網(wǎng)絡(luò)仇恨的規(guī)制由國(guó)家作為主導(dǎo)行動(dòng)者轉(zhuǎn)向了由互聯(lián)網(wǎng)科技公司進(jìn)行處理。這使得問(wèn)題的討論范疇從政府以及立法的領(lǐng)域轉(zhuǎn)變成了行業(yè)規(guī)則與公司責(zé)任,爭(zhēng)議更多開(kāi)始圍繞高科技公司的企業(yè)道德、壟斷與權(quán)力、算法倫理、人工智能研發(fā)能力及其有限性等問(wèn)題展開(kāi)。同時(shí),由于全球主要社交媒體平臺(tái)大多在美國(guó),因此美國(guó)憲法以及言論比較寬松的社會(huì)文化與法律體系環(huán)境導(dǎo)致目前對(duì)網(wǎng)絡(luò)仇恨言論的界定與規(guī)制處于灰色地帶之中?;诿绹?guó)政治價(jià)值觀下的幾大互聯(lián)網(wǎng)巨頭們自擬的公司條例(company policy)和平臺(tái)法(platform law)成了主要執(zhí)行的全球網(wǎng)絡(luò)言論評(píng)判規(guī)則,但這些規(guī)則的最后都有一條相同的話語(yǔ),那就是“解釋權(quán)歸企業(yè)所有”。因此,本文通過(guò)梳理與評(píng)析當(dāng)前西方主要社交媒體巨頭們對(duì)于“仇恨言論”的界定、規(guī)制與算法困境,期望更好地解釋與反思當(dāng)下全球網(wǎng)絡(luò)仇恨的基本面貌與現(xiàn)實(shí)困境。
作為全球最大的社交媒體平臺(tái),F(xiàn)acebook很早就開(kāi)始在公司條例中努力明確仇恨言論的界定。但實(shí)際是這個(gè)概念被迫不斷補(bǔ)充和修正,其范圍根據(jù)新的爭(zhēng)議事件和社會(huì)輿論反應(yīng)而擴(kuò)大。比如,2019年Facebook的公司條例中注明:“我們將仇恨言論定義為基于受保護(hù)特征——種族、民族、國(guó)籍、宗教信仰、性取向、種姓、性別、性別認(rèn)同以及嚴(yán)重疾病或殘疾——對(duì)人的直接攻擊。我們還為移民身份提供了一些(some)保護(hù)?!?/p>
這個(gè)定義包含了9種特征,比大多數(shù)國(guó)家和政治組織的定義要更為寬泛,但仍然被外界指責(zé)為是不全面的、有偏見(jiàn)的、忽略弱勢(shì)群體的。特別是它沒(méi)有將有關(guān)移民的仇恨言論納入其中,引發(fā)了來(lái)自歐洲國(guó)家的不滿(mǎn)。移民歧視一直是歐洲國(guó)家比較關(guān)注的社會(huì)問(wèn)題,比如,在英國(guó)法律中,發(fā)表對(duì)移民者的仇恨言論是屬于法律犯罪的內(nèi)容;在歐盟委員會(huì)的定義中,仇恨言論也被明確定義為“傳播、煽動(dòng)包含侵略性民族主義和民族優(yōu)越感的種族仇恨以及仇外心理,是對(duì)少數(shù)民族、移民等的歧視和敵意”[11]。因此,在各方壓力下,F(xiàn)acebook自2020年起修改了仇恨言論的定義,表明將對(duì)移民身份提供“明確的”(certain)保護(hù),又在2021年1月大范圍修改條例,加入了對(duì)“難民、移居者和尋求庇護(hù)者”的保護(hù):
我們將仇恨言論定義為基于受保護(hù)特征——種族、民族、國(guó)籍、殘疾、宗教信仰、種姓、性取向、性別、性別認(rèn)同以及嚴(yán)重疾病——對(duì)人的直接攻擊……當(dāng)年齡指涉向另一個(gè)受保護(hù)特征時(shí),我們考慮將年齡也作為一個(gè)受保護(hù)特征。我們也保護(hù)難民、移居者、移民和尋求庇護(hù)者免受最嚴(yán)重的攻擊,盡管我們?cè)试S對(duì)移民政策進(jìn)行評(píng)論和批評(píng)。類(lèi)似地,當(dāng)一些特征,如職業(yè),指涉向另一個(gè)受保護(hù)特征時(shí),我們也提供相應(yīng)的保護(hù)。[12]
但是,補(bǔ)充和擴(kuò)展定義仍然不能囊括現(xiàn)實(shí)中出現(xiàn)的各類(lèi)爭(zhēng)議性事件,為了避免身陷麻煩之中,F(xiàn)acebook只能不斷更新條例應(yīng)對(duì)外部變化。2019年3月Facebook宣布監(jiān)管和刪除“白人至上主義言論”(supremacist content);2019年5月Facebook宣布對(duì)幾位違反禁止仇恨言論規(guī)定的知名人士實(shí)施禁令,包括亞歷克斯·瓊斯(Alex Jones)、路易斯·法拉肯(Louis Farrakhan)、勞拉·盧默(Laura Loomer)等;2020年,F(xiàn)acebook進(jìn)一步增加指導(dǎo)原則,禁止將黑人面孔與動(dòng)物進(jìn)行種族比較、種族或宗教刻板印象、否認(rèn)歷史事件、物化女性等。在被動(dòng)應(yīng)對(duì)的同時(shí),F(xiàn)acebook面對(duì)的卻是越來(lái)越快速擴(kuò)張的網(wǎng)絡(luò)仇恨。2020年Facebook和Instagram檢測(cè)刪除的仇恨言論同比增加數(shù)倍,僅在2020年第二季度,F(xiàn)acebook和Instagram上的仇恨言論就分別被刪除2250萬(wàn)條和330萬(wàn)條。仇恨言論已經(jīng)成為Facebook當(dāng)前需要解決的最主要問(wèn)題之一。
此外,F(xiàn)acebook還面臨著言論管控權(quán)力過(guò)大的批評(píng)。根據(jù)《華盛頓郵報(bào)》的報(bào)道,在2016年美國(guó)大選期間,F(xiàn)acebook的CEO馬克·艾略特·扎克伯格(Mark Elliot Zuckerberg)對(duì)特朗普的態(tài)度發(fā)生了前后不一致的變化,隨著特朗普越來(lái)越有望入主白宮,F(xiàn)acebook開(kāi)始順從特朗普。[13]但2019年12月19日,在特朗普被美國(guó)國(guó)會(huì)發(fā)起彈劾后的第二天,F(xiàn)acebook悄然對(duì)其仇恨言論政策進(jìn)行大量更新,比如,不再允許用戶(hù)發(fā)布“把人比作動(dòng)物或物品有關(guān)的比喻”[14]。而到了2020年總統(tǒng)大選臨近時(shí),F(xiàn)acebook卻對(duì)大量煽動(dòng)言論采取了不干預(yù)措施。直到2020年11月,F(xiàn)acebook因國(guó)會(huì)山騷亂事件宣布永久關(guān)閉特朗普社交賬號(hào)又引發(fā)爭(zhēng)議。諸如此類(lèi)的事件使得技術(shù)巨頭(Big Tech)公司被指責(zé)為新型的壟斷寡頭。如《華爾街日?qǐng)?bào)》認(rèn)為,隨著Facebook影響力與日俱增,其關(guān)于仇恨言論、虛假信息、政治廣告等政策爭(zhēng)議性越來(lái)越大,政治嗅覺(jué)成為CEO扎克伯格要掌握的一項(xiàng)必備能力,他已然成為一位活躍的政治操盤(pán)手。[15]甚至一些國(guó)家元首與政治家們也開(kāi)始站出來(lái)批評(píng),認(rèn)為科技公司展現(xiàn)出超越國(guó)家的權(quán)力,指出當(dāng)前言論的性質(zhì)界定、邊界劃定與價(jià)值觀體系直接被這些科技公司握在手中。
同時(shí),即使像Facebook這樣的行業(yè)巨頭,其在網(wǎng)絡(luò)仇恨與極端言論的識(shí)別方面仍然面臨技術(shù)困境與巨額成本壓力。面對(duì)服務(wù)器上快速聚集的海量?jī)?nèi)容,它一方面必須投入大量精力和財(cái)力進(jìn)行人工智能系統(tǒng)研發(fā),希望借助智能識(shí)別快速處理;另一方面則只能承認(rèn)網(wǎng)絡(luò)語(yǔ)言符號(hào)的復(fù)雜性、算法的有限性以及人工智能的不完美,仍然需要借助大量的人工識(shí)別。目前,有統(tǒng)計(jì)稱(chēng)Facebook至少在全球雇用了1.5萬(wàn)名內(nèi)容審閱人來(lái)完成這項(xiàng)工作。[16]
與Facebook不同,Twitter一直回避定義“仇恨言論”,而創(chuàng)造了一個(gè)“仇恨行為”(Hateful Conduct)的概念作為用戶(hù)協(xié)議中的條例內(nèi)容。其對(duì)“仇恨行為”的界定為:“用戶(hù)不允許做出針對(duì)、直接攻擊或暴力威脅他人的種族、民族、國(guó)籍、種姓、性取向、性別、性別認(rèn)同、宗教信仰、年齡、殘疾或嚴(yán)重疾病的行為。”[17]
Twitter于2015年3月宣布屏蔽報(bào)復(fù)性色情內(nèi)容,4月宣布屏蔽煽動(dòng)恐怖主義,或以種族、民族、國(guó)籍、宗教、性取向、性別、性別認(rèn)同、年齡或殘疾為由攻擊他人的言論。但借助仇恨行為的概念,Twitter辯解稱(chēng)他們封殺的不是“言論”,而是“行為”。因此冒犯性的內(nèi)容仍然允許被發(fā)布,而如果仇恨言論指向某個(gè)具體的用戶(hù)才構(gòu)成“仇恨行為”。[18]同時(shí),Twitter又創(chuàng)造了一個(gè)新概念為“非人類(lèi)言語(yǔ)”(Dehumanizing Policy):即將他人視為不如人的言論。當(dāng)試圖剝奪他人的人性品質(zhì)(獸性非人化)或人類(lèi)本質(zhì)(機(jī)械性非人化)時(shí),就會(huì)發(fā)生非人言語(yǔ)。例如,將一些群體與動(dòng)物和病毒進(jìn)行比較,或者將群體簡(jiǎn)化為非人類(lèi)的工具。[19]
Twitter回避定義仇恨言論的做法受到了一些批評(píng)。比如,有學(xué)者認(rèn)為它的指導(dǎo)原則與定義模糊、過(guò)于寬泛,用戶(hù)也長(zhǎng)期抱怨規(guī)則的不一致和無(wú)效,不能保護(hù)相關(guān)群體免受騷擾。而CEO杰克·多西(Jack Dorsey)辯解稱(chēng):“Twitter只是一個(gè)通信工具,不擅長(zhǎng)判斷個(gè)人之間的內(nèi)容糾紛?!盩witter的用戶(hù)言論規(guī)制以用戶(hù)主動(dòng)舉報(bào)和大眾標(biāo)簽為主,其系統(tǒng)篩查主要依賴(lài)人工,并且引入基于圖像的有害內(nèi)容AI自動(dòng)識(shí)別系統(tǒng)。這個(gè)系統(tǒng)會(huì)提示用戶(hù)內(nèi)容有可能有害,但由用戶(hù)來(lái)選擇是否繼續(xù)觀看內(nèi)容,同時(shí)用戶(hù)也可以自己標(biāo)注內(nèi)容是否有害。有批評(píng)指出,Twitter接到舉報(bào)后常常就是封號(hào)了事。這種中立態(tài)度顯然加速了Twitter用戶(hù)尤其是受語(yǔ)言暴力最為嚴(yán)重的名人和意見(jiàn)領(lǐng)袖的流失,直接導(dǎo)致Twitter內(nèi)容生態(tài)的萎縮。[20]2015年時(shí)任Twitter首席執(zhí)行官的迪克·科斯特羅(Dick Costolo)在一場(chǎng)內(nèi)部論壇中表示,該公司失去眾多用戶(hù)的原因是其社交平臺(tái)上存在太多“網(wǎng)絡(luò)噴子”(troll)。[21]
對(duì)網(wǎng)絡(luò)仇恨的態(tài)度和政策直接與互聯(lián)網(wǎng)企業(yè)的商業(yè)形象對(duì)等。即使像Facebook和Twitter投入很多精力在言論規(guī)制,仍然面對(duì)大量的指責(zé)、批評(píng)和外部壓力。而研發(fā)與管理反應(yīng)較慢或是無(wú)主動(dòng)作為的互聯(lián)網(wǎng)公司則更被看作是“不負(fù)責(zé)的”“有罪的”實(shí)體。
比如,YouTube就曾因?yàn)樵谘哉摫O(jiān)管層面的不主動(dòng)而受到猛烈批評(píng),被認(rèn)為它已經(jīng)“從一個(gè)單純的視頻分享網(wǎng)站、新聞資訊娛樂(lè)網(wǎng)站變成了傳播極端觀點(diǎn)、錯(cuò)誤信息的平臺(tái)”[22][23]。在輿論壓力之下,You-Tube僅在2018年就進(jìn)行了超過(guò)30次的條例更新[24],隨后在短期內(nèi)將每日清理仇恨言論的數(shù)量增加了46倍,關(guān)停了大量涉及仇恨言論的頻道[25],直至2019年它的仇恨言論政策已經(jīng)列出了11個(gè)受保護(hù)人群特征,包括“退伍軍人身份”。但是由于視音頻內(nèi)容識(shí)別與過(guò)濾的難度更大,因此YouTube至今仍然因無(wú)法及時(shí)識(shí)別與過(guò)濾仇恨內(nèi)容而面對(duì)大量批評(píng)。還有研究人員表示,大量的仇恨言論清理行動(dòng)不足以證明YouTube在該問(wèn)題上的努力程度,“因?yàn)閅ouTube的仇恨言論問(wèn)題不一定與數(shù)量有關(guān)”[26]。一份研究報(bào)告認(rèn)為,YouTube在很多方面激勵(lì)了極端主義內(nèi)容的傳播,它“貨幣化所有人的影響力,不論他們的信仰體系多么有害”[27]。此外,它仍然無(wú)力以智能算法為主要識(shí)別工具,而是更多依賴(lài)由用戶(hù)來(lái)報(bào)告危險(xiǎn)或?yàn)E用的內(nèi)容,同時(shí)所有的這些報(bào)告再經(jīng)過(guò)人工的定性審查。
社交新聞社區(qū)Reddit曾在2015年采取了一項(xiàng)新的內(nèi)容政策,并禁止了幾個(gè)明顯帶有種族主義色彩的板塊。但長(zhǎng)期以來(lái),Reddit一直因?qū)ΨN族主義內(nèi)容清除不力而飽受批評(píng),被稱(chēng)為互聯(lián)網(wǎng)上“最暴力的種族主義”內(nèi)容所在地,讓人見(jiàn)識(shí)到“網(wǎng)絡(luò)中最黑暗的角落有多可怕”。[28]甚至Reddit前CEO鮑康如(Ellen Pao)公開(kāi)譴責(zé)該平臺(tái)“整天培育和貨幣化白人至上主義和仇恨”[29]。2020年,數(shù)百名Reddit版主聯(lián)名向Reddit董事會(huì)和CEO史蒂夫·赫夫曼(Steve Huffman)發(fā)出公開(kāi)信,要求修改平臺(tái)的仇恨言論政策。[30]當(dāng)時(shí)正值“黑人的命也是命”(Black Lives Matter)抗議活動(dòng)愈演愈烈,Reddit聯(lián)合創(chuàng)始人亞歷克西斯·奧哈尼安(Alexis Ohanian)也因抗議宣布離職,并希望將職位移交給黑人。隨后,在輿論重壓下,Reddit于2020年6月末更新了內(nèi)容政策,明確禁止宣揚(yáng)仇恨,并封禁了2000多個(gè)討論板塊。赫夫曼同時(shí)承認(rèn),在過(guò)去很長(zhǎng)一段時(shí)間里,這條規(guī)則被故意設(shè)計(jì)為隱性的,由此“造成了各種各樣的混亂和問(wèn)題”[31]。這一舉措意味著Reddit在平臺(tái)言論政策上的重大轉(zhuǎn)變。
再如TikTok(抖音國(guó)際版),也因?yàn)槿狈γ鞔_的仇恨言論指導(dǎo)規(guī)范和內(nèi)容規(guī)制辦法而受到來(lái)自全球各界的批評(píng)。一方面,純娛樂(lè)、純視頻分享、純平臺(tái)的互聯(lián)網(wǎng)企業(yè)“人設(shè)”在美國(guó)社會(huì)不被接受;另一方面,隨著仇恨言論對(duì)兒童的潛在危害受到關(guān)注[32],以青少年為主要用戶(hù)的TikTok越發(fā)引起學(xué)界和業(yè)界的關(guān)注、批判。有研究指出,各類(lèi)恐怖組織、極端集團(tuán)都在利用TikTok傳播仇恨言論,未成年人易受到影響。[33]由于應(yīng)對(duì)仇恨言論不力,沒(méi)有提供足夠的機(jī)制保護(hù)未成年人,Tik-Tok被想象為生產(chǎn)與寄生邪惡的本源。比如,頻頻被指出平臺(tái)存在“納粹問(wèn)題”[34]和“白人至上主義問(wèn)題”[35],是“一個(gè)新的仇恨言論雷區(qū)”[36]。在批評(píng)聲中,TikTok加快了規(guī)制仇恨言論的腳步,應(yīng)用算法來(lái)標(biāo)記和刪除有害內(nèi)容,但同時(shí)也在全球雇用了超過(guò)1萬(wàn)名人員從事信任與安全工作,其中很大一部分人正負(fù)責(zé)審核平臺(tái)的上傳內(nèi)容。[37]
至此,我們可以總結(jié)一下科技公司所面臨的現(xiàn)實(shí)情況。
第一,由于無(wú)法用單一國(guó)家定義來(lái)界定,因此企業(yè)必須對(duì)網(wǎng)絡(luò)仇恨言論進(jìn)行重新定義與改寫(xiě),以實(shí)現(xiàn)在技術(shù)上可以被操作與執(zhí)行的“精確定義”,提高算法精度,劃定識(shí)別范圍,減少糾紛與爭(zhēng)議。但它帶來(lái)的結(jié)果是企業(yè)之間的情況不一,無(wú)法統(tǒng)一,監(jiān)管網(wǎng)絡(luò)仇恨言論的行業(yè)共識(shí)難以形成。
第二,應(yīng)對(duì)網(wǎng)絡(luò)仇恨言論的能力已經(jīng)與企業(yè)形象、政治與商業(yè)風(fēng)險(xiǎn)直接掛鉤。言論規(guī)制失敗或者不作為會(huì)造成企業(yè)形象的崩塌。但是企業(yè)自身的成本與收益計(jì)算、算法的研發(fā)實(shí)力等因素影響了其行動(dòng)策略。研發(fā)實(shí)力以及平臺(tái)技術(shù)結(jié)構(gòu)的差異部分決定了企業(yè)主要采用人工還是自動(dòng)識(shí)別系統(tǒng)。
第三,科技公司面臨國(guó)家與政治組織的外部壓力,這使得國(guó)家、公眾與科技公司之間可能會(huì)不斷出現(xiàn)摩擦。面對(duì)網(wǎng)絡(luò)仇恨,國(guó)家從直接監(jiān)管公民言論變成了國(guó)家監(jiān)管互聯(lián)網(wǎng)企業(yè),再由互聯(lián)網(wǎng)企業(yè)來(lái)監(jiān)管用戶(hù)言論的模式,因此國(guó)家的行動(dòng)更多針對(duì)科技企業(yè)而展開(kāi)。比如,2018年德國(guó)正式實(shí)施《網(wǎng)絡(luò)執(zhí)行法》,對(duì)處理虛假新聞和仇恨言論不力不當(dāng)?shù)纳缃痪W(wǎng)絡(luò)平臺(tái)進(jìn)行規(guī)制,最高可處以5000萬(wàn)歐元的罰金;2016年歐盟頒布新準(zhǔn)則,規(guī)定對(duì)24小時(shí)內(nèi)無(wú)法處理仇恨言論報(bào)告的網(wǎng)站處以罰款。這都是由國(guó)家監(jiān)管企業(yè)的模式來(lái)推動(dòng)科技公司承擔(dān)責(zé)任。
第四,主要互聯(lián)網(wǎng)企業(yè)根植于美國(guó),受美國(guó)言論自由的價(jià)值觀影響,是否應(yīng)該對(duì)網(wǎng)絡(luò)言論進(jìn)行規(guī)制(Regulation)仍在爭(zhēng)議中,企業(yè)面臨權(quán)力過(guò)大、對(duì)公民自由言論進(jìn)行非法審查(Censorship)的批評(píng)與指責(zé)。
總之,正如有媒體報(bào)道中所說(shuō),科技公司們正走在“十字路口”,處于兩難的“囚徒困境”。他們面對(duì)來(lái)自各個(gè)國(guó)家對(duì)于仇恨言論尺度不一的文化與法律差異,努力宣稱(chēng)自己為政治中立者與技術(shù)服務(wù)商,以應(yīng)對(duì)巨大的政治風(fēng)險(xiǎn)與廣告商壓力。2020年10月28日,三大社交媒體Facebook、Google和Twitter的首席執(zhí)行官出席美國(guó)參議院聽(tīng)證會(huì),否認(rèn)自身在對(duì)用戶(hù)言論做內(nèi)容審查(Censorship),而稱(chēng)之為內(nèi)容審核(Moderation)[38],反對(duì)撤銷(xiāo)《通信規(guī)范法》第230條,即互聯(lián)網(wǎng)科技公司無(wú)須對(duì)用戶(hù)在其平臺(tái)上發(fā)布的內(nèi)容承擔(dān)責(zé)任,從而免于相關(guān)法律訴訟的條例。他們都表達(dá)出了期望科技公司不再是眾矢之的,而應(yīng)由用戶(hù)和政府來(lái)界定言論合法性問(wèn)題。比如,扎克伯格希望Facebook在制定內(nèi)容審查的規(guī)則方面盡量少地發(fā)揮作用,期待聯(lián)邦政府為互聯(lián)網(wǎng)科技公司制定明確的內(nèi)容評(píng)判標(biāo)準(zhǔn)。Google首席律師肯特·沃克(Kent Walker)在2019年6月的一篇博客文章中說(shuō),政府應(yīng)該明確界定什么樣的網(wǎng)絡(luò)言論是合法的,什么樣的網(wǎng)絡(luò)言論又是非法的。Twitter首席執(zhí)行官杰克·多西則希望賦予用戶(hù)更多的內(nèi)容算法控制權(quán)限,讓他們能夠更好地自行控制他們所看到的內(nèi)容。[39]
除卻制定仇恨言論總體策略的困擾,互聯(lián)網(wǎng)公司還面對(duì)著每日大量的識(shí)別、過(guò)濾、清洗仇恨言論的煩瑣工作。因此,以自動(dòng)化語(yǔ)言識(shí)別(Automated Content Recognition)為基礎(chǔ)的人工智能技術(shù)很早就被引入仇恨言論的規(guī)制中,它的研發(fā)正在耗費(fèi)互聯(lián)網(wǎng)企業(yè)的巨額成本,同時(shí)還面對(duì)著算法的爭(zhēng)議,即人們對(duì)于計(jì)算機(jī)識(shí)別人類(lèi)仇恨的質(zhì)疑以及算法代碼中所隱含偏見(jiàn)的爭(zhēng)議。
智能技術(shù)能解決人類(lèi)語(yǔ)言意義的識(shí)別問(wèn)題嗎?用人工是不是更準(zhǔn)確?很多批評(píng)意見(jiàn)認(rèn)為,人工智能不是判別仇恨言論的有效方式,因?yàn)樵撓到y(tǒng)缺乏人類(lèi)所擁有的情感和判斷技能。而對(duì)科技公司來(lái)說(shuō),面對(duì)海量而又極其繁復(fù)的用戶(hù)言論進(jìn)行識(shí)別、過(guò)濾以及規(guī)制是一個(gè)需要計(jì)算成本、識(shí)別精確度、平衡考慮企業(yè)研發(fā)能力與經(jīng)濟(jì)收益的事情,他們?cè)谶@個(gè)問(wèn)題上陷入兩難。
這也使得人工智能在科技公司的公共言說(shuō)中被不斷描述和想象成為是“必要”“精確”但又同時(shí)是“易碎”的,它尚不完美,但一直在快速進(jìn)步。企業(yè)不斷強(qiáng)調(diào)AI運(yùn)用到仇恨言論識(shí)別的重要性和必要性。比如,F(xiàn)acebook努力宣稱(chēng)自家智能識(shí)別技術(shù)水平一直在快速進(jìn)步,它會(huì)在用戶(hù)舉報(bào)之前主動(dòng)刪除大部分仇恨言論,而主動(dòng)識(shí)別對(duì)于減少仇恨言論所帶來(lái)的傷害有重要意義,因此使用AI識(shí)別“十分必要”。Facebook在2020年第四季度報(bào)告里稱(chēng),單季度約97%/95%的Facebook/Instagram上的仇恨言論是通過(guò)主動(dòng)識(shí)別刪除的——數(shù)據(jù)顯示這一切都得益于AI的進(jìn)步。
但另一方面,現(xiàn)實(shí)的數(shù)據(jù)并不那么穩(wěn)定和樂(lè)觀。2018年Facebook的數(shù)據(jù)表明,AI系統(tǒng)能夠刪除99%的恐怖主義宣傳內(nèi)容、96%的裸體內(nèi)容,但對(duì)仇恨言論識(shí)別只有52%。[40]同年Twitter發(fā)布了一個(gè)名為Exploring Online Hate的面板工具,能夠通過(guò)1000個(gè)Twitter賬戶(hù)的樣本來(lái)尋找仇恨行為的規(guī)律、趨勢(shì),然后利用算法生成更大的數(shù)據(jù)集,從而實(shí)時(shí)掌握網(wǎng)絡(luò)上仇恨言論,控制相關(guān)的熱門(mén)話題和言論來(lái)源。但截至2019年7月,Twitter只有38%的有害內(nèi)容是由算法自動(dòng)篩選出的。與識(shí)別效率較低相應(yīng),還有錯(cuò)誤識(shí)別。比如,F(xiàn)acebook算法曾經(jīng)出現(xiàn)烏龍,錯(cuò)把《獨(dú)立宣言》當(dāng)作仇恨言論刪除。[41]因此,企業(yè)一方面投入大量財(cái)力、人力進(jìn)行AI開(kāi)發(fā),強(qiáng)調(diào)人工智能識(shí)別可以非?!熬_”,但同時(shí)又不斷強(qiáng)調(diào)算法的有限以及面對(duì)復(fù)雜人類(lèi)語(yǔ)言系統(tǒng)時(shí)的脆弱與“易碎”,將爭(zhēng)議事件歸于“尚不完美”的人工智能。比如,F(xiàn)acebook的CTO在2019年表示:“我們之前的人工智能識(shí)別系統(tǒng)已經(jīng)非常精確,但是如果你改變其中一小部分,它們就非常脆弱,即使是很小的變化也會(huì)破壞它們?!保?2]AI的脆弱之處在于它解決了目前出現(xiàn)的一種仇恨言論模式,但可能又無(wú)法解決新的仇恨言論形態(tài)。比如,一篇新的仇恨言論可能不像以前的例子,因?yàn)樗昧艘环N新的故事結(jié)構(gòu)。這取決于科技公司分析多種語(yǔ)言、捕捉特定國(guó)家趨勢(shì)的能力,以及如何定義仇恨言論的能力。因此Facebook承認(rèn)人工智能識(shí)別的進(jìn)步趕不上網(wǎng)絡(luò)仇恨言論語(yǔ)法與內(nèi)容結(jié)構(gòu)更新的速度。比如,從純文本識(shí)別,到圖像與音頻識(shí)別,再到目前出現(xiàn)的多元復(fù)雜語(yǔ)言結(jié)構(gòu)(比如,文本+圖像構(gòu)成仇恨內(nèi)容)。Facebook甚至公開(kāi)宣布發(fā)起“仇恨模型算法挑戰(zhàn)”(Hateful Meme Challenge),誰(shuí)能夠?qū)懗鲎孉I自動(dòng)識(shí)別多元仇恨言論的算法代碼,將獲得10萬(wàn)美元的獎(jiǎng)金。
除了自主研發(fā)昂貴的AI系統(tǒng),大多數(shù)科技公司仍然以人工識(shí)別為主,雇用大量的人力作為內(nèi)容審閱人,同時(shí)人工審核常常需要訂制化。比如,F(xiàn)acebook為應(yīng)對(duì)德國(guó)政府對(duì)仇恨言論的審查要求,聘用了1200名員工及合作商針對(duì)性審查德國(guó)用戶(hù)發(fā)布的仇恨言論。此外,全球多語(yǔ)言的環(huán)境以及計(jì)算機(jī)語(yǔ)言符號(hào)的文本編碼等差異還對(duì)機(jī)器學(xué)習(xí)與識(shí)別造成了很多困難。比如,Unicode編碼是全球行業(yè)標(biāo)準(zhǔn),但緬甸超過(guò)90%的電話都使用僅用于顯示緬甸語(yǔ)的Zawgyi編碼,這意味著使用Zawgyi手機(jī)的人無(wú)法正確閱讀以Unicode編寫(xiě)的網(wǎng)站、帖子或Facebook幫助中心說(shuō)明。[43]因此在緬甸相關(guān)項(xiàng)目上,F(xiàn)acebook不得不組建內(nèi)容審核小組。截至2018年6月,F(xiàn)acebook聘請(qǐng)了60多名緬甸語(yǔ)言專(zhuān)家在審核內(nèi)容,并在持續(xù)增加人手。同時(shí),隨著科技公司在全球雇用人工審核人數(shù)的不斷增加,與之相應(yīng)的勞動(dòng)力剝削、勞工糾紛也開(kāi)始出現(xiàn)。在2020年新冠肺炎疫情期間,由于網(wǎng)絡(luò)仇恨的井噴,F(xiàn)acebook要求人工審核員提前返回工作崗位。200名內(nèi)容審核員簽署了一份公開(kāi)請(qǐng)求,要求Facebook公司承諾采取措施以更好地保護(hù)他們?cè)谝咔槠陂g的人身安全。在那封信中,審核員表達(dá)了他們工作的價(jià)值和重要性:“人工智能無(wú)法勝任這項(xiàng)工作。很多重要言論被Facebook的AI過(guò)濾器沖走了,而像自殘這樣的危險(xiǎn)內(nèi)容卻沒(méi)有被過(guò)濾掉?!保?4]
在計(jì)算機(jī)學(xué)界,算法也被比喻為“黑箱”。它指的是一個(gè)數(shù)據(jù)從輸入到算法審判輸出的過(guò)程就像是穿過(guò)一個(gè)不透明的、未知的黑色箱子。我們無(wú)法像旁觀、理解、回溯、糾正和監(jiān)督法律程序那樣來(lái)觀察和監(jiān)管整個(gè)算法處理過(guò)程。人們無(wú)從得知算法的目標(biāo)、意圖以及規(guī)則,也無(wú)法得知算法設(shè)計(jì)的背景與內(nèi)容。這種信息不對(duì)稱(chēng)也使得算法邏輯被批評(píng)為是一種可怕的、看不見(jiàn)的權(quán)力。
在日益凸顯的全球網(wǎng)絡(luò)仇恨噴發(fā)的現(xiàn)實(shí)場(chǎng)景中,互聯(lián)網(wǎng)和算法因此常常被想象為一種“原罪”,是它容忍、寄生甚至生產(chǎn)、推動(dòng)了人類(lèi)社會(huì)的撕裂與仇恨。比如,認(rèn)為是互聯(lián)網(wǎng)賦予個(gè)人說(shuō)出恐怖言論的能力,因?yàn)楫?dāng)人們不用處理自己言論的后果時(shí)更容易表達(dá)仇恨。也有觀點(diǎn)認(rèn)為,算法提供了仇恨被不斷增強(qiáng)和再生產(chǎn)的條件。算法通過(guò)機(jī)器學(xué)習(xí)不斷產(chǎn)生信息繭房效應(yīng),使意見(jiàn)的極化特征日益突出,互聯(lián)網(wǎng)正在扮演“仇恨放大器”的角色。[45]2016年,F(xiàn)acebook研究員兼社會(huì)學(xué)家莫妮卡·李(Monica Lee)發(fā)現(xiàn),在Facebook上加入極端主義組織的用戶(hù),近2/3(64%)是由Facebook的算法推薦的,這意味著該網(wǎng)站的推薦系統(tǒng)在社交媒體用戶(hù)中“加劇了極端主義問(wèn)題”。[46]2018年,美國(guó)著名科技媒體《連線》雜志發(fā)表深度報(bào)道,通過(guò)采訪51名Facebook現(xiàn)任和前任員工,整理了Facebook最近兩年陷入危機(jī)背后的故事。公司CEO扎克伯格和他的員工發(fā)現(xiàn),隨著Facebook的發(fā)展,這家社交平臺(tái)并未讓人們聚合起來(lái),反而推動(dòng)社會(huì)分裂,這讓他們的技術(shù)樂(lè)觀主義被逐漸粉碎。[47]
算法由人而創(chuàng)造,沒(méi)有中立的算法,算法中天然存在偏見(jiàn)。因此更多科學(xué)家指出算法的偏見(jiàn)實(shí)際就是體現(xiàn)了人類(lèi)的偏見(jiàn)。算法黑箱通過(guò)看不見(jiàn)的規(guī)則識(shí)別、過(guò)濾、刪除符合仇恨定義特征的文本,卻“解釋權(quán)歸公司所有”,這使得大眾、算法邏輯、國(guó)家、科技公司之間始終在發(fā)生摩擦和爭(zhēng)議。很多研究和批評(píng)指出,算法本身就意味著歧視和偏見(jiàn)?,F(xiàn)實(shí)中大量存在的種族、性別、少數(shù)群體的政治偏見(jiàn)幾乎被一一證明同樣存在于算法識(shí)別中。2019年Facebook公司的研究人員發(fā)現(xiàn),Instagram用戶(hù)的活動(dòng)軌跡如被算法識(shí)別為黑人,其賬戶(hù)被審查系統(tǒng)自動(dòng)禁用的可能性比被識(shí)別為白人用戶(hù)的可能性高50%。[48]康奈爾大學(xué)一項(xiàng)研究通過(guò)分析Twitter數(shù)據(jù)集合發(fā)現(xiàn),被算法判斷為非洲裔美國(guó)人撰寫(xiě)的推文更有可能被標(biāo)記為仇恨言論。[49]而有研究人員測(cè)試Google的AI工具Perspective時(shí)也發(fā)現(xiàn),非裔美國(guó)人的推文被標(biāo)記為具有攻擊性的可能性更大,意味著本應(yīng)該保護(hù)少數(shù)/邊緣群體的算法功能反而潛在地?cái)U(kuò)大了對(duì)它們的危害。[50]值得思考的是,是什么造成了不同公司的識(shí)別系統(tǒng)中出現(xiàn)了較為相似的算法偏見(jiàn)?是行業(yè)性的人為偏見(jiàn),還是人類(lèi)社會(huì)本身既已存在的偏見(jiàn)被卷入在算法邏輯中成為黑箱的一部分了呢?事實(shí)上,由于算法基于對(duì)海量文本的機(jī)器學(xué)習(xí)而不斷更新,算法工程師也無(wú)法預(yù)知一些意想不到的結(jié)果。比如,在Facebook上搜索“我的女性朋友的照片”時(shí),會(huì)產(chǎn)生諸如“穿著比基尼”或“在海灘上”的建議。相反,搜索“我的男性朋友的照片”時(shí)沒(méi)有搜索建議。[51]再如有報(bào)道指出,土耳其語(yǔ)中男性“他”和女性“她”沒(méi)有區(qū)分,統(tǒng)一用“o”表示。而谷歌翻譯工具在翻譯“o bir doctor”和“o bir hem?ire”時(shí),會(huì)把前者翻譯成“他是一位醫(yī)生”(He is a doctor),把后者翻譯成“她是一位護(hù)士”(She is a nurse)。機(jī)器在學(xué)習(xí)數(shù)億數(shù)據(jù)和某些“社會(huì)規(guī)律”之后,算法“偏向”于把醫(yī)生男性化,護(hù)士女性化。[52]所以,算法黑箱輸出的究竟是什么呢?是既已存在的某個(gè)人類(lèi)社會(huì)的隱藏腳本,還是被凈化和加工后的“美麗新世界”呢?
此外,在仇恨識(shí)別這場(chǎng)“貓捉老鼠”的游戲里,人工智能自身技術(shù)的提高還面臨著人類(lèi)語(yǔ)言符號(hào)的不斷反制。芬蘭阿爾托大學(xué)的機(jī)器學(xué)習(xí)研究團(tuán)隊(duì)通過(guò)攻擊如打錯(cuò)別字的方式,成功躲過(guò)了七種不同的檢測(cè)仇恨言論的分類(lèi)算法,每種算法都存在弱點(diǎn),導(dǎo)致檢測(cè)機(jī)器難以識(shí)別這種反制措施。[51]面對(duì)關(guān)鍵詞屏蔽,部分用戶(hù)會(huì)使用其他文字、符號(hào)或“?!睂?duì)極端信息進(jìn)行“加密”,使得信息難以被自動(dòng)監(jiān)控。[53]因此,反制算法識(shí)別的網(wǎng)絡(luò)語(yǔ)言文法也越來(lái)越多。
通過(guò)前文的梳理,我們可以看到,借由互聯(lián)網(wǎng),“仇恨”突破了既往公開(kāi)表達(dá)的主體和時(shí)空限制,從一個(gè)古老的概念迅速擴(kuò)散為全球性的現(xiàn)實(shí)問(wèn)題。我們?cè)絹?lái)越深刻地感受到,人類(lèi)正生活在一個(gè)愈加撕裂的世界里。而在網(wǎng)絡(luò)仇恨越發(fā)泛濫的現(xiàn)實(shí)中,互聯(lián)網(wǎng)科技公司代替國(guó)家/政府,成為規(guī)制仇恨言論的主要行動(dòng)者,并與國(guó)家、廣告商、公眾等不斷產(chǎn)生摩擦。從仇恨言論的界定,到仇恨傳播行為的規(guī)制,再到加強(qiáng)對(duì)仇恨傳播后果的預(yù)判,越發(fā)預(yù)示著科技公司可能進(jìn)一步卷入全球政治的動(dòng)態(tài)變遷中,這將加劇它們與國(guó)際政治體的摩擦。
而科技公司正處于“十字路口”,它們并不情愿卻依然成為“眾矢之的”。它們只能試圖在規(guī)避風(fēng)險(xiǎn)、計(jì)算成本與收益、重申企業(yè)價(jià)值觀與責(zé)任感、識(shí)別與審判言論性質(zhì)、引導(dǎo)用戶(hù)自律等行動(dòng)中取得平衡。而它們大多孤立,企業(yè)之間情況不一,如何規(guī)制仇恨言論尚無(wú)行業(yè)共識(shí),大的科技巨頭承擔(dān)主要的壓力和示范角色。仇恨言論也從一個(gè)人文與政治哲學(xué)領(lǐng)域主要討論的抽象概念走向了一個(gè)操作層面由技術(shù)公司主導(dǎo)的每日需要面對(duì)的實(shí)際技術(shù)問(wèn)題。
這個(gè)“具體操作”的一個(gè)方面就是科技公司不得不對(duì)仇恨言論做出精確定義,以便識(shí)別與管制。而它面臨著全球歷史、文化、意識(shí)形態(tài)的差異化現(xiàn)實(shí),面對(duì)各個(gè)國(guó)家和政治體的治理要求和壓力,注定將不斷處于摩擦與拉扯之中。網(wǎng)絡(luò)仇恨言論問(wèn)題凸顯著全球化過(guò)程中的文化沖突,而互聯(lián)網(wǎng)企業(yè)卻不得不扮演協(xié)調(diào)人角色,因此難免陷于泥潭。正如在印度有批評(píng)人士指出的那樣:“所有的互聯(lián)網(wǎng)平臺(tái)都缺乏進(jìn)入我們市場(chǎng)的文化能力,對(duì)其內(nèi)部動(dòng)態(tài)的不穩(wěn)定性缺乏清晰的認(rèn)識(shí)?!保?6]
操作化的第二個(gè)層面則體現(xiàn)在人工智能技術(shù)以及算法邏輯常常被想象為是控制人類(lèi)仇恨情感的關(guān)鍵技術(shù)。人工智能的識(shí)別算法因“高效率”而為互聯(lián)網(wǎng)企業(yè)宣布為應(yīng)對(duì)網(wǎng)絡(luò)仇恨的第一必需品,同時(shí)也隱含著科技公司節(jié)省成本、規(guī)避風(fēng)險(xiǎn)、表現(xiàn)技術(shù)中立的手段。但是,目前的現(xiàn)實(shí)情況是,算法仍然“很不完美”,雖精致但“易碎”,其不僅仍然存在著大量計(jì)算誤差的可能,還常因算法本身的“偏見(jiàn)”被批評(píng)為充滿(mǎn)“原罪”的“黑箱”,成為容忍、寄生甚至生產(chǎn)、推動(dòng)了人類(lèi)社會(huì)仇恨,使得世界愈加“撕裂”和對(duì)立的技術(shù)力量。在未來(lái),基于成本與效率的考量,算法的研發(fā)提升依然會(huì)是科技公司規(guī)制仇恨言論的首要手段。如果科技公司在規(guī)制仇恨言論的過(guò)程中不斷靠近政治場(chǎng)域,那么算法識(shí)別的未來(lái)就關(guān)涉了關(guān)鍵的全球政治想象??萍脊菊诔蔀槟撤N非正式確認(rèn)的政治體,在巨大的內(nèi)容海洋中,掌握全球仇恨流動(dòng)的方向。它們將如何開(kāi)啟網(wǎng)絡(luò)世界中的新民主/新專(zhuān)制?
最后,回到一個(gè)最根本的問(wèn)題,人類(lèi)仇恨的引擎究竟在哪里?對(duì)此,在當(dāng)前互聯(lián)網(wǎng)時(shí)代,有待細(xì)化探究的是,互聯(lián)網(wǎng)技術(shù)、算法規(guī)則與仇恨加劇之間的關(guān)系究竟是怎樣的?科技公司與政治體還會(huì)產(chǎn)生怎樣的角色變化?網(wǎng)絡(luò)仇恨問(wèn)題的持續(xù)發(fā)酵也許將是觀察人類(lèi)社會(huì)與技術(shù)互動(dòng)的一個(gè)重要切入口。另外,仇恨的破壞性并不止于言說(shuō)與傳播,仇恨同時(shí)被持續(xù)制造、記憶和傳承。因而面對(duì)網(wǎng)絡(luò)仇恨的井噴,同樣需要延展地思考,互聯(lián)網(wǎng)技術(shù)在多大程度上使得仇恨得以跨越時(shí)空?這對(duì)于人類(lèi)社會(huì)的記憶與歷史書(shū)寫(xiě)的深遠(yuǎn)影響會(huì)是什么?當(dāng)科技與人文在網(wǎng)絡(luò)仇恨問(wèn)題上再次交會(huì),人文的意義不會(huì)只是對(duì)科技的查漏補(bǔ)缺?;卮鹨陨线@些問(wèn)題既是對(duì)當(dāng)前人類(lèi)社會(huì)的運(yùn)作投以疑慮和關(guān)懷,也是在努力叩問(wèn)人文的當(dāng)代意義與未來(lái)。
注釋
[1]BUTLER JUDITH.Sovereign Performatives in the Contemporary Scene of Utterance[J].Critical Inquiry,1997,23(2):350-377.
[2]COHEN-ALMAGOR RAPHAEL.JSMill’s Boundaries of Freedom of Expression:A Critique[J].Philosophy,2017,92(4):565-596.
[3]BROWN ALEXANDER.Hate Speech Law:A Philosophical Examination[M].Abingdon:Routledge,2015:182.
[4]BOLLINGER LEE C.The Tolerant Society[M].New York:Oxford University Press,1986:238.
[5]FOUQUET HELENE,VISCUSI GREGORY.Twitter,F(xiàn)acebook Join Global Pledge to Fight Hate Speech Online[EB/OL].https://www.bloombergquint.com/technology/2019/05/15/macron-ardernto-meet-twitter-facebook-google-onhate-speech,2019-05-15.
[6]趙玉現(xiàn),胡春莉.網(wǎng)絡(luò)仇恨言論判別與治理探究[J].信息安全研究,2019,5(11):1021-1026.
[7]Council of Europe.No Hate Speech Youth Campaign[EB/OL].https://www.coe.int/en/web/no-hate-campaign,2021-03-17.
[8]PERINE KEITH.The Trouble with Regulating Hatred Online[EB/OL].http://www.cnn.com/2000/TECH/computing/07/25/regulating.hatred.idg/index.htm l,2000-07-25.
[9]Simon Wiesenthal Center.District Attorney Vance and Rabbi Abraham Cooper Announce the Simon Wiesenthal Center’s Report on Digital Terrorism and Hate[EB/OL].https://www.wiesenthal.com/about/news/district-attorney-vance-and.html,2014-05-01.
[10]FACEBOOK.Community Standards Enforcement Report[EB/OL].https://transparency.facebook.com/community-standards-enforcement#hatespeech,2021-02-11.
[11]Council of Europe.Hate Speech[EB/OL].https://www.coe.int/en/web/freedom-expression/hate-speech,2021-03-17.
[12]FACEBOOK.Community Standards[EB/OL].https://www.facebook.com/communitystandards/recentupdates/hate_speech/,2021-03-17.
[13]DWOSKIN ELIZABETH,TIMBERG CRAIG,ROMM TONY.Zuckerberg Once Wanted to Sanction Trump.Then Facebook Wrote Rules That Accommodated Him[EB/OL].https://www.washingtonpost.com/technology/2020/06/28/facebook-zuckerberg-trump-hate/,2020-06-29.
[14]WODINSKY SHOSHANA.Facebook Quietly Made a Ton of Updates Hours After Trump Got Impeached[EB/OL].https://gizmodo.com/facebook-quietly-madea-ton-of-updates-hours-after-trum-1840902512,2020-01-09.
[15]SEETHARAMAN DEEPA,GLAZER EMILY.How Mark Zuckerberg Learned Politics[EB/OL].https://www.wsj.com/articles/how-mark-zuckerberg-learnedpolitics-11602853200,2020-10-16.
[16]NEWTON CASEY.The Trauma Floor:The Secret Lives of Facebook Moderators in America[EB/OL].https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-arizona,2019-02-25.
[17]TWITTER.The Twitter Rules[EB/OL].https://help.twitter.com/en/rules-and-policies/twitter-rules,2021-03-17.
[18]JEONG SARAH.The History of Twitter’s Rules[EB/OL].https://www.vice.com/en/article/z43xw3/the-historyof-twitters-rules,2016-01-14.
[19]GADDE VIJAYA,HARVEY DEL.Creating New Policies Together[EB/OL].https://blog.twitter.com/en_us/topics/company/2018/Creating-new-policies-together.html,2018-09-25.
[20]腦極體.面對(duì)Twitter,AI表示“真心帶不動(dòng)”[EB/OL].http://www.woshipm.com/it/2571370.html,2019-07-11.
[21]TIKU NITASHA,NEWTON CASEY.Twitter CEO:“We suck at dealing with abuse”[EB/OL].https://www.theverge.com/2015/2/4/7982099/twitter-ceo-sentmemo-taking-personal-responsibility-forthe,2015-2-4.
[22]USCINSKI JOSEPH E.,DEWITT DARIN,ATKINSON MATTHEW D.A Web of Conspiracy? Internet and Conspiracy Theory[A].DYRENDAL ASBJ?RN,ROBERTSON DAVID G.,ASPREM EGIL.Handbook of Conspiracy Theory and Contemporary Religion[C].Leiden and Boston:Brill,2018:106-130.
[23]OTTONI RAPHAEL,CUNHA EVANDRO,MAGNO GABRIEL,et al.Analyzing Right-wing YouTube Channels:Hate,Violence and Discrimination[A].AKKERMANS HANS,F(xiàn)ONTAINE KATHY,VERMEULEN IVAR.Proceedings of the10th ACM Conference on Web Science[C].New York:Association for Computing Machinery,2018:323-332.
[24]The YouTube Team.Our Ongoing Work to Tackle Hate[EB/OL].https://blog.youtube/news-and-events/our-ongoingwork-to-tackle-hate/,2019-06-05.
[25]WEIGHT JOHANNA.Updates on Our Efforts to Make YouTube A More Inclusive Platform[EB/OL].https://blog.youtube/news-and-events/make-youtubemore-inclusive-platform/,2020-12-03.
[26]MARTINEAU PARIS.YouTube Removes More Videos but Still Misses a Lot of Hate[EB/OL].https://www.wired.com/story/youtube-removes-videos-misseshate/,2019-09-04.
[27]LEWISREBECCA.Alternative Influence:Broadcasting the Reactionary Right on YouTube[EB/OL].https://datasociety.net/library/alternative-influence/,2018-09-18.
[28]HANKES KEEGAN.Black Hole[EB/OL].https://www.splcenter.org/fighting-hate/intelligence-report/2015/black-hole,2015-03-10.
[29]COLLINSKATIE.Reddit Slammed by Former CEO Ellen Pao for“Amplifying”Racism and Hate[EB/OL].https://www.cnet.com/news/reddit-slammed-by-former-ceo-ellen-pao-for-amplifyingracism-and-hate-nfl-nba/,2020-06-02.
[30]DubTeeDub.Open Letter to Steve Huffman and the Board of Directors of Reddit,Inc-If You Believe in Standing up to Hate and Supporting Black Lives,You Need to Act[EB/OL].https://www.reddit.com/r/AgainstHateSubreddits/comments/gyyqem/open_letter_to_steve_huffman_and_the_board_of/,2020-06-08.
[31]ROOSE KEVIN.Reddit’s C.E.O.on Why He Banned‘The_Donald’Subreddit[EB/OL].https://www.nytimes.com/2020/06/30/us/politics/reddit-bans-stevehuffman.html,2020-06-30.
[32]SIMPSON ROBERT MARK.‘Won’t Somebody Please Think of the Children Hate Speech,Harm,and Childhood[J].Law and Philosophy,2019,38(1):79-108.
[33]WEIMANN GABRIEL,MASRI NATALIE.Research Note:Spreading Hate on TikTok[J].Studies in Conflict&Terrorism,2020,1-14.
[34]COX JOSEPH.TikTok Has a Nazi Problem[EB/OL].https://www.vice.com/en/article/yw74gy/tiktok-neo-naziswhite-supremacy,2018-12-19.
[35]FUNG BRIAN.Even TikTok Has a White Supremacy Problem[EB/OL].https://edition.cnn.com/2020/08/14/tech/tiktok-white-supremacists/index.html,2020-08-14.
[36]CHRISTOPHER NILESH.TikTok Is Fuelling India’s Deadly Hate Speech Epidemic[EB/OL].https://www.wired.co.uk/article/tiktok-india-hate-speechcaste,2019-08-12.
[37]SHEAD SAM.TikTok Plans to Do More to Tackle Hateful Content after Reports Say It Has a“Nazi problem”[EB/OL].https://www.cnbc.com/2020/10/21/tiktoksays-it-plans-to-do-more-to-tacklehateful-content.htm l,2020-10-21.
[38]鄭峻.十字路口的互聯(lián)網(wǎng)巨頭:政治批斗、230條款和新自由主義[EB/OL].https://finance.sina.com.cn/tech/2020-10-30/doc-iiznezxr8860198.shtm l,2020-10-30.
[39]新浪科技.美國(guó)社交媒體巨頭的“囚徒困境”[EB/OL].https://mp.weixin.qq.com/s/W85e97eO5BnJAJFAkMSWuw,2020-11-23.
[40]ZUCKERBERG MARK ELLIOT.A Blueprint for Content Governance and Enforcement[EB/OL].https://www.facebook.com/notes/mark-zuckerberg/a-blueprintfor-content-governance-and-enforcement/10156443129621634/,2018-11-15.
[41]ROSENBERG ELI.Facebook Censored a Post for“Hate Speech”.It Was the Declaration of Independence[EB/OL].https://www.washingtonpost.com/news/theintersect/wp/2018/07/05/facebook - censored-a-post-for-hate-speech-itwas-the-declaration-of-independence/,2018-07-06.
[42]TARANTOLA ANDREW.Facebook Deploys AI in Its Fight against Hate Speech and Misinformation[EB/OL].https://www.engadget.com/facebook-aihate-speech-covid-19-160037191.htm l,2020-05-12.
[43]SU SARA.Update on Myanmar[EB/OL].https://about.fb.com/news/2018/08/update-on-myanmar/,2018-08-15.
[44]SCHIFFER ZOE.Facebook Content Moderators Demand Better Coronavirus Protections[EB/OL].https://www.theverge.com/2020/11/18/21573526/facebookcontent-moderators-open-letter-coronavirus-protections-demands-accenture,2020-11-18.
[45]常江.互聯(lián)網(wǎng)如何成了仇恨的放大器[J].青年記者,2019,630(10):94.
[46]HORWITZ JEFF,SEETHARAMAN DEEPA.Facebook Executives Shut Down Efforts to Make the Site Less Divisive[EB/OL].https://www.wsj.com/articles/facebook-knows-it-encourages-divisiontop -executives-nixed -solutions-11590507499,2020-05-26.
[47]THOMPSON NICHOLAS,VOGELSTEIN FRED.Inside the Two Years That Shook Facebook—and the World[EB/OL].https://www.wired.com/story/inside-facebook-mark-zuckerberg-2-years-ofhell/,2018-02-12.
[48]SOLON OLIVIA.Facebook Ignored Racial Bias Research,Employees Say[EB/OL].https://www.nbcnews.com/tech/tech-news/facebook-managementignored-internal-research-showing-racial-bias-current-former-n1234746,2020-07-24.
[49]LEFKOWITZ MELANIE.Study Finds Racial Bias in Tweets Flagged as Hate Speech[EB/OL].https://news.cornell.edu/stories/2019/08/study-finds-racialbias-tweets-flagged-hate-speech,2019-08-05.
[50]SAP MAARTEN,CARD DALLAS,GABRIEL SAADIA,et al.The Risk of Racial Bias in Hate Speech Detection[A].KORHONEN ANNA,TRAUM DAVID,MàRQUEZ LLUíS.Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics[C].Florence:Association for Computational Linguistics,2019.1668-1678.
[51]MATSAKIS LOUISE.To Break a Hate-Speech Detection Algorithm,Try“Love”[EB/OL].https://www.wired.com/story/break-hate-speech-algorithm-trylove/,2018-09-26.
[52]沈知涵.為了減少人工智能對(duì)人的偏見(jiàn),谷歌操碎了心[EB/OL].http://www.geekpark.net/news/268326,2020-11-02/2021-03-17.
[53]Johnson N.F.,Leahy R.,Restrepo N.J.,et al.Hidden Resilience and Adaptive Dynamics of the Global Online Hate Ecology[J].Nature,2019,573(7773):261-265.