譚 杰 姬廣緒
(廣東省團校、廣東青年政治學院,廣東 廣州 510550;廣東外語外貿(mào)大學,廣東 廣州 510420)
“機器能思維嗎?”早在1950年,現(xiàn)代計算機理論奠基人和發(fā)明者阿蘭·圖靈在《心智》雜志上發(fā)表了《計算機器與智能》一文時,就提出了這一經(jīng)典問題。20世紀70年代之前,人工智能還只是一個并不熱門的議題。人們對于“計算機械”這樣的智能機器充滿了敬畏,在經(jīng)歷了近40年的沉寂之后,伴隨近年來的大數(shù)據(jù)及其計算工具熱,才直接催生了熱門的“人工智能”話題。[1]有趣的是,“人工智能”從哲學意義上消失了,成為一個商業(yè)領(lǐng)域最炙手可熱的大眾話題和研究領(lǐng)域,甚至出現(xiàn)了一種近乎極端的情形——將人工智能宗教化,一位號稱美國未來學家的名叫雷蒙德·庫茲韋爾的人聲稱,他發(fā)現(xiàn)了“奇點時刻”——到2045年,人類和機器會合二為一而獲得永生,這些人所期待的人工智能的出現(xiàn),簡直成了宗教中某種“救贖時刻”的來臨。[2]
網(wǎng)絡(luò)的發(fā)展已經(jīng)開始超乎人們的預料,借用帕特南(Robert D.Putnam)在《獨自打保齡》中提出的概念,互聯(lián)網(wǎng)中最初被期待著蘊含著大量的“橋介資本”,也就是背景不同的網(wǎng)民能夠促進彼此交流,提升一種理想的公共性狀態(tài),讓人們在需要時可以動用眾多的人脈求助于他人。[3]“天涯若比鄰”是網(wǎng)絡(luò)社會的理想狀態(tài),每個人都可以觸摸全球化,世界從社交的意義上變得越來越小。然而,互聯(lián)網(wǎng)的發(fā)展卻朝著個人化飛奔,正在推翻前人對于網(wǎng)絡(luò)社會的期待。尤其是以算法為代表的的技術(shù)發(fā)展讓人們可以最大程度上避開自己不喜歡的信息和內(nèi)容,尤其是互聯(lián)網(wǎng)的商業(yè)化邏輯使得每一個網(wǎng)民首先是一個信息消費者,作為消費者遵循的是消費理性的邏輯,即利益最大化,這使得人們更加關(guān)心符合自身利益的事。但同時,這一邏輯帶來的代價是人們信息選擇權(quán)的禁錮,每個網(wǎng)民都成為算法技術(shù)的被動接受者?!叭藗冮_始將自己的生活工作甚至命運‘主動地’交由網(wǎng)絡(luò)接管,把最為私密的生命資料放在被算法加密、集權(quán)力者才有權(quán)取閱的數(shù)據(jù)庫中。人們的喜怒哀樂,也開始由各種各樣的技術(shù)程序設(shè)計和規(guī)制。”[4]
那么,到底我們該如何理解互聯(lián)網(wǎng)發(fā)展所帶來的技術(shù)變革,以算法為代表的技術(shù)進步對人類社會的發(fā)展會產(chǎn)生怎樣的影響?互聯(lián)網(wǎng)時代的個體性和公共性困境該如何理解?這些基本且至關(guān)重要的問題需要得到解答,因此本文選取網(wǎng)絡(luò)搜索中的算法推薦機制作為分析對象,討論基于用戶畫像的算法推薦對用戶來說會產(chǎn)生哪些影響,而這背后又隱含著怎樣的文化邏輯,如何透過人類學的理論視角理解算法推薦對用戶的影響是本文關(guān)注的核心問題。
如果說前數(shù)字時代的媒介生態(tài)是單向傳播的話,數(shù)字時代的傳播開始呈現(xiàn)出雙向甚至多向的特質(zhì)。數(shù)字時代開啟了從信息接受到信息生產(chǎn)和信息搜索的新媒介生態(tài)。戴維·斯塔克(David Stark)將搜索看成是“信息時代的標志”。搜索不僅僅解決了在海量信息中排序、篩選更加有用信息的問題,同時更重要地,搜索開始越來越影響我們對于“現(xiàn)實生活”的認知和理解。搜索提供了一種更加便利的接近答案和真相的手段,這當然是技術(shù)的優(yōu)勢使然,同時也是當下信息消費的現(xiàn)狀使然。從普通類的搜索引擎來看,用戶更加依賴通過其獲取特定問題的答案,而這其中涉及大量的公共信息。當越來越多的普通用戶將搜索引擎及其提供的結(jié)果作為公共信息的來源時,搜索結(jié)果背后隱藏的數(shù)據(jù)權(quán)力再生產(chǎn)過程是不被察覺的,而這些掌握數(shù)據(jù)的信息公司無疑將獲得巨大的數(shù)據(jù)權(quán)力并由此產(chǎn)生巨大的商業(yè)收益。在商業(yè)數(shù)字平臺大行其道的今天,民眾在線上搜索獲得的信息以及基于這些信息所形成的社會認知、價值取向乃至行動邏輯是處于數(shù)字社會進程中的中國社會不能回避、不容忽視的話題。
通常意義上商業(yè)性的搜索引擎對于信息檢索的質(zhì)量是會有折損的,本·巴格迪肯(Ben Bagdikian)認為“從廣告中獲取收益的搜索引擎是很難將公正的信息回饋給公眾的,出于此種原因以及參照歷史上其他媒介的經(jīng)驗,我們更加期待廣告資助的搜索引擎所提供的信息是更加偏向于廣告商而非消費者的訴求的。”[5]搜索引擎的使用本就讓公眾對于信息的獲取限于一個隱形的圍場(Enclosure)之中,而商業(yè)性因素的增加讓這種圍場效應(yīng)變得更加強烈。國家對于公共性信息機構(gòu),例如圖書館的投入逐漸減少,個體和商業(yè)化的信息獲取途徑,例如搜索引擎開始重塑公眾對于什么是公眾領(lǐng)域的認知。[6]
商業(yè)網(wǎng)絡(luò)公司本質(zhì)上是逐利的,其無一不希望在網(wǎng)絡(luò)大戰(zhàn)中爭取到最多的用戶,而提供免費服務(wù)“吸粉”是其常規(guī)手段,大家現(xiàn)在都可以免費地獲取各種各樣的服務(wù),然而正如電子前線基金會的克里斯·帕莫(Chris Palmer)所說,“你獲得的是免費的服務(wù),而你付出的代價是個人信息。Google和Facebook很懂得如何將個人信息兌換成金錢”[7]。如果說免費服務(wù)獲取的代價僅僅是將個人信息用于商業(yè)性的廣告定制和更加精準地推動給客戶,那其實也還好。但是隨著算法的不斷迭代,個人的信息搜集變得越來越普遍時,我們發(fā)現(xiàn)這種“個性化”服務(wù)的背后其左右的不僅僅是我們購買何種商品和服務(wù)。隨著移動互聯(lián)網(wǎng)的發(fā)展及智能終端的普及,越來越多的網(wǎng)民其信息獲取的途徑依賴于互聯(lián)網(wǎng)。根據(jù)中國互聯(lián)網(wǎng)絡(luò)信息中心發(fā)布的第47次《中國互聯(lián)網(wǎng)發(fā)展狀況統(tǒng)計報告》,截至2020年12月,中國搜索引擎用戶規(guī)模達7.70億,占網(wǎng)民整體的77.8%,用戶規(guī)模較2020年3月增加了1962萬,增長率為6.2%;手機搜索用戶數(shù)達7.68億,占手機網(wǎng)民的77.9%,用戶規(guī)模較2020年3月增加2300萬。[8]越來越多的網(wǎng)民的主要新聞和信息來源于網(wǎng)絡(luò)中的新聞資訊平臺,例如網(wǎng)易新聞、今日頭條等。而且,用戶的比例還在不斷增加,例如今日頭條APP,截至2020年底,累計活躍用戶2.6億,其中40歲以下的用戶占到了85.16%。而紙媒、電視的新聞用戶數(shù)量卻在不斷下降。從目前的趨勢來看,以今日頭條為代表的互聯(lián)網(wǎng)新聞平臺將是未來網(wǎng)民新聞信息的最主要的來源之一。
此種以新聞為代表的公共信息的流通方式不可避免地受到了互聯(lián)網(wǎng)算法的影響和改變?!皞€性化定制”的新聞開始越來越迎合不同網(wǎng)民的興趣和愛好。今日頭條之前的廣告語就是“你所關(guān)心的就是頭條”,充分體現(xiàn)了這些以商業(yè)邏輯作為主導的新聞平臺在提供類公共信息時依舊將基于算法的個性化策略貫徹其中。算法正在決定網(wǎng)民們能看見什么,而且更深入地開始影響網(wǎng)民的價值觀和立場。
當下人工智能技術(shù)已經(jīng)開始深入融入到網(wǎng)民的日?;ヂ?lián)網(wǎng)實踐中,網(wǎng)絡(luò)技術(shù)中的基本核心程序已經(jīng)相當成熟。目前多數(shù)的算法和信息過濾技術(shù)都是根據(jù)用戶的鏈接點擊、文字輸入和搜索等一系列動態(tài)行為來判斷你可能感興趣的內(nèi)容。也就是用戶實際在網(wǎng)上的實踐行為、其他背景近似的網(wǎng)民群體的實踐行為會被詳細記錄、標簽,以此來推斷大家的好惡。伊萊·帕理澤(Eli Pariser)將這種由算法過濾后所形成的基于不同個體的同質(zhì)性新聞的生產(chǎn)機制稱為“過濾氣泡”(Filter Bubble)。他認為在算法推薦機制下,高度同質(zhì)化的信息流會阻礙人們認識真實的世界。只看想看的信息,聽起來倒是一件很愉快的事情,但伊萊·帕理澤(Eli Pariser)認為,這種過濾氣泡其實是打著個性化的名義,把每個人隔離在信息的孤島上,使他們喪失理智選擇的權(quán)利。他舉例說,2010年4月,舉世震驚的英國石油公司墨西哥灣漏油事件后,如果使用谷歌搜索“BP”(英國石油公司的簡稱),有人看到的是漏油事故,而有人則看到了該公司的投資新聞,這種推薦算法的依據(jù)正是用戶個人的閱讀需求與偏好。[9]
更進一步探究會發(fā)現(xiàn),這種信息過濾機制是一種無影無形的、實質(zhì)性影響用戶的感知和判斷的力量,這和紙媒時代以及電視時代是不同的。在今天的互聯(lián)網(wǎng)上,絕大多數(shù)人并不知道谷歌、百度或今日頭條的政治立場,并且,基于算法的推送過程,所有的平臺和網(wǎng)站都不會主動告訴用戶其所搜索或被推送的新聞是如何被推論出來的,也更加不會告知用戶顯示頁中的搜索結(jié)果其根據(jù)是什么。用戶甚至不知道算法在背后已經(jīng)對你進行了一個全方位的立體畫像。由于多數(shù)的新聞推送或網(wǎng)站搜索都不是用戶自行訂閱的,因此用戶很容易相信平臺和網(wǎng)站所呈現(xiàn)出的結(jié)果的公正、客觀和真實。
雖然問題已經(jīng)出現(xiàn),并且在互聯(lián)網(wǎng)行業(yè)內(nèi)成為公開的秘密,但算法究竟對每一個個體用戶產(chǎn)生了什么影響、影響有多大,目前還無法推測,因為個體的差異太大,算法基于用戶畫像的結(jié)果呈現(xiàn)也太過于復雜,因此從數(shù)據(jù)分析的角度去追蹤幾乎是無法計量的。因此在目前的階段,對于此話題的研究僅能夠從個案的角度去觀察,同時做有限解釋。未來還需要在方法論上做進一步的開發(fā)和拓展。
帕斯奎爾(Frank Pasquale)將算法的秘密性帶來的信息社會稱為“黑箱社會”,并且所有服務(wù)的覆蓋之廣和技術(shù)之復雜使它們具有不透明性,并且可以逃避責任,不必像傳統(tǒng)媒體那樣直面公眾。[10]在搜索引擎的算法中,所有的網(wǎng)民被算法進行分類和貼標簽,而網(wǎng)民自己卻對此知之甚少,甚至大多人都還愉快地在不同的信息平臺和應(yīng)用中注冊自己的身份信息,把自己作為被標簽化的對象。即使搜索引擎中的算法是公立且良性運行的,所有運用搜索引擎的人對于搜索結(jié)果的呈現(xiàn)原理不覺明理的時候,還是給人一種不透明的感覺。更何況當下絕大多數(shù)的搜索引擎首先是商業(yè)公司開發(fā)的,主要服務(wù)于企業(yè)的商業(yè)目的,公司會在最大化的程度上隱藏算法的運算結(jié)果,甚至隱藏算法的存在?!吧虡I(yè)機密”成為合理隱藏算法的說辭以維護其算法的機密性。
從文化的角度去理解算法,其實它就像是人類學中經(jīng)常提到的文化濾鏡,每一種科技都會有一個界面,它是人和科技進行交流和互相觀察的管道。人透過界面理解科技,科技透過界面以及人對界面的反饋搜集其對人的理解。人和技術(shù)之間的這個界面總是無法完全消除的,它會擋在二者之間,就如同相機的鏡頭。人透過鏡頭所看到的世界是一種技術(shù)干預后的觀感,是被過濾后的真實,而這其中的手法層出不窮。從這個角度來說,當下網(wǎng)民所理解的世界是被技術(shù)中介的世界,加上算法的加持,扭曲是在所難免的。
關(guān)于算法的原理,臉書借助的是EdgeRank,以這種演算法來整理預設(shè)的賬號首頁版面,亦即頭條動態(tài)消息。EdgeRank的作用是為臉書上的每一種互動排名,演算法很復雜,但基本概念相當簡單,依據(jù)三種因素來計算。第一種因素是親近度:你在某人的賬號上逗留時間越長,表示你和這人的親近度越大,臉書越有可能對你發(fā)布這人的近況。第二種因素是資訊類型的比重:以“感情狀態(tài)”為例,加權(quán)的比重非常高,因為大家都想知道誰正在和誰交往。第三種因素是時間:近期張貼的事項比舊事重要。
類似算法的過濾機制在人腦中本就存在,即文化認知結(jié)構(gòu)。人腦的認知一方面要強化既有的認知,另一方面要求取新知,而人腦每天接觸到大量的信息,如何過濾掉無意義的信號,篩選出極小比率的重要資訊以達到強化既有認知和求取新知的平衡就尤為重要了。在人腦中,這個最重要的機制就是壓縮資料。大腦通過壓縮信息量,捕捉所見所聞中的精髓概念,在認知人類學種被稱為“認知結(jié)構(gòu)”。認知結(jié)構(gòu)的作用就是,一種事物如果反復出現(xiàn),人腦就沒有必要去重新認識。人一旦認出椅子的長相,就知道它的用途。認知結(jié)構(gòu)一旦生成,我們本能上就會去強化這些結(jié)構(gòu)。心理學稱這種傾向為“確認偏誤”,也就是人們更加愿意相信一些能夠佐證既有觀點的事物,往往只看到他們想看的東西。[11]
個人化的文化認知結(jié)果會以三種方式阻礙文化多樣性認識。第一,過濾罩以人為的方式限制“異文化視野”——人類試圖理解和解答文化共存的知識儲備及視野。第二,過濾罩里面的信息環(huán)境勢必比較缺乏激發(fā)理解文化多樣性的特質(zhì)。互聯(lián)網(wǎng)的出現(xiàn)及其連通性本是人類接觸和了解多樣文化的最佳途徑和窗口,然而人工智能及算法營造出來的過濾罩環(huán)境卻隔離了人們接觸多樣文化的可能。第三,人工智能和算法營造的個體化環(huán)境提倡和鼓勵的是一種基于“推送”的信息傳播方式,個人主動搜尋和探索異文化的動機被抑制。
基于算法的信息過濾所提供的對于特定問題的解答是一種人工解答,視域極其有限,但很有效。無論你想解決什么樣的問題,它都能夠給你提供一個高度關(guān)聯(lián)的信息環(huán)境。通常這樣的環(huán)境都很實用,例如當你搜索“移民”時,搜索引擎會在下方推薦你可能會感興趣的相關(guān)話題,例如“廣州移民治理”等。當你點擊下面的相關(guān)話題進行信息瀏覽時,算法就會將你的這個動態(tài)痕跡記錄下來,作為日后推薦更加符合你的閱覽偏好的信息的關(guān)聯(lián)數(shù)據(jù),但這時你看待問題的視野無形中就會被壓縮得過于窄淺了。因此,算法的過濾帶來的最大問題就是它沒有“拉遠鏡頭”的功能,使用者容易迷失方向,看不清楚事物的全貌,將自己置身于一座信息孤島上。
算法過濾的機制依循的是三步驟模式:首先,算法通過動態(tài)信息和靜態(tài)信息認清用戶身份與喜好;其次,對用戶提供最合宜的信息與服務(wù);最后,把算法改良到恰到好處。簡言之,你的身份形塑你使用的媒體。同時反過來媒體也會形塑你的身份,最后的結(jié)果就是個人和媒體高度互嵌。在網(wǎng)絡(luò)上關(guān)于城市移民的負面評論,網(wǎng)友會透過自己出于膚色和文化差異所形成的“刻板印象”去想象和構(gòu)建所謂的“移民形象”,網(wǎng)友還可能會用自己的網(wǎng)絡(luò)行為自覺不自覺地促成和強化這種不實傳播。
結(jié)果,當越來越多帶著潛在誤解的人看到了這些信息之后,又驗證了他們的偏見和假設(shè),“自我應(yīng)驗的預言”成為了這個問題的核心?;谌斯ぶ悄芎退惴ǖ木W(wǎng)絡(luò)把人們帶入到了這種自我應(yīng)驗的時代——算法誤判了我們的特質(zhì),而這些錯誤的特質(zhì)進而成為了我們真正的特質(zhì)。
當個人化的媒介與特定的人的心理機制結(jié)合后,我們會發(fā)現(xiàn)身份塑造媒體的同時,媒體也在影響個體相信和關(guān)心的事物。當你點擊一條關(guān)于移民的新聞鏈接時,表示你對那鏈接有興趣,這代表你未來比較可能點擊同一主題的文章和新聞,媒體進而會向你推薦這一個主題。個體就這樣被困在一個信息的閉環(huán),反復看見的都是自己想看的信息。如上所述,當個體的身份從一開始就被誤解,這種奇怪的模式就會開始出現(xiàn),這也就是傳播學中經(jīng)常提到的“信息繭房”。
因此,盡管網(wǎng)絡(luò)提供的信息來源廣泛,選擇也多得令人目不暇接,深居算法和過濾罩里的我們卻無緣接觸多數(shù)的信息。雖然網(wǎng)絡(luò)能夠讓我們以多種身份在網(wǎng)絡(luò)上闖蕩,個人化的經(jīng)濟學卻經(jīng)我們逼向死角,個人觀因此在原地踏步。盡管網(wǎng)絡(luò)的潛力在于解放知識、松綁控制,實際上卻逐漸收窄我們的視野,限制我們獲得的機會,這些權(quán)力則集中在少數(shù)人或者利益集團身上,在事實上形成少數(shù)霸權(quán)。
個人化最令人擔憂的是,多數(shù)的用戶看不見個人化的機制,無從控制個人化的行為。我們甚至察覺不出,各人看見的網(wǎng)絡(luò)越來越不一樣了。就算網(wǎng)絡(luò)知道我們是誰,我們也無從了解網(wǎng)絡(luò)對我們的觀感,如何運用我們的個人信息。科技的初衷是讓人類更好地控制日常生活,但如今互聯(lián)網(wǎng)算法帶來的結(jié)果卻是日益剝奪我們選擇的權(quán)力。
刻板印象在個人層面上可以被看作是在人的大腦中快速運轉(zhuǎn)的語言模型,這種模式當然是有缺陷的、不完整的,或者是根據(jù)籠統(tǒng)、模糊的感性數(shù)據(jù)建立起來的,互聯(lián)網(wǎng)的算法則在日益提供這種“數(shù)據(jù)”。由上述的認知結(jié)構(gòu)可以推斷,持有某種偏見的個人不會花大量的時間去反思進而修正他們的心理模型,相反,他們的偏見往往會隨著“選擇性確認”的加深升級為信仰的可能。這種心理模型有巨大的傷害性,由于缺少檢驗假設(shè)的必要環(huán)節(jié),同時忽視反面例證,因此這種刻板印象更加是由隨機數(shù)據(jù)采集和假設(shè)所驅(qū)動,被證實性的偏見強化的心理“算法”。
簡言之,前互聯(lián)網(wǎng)時代就存在的此種刻板印象在機制和傷害性上同本文所講的數(shù)據(jù)算法十分相似。二者的相似性體現(xiàn)在其所具有的社會建構(gòu)屬性,迪爾凱姆(èmile Durkheim)解釋過一種普遍存在的社會現(xiàn)象,叫做社會事實(Social Fact):一切行為方式,不論它是固定的還是不固定的,凡是能從外部給予個人以約束的,或者換一句話說,普遍存在于該社會各處并故有存在的,不管其在個人身上的表現(xiàn)如何,都叫做社會事實。簡單地說,社會事實就是外在于個人,卻能制約個人行為社會現(xiàn)象。一類典型的社會事實就是公共情緒,比如集會時煽動起來的仇恨、沖動、民族自豪感等等。迪爾凱姆認為,社會事實產(chǎn)生于系統(tǒng)的教育體系和日常生活的潛移默化。這就和網(wǎng)絡(luò)世界的文化偏見產(chǎn)生了機制上的差異,基于網(wǎng)絡(luò)世界的偏見更加是一種“無聲無息”的狀態(tài),是透過被大眾認為是最具有中立性的“技術(shù)”形塑的。[12]就像薩莉亞·烏莫賈·諾布爾(Safiya Umoja Noble)在他的Algorithms of Oppression中發(fā)現(xiàn)的,在google搜索主題詞“Beautiful people(漂亮的人)”的前二十張圖片里,漂亮的人有十七張白種人的面孔,三張黑種人。而在主題詞“Ugly people(丑陋的人)”搜素結(jié)果的前二十二張圖片里,盡管他們的面孔因為扭曲而不好辨識,我們?nèi)匀豢梢源蟾艢w納出有八張有比較明顯的白種人特征,九張黑種人,三張拉美混血裔,兩張黃種人。[13]“搜索引擎”其實是用戶的價值觀和信仰的鏡面反映,技術(shù)被賦予的“科學性”化身讓用戶對于搜索結(jié)果深信不疑,妨礙了對于結(jié)果的反思和修正。因此如果我們相信線下的刻板印象可能是公共建構(gòu)出的一套偏見機制的話,線上的刻板印象則是一小部分代表技術(shù)中立主義的程序員和算法工程師同使用搜索引擎的用戶共同建構(gòu)并維系的。被“偏見”的族群本就是信息貧民(Information Have—less),在其生活的社區(qū)中,他們的家人、朋友、族人大多信息素養(yǎng)不高。而算法及其導致的偏差式的刻板印象會加劇他們在網(wǎng)絡(luò)空間中的邊緣化及污名化,其結(jié)果就是互聯(lián)網(wǎng)上更加激化的族群矛盾。[14]這種線上的矛盾往往會被拖拽到線下,可能引發(fā)更為嚴重的現(xiàn)實后果,這種惡性循環(huán)就是算法偏差的典型特點。
技術(shù)有著強大的改造世界和積聚能源的力量,但是在具體的文化場景之下,卻要為規(guī)則或者某種精神所支配。[15]針對前面所述的問題,筆者認為要從三個層面思考支配技術(shù)的“規(guī)則”。
首先,從政府的層面來說,需要對信息時代的公共領(lǐng)域和資源有全新的認識。隨著數(shù)字生活的全面開戰(zhàn),公眾對于信息的消費需求越發(fā)強烈,商業(yè)性的力量先于政府介入其中并開始控制信息的供給。正常的競爭本無可厚非,既符合商業(yè)邏輯,也節(jié)約了公共資源。然而商業(yè)的逐利本性和壟斷操縱野心讓公共信息供給領(lǐng)域未來的發(fā)展走向歧途,甚至某些巨頭企業(yè)為了滿足投資者的需求開始在搜索引擎中置入非正當、非正義的算法。這是一個全新的領(lǐng)域,需要政府的主動介入干預,合理控制企業(yè)在公共信息提供方面的任意性和商業(yè)性導向。政府需要從公共利益的角度出發(fā),對算法推薦進行一定規(guī)制,在這個方面,中國法律已經(jīng)有了一定的探索。一方面,規(guī)制網(wǎng)絡(luò)運營者對個人信息的收集和使用,從而確保網(wǎng)絡(luò)運營者對個人信息的收集和使用建立在個人同意基礎(chǔ)上。例如,《中華人民共和國網(wǎng)絡(luò)安全法》第四十一條規(guī)定,網(wǎng)絡(luò)運營者收集、使用個人信息,應(yīng)當遵循合法、正當、必要的原則,公開收集、使用規(guī)則,明示收集、使用信息的目的、方式和范圍,并經(jīng)被收集者同意。正在全國人大常委會審議的《個人信息保護法》更是全面的規(guī)制了網(wǎng)絡(luò)運營者對個人信息的收集和使用。另一方面,為進一步保障用戶對個性化算法的控制權(quán),法律還賦予個人以退出權(quán),即個人可要求網(wǎng)絡(luò)運營者不對其進行基于個人信息的算法推薦。例如,《中華人民共和國電子商務(wù)法》第十八條規(guī)定:“電子商務(wù)經(jīng)營者根據(jù)消費者的興趣愛好、消費習慣等特征向其提供商品或者服務(wù)的搜索結(jié)果的,應(yīng)當同時向該消費者提供不針對其個人特征的選項,尊重和平等保護消費者合法權(quán)益?!薄秱€人信息保護法》(草案二次審議稿)第二十五條第二款規(guī)定:“通過自動化決策方式進行商業(yè)營銷、信息推送,應(yīng)當同時提供不針對其個人特征的選項,或者向個人提供拒絕的方式。”
其次,從企業(yè)來說,在保證商業(yè)利益的前提下,內(nèi)置于提供公共信息的數(shù)字產(chǎn)品的算法應(yīng)該強調(diào)“多元性”,例如瑞士的報紙Neue Zürcher Zeitung(NZZ)最近開發(fā)了一款App——the Companion。像大多數(shù)智能新聞終端一樣,這款App也通過機器學習生成個人算法,給用戶推送個性化的新聞信息流。但與眾不同的,算法會確保這一系列新聞中包含一個“驚喜”,也就是超出讀者偏好范圍之外的內(nèi)容。類似地谷歌瀏覽器的“逃離泡沫”(Escape Your Bubble)插件也在做同樣的努力,這款插件可以根據(jù)用戶的閱讀習慣,反向推薦調(diào)性積極、易于接受的內(nèi)容。用戶每次訪問Facebook時,插件會將不同視角的文章自動導入用戶的信息流。多元提供了用戶逃離“信息舒適區(qū)”的可能性,更加多元和豐富的資訊有助于改善今天數(shù)字信息的生態(tài)。這就要求算法工程師在制作算法的時候有意識地通過更加合理的技術(shù)增加奇遇、多添一些人性,對微妙的身份差異敏感一些,主動宣傳公共議題并培養(yǎng)公民精神,用更多的“道德算法”解決之前的技術(shù)偏見問題。同樣作為公共信息的重要來源,頭部搜索引擎公司需要繼續(xù)強化“信息把關(guān)人”的職能,肩負起社會責任,傳播人文精神,為用戶提供有價值的閱讀,真正讓重大新聞能看到、有人看,防止過度算法操控下劣質(zhì)信息的生產(chǎn)和分發(fā)。
最后,從用戶的角度來說,應(yīng)當保持足夠的“網(wǎng)絡(luò)理性”?!熬W(wǎng)絡(luò)理性”不應(yīng)僅僅體現(xiàn)在如何防止網(wǎng)絡(luò)詐騙,如何不傳謠姓謠這樣的問題上,而應(yīng)該引導網(wǎng)民保持信息選擇的知識理性。用戶應(yīng)該認知到算法推薦的信息是經(jīng)過個性化算法過濾的,存在偏差。在有必要的時候,用戶應(yīng)該有意識的使用法律賦予的退出權(quán),不讓網(wǎng)絡(luò)運營者進行個性化的算法推薦,從而保護自己的信息選擇權(quán),獲得較為全面的信息。提高信息搜索、信息篩選的能力更是未來融入數(shù)碼世界的核心所在,良性信息已經(jīng)成為現(xiàn)代公民重要的生存資源,獲取資源能力的關(guān)鍵就在于網(wǎng)絡(luò)素養(yǎng)的提升,這也是技術(shù)賦權(quán)的重要內(nèi)容。
類似像百度這樣的搜索平臺不生產(chǎn)內(nèi)容,但對于信息的排序(Ranking)及其視覺呈現(xiàn)就體現(xiàn)了其作為“管理者的權(quán)力”(curatorial power)。[16]平臺主體如何將各類信息進行分級排序呈現(xiàn)在公眾面前,這其中暗含了信息黑箱,對于平臺的算法管理成為了今天數(shù)字時代重要的管理學內(nèi)容?!翱梢娦浴弊鳛殛P(guān)鍵概念出現(xiàn)在當下算法管理的討論中,當我們把算法管理的顯式排名(或隱藏的排名,如播放列表)稱為“新的可見性機制”時,我們指的是有序列表在平臺經(jīng)濟中吸引其他參與者注意的方式。但有些人可能會認為,算法管理的工具指向一種不同的可見性:用戶在一個可見的籠子里,受到一種新的,甚至更普遍的管理注視,這一觀點將算法管理視為新的全景敞視。但是,從他們對評估者和被評估者之間在互動層面上以及用戶和平臺所有者之間在結(jié)構(gòu)層面上權(quán)力不對稱的深刻觀察來看,我們并沒有得出這樣的結(jié)論:這些敞視的權(quán)力源于搜索引擎平臺通過高度官僚化、自動化的實踐將用戶置于正式的等級權(quán)力結(jié)構(gòu)中。平臺公司的確有很強的基于信息可見性的權(quán)力,而且,算法管理的可視屬性——同時在非常大的范圍內(nèi)注冊,同時也讓諸多的細節(jié)可見——的確是非同尋常的。平臺展示了集中的權(quán)力可與直接的控制脫鉤,在平臺算法管理中,控制是去中心化和離散的。
時至當下,以微信、淘寶和百度為代表的國民應(yīng)用已經(jīng)不僅僅是商業(yè)平臺,同時也是具有中國特色的數(shù)字基礎(chǔ)設(shè)施的一部分。[17]自第一批互聯(lián)網(wǎng)公司成立以來,我國政府各級部門一直努力保持對數(shù)字通信技術(shù)的管控。數(shù)字平臺也受到了監(jiān)管和監(jiān)督。習近平總書記在2016年的“網(wǎng)絡(luò)安全和信息化工作座談會”上的講話中說:“網(wǎng)絡(luò)空間是億萬網(wǎng)民共同的精神家園。互聯(lián)網(wǎng)不是法外之地,利用網(wǎng)絡(luò)進行欺詐活動,散布色情材料,進行人身攻擊,兜售非法物品,等等,這樣的言行也要堅決管控,絕不能任其大行其道。沒有哪個國家會允許這樣的行為泛濫開來。我們要本著對社會負責、對人民負責的態(tài)度,依法加強網(wǎng)絡(luò)空間治理,加強網(wǎng)絡(luò)內(nèi)容建設(shè),做強網(wǎng)上正面宣傳,培育積極健康、向上向善的網(wǎng)絡(luò)文化?!盵18]政府通過大規(guī)模的基礎(chǔ)設(shè)施建設(shè)將這些互聯(lián)網(wǎng)企業(yè)的平臺納入了既受市場保護又受國家監(jiān)管的場景之中,是一種不同于美國和歐洲平臺企業(yè)管理體制的新模式,這種“公私合作”的模式既可以解決互聯(lián)網(wǎng)企業(yè)在國內(nèi)市場和海外市場的競爭問題,同時也解決了國家對于平臺企業(yè)的監(jiān)管問題。大型平臺企業(yè)作為以逐利為核心的營利性公司,必然以利潤最大化作為價值追求,當其以利潤最大化為唯一目標時,就較為容易借助“算法”等“數(shù)據(jù)濫用”手段走向市場壟斷的“歧路”,形成贏者通吃、一家獨大的局面。同時,監(jiān)管的難度依然不小,因為消費者對互聯(lián)網(wǎng)平臺的使用過程本身就是數(shù)據(jù)收集、數(shù)據(jù)控制、數(shù)據(jù)使用的過程,隱私性與便利性互相交織的客觀存在造成了監(jiān)管“飛地”,這都容易出現(xiàn)更大范圍和影響力更大的公共問題?;貧w互聯(lián)網(wǎng)的本質(zhì),在互聯(lián)網(wǎng)發(fā)展管理中引入算法管理,讓人文精神浸潤互聯(lián)網(wǎng),“讓互聯(lián)網(wǎng)更好造福人民”應(yīng)當成為技術(shù)之初心。