摘要:目的:文章研究設計協(xié)同的算法偏見治理策略,以更好地幫助計算機技術融入社會,解決算法偏見問題,提高人們的生活質量。方法:算法偏見在個性化推薦中引發(fā)了諸多社會問題,如招聘廣告的性別偏見、消費平臺的大數據“殺熟”現象以及“信息繭房”效應。傳統(tǒng)的算法治理方法多從技術角度出發(fā),難以全面應對復雜的社會性問題。文章從設計學視角出發(fā),提出基于設計協(xié)同的算法偏見治理框架。該方法強調多學科協(xié)作,通過設計學手段提高算法的透明度,優(yōu)化偏見的識別機制,并提高公眾對技術的接納度,力求全面應對算法偏見帶來的復雜社會問題。結果:通過構建這一基于設計協(xié)同的算法偏見治理框架,文章展示了設計在算法治理中的重要作用。該框架能夠有效提高算法的透明度,糾正算法偏見,使公眾理解和接納技術,為解決個性化推薦中的算法偏見問題提供了新的思路和工具。結論:文章提出的基于設計協(xié)同的算法偏見治理框架,不僅能豐富算法治理的跨學科視角,還能為解決算法偏見引發(fā)的社會問題提供切實可行的路徑。通過多學科協(xié)作和設計學的介入,該框架有望推動算法系統(tǒng)的社會責任感建設,從而更全面地應對算法偏見帶來的挑戰(zhàn)。
關鍵詞:算法偏見;個性化推薦;設計協(xié)同;算法治理
中圖分類號:TP391.3 文獻標識碼:A 文章編號:1004-9436(2024)19-0-05
本文引用格式:田家婧.設計協(xié)同算法偏見治理研究:以個性化推薦為例[J].藝術科技,2024,37(19):-.
0 引言
在數字化社會,算法不僅是技術的產物,也具有深刻的社會屬性和文化意義。個性化推薦作為算法技術的重要應用場景,高效性與便捷性受到廣泛關注,但隨之而來的算法偏見問題也引發(fā)了公眾的擔憂。例如,在招聘廣告中,算法進一步放大了社會偏見;在電商平臺,大數據“殺熟”損害了用戶權益;在獲取信息時,“信息繭房”效應進一步削弱了信息傳播的多樣性。這些問題不僅影響社會公平,還削弱了公眾對算法技術的信任感,將“人—技術—社會”關系推向“去未來化”的深淵[1]。
當前的算法治理研究主要集中于技術驅動路徑,如改進數據質量、優(yōu)化模型設計以及增強算法能力。由于算法的社會性嵌入,這些方法難以全面解決復雜的社會性偏見問題,所以人文社科對此類問題的介入必不可少。從設計學角度來看,設計具有社會文化屬性與治理屬性,設計實踐能夠引導多方協(xié)作,創(chuàng)造性地解決算法偏見問題。本文試圖構建一個基于設計協(xié)同的算法偏見治理框架,探索設計在算法治理中的角色與作用。
1 個性化推薦中的算法偏見:表現與成因
2017年,美國加利福尼亞州阿西洛馬(Asilomar)舉行了關于人工智能(AI)安全性的國際會議。在該會議中,來自全球的學者、專家、企業(yè)領袖以及政策制定者共同討論了人工智能技術的發(fā)展、潛在風險以及治理問題,并聯(lián)合簽署了《阿西洛馬人工智能原則》(Asilomar AI Principles)[2]。該原則強調技術發(fā)展過程中的安全性與透明性,提出人工智能的發(fā)展應符合“人的價值”。這意味著在數字社會,技術不應成為侵害公共利益的工具,算法也不應成為人們社會生活的困擾。然而,算法由人類創(chuàng)造,以算法為基礎的機器反映了社會中常見的刻板印象與世界觀,需要特別注意這一點,以防止算法偏見造成的社會不公。
算法偏見可以分為數據導向偏見、選擇偏見、潛意識偏見與互動偏見[3]。數據導向偏見是指用來訓練算法的原始數據,也就是數據庫本身存在的初始偏見,計算機不會質疑收到的數據是否公平,它們“只是單純地尋找其中的模式”。就如同人們告訴孩童怎么做是對的,應該設置什么樣的目標。在這一過程中,機器學習到了什么樣的偏見,輸出內容便會呈現出相應的價值觀。
選擇偏見是指用于訓練的數據集過度代表了某一個群體或種族,從而間接放大了該群體的權力,使算法對其有利,這種行動的代價便是犧牲其他群體的利益。以招聘為例,公司在使用人工智能篩選簡歷時,使用歷史上男性主導的招聘數據,會導致女性申請者的簡歷被推薦的概率降低。
潛意識偏見是指算法將錯誤的觀念與種族、性別等因素聯(lián)系起來,這是社會不公平現象在計算機代碼當中的延伸。算法設計團隊的文化背景、教育程度、性別、種族等都可能造成相應的算法偏見,如男性開發(fā)者可能無意中忽略女性用戶的需求。
選擇偏見與潛意識偏見是數據導向偏見的深層表現,歷史數據的缺失、過度采樣或不均衡樣本均會導致模型無法全面代表所有群體,從而產生推薦過程中的歧視與偏好?!捌妬碓从跀祿牟黄胶狻保?],但偏見的存在并不是“獨立于使用環(huán)境的固有特征”[5]?;悠姷男纬删陀兴煌怯脩舾鶕麄兣c算法的交互方式對算法產生影響。當機器被教導向周圍的人學習時,它們無法決定保留或丟棄哪些數據,或者判斷數據的對錯。它們吸納了自身所得到的一切——不論美好或丑陋,并以此為基礎作出決策。Microsoft的聊天機器人Tay就是如此,它學會了用戶輸入的惡意言論并進行模仿,發(fā)表了大量帶有種族歧視、性別歧視等令人不適的言論。
與人類不同,算法不會說謊,它輸出的內容便是它所認為的真理。如果結果存在偏差,則一定能從其所學習的數據中(訓練數據庫或交互數據)找到原因。正如前文提到的簡歷的篩選,人類可以用謊言解釋不雇傭某人的原因,但AI不能,它會直截了當地將社會不公平現象呈現出來。與其將算法偏見視作威脅,不如將其視作社會問題的呈現,并據此尋求解決方案。
2 設計協(xié)同:治理算法偏見的挑戰(zhàn)
2.1 個性化推薦帶來的社會問題
算法偏見是社會不公平現象在計算機代碼中的延伸,它放大了社會中已然存在的偏見與歧視。在個性化推薦算法驅動的數字平臺上,算法的推送依賴歷史數據中的特定變量,如性別、種族、年齡等。如果數據本身存在偏差,算法模型就會將其放大,進而導致推薦系統(tǒng)忽視其他因素的多樣性。這會造成社會不公與機會不均的現象,導致某些群體(如女性、少數族裔、低收入群體等)在社會和經濟活動中處于劣勢。算法無法正確推送與這些群體相匹配的工作機會與產品推薦,他們也無法從算法中獲取相對有利的信息,隨之而來的便是社會不公的加劇。
此外,算法會根據用戶的點擊、瀏覽、購買等行為數據調整個性化推薦。如果推薦系統(tǒng)過度關注用戶的短期行為(如點擊率),根據用戶的興趣和偏好篩選信息,則可能導致某些類型的內容反復推薦,造成用戶信息獲取的同質化,從而加劇“信息繭房”“過濾氣泡”問題,限制用戶的視野與選擇。這不僅會影響信息的廣泛傳播,使用戶在特定的信息環(huán)境中難以獲得不同的視角,還會使社會成員排斥不同意見與文化,加劇社會分裂和偏見[6]。
在商品購買方面,有研究指出大數據和算法可能成為控制消費者和市場的工具[7]。平臺利用算法技術分析用戶的消費習慣、瀏覽記錄、購買歷史等數據,結合用戶對平臺的忠誠度與支付意愿,對不同的用戶進行差別定價,尤其是對老用戶(即熟客)實施較高的價格策略,即人們常說的大數據“殺熟”??偟膩碚f,大數據“殺熟”現象可以被看作算法偏見的一種表現,但其本質是平臺基于大數據分析和用戶行為數據作出的不公平定價決策。這種平臺利用信息的不對稱增加盈利的行為會侵害用戶的權益,削弱用戶對平臺的信任感,促使用戶對個性化推薦算法產生抵觸心理,從而降低公眾的算法接納度。
總體而言,個性化推薦算法在優(yōu)化用戶體驗、為用戶提供個性化服務的同時,會加劇社會不公,促進“信息繭房”的形成,造成大數據“殺熟”現象。這些問題會削弱公眾對算法系統(tǒng)的信任感,不利于人機合作良性發(fā)展。
2.2 設計協(xié)同治理面臨的社會挑戰(zhàn)
設計學協(xié)同算法偏見治理過程中面臨多個層面的挑戰(zhàn):如何確保社會公平、增強公眾對算法的信任感、協(xié)調跨學科協(xié)作,以及如何應對技術依賴和權力結構的不平等問題。
設計學針對算法偏見問題的協(xié)同治理旨在提升算法的透明度和用戶賦權,但如何確保算法推薦內容的平衡,避免放大社會不公仍是一個關鍵問題。個性化推薦對人們日常生活的助推依賴數據和模型,但數據的收集和處理過程往往存在偏見。伊格納斯·卡爾波卡斯在其著作《算法治理》中指出,“數據既非客觀,亦非中立,僅僅是收集過程中固有實踐的結果”[8]35。算法系統(tǒng)的設計容易因數據的不平衡和算法學習的偏見,導致某些群體的權益被忽視或損害。因此,設計方法需從更廣泛的社會視角出發(fā),確保在多元化環(huán)境中實現真正的公平。
此外,算法偏見問題引發(fā)了公眾對算法的不信任,尤其是在涉及個人隱私、安全和公平時。Hargittai等人的研究提出,算法的黑箱特性、缺乏透明性和解釋能力,使得用戶難以窺探其具體運作方式,從而影響人們對算法系統(tǒng)的信任與合作[9]。因此,設計協(xié)同試圖通過提高透明度與解釋性來增強公眾信任感,但如何在難以窺視的算法系統(tǒng)中實現這一目標,同時避免交互過程過度復雜以及用戶被信息淹沒,仍面臨許多挑戰(zhàn)。因此,如何平衡算法透明度與用戶易用性,需要從用戶角度展開進一步探討。
針對算法治理的相關研究,跨學科協(xié)作是關鍵,主要涉及技術開發(fā)者、數據提供者、政策制定者以及最終用戶,這些主體之間的協(xié)作與溝通是開展研究的基礎。然而,如何協(xié)調多方利益、達成共識是一個復雜的過程。Friedman等人強調,算法治理涉及多個領域的協(xié)作,且每個主體之間的利益可能存在矛盾,若不能有效協(xié)調,可能導致治理失靈[10]。因此,設計學協(xié)同治理的一種重要方式便是應用系統(tǒng)性的思維分析問題,從人與技術物之間的互動關系中找到解決算法問題的關鍵。但如何平衡不同主體的權益,則需要不同學科積極協(xié)作深入研究。
權力結構與技術依賴是設計協(xié)同治理過程中需要面對的重要挑戰(zhàn)。算法系統(tǒng)的復雜性和數據的主導權往往掌握在少數人手中,這進一步加劇了技術與社會之間的不平等。技術持有者、技術壟斷者通過數字技術架構大眾的生活、規(guī)制人們的行為,而人們則依據算法的分析與決策,將其視為“能夠實現我們夢想的萬靈藥”[8]20。算法權力在社會中的日益滲透加劇了人類主體性的消解。因此,設計學應關注如何通過賦能用戶,增強他們的主動性和決策權,這不僅有助于提升人類的能動性,也能有效防止個體的異化。
3 創(chuàng)新與實踐:設計協(xié)同的算法偏見治理框架
3.1 設計協(xié)同的創(chuàng)新性潛力
在算法對社會的嵌入性不斷加強的當下,設計學已經由傳統(tǒng)面向設計物的功能導向轉變?yōu)閷Α叭恕夹g—社會”關系的關注,這一轉變使設計具備明確的協(xié)同算法偏見治理的可能性。設計可以通過明確的價值導向,促使算法開發(fā)者在設計過程中關注公平性、隱私保護和用戶權利;通過明確的設計實踐,如數字平臺的界面設計,提高算法的透明度,加深用戶對算法存在的感知與理解。
設計所強調的參與式,能讓用戶在算法系統(tǒng)的開發(fā)和決策中發(fā)揮更大的作用。通過參與式設計方法,用戶可以通過自身的算法知識,如算法民間理論,針對使用體驗提出反饋和建議,從而更有效地發(fā)現并解決用戶視角下的偏見問題,優(yōu)化用戶體驗。體驗設計的發(fā)展使設計更多地關注人的情感,是一種通過關注用戶的情感、行為和需求,優(yōu)化人與技術交互過程的設計實踐。從體驗出發(fā),深入探索用戶與算法之間的互動與聯(lián)系,將算法從被使用的工具轉向用戶與平臺之間的情感連接器[11],從而減少算法偏見帶來的影響,削弱用戶對算法的不信任感。設計學能夠通過這些方式提高算法系統(tǒng)的透明度,使用戶更好地理解和控制算法,減少偏見的影響,促進人與技術良性互動。
總的來說,這種設計協(xié)同的算法偏見治理模式,是通過加強算法與使用者之間的互動聯(lián)結、增進彼此之間的理解與合作發(fā)揮作用的,不同于技術層面純粹的技術開發(fā)與優(yōu)化。設計學通過關注技術的社會屬性,在算法偏見治理中發(fā)揮獨特的作用,使算法系統(tǒng)更加透明、公平和可解釋,加強用戶與算法之間的信任聯(lián)結與良性互動,解決社會不公、大數據“殺熟”、“信息繭房”等問題,使其成為“普通人友好型算法”。
3.2 設計協(xié)同算法偏見治理模型
設計協(xié)同的算法偏見治理模型(見圖1)是一種以用戶的需求與體驗為中心,通過界面設計提高算法透明度、增強用戶能動性、加強用戶算法信任與合作的過程。它著重強調用戶與算法之間的互動對解決算法問題的重要性,為個性化推薦算法造成的社會不公、大數據“殺熟”、“信息繭房”問題提供了獨特的解決方案。當然,該模型僅僅從界面設計角度探討設計協(xié)同的可能性,未充分發(fā)揮設計的獨特優(yōu)勢,具有一定的局限性,還需要進一步研究與優(yōu)化。
界面設計與用戶賦權是提高算法透明度、打破“信息繭房”的重要因素,也是設計協(xié)同算法治理的有效途徑。通過可視化工具和交互優(yōu)化,界面設計能夠加深用戶對算法系統(tǒng)運行過程的理解,提高算法的透明度。例如,通過可視化推薦算法背后的邏輯和決策過程,強調“猜你喜歡”“你關注的”等元素的呈現,用戶能夠更直觀地理解推薦內容的來源,有助于減少誤解和不信任。此外,交互式數據摘要、數據流動可視化等工具,能夠使用戶在個性化推薦系統(tǒng)中看到數據的篩選和處理方式,這有助于用戶更準確地識別算法可能存在的偏見。
用戶賦權則強調通過設計增強用戶的能動性,使他們主動參與和調整算法推薦的過程。根據設計學研究,設計師可以通過提供反饋通道和多元選擇功能,幫助用戶在算法系統(tǒng)中獲得更大的控制權與決策權。例如,基于反饋的調整機制或用戶生成推薦內容的功能,能夠使用戶反映其興趣和需求(不喜歡、屏蔽、相似過多等),從而跳出“信息繭房”,接觸到更廣泛的信息。小紅書平臺的雙列多視圖展示的布局在一定程度上強化了人機互動中人的能動性,為用戶選擇留出更大的自主選擇空間。這種賦權使用戶不再僅僅被動接受算法的推薦,而是能夠對內容生成和篩選過程進行干預,增強系統(tǒng)的透明性和用戶的自主權。
研究表明,用戶賦權和界面設計結合能夠顯著提高算法系統(tǒng)的公平性和信任度。通過優(yōu)化界面,為用戶呈現數據處理過程以及對推薦內容的反饋,能夠有效增強算法系統(tǒng)的公平性。此外,Friedman和Nissenbaum提出的價值敏感設計(VSD)框架,也強調了技術系統(tǒng)中設計協(xié)同的必要性,以減少系統(tǒng)中潛在的偏見問題。總之,界面設計和用戶賦權在設計協(xié)同的算法偏見治理中扮演著關鍵角色,設計師需要發(fā)揮自己的專業(yè)強項直面技術問題,從創(chuàng)新性視角探究算法帶來的影響與挑戰(zhàn)。
4 設計協(xié)同算法偏見治理的優(yōu)勢與局限
設計的參與性和體驗關注為治理算法偏見提供了全新的視角。本文基于設計協(xié)同的算法偏見治理框架,強調設計不僅作為技術優(yōu)化的補充,更作為促進社會責任與公平的核心力量。設計協(xié)同算法偏見治理的優(yōu)勢在于能夠從用戶體驗、社會文化等多維度出發(fā),構建更加人性化、透明且具有社會責任感的算法系統(tǒng)。然而,這一治理模式也存在一定的局限性,需要在實踐中不斷完善。
4.1 協(xié)同優(yōu)勢:用戶與算法的良性互動
設計協(xié)同的一個顯著優(yōu)勢在于能夠增強用戶與算法系統(tǒng)之間的互動性與信任感。個性化推薦算法往往帶有“黑箱”特性,用戶難以理解算法的決策過程和偏向性。設計協(xié)同可以幫助用戶感知算法的存在、理解算法工作機制,并提供更友好的界面和反饋機制,使用戶主動參與到算法的調整和優(yōu)化過程中。在設計協(xié)同算法治理模型中,設計可以通過直觀的反饋系統(tǒng)告知用戶算法如何影響他們的推薦結果,或者通過設置可調節(jié)的算法參數,使用戶根據自身需求定制推薦內容。這種設計不僅能提升用戶對算法的認知能力,減少不信任感與其他負面情緒,還能通過與用戶的互動,實現對算法偏見的實時反饋與修正,從而解決算法帶來的社會問題。
4.2 學科局限:算法技術的復雜性
盡管設計協(xié)同算法偏見治理框架具有提升透明度和增強用戶參與感的優(yōu)勢,但其實施過程中的技術復雜性也帶來了挑戰(zhàn)。首先,個性化推薦算法背后的數據處理和模型運算涉及高度復雜的技術細節(jié),對普通用戶而言,這些技術內容往往難以理解和掌握。即便通過設計改進增強了用戶對算法的感知能力,用戶仍可能面臨無法充分把握算法運作原理的困境。其次,算法偏見的識別和干預離不開持續(xù)的數據積累與反饋。即使設計協(xié)同能夠增強用戶對偏見的敏感性,但要實現全面的偏見修正,仍然需要大量的技術投入與持續(xù)的監(jiān)控機制,而這一過程涉及算法模型的不斷調整、數據采集的規(guī)范性以及人工智能技術的持續(xù)進步。因此,算法問題需要跨學科合作展開深入研究,本文只是提出一種新的研究思路,目的在于拓寬設計學的研究領域。
4.3 現實挑戰(zhàn):社會政治環(huán)境的干擾
設計協(xié)同算法偏見治理的實施也會受到社會政治環(huán)境的影響。國家主流的政治文化意識形態(tài)在信息傳播中占據絕大部分信息流,在數字平臺上,這些外部政治因素可能影響算法的設計方向。個性化推薦算法會根據國家政治情況對數據進行特殊篩選,這可能導致算法推薦內容的極端化或政治化,加劇算法偏見,從而造成社會分裂或偏見傳播。在這種環(huán)境下,設計協(xié)同的算法治理可能面臨外部力量的干擾,難以發(fā)揮預期的社會責任效應。因此,如何在保持設計創(chuàng)新的同時,平衡政治與社會的多重需求,仍然是設計協(xié)同算法治理模式實施的重要難題。
總體而言,設計協(xié)同算法偏見治理框架在提高算法透明度、促進用戶參與、推動社會公平方面具有顯著優(yōu)勢。然而,其實施過程中仍然面臨技術復雜性、文化適應性和社會政治環(huán)境等多重挑戰(zhàn)。在未來的研究與實踐中,如何優(yōu)化設計協(xié)同框架,增強其適應性與可操作性,仍需進一步探討。設計的介入與協(xié)同無疑為算法偏見治理提供了新的思路,但這一模式的成熟與普及還需要依賴跨學科的合作與長期的社會實驗。
5 結語
設計賦能算法、設計協(xié)同算法治理的探索,為解決社會公平問題提供了新的思路。當前社會中算法的嵌入帶來了新的文化創(chuàng)造與社會形態(tài),算法不僅僅是人們解決問題的理性化工具,更是與日常生活密不可分的社會文化的一部分。算法問題的解決方案不應局限于技術的優(yōu)化與突破,也應從人文社科視角感受算法的文化屬性,探究用戶與算法之間的互動帶來的效應。算法不可見并不意味著其不可感知,而人們對算法的感知能夠從心理層面突破算法的不透明性,使其褪去自身神秘的色彩。沒有了不可見、不可知的恐懼,算法問題帶來的社會負面影響便會得到緩解,用戶與算法之間也能夠實現基于信任的情感聯(lián)結。
本文主要研究個性化推薦中的算法偏見帶來的社會影響,探究算法偏見帶來的設計挑戰(zhàn),構建設計協(xié)同算法偏見治理框架,為解決算法問題尋求解決方案。鑒于這些探討,本文提出設計協(xié)同治理能夠加強用戶與算法之間的良性互動,將算法看作人(或者說社會)與技術物之間的聯(lián)結,為公眾技術接納和算法教育提供參考。
當然,算法偏見不僅僅表現在數字平臺的個性化推薦機制下,有關設計協(xié)同的模式也有在其他領域應用的可能,如可穿戴設計中的數據追蹤。此外,算法治理并不僅僅代表算法問題的治理路徑,算法由于具有社會屬性,因此擁有社會治理能力。算法治理是數字社會由于技術發(fā)展所形成的新型治理模式。這些構成了本文的研究局限,無法就其問題展開更加深入的探討。算法偏見治理是一項需要長期推動的跨學科合作研究,不僅需要關注技術的優(yōu)化與突破,也需要重點關注社會的發(fā)展與變革。
參考文獻:
[1] 托尼·弗賴.去未來化:一種新的設計哲學[M].施晗薇,譯.南京:江蘇鳳凰美術出版社,2024:25-43.
[2] Future of Life Institute. Asilomar AI Principles[EB/OL]. Future of Life Institute, (2017-05-15)[2024-10-01]. https://futureoflife.org/ai-principles/.
[3] Francisco Socal(2018). Bias in AI Algorithms: How Do We Keep It Out[EB/OL]. eeNews, (2017-12-06)[2024-10-01]. https://www.mwee.com/design-center/bias-ai-algorithms-how-do-we-keep-it-out.
[4] Miceli M, Posada J, Yang T. Studying up machine learning data: Why talk about bias when we mean power?[J]. Proceedings of the ACM on Human-Computer Interaction, 2022, 6(GROUP): 1-14.
[5] Friedman,B., Nissenbaum,H. Bias in computer systems. ACM Transactions on Information Systems, 1996, 14(3): 330-347.
[6] Caplan R, Boyd D. Isomorphism through algorithms: Institutional dependencies in the case of Facebook[J]. Big Data amp; Society, 2018, 5(1):1-12.
[7] 張愛軍.“算法利維坦”的風險及其規(guī)制[J].探索與爭鳴,2021(1):95-102,179.
[8] 伊格納斯·卡爾波卡斯.算法治理:后人類時代的政治與法律[M].邱遙堃,譯.上海:上海人民出版社,2022:18-36.
[9] Hargittai E, Gruber J, Djukaric T, et al. Black box measures? How to study people's algorithm skills[J]. Information, Communication amp; Society, 2020, 23(5): 764-775.
[10] Friedman B, Kahn P H, Borning A, et al. Value sensitive design and information systems[J]. Early engagement and new technologies: Opening up the laboratory, 2013(16): 55-95.
[11] 別君華,曾鈺婷.算法想象的平臺參與及情感網絡:基于“小紅書”的用戶分析[J].中國青年研究,2024(2):15-23.
基金項目:本論文為2024—2025年度四川美術學院重慶市研究生科研創(chuàng)新項目“算法治理:挑戰(zhàn)、權力關系與設計介入策略”研究成果,項目編號:CYS240644
作者簡介:田家婧 (1999—) ,女,研究方向:設計歷史與理論。