關鍵詞:智能傳播;生成式人工智能;技術邏輯;社會價值;算法倫理
生成式人工智能(Generative AI)和算法技術繼續(xù)以前所未有的速度發(fā)展,大語言模型驅動其改變著技術工具的屬性,并逐漸迭代成為智能平臺,驅動社會由外而內的適應性變遷,對社會的深遠影響引發(fā)了學術界與實踐領域的廣泛關注。2024年年初,生成式人工智能技術迎來新一輪升級浪潮——以OpenAI最新推出的多模態(tài)生成式人工智能研究項目Sora為代表,這一波技術革新顯著提升了人工智能在語言理解、圖像生成和復雜任務解決方面的能力。2024年末,OpenAI連續(xù)12天發(fā)布新應用,如o1正式版、Sora、Canvas,并在最后一天發(fā)布GPT-o3;谷歌在年末則一舉逆襲,其2024數據和AI趨勢報告直指AI智能體、多模態(tài)AI、企業(yè)搜索三大主導技術;Meta AI開發(fā)了一種全新的大型概念模型(LCM),使推理與語言表征分離,有可能徹底改變我們對語言模型的理解。
與此同時,全球范圍內,各地關于智能治理的法規(guī)政策也進一步調整,為2024年的智能傳播研究提供了鮮明的時代背景,使智能傳播領域成為技術創(chuàng)新與社會挑戰(zhàn)交織的前沿陣地。從生成內容的精確化到用戶體驗的個性化,智能技術正成為推動社會變革的核心引擎。然而,飛速迭代的技術及應用凸顯了技術與社會價值觀之間日益加大的張力,這種張力貫穿社會不平等、隱私保護、新聞倫理等多個領域。
本文旨在探討技術與社會價值的沖突與融合,通過系統梳理和分析2024年的智能傳播研究,從算法不平等、平臺勞動、新聞倫理、隱私保護等多個領域出發(fā),探討技術邏輯與社會價值之間的張力及其協同可能性。本研究的分析對象是國內外新聞傳播學科頂尖期刊的智能傳播論文。在國內期刊中,本研究選擇了六種具有代表性的核心期刊,分別是《新聞與傳播研究》《國際新聞界》《新聞大學》《現代傳播》《新聞記者》和《新聞界》;在國外期刊中,本研究依據2024年發(fā)布的最新版《期刊引證報告》,將傳播學類目下排名前20的期刊納入綜述范圍。通過分析,本研究提出“技術與社會價值的沖突與融合”這個論題,并挖掘沖突背后的深層原因和融合路徑,希望為技術治理、社會決策及未來研究提供理論與實踐上的參考。
一、智能技術與社會價值的沖突
技術的快速進步正在深刻改變著人類社會的運作方式。然而,這一過程帶來的影響是復雜的,技術的設計邏輯、運作機制及其在社會中的嵌入方式,往往在無意中與核心社會價值產生沖突。這種沖突體現在多個領域,就當今變革性的人工智能技術而言,2024年學術界最關注的是其帶來的社會不平等的再生產、勞動關系的異化、新聞業(yè)公共性的侵蝕以及隱私保護的脆弱化。
(一)算法偏向與社會不平等的再生產
智能算法的內在偏向性已成為智能傳播領域的核心爭議之一。盡管算法在設計之初被賦予了中立的技術目標,但其在應用過程中可能加劇既有的不平等。研究發(fā)現,算法在內容推薦中的偏向性,不僅導致資源的不公平分配,還強化了社會刻板印象。一項基于智能體的測試研究發(fā)現,短視頻推薦算法傾向于向高端設備用戶推薦更高質量的內容,弱勢群體則被排斥在“優(yōu)質”信息之外,這種現象被稱為“第零層”數字鴻溝。 類似地,圖像生成AI在輸出結果中復制甚至放大了種族刻板印象。
算法的不平等影響還體現在其對弱勢群體的隱性要求上。膚色較深的用戶常因算法的偏見而不得不調整自己的使用方式以適應技術,這種“適應性”盡管減少了不平等待遇,但需要用戶付出額外的時間與心理成本,進一步加重了隱性負擔。 這些現象表明,算法的社會影響遠不止技術決策層面,其作用機制嵌入權力關系的再生產邏輯。
(二)平臺經濟與勞動的異化
平臺經濟的崛起為創(chuàng)作者提供了前所未有的機會,算法驅動的規(guī)則體系則成為創(chuàng)作者融入平臺經濟的重要依托。過去的研究多集中于平臺通過控制或規(guī)訓勞動者實現權力再生產的方式,2024年的研究則更聚焦于平臺與勞動者之間的協作適配關系。平臺經濟不僅改變了勞動的組織形式,也重塑了勞動者與平臺之間的權力關系。在平臺經濟中,算法成為勞動管理的核心工具,勞動者的工作內容、時間分配甚至行為模式都被嵌入算法規(guī)則之中。研究發(fā)現,外賣平臺的算法不僅分配訂單,還在任務出錯時要求騎手進行“修復勞動”——在算法失靈時,平臺會將任務重新分配給騎手,要求他們修復這些問題,以維護平臺、完成既定目標。這種修復勞動雖然是平臺運作的關鍵環(huán)節(jié),卻往往被隱藏和忽視,勞動者的貢獻也未被公正地體現在其勞動價值中。
此外,算法驅動的勞動規(guī)訓使勞動者的自主性進一步受限。有研究認為,便利店依賴的數據監(jiān)控系統的控制算法正在逐步接管勞動者的工作內容(代替后者進行勞動),將人類勞動者降級為機械化的執(zhí)行工具。與此同時,創(chuàng)作者經濟中的“取悅算法”(迎合算法)凸顯了勞動的工具化趨勢:為了滿足算法的推薦邏輯,創(chuàng)作者需要調整內容生產策略,而這種調整在某些情況下甚至可能與個人價值觀相違背。公眾對用戶能動性的不同理解影響了對其的道德評價——“取悅算法”究竟是創(chuàng)作工藝的一部分,是一個應受譴責的行為,還是一種無奈之舉?
然而,勞動者并非完全被動地接受算法的規(guī)訓。研究顯示,邊緣群體創(chuàng)作者常通過策略性隱身以避免平臺的監(jiān)控、騷擾和污名化,同時在必要時爭取特定的可見性來維護其品牌。這種行為模式表明,勞動者與算法之間的關系并非單向的控制與被控制,而是一種復雜的動態(tài)博弈。
(三)新聞業(yè)的倫理困境與公共性挑戰(zhàn)
新聞業(yè)是另一個深受算法影響的領域。傳統上,新聞被認為是維護社會公共性的重要機制,但算法的介入正在重新定義新聞的價值邏輯。個性化推薦系統優(yōu)先考慮用戶偏好和點擊率,這樣可能提升了用戶的體驗,但也削弱了新聞的多樣性——一項基于真人用戶的實驗發(fā)現,個性化推薦增加了用戶對軟新聞的接觸,同時卻減少了話題和議程的多樣性。一項對YouTube的審計研究發(fā)現,該平臺的推薦系統更傾向于將用戶從高社會價值的信息引向娛樂內容,從而削弱了信息的公共性。
此外,算法的新聞價值判斷標準與傳統新聞倫理之間存在顯著矛盾。研究表明,新聞價值的關鍵要素(如時效性、新穎性、顯著性和重要性)在算法推薦中表現著顯著的彈性。這種彈性反映了多方力量對新聞價值的重新塑造。然而,新聞機構并未完全放棄對算法的主導權。一些媒體正在嘗試通過自主設計的算法項目重建新聞價值體系,但這種嘗試也面臨技術邏輯與職業(yè)信念之間的摩擦。比如,數據科學家在開發(fā)新聞系統時,在處理新聞倫理界定、新聞相關性判定、新聞首頁策劃等核心任務方面,需要持續(xù)在技術邏輯和新聞倫理之間尋求平衡。這些摩擦不僅表現為文化和實踐的沖突上,還推動了新的職業(yè)直覺的形成。對不同媒體算法及受眾話語的分析顯示,主流媒體、資訊門戶和聚合平臺在談及算法時表現出迥異的公眾想象,這表明新聞業(yè)在算法化轉型中正通過想象受眾來重塑自身。
(四)隱私保護的脆弱化與倫理爭議
在技術發(fā)展的另一端,隱私問題成為用戶最為關切的問題之一。隨著生成式人工智能和面部識別技術的普及,用戶數據的收集和處理過程變得更加隱秘且復雜。
跨文化研究揭示了隱私保護在不同族群和社會語境中的差異。在跨文化語境中,隱私保護問題還涉及不同族群的技術體驗。例如,少數族群對AI工具的隱私濫用更為敏感,認為這些技術可能導致負面標簽化或歧視。不同社會文化背景下,公眾對隱私問題的關注點各有不同。美國公眾更多關注AI帶來的隱私風險,特別是在語音助手和智能設備的數據濫用方面;中國公眾則傾向于強調AI的積極應用及其與國家機構敘事的高度一致性。這些研究表明,隱私并不僅是技術問題,更是深層次的社會價值觀和文化認知問題。
在這一背景下,如何在技術治理中融入社會價值,如何通過跨主體協作實現技術與價值的和諧,將成為核心議題。針對算法導致或加劇的不平等現象,有學者提出了“算法盧德主義”(AlgorithmicLuddism)的概念,指向一種社會運動形式,包括拒絕(refusal)、抵抗(resistance)和重新想象算法未來(re-imagining algorithmic futures),以期構建以社會公正為核心的技術未來;也有學者期待超越技術不平等的元想象,使人工智能得以修復而非預演現實世界的漏洞。技術與社會價值的沖突并非不可調和的,但這一過程需要技術設計者、政策制定者以及普通用戶的共同努力。這不僅是一個技術問題,更是一個社會問題,要從技術、制度與文化多重維度出發(fā)尋找解決路徑,以實現技術進步、社會和諧的雙贏局面。
二、AI技術與社會價值的融合
總的來看,技術的邏輯與社會價值的沖突源于兩者根本目標的不同。技術以效率和優(yōu)化為核心,社會價值則注重公平、正義和多樣性。盡管智能技術的發(fā)展引發(fā)了廣泛的社會價值沖突,但在沖突中也孕育了融合的可能性。技術與社會價值的融合并非簡單地讓技術適應社會,而是試圖通過雙向互動,在技術邏輯和社會需求之間建立動態(tài)平衡。這種融合體現在算法治理、平臺協作、新聞業(yè)變革、文化多樣性等多個層面,展現著社會主體能動性與技術創(chuàng)新之間的協同路徑。
(一)算法治理的倫理實踐
算法治理是技術與社會價值融合的核心領域。算法透明性和可解釋性已成為全球技術治理的關鍵面向。2024年,歐洲議會通過的《人工智能法案》明確提出對生成式人工智能的透明性要求,而中國的“清朗·網絡平臺算法典型問題治理”專項行動則聚焦算法的倫理規(guī)范與問責機制。這些努力試圖通過政策與法律構建外部約束,使技術運行符合社會價值的基本原則。
學術界和行業(yè)也在推動算法治理的技術實踐。一些研究提出,通過算法審計與外部監(jiān)督,可以揭示算法中的偏見和隱性邏輯,從而促進公平性。如前所論,算法互助實踐已在TikTok創(chuàng)作者群體中初現成效,通過集體調整內容策略,創(chuàng)作者將平臺資源重新分配給弱勢群體,實現技術邏輯和社會正義的融合。此外,可解釋性人工智能(explainable AI)正在成為技術發(fā)展的主流趨勢,為用戶提供算法決策的清晰邏輯,提升其對算法運行的信任感。
(二)平臺協作中的權力平衡
在平臺經濟中,勞動者的能動性與平臺算法的協同成為技術與社會價值融合的重要突破點。研究表明,盡管平臺算法的管理邏輯可能壓縮勞動者的自主性,但勞動者的集體行動也能夠反過來影響平臺規(guī)則。這種嵌入式的協作關系表明,技術邏輯并非完全僵化,而是可以通過社會主體的參與實現動態(tài)優(yōu)化。
創(chuàng)作者經濟的案例進一步強化了這種平衡。在Instagram和小紅書上,被稱為網紅的內容創(chuàng)作者采用“在平臺內與平臺對抗”的框架,在追求內容可見性的同時,抵抗平臺算法對勞動的控制。勞動者普遍表現著一種“平臺現實主義”態(tài)度,即尋求能夠預測剝削的穩(wěn)定狀態(tài),而非完全擺脫剝削。這些行為展現了勞動者與平臺之間的微妙互動,盡管凸顯了平臺勞動中社會文化的不穩(wěn)定性和復雜性,但也在博弈中實現了技術邏輯與勞動主體能動性的部分融合。
(三)新聞業(yè)的價值對齊與創(chuàng)新
新聞業(yè)作為社會信息傳播的重要領域,其與技術的融合體現在新聞價值對齊與專業(yè)邏輯的協同中。生成式人工智能在新聞生產中的應用已經顯現顯著的效率優(yōu)勢,在新聞業(yè)中已成為基礎設施。AI技術可以自動化處理大量新聞數據,從而提高新聞制作的速度與精確性。然而,技術的價值要與新聞職業(yè)信念保持對齊,以避免新聞公共性與多樣性的進一步削弱。
有研究提出,新聞機構可以通過主動介入算法設計與運行,確保新聞價值的技術嵌入。例如,在新聞推薦算法中融入公共利益權重,使新聞分發(fā)不再完全依賴點擊率,而是同時考慮內容的社會重要性。此外,新聞機構與技術平臺的合作也為融合提供了新的契機。對谷歌、Meta與澳大利亞新聞媒體的議價法案的研究顯示,盡管平臺在新聞市場中的影響力增加,但其與媒體機構的經濟合作關系為提升新聞質量與傳播效率提供了可能。
(四)文化多樣性與倫理本地化
技術與社會價值的融合還需要文化多樣性與倫理本地化的支撐。在不同的社會語境下,公眾對技術的接受度和價值認同存在顯著差異。如前所述,不同國家、族群的智能技術使用者對倫理風險有著不同程度、不同維度的關切。這些差異表明,倫理規(guī)范的制定不能“一刀切”,而應融入本地文化語境,尊重多樣化的社會價值觀。
以隱私保護為例,通過文化適配的設計,將隱私控制權賦予用戶,增強其在技術使用中的自主性,也成為技術治理的關鍵方向。
(五)公眾能動性與技術賦權
公眾的能動性在技術與社會價值融合中扮演著重要角色。研究表明,算法素養(yǎng)的提升可以顯著增強用戶對技術的理解與干預能力。例如,兒童通過參與式學習活動,能夠有效識別算法偏見并形成反思性認知。這種公眾賦權不僅有助于減少技術濫用的風險,也為構建更具包容性的技術生態(tài)提供了社會基礎。
此外,用戶生成的問責性實踐也展現了公眾影響技術治理的潛力。在平臺透明性不足的情況下,用戶通過協調行動推動平臺規(guī)則調整,從而在算法治理中扮演了重要的干預角色,被視為平臺治理中的活躍利益相關者,通過協調行動展現了對算法治理的潛在影響力。這些實踐進一步表明,公眾不應僅是技術的被動接受者,而應是能夠通過集體行動塑造技術未來的關鍵主體。
技術與社會價值的融合并非一蹴而就,其成功取決于技術設計的開放性與社會主體的參與度。在算法治理、平臺協作、新聞生產與文化多樣性等方面,已有的實踐為融合提供了重要啟示。然而,未來的挑戰(zhàn)依然嚴峻。如何在提升技術效率的同時,確保社會價值的核心地位?如何避免融合過程中的文化擠壓與倫理失衡?這些問題需要在技術創(chuàng)新與社會干預的動態(tài)協同中尋求答案。
技術與社會價值的融合展現了雙向塑造的可能性。通過倫理框架的規(guī)范、平臺規(guī)則的協作、新聞業(yè)的價值對齊以及公眾的能動性賦權,技術創(chuàng)新可以在社會價值的基礎上向更高水平發(fā)展。如何進一步深化這一融合,將是未來智能傳播研究的核心議題。
三、AI技術與社會價值的共建路徑
AI技術與社會價值的沖突與融合過程揭示了一個核心問題:如何在不斷變化的技術環(huán)境中,共同構建能夠平衡效率與倫理、創(chuàng)新與公平的社會體系?2024年的研究提供了多維度的啟示,表明技術與社會價值的共建需要從多元主體協作、倫理共識構建、公眾賦能與算法素養(yǎng)提升等多個方面入手,逐步形成系統化、動態(tài)化的治理框架。
(一)多元主體的協同治理
技術與社會價值的共建離不開多元主體的協同治理,尤其是政府、企業(yè)與公眾的多方合作。研究顯示,政府在AI技術治理中扮演著不可或缺的頂層設計角色。法規(guī)政策不僅從宏觀上確立了技術發(fā)展的倫理方向,還為企業(yè)和公眾提供了明確的行為規(guī)范。
AI企業(yè)作為技術的核心開發(fā)者與應用者,也在共建過程中承擔著雙重責任。一方面,企業(yè)需要通過自我規(guī)制踐行社會責任。例如,谷歌和Meta在澳大利亞新聞媒體議價法案中,盡管利用平臺優(yōu)勢與媒體達成了合作,但也體現了企業(yè)與社會需求之間的權力博弈。該法案雖然在短期內增加了對新聞業(yè)的經濟支持,但也強化了平臺在新聞市場中的影響力。另一方面,企業(yè)需要通過創(chuàng)新驅動技術倫理的實現,如通過開發(fā)可解釋性算法和透明性工具,使技術產品在滿足商業(yè)目標的同時,回應社會價值的需求。
公眾作為AI技術的最終使用者,其參與對技術治理的有效性具有直接影響。不論是通過自發(fā)的日常算法審計發(fā)掘算法邏輯的問題、對平臺算法的失當決策進行質疑,還是將其對理想算法規(guī)則的期待付諸實踐,這些公眾層面的意識、態(tài)度和行動雖然基于非正式的算法知識,但有望顯著推動平臺規(guī)則的改進。此外,公眾通過與政府和企業(yè)協作,如參與技術審計和政策討論,為技術治理提供了更多的社會視角。
(二)跨文化倫理共識的構建
AI技術治理的全球化趨勢,需要倫理共識。在承認文化多樣性的同時,要尋求文化共性與個性之間的平衡點。研究發(fā)現,不同文化背景的公眾對技術倫理的關注點差異明顯。歐盟的AI指導價值觀注重保護公民的權利,其《人工智能法案》是基于風險的人工智能治理框架,確?;緳嗬艿奖Wo、經濟成果得到改善以及社會破壞最小化,以此促進歐洲價值觀;美國強調創(chuàng)新,很大程度上將人工智能的治理權交給了私營企業(yè)。在關涉隱私保護領域,前述美國公眾更關注智能設備的數據濫用,中國公眾則強調技術的積極應用。這種文化差異提醒我們,技術治理不僅需要全球規(guī)范的統一性,還需要能融入地方文化的適配性。
文化多樣性視角下的倫理共識構建,離不開包容性對話機制的建立。一些研究采用虛擬情境和推測方法,讓用戶在模擬場景中討論算法的社會影響,從而將技術倫理從抽象理論轉化為具體問題。這些方法不僅有助于挖掘文化差異下的倫理關切,還能為技術規(guī)范的設計提供更廣泛的視角支持。
(三)公眾賦能與算法素養(yǎng)的提升
有研究表明,高自主性的AI日程規(guī)劃工具在提供便利的同時,可能削弱用戶的主導權,用戶經歷了從完全依賴技術到重新調整使用方式的復雜過程,最終能夠在效率與控制之間找到平衡,這表明用戶擁有掌控技術的意識及能力潛質。為應對日漸引發(fā)重視的算法偏見和隱私風險,學術界應針對算法素養(yǎng)提出系統的概念化與操作化定義,并針對不同群體(比如兒童與青少年、弱勢群體)探索行之有效的算法素養(yǎng)提升方案,培養(yǎng)公眾的技術理解能力,為未來的技術與社會共建奠定重要基礎。
算法素養(yǎng)的提升要與公眾參與機制相結合。前述“用戶生成問責性”策略,通過曝光平臺規(guī)則的不公,引導企業(yè)調整算法決策,不僅體現了用戶對技術治理的影響力,也進一步推動了透明性和可問責性的實現。
AI技術的發(fā)展具有高度的不確定性,因此AI治理需要對未來可能出現的倫理問題進行預測,并建立預防性的制度保障。研究顯示,高自主性AI的發(fā)展正在挑戰(zhàn)傳統的人機關系框架,用戶對AI的信任與控制感成為重要的研究議題。有研究發(fā)現,在人機親密互動中,AI的越界行為可能削弱用戶的情感安全感——當用戶將情感投入到與AI的交互中時,情感操控的風險也隨之上升。盡管媒體對于人機之戀的報道傾向于放大倫理問題和潛在危害,但這一現象的出現要求技術設計從源頭上嵌入倫理規(guī)范,以確保用戶權益。
制度保障需要將技術倫理嵌入整個技術生命周期,包括設計、開發(fā)、部署和使用等階段。比如,推測法的應用可以在技術設計階段模擬潛在風險,從而在技術落地前解決可能的倫理沖突——通過“指導式自傳民族志”將用戶與界面的互動過程分解為具有細粒度的對話過程,然后結合符號互動論,考察用戶如何通過與非人類系統的互動對自我與世界進行意義建構。此法還可用于考察Google搜索自動預測界面的說服力和個性化。此外,建立國際性的技術倫理機構,協調不同國家和地區(qū)的治理標準,也有助于提升技術治理的全球化水平。
技術與社會價值的共建不僅是對沖突的修復,更是對未來社會的主動塑造。這一過程需要技術開發(fā)者、政策制定者和公眾的協同努力,以實現技術與價值的動態(tài)平衡。從算法公平性到隱私保護,從公眾賦能到倫理預測,每一步都是技術與社會關系重塑的重要組成部分。通過深化合作與對話,技術將不僅是社會變革的驅動力,還將成為價值共建的承載工具,推動社會走向更加公正與可持續(xù)的未來。
四、總結與討論
AI技術的迅猛發(fā)展使其與社會價值之間的關系成為當代理論與實踐領域的核心議題。技術與社會的沖突根源于其內在邏輯的不對稱性。智能算法的中立表象掩蓋了其偏向性,而這種偏向性往往加劇了既有的不平等。不論是算法對不同社會階層、地區(qū)、種族用戶所提供的區(qū)別性信息分發(fā),還是平臺經濟中算法對勞動者消解自主性,都進一步固化了權力的不對等關系。需要特別指出的是,雖然若干研究都已經提出了對抗上述不平等的“有效”策略,比如用戶更嚴格的信息甄別、更審慎的隱私披露、更積極的修正或批判,但是這些策略賦予了用戶更高的能力要求,也施加了更多的隱形勞動。因此,一方面,本研究認可并期待用戶積極地感知算法、審計算法、調度算法,從而協同參與到算法向善的進程中,這既是智能時代每位用戶的基本權利,也是推進全球范圍內技術治理的良善力量;另一方面,本研究也認為,過度依賴用戶個人的主動性和自覺性來對抗算法的不平等,是一種不切實際的期望。這種過度依賴不僅使得算法的負面影響最終轉嫁給個體,尤其是那些缺乏足夠資源或能力的群體,還可能導致責任的轉移,使得平臺和技術開發(fā)者不再承擔應有的社會責任。因此,除了提升用戶的算法素養(yǎng)和社會參與外,更為根本的解決策略應當是推動結構性的制度性變革,強化對算法開發(fā)和應用的監(jiān)管與規(guī)范。這不僅意味著對算法的透明度要求,更包括對算法設計過程中價值觀的明確界定和問責機制的建立。
2024年的智能傳播研究展現了技術邏輯與社會價值觀之間復雜的張力,同時揭示了技術與社會實現共建的可能路徑。在這一過程中,技術不僅是效率和創(chuàng)新的象征,更是倫理和社會責任的重要載體。如何在沖突中實現融合,在融合中推動共建,是未來技術發(fā)展的關鍵。
第一,要重視技術邏輯的雙刃效應。技術的發(fā)展既帶來了變革的機遇,也暴露了價值的裂隙。業(yè)界和學界既不應盲目鼓吹技術的中立性以致忽視算法的設計和運行對既有不平等的強化作用,也不應完全消極地認為智能技術不可避免地復現既有社會的結構性不公,以至于走向另一個極端的技術悲觀主義,喪失抵抗不公的勇氣。固然技術在帶來效率的提升時可能導致社會價值被忽視或侵蝕的風險,但這種效應并非不可逆轉。因此,必須在技術發(fā)展過程中有意識地推動多主體、多視角、多路徑的價值對齊審視,使得技術在提升效率和創(chuàng)新的同時,能夠回應社會公平、正義和包容性的問題。
第二,要從AI治理的多元實踐中尋求經驗。AI技術與社會價值的關系并非簡單的對立或依附關系,而是一種復雜的相互塑造關系。在這一過程中,技術治理的多元實踐展現了極大的潛力。技術設計者、技術開發(fā)者、平臺運營商、用戶、政府及社會組織等各方都應參與到價值協商中,避免技術開發(fā)過程中單一視角的主導,尤其是在涉及公共利益、倫理道德和社會責任等問題時,更要注意不同群體的聲音。例如,在數據隱私保護的議題上,消費者和技術開發(fā)者的立場往往不同,消費者更關注隱私保護和數據安全,而開發(fā)者則更多地考慮算法優(yōu)化和數據的使用效率。通過價值協商,可以平衡這些不同的需求,達成一定的共識。
第三,要尋求跨文化視角下的技術共建。技術的全球化發(fā)展要求倫理規(guī)范具有文化適應性。前述研究表明,不同文化背景的公眾對技術的倫理關注點差異顯著。這種文化差異不僅提醒我們,技術規(guī)范的設計需要考慮地方文化的獨特需求,還表明全球化技術治理需要更包容的對話機制。新近研究中,虛擬情境和推測方法的應用為技術治理提供了新的視角和工具。這些方法通過模擬AI未來技術場景,將抽象的倫理問題轉化為具體的實踐挑戰(zhàn),有效揭示了技術使用中的隱性權力結構——通過虛構日常生活場景和可能發(fā)生的未來情境,收集用戶體驗與期望數據,將抽象的算法概念具體化,為討論算法對社會的影響提供了實用工具,為技術規(guī)范的制定提供了實證支持。與此同時,用戶與AI交互過程中的信任、控制感與情感聯結成為研究的重點,這些主題進一步豐富了AI技術與社會價值融合的視角。在全球化語境中,這些方法有助于推動技術治理的多元化和包容性。
第四,要注重公共價值的重塑。AI技術與社會價值的共建不僅是對沖突的修復,更是對公共價值的重塑。新聞業(yè)是這一過程的一個重要案例。盡管算法技術對新聞的傳播邏輯和職業(yè)信念帶來了挑戰(zhàn),但新聞機構和算法開發(fā)者正在共同努力,通過優(yōu)化技術設計和融入新聞倫理,維護新聞的公共性與多樣性。與此同時,公眾在技術治理中的能動性也得到了進一步體現。通過提升算法素養(yǎng),公眾不僅能夠更有效地使用技術,還能在技術規(guī)范的制定中發(fā)揮更積極的作用。
第五,面向未來,我們要重視與時俱進的動態(tài)思維。AI技術的發(fā)展具有高度的不確定性,因此,AI技術與社會價值的共建需要在動態(tài)中尋求平衡。比如,大模型催生的Sora等文生視頻平臺正在深刻定義視聽生產中的“真實”,其基于“擬真”的視聽生產邏輯,對本質主義真實觀產生了沖擊,技術手段成為衡量真實感的重要指標,AI技術不僅重新定義了“真實”,而且在“視覺轉向”進程中改變了人類對真實的認知、體驗與接受方式。正在興起的生成式人工智能強化了“視覺優(yōu)勢效應”,帶來復雜的模態(tài)偏向問題和認知挑戰(zhàn),新興的視覺文化需要新的思維范式。雖然現階段的智能技術與“強人工智能”還存在一定距離,但是學術界需要前瞻性地思考機器的類人表達和自主決策引發(fā)的新型倫理爭議。為了應對這些潛在風險,技術治理需要在設計階段融入倫理規(guī)范,并通過制度化保障確保技術在未來發(fā)展中始終服務于社會價值。
技術與社會價值的關系是雙向的、動態(tài)的。在技術的邏輯體系中,社會價值不僅是約束和規(guī)范,更是指引和塑造。未來,如何在全球化語境中實現技術與價值的深度融合,將是技術治理的核心議題。通過多元主體的協同治理、文化多樣性的認可與融入以及公眾能動性的賦權,技術將不再僅是工具,還將成為社會價值的延伸和載體,推動社會向更公平、更包容的方向邁進。