【摘要】人工智能正深度嵌入全球網(wǎng)絡(luò)空間治理體系,以高效的數(shù)據(jù)處理和風(fēng)險(xiǎn)識(shí)別能力重塑治理的主體結(jié)構(gòu)、方法流程與模式機(jī)制,有效提升治理效率。必須清醒地認(rèn)識(shí)到,人的作用在全球網(wǎng)絡(luò)空間治理中仍具有不可替代性,因?yàn)槿斯ぶ悄苌胁痪邆湟?guī)范判斷與制度設(shè)計(jì)能力,其透明性、倫理性與權(quán)責(zé)屬性仍依賴人類塑造。未來(lái)全球網(wǎng)絡(luò)空間治理將呈現(xiàn)人機(jī)協(xié)同趨勢(shì),即技術(shù)負(fù)責(zé)初步識(shí)別與響應(yīng),人類完成價(jià)值設(shè)定、制度構(gòu)建并承擔(dān)最終責(zé)任。人機(jī)共治的關(guān)鍵在于通過(guò)結(jié)構(gòu)嵌套、規(guī)則共創(chuàng)與責(zé)任協(xié)同等機(jī)制,構(gòu)建開(kāi)放、透明、可問(wèn)責(zé)的全球網(wǎng)絡(luò)空間治理新范式。
【關(guān)鍵詞】人工智能" 網(wǎng)絡(luò)空間治理" 技術(shù)嵌入" 人類主導(dǎo)" 人機(jī)協(xié)同
【中圖分類號(hào)】D820/TP393" " " " " " " " " " 【文獻(xiàn)標(biāo)識(shí)碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.13.004
引言
在數(shù)字技術(shù)迅猛發(fā)展的當(dāng)下,全球網(wǎng)絡(luò)空間治理正面臨深刻的結(jié)構(gòu)性變革。全球網(wǎng)絡(luò)空間治理是指通過(guò)制定和實(shí)施政策、規(guī)則及技術(shù)標(biāo)準(zhǔn),協(xié)調(diào)各國(guó)政府、國(guó)際組織、私營(yíng)部門(mén)和公眾等多方主體,共同管理和規(guī)范網(wǎng)絡(luò)空間,以維護(hù)其安全、穩(wěn)定與繁榮的活動(dòng)。[1]以人工智能(Artificial Intelligence, AI)為代表的新興技術(shù),正從單一工具型手段演變?yōu)榍度胧街卫硪?,深度參與政策執(zhí)行、內(nèi)容監(jiān)管、風(fēng)險(xiǎn)預(yù)警、數(shù)據(jù)管理等多個(gè)關(guān)鍵環(huán)節(jié)。這種變化不僅顯著提升了治理效率和響應(yīng)能力,而且給傳統(tǒng)治理邏輯、權(quán)力結(jié)構(gòu)與制度安排帶來(lái)前所未有的挑戰(zhàn)與重塑壓力。
人工智能之于網(wǎng)絡(luò)空間治理,不僅是一場(chǎng)技術(shù)革新,更是一種治理范式轉(zhuǎn)型,對(duì)于網(wǎng)絡(luò)空間治理而言是一把“雙刃劍”。[2]一方面,依托強(qiáng)大算力與可持續(xù)優(yōu)化的算法,人工智能在信息甄別、趨勢(shì)識(shí)別、行為監(jiān)測(cè)等方面具備獨(dú)特優(yōu)勢(shì),推動(dòng)治理從被動(dòng)響應(yīng)走向主動(dòng)預(yù)測(cè),從集中管理走向去中心化協(xié)作;另一方面,人工智能技術(shù)治理應(yīng)用中的透明性缺失、倫理模糊、問(wèn)責(zé)困難等問(wèn)題,也引發(fā)了各界對(duì)治理正當(dāng)性與責(zé)任歸屬的深層憂慮。這意味著,我們正進(jìn)入一個(gè)技術(shù)推動(dòng)與人的協(xié)調(diào)監(jiān)管并舉的人機(jī)共治新階段。然而,技術(shù)本身并不具備自治能力。治理本質(zhì)上是一種集合法律制度、社會(huì)共識(shí)與政治判斷于一體的復(fù)雜工程。在人工智能廣泛介入全球網(wǎng)絡(luò)空間治理實(shí)踐的同時(shí),人類在價(jià)值設(shè)定、規(guī)則制定、道德判斷與多邊協(xié)商中的不可替代性愈加凸顯。從平臺(tái)內(nèi)容審查中的倫理分歧,到跨國(guó)數(shù)據(jù)流動(dòng)中的主權(quán)博弈,從技術(shù)濫用引發(fā)的風(fēng)險(xiǎn)糾錯(cuò),到未來(lái)治理機(jī)制的制度前瞻,人類始終是治理鏈條中的最終責(zé)任者與價(jià)值“守門(mén)人”。
因此,理解人工智能時(shí)代的網(wǎng)絡(luò)空間治理變革,不僅要關(guān)注技術(shù)賦能與效率提升,而且必須正視人類主導(dǎo)作用的持續(xù)必要性,并思考人機(jī)協(xié)同的新制度形態(tài)。本研究擬從技術(shù)嵌入、人類主導(dǎo)、人機(jī)協(xié)同三個(gè)維度出發(fā),系統(tǒng)探討全球網(wǎng)絡(luò)空間治理的結(jié)構(gòu)性轉(zhuǎn)型邏輯。首先,聚焦人工智能對(duì)網(wǎng)絡(luò)空間治理的結(jié)構(gòu)性變革,分析其在治理效率、主體結(jié)構(gòu)、流程機(jī)制與制度模式等方面的深度介入與重塑。其次,討論網(wǎng)絡(luò)空間治理中的人類不可替代性,強(qiáng)調(diào)在倫理判斷、規(guī)則設(shè)計(jì)、政治協(xié)調(diào)與公眾參與等關(guān)鍵領(lǐng)域,人工智能無(wú)法取代人類的規(guī)范性與判斷力。再次,展望邁向“人機(jī)協(xié)同共治”的網(wǎng)絡(luò)空間治理圖景,提出一種更具前瞻性的制度設(shè)想,即人類主導(dǎo)、人工智能輔助的人機(jī)協(xié)同機(jī)制。[3]通過(guò)上述分析,本文希望為理解人工智能驅(qū)動(dòng)的全球網(wǎng)絡(luò)空間治理提供一套兼具結(jié)構(gòu)觀察與規(guī)范反思的理論框架,進(jìn)而為未來(lái)制度設(shè)計(jì)提供啟示與參考。
人工智能對(duì)全球網(wǎng)絡(luò)空間治理的嵌入
隨著人工智能技術(shù)的快速演進(jìn),全球網(wǎng)絡(luò)空間治理正經(jīng)歷深層次的結(jié)構(gòu)性轉(zhuǎn)型。人工智能不僅提升了治理效率,更在悄然重塑治理主體格局、操作流程與制度架構(gòu)。下面以效率、主體、過(guò)程、模式四個(gè)維度為線索,系統(tǒng)分析人工智能如何嵌入網(wǎng)絡(luò)治理體系,并揭示其在權(quán)力分布、制度路徑和治理邏輯等方面的重塑機(jī)制。
治理效率的躍升:從人工操作到智能驅(qū)動(dòng)。人工智能技術(shù)的嵌入,顯著改變了網(wǎng)絡(luò)空間治理的效率邏輯。傳統(tǒng)治理依賴人工操作,在數(shù)據(jù)處理、內(nèi)容審核、安全防護(hù)等方面面臨人力成本高、響應(yīng)速度慢、覆蓋面有限等結(jié)構(gòu)性困境。人工智能的引入,使網(wǎng)絡(luò)空間治理從依賴人類的點(diǎn)狀響應(yīng),轉(zhuǎn)變?yōu)槿旌颉⒏咚俾?、廣覆蓋的系統(tǒng)性機(jī)制,開(kāi)啟了治理效率躍升的新階段。
在內(nèi)容治理方面,人工智能極大提升違規(guī)內(nèi)容的篩查和響應(yīng)速度。以Meta公司為例,其在2022年第四季度報(bào)告中指出,旗下平臺(tái)使用人工智能識(shí)別并處理約90%以上的仇恨言論和暴力內(nèi)容,且多數(shù)能在用戶舉報(bào)前實(shí)現(xiàn)系統(tǒng)捕捉。[4]YouTube與TikTok也廣泛使用圖像識(shí)別與語(yǔ)義分析技術(shù),在上傳初期對(duì)內(nèi)容進(jìn)行分類和處理。盡管人類仍需在復(fù)雜內(nèi)容判斷中參與復(fù)核,但人工智能顯著減輕了審核負(fù)擔(dān),提升了響應(yīng)速度。
在網(wǎng)絡(luò)安全領(lǐng)域,人工智能可提高對(duì)威脅的即時(shí)監(jiān)控與主動(dòng)防御能力。例如,微軟的“Azure Sentinel”安全平臺(tái)利用自動(dòng)化整合技術(shù)可在毫秒級(jí)別識(shí)別異常網(wǎng)絡(luò)行為并自動(dòng)啟動(dòng)防御機(jī)制。[5]該系統(tǒng)利用機(jī)器學(xué)習(xí)訓(xùn)練識(shí)別“零日攻擊”“釣魚(yú)郵件”等潛在威脅,有效提高了網(wǎng)絡(luò)防御的敏捷性。中國(guó)國(guó)家計(jì)算機(jī)網(wǎng)絡(luò)應(yīng)急技術(shù)處理協(xié)調(diào)中心(CNCERT)也在探索將人工智能算法引入國(guó)家級(jí)態(tài)勢(shì)感知平臺(tái),實(shí)現(xiàn)關(guān)鍵基礎(chǔ)設(shè)施的風(fēng)險(xiǎn)自動(dòng)識(shí)別與響應(yīng)。
在數(shù)據(jù)治理方面,人工智能顯著增強(qiáng)數(shù)據(jù)融合與決策支持能力。新加坡的“Smart Nation Sensor Platform”集成了交通、環(huán)境、公共安全等多維數(shù)據(jù),輔助政府使用人工智能實(shí)時(shí)分析交通與城市運(yùn)行數(shù)據(jù),為城市管理提供支持。[6]人工智能作為治理效能提升的加速器,正推動(dòng)全球網(wǎng)絡(luò)空間治理自動(dòng)化、智能化并向前瞻治理演進(jìn)。
治理主體的轉(zhuǎn)型:從人類主導(dǎo)到人機(jī)共治。隨著人工智能深度嵌入全球網(wǎng)絡(luò)空間治理,傳統(tǒng)由人類主導(dǎo)的治理格局正經(jīng)歷著轉(zhuǎn)向“人機(jī)協(xié)同、多元共治”的重大變革。在新的治理體系中,人工智能不再只是被動(dòng)執(zhí)行的技術(shù)工具,而成為具備輔助判斷、主動(dòng)識(shí)別、風(fēng)險(xiǎn)預(yù)警等能力的輔助治理主體。人工智能開(kāi)始在數(shù)據(jù)分析、內(nèi)容篩查、風(fēng)險(xiǎn)建模等前端環(huán)節(jié)發(fā)揮關(guān)鍵作用,提升治理系統(tǒng)的響應(yīng)效率與覆蓋能力,而政策制定、價(jià)值判斷與責(zé)任追究等規(guī)范性環(huán)節(jié)仍由人類主導(dǎo)完成。二者相輔相成,構(gòu)成“技術(shù)驅(qū)動(dòng)—人類裁量”的復(fù)合型治理結(jié)構(gòu)。無(wú)論是在網(wǎng)絡(luò)安全領(lǐng)域,還是在平臺(tái)自我規(guī)制與技術(shù)倫理治理中,越來(lái)越多的實(shí)踐印證了這一協(xié)同治理模式的發(fā)展與落地。
全球網(wǎng)絡(luò)安全巨頭卡巴斯基旗下的卡巴斯基工業(yè)網(wǎng)絡(luò)安全(KICS)和異常檢測(cè)機(jī)器學(xué)習(xí)(MLAD)產(chǎn)品都使用人工智能算法來(lái)識(shí)別特定工業(yè)環(huán)境中的間接攻擊指標(biāo)和細(xì)微活動(dòng)異常。[7]其托管檢測(cè)和響應(yīng)(MDR)平臺(tái)則采用基于人工智能的自動(dòng)分析器,該分析器接收安全運(yùn)營(yíng)中心團(tuán)隊(duì)收到的警報(bào)后能自動(dòng)對(duì)警報(bào)內(nèi)容進(jìn)行處理。據(jù)統(tǒng)計(jì),經(jīng)過(guò)訓(xùn)練和分析師評(píng)估后,MDR平臺(tái)能夠較為可靠地過(guò)濾錯(cuò)誤警報(bào),從而將減少安全運(yùn)營(yíng)中心約25%的工作量。[8]這一實(shí)踐展示了人機(jī)協(xié)作在網(wǎng)絡(luò)安全治理中的有效性,即人工智能負(fù)責(zé)初步篩查和風(fēng)險(xiǎn)標(biāo)注,人類專家進(jìn)行復(fù)審和決策,從而提升治理的效率、精度和可靠性,構(gòu)建起一個(gè)分工互補(bǔ)、責(zé)任清晰的協(xié)同治理模式。
人工智能不僅提升平臺(tái)內(nèi)部監(jiān)管的精度與覆蓋率,也賦予平臺(tái)更大的規(guī)制能力,重塑治理邊界。例如,阿里巴巴于2022年設(shè)立“科技倫理治理委員會(huì)”,并引入外部顧問(wèn)機(jī)制,推動(dòng)包括算法審查、風(fēng)險(xiǎn)評(píng)估、數(shù)據(jù)隱私保護(hù)等在內(nèi)的技術(shù)治理框架。該委員會(huì)主導(dǎo)制定了“科技倫理六大準(zhǔn)則”,明確要求重要算法上線前需進(jìn)行倫理與合規(guī)評(píng)估,確保平臺(tái)在“可控、可信、安全”基礎(chǔ)上運(yùn)行治理機(jī)制。[9]這一實(shí)踐展示了阿里巴巴如何通過(guò)人工智能技術(shù)和內(nèi)部治理機(jī)制的完善,提升平臺(tái)治理能力,從而在商業(yè)組織基礎(chǔ)上承擔(dān)更多治理主體責(zé)任。
治理過(guò)程的重構(gòu):從線性流程到智能自動(dòng)化。人工智能的介入,正在深刻重塑全球網(wǎng)絡(luò)空間治理的流程架構(gòu)。傳統(tǒng)治理模式通常遵循“問(wèn)題發(fā)現(xiàn)—人工介入—響應(yīng)處理”的線性鏈條,嚴(yán)重依賴人力審批和多部門(mén)協(xié)同,導(dǎo)致流程遲滯、反饋滯后與資源浪費(fèi)等治理瓶頸。在傳統(tǒng)架構(gòu)下,內(nèi)容審核、風(fēng)險(xiǎn)識(shí)別、違規(guī)處置等任務(wù)往往由不同部門(mén)各自為政,形成“治理孤島”。在人工智能介入的新治理范式中,平臺(tái)不再僅僅是承載治理任務(wù)的執(zhí)行載體,而是逐步演化為集感知、調(diào)度、決策于一體的智能中樞。人工智能對(duì)治理流程的重構(gòu),不僅提升治理效率,更促成從人工審批線性鏈向以平臺(tái)為中樞的并行自治范式轉(zhuǎn)變。
TikTok的廣告審核流程結(jié)合了自動(dòng)化審核與人工復(fù)核,以提高審核效率和準(zhǔn)確性。廣告提交后,系統(tǒng)通常會(huì)在24小時(shí)內(nèi)完成初步審核。對(duì)于低風(fēng)險(xiǎn)內(nèi)容,人工智能可自動(dòng)批準(zhǔn),而高風(fēng)險(xiǎn)或復(fù)雜內(nèi)容則交由人工復(fù)核處理。這種協(xié)同機(jī)制避免了資源浪費(fèi)與誤判過(guò)度,體現(xiàn)了人工智能在治理任務(wù)智能分流與并行處理方面的應(yīng)用價(jià)值。[10]
百度推出的內(nèi)容審核平臺(tái),集成人工智能內(nèi)容審核系統(tǒng),實(shí)現(xiàn)多業(yè)務(wù)線的統(tǒng)一風(fēng)控調(diào)度。該平臺(tái)支持對(duì)圖像、文本、語(yǔ)音、視頻等多模態(tài)內(nèi)容進(jìn)行審核,具有審核模型精準(zhǔn)、審核維度豐富和規(guī)則配置靈活等特點(diǎn)。通過(guò)界面化選擇審核維度、個(gè)性化調(diào)整松緊度,自動(dòng)檢測(cè)涉黃、涉恐、惡意推廣等違規(guī)內(nèi)容,降低業(yè)務(wù)違規(guī)風(fēng)險(xiǎn)。這一實(shí)踐充分展示人工智能可推動(dòng)以平臺(tái)為中樞的智能治理中臺(tái)建設(shè),整合原本分散的資源與模塊,提升內(nèi)容安全治理的效率與精準(zhǔn)度??梢哉J(rèn)為,百度內(nèi)容審核平臺(tái)在部分流程節(jié)點(diǎn)中實(shí)際上獲得了“自治執(zhí)行權(quán)”,成為流程中的代理治理者。管理員的職責(zé)從“執(zhí)行者”轉(zhuǎn)為“規(guī)則設(shè)計(jì)者”,人工智能負(fù)責(zé)持續(xù)運(yùn)作并自我學(xué)習(xí),形成智能化流程的微觀自治單元。[11]
治理模式的重塑:從靜態(tài)規(guī)制到動(dòng)態(tài)適應(yīng)。人工智能的引入正在深刻重塑網(wǎng)絡(luò)空間的治理模式,不僅變革治理工具與流程,也重構(gòu)治理的根本邏輯。傳統(tǒng)的治理框架通常依賴于靜態(tài)、線性的規(guī)制設(shè)計(jì),在應(yīng)對(duì)已知風(fēng)險(xiǎn)方面尚可運(yùn)作,但面對(duì)快速演進(jìn)的技術(shù)生態(tài)與多元不確定的風(fēng)險(xiǎn)情境,常常顯得滯后、低效、缺乏彈性。在這種背景下,人工智能憑借其高頻感知、多源整合和快速反饋等能力,正成為網(wǎng)絡(luò)空間治理系統(tǒng)動(dòng)態(tài)調(diào)節(jié)的核心引擎。其不僅能在治理流程前端發(fā)揮實(shí)時(shí)監(jiān)測(cè)與識(shí)別功能,還可以嵌入制度設(shè)計(jì)后端,推動(dòng)治理結(jié)構(gòu)實(shí)現(xiàn)“反饋—調(diào)整—再執(zhí)行”的循環(huán)更新機(jī)制;更進(jìn)一步,人工智能的獨(dú)特能力還使部分制度具備在監(jiān)管不確定情境下進(jìn)行政策試驗(yàn)的可能。
傳統(tǒng)治理側(cè)重于對(duì)既成違規(guī)行為的事后處置,而人工智能則推動(dòng)風(fēng)險(xiǎn)識(shí)別和資源調(diào)度向前置部署轉(zhuǎn)型。例如,百度公司通過(guò)其安全態(tài)勢(shì)感知系統(tǒng),可針對(duì)全網(wǎng)文字、圖片、視頻、代碼等進(jìn)行智能建模和7×24小時(shí)實(shí)時(shí)監(jiān)控,對(duì)欺詐、違法、風(fēng)險(xiǎn)等惡意網(wǎng)站及第三方瀏覽器、第三方APP、社交平臺(tái)、短信網(wǎng)址有害信息采取風(fēng)險(xiǎn)標(biāo)注、攔截提示、搜索屏蔽等攔截措施,其治理邏輯轉(zhuǎn)變?yōu)椤笆虑氨O(jiān)控—事中攔截—事后追溯”,為用戶提供了更為完善的安全保障體系。[12]
面對(duì)不斷變化的技術(shù)生態(tài)和社會(huì)需求,人工智能助力構(gòu)建以反饋為核心的動(dòng)態(tài)治理模式。例如,歐盟于2022年通過(guò)了《數(shù)字服務(wù)法案》(Digital Services Act, DSA),要求大型在線平臺(tái)建立動(dòng)態(tài)風(fēng)險(xiǎn)評(píng)估體系,持續(xù)依據(jù)算法反饋和輿情數(shù)據(jù),調(diào)整內(nèi)容審核機(jī)制、推薦邏輯和用戶提示方式,從而創(chuàng)建一個(gè)更安全的數(shù)字空間。[13]在技術(shù)尚未成熟、風(fēng)險(xiǎn)尚不明確的生成式人工智能、元宇宙等新興領(lǐng)域,傳統(tǒng)規(guī)制模式可能導(dǎo)致監(jiān)管真空或創(chuàng)新受限。為兼顧探索與合規(guī),部分國(guó)家引入“治理沙盒”“彈性監(jiān)管”等柔性制度架構(gòu)。英國(guó)政府于2023年3月發(fā)布了《支持創(chuàng)新的人工智能監(jiān)管方式》(A pro-innovation approach to AI regulation)政策文件,提出基于原則的人工智能治理方法,強(qiáng)調(diào)在現(xiàn)有法律框架下對(duì)人工智能進(jìn)行監(jiān)管,并提出可信人工智能、監(jiān)管沙盒等舉措,以在防范潛在風(fēng)險(xiǎn)的同時(shí)促進(jìn)產(chǎn)業(yè)發(fā)展。[14]
綜上所述,人工智能技術(shù)推動(dòng)網(wǎng)絡(luò)空間治理從靜態(tài)規(guī)則走向動(dòng)態(tài)彈性機(jī)制,從一次性部署走向持續(xù)調(diào)試,從封閉式制定走向開(kāi)放式共建,為構(gòu)建適應(yīng)型、學(xué)習(xí)型全球網(wǎng)絡(luò)空間治理體系提供了關(guān)鍵支撐,也使全球網(wǎng)絡(luò)空間治理更具彈性與適應(yīng)力。但與此同時(shí),人工智能技術(shù)應(yīng)用也帶來(lái)了新的制度難題:誰(shuí)主導(dǎo)規(guī)則迭代?反饋數(shù)據(jù)是否公開(kāi)透明?政策試驗(yàn)失敗由誰(shuí)負(fù)責(zé)?這些問(wèn)題仍需人類在制度設(shè)定與監(jiān)督過(guò)程中行使終極裁量權(quán),發(fā)揮責(zé)任擔(dān)當(dāng)。
全球網(wǎng)絡(luò)空間治理中的人類不可替代性
在人工智能廣泛嵌入網(wǎng)絡(luò)空間治理的當(dāng)下,其在數(shù)據(jù)處理、風(fēng)險(xiǎn)預(yù)測(cè)、內(nèi)容識(shí)別等領(lǐng)域展現(xiàn)出卓越效率。人工智能在發(fā)揮極大賦能增效作用的同時(shí),也日益暴露出數(shù)字控制、權(quán)力剝奪、價(jià)值偏好偏差等消極影響,暗藏頗為危險(xiǎn)的技治主義傾向。[15]治理本質(zhì)并非單純的技術(shù)工程,還關(guān)涉制度設(shè)定、權(quán)力協(xié)調(diào)與價(jià)值判斷。特別是在多主權(quán)并存、技術(shù)快速演化的全球網(wǎng)絡(luò)空間,人類在治理中的主導(dǎo)角色非但未被削弱,反而在制度建構(gòu)、倫理決策與國(guó)際協(xié)商等關(guān)鍵環(huán)節(jié)中更加不可替代。
制度設(shè)計(jì)中的人類規(guī)范判斷作用。人工智能的廣泛應(yīng)用正在重塑全球網(wǎng)絡(luò)空間治理的技術(shù)圖景。治理制度不僅是對(duì)運(yùn)行機(jī)制的設(shè)定,更是對(duì)社會(huì)價(jià)值、權(quán)力關(guān)系與規(guī)范邊界的系統(tǒng)構(gòu)造。在網(wǎng)絡(luò)空間這一跨文化、多主體、高變動(dòng)性的場(chǎng)域中,制度設(shè)計(jì)遠(yuǎn)非技術(shù)性輸入輸出所能替代,必須由具備歷史意識(shí)、價(jià)值判斷與政治理性的主體親自把關(guān)與主導(dǎo)。人工智能雖擅長(zhǎng)數(shù)據(jù)演繹與模式識(shí)別,卻難以處理涉及倫理爭(zhēng)議、文化沖突與社會(huì)期望的規(guī)范性問(wèn)題,這些構(gòu)成了其難以逾越的認(rèn)知邊界。法律與政策等治理規(guī)范的制定,并非模型單獨(dú)推導(dǎo)出的技術(shù)解法,而更是一場(chǎng)社會(huì)協(xié)商與道德評(píng)估的集體實(shí)踐。
歐盟《人工智能法案》(Artificial Intelligence Act)體現(xiàn)了這種人類主導(dǎo)的制度判斷過(guò)程。自2021年其草案提出以來(lái),歐洲議會(huì)、理事會(huì)與成員國(guó)歷經(jīng)多輪辯論,最終在2023年12月達(dá)成政治共識(shí)。立法過(guò)程中設(shè)立的人工智能倫理框架將所有人工智能系統(tǒng)應(yīng)用場(chǎng)景劃分為“不可接受”“高風(fēng)險(xiǎn)”“有限風(fēng)險(xiǎn)”“最低風(fēng)險(xiǎn)”四類,并明確禁止用于社會(huì)信用評(píng)分、實(shí)時(shí)遠(yuǎn)程面部識(shí)別等“不可接受風(fēng)險(xiǎn)”用途。這一制度構(gòu)造的背后,是圍繞“人類尊嚴(yán)”“基本權(quán)利”“民主穩(wěn)定”等核心價(jià)值展開(kāi)的政治與法律協(xié)商,而非算法所能自主設(shè)定的技術(shù)邏輯。[16]
在我國(guó),《中華人民共和國(guó)個(gè)人信息保護(hù)法》亦展現(xiàn)了在本土社會(huì)邏輯中對(duì)制度價(jià)值的多重考量。該法案于2021年正式施行,既參考了歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)中的部分經(jīng)驗(yàn),如數(shù)據(jù)最小化原則、跨境傳輸限制等,又根據(jù)中國(guó)國(guó)情強(qiáng)調(diào)了“國(guó)家安全”“社會(huì)穩(wěn)定”“政府作用”等理念。在跨境數(shù)據(jù)流動(dòng)部分,該法規(guī)定“關(guān)鍵信息基礎(chǔ)設(shè)施運(yùn)營(yíng)者”和處理個(gè)人信息量達(dá)到國(guó)家網(wǎng)信部門(mén)規(guī)定數(shù)量的“個(gè)人信息處理者”必須接受國(guó)家網(wǎng)信部門(mén)安全評(píng)估,體現(xiàn)出對(duì)國(guó)家主權(quán)與公共利益的制度性偏好。這些條款體現(xiàn)了集體主義文化、秩序?qū)蛐椭卫碛^念在制度設(shè)計(jì)中的深層嵌入。[17]
更具國(guó)際層面制度張力的是聯(lián)合國(guó)政府專家組(UNGGE)在網(wǎng)絡(luò)空間國(guó)際規(guī)則制定中的工作實(shí)踐。UNGGE多輪談判圍繞“國(guó)家主權(quán)是否適用于網(wǎng)絡(luò)空間”“武力使用是否涵蓋網(wǎng)絡(luò)攻擊”等問(wèn)題展開(kāi)激烈討論。美國(guó)堅(jiān)持強(qiáng)調(diào)“自由開(kāi)放的網(wǎng)絡(luò)空間”,反對(duì)“國(guó)家主權(quán)過(guò)度擴(kuò)張”;而俄羅斯與部分發(fā)展中國(guó)家主張國(guó)家政府在網(wǎng)絡(luò)空間治理中的作用,反對(duì)技術(shù)霸權(quán)。這些立場(chǎng)分歧反映出不同國(guó)家的戰(zhàn)略利益與治理觀念,其制度文本的最終形成依賴的是人類外交代表在談判、協(xié)商與利益妥協(xié)中的經(jīng)驗(yàn)判斷和價(jià)值權(quán)衡,而這種互動(dòng)難以由人工智能代理。[18]
人類始終在制度構(gòu)建的核心判斷中發(fā)揮著不可替代的作用。人工智能可在制度形成過(guò)程中提供輔助分析,但制度的合法性、正當(dāng)性與文化適應(yīng)性,必須源于人類社會(huì)的理性協(xié)商與規(guī)范共識(shí)。即便未來(lái)人工智能進(jìn)一步嵌入治理過(guò)程,也無(wú)法改變?nèi)祟愒谌蚓W(wǎng)絡(luò)空間治理中擁有制度主導(dǎo)權(quán)的核心邏輯。
價(jià)值沖突中的人類倫理判斷作用。在全球網(wǎng)絡(luò)空間治理實(shí)踐中,倫理判斷是無(wú)法由算法替代的關(guān)鍵環(huán)節(jié)。特別是在不同社會(huì)價(jià)值觀發(fā)生沖突時(shí),只有人類才能憑借其倫理感知、社會(huì)共識(shí)與文化理解能力作出更具合法性與可接受性的決策。人工智能可以識(shí)別模式、執(zhí)行規(guī)則,但缺乏主動(dòng)提出倫理問(wèn)題、衡量文化后果與承擔(dān)社會(huì)責(zé)任的能力。諸如隱私保護(hù)與國(guó)家安全之間的張力、言論自由與社會(huì)穩(wěn)定的平衡、人權(quán)保障與內(nèi)容審查的界限,這些議題往往處于灰色地帶,難以依靠邏輯演算或統(tǒng)計(jì)模型得出唯一答案。
Meta(原Facebook)平臺(tái)的內(nèi)容審核機(jī)制充分揭示了該問(wèn)題的復(fù)雜性。盡管該平臺(tái)部署了大規(guī)模人工智能系統(tǒng)以自動(dòng)識(shí)別暴力、恐怖主義、仇恨言論等內(nèi)容,并可在用戶舉報(bào)前完成大部分初步篩查,但在處理政治異議、人權(quán)表達(dá)和宗教敏感內(nèi)容時(shí),人工智能系統(tǒng)顯得力不從心。為應(yīng)對(duì)這一挑戰(zhàn),Meta于2020年正式設(shè)立“內(nèi)容監(jiān)督委員會(huì)”(Oversight Board),負(fù)責(zé)復(fù)審關(guān)鍵內(nèi)容爭(zhēng)議案件。該委員會(huì)強(qiáng)調(diào)審查標(biāo)準(zhǔn)需依據(jù)《世界人權(quán)宣言》與區(qū)域法律框架,明確了人工智能判斷之外,人類在政治表達(dá)與文化張力中的裁定責(zé)任。[19]
另一個(gè)體現(xiàn)倫理判斷主導(dǎo)技術(shù)決策的事件,是谷歌(Google)在“Project Maven”項(xiàng)目中的戰(zhàn)略退出。該項(xiàng)目由美國(guó)國(guó)防部于2017年啟動(dòng),旨在利用人工智能圖像識(shí)別技術(shù)提升無(wú)人機(jī)軍事偵察與目標(biāo)打擊的效率。谷歌在該項(xiàng)目中負(fù)責(zé)提供機(jī)器學(xué)習(xí)平臺(tái)工具,協(xié)助軍方進(jìn)行目標(biāo)識(shí)別。然而,自2018年起,谷歌內(nèi)部爆發(fā)大規(guī)模員工抗議,逾4000名員工聯(lián)名反對(duì)公司參與該項(xiàng)目,認(rèn)為這違反了公司“不從惡”(\"Don't be evil\")的核心理念。在道德壓力與公眾爭(zhēng)議下,谷歌最終決定退出該項(xiàng)目,并在公開(kāi)聲明中表示“人工智能必須服務(wù)于和平與人類價(jià)值,而非被濫用于武力控制”。這一事件清晰說(shuō)明,即使在高科技公司內(nèi)部,倫理價(jià)值仍然是最終決策的主導(dǎo)因素,而非由技術(shù)理性決定。[20]
制度層面更為突出的案例是新西蘭政府在“基督城清真寺槍擊案”(2019)后發(fā)起的“基督城呼吁”(Christchurch Call)倡議。在該事件中,兇手通過(guò)社交平臺(tái)直播其行兇過(guò)程,震驚全球。事件之后,新西蘭聯(lián)合法國(guó)等歐盟國(guó)家與多家科技公司,共同呼吁建立全球互聯(lián)網(wǎng)內(nèi)容治理機(jī)制。該倡議明確提出:“應(yīng)在人類監(jiān)督下加強(qiáng)極端內(nèi)容的識(shí)別與處理,反對(duì)將此類工作完全外包給人工智能系統(tǒng)”,強(qiáng)調(diào)平臺(tái)責(zé)任、人類干預(yù)與跨國(guó)合作的制度性路徑,代表當(dāng)前國(guó)際社會(huì)對(duì)人工智能內(nèi)容治理邊界的基本共識(shí)。[21]
在涉及社會(huì)敏感議題的治理過(guò)程中,人工智能固然可以作為技術(shù)支持工具,但最終的倫理決策權(quán)必須由人類掌握。尤其在跨文化背景下,全球社會(huì)對(duì)“自由”“暴力”“安全”等概念的理解存在巨大差異,人工智能模型在此情境下往往無(wú)法提供廣泛認(rèn)可的方案,反而可能激化信任危機(jī)。因此,全球網(wǎng)絡(luò)空間治理中,人類在倫理判斷中的主導(dǎo)地位不可替代。
公眾參與中的人類民主組織作用。在全球網(wǎng)絡(luò)空間治理中,政策制定早已超出技術(shù)執(zhí)行的范疇,成為一項(xiàng)涉及多元價(jià)值沖突、利益平衡與制度正當(dāng)性的復(fù)雜政治工程。公眾是否以及如何被有效納入治理結(jié)構(gòu),不僅關(guān)乎程序正義,也決定了治理機(jī)制的合法性與可持續(xù)性。盡管人工智能在輿情識(shí)別、意見(jiàn)聚類與參與動(dòng)員等方面展現(xiàn)出巨大潛力,但仍無(wú)法替代人類在公眾參與和公共協(xié)商中的核心作用。
首先,公眾參與而非簡(jiǎn)單的技術(shù)采樣或數(shù)據(jù)建模,是民主政治的基石。2017年,美國(guó)聯(lián)邦通信委員會(huì)(FCC)就“網(wǎng)絡(luò)中立性”政策改革展開(kāi)公共咨詢,收到了約2200萬(wàn)條公眾評(píng)論。然而,事后調(diào)查發(fā)現(xiàn),其中近1800萬(wàn)條評(píng)論為虛假提交,很多使用了偽造的身份信息。這揭示了在政策制定過(guò)程中,雖然人工智能可以輔助分析評(píng)論內(nèi)容,但對(duì)于評(píng)論的真實(shí)性驗(yàn)證、代表性評(píng)估以及程序的公平性判斷,仍需依賴人類的制度裁定和監(jiān)督。[22]這一事件表明,治理合法性依賴的不是算法生成的統(tǒng)計(jì)概率,而是人類社會(huì)對(duì)過(guò)程正義的信任。
其次,在技術(shù)與民主并存的場(chǎng)域中,人工智能可作為“協(xié)助組織者”嵌入?yún)⑴c機(jī)制,但不具有決策主體地位。法國(guó)政府于2019年發(fā)起“全國(guó)大辯論”(Grand Débat National)項(xiàng)目,旨在回應(yīng)“黃背心”抗議,促進(jìn)全國(guó)性對(duì)話以化解社會(huì)沖突。[23]政府在全國(guó)范圍內(nèi)組織了超過(guò)1萬(wàn)場(chǎng)線下集會(huì),并結(jié)合人工智能技術(shù)對(duì)約200萬(wàn)條在線提交的意見(jiàn)進(jìn)行文本分析與分類。數(shù)字化后的民意數(shù)據(jù)被委托給調(diào)查公司OpinionWay及其人工智能合作伙伴Qwam處理,他們通過(guò)人工智能工具識(shí)別民眾共識(shí)與爭(zhēng)議焦點(diǎn),輔助政府制定改革優(yōu)先事項(xiàng)。[24]然而,這一人工智能輔助機(jī)制始終以“意見(jiàn)歸納工具”而非“政策決策者”角色存在,最終的制度調(diào)整仍由總統(tǒng)與議會(huì)通過(guò)民主協(xié)商裁定。
再次,公眾參與在人權(quán)與道德議題中更具有不可替代性。英國(guó)在制定《在線安全法案》(Online Safety Bill)期間,廣泛征求民意、組織聽(tīng)證會(huì),并設(shè)立跨黨派監(jiān)督小組,以處理平臺(tái)責(zé)任、算法偏見(jiàn)與未成年人保護(hù)等復(fù)雜問(wèn)題。該法案涉及“如何界定有害內(nèi)容”“平臺(tái)是否過(guò)度審查”“人工智能在內(nèi)容治理中的合法邊界”等多重倫理風(fēng)險(xiǎn)。[25]盡管技術(shù)專家參與算法模型與風(fēng)險(xiǎn)評(píng)級(jí)設(shè)計(jì),但最終法律文本仍由議會(huì)通過(guò),體現(xiàn)出人類在價(jià)值判斷、權(quán)力設(shè)計(jì)和制度運(yùn)行中的絕對(duì)主導(dǎo)地位。
人工智能可以在全球網(wǎng)絡(luò)空間治理中作為信息賦能的工具,擴(kuò)展參與范圍、優(yōu)化議題聚合、發(fā)現(xiàn)意見(jiàn)沖突,但規(guī)則設(shè)定、協(xié)商引導(dǎo)與責(zé)任歸屬的制度構(gòu)建仍需由人類主導(dǎo)完成。特別是在多元文化、價(jià)值觀沖突的全球網(wǎng)絡(luò)空間,公眾參與仍然不可替代。
跨境多方博弈中的人類協(xié)調(diào)作用。全球網(wǎng)絡(luò)空間治理不僅關(guān)涉技術(shù)部署,更深刻映射出國(guó)際體系中的主權(quán)沖突、權(quán)力再分配與制度競(jìng)爭(zhēng)。在這一多極互動(dòng)的場(chǎng)域中,治理不再是行政命令的線性輸出,而是一個(gè)充滿政治張力的“協(xié)商—妥協(xié)—再協(xié)商”過(guò)程。人工智能雖然可以提供數(shù)據(jù)支持、語(yǔ)言翻譯與風(fēng)險(xiǎn)評(píng)估,但缺乏政治敏感性、文化理解力與妥協(xié)能力,無(wú)法勝任高風(fēng)險(xiǎn)、多變量的跨境協(xié)調(diào)任務(wù)。
以TikTok與美國(guó)政府圍繞“數(shù)據(jù)主權(quán)”與“國(guó)家安全”問(wèn)題的爭(zhēng)議為例,人類談判的作用在其中展現(xiàn)得尤為明顯。2019年,美國(guó)外國(guó)投資委員會(huì)(CFIUS)對(duì)字節(jié)跳動(dòng)收購(gòu)Musical.ly并將其整合為T(mén)ikTok的交易展開(kāi)了國(guó)家安全審查。盡管TikTok采取措施將美國(guó)用戶數(shù)據(jù)存儲(chǔ)在美國(guó)和新加坡,并退出香港市場(chǎng)以爭(zhēng)取美方信任,但CFIUS仍認(rèn)為T(mén)ikTok構(gòu)成國(guó)家安全風(fēng)險(xiǎn),要求其剝離美國(guó)業(yè)務(wù),甚至將其封禁。[26]在這一過(guò)程中,關(guān)鍵決策并非基于事實(shí)理性,而是由美國(guó)國(guó)家安全委員會(huì)、法律顧問(wèn)、企業(yè)高管等人類行為體根據(jù)所謂“邏輯”作出,更多是基于政治考量和無(wú)端猜測(cè),目的是維護(hù)美國(guó)數(shù)字霸權(quán)。
歐盟與Meta(原Facebook)圍繞“跨境數(shù)據(jù)傳輸合法性”的法律沖突驗(yàn)證了這一點(diǎn)。在“Schrems II”案中,歐洲法院于2020年裁定美國(guó)的監(jiān)控機(jī)制違反歐盟隱私權(quán)標(biāo)準(zhǔn),宣布《隱私盾協(xié)議》無(wú)效,直接影響了Meta等公司數(shù)據(jù)在歐美之間的自由流動(dòng)。[27]盡管Meta使用人工智能協(xié)助分析法規(guī)適配性與合規(guī)風(fēng)險(xiǎn),但其應(yīng)對(duì)策略,包括數(shù)據(jù)本地化、協(xié)議談判、隱私政策修改等,均由法律顧問(wèn)、數(shù)據(jù)保護(hù)官與歐盟監(jiān)管機(jī)構(gòu)共同主導(dǎo)完成。這類法律與政治高度交織的治理沖突,離不開(kāi)人類在規(guī)范解釋、信任建構(gòu)與司法策略中的協(xié)調(diào)作用。
在更具制度性與全球性的場(chǎng)域,聯(lián)合國(guó)“互聯(lián)網(wǎng)治理論壇”(IGF)提供了一個(gè)高度人類主導(dǎo)的協(xié)商機(jī)制范式。自2006年設(shè)立以來(lái),IGF匯聚了各國(guó)政府、技術(shù)組織、企業(yè)與公眾,圍繞數(shù)字主權(quán)、技術(shù)標(biāo)準(zhǔn)、互聯(lián)網(wǎng)資源分配等問(wèn)題展開(kāi)多輪討論。發(fā)展中國(guó)家持續(xù)要求改革現(xiàn)有治理結(jié)構(gòu),如擴(kuò)大其在互聯(lián)網(wǎng)名稱與數(shù)字地址分配機(jī)構(gòu)(ICANN)的影響力,而歐美國(guó)家則主張維持“多利益攸關(guān)方”機(jī)制的現(xiàn)狀。[28]人工智能雖可輔助完成文本分析、會(huì)議記錄與議程規(guī)劃,但在面臨地緣戰(zhàn)略分歧與制度訴求碰撞時(shí),真正影響談判進(jìn)程的,是各方代表所展現(xiàn)的談判意志、歷史記憶與政治信仰。
全球網(wǎng)絡(luò)空間治理的本質(zhì)是多主權(quán)下的動(dòng)態(tài)制度生成,其推進(jìn)邏輯根植于人類社會(huì)對(duì)規(guī)則、秩序與正義的長(zhǎng)期協(xié)商。在這一過(guò)程中,人工智能可以提供輔助性信息、提升談判效率,但無(wú)法擔(dān)任政治意圖的表達(dá)者、妥協(xié)機(jī)制的建構(gòu)者與責(zé)任體系的承載者。因此,構(gòu)建可持續(xù)的全球網(wǎng)絡(luò)空間秩序,仍需依賴人類在跨境事務(wù)中發(fā)揮協(xié)調(diào)功能。
監(jiān)督與糾錯(cuò)機(jī)制中的人類最終責(zé)任。在全球網(wǎng)絡(luò)空間治理中,人工智能系統(tǒng)被廣泛應(yīng)用于提升效率、擴(kuò)大覆蓋面、增強(qiáng)風(fēng)險(xiǎn)預(yù)測(cè)能力,尤其在行政決策、內(nèi)容審查與資源分配等領(lǐng)域日益發(fā)揮核心作用。然而,越是深入推進(jìn)技術(shù)嵌入的自動(dòng)化治理,人類作為制度監(jiān)督者與最終責(zé)任承擔(dān)者的角色就越顯關(guān)鍵。人工智能的判斷依據(jù)來(lái)自訓(xùn)練數(shù)據(jù)與模型邏輯,而這些基礎(chǔ)事項(xiàng)本身就可能包含偏見(jiàn)、盲區(qū)和邏輯缺陷。一旦人工智能作出錯(cuò)誤決策,其帶來(lái)的后果不僅限于技術(shù)層面,更可能波及公民權(quán)利與制度公信力。因此,人類仍是治理責(zé)任鏈條中不可替代的“最終責(zé)任方”——人工智能所造成的偏誤,必須由人類識(shí)別、修復(fù)與追責(zé)。
澳大利亞的“Robodebt”案件是高度自動(dòng)化治理失誤的典型案例。2016年,澳大利亞政府引入自動(dòng)數(shù)據(jù)匹配系統(tǒng),以檢測(cè)社會(huì)福利欺詐。然而,該系統(tǒng)在缺乏人工復(fù)核的情況下,簡(jiǎn)單對(duì)比稅務(wù)與福利數(shù)據(jù),自動(dòng)判定大量低收入者涉嫌騙保,并下發(fā)追繳令。這一過(guò)程中超過(guò)50萬(wàn)人受到影響,許多人陷入財(cái)務(wù)困境,甚至引發(fā)個(gè)體心理創(chuàng)傷和個(gè)別自殺事件。[29]2023年,澳大利亞皇家委員會(huì)裁定該系統(tǒng)“非法且缺乏基本正當(dāng)程序”,政府隨后公開(kāi)道歉并啟動(dòng)了賠償計(jì)劃。[30]該事件表明,人工智能可自動(dòng)生成決策,卻無(wú)法承擔(dān)由此引發(fā)的制度責(zé)任與政治后果。
類似的情況也出現(xiàn)在英國(guó)簽證系統(tǒng)中。英國(guó)內(nèi)政部曾使用人工智能對(duì)申請(qǐng)人進(jìn)行自動(dòng)化風(fēng)險(xiǎn)評(píng)分,以加速審批流程。調(diào)查發(fā)現(xiàn),該系統(tǒng)以國(guó)籍、申請(qǐng)模式等敏感變量為特征,將特定國(guó)家的申請(qǐng)人標(biāo)記為高風(fēng)險(xiǎn),導(dǎo)致大量合法申請(qǐng)被無(wú)理由拒簽。[31]2020年,多個(gè)民權(quán)團(tuán)體起訴政府系統(tǒng)存在算法歧視,倫敦高等法院裁定其違反反歧視法,系統(tǒng)隨即被廢除。[32]此事件再次表明,算法“效率”不能凌駕于程序正義與反歧視原則之上,而人類必須作為最終監(jiān)管者介入與糾偏。
平臺(tái)領(lǐng)域亦存在類似困境。微軟于2016年推出的人工智能聊天機(jī)器人“Tay”,在上線不到24小時(shí)內(nèi)即因用戶操縱而開(kāi)始發(fā)布種族主義、性別歧視和極端政治言論。微軟雖迅速下線系統(tǒng)并道歉,但事件暴露出平臺(tái)人工智能產(chǎn)品設(shè)計(jì)中缺少對(duì)價(jià)值防護(hù)機(jī)制的考量。[33]人工智能雖能生成內(nèi)容,但無(wú)法把握社會(huì)語(yǔ)境與倫理邊界,其生成邏輯不具備自主道德判斷能力,必須由人類制定限制、明確責(zé)任與建立動(dòng)態(tài)干預(yù)機(jī)制。
上述三個(gè)案例雖涉及不同國(guó)家與治理領(lǐng)域,卻揭示出同一個(gè)本質(zhì)問(wèn)題:人工智能是治理工具或輔助者而非問(wèn)責(zé)主體。全球網(wǎng)絡(luò)空間治理的合法性、透明性與正義性,最終仍需依靠人類制度設(shè)計(jì)者與政治責(zé)任人來(lái)守護(hù)。因此,構(gòu)建有效的全球網(wǎng)絡(luò)空間治理體系,必須以“人類可監(jiān)督、可介入、可糾偏”為前提。治理的每一個(gè)環(huán)節(jié)都應(yīng)設(shè)有人類可觸達(dá)的“責(zé)任接口”,確保當(dāng)人工智能系統(tǒng)運(yùn)行失效時(shí),能夠及時(shí)回歸人類干預(yù)機(jī)制,從而維護(hù)制度運(yùn)行的韌性與正當(dāng)性。
制度滯后與技術(shù)治理中的人類前瞻作用。在全球網(wǎng)絡(luò)空間治理中,技術(shù)的快速發(fā)展往往超前于制度的完善,形成制度滯后的現(xiàn)象。人工智能、元宇宙等新興技術(shù)的崛起,拓寬了人類社會(huì)的行為和價(jià)值邊界,但相應(yīng)的法律體系、治理機(jī)制和倫理規(guī)范卻未能同步更新,導(dǎo)致出現(xiàn)“制度真空”。這種滯后不僅源于政策工具的缺乏,更反映出人類對(duì)技術(shù)帶來(lái)的不確定性和潛在風(fēng)險(xiǎn)的認(rèn)知不足。在此背景下,治理的關(guān)鍵在于“預(yù)見(jiàn)未知”——即人類主動(dòng)識(shí)別新問(wèn)題,預(yù)設(shè)制度框架,填補(bǔ)規(guī)則盲區(qū)。這種前瞻性功能需要判斷力、價(jià)值設(shè)定和政治洞察力,而這些正是當(dāng)前人工智能所不具備的。
一個(gè)典型的制度盲區(qū)是人工智能在內(nèi)容審核中的應(yīng)用。例如,YouTube等視頻平臺(tái)利用人工智能技術(shù)自動(dòng)檢測(cè)并刪除涉嫌侵犯版權(quán)的內(nèi)容。然而,這些人工智能系統(tǒng)有時(shí)會(huì)錯(cuò)誤地刪除合法內(nèi)容,或未能及時(shí)識(shí)別新的侵權(quán)形式,導(dǎo)致內(nèi)容創(chuàng)作者和權(quán)力持有者之間的爭(zhēng)議。這反映了在內(nèi)容審核領(lǐng)域,單純依賴人工智能可能導(dǎo)致過(guò)度刪除或漏判,需要人類制定前瞻性的審核標(biāo)準(zhǔn)和糾錯(cuò)機(jī)制,以平衡版權(quán)保護(hù)與言論自由。[34]因?yàn)槿斯ぶ悄軣o(wú)法提出“什么是可接受行為”或“虛假信息應(yīng)如何界定和治理”等問(wèn)題,這類判斷超出模式學(xué)習(xí)范疇,需人類憑借經(jīng)驗(yàn)、倫理與社會(huì)洞察作出。
類似前瞻性機(jī)制也體現(xiàn)在國(guó)家監(jiān)管層面。英國(guó)政府2023年發(fā)布的《人工智能監(jiān)管白皮書(shū)》明確拒絕“一刀切”式立法,而主張“輕觸監(jiān)管”(light-touch regulation)與“部門(mén)自適應(yīng)”(sector-specific flexibility)相結(jié)合的模式。該文件強(qiáng)調(diào),人工智能作為尚未完全成型的通用技術(shù),應(yīng)在治理上保留“實(shí)驗(yàn)空間”,由各行業(yè)根據(jù)風(fēng)險(xiǎn)特征與成熟度進(jìn)行規(guī)則試點(diǎn)。[35]這背后體現(xiàn)的是一種政治判斷:人工智能的治理邊界不能由人工智能自身設(shè)定,而需人類制度設(shè)計(jì)者在風(fēng)險(xiǎn)外溢前構(gòu)建緩沖帶,主動(dòng)設(shè)定規(guī)則演化節(jié)奏。
在全球治理層面,制度前瞻性尤為關(guān)鍵。世界經(jīng)濟(jì)論壇(World Economic Forum)于2022年啟動(dòng)了“定義和構(gòu)建元宇宙”倡議,旨在構(gòu)建元宇宙的治理框架。這份報(bào)告探討了元數(shù)據(jù)身份,倡導(dǎo)采用安全、包容和注重隱私的方法。報(bào)告強(qiáng)調(diào),需要以平等和無(wú)障礙為基礎(chǔ)構(gòu)建元宇宙,強(qiáng)調(diào)負(fù)責(zé)任的數(shù)據(jù)實(shí)踐和包容性設(shè)計(jì),體現(xiàn)了人類在預(yù)設(shè)未來(lái)治理規(guī)范方面的制度努力。[36]該文件的產(chǎn)生并非技術(shù)專家閉門(mén)造車,而是由來(lái)自全球各地的150多位專家通過(guò)多輪磋商達(dá)成。這一過(guò)程本質(zhì)上是人類通過(guò)政治、文化與價(jià)值對(duì)話共同“預(yù)設(shè)未來(lái)治理規(guī)范”的制度努力。
無(wú)論是在企業(yè)平臺(tái)設(shè)定內(nèi)容邊界,還是國(guó)家層面制定行業(yè)規(guī)范,抑或在國(guó)際社會(huì)達(dá)成治理共識(shí),制度前瞻性的邏輯始終是人類主動(dòng)識(shí)別風(fēng)險(xiǎn)、提出規(guī)范,并創(chuàng)造性地設(shè)定邊界。人工智能可以優(yōu)化執(zhí)行路徑,但無(wú)法承擔(dān)制度開(kāi)創(chuàng)的職責(zé)。制度前瞻性不是對(duì)現(xiàn)有規(guī)則的泛化延伸,而是對(duì)全新問(wèn)題作出結(jié)構(gòu)性響應(yīng)。“制度前瞻”,正是人類能力的制度化表達(dá),是確保技術(shù)發(fā)展不脫離價(jià)值軌道的關(guān)鍵保障。
邁向“人機(jī)協(xié)同共治”的全球網(wǎng)絡(luò)空間治理
前面內(nèi)容揭示了人工智能如何在效率、流程與結(jié)構(gòu)層面重塑全球網(wǎng)絡(luò)空間治理體系,以及人類在價(jià)值判斷、制度設(shè)定與風(fēng)險(xiǎn)監(jiān)督中的不可替代性。這一雙重動(dòng)力交匯的關(guān)鍵問(wèn)題是:在人工智能時(shí)代的全球網(wǎng)絡(luò)空間治理中,如何推動(dòng)人類與人工智能的有效協(xié)作?如何避免“替代幻想”與“人類依賴”的雙重極端?下面將從理念、結(jié)構(gòu)、制度與風(fēng)險(xiǎn)四個(gè)維度,探討人機(jī)協(xié)同治理的內(nèi)在邏輯與實(shí)現(xiàn)路徑。
從任務(wù)分工到角色互補(bǔ):人機(jī)協(xié)同的治理理念。在全球網(wǎng)絡(luò)空間治理的早期階段,人工智能多被視為“自動(dòng)化工具”,承擔(dān)信息篩查、風(fēng)險(xiǎn)識(shí)別和流程管理等標(biāo)準(zhǔn)化任務(wù),治理權(quán)力與責(zé)任依然集中在人類決策者手中。但隨著深度學(xué)習(xí)、多模態(tài)分析等技術(shù)突破,人工智能開(kāi)始具備在政策建議、內(nèi)容風(fēng)險(xiǎn)評(píng)估、趨勢(shì)預(yù)測(cè)等方面的主動(dòng)性能力,推動(dòng)治理理念從“人控人工智能”的線性分工向“人機(jī)共治”的角色互補(bǔ)演化。這一轉(zhuǎn)變不僅涉及技術(shù)能力的提升,更反映出治理責(zé)任結(jié)構(gòu)與認(rèn)知體系的系統(tǒng)重構(gòu)。
從認(rèn)知結(jié)構(gòu)上看,人工智能擅長(zhǎng)處理大規(guī)模、跨平臺(tái)數(shù)據(jù),在識(shí)別虛假信息擴(kuò)散路徑、仇恨言論聚集區(qū)域等方面展現(xiàn)出高效性。例如,Meta表示其內(nèi)容審核人工智能系統(tǒng)近幾年對(duì)一般類別違規(guī)內(nèi)容的主動(dòng)檢測(cè)率達(dá)到90%以上,顯示了人工智能在內(nèi)容審核中的重要作用。[37]然而,人工智能在理解文化語(yǔ)境、隱喻含義和歷史背景等復(fù)雜信息方面存在局限性。同一句話在不同文化中可能具有完全不同的含義或敏感度,這種細(xì)微差別仍需人類參與者的經(jīng)驗(yàn)和倫理直覺(jué)來(lái)判斷。因此,“人機(jī)協(xié)同”需結(jié)合人工智能的高效數(shù)據(jù)處理能力和人類的深度理解與價(jià)值判斷,實(shí)現(xiàn)優(yōu)勢(shì)互補(bǔ)。
在全球網(wǎng)絡(luò)空間治理中,人工智能與人類的協(xié)同合作已成為提升內(nèi)容審核效率和準(zhǔn)確性的關(guān)鍵策略。傳統(tǒng)上,人工智能被視為中立的工具,其錯(cuò)誤通常由系統(tǒng)設(shè)計(jì)者或操作者承擔(dān)責(zé)任。然而,在“人機(jī)共治”的框架下,人工智能不再僅僅是執(zhí)行流程中的一環(huán),而是成為治理鏈條的重要組成部分。這要求建立制度,納入人工智能推理與人類判斷的協(xié)作機(jī)制,實(shí)現(xiàn)“動(dòng)態(tài)授權(quán)+審慎監(jiān)督”的組合模式。還以Meta為例,該公司在內(nèi)容審核中采用了人類與人工智能協(xié)同的策略。人工智能系統(tǒng)首先對(duì)內(nèi)容進(jìn)行初步篩選,識(shí)別潛在的違規(guī)內(nèi)容。隨后,人類審核員對(duì)人工智能標(biāo)記的內(nèi)容進(jìn)行復(fù)核,以確保決策的準(zhǔn)確性和上下文理解。[38]這種協(xié)作模式結(jié)合了人工智能的高效處理能力和人類的復(fù)雜判斷力,提高了內(nèi)容審核的質(zhì)量和效率。
此外,研究人員也在探索人機(jī)協(xié)作的新方法。例如,一項(xiàng)研究提出了“條件委派”(conditional delegation)的概念,即人類制定規(guī)則,指定在哪些情況下信任人工智能的判斷,在哪些情況下需要人類介入。[39]這種方法在內(nèi)容審核領(lǐng)域展開(kāi)實(shí)驗(yàn),結(jié)果表明,通過(guò)人機(jī)協(xié)作,結(jié)合人工智能的高效處理能力和人類的復(fù)雜判斷力,可以同時(shí)提高決策的準(zhǔn)確性和效率。這些實(shí)踐顯示,“人機(jī)共治”并非職責(zé)替代,而是以優(yōu)勢(shì)互補(bǔ)為基礎(chǔ)、以人類價(jià)值判斷為核心的新型治理結(jié)構(gòu)。
從平臺(tái)調(diào)度到結(jié)構(gòu)嵌套:治理主體的組織協(xié)同。隨著數(shù)字平臺(tái)逐漸成為網(wǎng)絡(luò)空間的基礎(chǔ)設(shè)施,其調(diào)度能力也逐步轉(zhuǎn)化為全球網(wǎng)絡(luò)空間治理體系中的核心依托。從內(nèi)容審核到數(shù)據(jù)監(jiān)管,從賬號(hào)治理到信息披露,平臺(tái)承擔(dān)的治理職能不斷拓展。然而,這種治理機(jī)制雖顯著提高了響應(yīng)效率,卻引發(fā)了對(duì)治理權(quán)力過(guò)度集中、“技術(shù)公司即監(jiān)管者”的正當(dāng)性質(zhì)疑。人工智能賦予平臺(tái)更強(qiáng)大的決策與執(zhí)行力,使其能通過(guò)算法系統(tǒng)調(diào)控內(nèi)容排序、識(shí)別風(fēng)險(xiǎn)行為、預(yù)測(cè)輿情波動(dòng)。然而,當(dāng)治理決策開(kāi)始影響公共利益、觸及基本權(quán)利時(shí),僅靠企業(yè)內(nèi)部流程無(wú)法保障治理的透明度與正當(dāng)性。因此,需要引入外部力量與公共制度,實(shí)現(xiàn)權(quán)力的嵌套分布與功能協(xié)調(diào)。
Meta(原Facebook)設(shè)立的“監(jiān)督委員會(huì)”(Oversight Board)便是典型的結(jié)構(gòu)嵌套機(jī)制實(shí)踐。作為一家技術(shù)平臺(tái)公司,Meta通過(guò)此機(jī)制引入獨(dú)立第三方機(jī)構(gòu)來(lái)對(duì)其內(nèi)容管控決策進(jìn)行再審查。監(jiān)督委員會(huì)由前國(guó)際法院法官、人權(quán)專家、學(xué)者及媒體代表組成,獨(dú)立處理平臺(tái)標(biāo)記為爭(zhēng)議性或具有廣泛社會(huì)影響的內(nèi)容案件,具備有限但實(shí)質(zhì)的“準(zhǔn)司法”功能。委員會(huì)有權(quán)推翻平臺(tái)的初始決定,并提出政策建議,而Meta則承諾對(duì)所有裁定予以公開(kāi)回應(yīng)。[40]這種“平臺(tái)決策—外部復(fù)核—政策反饋”的結(jié)構(gòu)設(shè)計(jì),使平臺(tái)內(nèi)部審核機(jī)制與外部社會(huì)監(jiān)督形成嵌套協(xié)同,有效緩解了平臺(tái)公司“既當(dāng)運(yùn)動(dòng)員又當(dāng)裁判員”的合法性困境。
新加坡的“可信數(shù)據(jù)共享框架”(Trusted Data Sharing Framework)展示了政府與平臺(tái)之間協(xié)作治理的數(shù)據(jù)嵌套模式。該框架由新加坡資訊通信媒體發(fā)展局(IMDA)牽頭,于2020年正式發(fā)布,旨在建立一種可持續(xù)、透明、受信任的數(shù)據(jù)交換環(huán)境。平臺(tái)需在其技術(shù)架構(gòu)中集成政府設(shè)定的監(jiān)控API模塊,實(shí)時(shí)報(bào)告數(shù)據(jù)流轉(zhuǎn)情況,政府則基于人工智能模型對(duì)數(shù)據(jù)活動(dòng)進(jìn)行風(fēng)險(xiǎn)評(píng)估與合規(guī)監(jiān)測(cè),并對(duì)平臺(tái)的數(shù)據(jù)使用行為進(jìn)行認(rèn)證與審計(jì)。該框架還通過(guò)責(zé)任共擔(dān)機(jī)制明確平臺(tái)在數(shù)據(jù)濫用、違規(guī)收集數(shù)據(jù)時(shí)的問(wèn)責(zé)路徑,捍衛(wèi)數(shù)據(jù)治理中的權(quán)力邊界與協(xié)調(diào)機(jī)制。[41]
相較于傳統(tǒng)平臺(tái)自律模式,結(jié)構(gòu)嵌套治理的優(yōu)勢(shì)在于制度性分權(quán)與程序性監(jiān)督。平臺(tái)的“執(zhí)行效率”、政府的“合規(guī)把關(guān)”、公眾的“外部監(jiān)督”、人工智能系統(tǒng)的“技術(shù)中樞”得以整合為一個(gè)多元分工、動(dòng)態(tài)互動(dòng)的治理生態(tài)系統(tǒng)。這種模式既能保障治理效率,又能在程序正義、權(quán)力約束與多元代表性之間取得相對(duì)平衡。
從規(guī)制統(tǒng)一到協(xié)商調(diào)優(yōu):規(guī)則共創(chuàng)的實(shí)踐機(jī)制。在網(wǎng)絡(luò)空間治理中,傳統(tǒng)模式通常由政府或平臺(tái)單方面制定規(guī)則,通過(guò)法律或服務(wù)條款約束用戶行為。然而,隨著技術(shù)的快速發(fā)展和文化的多元化,這種“規(guī)制統(tǒng)一”模式逐漸暴露出合法性不足、響應(yīng)滯后和治理僵化等問(wèn)題。平臺(tái)規(guī)則難以涵蓋復(fù)雜語(yǔ)境下的價(jià)值沖突,政府立法往往滯后于技術(shù)更新迭代,用戶也缺乏實(shí)際參與的渠道。這些挑戰(zhàn)推動(dòng)全球網(wǎng)絡(luò)空間治理從“規(guī)制統(tǒng)一”向“協(xié)商調(diào)優(yōu)”轉(zhuǎn)變,即將規(guī)則視為可反饋、可演化的共創(chuàng)機(jī)制。
“協(xié)商調(diào)優(yōu)”指的是規(guī)則制定不再是一成不變的文本,而是在多方參與的基礎(chǔ)上,通過(guò)持續(xù)反饋和動(dòng)態(tài)修正不斷完善的治理過(guò)程。人工智能技術(shù)在其中發(fā)揮了關(guān)鍵作用:一方面,人工智能通過(guò)對(duì)用戶行為、輿論變化和風(fēng)險(xiǎn)態(tài)勢(shì)的實(shí)時(shí)分析,提供高頻率、結(jié)構(gòu)化的治理反饋;另一方面,這些數(shù)據(jù)又能反哺規(guī)則優(yōu)化,形成“數(shù)據(jù)—規(guī)則—反饋”的閉環(huán)系統(tǒng),塑造出“可學(xué)習(xí)”的治理結(jié)構(gòu)。
以美國(guó)社交新聞和網(wǎng)絡(luò)社區(qū)公司Reddit為例,其社區(qū)管理機(jī)制允許用戶依據(jù)設(shè)定條件上報(bào)爭(zhēng)議內(nèi)容,后臺(tái)人工智能系統(tǒng)據(jù)此評(píng)估風(fēng)險(xiǎn)等級(jí)并提出處理建議,最終由社區(qū)管理員與用戶代表共同決定是否執(zhí)行操作。[42]這一“算法+協(xié)商”結(jié)構(gòu)既增強(qiáng)了社區(qū)自律,又避免了平臺(tái)獨(dú)斷,為社群賦予了規(guī)則演繹空間。
另一個(gè)案例是美國(guó)眾議院于2022年頒布的《算法問(wèn)責(zé)法案》(Algorithmic Accountability Act of 2022),要求使用自動(dòng)化決策系統(tǒng)的企業(yè)研究并報(bào)告這些系統(tǒng)對(duì)消費(fèi)者的影響,包括是否存在偏見(jiàn)或歧視性決策。[43]該法案推動(dòng)形成企業(yè)、監(jiān)管機(jī)構(gòu)和公眾之間的協(xié)商機(jī)制,確保算法決策的透明度和公平性。值得強(qiáng)調(diào)的是,協(xié)商調(diào)優(yōu)并不意味著規(guī)則松動(dòng)或治理弱化,而是將動(dòng)態(tài)反饋和協(xié)商調(diào)優(yōu)嵌入規(guī)范生成中,從而提升規(guī)則適應(yīng)力與治理包容性。
從算法執(zhí)行到責(zé)任共擔(dān):治理責(zé)任的協(xié)同分布。傳統(tǒng)治理中,責(zé)任集中在人類治理主體上,而人工智能系統(tǒng)的引入打破了這一清晰歸屬邏輯。若治理偏差、技術(shù)誤判等問(wèn)題出現(xiàn),僅將責(zé)任推給“算法”或“平臺(tái)”既不具備倫理正當(dāng)性,也難滿足公共治理的法律要求。因此,全球網(wǎng)絡(luò)空間治理正在轉(zhuǎn)向多方主體責(zé)任共擔(dān)的制度階段,形成覆蓋平臺(tái)、政府、開(kāi)發(fā)者與公眾的責(zé)任協(xié)同體系。
首先,平臺(tái)企業(yè)作為系統(tǒng)設(shè)計(jì)與運(yùn)營(yíng)的核心主體,必須承擔(dān)首要責(zé)任。無(wú)論是內(nèi)容審核還是風(fēng)控系統(tǒng),平臺(tái)對(duì)其人工智能模型的邏輯、邊界與偏差風(fēng)險(xiǎn)負(fù)有直接責(zé)任。在2023年,IBM發(fā)布了《信任和透明度原則》(IBM's Principles for Trust and Transparency),明確提出平臺(tái)企業(yè)在開(kāi)發(fā)和部署人工智能系統(tǒng)時(shí)必須承擔(dān)首要責(zé)任,特別是在模型的透明性、公平性和問(wèn)責(zé)機(jī)制方面。IBM強(qiáng)調(diào),企業(yè)在設(shè)計(jì)人工智能系統(tǒng)時(shí)應(yīng)對(duì)其邏輯、邊界和潛在偏差進(jìn)行全面評(píng)估,并對(duì)系統(tǒng)可能帶來(lái)的社會(huì)影響負(fù)責(zé)。[44]
其次,政府監(jiān)管機(jī)構(gòu)需履行制度框架責(zé)任。他們不僅制定治理底線,還必須對(duì)人工智能系統(tǒng)執(zhí)行審查、風(fēng)險(xiǎn)預(yù)警與糾錯(cuò)監(jiān)督。2024年正式生效的歐盟《人工智能法案》(AI Act)將資格審核、司法協(xié)助等領(lǐng)域納入“高風(fēng)險(xiǎn)人工智能”分類,要求企業(yè)進(jìn)行事前評(píng)估與事后問(wèn)責(zé),保障公眾利益。[45]該法案明確政府需構(gòu)建“算法問(wèn)責(zé)鏈”,降低“黑箱治理”帶來(lái)的影響。
再次,算法開(kāi)發(fā)者與模型訓(xùn)練人員應(yīng)承擔(dān)源頭責(zé)任,確保人工智能系統(tǒng)的訓(xùn)練數(shù)據(jù)和建模邏輯的公正性和準(zhǔn)確性。2020年,荷蘭稅務(wù)機(jī)關(guān)人工智能系統(tǒng)在識(shí)別社會(huì)福利欺詐時(shí),因算法存在偏見(jiàn),錯(cuò)誤處罰了數(shù)千個(gè)少數(shù)族裔家庭,造成嚴(yán)重后果,最終導(dǎo)致政府高層集體辭職。[46]該事件揭示了開(kāi)發(fā)階段對(duì)數(shù)據(jù)偏誤與建模邏輯把控不足造成的嚴(yán)重后果,推動(dòng)多國(guó)出臺(tái)了“模型文檔留存”“可解釋性標(biāo)準(zhǔn)”等技術(shù)責(zé)任規(guī)范。
此外,用戶與公眾也需在全球網(wǎng)絡(luò)空間治理中扮演“反饋責(zé)任者”角色。在日益復(fù)雜的網(wǎng)絡(luò)空間中,人工智能系統(tǒng)的判斷雖能提高效率,但其所依賴的算法邏輯、訓(xùn)練數(shù)據(jù)與規(guī)則設(shè)定往往難以覆蓋所有社會(huì)語(yǔ)境,極易產(chǎn)生偏差、遺漏或誤導(dǎo)。在這種背景下,公眾作為規(guī)則接受者和實(shí)際使用者,往往最早察覺(jué)算法運(yùn)行中的異常與隱患。許多治理失效的早期信號(hào),都來(lái)自用戶的日常體驗(yàn)與個(gè)體反饋。正是公眾的主動(dòng)投訴、集體抗議與社會(huì)輿論的推動(dòng),促使平臺(tái)與監(jiān)管機(jī)構(gòu)及時(shí)調(diào)整策略,彌補(bǔ)制度短板。以YouTube為例,其曾因推薦算法引導(dǎo)用戶觀看極端內(nèi)容而遭批評(píng),最終通過(guò)調(diào)整推薦機(jī)制并開(kāi)放部分評(píng)估數(shù)據(jù),加強(qiáng)了平臺(tái)治理的透明度與公眾監(jiān)督的可行性。[47]這些舉措體現(xiàn)出一個(gè)重要趨勢(shì),即公眾反饋不僅是治理效果的測(cè)量標(biāo)尺,更是治理機(jī)制自我糾偏、自我進(jìn)化的重要?jiǎng)恿υ础?/p>
平臺(tái)設(shè)計(jì)者、政府監(jiān)管者、技術(shù)開(kāi)發(fā)者與用戶群體共同構(gòu)建責(zé)任鏈條,使“人機(jī)共治”不僅體現(xiàn)在操作層面,也落實(shí)在價(jià)值判斷與權(quán)責(zé)分配之中。只有當(dāng)責(zé)任不再空懸,人機(jī)協(xié)同治理才能實(shí)現(xiàn)合法性、透明性與可持續(xù)性的動(dòng)態(tài)平衡。
結(jié)語(yǔ)
人工智能正以前所未有的深度嵌入全球網(wǎng)絡(luò)空間治理體系。憑借強(qiáng)大的數(shù)據(jù)處理能力、模式識(shí)別技術(shù)與即時(shí)響應(yīng)速度,人工智能在內(nèi)容審核、數(shù)據(jù)監(jiān)管、智能合約等領(lǐng)域大幅提升了治理執(zhí)行力與適應(yīng)性,推動(dòng)治理機(jī)制從人工驅(qū)動(dòng)向智能驅(qū)動(dòng)演化。然而,治理不僅關(guān)乎效率,更關(guān)乎規(guī)范設(shè)定、價(jià)值判斷與責(zé)任歸屬。這一張力正是人工智能參與全球網(wǎng)絡(luò)空間治理面臨的核心困境:其可以優(yōu)化路徑,卻難以判斷方向;可以支持響應(yīng),卻難以解決沖突;可以執(zhí)行操作,卻無(wú)法承擔(dān)責(zé)任。
因此,全球網(wǎng)絡(luò)空間治理的本質(zhì)從未脫離政治與制度的核心屬性。人工智能賦能不應(yīng)被誤解為人類角色的讓渡,而應(yīng)視為治理邏輯、責(zé)任結(jié)構(gòu)與價(jià)值共識(shí)的重構(gòu)契機(jī)。技術(shù)能力的提升,對(duì)治理者提出了更高要求:如何引導(dǎo)人工智能服務(wù)公共利益、限定邊界、保障糾錯(cuò)機(jī)制——這些問(wèn)題的答案將決定全球網(wǎng)絡(luò)空間治理秩序的穩(wěn)定與韌性。
未來(lái)的全球網(wǎng)絡(luò)空間治理需警惕兩個(gè)極端:一是“技術(shù)決定論”或“技治主義”,盲目推崇人工智能主導(dǎo)治理,忽視制度設(shè)定與價(jià)值約束;[48]二是“技術(shù)恐懼論”,因風(fēng)險(xiǎn)憂慮而拒絕技術(shù)介入,錯(cuò)失變革式發(fā)展契機(jī)。[49]真正前瞻性的路徑,是構(gòu)建人類主導(dǎo)、人工智能輔助的人機(jī)協(xié)同治理體系:重大規(guī)范與價(jià)值判斷由人類協(xié)商決定;人工智能專注于執(zhí)行操作與初步識(shí)別,人類則負(fù)責(zé)監(jiān)督與復(fù)審,形成責(zé)任閉環(huán);任何治理失誤最終仍由人類承擔(dān)制度責(zé)任。
總之,人機(jī)協(xié)同治理不僅意味著治理工具升級(jí),更是治理哲學(xué)與制度倫理的再定義。問(wèn)題不在于人工智能能做什么,而在于人類應(yīng)讓人工智能做什么;不在于人工智能能否取代人類,而在于人類如何智慧地引導(dǎo)和規(guī)范人工智能。唯有在人類價(jià)值主導(dǎo)的治理框架下,我們才能在高度數(shù)字化的時(shí)代,實(shí)現(xiàn)效率與正義、自動(dòng)化與人本治理的動(dòng)態(tài)平衡。人工智能不應(yīng)是治理的終點(diǎn),而應(yīng)成為制度進(jìn)化的新起點(diǎn),推動(dòng)我們重新定義權(quán)力結(jié)構(gòu)、責(zé)任邊界與治理價(jià)值的未來(lái)。
(本文系國(guó)家社會(huì)科學(xué)基金重大項(xiàng)目“健全網(wǎng)絡(luò)綜合治理體系研究”的階段性成果,項(xiàng)目編號(hào):23ZDA086)
注釋
[1]全球網(wǎng)絡(luò)空間治理的相關(guān)具體內(nèi)容可參見(jiàn)蔡翠紅:《全球網(wǎng)絡(luò)空間治理》,上海:復(fù)旦大學(xué)出版社,2024年。
[2]M. Taddeo; T. McCutcheon and L. Floridi, \"Trusting Artificial Intelligence in Cybersecurity Is a Double-Edged Sword,\" Nature Machine Intelligence, 2019, 1(12).
[3]詹海寶、孫江、郭夢(mèng)圓:《基于人機(jī)協(xié)同的網(wǎng)絡(luò)文化安全治理新模式》,《傳媒》,2023年第15期;劉銳、劉芾:《短視頻內(nèi)容生態(tài)的人機(jī)協(xié)同治理網(wǎng)絡(luò)分析》,《青年記者》,2024 年第12期;謝耘耕、李丹珉:《從經(jīng)驗(yàn)決策到人機(jī)協(xié)同:輿情決策模式的變革研究》,《新媒體與社會(huì)》,2021年第1期。
[4]Meta, \"Integrity and Transparency Reports: Q4 2022,\" 23 February 2023, https://about.fb.com/news/2023/02/metas-integrity-and-transparency-reports-q4-2022/.
[5]Microsoft, \"What Is Microsoft Sentinel?\" 22 May 2024, https://learn.microsoft.com/en-us/azure/sentinel/overview.
[6]G. Deep and J. Verma, \"Embracing the Future: AI and ML Transforming Urban Environments in Smart Cities,\" Journal of Artificial Intelligence, 2023, 5(57).
[7]Kaspersky, \"Kaspersky Overview: Our Values, Business, Solutions and Services,\" 19 December 2024, https://media.kasperskycontenthub.com/wp-content/uploads/sites/100/2024/12/19085748/Kaspersky_Overview_Q4-2024.pdf.
[8]Kaspersky, \"AI in Cybersecurity Automation,\" 17 October 2024, https://usa.kaspersky.com/blog/ai-role-in-cybersecurity-automation/30612/?srsltid=AfmBOopn_Da6v4M7_krpmC_elC4Hvf6RfMDRcTG_1sOdqembLnj1uCx8.
[9]阿里研究院:《“做好”科技,做“好科技”》,2022年10月18日,http://www.aliresearch.com/ch/information/informationdetails?articleCode=390673563344048128amp;type=%E6%96%B0%E9%97%BBamp;organName=。
[10]TikTok for Business, \"Ensuring Creative Integrity in the Age of Generative AI,\" 21 November 2024, https://ads.tiktok.com/business/en-US/blog/creative-integrity-generative-ai?redirected=1.
[11]百度AI開(kāi)放平臺(tái):《內(nèi)容審核平臺(tái)》,https://ai.baidu.com/solution/censoring。
[12]《百度用AI對(duì)抗AI濫用:可識(shí)別70余種詐騙套路》,2021年9月28日,https://m.huanqiu.com/article/44xDDSIKZfR。
[13]European Commission, \"The Digital Services Act: Ensuring a Safe and Accountable Online Environment,\" 27 October 2022, https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act_en.
[14]Department for Science, Innovation amp; Technology, \"A Pro-Innovation Approach to AI Regulation,\" 3 August 2023, https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper.
[15][48]鄔曉燕:《數(shù)字治理中的技治主義:困境、根源與突破》,《云南社會(huì)科學(xué)》,2024 年第6期。
[16]European Commission, \"European Approach to Artificial Intelligence,\" 18 February 2025, https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence.
[17]《中華人民共和國(guó)個(gè)人信息保護(hù)法》,2021年8月20日,https://www.gov.cn/xinwen/2021-08/20/content_5632486.htm。
[18]UN Secretary-General, \"Developments in the Field of Information and Telecommunications in the Context of International Security, and Advancing Responsible State Behaviour in the Use of Information and Communications Technologies: Report of the Secretary-General,\" 8 June 2022, https://digitallibrary.un.org/record/3982519?ln=enamp;v=pdf.
[19]Oversight Board, \"Improving How Meta Treats People and Communities Around the World,\" https://www.oversightboard.com/.
[20]D. Wakabayashi and S. Shane, \"Google Will Not Renew Pentagon Contract That Upset Employees,\" 1 June 2018, https://www.nytimes.com/2018/06/01/technology/google-pentagon-project-maven.html.
[21]New Zealand Government, \"The Christchurch Call Commitments,\" 15 May 2019, https://www.christchurchcall.org/the-christchurch-call-commitments/.
[22]L. James, \"Attorney General James Issues Report Detailing Millions of Fake Comments, Revealing Secret Campaign to Influence FCC's 2017 Repeal of Net Neutrality Rules,\" 6 May 2021, https://ag.ny.gov/press-release/2021/attorney-general-james-issues-report-detailing-millions-fake-comments-revealing.
[23]G. Wetherall-Gruji, \"The Lost Contributions to France's Great Debate: Lessons From the Grievances Five Years on,\" 21 March 2024, https://democracy-technologies.org/participation/lost-contributions-to-great-debate/.
[24]A. Bouverot, \"Great National Debate: Artificial Intelligence at the Service of Collective Intelligence?\" 12 April 2019, https://www.institutmontaigne.org/en/expressions/great-national-debate-artificial-intelligence-service-collective-intelligence.
[25]UK Parliament, \"Preparedness for Online Safety Regulation,\" 21 February 2024, https://publications.parliament.uk/pa/cm5804/cmselect/cmpubacc/73/report.html.
[26]W. Reinsch; P. Saumell; I. Frymoyer and J. Caporal, \"TikTok Is Running Out of Time: Understanding the CFIUS Decision and Its Implications,\" 2 September 2020, https://www.csis.org/analysis/tiktok-running-out-time-understanding-cfius-decision-and-its-implications?utm_source.
[27]The CJEU Judgment in the Schrems II Case, \"The Court of Justice Invalidates Decision 2016/1250 on the Adequacy of the Protection Provided by the EU-US Data Protection Shield,\" 16 July 2020, https://curia.europa.eu/jcms/upload/docs/application/pdf/2020-07/cp200091en.pdf.
[28]UNESCO, \"2022 Internet Governance Forum Stakeholders Champion the Value of Inclusive Digital Internet Governance,\" 10 January 2023, https://www.unesco.org/en/articles/2022-internet-governance-forum-stakeholders-champion-value-inclusive-digital-internet-governance.
[29]F. Mao, \"Robodebt: Illegal Australian Welfare Hunt Drove People to Despair,\" 7 July 2023, https://www.bbc.com/news/world-australia-66130105.
[30]Robodebt Royal Commission, \"Overview of Final Report,\" 19 February 2024, https://www.apra.gov.au/sites/default/files/2024-02/Robodebt%20Royal%20Commision%20-%20Overview%20of%20Final%20Report.pdf.
[31]H. McDonald, \"AI System for Granting UK Visas Is Biased, Rights Groups Claim,\" 29 October 2019, https://www.theguardian.com/uk-news/2019/oct/29/ai-system-for-granting-uk-visas-is-biased-rights-groups-claim.
[32]BBC, \"Home Office Drops Racist Algorithm from Visa Decisions,\" 4 August 2020, https://www.bbc.com/news/technology-53650758.
[33]P. Lee, \"Learning From Tay's Introduction,\" 25 March 2016, https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/.
[34]C. Broughan, \"A Washing Machine Chime amp; Copyright Fraud on YouTube,\" 31 July 2024, https://marksgray.com/intellectual-property/a-washing-machine-chime-copyright-fraud-on-youtube/.
[35]O. Yaros; R. Randall et al., \"UK Government Response to AI Regulation Consultation,\" 5 March 2024, https://www.mayerbrown.com/en/insights/publications/2024/03/uk-government-response-to-ai-regulation-consultation.
[36]World Economic Forum, \"Metaverse Identity: Defining the Self in a Blended Reality,\" 13 March 2024, https://www3.weforum.org/docs/WEF_Metaverse_Identity_Defining_the_Self_in_a_Blended_Reality_2024.pdf.
[37]Meta Transparency Center, \"How Technology Detects Violations,\" 18 October 2023, https://transparency.meta.com/en-us/enforcement/detecting-violations/technology-detects-violations/.
[38]Meta, \"Here's How We're Using AI to Help Detect Misinformation,\" 19 November 2020, https://ai.meta.com/blog/heres-how-were-using-ai-to-help-detect-misinformation/.
[39]ACM SIGCHI, \"Human-AI Collaboration via Conditional Delegation: A Case Study of Content Moderation,\" 3 April 2022, https://www.youtube.com/watch?v=4W2ed8C9LYM.
[40]Oversight Board, \"Improving How Meta Treats People and Communities Around the World,\" https://www.oversightboard.com/.
[41]Infocomm Media Development Authority, \"About the Trusted Data Sharing Framework,\" 1 July 2024, https://www.imda.gov.sg/how-we-can-help/data-innovation/trusted-data-sharing-framework.
[42]Reddit Inc., \"Reddit Transparency Report: January to June 2023,\" https://redditinc.com/policies/2023-h1-transparency-report.
[43]J. M?kander; P. Juneja1 et al., \"The US Algorithmic Accountability Act of 2022 vs. the EU Artificial Intelligence Act: What Can They Learn from Each Other?\" Minds and Machines, 2022, 32.
[44]IBM, \"IBM's Principles for Trust and Transparency,\" 30 May 2018, https://www.ibm.com/policy/trust-transparency.
[45]European Commission, \"Artificial Intelligence-Questions and Answers,\" 1 August 2024, https://ec.europa.eu/commission/presscorner/detail/en/qanda_21_1683.
[46]M. Heikkil?, \"Dutch Scandal Serves as a Warning for Europe over Risks of Using Algorithms,\" 29 March 2022, https://www.politico.eu/article/dutch-scandal-serves-as-a-warning-for-europe-over-risks-of-using-algorithms/.
[47]M. Ledwich and A. Zaitsev, \"Algorithmic Extremism: Examining YouTube's Rabbit Hole of Radicalization,\" 24 December 2019, https://arxiv.org/abs/1912.11211.
[49]王斌、孔燕:《技術(shù)恐懼的演變規(guī)律分析》,《東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》,2023年第4期。
責(zé) 編∕桂 琰" 美 編∕梁麗琛