【內(nèi)容提要】近年來,作為在平臺上允許自主發(fā)布內(nèi)容的人工智能體,社交機(jī)器人從傳播中介一躍成為傳播主體,在重塑媒介生態(tài)的同時也存在行為失范等一系列問題。歐盟《人工智能法案》從明確定義到規(guī)定權(quán)利和義務(wù),再到實施嚴(yán)格的制裁手段,站在利益攸關(guān)方協(xié)商的立法角度彌補(bǔ)了現(xiàn)階段社交機(jī)器人的平臺漏洞和監(jiān)管缺失,為媒介系統(tǒng)下的社交機(jī)器人的行為規(guī)范提供了現(xiàn)行標(biāo)準(zhǔn)和糾偏機(jī)制,也為媒體平臺的具體應(yīng)對提供了相應(yīng)的法律依據(jù)。
【關(guān)鍵詞】《人工智能法案》 社交機(jī)器人 行為規(guī)范 媒介生態(tài) 智能監(jiān)管
一、 媒介生態(tài)中的新型“行動者”:社交機(jī)器人與自動化決策權(quán)
進(jìn)入21世紀(jì)以來,互聯(lián)網(wǎng)的“平臺化”隨著政治和經(jīng)濟(jì)領(lǐng)域?qū)?shù)字網(wǎng)絡(luò)生態(tài)系統(tǒng)的全方位滲透而成為全球發(fā)展趨勢,從根本上影響了文化產(chǎn)業(yè)的運(yùn)營。[1]平臺化由此成為新聞生產(chǎn)必不可少的環(huán)節(jié),以數(shù)據(jù)整合實現(xiàn)信息傳播價值的最大化。在新聞生產(chǎn)越發(fā)依賴海量的信息數(shù)據(jù)時,社交機(jī)器人應(yīng)運(yùn)而生,一些自動化賬號活躍在新聞平臺,其典型的活動模式為機(jī)械重復(fù)地收集和傳播信息。隨著算法挖掘技術(shù)的深化和機(jī)器學(xué)習(xí)能力的增強(qiáng),這些自動化賬號幾乎能夠在不需要人工干預(yù)的情況下執(zhí)行決策。[2]大量自動化賬號跳脫出新聞平臺,對多個互聯(lián)網(wǎng)平臺的建設(shè)起到了重要作用。2014年,機(jī)器人完成了維基百科所有語言版本15%的編輯工作;[3]2017年,活躍的推特用戶中有9%-15%都是機(jī)器人;2021年42.3%的互聯(lián)網(wǎng)流量總和由機(jī)器人生成;[4]近期,ChatGPT等相關(guān)文本生成模型步入全球開發(fā)應(yīng)用階段。由此,良性的社交機(jī)器人被廣泛運(yùn)用于互聯(lián)網(wǎng)信息傳播中,在內(nèi)容聚合、新聞推送、自動回復(fù)等領(lǐng)域重塑了業(yè)務(wù)生態(tài),為新聞媒體的快速報道以及公共領(lǐng)域的自由討論提供了原則上的益處。一項基于9個互聯(lián)網(wǎng)平臺文本分析的研究表明,多數(shù)國家和地區(qū)采取了零散的、不成體系的平臺內(nèi)部自治體系來規(guī)范人與“非人”主體共在的媒介生態(tài)。在所有承認(rèn)社交機(jī)器人存在的平臺里,社交機(jī)器人被賦予了進(jìn)行自動化決策的權(quán)利。[5]
然而,平臺的不斷擴(kuò)張導(dǎo)致社交機(jī)器人的泛在化現(xiàn)象嚴(yán)重,其招致的負(fù)面評價也大量涌現(xiàn),諸如非法濫用和輿論操作。平臺上的社交機(jī)器人能自動轉(zhuǎn)發(fā)包含特定散列標(biāo)簽的帖子,通過信息流影響話題和看法,進(jìn)行無限制的通信和聯(lián)網(wǎng)活動,[6]也因此成為滋生非法內(nèi)容和虛假信息的溫床,被用來部署和引導(dǎo)用戶訪問不良信息。有大量的自動化賬號在新冠疫情期間利用話題標(biāo)簽來傳播“病毒來自中國”“病毒由5G傳播”的謠言,給政治陰謀論可乘之機(jī)。另外,自動化賬號強(qiáng)大的“類人類”屬性,極易對人類用戶的身份進(jìn)行偽裝,扭曲某些話題的“受歡迎程度”,帶來討論的虛假繁榮,并制造普遍存在的“公眾”。除了“語義偏見繼承”和“虛假信息傳播”,惡性機(jī)器人還會帶來“情感欺騙”和“隱私侵犯”問題。[7]研究顯示,臉書上創(chuàng)建的機(jī)器人,能夠隨意滲透用戶信息,且具有收集包括電子郵件地址、電話號碼和個人資料在內(nèi)的多項有價值的私人數(shù)據(jù)的功能。[8]更值得憂慮的是,在線社交網(wǎng)絡(luò)對社交機(jī)器人的大規(guī)模滲透非常脆弱,隨著滲透的成功,用戶數(shù)據(jù)會被一覽無余。[9]
作為“非人行動者”的社交機(jī)器人已經(jīng)對現(xiàn)有的媒介生態(tài)產(chǎn)生了重要的影響,但由于它還沒有受到統(tǒng)一的法律文件和規(guī)則標(biāo)準(zhǔn)的制約,因此并不是具有法律意義的準(zhǔn)主體。然而,隨著2023年6月14日歐盟委員會正式通過《人工智能法案》(以下簡稱《法案》),與人工智能相關(guān)的戰(zhàn)略部署等懸而未決的問題落到了實處,它意在確保投入市場的人工智能系統(tǒng)是安全的。由于社交機(jī)器人可以看作是人工智能系統(tǒng)里的重要環(huán)節(jié)和構(gòu)成要素,因此該條例對社交機(jī)器人的管理具有適用性,修正了其行為管理的真空地帶?!斗ò浮纷鳛槭澜缟系谝徊緼I立法,雖然并不是直接針對社交機(jī)器人大規(guī)模數(shù)據(jù)獲取與處理帶來的問題的解答,但卻在一定程度上回應(yīng)了人機(jī)共在的媒介生態(tài)所面臨的風(fēng)險和挑戰(zhàn),對于理解和規(guī)范媒體平臺中的社交機(jī)器人提供了可能的全球標(biāo)準(zhǔn)。因此,本研究通過梳理《法案》的立法背景、演變歷程和主要內(nèi)容,嘗試?yán)迩迳缃粰C(jī)器人的法律地位,以此來分析信息傳播和媒介生態(tài)中負(fù)面影響的解決措施。另外,本研究還關(guān)照了該《法案》體現(xiàn)出的開拓性思想和理念制度方面的創(chuàng)新,對加快我國平臺智能監(jiān)管治理體系發(fā)展的影響。
二、 《法案》的立法背景及演變歷程
(一)多主體的信息傳播和媒介生態(tài)治理動因
隨著人工智能技術(shù)的應(yīng)用,越來越多的行動者加入信息傳播,智能式非人主體跳躍式的發(fā)展在給人類社會帶來廣闊前景的同時,也對個人安全和保障造成風(fēng)險,增加了攪亂媒介生態(tài)的可能性。因此,在刺激-反應(yīng)的治理邏輯和調(diào)節(jié)模式下,理應(yīng)存在相關(guān)措施和手段對危害媒介平臺的行為及時止損。然而,各國政府卻普遍存在欠缺權(quán)力、程序框架和資源以確保人工智能的發(fā)展和使用符合法律規(guī)定的能力。
除了負(fù)面效應(yīng)倒逼治理實踐的落地,更為直接的治理動因在于處于信息傳播中的社交機(jī)器人作為算法程序需要被納入技術(shù)監(jiān)管。從技術(shù)革命的角度來講,我們正處于新的技術(shù)革命時期,在這之前,技術(shù)只是作為人的工具形式出現(xiàn),是傳播的媒介形式。[10]如今,技術(shù)逐漸成為不容忽視的參與主體,與人進(jìn)行深度的交互,人機(jī)未來的和諧相處呼喚一套邏輯自洽的治理體系。從技術(shù)倫理學(xué)的視角分析,自動化賬號所代表的算法無法遮蔽技術(shù)帶來的社會偏見和公共價值問題,相關(guān)科技公司的透明度報告并沒完全體現(xiàn)風(fēng)險防范的倫理規(guī)約體系,[11]人工智能的多元嵌入已然引發(fā)了諸多倫理爭議,[12]若是放任其無序發(fā)展,必然會影響社會平穩(wěn)運(yùn)行,帶來一系列道德問題。從推動技術(shù)平臺良性競爭的背景來看,社交機(jī)器人是人工智能運(yùn)用于平臺實踐的重要標(biāo)志,也是全球技術(shù)發(fā)展的熱點問題。鑒于當(dāng)下人工智能技術(shù)的發(fā)展、利用以及流轉(zhuǎn)程度的加深,特別是在日益復(fù)雜的全球科技格局和國際關(guān)系背景下,有必要對社交機(jī)器人運(yùn)用下的媒介生態(tài)相關(guān)動態(tài)予以進(jìn)一步關(guān)注。
(二)《法案》的歷史演變
《法案》的正式通過無疑為社交機(jī)器人等人工智能的使用劃定了法律邊界。事實上,歐盟對人工智能對媒介生態(tài)破壞的擔(dān)憂近年來就已見端倪,歐盟為此階段式地制定了法規(guī)條款,其主要發(fā)展歷程經(jīng)歷如下兩個階段。
一是出臺推薦性與框架性的治理原則階段。考慮到人工智能在新聞行業(yè)、信息傳播、人機(jī)互動等領(lǐng)域的發(fā)展尚且處于早期階段,過早通過法律法規(guī)介入實施硬性規(guī)制可能導(dǎo)致對創(chuàng)新的阻礙,因此相關(guān)治理主體并未急于出臺強(qiáng)制性措施,而是注重對潛在問題和未來走向的說明。2018年的《通用數(shù)據(jù)保護(hù)條例》指出數(shù)據(jù)主體所享有的知情同意權(quán)、遺忘權(quán)、可攜帶權(quán)等,規(guī)定了數(shù)據(jù)控制者和處理者的責(zé)任和義務(wù),并設(shè)立了數(shù)據(jù)保護(hù)官,增大了處罰力度。人工智能在設(shè)計和運(yùn)行層面獲取大量數(shù)據(jù)的行為,都受到該條例的有效約束。[13]2019年出臺的《可信賴人工智能準(zhǔn)則實施情況報告》中明確提出加速立法、由“軟法”到規(guī)制、引領(lǐng)全球人工智能立法規(guī)制的愿景。2020年歐盟出臺的《人工智能白皮書——通往卓越和信任的歐洲路徑》指明要建立卓越生態(tài)系統(tǒng)與建立信任系統(tǒng)兩大目標(biāo)。
二是為人工智能引入明確監(jiān)管和法律框架階段。這一階段標(biāo)志著法律從寬泛界定到細(xì)化指引。最有代表的就是從2021年4月由歐盟委員會開始提出、2022年12月歐盟理事會同意共同立場,再到2023年6月正式推出實施的《法案》。它的范圍涵蓋所有人工智能類型的范疇,并且規(guī)范了人工智能系統(tǒng)的開發(fā)者,明確了其專業(yè)身份和實體身份。它將人工智能的發(fā)展現(xiàn)狀與未來可能發(fā)展的預(yù)期相結(jié)合,對相關(guān)法律制度進(jìn)行綱領(lǐng)與措施并存的制定。
三、 《法案》對社交機(jī)器人在媒介生態(tài)中的行為規(guī)范和糾偏
(一)明晰信息傳播中的行為主體:社交機(jī)器人的定義與歸屬
顯然,智能傳播時代的行動者不再拘泥于實體人,而是各種類型的人工智能系統(tǒng)。但長期以來,媒介平臺中關(guān)于非人主體的定義存在模糊性和曖昧性,甚至直接導(dǎo)向社交機(jī)器人的負(fù)面性,相關(guān)討論似乎經(jīng)常性的變化術(shù)語,常用聊天機(jī)器人、垃圾郵件、僵尸網(wǎng)絡(luò)、半機(jī)械人等概念來不精確地指代從自動社交媒體賬戶跳轉(zhuǎn)到推薦系統(tǒng)和網(wǎng)頁抓取器。[14]這種模糊表達(dá)并不足以明確社交機(jī)器人的價值取向,也讓人正確認(rèn)識社交機(jī)器人的雙面性。因此對諸如社交機(jī)器人等算法程序的進(jìn)一步界定有助于弄清其意義內(nèi)涵并識別主體,有助于解決主體權(quán)責(zé)不清的問題。
《法案》規(guī)定,人工智能的定義應(yīng)盡可能中立,從而涵蓋尚未知曉或開發(fā)的技術(shù)。其總體目標(biāo)是覆蓋包括傳統(tǒng)的符號人工智能、機(jī)器學(xué)習(xí)以及混合系統(tǒng)在內(nèi)的所有人工智能類型。根據(jù)《法案》第3條,“人工智能系統(tǒng)是指使用附件1中列出的一種或多種技術(shù)和方法開發(fā)的軟件,它被設(shè)計為以不同程度的自主性運(yùn)行,并且可以為了明確或隱含的目標(biāo),產(chǎn)生諸如預(yù)測、建議或決策等影響物理或虛擬環(huán)境的輸出”。《法案》附件1的“人工智能技術(shù)和方法清單”為人工智能定義提供了法律確定性的參考,但這一范圍可能需要隨著時間的推移進(jìn)行調(diào)整。以上條款表明社交機(jī)器人是基于一定自主性設(shè)計而成的、具有非人屬性的智能程序,但作為人工智能類別的一種,其內(nèi)涵和外延尚未統(tǒng)一,依據(jù)情景變化而有所不同。
《法案》將人工智能系統(tǒng)的“提供者”和“部署者”視為第一大監(jiān)管主體,包括開發(fā)人工智能系統(tǒng)并將其以自身名義/商標(biāo)投入市場或投入使用的個人、法人、公共當(dāng)局、機(jī)構(gòu)或其他主體;將“用戶”視為第二大主體,是指在其授權(quán)下使用人工智能系統(tǒng)的任何自然人或法人、公共當(dāng)局、機(jī)構(gòu)或其他團(tuán)體。人工智能有限的“人格”,意味著它不能完全承擔(dān)與行為性質(zhì)相適應(yīng)的損害賠償責(zé)任。因此人工智能的歸屬依舊是具有廣泛行動能力的人類主體,責(zé)任方多為操縱自動化賬號的用戶和開發(fā)者。而法律也因具有廣泛的管轄(包括域外適用)范圍,涵蓋了屬人、屬地和實質(zhì)判斷多個管轄標(biāo)準(zhǔn)。
(二)明確主體的功能效用和價值責(zé)任:社交機(jī)器人的權(quán)利與義務(wù)
雖然有一部分人傾向于自動化賬號還沒有自主意識和意向性,但網(wǎng)絡(luò)社會卻越來越依賴其功能,對于自動化賬號這類社交機(jī)器人的責(zé)任人權(quán)利和義務(wù)概念的厘清有利于顯示其獨特的法律地位,判斷行為的合法邊界,更好地建設(shè)良性媒介平臺。
《法案》遵循風(fēng)險的分級管理方法,將人工智能的應(yīng)用分為四個風(fēng)險級別:不可接受的風(fēng)險、高風(fēng)險、有限風(fēng)險和低風(fēng)險或無風(fēng)險,并且依據(jù)風(fēng)險級別來規(guī)定相關(guān)義務(wù)。與人類互動的社交機(jī)器人即被劃為有限風(fēng)險和低風(fēng)險系統(tǒng),雖然相關(guān)條例并沒有明確指出社交機(jī)器人是否與人類主體享受相似的一般性權(quán)利,如言論自由等,但在一定程度上承認(rèn)了它的功能性權(quán)利,它具有與人類用戶交流以及自主處理信息進(jìn)行決策的自由?!斗ò浮繁硎局恍璞WC這類社交機(jī)器人系統(tǒng)在透明度規(guī)則基礎(chǔ)上運(yùn)營即可,無需取得特殊的牌照、認(rèn)證或履行繁雜的報告、監(jiān)督、記錄留存等步驟。
義務(wù)指向的是平臺體系中守規(guī)范者應(yīng)盡的具體責(zé)任,具有強(qiáng)制規(guī)范性?!斗ò浮分幸?guī)定的義務(wù)最為主要的是透明度義務(wù)。一是算法系統(tǒng)的可自我披露,要求身份可識別,并進(jìn)行公開驗證且?guī)в忻黠@的標(biāo)識;二是交流的透明度,要通知用戶他們正在與人工智能系統(tǒng)互動(除非顯而易見);三是保證自身的無害且有用,即采取適當(dāng)?shù)募夹g(shù)措施(如人類監(jiān)督、定期檢測網(wǎng)絡(luò)安全措施等),確保人工智能系統(tǒng)被合規(guī)安全地使用;四是對深度造假行為進(jìn)行標(biāo)記(為了行使基本權(quán)利或自由或出于公共利益的原因除外)。
(三)降低傳播的負(fù)面累積效應(yīng):對社交機(jī)器人的制裁手段
已有研究表明惡性機(jī)器人的行為動向必然會攪亂媒介平臺的生態(tài),另有研究表明致力于造福環(huán)境的良性機(jī)器人也會產(chǎn)生互動層面的沖突。在維基百科上,惡性機(jī)器人通過僵尸網(wǎng)絡(luò)保持“作惡”的協(xié)調(diào)一致,但致力于平臺編輯的良性機(jī)器人由于語言版本的不同也可能會出現(xiàn)信息分歧,[15]帶來平臺的語義混亂??梢姡缃粰C(jī)器人的正反屬性都容易引起意見操縱和制造分歧相關(guān)的負(fù)面性評價,更別說惡性社交機(jī)器人帶來的一系列算法黑箱和算法霸權(quán)的問題。當(dāng)負(fù)面影響發(fā)生后,如何從制度和法律上及時止損,并防范下階段的損害是困擾網(wǎng)絡(luò)社會良久的問題。因此,梳理社交機(jī)器人的相關(guān)制裁手段有利于從源頭上隔絕信息非法傳播,減緩負(fù)面累積效應(yīng)。
為了直接消除自動化賬號的不良影響,根據(jù)違規(guī)的嚴(yán)重程度,《法案》強(qiáng)調(diào)建立健全成員國合作糾錯機(jī)制,按照嚴(yán)格的監(jiān)管措施來規(guī)避已有或可能存在的風(fēng)險。“各成員國的市場監(jiān)督機(jī)構(gòu)將實際負(fù)責(zé)對高風(fēng)險人工智能系統(tǒng)合規(guī)情況的監(jiān)督,并有權(quán)要求系統(tǒng)提供者針對不合規(guī)的人工智能系統(tǒng)采取糾正措施,甚至禁止、限制、撤銷或召回不符合《法案》要求的人工智能系統(tǒng),成員國的監(jiān)督機(jī)構(gòu)也有一定的自由裁量權(quán),包括對雖然符合《法案》要求但對人的健康或安全或基本權(quán)利或其他公共利益保護(hù)構(gòu)成風(fēng)險的人工智能系統(tǒng)采取必要相應(yīng)的監(jiān)管措施?!盵16]
《法案》還通過罰款來施以處罰,違反有害的人工智能禁止性規(guī)定和數(shù)據(jù)治理義務(wù)的,可處以最高3000萬歐元或全球年營業(yè)額的6%的罰款(以較高者為準(zhǔn));向成員國主管機(jī)構(gòu)提供不正確、不完整或具有誤導(dǎo)性的信息,將被處以最高1000萬歐元或營業(yè)額2%的罰款。歐盟機(jī)構(gòu)、機(jī)關(guān)違反有關(guān)禁止性人工智能和數(shù)據(jù)治理義務(wù)規(guī)定的,可以處以最高50萬歐元的行政罰款;違反其他規(guī)定的,可以處最高25萬歐元的罰款。
四、 《法案》規(guī)制下媒介平臺的挑戰(zhàn)與應(yīng)對
雖然跨境、跨國、跨地域的《人工智能法案》體現(xiàn)了歐盟內(nèi)部對社交機(jī)器人泛濫的媒介生態(tài)的關(guān)注,展現(xiàn)出了規(guī)范人工智能、保護(hù)傳播安全的積極態(tài)度,但歐盟內(nèi)部各國對人工智能的相關(guān)理解和操作尚未達(dá)成共識,《法案》的生效還需要很長一段時間。另外,人工智能在媒介平臺的快速發(fā)展和迭代更新,為《法案》預(yù)期目標(biāo)的實現(xiàn)帶來了不小的挑戰(zhàn)?!斗ò浮吩趯徸h過程中的爭論以及《法案》推進(jìn)到后期對通用型人工智能和基礎(chǔ)模型的緊急“打補(bǔ)丁式”的修補(bǔ)均印證了這一點。針對復(fù)雜的政策環(huán)境和媒介平臺的實踐需求,國內(nèi)外的互聯(lián)網(wǎng)平臺仍需采取與《法案》相適應(yīng)的技術(shù)合規(guī)來調(diào)整行為。為此,根據(jù)《法案》的設(shè)想和引導(dǎo),本文對媒介平臺如何管理諸如社交機(jī)器人一樣的人工智能系統(tǒng)提出如下建議。
(一)公開安全評估的標(biāo)準(zhǔn)
建立平臺內(nèi)部社交機(jī)器人公開安全評估的標(biāo)準(zhǔn)與《法案》內(nèi)部要求不同類別的人工智能履行透明性義務(wù)的條款相對。一方面,設(shè)置統(tǒng)一的標(biāo)準(zhǔn)并將安全評估的過程公開化能夠確定人工智能是否遵守強(qiáng)制性風(fēng)險管理系統(tǒng)、嚴(yán)格的數(shù)據(jù)治理規(guī)定、技術(shù)文件和日志保存的規(guī)定以及上市后監(jiān)測和事故報告的規(guī)定,能有效規(guī)避平臺風(fēng)險,保障用戶安全。另一方面,公開的標(biāo)準(zhǔn)能夠設(shè)置評估的底線,限制平臺解釋權(quán)過大的隨意性,同時防止過度審查,以此來保護(hù)人工智能的“自主權(quán)”。
《法案》明確指出諸如聊天機(jī)器人之類的人工智能技術(shù)屬于非高風(fēng)險類別,因為現(xiàn)階段它對個人的健康、安全及基本權(quán)利造成損害的可能性較小,所以只需要滿足最低限度的透明性要求,對具有輿論屬性或者社會動員能力的算法推薦服務(wù)提供者開展安全評估時,告知用戶他正在與人工智能進(jìn)行互動來減少潛在風(fēng)險即可。當(dāng)遇到高風(fēng)險的社交機(jī)器人,如垃圾郵件、水軍等,平臺應(yīng)當(dāng)注意個人數(shù)據(jù)的安全使用和處理,謹(jǐn)防數(shù)據(jù)泄露、盜取,對危害用戶個人信息安全等事件進(jìn)行核查,不應(yīng)違背媒介內(nèi)部的信息傳播規(guī)律,也不宜產(chǎn)生披露文本之外的行為。
(二)平臺共享下的核查和辟謠機(jī)制
作為目前盛行的信息傳播方式,社交機(jī)器人對大量數(shù)據(jù)信息的分析和處理可能產(chǎn)生意想不到的結(jié)果,導(dǎo)致虛假信息泛濫、自動生成錯誤、公眾輿論極化,這些是無法從對人工智能系統(tǒng)的規(guī)制中杜絕的現(xiàn)象。在《法案》實施后,后續(xù)事實核查和輿論引導(dǎo)的合法性將成為媒介平臺的一大挑戰(zhàn)。保障信息傳播內(nèi)容的真實性是媒介平臺風(fēng)清氣正的重要體現(xiàn),因此,平臺亟需依照法律共建必要的事實核查和辟謠機(jī)制。
目前,國內(nèi)外已有相關(guān)的事實核查和辟謠機(jī)制,特別是新冠疫情期間新華社的“求證”平臺和美方的“Politi Fact”平臺,幾乎囊括了所有因惡意使用社交機(jī)器人而制造的謠言,并對散布、捏造謠言的用戶進(jìn)行公開。除了對虛假信息的治理,平臺還應(yīng)加強(qiáng)對自動篩選和決策帶來的違規(guī)內(nèi)容的過濾和處置。通過引入第三方核查、規(guī)范事實核查流程、打造專業(yè)的事實核查平臺等多種方式,[17]平臺要建立起用戶與事實核查機(jī)構(gòu)的聯(lián)系,從內(nèi)部對相關(guān)行為進(jìn)行“把關(guān)”,承擔(dān)好核查的具體工作。
(三)建立健全申訴服務(wù)
由于人工智能方興未艾,所以有關(guān)其規(guī)制的經(jīng)驗還尚需積累,為更好地進(jìn)行我國平臺智能程序的整體統(tǒng)籌和規(guī)劃,應(yīng)當(dāng)對一些錯誤判斷的主體行為進(jìn)行更正,因此需要建立申訴部門,用以補(bǔ)充強(qiáng)硬且嚴(yán)格的制裁,保證社交機(jī)器人自動處理信息的功能性權(quán)利不受到侵犯。
國內(nèi)外已有平臺開始重視“強(qiáng)監(jiān)管”下的疏導(dǎo),強(qiáng)調(diào)及時對賬號違規(guī)等誤判進(jìn)行彌補(bǔ)。X平臺(原推特)作為社交媒體巨頭,在其《平臺操縱和垃圾信息政策》的文本里說明,“如果你認(rèn)為自己的賬號被錯誤地鎖定或凍結(jié),則可以提交申訴”,并提供了相應(yīng)的申訴鏈接。國內(nèi)平臺的申訴流程相較于國外平臺要顯得更為繁瑣,一些知識聚合類的平臺表明如果對規(guī)范文本有異議,需要通過發(fā)郵件的方式進(jìn)行申訴,這就可能造成申訴的不及時和時間長。在技術(shù)發(fā)展的極速性與不確定性中,平臺應(yīng)當(dāng)設(shè)定應(yīng)對制裁錯誤的預(yù)案,有關(guān)保護(hù)部門也需要關(guān)注技術(shù)更新與危機(jī)處理方式的經(jīng)驗積累,建立健全平臺申訴服務(wù),制定有效的防范措施。
五、 反思與討論
在媒介生態(tài)日益復(fù)雜的智能時代,人工智能的介入和平臺化的運(yùn)營模式勢必對數(shù)字時代的信息生成和傳播產(chǎn)生深遠(yuǎn)的影響。人工智能正被具象化為“代理人”,它具有顯著的“電子人格”。而人工智能的“所有者”,可能是用戶,也可能是操作者,其與人工智能是法律代理關(guān)系中的責(zé)任人和行為者的關(guān)系?!斗ò浮返念C布和實施彰顯了以社交機(jī)器人為代表的人工智能正在被社會所關(guān)注,逐漸彰顯了“人工智能”作為“代理人”的法律地位。
《法案》試圖在促進(jìn)人工智能的發(fā)展、傳播價值觀和個人基本權(quán)利保障之間尋找平衡,它授予了人工智能較為清晰的定義和分類,也確保了人工智能發(fā)展和使用的價值及基本權(quán)利。人工智能能夠通過這些可反應(yīng)的、即時的信息實踐活動,滿足社會需求,利用信息收集和整理回應(yīng)社會關(guān)切。同時,在保障媒介平臺豐富性的情況下,《法案》給予責(zé)任方較大的義務(wù),并對義務(wù)主體設(shè)定了高額的罰款,既整治了平臺亂象,又為相關(guān)智能系統(tǒng)的治理制定了框架。
然而,對于我國媒介生態(tài)而言,平臺社交機(jī)器人還處于被人認(rèn)識和理解的階段,應(yīng)當(dāng)如何應(yīng)對由此帶來的技術(shù)、倫理和法規(guī)的挑戰(zhàn)還需要在實踐中不斷探索。《法案》看似達(dá)成了統(tǒng)一標(biāo)準(zhǔn),但它忽視了基于國別、地區(qū)甚至類別的平臺的差異。社交機(jī)器人很有可能成為在復(fù)雜環(huán)境中,收集、使用并掌控個人信息的權(quán)利集大成者,而現(xiàn)有的條款無法對它進(jìn)行規(guī)制。面對未來可能不斷更新迭代的媒介生態(tài)所帶來的影響,長期出沒于平臺的社交機(jī)器人的全球治理成為亟待商榷的核心話題。對我國的平臺保護(hù)和算法治理來說,安全規(guī)范與行為自由的互動是相互沖擊,趨于平衡的動態(tài)發(fā)展過程,需要在以后的規(guī)范中不斷細(xì)化和完善。
參考文獻(xiàn):
[1]David B Nieborg&Thomas Poell,The platformization of cultural production:Theorizing the contingent cultural commodity[J].New Media&Society,2018,20(11)
[2]Tsvetkova M, García-Gavilanes R, Floridi L, Yasseri T (2017) Even good bots fight: The case of Wikipedia. PLoS ONE 12(2): e0171774.
[3]Thomas Steiner. 2014. Bots vs. Wikipedians, Anons vs. Logged-Ins (Redux): A Global Study of Edit Activity on Wikipedia and Wikidata. In Proceedings of The International Symposium on Open Collaboration (OpenSym '14). Association for Computing Machinery, New York, NY, USA, 1-7.
[4]Varol O, Ferrara E, Davis C, et al. Online human-bot interactions: Detection, estimation, and characterization[C]. Proceedings of the International AAAI Conference on Web and Social Media, 2017: 54.
[5]Makhortykh, M., Urman, A., Münch, F. V., Heldt, A., Dreyer, S., & Kettemann, M. C. (2022). Not all who are bots are evil: A cross-platform analysis of automated agent governance. New Media & Society, 24(4), 964-981.
[6]Pedrazzi, S., & Oehmer, F. (2020). Communication Rights for Social Bots?: Options for the Governance of Automated Computer-Generated Online Identities. Journal of Information Policy, 10, 549-581.
[7]高山冰,汪婧. 智能傳播時代社交機(jī)器人的興起、挑戰(zhàn)與反思[J]. 現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報),2020,42(11):8-11+18.
[8]Boshmaf Y, Muslukhov I, Beznosov K, et al. Design andanalysis of a social botnet[J].Computer Networks, 2013,57(02): 573.
[9]Boshmaf, Y., Muslukhov, I., Beznosov, K., & Ripeanu, M. (2011). The socialbot network: When bots socialize for fame and money. Proceedings of the 27th Annual Computer Security Applications Conference, 93-102.
[10]蔡潤芳.人機(jī)社交傳播與自動傳播技術(shù)的社會建構(gòu)——基于歐美學(xué)界對Socialbots的研究討論[J].當(dāng)代傳播,2017(06):53-58.
[11]Urman, A., & Makhortykh, M. (2023). How transparent are transparency reports? Comparative analysis of transparency reporting across online platforms. Telecommunications Policy, 102477.
[12]張夢,俞逆思,師文,等.“開放倫理”何以可能?微博場域中的公眾智能技術(shù)倫理爭議研究[J].新聞界,2021(01):51-63+74.
[13]搜狐網(wǎng).歐洲為使用人工智能立規(guī)矩[EB/OL].(2021-11-23).https://www.sohu.com/a/502813715_200224.
[14]Gorwa, R., & Guilbeault, D. (2020). Unpacking the Social Media Bot: A Typology to Guide Research and Policy. Policy & Internet, 12(2), 225-248.
[15]Tsvetkova M, García-Gavilanes R, Floridi L, Yasseri T (2017) Even good bots fight: The case of Wikipedia. PLoS ONE 12(2): e0171774.
[16]GOV UK. UK unveils world leading approach to innovation in first artificial intelligence white paper to turbocharge growth [EB/OL].(2023-03-29). https://www.gov.uk/government/news/uk-unveils-world-leading-approach-to-innovation-in-first-artificial-intelligence-white-paper-to-turbocharge-growth.
[17]申金霞.后真相時代社交媒體平臺的事實核查分析[J].新聞與寫作,2019,417(03):55-62.
作者簡介:楊雨欣,重慶大學(xué)新聞學(xué)院碩士研究生
編輯:王洪越