隨著人工智能技術(shù)的蓬勃發(fā)展和深度嵌人社會運行體系,信息內(nèi)容的生成方式和傳播樣態(tài)迎來了前所未有的變化,但同時也面臨內(nèi)容質(zhì)量、認知安全、信息失序等復(fù)雜挑戰(zhàn)。本專題系的系列階段性成果,聚焦人工智能帶來的“生成與操控”問題,分別從內(nèi)容生成、認知影響、信息疫情治理和網(wǎng)絡(luò)暴力治理四個方面,剖析人工智能時代信息內(nèi)容風險與治理難題,為人工智能時代的信息治理提供多角度的思考。
人工智能作為一種強大的內(nèi)容生產(chǎn)工具,使得生成文本、圖像、音視頻等多模態(tài)信息的門檻大幅降低,人們不再需要專業(yè)背景或高昂成本即可實現(xiàn)各種類型信息內(nèi)容的自動生成?!秲?nèi)容缺乏原創(chuàng)性:AIGC 的學(xué)術(shù)知識生產(chǎn)》一文從知識生成的視角出發(fā),提出人工智能盡管帶來信息內(nèi)容數(shù)量爆炸式增長,但其間無法回避的是這些內(nèi)容缺乏原創(chuàng)性和洞見力,在整體上拓寬人類認知邊界的能力有限。
在人工智能技術(shù)的驅(qū)動下,通過對人的心理與行為模式的深度學(xué)習(xí)并據(jù)此生成的信息內(nèi)容,正在使人工智能本身成為操控認知、影響判斷與行為的新興手段。我們的認知領(lǐng)域在遭受著精準內(nèi)容推送和情緒引導(dǎo)的同時,從未像今天這樣開放而脆弱?!度斯ぶ悄軙r代認知戰(zhàn)的安全風險》一文從認知安全的視角出發(fā),基于人工智能武器化的群體操控和個體認知重構(gòu)兩個維度,剖析了人工智能武器化可能引發(fā)的認知安全風險,這不僅是信息內(nèi)容安全的問題,更是人作為認知主體的安全問題。
當下正確信息與錯誤信息的過載使得人們面對復(fù)雜情景時難以識別值得信任的信息和做出理性判斷,而在人工智能時代,虛假信息生成與傳播的門檻降低使得信息疫情愈加泛濫?!禔I時代信息疫情的挑戰(zhàn)升級與協(xié)同治理》一文在辨析信息疫情概念基礎(chǔ)上,認為人工智能時代信息疫情的挑戰(zhàn)升級凸顯在虛假信息工業(yè)化生產(chǎn)和傳播,以及群體認知免疫系統(tǒng)的結(jié)構(gòu)性崩潰問題上。
網(wǎng)絡(luò)暴力治理是信息內(nèi)容治理中的一個重要議題。人工智能既可能成為“辨暴濾惡”的利器,也可能在被濫用時“助紂為虐”,當然我們更希望看到人工智能為信息治理帶來新的創(chuàng)新可能?!渡墒饺斯ぶ悄苜x能網(wǎng)絡(luò)暴力治理:邏輯、風險與應(yīng)對》一文從賦能邏輯上,提出人工智能在動態(tài)化監(jiān)測網(wǎng)絡(luò)暴力信息、全景式防治網(wǎng)絡(luò)暴力風險、全流程嵌入網(wǎng)絡(luò)暴力治理等方面的巨大潛力,從而強力支撐建設(shè)清朗有序的網(wǎng)絡(luò)空間。
本專題旨在提供一個多角度、跨學(xué)科的思考平臺,推動對人工智能生成信息內(nèi)容的一些認識和碰撞。希望這個專題能夠展示人工智能時代信息內(nèi)容所面臨的一種變遷:內(nèi)容不再是單向“生成”的傳遞物,而是一種“操控”的設(shè)計結(jié)構(gòu)。同時也希望本專題能夠激發(fā)更廣泛的關(guān)注和討論,共同探索人工智能時代的信息內(nèi)容議題,為網(wǎng)絡(luò)空間治理注入更多理論支點。