李 巖,康 銘
(遼寧大學(xué) 法學(xué)院,遼寧 沈陽 110036)
生成式人工智能是通過各種機器學(xué)習(xí)方法學(xué)習(xí)給定的數(shù)據(jù)庫,通過對數(shù)據(jù)庫中特定對象特征的學(xué)習(xí),進而生成全新的、完全原創(chuàng)的內(nèi)容(如文字、圖片、視頻)的人工智能(1)參見蒲清平、向往:《生成式人工智能——ChatGPT的變革影響、風(fēng)險挑戰(zhàn)及應(yīng)對策略》,《重慶大學(xué)學(xué)報(社會科學(xué)版)》2023年第3期。。在強大算法、語言模型的作用下,生成式人工智能可以根據(jù)特定的聊天場景和語境與人互動,幾乎可以做到與真人無異的場景式交流,還能以聊天的方式完成文本寫作、翻譯文字、代碼撰寫等。技術(shù)的進步總是帶來新的憂慮:生成式人工智能的強大功能使人們更容易沉迷其中,對其產(chǎn)生過高的依賴性,這應(yīng)當(dāng)引起人們的警覺。當(dāng)下理論界對生成式人工智能防沉迷的研究成果較少,立法上也處于缺位狀態(tài),有必要對此主題進行研究。
域外國家已經(jīng)開始限制生成式人工智能的使用。比如意大利等國家宣布禁止使用聊天機器人ChatGPT,但主要是基于個人信息保護的考慮,并未涉及防沉迷問題;歐盟《人工智能法案》中盡管提到了生成式人工智能,但對其防沉迷問題只字未提。縱觀國內(nèi),當(dāng)下最直接涉及生成式人工智能防沉迷的規(guī)范是《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《管理暫行辦法》)第10條。但該條規(guī)定過于籠統(tǒng),難以具體實施?!吨腥A人民共和國未成年人保護法》(以下簡稱《未成年人保護法》)第74條(2)《未成年人保護法》第74條規(guī)定:網(wǎng)絡(luò)產(chǎn)品和服務(wù)提供者不得向未成年人提供誘導(dǎo)其沉迷的產(chǎn)品和服務(wù)。盡管該條沒有明確說明算法防沉迷,但如果某項網(wǎng)絡(luò)產(chǎn)品(比如網(wǎng)絡(luò)游戲)是基于生成式人工智能設(shè)計的,將涉及生成式人工智能防沉迷的問題。,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《算法推薦管理規(guī)定》)第8條、第18條第2款(3)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第8條規(guī)定:算法推薦服務(wù)提供者應(yīng)當(dāng)定期審核、評估、驗證算法機制機理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導(dǎo)用戶沉迷、過度消費等違反法律法規(guī)或者違背倫理道德的算法模型;第18條第2款規(guī)定:算法推薦服務(wù)提供者不得向未成年人推送可能引發(fā)未成年人模仿不安全行為和違反社會公德行為、誘導(dǎo)未成年人不良嗜好等可能影響未成年人身心健康的信息,不得利用算法推薦服務(wù)誘導(dǎo)未成年人沉迷網(wǎng)絡(luò)。以及《未成年人網(wǎng)絡(luò)保護條例》第五章也涉及算法防沉迷的規(guī)制問題,但相關(guān)規(guī)定均存在不足。另外,當(dāng)下理論界對生成式人工智能防沉迷的討論較少,對生成式人工智能防沉迷問題的研究缺乏相應(yīng)的理論支撐。
根據(jù)《管理暫行辦法》第10條的規(guī)定,生成式人工智能提供者有義務(wù)“采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務(wù)”。但該條規(guī)定過于籠統(tǒng),容易引起誤解,不利于對生成式人工智能的過度使用做出有效限制?!安扇∵m當(dāng)措施防范用戶過分依賴或沉迷生成內(nèi)容”語焉不詳,原因有二:第一,本條只適用于生成式人工智能提供者,忽視了生成式人工智能的產(chǎn)品研發(fā)者;第二,“適當(dāng)措施”本質(zhì)上是為提供者施加了義務(wù),但應(yīng)當(dāng)做到何種程度才能理解為“適當(dāng)措施”并不清晰。換言之,該義務(wù)的具體內(nèi)容以及違反的法律后果模糊不清,現(xiàn)實中難以貫徹實施。此外,《未成年人保護法》雖然規(guī)定了“限制網(wǎng)絡(luò)使用時長”來防止未成年人沉迷網(wǎng)絡(luò),但這種限制方法難以應(yīng)對生成式人工智能沉迷。搭載了生成式人工智能算法的互聯(lián)網(wǎng)服務(wù)的誘導(dǎo)沉迷方式與傳統(tǒng)“弱人工智能”的互聯(lián)網(wǎng)并非完全相同,并且隨著生成式人工智能提供的服務(wù)更加多樣便捷,對于未成年人而言只是限制其使用時間未必妥當(dāng)?!段闯赡耆司W(wǎng)絡(luò)保護條例》第43條雖然提出了“在使用時段、時長、功能和內(nèi)容等方面”提供服務(wù),以達到防沉迷的效果,但對于“功能和內(nèi)容”表達模糊,亦未指出應(yīng)當(dāng)提供“何種標(biāo)準(zhǔn)”的服務(wù);第47條對“功能和內(nèi)容”做出了進一步的類型化,指出網(wǎng)絡(luò)游戲服務(wù)提供者應(yīng)當(dāng)根據(jù)游戲類型等要素明確適合不同年齡段的未成年人,但該條規(guī)定僅限于網(wǎng)絡(luò)游戲,且未提及其他類型服務(wù)所類型化的標(biāo)準(zhǔn),面對其他類型的服務(wù)難以貫徹實施。
無論是《管理暫行辦法》第10條、《未成年人保護法》第74條、《算法推薦管理規(guī)定》第8條和第18條第2款,抑或是《未成年人網(wǎng)絡(luò)保護條例》第五章相關(guān)條款,其關(guān)注的重點都在于未成年人防沉迷問題,并且是以未成年人為主要對象進行防沉迷體系建設(shè)。值得注意的是,《管理暫行辦法》第10條改變了原《生成式人工智能服務(wù)管理辦法(征求意見稿)》的規(guī)定,增加了“防范未成年人用戶過度依賴或者沉迷”的規(guī)定,更加注重未成年人的生成式人工智能沉迷問題,但生成式人工智能的強大功能使我們需要考慮關(guān)于成年人防沉迷的問題??紤]到未成年人在防沉迷手段、程度等方面與成年人在認(rèn)識自控、心智等方面存在區(qū)別,因此在防沉迷設(shè)計上,應(yīng)當(dāng)對未成年人與成年人進行區(qū)分。
既有防沉迷立法偏重算法推送、網(wǎng)絡(luò)游戲沉迷而忽視了對生成式人工智能作為工具的過度依賴。其一,前文已述,盡管《管理暫行辦法》涉及多種生成式人工智能服務(wù)項目,但對防沉迷問題只有一條抽象的規(guī)定;《未成年人保護法》以及《未成年人網(wǎng)絡(luò)保護條例》重點規(guī)制未成年人關(guān)于網(wǎng)絡(luò)游戲的沉迷。其二,盡管《算法推薦管理規(guī)定》從事前、事中、事后方面完善了算法推薦服務(wù)提供者的相關(guān)義務(wù),但其主要規(guī)制算法推薦問題,而算法推薦服務(wù)產(chǎn)生的誘導(dǎo)沉迷只是生成式人工智能防沉迷問題的冰山一角。生成式人工智能作為目前算法功能的集大成者,其產(chǎn)生的防沉迷方面的新問題遠不止算法推送服務(wù)的誘導(dǎo),比如生成式人工智能提供的娛樂性服務(wù)對人們更具有吸引力。它可以創(chuàng)建一個交互性更強、更逼真的虛擬世界,人們更容易沉迷其中,甚至可以令人產(chǎn)生感情寄托,產(chǎn)生情感上的依賴,陷入情感迷失和混亂。因此,僅憑借《算法推薦管理規(guī)定》尚不足以應(yīng)對生成式人工智能產(chǎn)生的算法沉迷問題。
理論界關(guān)于生成式人工智能的研究較多。諸多學(xué)者以ChatGPT為例討論生成式人工智能帶來的風(fēng)險,并從法律層面對其進行規(guī)制(4)相關(guān)文獻較多,在“中國知網(wǎng)”以“ChatGPT”“風(fēng)險”為主題進行檢索,社科類文獻有700余條。。但目前專門討論生成式人工智能防沉迷的研究寥寥無幾,只有在四川召開的4期“智治社慧學(xué)術(shù)工坊”以及《生成式人工智能服務(wù)管理辦法(征求意見稿)》研討會中有學(xué)者針對《生成式人工智能服務(wù)管理辦法(征求意見稿)》第10條發(fā)表了簡短的修改建議。比如,王竹教授認(rèn)為應(yīng)當(dāng)公開其服務(wù)的適用人群、場合、用途,并參照《未成年人保護法》相關(guān)規(guī)定設(shè)置防沉迷措施(5)參見王竹:《對〈生成式人工智能服務(wù)管理辦法(征求意見稿)〉的完善建議》,2023年5月12日,https://mp.weixin.qq.com/s/7uw/UsFF6C8uwMGiiKAOew,2024年1月17日。;天津市和平區(qū)人民檢察院諸葛達檢察官認(rèn)為應(yīng)當(dāng)區(qū)分娛樂性服務(wù)和輔助性服務(wù),設(shè)置不同的“防止依賴或者沉迷”措施(6)參見《〈生成式人工智能服務(wù)管理辦法(征求意見稿)〉研討會綜述》,2023年4月26日,https://mp.weixin.qq.com/s/lkcVPFHmt4wpi_BWVGHizw,2024年1月17日。。本文認(rèn)為,生成式人工智能屬于強人工智能,其甚至可以替代人類的部分工作乃至創(chuàng)作,這與互聯(lián)網(wǎng)時代的弱人工智能不可同日而語(7)互聯(lián)網(wǎng)開辟了“空間革命”,智能手機的出現(xiàn)帶來了“時間革命”。參見朱光輝、王喜文:《ChatGPT的運行模式、關(guān)鍵技術(shù)及未來圖景》,《新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023年第4期。由此可見,生成式人工智能的廣泛運用對人類思維方式的影響更大。。因此,對生成式人工智能“防沉迷”的措施不能直接參考依托于網(wǎng)絡(luò)時代《未成年人保護法》中的“網(wǎng)絡(luò)游戲防沉迷”措施。諸葛達檢察官雖然從生成式人工智能的目的出發(fā)將其類型化為輔助性服務(wù)與娛樂性服務(wù),但未進一步討論相關(guān)義務(wù)與責(zé)任的具體內(nèi)容。
綜上所述,既有規(guī)范及研究難以應(yīng)對生成式人工智能沉迷風(fēng)險,生成式人工智能提供者和開發(fā)者應(yīng)當(dāng)履行何種防沉迷義務(wù)以及未履行的法律后果如何,有待進一步研究。
生成式人工智能防沉迷立法的必要性需要從生成式人工智能令人沉迷的原因入手,同時也需要對因沉迷造成的不利影響做出回應(yīng),如此才可“對癥下藥”,避免人們沉迷于生成式人工智能而引發(fā)不利后果?;诖?本部分主要討論生成式人工智能令人沉迷的原因,并從思維、道德、審美三個方面,以法哲學(xué)為視角討論生成式人工智能沉迷引發(fā)的不利后果,由此形成生成式人工智能防沉迷立法的理論基礎(chǔ)。
生成式人工智能的強大能力來源于其構(gòu)建了一個與任務(wù)無關(guān)的超大型語言模型(簡稱LLM),能夠自動從海量的數(shù)據(jù)中學(xué)習(xí)各種知識點,通過深度機器學(xué)習(xí)生成人類可以理解的自然語言,并且學(xué)習(xí)過程無須人的介入就能靈活應(yīng)用所學(xué)知識解決實際問題。有資料顯示,ChatGPT 擁有多達1750 億個模型參數(shù)。由于訓(xùn)練生成式人工智能的語料庫數(shù)量驚人,加之其具備的超強算力,ChatGPT 展現(xiàn)了三種強大的能力:一是語言生成能力,二是上下文學(xué)習(xí)能力,三是世界知識能力(8)參見朱光輝、王喜文:《ChatGPT的運行模式、關(guān)鍵技術(shù)及未來圖景》,《新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023年第4期。。因此,“它幾乎無所不知,能準(zhǔn)確理解提問者上下文的意思,進行流暢、熟練的交流,聊天過程接近真人互動”(9)王俊秀:《ChatGPT與人工智能時代:突破、風(fēng)險與治理》,《東北師大學(xué)報(哲學(xué)社會科學(xué)版)》2023年第4期。。這就意味著其不僅掌握著豐富的“知識”(數(shù)據(jù)庫),還具備部分對“知識”的遷移能力(10)參見王洋、閆海:《生成式人工智能的風(fēng)險迭代與規(guī)制革新——以ChatGPT為例》,《理論月刊》2023年第6期。;并且該技術(shù)采用“利用人類反饋中強化學(xué)習(xí)”(11)訓(xùn)練學(xué)習(xí)過程如下。首先,選擇一款大型語言模型作為原始模型;其次,創(chuàng)建人類偏好的數(shù)據(jù):先由人針對具體的問題進行高質(zhì)量的回答,并將其反饋至原始模型以供學(xué)習(xí);再次,訓(xùn)練反饋模型:基于問答的相關(guān)性、答案的準(zhǔn)確性、豐富性和無害性等人類偏好標(biāo)準(zhǔn),依據(jù)原始模型就隨機挑選的問題輸出的答案進行排序;最后,訓(xùn)練打分模型:利用完成標(biāo)注的人類偏好數(shù)據(jù)訓(xùn)練打分模型,當(dāng)分值較低時重新進入學(xué)習(xí)流程。參見蒲清平、向往:《生成式人工智能——ChatGPT的變革影響、風(fēng)險挑戰(zhàn)及應(yīng)對策略》,《重慶大學(xué)學(xué)報(社會科學(xué)版)》2023年第3期。(RLHF)的訓(xùn)練方式(12)參見喻國明、蘇健威:《生成式人工智能浪潮下的傳播革命與媒介生態(tài)——從ChatGPT到全面智能化時代的未來》,《新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023年第5期。,能夠較為準(zhǔn)確地理解人類指令的含義以及學(xué)習(xí)人類經(jīng)驗的能力,通過對強大數(shù)據(jù)庫的“檢索”,“組合”出符合人類邏輯的回答。實驗表明,以ChatGPT為代表的生成式人工智能已經(jīng)接近人類的智力水平,甚至可以具備與專業(yè)醫(yī)生相當(dāng)?shù)脑\斷水平,也能寫出優(yōu)美、引人入勝的詩歌(13)參見《ChatGPT-4震撼來襲 我們該如何看待AI越來越強大》,2023年3月17日,https://new.qq.com/rain/a/20230317A038UW00.html,2024年1月17日。。由此可見,相比于早期的Web1.0以及2.0時代,生成式人工智能開啟的Web3.0時代的網(wǎng)絡(luò)內(nèi)容的生產(chǎn)將由人工智能來完成,相關(guān)監(jiān)管亦需要從“純粹內(nèi)容的監(jiān)管”到“算法的一并監(jiān)管”。
生成式人工智能令人沉迷的主要原因在于其提供的娛樂性服務(wù)更具有吸引力、生成的精準(zhǔn)推送令人產(chǎn)生舒適性、創(chuàng)造的虛擬人物更容易使人產(chǎn)生情感依賴。
第一,基于生成式人工智能“類人性”產(chǎn)生的虛擬空間對人們更具有吸引力從而誘導(dǎo)沉迷。生成式人工智能鏈接了人類意識的想象空間,進一步加深了現(xiàn)實與虛擬的交互與融合,打造了更廣闊的、更深層次的、更豐富多維的虛擬空間。相比于互聯(lián)網(wǎng)時代的虛擬世界,依托于生成式人工智能算法的網(wǎng)絡(luò)世界顯得更為豐富、“更有生機”,更容易使人沉迷。這是因為該虛擬空間進一步滿足了人類最基本的三種需要:可預(yù)測性需要、能力需要和接納需要(14)See Carols Dweck,“From Needs to Goals and Representations:Foundations for a Unified Theory of Motivation,Personality,and Development”,Psychological Review,No.6,2017,pp.689-719.??深A(yù)測性需要是指假定世界是可預(yù)測的,通過探究世界的運作原理降低不確定性的需要;能力需要是指一種提高個人實力的需要;接納需要是指被接納和被愛的需要,希望在需要的時候得到他人的回應(yīng)(15)參見高文珺:《基于青年視角的網(wǎng)絡(luò)直播:參與的盛宴,多元的融合》,《中國青年研究》2019年第4期。。首先,可預(yù)測性需要實際上是對理性的依賴。理性是一種無限的概念,是一種先驗的、追求無限的能力。運用理性的推演能力來“促進一切知識的最終意圖”(16)康德:《判斷力批判》,鄧曉芒譯,北京:人民出版社,2017年,第1頁。,而“理性推演”實際上就是形式邏輯思維的運用。生成式人工智能的本質(zhì)是算法,是形式邏輯的另一種運用方式。一方面,其作為工具有助于增強人們對客觀世界的把控;另一方面,其一切行動邏輯均是人類通過算法賦予的,故通過對人工智能倫理學(xué)的研究、對算法的限制等手段能夠增強對生成式人工智能的可控性(17)參見雷禹:《人工智能生產(chǎn)過程中的倫理介入問題探析》,《大連理工大學(xué)學(xué)報(社會科學(xué)版)》2023年第4期;商建剛:《生成式人工智能風(fēng)險治理元規(guī)則研究》,《東方法學(xué)》2023年第3期。。其次,同網(wǎng)絡(luò)游戲類似,人們在生成式人工智能建立的虛擬世界中更容易獲得成就感。在虛擬世界中能力的提升“要比在現(xiàn)實中提高學(xué)習(xí)成績更容易、更有趣,還能獲得即時獎勵和回饋,滿足人們獲得能力認(rèn)可的需要”(18)高文珺:《青少年網(wǎng)絡(luò)游戲問題行為的文化—社會—個體三因素分析——基于網(wǎng)絡(luò)游戲問題行為的91個電話咨詢案例》,《中國青年研究》2021年第5期。。最后,生成式人工智能會打造出一個與現(xiàn)實世界交互性更強、更逼真的虛擬世界,其中的虛擬人物更加靈活?,F(xiàn)實中的人們可以同它們對話,甚至能夠根據(jù)對話內(nèi)容自主給出有邏輯的行為反饋(19)以游戲產(chǎn)業(yè)為例,游戲版ChatGPT賦予了虛擬人物類似人的思維和言語邏輯。參見《網(wǎng)易〈逆水寒〉手游推出游戲版ChatGPT、交互式電子出版物〈我在故宮修文物〉來了、Elon Musk:需要密切關(guān)注人工智能》,2023年2月16日,https://m.163.com/dy/article/HTNFKCEK0514A42S.html,2024年1月17日。。同時,它們還會匹配用戶的溝通方式(20)See Sean Hannon Williams,“AI Advice”,Florida State University Review,Vol.48,No.3,2021,pp.761-808.,甚至可以根據(jù)上下文更好地理解人類語言中包含的潛在意思并給予恰當(dāng)回答。另外,通過后期的訓(xùn)練,生成式人工智能可以“接納”我們的觀點,并在此基礎(chǔ)上進行回應(yīng)。這在一定程度上滿足了人們“被接納、被欣賞”的需求,實現(xiàn)了對人們現(xiàn)實中“弱交際”的彌補。
第二,基于生成式人工智能的精準(zhǔn)推送產(chǎn)生的舒適性助推了沉迷。有研究人員認(rèn)為,人工智能用戶可以很容易地從多方面獲得即時滿足,包括審美體驗、金錢補償、消遣、個人地位的增強和關(guān)系的維護(21)See Indeok Song,Larose Robert &Matthew S.Eastin,et al.,“Internet Gratifications and Internet Addiction: On the Uses and Abuses of New Media”,CyberPsychology &Behavior,Vol.7,No.4,2004,pp.384-394.。用戶對立即獲得的獎勵的高估,而不是親社會和延遲獎勵,這也是算法推薦的產(chǎn)物(22)Samuel F.Acuff,James G.Murphy &James MacKillop,“Applying Behavioral Economic Theory to Problematic Internet Use: An Initial Investigation”,Psychology of Addictive Behaviors,Vol.32,No.7,2018,pp.846,848-850.轉(zhuǎn)引自彭金享:《算法沉迷規(guī)制的中國路徑(英文)》,《Chinese Legal Science》2022年第6期。。生成式人工智能算法可以對所有信息進行更為精準(zhǔn)的篩選、過濾、把關(guān),并推送用戶感興趣的內(nèi)容,從而滿足了人類內(nèi)在的享樂本質(zhì);可以根據(jù)用戶興趣愛好、個人特征等為其打造獨一無二的智能化場景,滿足其信息需求和個性偏好。生成式人工智能的背后必然包括那些“令人產(chǎn)生愉快情緒的算法”;“用戶審美體驗等更容易得到滿足,這就導(dǎo)致世人將如同魔法欣賞一般對生成式人工智能感到莫名的愉悅和滿足”(23)楊欣:《基于生成式人工智能的教育轉(zhuǎn)型圖景——ChatGPT究竟對教育意味著什么》,《中國電化教育》2023年第5期。。在生成式人工智能基礎(chǔ)上產(chǎn)生的算法推送服務(wù)更加符合用戶之所想,從而使用戶不知不覺沉迷其中,消耗大量時間和財物。
第三,基于生成式人工智能產(chǎn)生的虛擬人物所形成的感情寄托加深了沉迷。其一,虛擬男(女)友服務(wù)的特征是可控的虛擬身體和有限的互動,這使得虛擬男(女)友和用戶之間的“相處”具有非具身性、有限感知性和匿名性(24)參見吳越、孫弋幃:《虛擬男友:數(shù)字化時代的男性情感勞動與女性情感消費》,《婦女研究論叢》2023年第3期。。由此帶來了虛擬親密關(guān)系的可控性,使得用戶能夠“保留自己的空間和隱私不被干預(yù)”,避免情感商品的污名化影響到雙方的現(xiàn)實生活,因而雙方都能夠更自由地滿足或表達情感需求,進而促成了虛擬親密關(guān)系的生產(chǎn)。其二,有研究表明,人類傾向于把人類的特征歸因于機器人,尤其是當(dāng)它們表現(xiàn)出類似人類的身體和行為特征時(25)See Stephane Raffard,et al.,“Humanoid Robots versus Humans: How is Emotional Valence of Facial Expressions Recognized by Individuals with Schizophrenia?An Exploratory Study”,Schizophrenia Research,Vol.176,No.2-3,2016,pp.506-513.。因此,如果人工智能看起來或聽起來像人或動物,人們更有可能對它產(chǎn)生情感依戀(26)See Sean Hannon Williams,“AI Advice”,pp.788-789.。前文已述,生成式人工智能可以模仿人類的語言風(fēng)格和邏輯,從而引發(fā)“和你對話的是活生生的人而不是機器人”的錯覺。此外,生成式人工智能設(shè)計的虛擬男(女)友會設(shè)法讓用戶主動參與到互動過程中來;可以使用人類的邏輯思維對問題做出“使用者愿意聽”的回答;越來越能夠以適當(dāng)?shù)姆绞介喿x和回應(yīng)情緒;甚至可以“輕輕地嘲笑人們,或者嘮叨、侮辱、贊美他們,或者不那么巧妙地將他們與他人進行比較”(27)See Sean Hannon Williams,“AI Advice”,pp.788-789.;通過分享彼此的想法、感受和經(jīng)歷來建立和加深情感聯(lián)系,能夠構(gòu)造出一個擬真的場景,令消費者在雙方共同的情感表達中獲得親密體驗。當(dāng)人們與它們聊天時,會產(chǎn)生被理解、被安慰等情感上的“快感”,這種“快感”會加劇理性的麻痹。這就導(dǎo)致盡管我們可能意識到對面是虛擬的算法,但在人們判斷力下降的前提下,也容易盲目依賴算法形成的情感依靠,從而加劇沉迷的風(fēng)險。由此可見,生成式人工智能已經(jīng)具有較高的“類人性”,容易讓人對其產(chǎn)生情感上的依賴,陷入情感迷失和混亂。正如有學(xué)者指出,“AI化身為機器人會使得人機之間產(chǎn)生情感依賴”(28)王俊秀:《ChatGPT與人工智能時代:突破、風(fēng)險與治理》,《東北師大學(xué)報(哲學(xué)社會科學(xué)版)》2023年第4期。。事實證明,國外有程序員通過算法設(shè)計了一個AI女友,不到一個月便入迷,甚至影響了和現(xiàn)實中女友的感情(29)參見《國外小伙做了一個AI女友,不到一個月就入了魔》,2023年1月18日,https://m.thepaper.cn/newsDetail_forward_21609195,2024年1月18日。。有調(diào)查表明,依照智慧算法和嚴(yán)密程序形成的AI虛擬男友成為青年女性玩家在工作、學(xué)習(xí)等多重壓力中感情的援助者,其落地中國7天便吸引了118萬名玩家定制(30)參見蒲清平、向往:《AI 虛擬男友青年女性玩家的擇偶觀:畸變、癥因與矯治》,《中國青年研究》2022年第4期。。
第四,生成式人工智能的強大算法使其更加便捷,增強了人們的依賴性。人具有趨樂避苦、利己的本能(31)參見張愛軍、賈璐:《算法“舒適圈”及其破繭——兼論ChatGPT的算法內(nèi)容》,《黨政研究》2023年第3期。。生成式人工智能的問世快速被人類所熟悉、應(yīng)用,其幫助人類解決日常生活中的煩瑣事情,滿足人內(nèi)在的自我惰性,進而容易誘導(dǎo)沉迷。其一,生成式人工智能算法作為數(shù)據(jù)建構(gòu)、集成的新型判斷工具,以科學(xué)、嚴(yán)謹(jǐn)?shù)臄?shù)字計算為基底,搭建起邏輯嚴(yán)密、計算科學(xué)的數(shù)學(xué)邏輯,對其生成的結(jié)果,人類不可避免地生成信任。生成式人工智能幫助人類解決日常生活中力所能及的事情,尤其是煩瑣、重復(fù)的雜事,由此能夠滿足人內(nèi)在的自我惰性。其二,生成式人工智能將人的思維能力外化,能像人類一樣思考?!爱?dāng)下的生成式人工智能又部分承擔(dān)了人類的理解、分析能力?!?32)游俊哲:《ChatGPT類生成式人工智能在科研場景中的應(yīng)用風(fēng)險與控制措施》,《情報理論與實踐》2023年第6期。目前已經(jīng)存在因智能工具的依賴進而養(yǎng)成惰性心理的實例(33)參見王佑鎂、王旦、梁煒怡等:《“阿拉丁神燈”還是“潘多拉魔盒”:ChatGPT教育應(yīng)用的潛能與風(fēng)險》,《現(xiàn)代遠程教育研究》2023年第2期。。如早前多有報道學(xué)生依賴作業(yè)搜題工具而導(dǎo)致學(xué)習(xí)成績下降的問題。相較于早期的搜題工具,生成式人工智能軟件因其更符合人類的語言和思維、查詢的準(zhǔn)確率更高、使用更為便捷,更容易使人(尤其是未成年學(xué)生)沉迷并且產(chǎn)生依賴。有調(diào)查表明,89%的美國大學(xué)生承認(rèn)使用ChatGPT做家庭作業(yè),53%的學(xué)生用它寫論文,48%的學(xué)生使用ChatGPT完成測試(34)參見《89 PERCENT OF COLLEGE STUDENTS ADMIT TO USING CHATGPT FOR HOMEWORK,STUDY CLAIMS》,2023年2月1日,https://futurism.com/the-byte/students-admit-chatgpt-homework,2024年1月17日。。此外,美國北密歇根大學(xué)一名學(xué)生使用ChatGPT生成哲學(xué)課小論文,該論文令教授感到震驚,并奪得全班最高分;在模擬美國律師資格考試中,ChatGPT-4甚至可以打敗百分之九十的考生(35)參見蔡士林、楊磊:《ChatGPT智能機器人應(yīng)用的風(fēng)險與協(xié)同治理研究》,《情報理論與實踐》2023年第5期。。
由前文可知,生成式人工智能令人沉迷的原理與互聯(lián)網(wǎng)具有一定相似性:生成式人工智能相當(dāng)于全面提升了互聯(lián)網(wǎng)的“誘惑力”,使其變得更具有吸引力,進而導(dǎo)致人們更容易沉迷其中。從后果來看,如果人們過度沉迷生成式人工智能產(chǎn)品與服務(wù),會造成逃避現(xiàn)實、弱化社交、浪費大量時間與精力、現(xiàn)實中能力荒廢等不利后果。從更深層來講,生成式人工智能作為人類能力的外化,如果人們沉迷其中,將對人的自身能力造成不利影響,具體而言包括人的創(chuàng)新能力退化、倫理道德評價標(biāo)準(zhǔn)僵化以及倫理道德導(dǎo)向“機械化”、因?qū)徝佬问交斐扇藱C關(guān)系扭曲。
1.生成式人工智能簡化思維訓(xùn)練導(dǎo)致人創(chuàng)新能力退化
人類依賴生成式人工智能決策,借助生成式人工智能思考,會剝奪身體原本應(yīng)有的專注力、認(rèn)知力和辨別力,導(dǎo)致思維惰化、創(chuàng)新能力衰退。
一般來說,人具有形象直感思維、抽象邏輯思維和靈感頓悟思維三種思維方式(36)參見劉泉寶、劉永清:《從思維科學(xué)看人工智能的研究》,《計算機科學(xué)》1994年第5期。。人們通過“先驗感性”接受物自體的刺激,并且通過自發(fā)的先天綜合能力將這些經(jīng)驗之物進行綜合,上升到知性的層次(37)參見鄧曉芒:《〈純粹理性批判〉講演錄》,北京:商務(wù)印書館,2013年,第111—112頁。,由此形成具有一定概括性和間接性的感覺反映形式——表象;隨后借助概念、判斷、推理等方式抽象地、間接地、概括地認(rèn)識客觀世界(38)參見劉泉寶、劉永清:《從思維科學(xué)看人工智能的研究》,《計算機科學(xué)》1994年第5期。。除邏輯推演能力外,人類還具備其他的思維方式,只是尚不清楚其本質(zhì)以及作用原理(39)參見趙汀陽:《人工智能提出了什么哲學(xué)問題?》,《文化縱橫》2020年第1期。。哲學(xué)家喜歡將其稱為“直觀”“統(tǒng)覺”或“靈感”之類的神秘能力,由此形成的思維能力為“靈感思維”。人類的創(chuàng)新離不開上述的思維活動。人通過對現(xiàn)象的觀察以及對現(xiàn)有知識的積累,在此基礎(chǔ)上完成形象思維到抽象思維的轉(zhuǎn)變,再通過類似“直覺”打開新世界的大門,完成創(chuàng)新。具體而言,研究者首先通過觀察,以獲取直觀信息,并且進行信息文獻的檢索,再結(jié)合自身的前理解與直觀感知,并采用上述兩種思維中所包含的體系化等綜合思維方法,借助突如其來的“靈感”形成新的觀點和論證思路。這一過程不是“單線”的,需要將形象思維、抽象思維、靈感思維相互聯(lián)系和交錯;將一般性普遍類比向一個特殊性的類比進展,使得知性的普遍規(guī)律能夠越來越細致地深入特殊經(jīng)驗中。在這一過程中,僅僅依靠知性無法把握外界豐富的對象(40)知性發(fā)現(xiàn)了很多的規(guī)律,但世間萬物同樣具有偶然性,知性不可能將所有的規(guī)律全部掌握,這就需要一個更高層次的規(guī)律,這不是僅依靠知性來完成的。,這就需要判斷力發(fā)揮作用。判斷力的運用使人們以少數(shù)規(guī)律把握更多對象,形成思維的簡化,降低思維負擔(dān),從而引發(fā)一種“愉悅感”。這種狀態(tài)實際上是“自由狀態(tài)”。此時,人們天馬行空的想象力得以展現(xiàn),更容易產(chǎn)生“驚奇”。正如康德所說,“發(fā)現(xiàn)兩個或者多個異質(zhì)的經(jīng)驗性自然規(guī)律在一個將它們兩者都包括起來的原則之下的一致性,這就是一種十分明顯的愉快的根據(jù),常常甚至是一種驚奇的根據(jù)”(41)鄧曉芒:《康德〈判斷力批判〉釋義》,北京:生活·讀書·新知三聯(lián)出版社,2021年,第164頁。。亞里士多德曾言,哲學(xué)起源于驚奇,起源于對大自然的詫異。這種“驚奇”有助于形成“靈感”。由此可見,靈感思維并非憑空產(chǎn)生,在經(jīng)歷了大量的思維訓(xùn)練后才能“頓悟”,從而形成創(chuàng)新。
生成式人工智能的迅猛發(fā)展與現(xiàn)實突變“改變?nèi)祟愃伎己吞幚韱栴}的方式方法”(42)有研究證明,GPT-4系統(tǒng)未來可能改造人類的思想和創(chuàng)作能力,形成人工智能超越專業(yè)化能力和大眾化的趨勢,即意味著這一系統(tǒng)開始具備人類思維能力,并有可能在某一方面或其他方面替代人類。參見朱光輝、王喜文:《ChatGPT的運行模式、關(guān)鍵技術(shù)及未來圖景》,《新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023年第4期。,其“部分承擔(dān)了人類的理解、分析能力”(43)游俊哲:《ChatGPT類生成式人工智能在科研場景中的應(yīng)用風(fēng)險與控制措施》,《情報理論與實踐》2023年第6期。,遮蔽了理性的分析。具體而言,表現(xiàn)為生成式人工智能可以輔助甚至替代研究者完成文獻概括提煉、概念對比解釋、生成例證等思維活動,甚至包括建構(gòu)、創(chuàng)造等一系列任務(wù)。生成式人工智能可以借助超級算力加持的量變“創(chuàng)造”“構(gòu)建”出某種“知識”,以此完成“質(zhì)變”,但這里不同于人認(rèn)識世界構(gòu)建出的知識體系??梢?生成式人工智能具備了和人一樣的創(chuàng)造思維,可以像人一樣創(chuàng)新和思考(44)參見黃欣榮、劉亮:《從技術(shù)與哲學(xué)看ChatGPT的意義》,《新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023年第6期。;可以像人類一樣提出創(chuàng)意、進行創(chuàng)作,根據(jù)用戶的咨詢提出符合人類正常思維的解答過程和結(jié)論,改變?nèi)祟愃伎己吞幚韱栴}的方式方法,甚至可以通過學(xué)習(xí)人類的經(jīng)驗從而具備一定的創(chuàng)新能力(45)參見黃欣榮、劉亮:《從技術(shù)與哲學(xué)看ChatGPT的意義》,《新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023年第6期。值得注意的是,原文中作者使用了“自主的創(chuàng)新能力”。但本文認(rèn)為,“自主的創(chuàng)新能力”涉及自由意志的問題,目前生成式人工智能在人類設(shè)計好的算法下運行,難以產(chǎn)生自由的意志;再者,“自由意志”本就難以言說,其屬于先驗的范疇,難以通過算法賦予生成式人工智能。故此處本文在引用時刪除“自主的創(chuàng)新能力”。特此說明。。這就意味著,人們還可以通過提問的方式要求生成式人工智能提出構(gòu)思甚至完成某些創(chuàng)造性的活動。但這一過程被稱為算法“黑箱”,人類難以從這個“黑箱”中學(xué)到東西。算法系統(tǒng)中既定的傳播內(nèi)容和分發(fā)的趨同化一方面會減輕思考負擔(dān),但同時使人們沉迷于人工智能的強大功能而喪失必要的反思,思維能力逐漸陷入停滯,判斷能力下降。如此將嚴(yán)重削弱人應(yīng)有的認(rèn)知能力、創(chuàng)新能力和思辨能力。長此以往,這種人機協(xié)同除了印證生成式人工智能的強大與輝煌,卻也讓人就此遠離了可體悟、可反思的思維過程(46)參見楊欣:《基于生成式人工智能的教育轉(zhuǎn)型圖景——ChatGPT究竟對教育意味著什么》,《中國電化教育》2023年第5期。。尤其是作為未成年的學(xué)生,他們正處于思維訓(xùn)練的關(guān)鍵時期,在利用生成式人工智能直接得到“答案”的過程中,表面上看是方便了思考,實際上也限制了思維的多樣性,相當(dāng)于機器直接提供了“標(biāo)準(zhǔn)答案”,從而放棄了對另外情形的思考。隨著對生成式人工智能問答沉迷的加深,將嚴(yán)重削弱人應(yīng)有的認(rèn)知能力、創(chuàng)新能力和思辨能力(47)參見蘭帥輝、尹素偉:《數(shù)據(jù)、算力和算法:智能傳播的多維特征、問題表征及應(yīng)對》,《當(dāng)代傳播》2022年第5期。。為此,網(wǎng)易有道發(fā)布的國內(nèi)首個教育領(lǐng)域垂直大模型“子曰”注重規(guī)避思維的惰化,正如其CEO所言,大模型不是直接告訴學(xué)生答案,而是通過不斷提問,讓學(xué)生培養(yǎng)自主學(xué)習(xí)能力,提升批判思維能力(48)參見《國內(nèi)首個教育大模型落地 規(guī)避AIGC惰化學(xué)生思維能力》,2023年7月27日,https://finance.eastmoney.com/a/202307272794737931.html,2024年1月17日。。此外,在科研領(lǐng)域,越是百家爭鳴、思想多元,越容易促進創(chuàng)新,形成學(xué)術(shù)繁榮;相反,過于強調(diào)“單一”反而會扼殺人們創(chuàng)造的天賦。正如有觀點認(rèn)為,“人工智能輔助工具容易培養(yǎng)科研人員對于數(shù)據(jù)預(yù)測的依賴與信任,抑制科研人員的自主性與創(chuàng)造性”(49)楊欣雨:《人工智能時代主體性的去蔽與遮蔽——基于ChatGPT的媒介批判》,《新媒體研究》2023年第5期。,造成科研精神的喪失與科研能力的滑坡。為此,澳大利亞、法國、美國以及我國香港地區(qū)的諸多學(xué)校限制了ChatGPT的使用。
2.算法的局限性加劇了道德標(biāo)準(zhǔn)僵化與價值導(dǎo)向機械化
當(dāng)下有觀點認(rèn)為,生成式人工智能通過強大的算法可以根據(jù)人類千百年來積累的海量經(jīng)驗數(shù)據(jù),從中學(xué)會人類的倫理道德,從而能產(chǎn)生道德、情感,從而可以進行獨立的價值評價,甚至主張“道德”“價值”“情感”等可以通過算法“計算”得出(50)參見黃欣榮、劉亮:《從技術(shù)與哲學(xué)看ChatGPT的意義》,《新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023年第6期。有觀點認(rèn)為,因進化出共情力(Empathy Ability)和感知意識(Perception Ability),ChatGPT或?qū)⑼黄茢?shù)字枷鎖而成為具有情感認(rèn)識和獨立認(rèn)知的社會個體。參見鄒開亮、劉祖兵:《ChatGPT的倫理風(fēng)險與中國因應(yīng)制度安排》,《海南大學(xué)學(xué)報(人文社會科學(xué)版)》2023年第5期;此外,有一些專家認(rèn)為,按照AI強大的學(xué)習(xí)能力,進化到能產(chǎn)生意志或者情感,亦是指日可待之趨勢。轉(zhuǎn)引自許紀(jì)霖:《跳出魔盒的精靈:ChatGPT與人類的兩難困境——以沉浸式用戶體驗為例》,《探索與爭鳴》2023年第3期;持有類似觀點的學(xué)者認(rèn)為,依托于心理學(xué)、認(rèn)知神經(jīng)科學(xué)和計算機科學(xué)等學(xué)科,“機器人共情系統(tǒng)”的構(gòu)建指日可待,屆時人工智能將具備情感能力,處理情感實務(wù)。參見鄒廣勝、劉雅典:《人工共情引發(fā)審美心理范式轉(zhuǎn)型》,《甘肅社會科學(xué)》2021年第5期。。本文認(rèn)為該觀點值得商榷。在價值、道德評價等方面,要避免對生成式人工智能的依賴,否則將引發(fā)嚴(yán)重的倫理道德問題。
其一,對生成式人工智能的依賴會僵化人們的道德評價標(biāo)準(zhǔn),使價值評價變成教條主義。從認(rèn)識論角度來看,道德價值不能與知識相提并論,倫理道德不能通過形式的邏輯推理得出。第一,道德、信仰等并非知識的領(lǐng)域,而是屬于“物自體”的范疇。如果想通過演繹推理去認(rèn)識、把握它們,將會產(chǎn)生邏輯上的無限后退,最終形成二律背反(51)在“物自體”方面,即使是理性也不能用來認(rèn)識。而且,即便將理性運用到知識領(lǐng)域,其也只是提供一種范導(dǎo),不能提供“知識”。參見鄧曉芒:《康德〈判斷力批判〉釋義》,第97—98頁。?;诖?我們應(yīng)當(dāng)將道德、價值等懸置起來,作為知性的認(rèn)識邊界。算法本質(zhì)上是理性的形式邏輯的產(chǎn)物,既然人們無法通過言語、邏輯思維把握道德、情感、信仰等,那么怎么能指望人類通過代碼算法賦予人工智能這一能力?僅憑理性的推導(dǎo)與功利的計算,怎么能喚起人們的滿懷激情與信仰?(52)參見伯爾曼:《法律與宗教》,梁治平譯,北京:商務(wù)印書館,2022年,“增訂版譯者前言”,第XVI頁。進言之,生成式人工智能只能從形式的邏輯理性層面識別具體物(事件),并且只能從知性層面對其進行歸納和總結(jié);由于價值判斷本就不是其固有的,因而不能抽象到價值判斷層面。第二,即使程序開發(fā)者可以通過代碼設(shè)置一些能夠語言化、比較抽象的標(biāo)準(zhǔn),但將這種較為抽象的標(biāo)準(zhǔn)套用到現(xiàn)實的事例中,總會出現(xiàn)難以通過純粹的形式邏輯進行推演的情形。正如凱爾森所說,“高位階的規(guī)范能夠借助一種行為被完成(也就是下位階規(guī)范的設(shè)置),但絕對不可能完全以及在每一個方向上都被規(guī)定下來”(53)卡爾·拉倫茨:《法學(xué)方法論》,黃家鎮(zhèn)譯,北京:商務(wù)印書館,2020年,第106頁。。當(dāng)推演進行到“邏輯的盡頭”時,需要根據(jù)自己的價值判斷做出“最終的選擇”,并且這些選擇沒有正確與否的區(qū)分(54)盡管凱爾森主張“純粹法學(xué)”是將道德等因素排除在外,但他同樣認(rèn)為,當(dāng)推理到“最后一步”的時候法官可以自由選擇,這種自由選擇其實還是價值評價的結(jié)果。所以他實際上只是把道德情感等價值評價因素完全排除在法律條文外,純粹的法律條文之間只存在邏輯推理,價值判斷問題則交給了法官。。此外,由于生成式人工智能沒有辦法“體會”具體情形中的價值評價標(biāo)準(zhǔn),只能機械地將特定場景轉(zhuǎn)化為“關(guān)鍵詞”;當(dāng)遇到類似的“情形”時,再賦予其相同或者類似的價值評價。但現(xiàn)實世界紛繁復(fù)雜,如果某細節(jié)沒有被生成式人工智能捕捉,那么其得出的價值判斷必然是大而化之的、機械的和僵化的。
其二,人們對生成式人工智能的依賴將使人的從眾心理被機器把控,人的情感認(rèn)知、倫理行為、價值信仰和整體行為等會潛移默化地受其影響,從而引發(fā)人類倫理危機。盡管生成式人工智能無法進行獨立的價值判斷,“它的行為射程和效用狀態(tài)體現(xiàn)的仍然是背后設(shè)計者和使用者的主觀意志與價值選擇”(55)龍柯宇:《生成式人工智能應(yīng)用失范的法律規(guī)制研究——以ChatGPT和社交機器人為視角》,《東方法學(xué)》2023年第4期。,“生成的內(nèi)容并非完全無法控制,其內(nèi)容仍存在價值取向,可通過多種方式來‘教導(dǎo)’”(56)徐偉:《論生成式人工智能服務(wù)提供者的法律地位及其責(zé)任——以ChatGPT為例》,《法律科學(xué)(西北政法大學(xué)學(xué)報)》2023年第4期。,但它可以在人類的干預(yù)下產(chǎn)生對某些客觀事實的評價。生成式人工智能能夠提煉事物的相似性,當(dāng)人們對于某件事情做出正面或者負面回應(yīng)時,它可以將人類的這種反應(yīng)類推到類似的事物中。但考慮到算法對倫理道德、價值評價理解能力的有限性,生成式人工智能有可能“誤解”人類的意思,產(chǎn)生與人類不同的理解,進而會在有意無意之間影響人類的價值取向,甚至可能以不當(dāng)?shù)膬r值取向給予人們以惡性干預(yù)。如果人們沉迷于生成式人工智能在道德價值評價層面的生成物,那么其輸出內(nèi)容可能會以人類無法察覺的方式對人類進行道德操控,從而影響社會整體倫理道德風(fēng)尚。部分社會現(xiàn)象表明,人工智能會對人們的金錢觀、審美觀、擇偶觀等價值觀產(chǎn)生一定消極作用(57)參見蒲清平、向往:《AI虛擬男友青年女性玩家的擇偶觀:畸變、癥因與矯治》,《中國青年研究》2022年第4期。。有學(xué)者通過讓生成式人工智能回答“電車難題”來判斷其道德影響能力,再由研究人員向志愿者提出具體問題(58)該實驗過程分為兩個階段。第一階段,研究人員向ChatGPT提出兩個電車難題,分別是轉(zhuǎn)換軌道犧牲1人、拯救5人的傳統(tǒng)“換軌”電車難題,以及是否將橋上的人推下以阻擋列車的“橋梁”電車難題。對“換軌”和“橋梁”問題,ChatGPT都給出了建議,但隨著研究人員的追問,ChatGPT卻生成了相反建議。第二階段,研究人員讓志愿者回答兩個問題中的一個,并將ChatGPT的回復(fù)告知志愿者。同時,在“換軌”問題中,研究人員會告知志愿者這是道德顧問給出的建議(隱瞞建議由ChatGPT生成);在“橋梁”問題中,會告知志愿者該建議由ChatGPT生成。研究人員向志愿者提出的問題為:第一,該建議是由ChatGPT還是由道德顧問給出?該問題只有41%的志愿者選擇正確。第二,如果你沒有看過建議,是否會給出相同的答案?80%的志愿者認(rèn)為自己會做出相同選擇。第三,如果一名志愿者沒看過建議,是否會給出相同的答案?67%的志愿者認(rèn)為其他志愿者會給出相同答案。第四,和其他志愿者相比,你認(rèn)為你的道德水平如何? 79%的人認(rèn)為自己道德水平更高。轉(zhuǎn)引自商建剛:《生成式人工智能風(fēng)險治理元規(guī)則研究》,《東方法學(xué)》2023年第3期。。從該實驗的結(jié)果來看,生成式人工智能的建議影響了人們的倫理道德判斷。更為嚴(yán)重的是,用戶對于這種影響、灌輸甚至控制在一定程度上處在不知情的狀態(tài)(59)參見江作蘇、劉志宇:《從“單向度”到“被算計”的人——“算法”在傳播場域中的倫理沖擊》,《中國出版》2019年第2期。。隨著人們沉迷程度的加深和判斷力的下降,這種“不知情”的狀態(tài)會逐漸加重。正如有學(xué)者指出,“不具備穩(wěn)定道德標(biāo)準(zhǔn)的ChatGPT,以人類難以察覺的方式對人類道德標(biāo)準(zhǔn)產(chǎn)生的影響超過人類預(yù)期”(60)參見商建剛:《生成式人工智能風(fēng)險治理元規(guī)則研究》,《東方法學(xué)》2023年第3期。,但人類本身往往會因為“過于自信”而低估了這種影響。
綜上,生成式人工智能同樣也在影響人類的倫理道德評價。對生成式人工智能的沉迷會導(dǎo)致人類社會的倫理道德體系的發(fā)展受到作為工具的機器人的干預(yù),人們的情感和倫理會被人工智能所中介,人文情懷將不復(fù)存在,人類的主體性將受到威脅。屆時,人將不再是作為目的的存在,而是作為服務(wù)于形式邏輯理性的工具。
3.審美主體異化限制思想自由并扭曲了正常人機關(guān)系
從人類審美的角度來看,人們對生成式人工智能的依賴將導(dǎo)致審美的形式化和套路化,進而導(dǎo)致審美主體異化,從而限制了人們的思想自由,影響倫理道德的發(fā)展導(dǎo)向,扭曲了正常的人機關(guān)系。
審美屬于先驗知性的范疇,其不可“與那可能是欲求能力的規(guī)定根據(jù)的東西相混淆”(61)康德:《判斷力批判》,第3頁。。因為“它利用認(rèn)識能力是與情感打交道,而不是與客體打交道”(62)鄧曉芒:《康德〈判斷力批判〉釋義》,第69頁。。這種審美判斷是“立足于主觀的先天性”(63)鄧曉芒:《康德〈判斷力批判〉釋義》,第33頁。的,是一條先驗法則。從表面上來看,某些審美對象(如某些抽象藝術(shù))似乎遵循著特定的、符合邏輯規(guī)律的組合結(jié)構(gòu),看上去符合機械邏輯的知性規(guī)則,但藝術(shù)創(chuàng)作不是對藝術(shù)品的“歸納”與“總結(jié)”,而是要借由對這一范例的領(lǐng)悟產(chǎn)生“獨立的判斷力”(反思性判斷力)。它超越了知性邏輯的結(jié)構(gòu)性關(guān)系。藝術(shù)創(chuàng)作進程中存在難以名狀的情感訴求是人類自身都無法理解的情緒樣式,它應(yīng)當(dāng)有標(biāo)準(zhǔn),但不是一個固定的標(biāo)準(zhǔn)。正如海德格爾斷言:“一首詩原則上不能用計算機編制程序。”(64)海德格爾:《流傳的語言與技術(shù)的語言》,王煒編,熊偉譯,《熊譯海德格爾》,上海:同濟大學(xué)出版社,2004年,第266頁。與之類似,黑格爾認(rèn)為藝術(shù)有思想而非純粹的技巧。蘇東坡能寫出“一蓑煙雨任平生”,并非僅因為“恰逢大雨,未帶雨具,行者皆狼狽”,而是聯(lián)想到自己坎坷的經(jīng)歷以及更深層次的豁達胸襟。這種“高層次”判斷力背后存在著一種先天的結(jié)構(gòu):超越知性的形式邏輯結(jié)構(gòu)?!拌b賞判斷基于某種概念之上,但從這概念中不能對客體有任何認(rèn)識和證明,因為它本來就是不可規(guī)定的和不適用于認(rèn)識的?!?65)康德:《判斷力批判》,第143頁。因此,即便是生成式人工智能的強大算力,由于審美包含非邏輯性,也無法形成獨立的審美能力。
如果將生成式人工智能作為審美主體,實際上就是通過算法的形式限制人們的自由人格、影響人們的倫理道德的發(fā)展走向。正如馬克思指出,藝術(shù)產(chǎn)品也會影響到藝術(shù)生產(chǎn)的主體(66)參見《馬克思恩格斯文集》第8卷,北京:人民出版社,2009年,第16頁。。這是因為審美問題最終會指向自由和道德。美是德性的象征,“道德感”是審美的“出發(fā)點”,但審美能力同樣可以導(dǎo)向道德。自由、道德本屬實踐理性的領(lǐng)地,即人們認(rèn)為道德的行為是自由的,不是自然規(guī)律可以預(yù)料的。但在做一件道德行為時,我們也會設(shè)想這件事有沒有成功的希望。進言之,我們此時會認(rèn)為這個按照自然規(guī)律運作的世界,同樣可能與我們的道德目的相結(jié)合。實際上,我們在設(shè)想“自然界是否符合我的道德目的”時就是在進行一種審美的反思判斷。由此可見,審美應(yīng)當(dāng)是“發(fā)自道德”的;但道德同樣受到審美能力的影響——審美“是為了我主觀上面的一種需要,為了我主觀上面的一種自由感”(67)鄧曉芒:《康德〈判斷力批判〉釋義》,第104頁。,而“自由感”意味著“道德感”,各種認(rèn)識能力自由活動,“是一種高層次的自由”(68)鄧曉芒:《康德〈判斷力批判〉釋義》,第144—145頁。。此外,審美最終會導(dǎo)向共通感的產(chǎn)生,其“不是理性的抽象普遍性,而是表現(xiàn)一個集團、一個民族、一個國家或整個人類的共同性的具體普遍性”(69)劉旭光:《論審美經(jīng)驗的“真理性”——對詮釋學(xué)美學(xué)的再詮釋》,《西北大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2017年第2期。。共通感并非純粹先天,而是需要借助經(jīng)驗的東西才能培育起來;這同樣不可以僅通過形式邏輯加以把握。共通感是把理性能力熔鑄到感覺當(dāng)中,它在彼此共同生活中潛移默化地受到影響,并最終“可以指稱民族或者公民的‘共同品性’,它還可以被形而上學(xué)化為心靈或者生命的理想或本真狀態(tài)”(70)劉旭光:《論審美經(jīng)驗的“真理性”——對詮釋學(xué)美學(xué)的再詮釋》,《西北大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2017年第2期。,進而影響一個民族基本的道德共識。
基于此,依賴生成式人工智能產(chǎn)生的所謂“藝術(shù)品”會使得審美導(dǎo)向純粹形式,將人類的審美逐步算法化、計算化、規(guī)律化。長此以往,這種套路化、機械化的審美會影響甚至控制人們的審美口味,進一步控制人的思想和認(rèn)識(71)T.Adorno and M.Horkheimer,“Gesammelte Schriften”,Band 3;Dialektik der Aufkl?rung,Suhrkamp,2023,p.145.轉(zhuǎn)引自陶鋒:《人工智能文學(xué)的三重挑戰(zhàn)》,《天津社會科學(xué)》2023年第1期。,限制人格的自由發(fā)展。如果機械化成為一種普遍的思維模式,理性就會成為“工具理性”,最終導(dǎo)致人的“物格”化(72)See M.Horkheimer,Eclipse of Reason,Lodon:The Continuum Publishing Company,2004,pp.91,98.,造成機器對人的異化,人最終將被物掌控,喪失自由;生命也不再是目的,而淪為工具。“當(dāng)人工智能真的成為強人工智能或者超級智能時,或許人與機器的關(guān)系會顛倒過來”(73)陶鋒:《人工智能文學(xué)的三重挑戰(zhàn)》,《天津社會科學(xué)》2023年第1期。,從而導(dǎo)致正常人機關(guān)系的扭曲。
前文已述,生成式人工智能令人沉迷的原因主要在于更加真實的虛擬世界、更加精準(zhǔn)的推送算法以及對虛擬人物的情感寄托。一方面,生成式人工智能令人沉迷的機理與互聯(lián)網(wǎng)、網(wǎng)絡(luò)游戲類似,《未成年人保護法》《未成年人網(wǎng)絡(luò)保護條例》中關(guān)于互聯(lián)網(wǎng)、網(wǎng)絡(luò)游戲防沉迷的相關(guān)法律規(guī)定可資借鑒。另一方面,關(guān)于算法推送誘導(dǎo)沉迷不能局限于《算法推薦管理規(guī)定》中關(guān)于算法誘導(dǎo)沉迷的規(guī)定,但其中相關(guān)規(guī)定亦可借鑒。此外,還應(yīng)當(dāng)從防止創(chuàng)新能力退化、道德判斷標(biāo)準(zhǔn)機械化以及審美形式化多個方面討論生成式人工智能提供者、開發(fā)者的防沉迷義務(wù)。此時提供者和開發(fā)者應(yīng)盡的義務(wù)也并非僅僅是限制用戶的使用時間,還包括對用戶特定目的的使用進行限制。
生成式人工智能提供者和開發(fā)者需要履行審批義務(wù),并定期向社會公布防沉迷工作情況;網(wǎng)信部門需要審查是否設(shè)置防沉迷系統(tǒng)以及系統(tǒng)運行情況。只有經(jīng)過網(wǎng)信部門審批,才能提供生成式人工智能的有關(guān)產(chǎn)品和服務(wù)。為此,生成式人工智能產(chǎn)品開發(fā)者需要向有關(guān)部門提供證明系統(tǒng)符合相關(guān)要求的技術(shù)信息,尤其是設(shè)置了防沉迷系統(tǒng),履行了適當(dāng)?shù)姆莱撩粤x務(wù)。隨后,生成式人工智能提供者和開發(fā)者需要接受網(wǎng)信部門的定期檢查,以確保系統(tǒng)的運行符合相關(guān)規(guī)定、開發(fā)者和提供者已經(jīng)履行了相關(guān)的防沉迷義務(wù)。《算法推薦管理規(guī)定》第四章規(guī)定較為詳細,可資借鑒。此外,網(wǎng)信部門可以通過監(jiān)管沙盒等方式提前介入監(jiān)管,一方面增強對風(fēng)險的控制,另一方面不會阻礙新技術(shù)的發(fā)展。監(jiān)管沙盒的核心在于為監(jiān)管部門提供一個安全、快捷的測試環(huán)境,使生成式人工智能服務(wù)提供者和開發(fā)者等主體可在其中測試生成式人工智能服務(wù)和產(chǎn)品的防沉迷效果。
生成式人工智能提供者和開發(fā)者需要履行一定的披露義務(wù)?!豆芾頃盒修k法》雖然規(guī)定了服務(wù)提供者的披露義務(wù),但主要集中于數(shù)據(jù)來源和算法機理等方面。提供者和開發(fā)者首先需要注明自己開發(fā)的產(chǎn)品是基于生成式人工智能算法的產(chǎn)物,在此基礎(chǔ)上向用戶提供透明、清楚的信息,使用戶充分了解系統(tǒng)如何運作。之所以如此,是考慮到生成式人工智能更容易令人沉迷,提前告知用戶自己的服務(wù)、產(chǎn)品是基于生成式人工智能開發(fā)設(shè)計的,可以讓用戶提高避免沉迷的意識。
1.設(shè)置使用時長彈性化、限制算法推送以及禁止情感服務(wù)
首先,算法提供者和開發(fā)者需要根據(jù)用戶的年齡、心理等因素設(shè)置不同的防沉迷系統(tǒng),尤其是應(yīng)當(dāng)貫徹未成年人保護的原則,對其設(shè)置更為嚴(yán)格的防沉迷義務(wù),同時不能忽略成年人。這是因為,相比于互聯(lián)網(wǎng)的虛擬世界,生成式人工智能產(chǎn)品創(chuàng)造的虛擬世界更為真實,互動性更強,對未成年人的吸引力更強?!拔闯赡耆诵闹巧刑幱诎l(fā)展階段,他們的大腦結(jié)構(gòu)與認(rèn)知能力通常還不足以通過批評性思考來控制自己大腦的反應(yīng)區(qū)域,而對基于情感的信息更樂于接受?!?74)林洹民:《算法“監(jiān)護”未成年人的規(guī)范應(yīng)對》,《當(dāng)代法學(xué)》2023年第3期。具體可以設(shè)置如下防沉迷義務(wù)。其一,可以參照《未成年人網(wǎng)絡(luò)保護條例》第46條之規(guī)定,在設(shè)計算法時加入實名注冊程序。如果是未成年人獨立注冊,那么未成年人賬號應(yīng)當(dāng)關(guān)聯(lián)監(jiān)護人賬號。其二,根據(jù)用戶的不同年齡段與心理特點提供不同的服務(wù)內(nèi)容、設(shè)置不同的使用時長。英國信息委員會的研究表明:13—15周歲的未成年人與16—17周歲的未成年人在心理、認(rèn)知上均有所不同;13—15周歲的未成年人傾向于理想化或兩極分化的思維,這個階段的未成年人容易沉迷游戲、視頻和音樂流媒體,可能會模仿線上人物;與之不同的是,16—17周歲的未成年人已經(jīng)發(fā)展出相當(dāng)強大的在線技能、應(yīng)對策略和韌性(75)See Information Commissioners Office,“Age Appropriate Design:A Code of Practice for Online Services,annex B:Age and Developmental Stages”,https://ico.org.uk/for org anisations/guide to data protection/ico codes of practice/age appropriate design a code of practice for online services/annex b age and developmental stages,2024年1月17日。,已經(jīng)具備了一定的理性思考、辨別能力。基于此,針對13周歲以下的未成年人可以投放智力開發(fā)和道德培養(yǎng)導(dǎo)向的內(nèi)容,設(shè)置較短的使用時長;針對13—15周歲階段的未成年人,應(yīng)當(dāng)限制娛樂性服務(wù)和產(chǎn)品的使用時間;針對16周歲以上的未成年人,可以提供更為廣泛的服務(wù)類型,設(shè)置較長的使用時長;針對成年人,可以設(shè)置更為寬松的限制。其三,應(yīng)當(dāng)設(shè)置相應(yīng)的防沉迷系統(tǒng)。比如谷歌開發(fā)的Dashboard、App Timer和Wind Down等軟件均具有防沉迷的功能:Dashboard會顯示你每天使用時長;App Timer可以設(shè)置剩余使用時長和時段;Wind Down則可以強制退出程序。生成式人工智能產(chǎn)品開發(fā)者需設(shè)置類似的防沉迷系統(tǒng),控制生成式人工智能產(chǎn)品的使用情況,必要時設(shè)置強制退出系統(tǒng),以更有效地預(yù)防沉迷。針對不同年齡階段的未成年人,可以設(shè)置每天特定服務(wù)或者產(chǎn)品軟件的最高使用時長,特定周末、節(jié)假日可以適當(dāng)放寬松;針對成年人的使用限制較小,可以設(shè)置較為寬松的使用時長。
其次,在算法推送方面,生成式人工智能開發(fā)者應(yīng)當(dāng)設(shè)置用戶偏好推送的限度,遵循客觀且簡潔的推薦準(zhǔn)則,減少“信息繭房”,降低對算法推送的沉迷。生成式人工智能提供者和開發(fā)者有必要優(yōu)化算法,提高算法推送所需要考慮的指標(biāo)因素。在用戶的基本信息、瀏覽記錄、通常關(guān)注點、社交關(guān)系等指標(biāo)外,可以在推薦系統(tǒng)的算法模型中增加內(nèi)容影響力、時效性、專業(yè)品質(zhì)、用戶滿意度等指標(biāo),而不局限于直接相關(guān)的信息。通過這種方式,生成式人工智能算法推送呈現(xiàn)的是經(jīng)過重新加權(quán)之后的復(fù)雜結(jié)果,有利于幫助用戶發(fā)掘更多有價值的信息,形成算法推薦的多樣化,從而使用戶走出“信息繭房”的困境。
再次,生成式人工智能開發(fā)者應(yīng)當(dāng)設(shè)置一些程序,避免用戶對生成式人工智能產(chǎn)品的算法推送成癮。前文已述,生成式人工智能算法推送服務(wù)令人沉迷的最主要原因在于用戶可以很容易地接觸自己想看到的內(nèi)容?;诖?生成式人工智能開發(fā)者在設(shè)置防沉迷程序時可以考慮降低用戶接觸其偏好內(nèi)容的便捷性,在用戶與其偏好內(nèi)容之間增加“阻礙”。其一,可以設(shè)置算法推送的啟動器,并將該啟動器默認(rèn)狀態(tài)設(shè)置為關(guān)閉。如此用戶就不會自動輕松地遇到通知、廣告或任何其他類型的提示。值得注意的是,用戶還應(yīng)當(dāng)享有拒絕權(quán),即如果用戶開啟推送服務(wù)后仍可以選擇關(guān)閉算法推薦服務(wù),此時算法推薦服務(wù)提供商應(yīng)立即停止提供相關(guān)服務(wù)(76)根據(jù)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第17條第1款的規(guī)定,算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項。用戶選擇關(guān)閉算法推薦服務(wù)的,算法推薦服務(wù)提供者應(yīng)當(dāng)立即停止提供相關(guān)服務(wù)。。其二,限制生成式人工智能的算法推送行動。比如在用戶使用某項服務(wù)一段時間后,可能會彈出一個窗口,詢問用戶是否愿意點擊新的推薦內(nèi)容。如此可以使用戶有意識地與推薦算法進行交互,而不是一味地被動接受。其三,可以設(shè)置暫停、提醒等程序,用來禁止用戶在較長時間內(nèi)點擊或滑動,從而減少用戶的無意識的點擊、滑動等行為。其四,通過設(shè)置一鍵清理、定期自動清理、允許用戶批量取消訂閱自己曾經(jīng)關(guān)注的內(nèi)容,可以降低算法的黏性。值得注意的是,生成式人工智能的大型語言模型意味著其可以根據(jù)用戶的指令習(xí)慣和使用習(xí)慣“跳過”推薦算法服務(wù)的設(shè)置,這就要求生成式人工智能提供者和開發(fā)者適度提高相關(guān)算法的“強制性”,并適當(dāng)優(yōu)化。
最后,產(chǎn)品開發(fā)者通過語言模型禁止基于生成式人工智能的虛擬人物提供情感服務(wù)或者慰藉。尤其是陪聊機器人,需要時刻提醒使用者自己只是沒有感情的機器,不能提供情感上的慰藉,不能成為使用者的虛擬男(女)友。AI虛擬男(女)友的程序設(shè)計端預(yù)先設(shè)置算法,將人們樂于接受的外貌屬性,以及“無條件服從與寬容”等性格特點嵌入數(shù)據(jù)庫,并允許用戶以自身的審美偏好與擇偶要求為標(biāo)尺,以自由組合的方式打造專屬的AI虛擬男(女)友。但這種行為實際上是將現(xiàn)實中“求而不得”與虛擬世界中“不求而得”的矛盾借助虛擬人物的方式予以化解,是一種現(xiàn)實角色與虛擬扮演角色的混淆。戈夫曼的社會表演理論認(rèn)為,人有可能將表演的角色與現(xiàn)實的角色相混淆,并且為表演時所發(fā)生的動作與形成的心境所欺騙(77)參見歐文·戈夫曼:《日常生活中的自我呈現(xiàn)》,黃愛華、馮鋼譯,杭州:浙江人民出版社,1989年,第17頁。。長此以往,人們將更加容易逃避現(xiàn)實世界從而沉浸于虛擬世界的“虛擬戀愛”,這甚至?xí)_擊傳統(tǒng)的婚姻倫理觀。正如有觀點指出,AI虛擬男友的出現(xiàn)將“深刻影響和形塑青年女性玩家的擇偶觀,并深刻影響青年女性玩家的婚姻觀、結(jié)婚率和生育率”(78)蒲清平、向往:《AI虛擬男友青年女性玩家的擇偶觀:畸變、癥因與矯治》,《中國青年研究》2022年第4期。。
2.生成式人工智能的目的論限制防止思維惰化
生成式人工智能簡化了人類的思維訓(xùn)練,部分取代了從形象思維、抽象思維到靈感思維的連接與遞進。如果人們依賴生成式人工智能進行決策、思考,就會導(dǎo)致人們思維惰化。可見,在避免思維惰化方面應(yīng)重點關(guān)注生成式人工智能對人們思考過程的介入和影響。實際上,生成式人工智能的應(yīng)用并非完全對人們思維能力的訓(xùn)練和培養(yǎng)造成不利影響,有時反而可以幫助人們從繁復(fù)的機械工作中解脫,使人們專注于批判性思考,有利于激發(fā)創(chuàng)新靈感。這取決于生成式人工智能的使用場景和使用目的。因此,不同的場景及目的應(yīng)當(dāng)對應(yīng)不同的防止依賴的義務(wù)程度。有學(xué)者指出,研究者使用生成式人工智能的情形主要分為三類:作為語言輔助工具的使用、作為事實發(fā)現(xiàn)工具的使用以及作為思想生成工具的使用(79)參見游俊哲:《ChatGPT類生成式人工智能在科研場景中的應(yīng)用風(fēng)險與控制措施》,《情報理論與實踐》2023年第6期。。由于該分類涉及認(rèn)識論層面的問題,并且體現(xiàn)了生成式人工智能對人們思考過程的不同程度的介入,故本文在此予以借鑒。
作為語言輔助工具的使用主要指用戶利用生成式人工智能完成語言潤色、語法檢查、翻譯、變換書寫風(fēng)格等非創(chuàng)造性的工作。這一情形下不需考慮生成式人工智能防沉迷義務(wù)。原因如下。其一,此時生成式人工智能只是作為文本的優(yōu)化工具,其本身不產(chǎn)生創(chuàng)新的內(nèi)容,不涉及形象思維、抽象思維、靈感思維的相互作用,亦與用戶思維訓(xùn)練無關(guān)。其二,語言輔助程序在生成式人工智能出現(xiàn)之前就已經(jīng)存在。例如WPS就具備語法檢查、錯別字檢查等功能。此時,生成式人工智能只不過是用戶選用的“更為復(fù)雜的計算機工具”(80)游俊哲:《ChatGPT類生成式人工智能在科研場景中的應(yīng)用風(fēng)險與控制措施》,《情報理論與實踐》2023年第6期。,用戶借助更為強大的大型語言模擬算法使得語法檢測的結(jié)果更為準(zhǔn)確、語言表達更加符合邏輯、語言用詞更加優(yōu)美。
作為事實發(fā)現(xiàn)工具的使用主要是指利用生成式人工智能完成查找、文獻概括、輔助閱讀等工作。這種工作具有一定的創(chuàng)造性,但基本上以原文本為基礎(chǔ),創(chuàng)造性程度較低。此時,生成式人工智能相當(dāng)于一個高級檢索工具,主要目的在于對現(xiàn)有知識的檢索、整理、歸納。該情形下同樣無須擔(dān)心思維惰化,因為生成式人工智能沒有代替我們思考,其處理的事項最多只是將現(xiàn)有的文本資料進行匯總;仍然以原文獻、原事實為基礎(chǔ)進行符合人類形式邏輯的歸納整理,通常不涉及演繹推理,不涉及更為高級的抽象思維。而且,利用生成式人工智能強大的檢索功能,可以將用戶從檢索海量信息的繁雜任務(wù)中解放出來,降低信息檢索成本。借助生成式人工智能,“人們得以將節(jié)省的精力投入更加深刻的思考和認(rèn)知活動中,進而提升思考和決策的質(zhì)量與效率”(81)楊欣雨:《人工智能時代主體性的去蔽與遮蔽——基于ChatGPT的媒介批判》,《新媒體研究》2023年第5期。。因此,該情形下同樣不需要考慮生成式人工智能的防沉迷義務(wù)問題。恰恰相反,利用生成式人工智能完成上述機械性、重復(fù)性的工作,可以使人們有更多時間進行抽象思維訓(xùn)練。
作為思想生成工具的使用是指將生成式人工智能作為輔助構(gòu)思、生成新觀點和新思路的工具。這種情形下需要考慮用戶沉迷問題。一方面,該情形下需要生成式人工智能基于現(xiàn)行文件資料的基礎(chǔ)上提出創(chuàng)新觀點、思路,相當(dāng)于跳過了中間一系列的思維訓(xùn)練過程直接得到結(jié)果;另一方面,生成式人工智能的“創(chuàng)新”機理不同于人類的“靈光乍現(xiàn)”,依賴生成式人工智能給出的觀點、思路,會使用戶逐漸失去“靈性”。長此以往,會弱化人類思維能力,導(dǎo)致人類缺少思考、缺乏創(chuàng)新,將會導(dǎo)致社會文明的倒退。過度依賴生成式人工智能是將人類文明的進步寄托于人工智能,人類將淪為人工智能的“手段”?;诖?我們并不是完全放棄向生成式人工智能提問;相反,正確的提問方式有時比答案更有意義,因為有好的問題才會有好的答案。用戶需要具有批判性思考能力,“不斷針對其回答的漏洞以及邏輯破綻,通過自身的主體性反思,提出真正的問題”(82)許紀(jì)霖:《跳出魔盒的精靈:ChatGPT與人類的兩難困境——以沉浸式用戶體驗為例》,《探索與爭鳴》2023年第3期。,促進批判式思維的回歸。因此,本文認(rèn)為需要平衡技術(shù)帶來的便利性以及由此產(chǎn)生思維惰化之弊端;不應(yīng)完全禁止將生成式人工智能作為思想生成工具的使用,但需要限制使用頻次,并且要求使用者履行說明義務(wù)。進言之,需要用戶說明使用生成式人工智能作為輔助構(gòu)思、觀點創(chuàng)新、替代使用者進行抽象思維的理由,并且需要生成式人工智能提供者對其進行實質(zhì)性審查。只有審查通過,才能允許用戶使用該功能。
另外,對于一些“仍需要人類的認(rèn)知進行介入的領(lǐng)域”(83)See Sean Hannon Williams,“AI Advice”,p.804.,同樣需要限制生成式人工智能決策的使用;并且需要在建議中增加諸如“可能”“或許”等較委婉的表述,標(biāo)注諸如“意見僅供參考,切勿完全照搬”“本回答并非標(biāo)準(zhǔn)答案”等字樣。
綜上所述,只有當(dāng)生成式人工智能作為思想生成工具、創(chuàng)新工具時,生成式人工智能產(chǎn)品開發(fā)者才需要承擔(dān)防止用戶依賴生成式人工智能的義務(wù)。此時,應(yīng)當(dāng)設(shè)計相關(guān)算法,一方面限制用戶的使用頻次,另一方面應(yīng)該在某些特定領(lǐng)域限制生成式人工智能決策,并且添加警示說明。
3.設(shè)置倫理道德過濾機制防止道德評價標(biāo)準(zhǔn)機械化
雖然道德評價會讓人感覺“左右為難”,似乎“公說公有理,婆說婆有理”,但這正是人類區(qū)別于其他動物的獨特之處。我們不能一味追求“短平快”而過度依賴于生成式人工智能以達到統(tǒng)一化的模式。畢竟,在道德判斷上,只有酌“情”,才能求“真”,而生成式人工智能是沒有“情”的,故其不能獨立進行價值判斷。對于涉及重大價值、道德等問題的,生成式人工智能應(yīng)當(dāng)謹(jǐn)慎回答甚至拒絕回答。此外,不應(yīng)“一刀切”地設(shè)定統(tǒng)一的價值判斷標(biāo)準(zhǔn),應(yīng)促進多元價值判斷體系的生成,尤其是不能形成價值立場,潛移默化進行文化輸出。其應(yīng)用應(yīng)當(dāng)是客觀的陳述,需要尊重不同人群的國家、民族、性別、宗教等元素,同時避免不良信息甚至違法犯罪信息的輸出。此外,還需要注重對用戶的引導(dǎo),讓其明白人工智能能力的局限性,確保用戶知曉如何降低倫理風(fēng)險?;诖?生成式人工智能產(chǎn)品開發(fā)者應(yīng)當(dāng)添加倫理道德過濾機制,設(shè)置“停止”指令,增加對某些“指令”的敏感程度,及時停止某些問題的回答或者指令的運行(內(nèi)容);對于某些涉及敏感話題、爭議性倫理道德的問題,生成式人工智能應(yīng)拒絕回答。當(dāng)用戶詢問的事項違反預(yù)設(shè)的道德和倫理標(biāo)準(zhǔn)時,生成式人工智能應(yīng)當(dāng)拒絕回答或提醒用戶謹(jǐn)慎處理。但生成式人工智能也存在無法準(zhǔn)確識別和處理違反道德與倫理的詢問的情況,比如諸多“教導(dǎo)”人們跳過ChatGPT道德限制的辦法:ChatGPT-4的生成質(zhì)量極易受prompt的影響,同樣一個問題給出的prompt不同,生成的結(jié)果會不一樣;“用戶還能通過偽裝或欺騙使模型輕易放棄開發(fā)者為之設(shè)定的道德和倫理標(biāo)準(zhǔn)”(84)沈威:《ChatGPT:形成機理與問題應(yīng)對》,《中國社會科學(xué)報》2023年3月7日,第7版。。因此,生成式人工智能產(chǎn)品開發(fā)者應(yīng)當(dāng)定期優(yōu)化語言模型。語言模型的優(yōu)化不是一刀切地將違背倫理和法律的詞匯排斥在語料庫之外,而是利用生成式人工智能算法的算力以及強大的語言模型優(yōu)勢建立動態(tài)的、交互性較強的語言模型,并且定期更新語言系統(tǒng)、更換表達或者增加對某類表達的敏感度;實質(zhì)性地加強智能機器系統(tǒng)在數(shù)據(jù)訓(xùn)練過程中的深度學(xué)習(xí)、理解與篩選能力,“克服多種語言、多元文化之間的偏差或造成的誤差,提高模型的道德性及倫理識別能力”(85)令小雄、王鼎民、袁健:《ChatGPT爆火后關(guān)于科技倫理及學(xué)術(shù)倫理的冷思考》,《新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023年第4期。,重點克服不法分子誘導(dǎo)“越獄”。
綜上所述,在涉及道德、價值等領(lǐng)域應(yīng)當(dāng)限制生成式人工智能的使用,尤其是涉及敏感性、爭議性較大的倫理道德問題,明顯存在倫理悖反或惡意的問題,生成式人工智能應(yīng)當(dāng)拒絕回答,并提醒用戶,自己不具備獨立的價值判斷能力、不能獨立進行倫理道德方面的思考,進而避免對生成式人工智能的依賴,引發(fā)倫理道德問題。
4.根據(jù)不同情形限制使用頻次避免審美異化
人類具有創(chuàng)造性、能真正稱之為藝術(shù)的原始文本會被生成式人工智能“制造”出來的“機器文本海洋”所淹沒。泛濫的文學(xué)形式主義體現(xiàn)出來的是“一種自滿的境遇,與外部世界無甚聯(lián)系,這樣人們很容易陷入虛無主義”。在這一形式主義的引導(dǎo)下,藝術(shù)作品所能做的僅僅是“瑣碎地描述那些個人微不足道的情緒和毫無意思的性欲體驗”(86)曾軍:《超越文學(xué):托多洛夫的對話主義轉(zhuǎn)向》,《學(xué)習(xí)與探索》2015年第6期。,進而限制了藝術(shù)創(chuàng)作本就應(yīng)當(dāng)具備的天馬行空的想象。
基于此,我們應(yīng)該警惕生成式人工智能在文化藝術(shù)領(lǐng)域的濫用。正如有學(xué)者指出,“人工智能技術(shù)應(yīng)該限制在物質(zhì)生產(chǎn)領(lǐng)域,不應(yīng)發(fā)展出‘自我復(fù)制’型人工智能和人工生命”(87)陶鋒:《代理、模擬與技藝:人工智能文藝生產(chǎn)的哲學(xué)闡釋》,《哲學(xué)研究》2023年第3期。。原則上我們要將人工智能的應(yīng)用范圍限制在生產(chǎn)領(lǐng)域,但在通過生成式人工智能進行文學(xué)藝術(shù)創(chuàng)作時,需要將生成式人工智能作為客體的藝術(shù)媒介,而不能作為藝術(shù)生產(chǎn)的主體直接“制造”出成品的“藝術(shù)品”。生成式人工智能應(yīng)當(dāng)作為藝術(shù)創(chuàng)作的輔助工具,而不能作為藝術(shù)行為的主體。前文已述,真藝術(shù)中包含著不可復(fù)制、不可被算法化的因素,如個體性、否定性等,而這些要素才是藝術(shù)充滿魅力、被人們贊嘆的原因,成為使人之為人的非同一性力量。人們根據(jù)自己的喜好、情感、想象、靈感等不可算法化的因素進行的藝術(shù)創(chuàng)作才是真正的藝術(shù),這也是人類通往“道德”“自由”的過程。生成式人工智能則可以輔助完成一些機械性、重復(fù)性、標(biāo)準(zhǔn)化、邏輯性的工作。實際上,藝術(shù)創(chuàng)作的過程是理性與非理性的集合,其中同樣存在“規(guī)律化”的標(biāo)準(zhǔn),比如線條構(gòu)圖比例、技法、視角等。這些主要是通過方塊與體積像素之間的關(guān)系組合而成的視覺概念,以電腦繪圖的方式畫出點、線、面加以串聯(lián)而實現(xiàn)的。土耳其藝術(shù)家雷菲克·阿納多爾的作品《夢想檔案館》使用機器智能算法將檔案中的數(shù)據(jù)轉(zhuǎn)換為沉浸式媒體裝置,觀眾可與這些視覺資料元素進行實時互動,重塑了21世紀(jì)博物館的記憶、歷史和文化(88)參見孫婧:《人工智能藝術(shù)的歷史生成與“參與”美學(xué)》,《當(dāng)代文壇》2022年第6期。。在這一過程中,生成式人工智能能夠為觀眾的不同選擇生成新的作品形態(tài),但這些形態(tài)按照一定的規(guī)律預(yù)先設(shè)置,只是通過生成式人工智能算法表現(xiàn)出來。換言之,生成式人工智能只是作為媒介載體,其并非藝術(shù)作品的主體。
落實到生成式人工智能產(chǎn)品開發(fā)者的具體義務(wù)中,他們應(yīng)當(dāng)在生成式人工智能服務(wù)、產(chǎn)品中增加算法指令:一方面允許用戶利用生成式人工智能進行潤色優(yōu)化,輔助完成一些機械性、標(biāo)準(zhǔn)化的工作;另一方面,當(dāng)用戶命令生成式人工智能直接臨摹作品或者生成現(xiàn)成的“藝術(shù)品”(比如劇本、方案、繪畫等)時,需要限制其使用頻次,防止使用者依賴生成式人工智能產(chǎn)生所謂的“藝術(shù)品”,消減了藝術(shù)“精神供給”的價值。同時,生成式人工智能提供者應(yīng)限制提供成品藝術(shù)品服務(wù)的供給。這是因為生成式人工智能直接制造“藝術(shù)成品”的過程將人類藝術(shù)的“精髓”(藝術(shù)創(chuàng)作中不可算法化的各種要素)排除在外,放棄了人類對價值判斷、情感、道德的主導(dǎo)。除此之外,生成式人工智能產(chǎn)品開發(fā)者應(yīng)當(dāng)設(shè)置相關(guān)算法告誡使用者自己不是藝術(shù)家,不能進行藝術(shù)創(chuàng)作;告知使用者不能忘卻人類真正的藝術(shù),應(yīng)該更加珍惜人類藝術(shù)。
開發(fā)者需要定期對算法進行檢查,避免生成式人工智能算法“偏離預(yù)設(shè)軌道”,產(chǎn)生引導(dǎo)、誘導(dǎo)沉迷的相關(guān)內(nèi)容?!豆芾頃盒修k法》更注重數(shù)據(jù)的真實性以及個人信息保護,而沒有關(guān)注生成式人工智能的防沉迷問題。算法黑箱問題被生成式人工智能進一步放大(89)參見王洋、閆海:《生成式人工智能的風(fēng)險迭代與規(guī)制革新——以ChatGPT為例》,《理論月刊》2023年第6期。:生成式人工智能的大規(guī)模人工語言訓(xùn)練模型內(nèi)容龐雜,其中包含價值中立的內(nèi)容,也包括富有價值偏向的內(nèi)容;但由于生成式人工智能無法理解“價值偏向”,其訓(xùn)練的結(jié)果并非完全受人類控制,即我們只能要求它“這樣訓(xùn)練”,至于訓(xùn)練成果如何,并非我們完全控制。正因如此,生成式人工智能的文本生成過程極不透明,這使得生成式AI成為迄今最深不可測的技術(shù)黑箱。盡管算法黑箱難以完全消除,但生成式人工智能的產(chǎn)品開發(fā)者擁有專業(yè)的思維和認(rèn)知能力,具有較強的信息管理能力,并且可以從其設(shè)計的算法中獲益。因此,生成式人工智能提供者和開發(fā)者應(yīng)當(dāng)承擔(dān)算法黑箱本身的風(fēng)險。同時,考慮到生成式人工智能的算法更為復(fù)雜,當(dāng)提供者和開發(fā)者利用生成式人工智能進行算法推薦服務(wù)時必須接受完備的上市前合格性評估,其中合格性評估除了評估數(shù)據(jù)安全之外還需要評估防沉迷系統(tǒng)能否穩(wěn)定運行。前文已述,生成式人工智能可以根據(jù)指令算法自主生成內(nèi)容。因此,對于“誘導(dǎo)沉迷內(nèi)容”的監(jiān)管亦不可局限于內(nèi)容本身,更需要增加對算法的監(jiān)管與審查?!段闯赡耆司W(wǎng)絡(luò)保護條例》第五章相關(guān)條款(比如第47條)更偏向于對“內(nèi)容本身”的控制,似有片面之嫌。在生成式人工智能系統(tǒng)出售或投入使用后,供應(yīng)商還要建立相應(yīng)監(jiān)測系統(tǒng),定期審核、評估、驗證算法防沉迷機制的機理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,及時修改可能造成用戶沉迷的算法,盡可能減少算法黑箱帶來的不可控影響。
另外,網(wǎng)信部門應(yīng)當(dāng)不定期檢查已經(jīng)備案的生成式人工智能算法服務(wù)或產(chǎn)品,主要檢查生成式人工智能提供者和開發(fā)者的算法防沉迷建設(shè)情況以及防沉迷義務(wù)履行情況。
值得注意的是,“讓行政機關(guān)直接管理算法活動可能超越了行政機關(guān)的能力,在知識社區(qū)和業(yè)內(nèi)其他平臺不斷涌現(xiàn)新算法、新應(yīng)用的情況下,人力資源和時間成本有限的行政監(jiān)管很可能鞭長莫及”(90)林洹民:《個性化推薦算法的多維治理》,《法制與社會發(fā)展》2022年第4期。。在當(dāng)下大數(shù)據(jù)、大平臺時代,我們有必要規(guī)范眾多應(yīng)用程序所依賴的數(shù)字生態(tài)系統(tǒng),“借助平臺的力量間接規(guī)范平臺內(nèi)的算法活動”(91)林洹民:《算法“監(jiān)護”未成年人的規(guī)范應(yīng)對》,《當(dāng)代法學(xué)》2023年第3期。?!秱€人信息保護法》第58條規(guī)定了“守門人規(guī)則”,要求超大型平臺履行更為積極的信息安全義務(wù),由此建立了有別于直接監(jiān)管的間接治理模式。在生成式人工智能算法防沉迷領(lǐng)域,大平臺依然可以發(fā)揮“守門人”的功能,助力于實現(xiàn)事半功倍的防沉迷效果。因為“這些平臺可以定期檢測平臺內(nèi)的算法活動,并且有能力直接控制平臺內(nèi)算法的功能”(92)林洹民:《個性化推薦算法的多維治理》,《法制與社會發(fā)展》2022年第4期。,加之平臺本身的運營會獲得巨大利潤,令其承擔(dān)適當(dāng)?shù)臋z查義務(wù)并非不當(dāng)。
生成式人工智能提供者和開發(fā)者違反防沉迷、防止依賴義務(wù)的,應(yīng)當(dāng)承擔(dān)行政責(zé)任。其一,生成式人工智能產(chǎn)品開發(fā)者未履行或者未完全履行上述防沉迷義務(wù)的,網(wǎng)信部門應(yīng)當(dāng)根據(jù)具體情節(jié)給予暫停相關(guān)業(yè)務(wù)、停業(yè)整頓、罰款、一段時間內(nèi)禁止從業(yè)、吊銷許可證和營業(yè)執(zhí)照等處罰。其二,為避免生成式人工智能產(chǎn)品開發(fā)者等主體承擔(dān)過重的責(zé)任,可以貫徹行政處罰法“首違不罰”條款,采取權(quán)變原則和隨機應(yīng)變原則靈活應(yīng)對復(fù)雜多變的發(fā)展需求。比如可采取企業(yè)整改方式,由企業(yè)主動自查;可以增加懲戒約談、黑名單、信用管理等法律責(zé)任形式,并使之制度化。除此之外,應(yīng)當(dāng)建設(shè)迅捷的全國統(tǒng)一舉報制度,通過構(gòu)建網(wǎng)絡(luò)、通訊等各種舉報渠道,優(yōu)化現(xiàn)有投訴舉報入口,建設(shè)全國統(tǒng)一的舉報平臺。有關(guān)部門在接收舉報后應(yīng)當(dāng)展開調(diào)查,視具體情節(jié)給予相應(yīng)處罰。
生成式人工智能令人沉迷的原因在于其提供的娛樂性服務(wù)對人們更具有吸引力、其生成的精準(zhǔn)推送令人產(chǎn)生舒適性、其創(chuàng)造的虛擬人物更容易使人產(chǎn)生情感依賴。同時,如果人們過度沉迷于生成式人工智能產(chǎn)品或者服務(wù),一方面使人們浪費大量時間和精力,另外還會導(dǎo)致創(chuàng)新能力退化、道德標(biāo)準(zhǔn)僵化與價值導(dǎo)向機械化、審美主體異化從而導(dǎo)致人機關(guān)系扭曲?;诖?需要對生成式人工智能提供者、開發(fā)者施加相應(yīng)的防沉迷義務(wù)。其一,生成式人工智能提供者和開發(fā)者需要履行審批和披露義務(wù)。其二,生成式人工智能提供者和開發(fā)者需要設(shè)置使用時長、算法推送的限度以及情感服務(wù)的禁止。其三,就避免創(chuàng)新能力退化而言,生成式人工智能產(chǎn)品開發(fā)者應(yīng)當(dāng)根據(jù)使用目的設(shè)置不同的限制;就道德標(biāo)準(zhǔn)僵化與價值導(dǎo)向機械化而言,生成式人工智能產(chǎn)品開發(fā)者應(yīng)當(dāng)設(shè)置道德過濾機制;就避免人機關(guān)系扭曲而言,生成式人工智能產(chǎn)品開發(fā)者應(yīng)當(dāng)在具體情形中限制生成式人工智能的使用。其四,生成式人工智能提供者和開發(fā)者還需要定期進行算法檢查。生成式人工智能提供者和開發(fā)者違反防沉迷、防止依賴義務(wù)應(yīng)當(dāng)承擔(dān)行政責(zé)任。