趙精武
一、ChatGPT的應(yīng)用前景與技術(shù)特征
北京時間3月15日凌晨,OpenAI發(fā)布了ChatGPT的最新“升級版本”GPT4模型,據(jù)分析,GPT4是一個能接受圖像和文本輸入,并輸出文本的多模態(tài)模型,是OpenAI在擴(kuò)展深度學(xué)習(xí)方面的最新里程碑。受到市場炒作技術(shù)概念的影響,ChatGPT一度被吹捧為“前所未有的重大技術(shù)創(chuàng)新”,這顯然是誤讀了ChatGPT爆火出圈的現(xiàn)實意義。ChatGPT不是一項已經(jīng)徹底成熟的技術(shù)產(chǎn)品,即便是Open AI也承認(rèn),即便是GPT4仍有優(yōu)化空間。從目前的使用情況來看,ChatGPT的適用局限主要表現(xiàn)為三個層面:一是知識體系更新周期慢。ChatGPT需要海量的訓(xùn)練數(shù)據(jù)集合及時更新和迭代現(xiàn)有的算法模型,其生成結(jié)果具有明顯的時間局限性,如2023年年初發(fā)生的社會熱點事件,ChatGPT顯然無法及時做出相對準(zhǔn)確的回應(yīng)。二是算力資源需求極高,普通企業(yè)難以支撐。ChatGPT的強(qiáng)大功能需要充足的數(shù)字基礎(chǔ)設(shè)施,其所需要的算力資源和服務(wù)器數(shù)量遠(yuǎn)超普通公司所能承擔(dān)的經(jīng)濟(jì)能力,短期內(nèi)難以制作出媲美或超越ChatGPT的競品。三是準(zhǔn)確率難以保障,無法有效完成具有一定邏輯要求的工作任務(wù)。ChatGPT尚未達(dá)到科幻小說中的“強(qiáng)人工智能”,現(xiàn)階段僅能解決部分重復(fù)性、模塊化的工作任務(wù),并且其生成成果部分時可能存在顯著的邏輯錯誤。ChatGPT的這些局限性決定了其僅能被視為AI技術(shù)領(lǐng)域的重大創(chuàng)新而非核心技術(shù)突破,距離全面普及應(yīng)用AI技術(shù)仍然需要一段時間,并且短期內(nèi),ChatGPT也無法完全取代人類從事特定崗位的工作任務(wù)。但是,伴隨著ChatGPT內(nèi)置算法模型的不斷優(yōu)化以及數(shù)據(jù)訓(xùn)練集合的不斷豐富,“AI技術(shù)+行業(yè)場景”的應(yīng)用方式終將會到來,并且也將會對現(xiàn)有的社會運行方式產(chǎn)生深遠(yuǎn)影響。
二、ChatGPT爆火背后的技術(shù)安全風(fēng)險審視
任何技術(shù)的創(chuàng)新發(fā)展總是機(jī)遇與風(fēng)險并存,這在AI技術(shù)領(lǐng)域尤為明顯。ChatGPT的爆火出圈也讓部分專家學(xué)者憂心忡忡,該項技術(shù)一旦被濫用,則會導(dǎo)致新一輪的技術(shù)安全風(fēng)險,而這些風(fēng)險類型也是現(xiàn)行立法所無法涵蓋的內(nèi)容。而且,AI技術(shù)的創(chuàng)新周期正在不斷縮短,監(jiān)管機(jī)構(gòu)難以再依循傳統(tǒng)的強(qiáng)行政監(jiān)管模式全面預(yù)防AI技術(shù)風(fēng)險和規(guī)范AI技術(shù)應(yīng)用模式,頻繁的技術(shù)創(chuàng)新使得監(jiān)管機(jī)構(gòu)難以同步跟進(jìn)對AI技術(shù)原理的理解認(rèn)知。這種AI技術(shù)監(jiān)管困境在ChatGPT領(lǐng)域尤為明顯,國內(nèi)外對于ChatGPT的技術(shù)風(fēng)險認(rèn)知涵蓋了各個視角:在教育領(lǐng)域,ChatGPT已經(jīng)被部分學(xué)生用于課堂論文撰寫,國外各大高校乃至學(xué)術(shù)期刊均全面禁止利用ChatGPT完成論文撰寫。從長遠(yuǎn)來看,一旦學(xué)生依賴于ChatGPT完成課堂作業(yè)、測驗以及自主學(xué)習(xí)任務(wù)目標(biāo),這并不利于學(xué)生自主學(xué)習(xí)能力和批判思維的養(yǎng)成,反而會削弱課堂教學(xué)的效果。在網(wǎng)絡(luò)安全領(lǐng)域,部分觀點認(rèn)為ChatGPT會惡化網(wǎng)絡(luò)安全態(tài)勢,其強(qiáng)大的代碼編寫能力會導(dǎo)致惡意代碼侵蝕整個網(wǎng)絡(luò)空間秩序,更會成為網(wǎng)絡(luò)犯罪的技術(shù)工具。事實上,能夠直接發(fā)起網(wǎng)絡(luò)攻擊的惡意代碼不僅僅是需要完成計算機(jī)語言代碼的編寫,更需要根據(jù)攻擊目標(biāo)的網(wǎng)絡(luò)防御體系、安全漏洞以及目標(biāo)文件的攻擊路徑等多個因素進(jìn)行代碼與代碼之間的整合。ChatGPT所謂的代碼編寫功能不過是以部分功能的代碼編寫為限,無法形成能夠滿足特別具體的編寫需求,甚至在運行過程中無法正確訪問目標(biāo)文件。在數(shù)據(jù)安全領(lǐng)域,ChatGPT有可能成為隱藏的數(shù)據(jù)泄露缺口。因為在用戶輸入相關(guān)信息的時候,這些輸入的信息和問題也將成為ChatGPT算法訓(xùn)練的“素材”。倘若部分用戶選擇輸入企業(yè)內(nèi)部數(shù)據(jù),則存在商業(yè)秘密泄露的風(fēng)險。在網(wǎng)絡(luò)犯罪領(lǐng)域,ChatGPT能夠批量生成貼近人類邏輯的信息內(nèi)容,而這一技術(shù)特征一旦被應(yīng)用到網(wǎng)絡(luò)電信詐騙、釣魚電子郵件等活動中,受害人難以在第一時間分辨出真假,并且這種批量生成不同信息內(nèi)容的功能有可能會提升網(wǎng)絡(luò)電信詐騙的規(guī)模和頻次。類似地,在網(wǎng)絡(luò)輿情治理領(lǐng)域,ChatGPT還可能被網(wǎng)絡(luò)水軍用于操縱網(wǎng)絡(luò)評論,借由符合邏輯的評論信息內(nèi)容,可以繞過平臺的審核機(jī)制,輿情操縱行為將更加隱蔽。
前述ChatGPT的技術(shù)安全風(fēng)險尚停留于設(shè)想和預(yù)測層面,未來ChatGPT以及其他AI技術(shù)將何去何從無人可知。然而,ChatGPT背后的AI技術(shù)安全風(fēng)險不得不讓社會重新審視和評估現(xiàn)有的治理體系和治理框架能否應(yīng)對各種新興的技術(shù)安全風(fēng)險以及未知的挑戰(zhàn)。立法規(guī)制論曾被廣泛認(rèn)為是解決技術(shù)安全風(fēng)險的最佳方案,通過預(yù)設(shè)的行為規(guī)則限定技術(shù)應(yīng)用的場景的確能實現(xiàn)治理目標(biāo)??墒牵@種觀點忽視了數(shù)字時代技術(shù)創(chuàng)新浪潮的“洶涌”,頻繁的立法規(guī)制只會讓立法活動淪為技術(shù)安全的信任背書,并在“一個技術(shù)對應(yīng)一項專門立法”的循環(huán)中逐漸迷失法律的基本功能。在AI技術(shù)尚未真正實現(xiàn)產(chǎn)業(yè)成熟之前,過早地規(guī)范技術(shù)應(yīng)用方式或底層技術(shù)原理,只會起到抑制技術(shù)創(chuàng)新的消極作用。并且,立法者不可能代替技術(shù)專家去預(yù)測所有可能的安全風(fēng)險并在立法文件中予以明確。
審視ChatGPT背后的技術(shù)安全風(fēng)險,不難發(fā)現(xiàn),這些安全風(fēng)險的源頭大多是“用戶的濫用行為”或者“技術(shù)應(yīng)用的非倫理性”,因此,科技倫理評估機(jī)制順勢成為現(xiàn)階段AI技術(shù)治理的重要工具。在《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》中,立法者就已經(jīng)明確算法推薦服務(wù)提供者不設(shè)置違背倫理道德算法模型,要求算法服務(wù)提供者建立健全科技倫理審查機(jī)制。此外,全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會在2021年專門發(fā)布《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實踐指南——人工智能倫理安全風(fēng)險方法指引》,將失控性風(fēng)險、社會性風(fēng)險、侵權(quán)性風(fēng)險、歧視性風(fēng)險、責(zé)任性風(fēng)險作為AI倫理安全風(fēng)險分析的核心事項。在國外,各國也紛紛提出各自的AI科技倫理評估機(jī)制,如歐盟的《可信任的人工智能倫理指南》提出“尊重人類自主、預(yù)防損害、公正與可解釋性”這四項倫理原則,美國在2016年發(fā)布的《為人工智能的未來做準(zhǔn)備》中提出研發(fā)人員需要確保AI是開放、透明、可理解與可治理的。之所以科技倫理評估機(jī)制受到如此重視,是因為相較于直接規(guī)范用戶行為而言,事前規(guī)范研發(fā)人員對于AI產(chǎn)品部分功能的設(shè)置行為更顯奇效。在完成科技倫理評估之后,ChatGPT及其類似產(chǎn)品能夠從自身限定部分功能的使用范圍,如不留存用戶輸入數(shù)據(jù)、禁止大批量生成具有工具性的代碼片段。
三、科技倫理評估對于AI技術(shù)創(chuàng)新的回應(yīng)
在探討AI技術(shù)治理的過程中,科技倫理評估機(jī)制往往因為其道德規(guī)范性而飽受質(zhì)疑,所謂的公平、公正、透明、可解釋等AI技術(shù)倫理原則究竟能夠在多大范圍內(nèi)發(fā)揮作用尚難以判斷。事實上,科技倫理評估機(jī)制的類似質(zhì)疑早已有之,如在醫(yī)療健康領(lǐng)域。然而,實踐證明,醫(yī)療倫理原則在很大程度上是解決醫(yī)療科研風(fēng)險的首要機(jī)制,并成為醫(yī)療行業(yè)所共同遵守的行為規(guī)范。至于AI技術(shù)領(lǐng)域,科技倫理評估機(jī)制則需要面對全新的問題,因為在該領(lǐng)域,AI技術(shù)產(chǎn)品的研發(fā)與創(chuàng)新并不具備醫(yī)療領(lǐng)域“提升醫(yī)療保障水平”等服務(wù)于社會公共利益的共同目標(biāo),并且在不同行業(yè)、不同場景中,AI技術(shù)產(chǎn)品的倫理評估事項也各有側(cè)重。那么,如何建構(gòu)一整套適用于整個AI產(chǎn)業(yè)的科技倫理評估機(jī)制成為當(dāng)下亟需回應(yīng)的治理難題。
第一,在不同AI應(yīng)用場景下需要評估的科技倫理事項不同,但并不等同于不存在適用于整個AI行業(yè)的基本原則。從目前ChatGPT以及其他AI產(chǎn)品產(chǎn)生的安全風(fēng)險來看,AI行業(yè)的基本原則應(yīng)當(dāng)包括“透明公正”“可解釋”“尊重用戶”“安全可控”四項基本要求?!巴该鞴笔侵溉斯ぶ悄墚a(chǎn)品應(yīng)當(dāng)向用戶說明基本功能、技術(shù)原理以及是否存在影響用戶權(quán)益的重要事項?!翱山忉尅笔侵溉斯ぶ悄墚a(chǎn)品的提供商應(yīng)當(dāng)能夠說明輸入端與輸出端之間的關(guān)聯(lián)性,證明輸出結(jié)果的可靠性。“尊重用戶”是指人工智能產(chǎn)品不應(yīng)當(dāng)歧視用戶,其算法模型不應(yīng)當(dāng)存在具有社會偏見的評估要素。“安全可控”是指人工智能產(chǎn)品能夠滿足法定要求和行業(yè)通行的安全技術(shù)標(biāo)準(zhǔn),并且產(chǎn)品提供商能夠有效控制該人工智能產(chǎn)品潛在的技術(shù)安全風(fēng)險。這四項倫理原則乃是人工智能產(chǎn)品、服務(wù)研發(fā)過程中所需要普遍遵循的基本內(nèi)容,其內(nèi)核是“技術(shù)創(chuàng)新應(yīng)當(dāng)以最大化人類共同福祉為目標(biāo),而不是以犧牲安全和權(quán)益為代價”。
第二,基于前述四項基本原則,科技倫理評估機(jī)制則需要進(jìn)一步補(bǔ)充不同應(yīng)用場景中的具體評估原則,以便能夠讓研發(fā)機(jī)構(gòu)及其科研工作者在實際研發(fā)和代碼編寫過程中予以遵守。以教育領(lǐng)域為例,學(xué)習(xí)類人工智能產(chǎn)品的研發(fā)應(yīng)當(dāng)是以輔助學(xué)生自主學(xué)習(xí)、提升學(xué)習(xí)效率和培養(yǎng)批判思維為基本目標(biāo),故而相應(yīng)研發(fā)機(jī)構(gòu)和研發(fā)人員應(yīng)當(dāng)遵循的具體原則包括“預(yù)防依賴”“禁止非誠信行為”“保護(hù)未成年用戶”三項內(nèi)容?!邦A(yù)防依賴”是指人工智能產(chǎn)品不應(yīng)當(dāng)成為人類學(xué)習(xí)的替代品,而是應(yīng)當(dāng)定位為學(xué)習(xí)輔助工具;“禁止非誠信行為”是指人工智能產(chǎn)品不應(yīng)當(dāng)成為“論文槍手”“作弊器”,研發(fā)機(jī)構(gòu)應(yīng)當(dāng)限定在特定時間(如重大考試期間)的部分功能;“保護(hù)未成年用戶”是指人工智能產(chǎn)品不得擅自收集未成年用戶的個人信息,不得向未成年用戶推送商業(yè)化廣告,應(yīng)當(dāng)以最有利于未成年人成長的方式提供人工智能產(chǎn)品與服務(wù)。
第三,科技倫理終究是不具有強(qiáng)制性的道德規(guī)范,若想其發(fā)揮事前風(fēng)險預(yù)防的治理效果,一個關(guān)鍵環(huán)節(jié)就是完成倫理原則與法律規(guī)則之間的銜接。目前來看,科技倫理原則的內(nèi)容不僅包含了道德層面的科技倫理,還包含了與法定義務(wù)具有同質(zhì)性的倫理原則。除了需要在立法中明確科技倫理評估機(jī)制作為一項法定義務(wù)而存在,同時還需要明確人工智能產(chǎn)品提供商未能履行該項義務(wù)時的法律責(zé)任。借由明確的行為規(guī)范和清晰的行為后果引導(dǎo)提供商做出最恰當(dāng)?shù)男袨檫x擇,并對算法模型進(jìn)行持續(xù)性優(yōu)化,盡可能滿足“安全可信”的人工智能技術(shù)要求。