• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      合規(guī)實踐:探尋類ChatGPT大模型產(chǎn)品風(fēng)險化解之道

      2023-06-16 10:09:52陳心宇
      互聯(lián)網(wǎng)天地 2023年5期
      關(guān)鍵詞:合規(guī)個人信息內(nèi)容

      □文 | 陳心宇

      0 引言

      ChatGPT炙手可熱,各大互聯(lián)網(wǎng)公司擦拳磨掌,急于搶占市場并欲在生成式人工智能領(lǐng)域分一杯羹,且隨著技術(shù)的不斷發(fā)展,類ChatGPT產(chǎn)品會應(yīng)用于多種領(lǐng)域,將會影響我們生活工作的方方面面,相應(yīng)的風(fēng)險也隨之產(chǎn)生。為此,各國都積極出臺政策以應(yīng)對新技術(shù)帶來的風(fēng)險,我國近日出臺了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱“《AIGC管理辦法》”),便是對此的回應(yīng)。同時,互聯(lián)網(wǎng)公司需遵循人工智能的相關(guān)規(guī)定,綜合考慮在訓(xùn)練數(shù)據(jù)來源與質(zhì)量的合法合規(guī)的基礎(chǔ)上,保證自己的生成式人工智能產(chǎn)品輸出合法合規(guī),利用技術(shù)等手段進行合規(guī)工作。

      1 類ChatGPT產(chǎn)品技術(shù)特點與應(yīng)用

      ChatGPT橫空出世,開啟了強人工智能時代新篇章,其獨特的技術(shù)特點、便利的服務(wù)模式給人們的生活帶來了翻天覆地的變化。國內(nèi)科技巨頭也在積極布局類ChatGPT應(yīng)用,商湯商量、百度文心一言、華為盤古、智譜華章ChatGLM等紛紛亮相。在此背景下,為了更好地對其進行合規(guī)監(jiān)管,首先需要了解大模型的原理特點及應(yīng)用場景,從而應(yīng)對可能出現(xiàn)的風(fēng)險,做出符合實際并具備長效保護模式的監(jiān)管決策。

      1.1 類ChatGPT原理與實現(xiàn)方式

      由OpenAI開發(fā)的ChatGPT掀起了多模態(tài)通用生成模型研究開發(fā)的熱潮,ChatGPT是自然語言處理(NLP)中一項令人矚目的進展,經(jīng)過多類技術(shù)積累與迭代,融合機器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)以及Transformer(直譯為轉(zhuǎn)換器)等多種技術(shù)模型,Transformer被運用在大型語言模型(LLM)上,以“預(yù)訓(xùn)練+微調(diào)”的工作模式,成為深度學(xué)習(xí)多領(lǐng)域處理目標(biāo)任務(wù)新范式。

      簡而言之,ChatGPT是以GPT為基礎(chǔ),通過學(xué)習(xí)大量的語料,構(gòu)建模型,處理用戶輸入,生成回答并最終實現(xiàn)人機對話的應(yīng)用。其實現(xiàn)機制具體包括如下三個方面,首先,為了保證數(shù)據(jù)的質(zhì)與量并顯著提升大模型訓(xùn)練技術(shù)生產(chǎn)效率,需要通過開放API帶來更多數(shù)據(jù),如使用公開的數(shù)據(jù)集和第三方供應(yīng)商許可的數(shù)據(jù),另需通過技術(shù)手段過濾掉無用數(shù)據(jù)來提高模型基線、保證數(shù)據(jù)質(zhì)量;其次,模型從大規(guī)模的語料庫等數(shù)據(jù)中捕捉規(guī)律進行預(yù)訓(xùn)練以預(yù)測文檔中下一個令牌,并在高維抽象空間形成有條理的“數(shù)據(jù)庫”,之后納入人類反饋的強化學(xué)習(xí)(RLHF)進行指令微調(diào)從而優(yōu)化語言模型,提升自我糾錯能力,之后再通過人類標(biāo)記過的答案學(xué)習(xí)人類的偏好;最后,設(shè)計團隊又采用標(biāo)注對齊策略,給模型提供標(biāo)注數(shù)據(jù),提高模型回應(yīng)提問的準(zhǔn)確性。因此ChatGPT可以捕捉語言的語法、語義和慣用法,并根據(jù)給定的上下文理解和分析人們可能期望寫下什么并模擬專家給出回答,或?qū)τ脩糨斎氲奈谋具M行合理續(xù)寫或做出決策并生成自然語言回復(fù),同時為了提高審查文本質(zhì)量與流暢度進行不斷的迭代優(yōu)化,來更好地滿足人類對話的需求。

      1.2 AI要素與應(yīng)用場景

      AIGC主要依賴精心設(shè)計的算法與規(guī)?;乃懔亩?xùn)練生成內(nèi)容,隨著技術(shù)的進步迭代,對于高質(zhì)量大數(shù)據(jù)的需求量也與日俱增。如今,算料、算力和算法影響著時下經(jīng)濟的運行,構(gòu)成了大模型產(chǎn)品的主要要素,流行的說法是:數(shù)據(jù)洞察用戶需求,算法改變商業(yè)本質(zhì),算力重塑經(jīng)濟未來,三者缺一不可,相互支撐。

      隨著GPT技術(shù)在更廣泛的任務(wù)應(yīng)用、更精準(zhǔn)的預(yù)測、更高的智能水平、更好的可解釋性方面的突破,3月15日,GPT-4面世,相較于之前的版本它實現(xiàn)了以下幾個方面的飛躍式提升:增加了圖像理解能力、能夠處理的文本長度增加了并且文本的記憶能力也增強了。根據(jù)微軟研究院發(fā)布的《人工通用智能的火花:GPT-4的早期實驗》報告分析:“除了對語言的掌握,GPT-4還能解決跨越數(shù)學(xué)、編碼、視覺、醫(yī)學(xué)、法律、心理學(xué)等領(lǐng)域的新穎而困難的任務(wù),而不需要任何特殊的提示?!蔽磥淼拇竽P蛯嗷ト诤习l(fā)展,并逐步提供語音、視頻類的生成合成技術(shù)應(yīng)用,也向不同應(yīng)用領(lǐng)域進軍,如延伸至專業(yè)的醫(yī)療、法律領(lǐng)域,或者與傳統(tǒng)的搜索引擎、小程序、辦公軟件接入結(jié)合,提供更加人性化的服務(wù)。在這個基礎(chǔ)上,為了對齊人類倫理、滿足用戶需求,就需要相關(guān)部門優(yōu)化監(jiān)管模式與配套制度,科技企業(yè)提升技術(shù)水平做到更加開放與透明,同時也應(yīng)當(dāng)注重相應(yīng)的合規(guī)工作,以確保自己的產(chǎn)品能夠符合要求順利上線并提供優(yōu)質(zhì)的服務(wù)。

      2 類ChatGPT產(chǎn)品帶來的風(fēng)險挑戰(zhàn)

      由于大模型獨特的技術(shù)特征使得它能夠不斷迭代升級的同時也會產(chǎn)生相應(yīng)的風(fēng)險與威脅。大模型產(chǎn)品的合規(guī)工作首先應(yīng)當(dāng)識別風(fēng)險源,為了分析大模型產(chǎn)品全生命周期可能存在面臨的威脅及其大小,筆者梳理了如下風(fēng)險。

      2.1 數(shù)據(jù)風(fēng)險:數(shù)據(jù)泄露威脅安全

      首先,在算法相關(guān)業(yè)務(wù)開發(fā)過程中使用的第三方數(shù)據(jù)集和自有數(shù)據(jù)集來源不合法或算法開發(fā)和運營的數(shù)據(jù)質(zhì)量不足的風(fēng)險。ChatGPT模型需要預(yù)先對既有文本和數(shù)據(jù)學(xué)習(xí)訓(xùn)練,但OpenAI并未公開其學(xué)習(xí)語料的來源,且預(yù)先學(xué)習(xí)模式無需人工介入、標(biāo)注和監(jiān)督的特征決定了ChatGPT在獲取數(shù)據(jù)方面不受人類干預(yù)和控制,不可避免會獲取非法來源的數(shù)據(jù)。

      其次,算法上線后,算法相關(guān)業(yè)務(wù)的數(shù)據(jù)遭到泄露、被竊取或被破壞的風(fēng)險。近年來,數(shù)據(jù)泄露日益成為網(wǎng)絡(luò)安全的主要威脅,數(shù)據(jù)泄露事件頻發(fā),呈現(xiàn)出泄露規(guī)模大、行業(yè)多、持續(xù)長等特點。由于大模型需要大量的數(shù)據(jù)進行訓(xùn)練,會廣泛的收集用戶輸入輸出的數(shù)據(jù)進行訓(xùn)練以優(yōu)化改進模型,這些數(shù)據(jù)可能包含用戶的個人信息、敏感、私密信息甚至是企業(yè)的商業(yè)秘密,相關(guān)風(fēng)險表現(xiàn)在以下兩個方面:一是未經(jīng)自然人同意,不當(dāng)利用算法技術(shù)私自監(jiān)控獲取用戶個人信息與上網(wǎng)數(shù)據(jù),或泄露用戶個人信息,侵害自然人個人信息權(quán)益、隱私權(quán)等,這會架空“知情同意”規(guī)則,剝奪個人信息的自決權(quán);二是用戶可能不加防范的鍵入商業(yè)機密,這些信息會被瞬間捕捉并納入開發(fā)者數(shù)據(jù)庫,泄露商業(yè)秘密或違反保密義務(wù)引發(fā)不正當(dāng)競爭和侵權(quán)問題。實踐中,風(fēng)險程度隨著大模型技術(shù)在各國普及和深度開發(fā)不斷升級,ChatGPT發(fā)生了數(shù)據(jù)泄露、未就收集處理用戶信息履行告知義務(wù)、無法保護未成年人等種種問題。

      數(shù)據(jù)洞察用戶需求,算法改變商業(yè)本質(zhì),算力重塑經(jīng)濟未來,三者缺一不可,相互支撐。

      2.2 信息風(fēng)險:難以控制

      首先,由于模型無法對數(shù)據(jù)來源及用戶輸入進行事實核查,獲取的信息難以經(jīng)過實質(zhì)性篩選和過濾,訓(xùn)練數(shù)據(jù)在源頭存在內(nèi)容不合法不合規(guī)、內(nèi)容虛假甚至完全錯誤的風(fēng)險。倘若ChatGPT未經(jīng)許可擅自使用特定信息,其行為的合法性將受到質(zhì)疑,例如,可能涉嫌侵犯公民個人信息、非法侵入計算機信息系統(tǒng)、破壞計算機信息系統(tǒng)、非法獲取計算機信息系統(tǒng)數(shù)據(jù)等。

      其次,算法存在生成違法違規(guī)信息、推薦違法不良信息或以其他方式幫助違法違規(guī)信息傳播的風(fēng)險。大模型存在通過思維鏈“誘導(dǎo)”或者被“投毒”生成不良信息風(fēng)險,如生成詐騙信息或惡意腳本?!肮诺鹿囟伞北砻?,大模型的獎勵機制是圍繞人類監(jiān)督而設(shè)計出來的,因此可能導(dǎo)致過度優(yōu)化從而影響模型性能。OpenAI曾表示ChatGPT“有時會寫出看似合理但不正確或荒謬的答案”,稱作“人工智能幻覺”,故而大模型“越獄”在所難免,盡管模型開發(fā)者已采取技術(shù)手段避免輸出違法不良信息,但是由于訓(xùn)練數(shù)據(jù)質(zhì)量較低、算法黑箱難以解釋、用戶惡意誘導(dǎo)等種種原因,模型會輸出不良、虛假、誤導(dǎo)或違法有害信息,突破道德倫理及法律底線,異化為不法分子的作案工具。

      3 路徑探索:跨越風(fēng)險雷區(qū)的合規(guī)保護

      《生成式人工智能服務(wù)管理辦法(征求意見稿)》的出臺,在《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》“三駕馬車”的基礎(chǔ)上,共同構(gòu)筑了我國人工智能領(lǐng)域的合規(guī)依據(jù)及監(jiān)管指向?;诖?,筆者對上述規(guī)定進行簡要梳理,根據(jù)上文相關(guān)數(shù)據(jù)與內(nèi)容風(fēng)險,提取監(jiān)管重點并提出合規(guī)建議。

      3.1 訓(xùn)練數(shù)據(jù)合規(guī)

      訓(xùn)練數(shù)據(jù)是指用于訓(xùn)練AI模型,使其做出正確判斷的已標(biāo)注數(shù)據(jù)/基準(zhǔn)數(shù)據(jù)集。實踐中,訓(xùn)練數(shù)據(jù)的處理流程包括數(shù)據(jù)采集、數(shù)據(jù)清洗、數(shù)據(jù)標(biāo)注、模型訓(xùn)練、模型驗證、實現(xiàn)目標(biāo)。而訓(xùn)練數(shù)據(jù)風(fēng)險主要集中于數(shù)據(jù)收集階段,需要關(guān)注處理者的處前合規(guī)義務(wù)的履行,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》首次明確了深度合成服務(wù)提供者和技術(shù)支持者需采取必要措施對訓(xùn)練數(shù)據(jù)進行管理的義務(wù)。《AIGC管理辦法》明確要求提供者對數(shù)據(jù)及數(shù)據(jù)來源的合法性負(fù)責(zé)并進行描述,包括但不限于知識產(chǎn)權(quán)、個人信息等。企業(yè)還需關(guān)注是否采取技術(shù)手段清洗標(biāo)注數(shù)據(jù),保障數(shù)據(jù)的安全可靠。一般大模型企業(yè)獲取數(shù)據(jù)主要從公開數(shù)據(jù)集、自行采集數(shù)據(jù)或以交易的方式購買數(shù)據(jù)。

      首先,利用爬蟲等技術(shù)手段爬取數(shù)據(jù)用于大模型訓(xùn)練的情形需注意以下三方面。第一,爬取開放的公共數(shù)據(jù)集的情形,政府部門和公共部門面向自然人、法人和非法人組織提供公共數(shù)據(jù)處于公共領(lǐng)域,原則上可以不經(jīng)授權(quán)使用。第二,若爬取內(nèi)容涉及商業(yè)秘密,需注意根據(jù)《中華人民共和國反不正當(dāng)競爭法》相關(guān)規(guī)定,經(jīng)營者應(yīng)避免利用爬蟲技術(shù)爬取其他經(jīng)營者的商業(yè)數(shù)據(jù),如違反約定或者合理、正當(dāng)?shù)臄?shù)據(jù)抓取協(xié)議,獲取和使用他人的商業(yè)數(shù)據(jù),從諸如具有禁止第三方爬取數(shù)據(jù)條款的網(wǎng)站收集海量數(shù)據(jù),可能被認(rèn)定為侵犯他人競爭性財產(chǎn)權(quán)益,或者構(gòu)成搭便車、混同等不正當(dāng)競爭行為,面臨侵權(quán)風(fēng)險。第三,收集公開數(shù)據(jù)涉及個人信息的,根據(jù)《中華人民共和國個人信息保護法》第十三條在合理的范圍內(nèi)具備相應(yīng)的合法性基礎(chǔ),即可處理個人自行公開或者已經(jīng)合法公開的個人信息。根據(jù)《民法典》第一千零三十六條的規(guī)定,雖然可能滿足《中華人民共和國個人信息保護法》規(guī)定的合法性基礎(chǔ)的前置性條件,但也賦予了自然人相應(yīng)的拒絕權(quán),并且明示一旦處理行為侵害信息主體利益造成損害,處理者需要承擔(dān)侵權(quán)的民事責(zé)任。

      訓(xùn)練數(shù)據(jù)是指用于訓(xùn)練AI模型,使其做出正確判斷的已標(biāo)注數(shù)據(jù)/基準(zhǔn)數(shù)據(jù)集。

      其次,若通過數(shù)據(jù)交易的方式向數(shù)據(jù)提供商或數(shù)據(jù)交易所購買數(shù)據(jù),此時為防范相關(guān)法律風(fēng)險,需要對原始權(quán)利主體、授權(quán)鏈條的完整性及授權(quán)范圍進行檢視。由于實踐中為實現(xiàn)商業(yè)利益最大化,若要求企業(yè)越過第三方數(shù)據(jù)供應(yīng)商觸及每一個權(quán)利主體遵循“三重授權(quán)原則”進行告知同意是不現(xiàn)實的,故而大模型廠商在購買第三方數(shù)據(jù)集前可通過查看開源數(shù)據(jù)集提供方的公開信息披露,重點核查其中是否包含敏感信息或隱私。此外,還可以通過與數(shù)據(jù)提供方簽訂協(xié)議等方式規(guī)避風(fēng)險,協(xié)議中要求供應(yīng)商采取技術(shù)手段對數(shù)據(jù)進行清洗,但是第三方清洗數(shù)據(jù)會存在較大的法律風(fēng)險,涉及買方是否要對清洗后的訓(xùn)練數(shù)據(jù)負(fù)責(zé)?若訓(xùn)練數(shù)據(jù)清洗后依然留存違法違規(guī)內(nèi)容或可能侵權(quán)的內(nèi)容,買方是否需要承擔(dān)相應(yīng)的責(zé)任?也就是說買方是否有義務(wù)去對清洗后的訓(xùn)練數(shù)據(jù)進行逐一核查,履行注意義務(wù),則當(dāng)發(fā)生法律侵害事實后有義務(wù)承擔(dān)相應(yīng)的責(zé)任及責(zé)任大小,這就需要在數(shù)據(jù)清洗服務(wù)協(xié)議中明確買賣雙方的權(quán)利義務(wù)。對于數(shù)據(jù)內(nèi)容方面,尤其是清洗掉含有意識形態(tài)等政治方面及違法違規(guī)不良信息等,買方須要求賣方對數(shù)據(jù)質(zhì)量問題進行擔(dān)保,從而轉(zhuǎn)嫁法律風(fēng)險。

      最后,類ChatGPT模型部署后,通過人機交互模式產(chǎn)生的業(yè)務(wù)數(shù)據(jù),可能會被用于未來的模型迭代訓(xùn)練。此時,公司應(yīng)采用技術(shù)手段避免使用個人信息進行算法業(yè)務(wù)開發(fā)與業(yè)務(wù)數(shù)據(jù)的再訓(xùn)練,若無法避免涉及個人信息的,服務(wù)提供者應(yīng)當(dāng)進行事前告知并取得同意。利用業(yè)務(wù)數(shù)據(jù)進行算法業(yè)務(wù)開發(fā)的,應(yīng)同時采用數(shù)據(jù)清洗、人工標(biāo)注等方式,對訓(xùn)練數(shù)據(jù)、業(yè)務(wù)數(shù)據(jù)中包含的個人信息進行匿名化處理,防范算法生成結(jié)果泄露用戶個人信息。

      3.2 內(nèi)容安全合規(guī)

      相關(guān)法律法規(guī)對大模型的內(nèi)容方面做出較為嚴(yán)格的規(guī)定,因為內(nèi)容安全不僅涉及科技倫理方面,對意識形態(tài)的傳播提供支撐,還在社會穩(wěn)定、國家安全等方面具有重要意義。《AIGC管理辦法》要求利用人工智能生成的內(nèi)容需體現(xiàn)社會主義核心價值觀,并且應(yīng)當(dāng)真實準(zhǔn)確,提供者應(yīng)采取措施防止生成虛假信息,還需承擔(dān)內(nèi)容生產(chǎn)者責(zé)任。對于大模型企業(yè)來說,需設(shè)置內(nèi)容分級審核機制,且對新聞、時政類內(nèi)容加強審核,禁止出現(xiàn)涉政涉黃、虛假新聞、違背公序良俗、惡意貶損他人名譽或商譽等內(nèi)容,且非持牌不得傳播非國家規(guī)定范圍內(nèi)的單位發(fā)布的新聞,同時要求大模型企業(yè)建立違法不良信息審核與管理機制及虛假信息防范與辟謠機制,可組建相關(guān)審核團隊進行內(nèi)容審核與技術(shù)過濾,從而降低相關(guān)風(fēng)險。

      《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》第六條和第七條對違法和不良信息進行了不完全列舉,主要特征是危害國家安全與社會公共利益的信息,但是對于虛假信息,尚未有規(guī)范進行明確定義或例舉,由于人工智能生成信息本身就帶有“非真實性”,其內(nèi)涵與外延邊界較為模糊,若依據(jù)《AIGC管理辦法》強行要求其內(nèi)容必須真實,似乎又違背了技術(shù)初衷,為提供者施加較高的義務(wù),給相關(guān)合規(guī)工作帶來挑戰(zhàn)。筆者認(rèn)為,對此需要結(jié)合場景進行個案分析,不能一概而論,如生成虛假新聞存在給公共安全或他人合法權(quán)益造成威脅的可能,就必須進行及時的防范或補救。《AIGC管理辦法》對于內(nèi)容的安全要求涵蓋技術(shù)提供者與內(nèi)容提供者,考慮到在責(zé)任承擔(dān)方面,若要求大模型產(chǎn)品提供者承擔(dān)內(nèi)容生產(chǎn)者責(zé)任,不考慮使用者和終端用戶等的內(nèi)容生產(chǎn)責(zé)任,是否會給提供者施加過重的義務(wù)?此外,應(yīng)從侵權(quán)范圍、損害程度及平臺止損能力入手,判斷模型運營公司是否需要承擔(dān)相應(yīng)的補充責(zé)任。在司法實踐中,由于特定業(yè)務(wù)場景與服務(wù)內(nèi)容不同,不同角色承擔(dān)的權(quán)責(zé)義務(wù)亦不相同,且個案中開發(fā)者與使用者之間的協(xié)議安排也是審查重點。如果大模型產(chǎn)品涉及提供內(nèi)容包含違法不良要素,使用者可以向監(jiān)管部門投訴,要求監(jiān)管介入處理從而維護自己的權(quán)利。

      通常大模型會輸出不安全的內(nèi)容是由于訓(xùn)練數(shù)據(jù)來源魚龍混雜,以及因地域數(shù)字化發(fā)展不平衡或社會價值的傾向偏見,使得數(shù)據(jù)所承載的信息帶有難以用技術(shù)手段消除的偏差,所謂“garbage-in,garbageout”,從而導(dǎo)致模型的輸出帶有歧視性。所以企業(yè)在訓(xùn)練數(shù)據(jù)清洗階段進行內(nèi)容的審核與過濾的同時,重點評估涉政有害類、色情低俗類、暴恐違禁類文本識別召回率、準(zhǔn)確率、精確率,加強對輸入信息與生成信息進行違法和不良信息審核,防止模型生成違法和不良信息并呈現(xiàn)給用戶,對于不可控的創(chuàng)作內(nèi)容,采取及時刪除降低社會危害。另外,《AIGC管理辦法》第八條對訓(xùn)練數(shù)據(jù)的標(biāo)注提出要求,企業(yè)需對標(biāo)注人員進行培訓(xùn),從而使算法模型具備更高的準(zhǔn)確性。歐盟《數(shù)字服務(wù)法》也要求平臺進行深度合成標(biāo)注,因此,虛假不良信息的治理是世界深度合成模型監(jiān)管的重中之重,在數(shù)據(jù)出境方面,各類ChatGPT產(chǎn)品企業(yè)也需注意相關(guān)方面的合規(guī)工作。

      假使人工智能生成了不安全信息,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》對違法和不良信息及虛假信息提出了處置要求,包括但不限于記錄和報告的義務(wù)。上述法律法規(guī)為避免不安全信息傳播或被惡意使用,還要求服務(wù)提供者需對生成內(nèi)容添加不影響用戶使用的標(biāo)識。一般的內(nèi)容,需要在以不影響用戶使用的情況下添加AI標(biāo)識,可能對用戶公眾造成混淆,影響社會公共秩序的,需要在顯著的位置、以顯著的方式,提示內(nèi)容是AI生成的,對于深度合成服務(wù)提供者,不得刪除、篡改、隱匿深度合成標(biāo)識。實踐中,公司可在大模型系統(tǒng)中設(shè)置每次對話中都會顯示深度合成內(nèi)容顯示標(biāo)記,告知用戶生成合成內(nèi)容不代表開發(fā)者立場,并要求用戶不得刪改。立法還特別要求提供者發(fā)現(xiàn)用戶違法使用服務(wù)的,應(yīng)當(dāng)立即暫停提供服務(wù),同時賦予用戶舉報的權(quán)利。對于生成違法不良信息的用戶,提供者可以對違法違規(guī)用戶賬號進行限制,如禁言等方式限制賬號功能。

      4 結(jié)束語

      智能技術(shù)飛速發(fā)展的今天,對人工智能的規(guī)制不應(yīng)限制技術(shù),而是防止其野蠻生長,在尊重客觀規(guī)律的基礎(chǔ)上,探尋合理的監(jiān)管與合規(guī)之策。對于提供類ChatGPT產(chǎn)品的企業(yè)來說,要正確識別風(fēng)險源,綜合考量風(fēng)險將會給國家、社會、個人的權(quán)益帶來何種威脅,在確保技術(shù)發(fā)展的前提下正確引導(dǎo)科技向善,從來源與輸出方面控制信息內(nèi)容真實、準(zhǔn)確、完整,不帶有偏見、歧視、暴力、違法違規(guī)等不安全內(nèi)容,在掌握先進技術(shù)的同時,避免核心技術(shù)“卡脖子”的風(fēng)險。各企業(yè)也需及時關(guān)注相關(guān)合規(guī)法律動態(tài),積極與監(jiān)管部門溝通,并尋求專業(yè)的合規(guī)機構(gòu)幫助,讓自己的產(chǎn)品能夠安全合法上線。另外,監(jiān)管部門可適當(dāng)借鑒其他國家的經(jīng)驗,兼顧“橫向”與“縱向”治理,形成符合中國國情的AI監(jiān)管模式?!?/p>

      猜你喜歡
      合規(guī)個人信息內(nèi)容
      如何保護勞動者的個人信息?
      工會博覽(2022年16期)2022-07-16 05:53:54
      內(nèi)容回顧溫故知新
      個人信息保護進入“法時代”
      對企業(yè)合規(guī)風(fēng)險管理的思考
      警惕個人信息泄露
      綠色中國(2019年14期)2019-11-26 07:11:44
      外貿(mào)企業(yè)海關(guān)合規(guī)重點提示
      中國外匯(2019年20期)2019-11-25 09:54:54
      GDPR實施下的企業(yè)合規(guī)管理
      中國外匯(2019年16期)2019-11-16 09:27:40
      主要內(nèi)容
      臺聲(2016年2期)2016-09-16 01:06:53
      不只是合規(guī)
      個人信息保護等6項通信行業(yè)標(biāo)準(zhǔn)征求意見
      闸北区| 邢台县| 宁强县| 石林| 泾源县| 神池县| 札达县| 百色市| 通渭县| 噶尔县| 望奎县| 云龙县| 上饶市| 石家庄市| 肃南| 莲花县| 东乡族自治县| 麻栗坡县| 星子县| 常宁市| 新邵县| 张掖市| 卓资县| 吉水县| 海城市| 文登市| 中方县| 浮山县| 炎陵县| 濉溪县| 鄂州市| 化德县| 独山县| 缙云县| 马关县| 湖南省| 托里县| 大冶市| 银川市| 肥西县| 四会市|