張?jiān)婂?李 赟 李 韜
(1.北京師范大學(xué),北京 100875;2.貴陽(yáng)康養(yǎng)職業(yè)大學(xué),貴州 貴陽(yáng) 550081)
美國(guó)OpenAI公司推出的ChatGPT人工智能對(duì)話機(jī)器人,能夠通過(guò)學(xué)習(xí)人類語(yǔ)料庫(kù),生成近乎完美的對(duì)話內(nèi)容,在短短兩個(gè)月內(nèi)就超過(guò)1億用戶,在全球掀起圍繞生成式人工智能應(yīng)用的科技浪潮。然而,在人們憧憬ChatGPT類生成式人工智能融入社會(huì)生活各個(gè)領(lǐng)域的同時(shí),其技術(shù)應(yīng)用的風(fēng)險(xiǎn)也日益呈現(xiàn)。比如,在ChatGPT類生成式人工智能應(yīng)用中,已經(jīng)出現(xiàn)通過(guò)AI生成文本、圖片、音視頻等虛假信息來(lái)實(shí)施欺詐犯罪行為;AI對(duì)個(gè)人隱私和知識(shí)產(chǎn)權(quán)的侵犯引發(fā)倫理與法律上的爭(zhēng)議;AI內(nèi)容生產(chǎn)被曝光存在大量民族偏見(jiàn)、種族歧視信息[1]。應(yīng)該說(shuō),生成式人工智能可能帶來(lái)的一系列風(fēng)險(xiǎn),引起社會(huì)各界的廣泛關(guān)注。那么,ChatGPT類生成式人工智能有著哪些主要的應(yīng)用場(chǎng)景、存在著怎樣的運(yùn)行機(jī)理、會(huì)帶來(lái)哪些可能的風(fēng)險(xiǎn),面對(duì)種種風(fēng)險(xiǎn)我們又需要從哪些方面入手做好應(yīng)對(duì)和治理,上述種種就成為當(dāng)下探討ChatGPT類生成式人工智能發(fā)展應(yīng)用的重要問(wèn)題域。
ChatGPT類生成式人工智能擁有龐大的語(yǔ)料數(shù)據(jù)庫(kù),具有強(qiáng)大的數(shù)據(jù)檢索和匹配反應(yīng)能力,能夠?qū)崿F(xiàn)與人類的互動(dòng)反饋。事實(shí)上,ChatGPT可能帶來(lái)的社會(huì)風(fēng)險(xiǎn)正是在“人—機(jī)”互動(dòng)運(yùn)行過(guò)程中產(chǎn)生的。因此,開展ChatGPT類生成式人工智能治理,就必須首先圍繞其主要應(yīng)用場(chǎng)景進(jìn)行梳理,探討其運(yùn)行邏輯,厘清其在運(yùn)行過(guò)程中的風(fēng)險(xiǎn)生成機(jī)理。
對(duì)ChatGPT主要應(yīng)用場(chǎng)景和運(yùn)行環(huán)節(jié)的梳理,有助于進(jìn)一步探究其運(yùn)行邏輯。如圖1所示,當(dāng)前ChatGPT類生成式人工智能主要存在著知識(shí)問(wèn)答、編程反饋、協(xié)同創(chuàng)作三種類型化的應(yīng)用場(chǎng)景。
圖1 ChatGPT的類型化應(yīng)用場(chǎng)景
一是知識(shí)問(wèn)答型應(yīng)用。側(cè)重信息獲取、知識(shí)學(xué)習(xí)等需求。在這類應(yīng)用中,人類用戶提出問(wèn)答需求,ChatGPT基于大數(shù)據(jù)和自然語(yǔ)言模型進(jìn)行信息收集、整理和分析,生成答案內(nèi)容。由于ChatGPT具有海量預(yù)訓(xùn)練數(shù)據(jù)庫(kù),在對(duì)話中回答用戶提出的各類經(jīng)驗(yàn)性知識(shí)提問(wèn)時(shí),類似于搜索引擎功能,但數(shù)據(jù)庫(kù)更為龐大,回答更為直接精準(zhǔn),且符合自然語(yǔ)言習(xí)慣。在這一類型應(yīng)用中,ChatGPT運(yùn)行依賴于對(duì)海量數(shù)據(jù)信息的占有,其運(yùn)行效能的發(fā)揮要求數(shù)據(jù)本身的真實(shí)性、精確性和全面性。
二是編程反饋型應(yīng)用。側(cè)重基于預(yù)訓(xùn)練大模型的算法技術(shù)開展代碼編程。在這類應(yīng)用中,人類用戶提出編程需求,ChatGPT依托內(nèi)在算法進(jìn)行代碼編程處理,生成相應(yīng)的程序代碼;人類用戶對(duì)代碼進(jìn)行運(yùn)行檢驗(yàn),提出進(jìn)一步優(yōu)化需求,由ChatGPT反復(fù)修正代碼。上述步驟,實(shí)際上是生成式人工智能實(shí)施人類反饋強(qiáng)化學(xué)習(xí)(Reinforcement Learning from Human Feedback,RLHF)的訓(xùn)練過(guò)程,AI機(jī)器人也在不斷學(xué)習(xí)、迭代中提升自身算法效能。
三是協(xié)同創(chuàng)作型應(yīng)用。ChatGPT可以依據(jù)用戶需求,生成表格、圖像、音頻、視頻等不同類型的多模態(tài)內(nèi)容?;谶@樣的多模態(tài)生成技術(shù),人類用戶可以與ChatGPT類生成式人工智能一起協(xié)作,在各類相關(guān)軟件插件配合下,完成文藝作品創(chuàng)作、繪圖設(shè)計(jì)、音視頻創(chuàng)作剪輯等任務(wù)。在這一類型應(yīng)用中,ChatGPT運(yùn)行依賴于AI對(duì)人類用戶需求的深刻理解,因此需要用戶在與AI機(jī)器人互動(dòng)對(duì)話中不斷提供精準(zhǔn)的個(gè)人信息,包括自身認(rèn)知、情感、思想等個(gè)人隱私信息。
綜上可見(jiàn),盡管在不同應(yīng)用場(chǎng)景下人們使用ChatGPT有著不同的目的,但都存在著問(wèn)題提出、分析需求、生成內(nèi)容、互動(dòng)反饋,校準(zhǔn)輸出等五個(gè)基本運(yùn)行環(huán)節(jié)。在問(wèn)題提出環(huán)節(jié),用戶根據(jù)自身實(shí)際情況向ChatGPT提出問(wèn)題,表達(dá)自身需求;在分析需求環(huán)節(jié),ChatGPT會(huì)對(duì)用戶問(wèn)題信息進(jìn)行分析,以理解用戶的真實(shí)意圖,進(jìn)一步細(xì)化需求;在生成內(nèi)容環(huán)節(jié),ChatGPT根據(jù)預(yù)訓(xùn)練大語(yǔ)言模型算法,對(duì)語(yǔ)料庫(kù)大數(shù)據(jù)進(jìn)行信息提取、分析、整理,生成相應(yīng)的內(nèi)容;在互動(dòng)反饋環(huán)節(jié),用戶結(jié)合ChatGPT生成的信息,進(jìn)一步提問(wèn),不斷獲取更多的有效信息;在校準(zhǔn)輸出環(huán)節(jié),ChatGPT結(jié)合用戶不斷對(duì)話下的新需求,完善生成內(nèi)容,最終得出讓用戶滿意的結(jié)果,或是用戶因不再繼續(xù)對(duì)話而終止互動(dòng)。由此可見(jiàn),ChatGPT的應(yīng)用遵循著“人—機(jī)”互動(dòng)互構(gòu)的運(yùn)行邏輯。換言之,ChatGPT運(yùn)行可能帶來(lái)的風(fēng)險(xiǎn),一方面來(lái)自技術(shù)性的“非人類因素”[2],另一方面來(lái)則來(lái)自用戶“人類因素”。
ChatGPT在參與社會(huì)建構(gòu)的過(guò)程中,是如何帶來(lái)諸多風(fēng)險(xiǎn)的呢?為回應(yīng)這一問(wèn)題,就必須對(duì)ChatGPT風(fēng)險(xiǎn)生成的內(nèi)在機(jī)理進(jìn)行梳理。總得來(lái)看,ChatGPT應(yīng)用運(yùn)行主要存在著以下五個(gè)方面的風(fēng)險(xiǎn)生成內(nèi)在機(jī)理。
第一,ChatGPT語(yǔ)料數(shù)據(jù)庫(kù)的建立,存在真假雙重性與匿名性。這是因?yàn)?ChatGPT的預(yù)訓(xùn)練過(guò)程主要是通過(guò)抓取互聯(lián)網(wǎng)上的各類信息來(lái)初步建構(gòu)數(shù)據(jù)庫(kù),網(wǎng)絡(luò)信息來(lái)源的真假雙重性,導(dǎo)致ChatGPT語(yǔ)料庫(kù)信息本身也具備了“真—假”雙重性。另外,由于所獲取的信息大多未經(jīng)所有者同意或取得授權(quán),其獲取數(shù)據(jù)的行為本身就在一定程度上有悖于“知情同意”原則,信息來(lái)源的匿名性也使得ChatGPT內(nèi)容生產(chǎn)在源頭上就缺乏明確的責(zé)任主體。
第二,ChatGPT的人機(jī)互動(dòng)模式,以消除用戶隱私性為基本前提。ChatGPT運(yùn)行以充分了解用戶需求為前提,實(shí)際上要求用戶不斷消除自身的隱私性壁壘。在人機(jī)交互過(guò)程中,用戶為了獲得更加精準(zhǔn)和深入的輸出結(jié)果,不得不在與AI的互動(dòng)中不斷暴露自身的真實(shí)目的、價(jià)值取向、結(jié)果預(yù)期,在不知不覺(jué)中解除了個(gè)人的隱私信息防備。比如,在問(wèn)題提出環(huán)節(jié),用戶會(huì)提出問(wèn)題或輸入指令,其中可能包含著很多與用戶直接相關(guān)的個(gè)人敏感信息;聊天界面的對(duì)話會(huì)被后臺(tái)的算法機(jī)制自動(dòng)抓取,從而納入生成式人工智能模型的語(yǔ)料庫(kù);如果用戶通過(guò)生成式人工智能模型處理合同、源代碼以及其他敏感文本,泄漏的風(fēng)險(xiǎn)與危害則會(huì)更大。
第三,ChatGPT對(duì)算法與算力的依賴,具有高度的技術(shù)單向性。盡管在ChatGPT運(yùn)行過(guò)程中始終存在用戶的身影,但總體而言,由于算法不透明,用戶無(wú)法了解其計(jì)算規(guī)則,ChatGPT高度依賴自身算法和算力支撐,是一種高度的技術(shù)單向性運(yùn)作。這就使得不同個(gè)體、企業(yè)、社群、國(guó)家等主體,由于對(duì)算法技術(shù)掌握程度不同、算力資源儲(chǔ)備各異,在實(shí)際操作過(guò)程中,會(huì)存在較大的輸出結(jié)果差異。比如,ChatGPT運(yùn)行需要巨大算力資源支撐,因此不是所有企業(yè)都有能力參與到AI大模型產(chǎn)品研發(fā)和創(chuàng)新應(yīng)用的競(jìng)爭(zhēng)之中,久而久之容易造成AI技術(shù)優(yōu)勢(shì)下的企業(yè)行業(yè)壟斷、國(guó)家技術(shù)霸權(quán),加劇全球數(shù)字發(fā)展不平等。同樣,由于不同個(gè)體、群體在技術(shù)水平和資源占有上的差異,AI技術(shù)的接入和使用也存在著社會(huì)層級(jí)分化的風(fēng)險(xiǎn)。與此同時(shí),AI大模型企業(yè)為了獲得更多的市場(chǎng)利潤(rùn),往往會(huì)傾向于開發(fā)市場(chǎng)回報(bào)率高的產(chǎn)品,人們?cè)谑褂肅hatGPT類產(chǎn)品的過(guò)程中,被誘導(dǎo)消費(fèi)、思想操控、行動(dòng)引導(dǎo)的風(fēng)險(xiǎn)更大,最終使得人工智能技術(shù)“演變?yōu)橐环N新的異己的力量”[3],加劇技術(shù)社會(huì)的整體性異化。
第四,ChatGPT結(jié)果輸出的高效便捷,具有技術(shù)沉溺誘導(dǎo)性。由于用戶能夠在AI技術(shù)賦能下實(shí)現(xiàn)最快最便捷的人機(jī)互動(dòng)結(jié)果輸出,不再需要從面對(duì)面的人際交往中尋求答案,容易滋生萬(wàn)事“唾手可得”的技術(shù)幻象,陷入一種“技術(shù)沉溺”之中。這樣的技術(shù)沉溺,容易造成兩個(gè)后果:第一,人與人之間身體在場(chǎng)的互動(dòng)更加匱乏,基于情感分享和信任的社會(huì)共識(shí)變得更為困難;第二,以智能機(jī)器人形式出現(xiàn)的AI產(chǎn)品成為人類的替代品,“機(jī)器人”成為一種更具有主體性意義的存在物,使得AI時(shí)代的人機(jī)關(guān)系更為復(fù)雜,帶來(lái)諸多科技倫理風(fēng)險(xiǎn)。
第五,ChatGPT的工具理性邏輯,具有價(jià)值判斷真空性。在傳統(tǒng)社會(huì)內(nèi)容生產(chǎn)活動(dòng)中,人們從事文學(xué)、繪畫、音樂(lè)等任何形式的創(chuàng)意表達(dá)時(shí),都會(huì)以自身和社會(huì)主流的價(jià)值觀、文化規(guī)范和道德考量為指導(dǎo)。生成式人工智能作為一種機(jī)器學(xué)習(xí)式的算法模型,遵循目的導(dǎo)向的工具理性邏輯,本著效率最快、結(jié)果最優(yōu)的計(jì)算法則,側(cè)重根據(jù)用戶需求追求內(nèi)容生產(chǎn)效用最大化,而缺乏對(duì)這些內(nèi)容本身價(jià)值合理性的甄別與判斷。正是由于ChatGPT工具理性邏輯過(guò)于強(qiáng)勢(shì),如果在其語(yǔ)料庫(kù)數(shù)據(jù)收集、整理和清洗過(guò)程中,沒(méi)有符合人類社會(huì)道德的價(jià)值判斷,就有可能收集大量影響人類社會(huì)健康發(fā)展的有害數(shù)據(jù)、傳播錯(cuò)誤信息,進(jìn)而存在影響社會(huì)穩(wěn)定的巨大風(fēng)險(xiǎn)。此外,單一工具理性邏輯下的價(jià)值判斷真空,也容易使得人工智能生成內(nèi)容存在被濫用和操縱的風(fēng)險(xiǎn),在缺乏道德監(jiān)督和批判性評(píng)估的情況下,AI內(nèi)容生產(chǎn)存在較大的意識(shí)形態(tài)安全風(fēng)險(xiǎn)[4]。
ChatGPT應(yīng)用運(yùn)行主要涉及人類用戶與AI機(jī)器人兩種類型的行動(dòng)者主體,其風(fēng)險(xiǎn)的產(chǎn)生也源自于“人—機(jī)”互動(dòng)反饋下的一系列負(fù)面社會(huì)行動(dòng)效能。目前來(lái)看,圍繞ChatGPT在各個(gè)領(lǐng)域的廣泛應(yīng)用和相關(guān)風(fēng)險(xiǎn)生成機(jī)理,主要存在以下幾種比較典型的類型化風(fēng)險(xiǎn)。
當(dāng)前,利用生成式人工智能開展內(nèi)容生產(chǎn),最為人所詬病的問(wèn)題之一便是虛假信息的泛濫,這種虛假信息在知識(shí)獲取層面會(huì)成為一種錯(cuò)誤的認(rèn)知,在價(jià)值取向?qū)用娉蔀橐环N含有潛在行動(dòng)引導(dǎo)的意識(shí)形態(tài),而在特定的媒介社會(huì)議程中則會(huì)演化為一種公共謠言。從圖1可見(jiàn),虛假信息的生成不能純粹歸咎于AI技術(shù)缺陷,而主要是因?yàn)槠漕A(yù)訓(xùn)練語(yǔ)料庫(kù)中包含著虛假信息的源頭數(shù)據(jù),這些數(shù)據(jù)大量來(lái)自于網(wǎng)絡(luò)。實(shí)際上,網(wǎng)絡(luò)社會(huì)的崛起使得跨地域在線即時(shí)社交成為可能,這就使得虛假信息的傳播更為迅速、傳播范圍更為廣泛、社會(huì)負(fù)面影響更為巨大,而生成式人工智能的廣泛應(yīng)用,必將助推虛假信息的進(jìn)一步泛濫。尤其是在各類突發(fā)性公共事件中,不實(shí)信息的網(wǎng)絡(luò)傳播將給基于網(wǎng)絡(luò)大數(shù)據(jù)自動(dòng)生產(chǎn)內(nèi)容的AI機(jī)器人帶來(lái)錯(cuò)誤的“源數(shù)據(jù)”,使得AI機(jī)器人成為快速散布謠言的工具。此外,由于ChatGPT內(nèi)容生成完全依賴于大量的數(shù)據(jù)庫(kù)和語(yǔ)料庫(kù),而在網(wǎng)絡(luò)場(chǎng)域的大量數(shù)據(jù)中充斥著種族主義歧視、性別歧視、色情、暴力、意識(shí)形態(tài)偏見(jiàn)等內(nèi)容,加上各類文本、圖像、音頻、視頻等多模態(tài)虛假信息的泛濫,必將給網(wǎng)絡(luò)生態(tài)治理帶來(lái)巨大壓力。
當(dāng)今世界,數(shù)據(jù)安全已經(jīng)上升到國(guó)家高度[5]。如圖1所示,在三種主要類型的應(yīng)用場(chǎng)景中,人類用戶在與ChatGPT開展對(duì)話時(shí),時(shí)刻在進(jìn)行著不間斷的信息交互,包括用戶性別、職業(yè)、喜好、知識(shí)水平、精神狀態(tài)、情感立場(chǎng)等等,都可以通過(guò)特定方式被AI機(jī)器人整理分析,在算法技術(shù)之下,AI對(duì)用戶進(jìn)行數(shù)字畫像的精準(zhǔn)性也日益提升。當(dāng)越來(lái)越多的社交互動(dòng)平臺(tái)嵌入ChatGPT插件后,這些精準(zhǔn)畫像將進(jìn)一步成為對(duì)用戶定點(diǎn)投放廣告、定向推送特定商品的最有力工具。大量的個(gè)人隱私也將通過(guò)關(guān)聯(lián)ChatGPT的應(yīng)用軟件不斷被收集提取,形成一個(gè)個(gè)數(shù)字資料庫(kù),存在人機(jī)互動(dòng)下數(shù)字隱私信息泄露的巨大風(fēng)險(xiǎn)。
一般認(rèn)為,數(shù)字鴻溝包括數(shù)字技術(shù)的“接入溝”和“使用溝”兩個(gè)層面。然而,隨著ChatGPT等新一代生成式人工智能大模型機(jī)器人的出現(xiàn),人們?cè)诮尤階I應(yīng)用、利用AI技術(shù)開展社會(huì)實(shí)踐、運(yùn)用AI技術(shù)紅利提升自身可行能力等方面呈現(xiàn)出一種新的數(shù)字鴻溝——“AI溝”。而且,從圖1可見(jiàn),對(duì)ChatGPT類生成式人工智能的利用,需要用戶對(duì)AI技術(shù)的基本把握,尤其是在“人—機(jī)”互動(dòng)反饋諸多環(huán)節(jié),用戶本身對(duì)相關(guān)問(wèn)題核心要點(diǎn)的提煉、對(duì)AI機(jī)器人技術(shù)運(yùn)行的引導(dǎo),直接影響著AI應(yīng)用的整體效果,這就使得不同人類主體之間AI技術(shù)紅利差異的“AI溝”越來(lái)越大。這樣的AI溝不僅僅是發(fā)生在個(gè)體與個(gè)體之間,還進(jìn)一步向不同群體、企業(yè)、社會(huì)組織、民族國(guó)家等多元主體擴(kuò)展。比如,在國(guó)家層面,各國(guó)由于在經(jīng)濟(jì)實(shí)力、人才儲(chǔ)備、數(shù)字基礎(chǔ)設(shè)施建設(shè)等方面的差異,無(wú)法在AI技術(shù)發(fā)展和應(yīng)用中保持同步跟進(jìn),AI技術(shù)差距越來(lái)越大,造成全球AI技術(shù)發(fā)展不平等,AI治理體系話語(yǔ)權(quán)也逐漸被AI強(qiáng)國(guó)主導(dǎo),滋生AI霸權(quán)主義。在企業(yè)和組織機(jī)構(gòu)層面,不同行業(yè)AI接入應(yīng)用程度不同,相同行業(yè)不同企業(yè)和組織之間發(fā)展不一,也將導(dǎo)致數(shù)字不平等的加劇。在個(gè)體層面,隨著AI技術(shù)服務(wù)收費(fèi),數(shù)字貧富人口差距也將日益明顯??梢钥闯?ChatGPT作為新一代AI應(yīng)用程序,一方面使得AI技術(shù)進(jìn)入尋常百姓家,另一方面也使得數(shù)字貧困人口在新技術(shù)紅利上受到不平等待遇。
事實(shí)上,對(duì)話和交流是人類社會(huì)生存的基本需求,而ChatGPT的出現(xiàn),使得原子式的個(gè)體更加沉浸在虛擬空間對(duì)話之中,現(xiàn)實(shí)空間的社會(huì)交往將更加匱乏。美國(guó)社會(huì)心理學(xué)家雪莉·特克爾(Sherry Turkle)就指出,數(shù)字技術(shù)的發(fā)展在現(xiàn)實(shí)與虛擬之間建立了一個(gè)復(fù)雜糾結(jié)的關(guān)系,互聯(lián)網(wǎng)盡管為人們提供了一個(gè)充滿想象的虛擬世界,但卻并沒(méi)有給人們帶來(lái)共同體的溫暖體驗(yàn),反而使得人們陷入一種群體性孤獨(dú)之中,這是因?yàn)閿?shù)字虛擬空間給人們提供的是一個(gè)“作出承諾而不必履行的連接”[6]。沉浸在這種日益單向度化的數(shù)字社會(huì),人們無(wú)法期待面對(duì)面交往時(shí)所能夠獲得的情感與價(jià)值認(rèn)同,只會(huì)在技術(shù)物化、技術(shù)異化的歧途上越走越遠(yuǎn),而現(xiàn)實(shí)社會(huì)的建構(gòu)更新與發(fā)展維系也將變得愈發(fā)艱難。實(shí)際上,特克爾提出了一個(gè)關(guān)系著現(xiàn)代社會(huì)建構(gòu)和發(fā)展的關(guān)鍵命題——社會(huì)認(rèn)同。英國(guó)社會(huì)心理學(xué)家亨利·塔菲爾(Henri Tajfel)在考察社會(huì)建構(gòu)時(shí)最早正式提出了“社會(huì)認(rèn)同”(Social Identity)概念,并將其定義為“個(gè)體認(rèn)識(shí)到他(或她)屬于特定的社會(huì)群體,同時(shí)也認(rèn)識(shí)到作為群體成員帶給他的情感和價(jià)值意義”[7]。塔菲爾認(rèn)為,社會(huì)認(rèn)同可以分為社會(huì)分類、社會(huì)比較和積極區(qū)分三個(gè)階段,而各個(gè)階段都是以人與人之間的社會(huì)交往與社會(huì)信任為基本前提。誠(chéng)然,基于互聯(lián)網(wǎng)的數(shù)字交往已經(jīng)成為當(dāng)下人們重要的交往方式,但是這種符號(hào)化的交往是一種身體“缺場(chǎng)”的交往,無(wú)法實(shí)現(xiàn)現(xiàn)實(shí)社會(huì)面對(duì)面身體“在場(chǎng)”交往中的個(gè)體情感與價(jià)值意義。
一般認(rèn)為,人工智能機(jī)器人對(duì)人類而言只是一種更為先進(jìn)的科技工具,人機(jī)關(guān)系也限定在生產(chǎn)者與生產(chǎn)工具的關(guān)系范疇。然而,如圖1中協(xié)同創(chuàng)作類型應(yīng)用可見(jiàn),以ChatGPT為代表的新一代生成式人工智能機(jī)器人的出現(xiàn),使得數(shù)字內(nèi)容生產(chǎn)成為人類與機(jī)器協(xié)作共同完成的過(guò)程,不管機(jī)器是否具有獨(dú)立自主意識(shí),但客觀上已經(jīng)分擔(dān)了勞動(dòng)生產(chǎn)的實(shí)質(zhì)性任務(wù)。換言之,發(fā)端于特定的數(shù)字內(nèi)容生產(chǎn)任務(wù),在由人類發(fā)起的對(duì)話式的數(shù)字勞動(dòng)過(guò)程中,人類是主導(dǎo)者,ChatGPT是協(xié)作者,聊天對(duì)話本身則是承載數(shù)字勞動(dòng)的特定形式。毫無(wú)疑問(wèn),人類與ChatGPT在這里都成為了生產(chǎn)者,而ChatGPT內(nèi)容生產(chǎn)所依賴的數(shù)據(jù)、語(yǔ)料、算法等則成為一種特殊的生產(chǎn)資料。由此可見(jiàn),在人機(jī)對(duì)話數(shù)字內(nèi)容生產(chǎn)中,ChatGPT已經(jīng)成為與人類互動(dòng)的行動(dòng)者主體,一種新型的人機(jī)關(guān)系將成為AI時(shí)代重要的社會(huì)生產(chǎn)關(guān)系之一。與此同時(shí),由于人們利用AIGC模型開展數(shù)字勞動(dòng)的多樣性,人機(jī)關(guān)系生產(chǎn)也必然呈現(xiàn)出多元化、復(fù)雜化的特點(diǎn),必然會(huì)對(duì)其他各個(gè)維度的社會(huì)關(guān)系產(chǎn)生重要影響,也必將帶來(lái)新的社會(huì)倫理問(wèn)題。
近年來(lái),隨著人工智能技術(shù)在各行各業(yè)的深入發(fā)展和應(yīng)用,加強(qiáng)人工智能治理已經(jīng)成為社會(huì)共識(shí)。OpenAI首席技術(shù)官米拉·穆拉蒂(Mira Murati)在接受《時(shí)代周刊》采訪時(shí)承認(rèn),ChatGPT面臨的核心挑戰(zhàn)是模型偏差,關(guān)鍵在于如何以符合人類價(jià)值觀的方式來(lái)使用它,生成式人工智能需要監(jiān)管機(jī)構(gòu)介入,以防止對(duì)社會(huì)產(chǎn)生潛在的負(fù)面影響[8]。穆拉蒂是參與ChatGPT研發(fā)的核心人員,其對(duì)ChatGPT應(yīng)用的預(yù)判和擔(dān)憂具有象征性意義,作為AI機(jī)器人創(chuàng)造者的人類,需要對(duì)所創(chuàng)之物進(jìn)行監(jiān)管,更需要在如何運(yùn)用技術(shù)這把雙刃劍上作出審慎的思考,開展有效的技術(shù)規(guī)制與治理。如圖2所示,應(yīng)從五個(gè)方面全面加強(qiáng)對(duì)生成式人工智能的治理。
圖2 ChatGPT類生成式人工智能的治理路徑
隨著ChatGPT類生成式人工智能等技術(shù)的不斷深入應(yīng)用,國(guó)家、政府機(jī)構(gòu)、社會(huì)組織、企業(yè)、個(gè)體等多元主體都成為人工智能時(shí)代的利益相關(guān)者,各個(gè)主體在開展人工智能治理中有著不同的角色定位和階段性重點(diǎn)責(zé)任。為此,必須充分調(diào)動(dòng)各個(gè)主體參與治理的積極性、能動(dòng)性,構(gòu)建多元主體共建共治共享的人工智能治理共同體。第一,組織制定數(shù)字技術(shù)規(guī)劃,加大對(duì)大型實(shí)驗(yàn)平臺(tái)組建投入,加強(qiáng)大型網(wǎng)絡(luò)通信、大數(shù)據(jù)中心、算力等數(shù)字基礎(chǔ)設(shè)施建設(shè),優(yōu)化數(shù)字資源布局。第二,由主管部門和地方政府落實(shí)政策支持,研究出臺(tái)不同應(yīng)用場(chǎng)景下的AI管理辦法,加強(qiáng)對(duì)算法的倫理審查,推動(dòng)算法透明、避免算法黑箱和算法偏見(jiàn),營(yíng)造良好產(chǎn)業(yè)發(fā)展環(huán)境。第三,由社會(huì)組織推動(dòng)技術(shù)交流、調(diào)研社會(huì)需求、推進(jìn)產(chǎn)學(xué)研融合。第四,由企業(yè)主導(dǎo)產(chǎn)品創(chuàng)新應(yīng)用,自覺(jué)建立分類分級(jí)的人工智能技術(shù)備案、審查和監(jiān)管制度體系。第五,由個(gè)人用戶做好產(chǎn)品反饋和規(guī)范化使用監(jiān)督,不斷提出產(chǎn)品改進(jìn)建議,維護(hù)自身合法數(shù)字權(quán)益,督促產(chǎn)品更新和優(yōu)化。
從虛假信息泛濫、數(shù)字隱私泄露、技術(shù)異化以及人機(jī)科技倫理等風(fēng)險(xiǎn)來(lái)看,加強(qiáng)對(duì)人工智能技術(shù)的全過(guò)程監(jiān)管十分必要。第一,在ChatGPT產(chǎn)品研發(fā)和應(yīng)用的算法設(shè)計(jì)環(huán)節(jié),應(yīng)落實(shí)算法備案制度,將履行告知義務(wù)、參數(shù)報(bào)備、參數(shù)公開和規(guī)定算法可解釋權(quán)等治理手段納入算法治理的公共政策考量之中。第二,在算法運(yùn)行環(huán)節(jié),ChatGPT基于與用戶的對(duì)話交互,獲取大量用戶信息,應(yīng)公開對(duì)話中的算法邏輯,恪守《中華人民共和國(guó)數(shù)據(jù)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》《關(guān)于構(gòu)建數(shù)據(jù)基礎(chǔ)制度更好發(fā)揮數(shù)據(jù)要素作用的意見(jiàn)》等數(shù)據(jù)信息法律法規(guī),切實(shí)保護(hù)數(shù)據(jù)安全和用戶個(gè)人隱私。第三,在算法反饋環(huán)節(jié),要加強(qiáng)倫理數(shù)據(jù)標(biāo)簽分級(jí)分類,引導(dǎo)算法正能量,對(duì)危害公序良德內(nèi)容進(jìn)行倫理限制,對(duì)涉及違法犯罪信息應(yīng)及時(shí)予以服務(wù)終止,并對(duì)用戶進(jìn)行警示性提示。第四,在算法更新環(huán)節(jié),注重用戶體驗(yàn),切實(shí)吸收用戶反饋,完善算法,提升服務(wù)效能。
現(xiàn)代社會(huì)作為一種復(fù)雜社會(huì)、風(fēng)險(xiǎn)社會(huì),往往會(huì)涌現(xiàn)出種種不確定性風(fēng)險(xiǎn),人工智能作為當(dāng)下人類社會(huì)科技進(jìn)步的重要成果,既給未來(lái)帶來(lái)美好生活的想象空間,也以科技的雙刃性埋下種種倫理與社會(huì)危機(jī)。因此,必須加強(qiáng)對(duì)人工智能技術(shù)發(fā)展和創(chuàng)新應(yīng)用的風(fēng)險(xiǎn)預(yù)警和干預(yù)。第一,要建立AI技術(shù)風(fēng)險(xiǎn)評(píng)估機(jī)制,由具備強(qiáng)制權(quán)力的政府主管部門來(lái)牽頭,聯(lián)合人工智能大模型重點(diǎn)企業(yè)、行業(yè)組織協(xié)會(huì)、高??蒲性核⒖萍己蜕鐣?huì)治理專家學(xué)者等,進(jìn)行充分的技術(shù)調(diào)研、風(fēng)險(xiǎn)預(yù)判。第二,要建立AI技術(shù)風(fēng)險(xiǎn)干預(yù)機(jī)制,在AI運(yùn)行流程各個(gè)環(huán)節(jié),以及各個(gè)應(yīng)用場(chǎng)景,建立技術(shù)風(fēng)險(xiǎn)應(yīng)急處置預(yù)案,從“人—機(jī)”互動(dòng)各個(gè)環(huán)節(jié),增加有效的人類干預(yù)因素、技術(shù)干預(yù)因素,防范各類突發(fā)性風(fēng)險(xiǎn)。此外,對(duì)于影響國(guó)計(jì)民生行業(yè)的AI技術(shù)應(yīng)用,還應(yīng)充分開展社會(huì)調(diào)研、事先征求意見(jiàn)反饋、接受社會(huì)監(jiān)督,并在應(yīng)用過(guò)程中秉持以人為本原則及時(shí)更新算法邏輯,更好的服務(wù)社會(huì)。尤其是要堅(jiān)持?jǐn)?shù)據(jù)安全是第一要義,必須對(duì)數(shù)據(jù)收集、存儲(chǔ)、使用、管理、刪除等進(jìn)行嚴(yán)格的數(shù)字安全監(jiān)管。
對(duì)于AI時(shí)代可能帶來(lái)的“AI溝”,必須加強(qiáng)人工智能產(chǎn)業(yè)統(tǒng)籌,協(xié)調(diào)推進(jìn)不同地區(qū)AI技術(shù)發(fā)展與應(yīng)用,推進(jìn)AI數(shù)字紅利的全面普惠共享。第一,從國(guó)家戰(zhàn)略層面出臺(tái)相應(yīng)的政策,引導(dǎo)產(chǎn)業(yè)扶持、稅收減免、人才儲(chǔ)備、科研項(xiàng)目配套,才能優(yōu)化資源配置、協(xié)調(diào)各方利益、實(shí)現(xiàn)產(chǎn)業(yè)聯(lián)動(dòng)發(fā)展,尤其是要對(duì)技術(shù)欠發(fā)達(dá)地區(qū)給予政策傾斜,協(xié)調(diào)推進(jìn)不同地區(qū)、人群之間的AI發(fā)展進(jìn)程。第二,建立起健全的市場(chǎng)調(diào)研、產(chǎn)品運(yùn)營(yíng)、用戶反饋等監(jiān)管機(jī)制,重視對(duì)青少年、老年人、殘障人士等群體的包容性創(chuàng)新發(fā)展,引導(dǎo)企業(yè)履行企業(yè)社會(huì)責(zé)任,設(shè)計(jì)青少年模式、老年模式等特定的人工智能應(yīng)用模式,幫助數(shù)字弱勢(shì)群體享受數(shù)字紅利、提升數(shù)字能力,推動(dòng)人工智能技術(shù)應(yīng)用在各個(gè)社會(huì)群體中的協(xié)調(diào)發(fā)展。
從ChatGPT運(yùn)行可能帶來(lái)的社會(huì)層級(jí)分化、技術(shù)異化、人機(jī)科技倫理等風(fēng)險(xiǎn)可見(jiàn),提升全民人工智能技術(shù)認(rèn)知、技術(shù)水平和技術(shù)甄別能力已經(jīng)十分緊迫。為此,必須加強(qiáng)對(duì)全社會(huì)的人工智能教育培訓(xùn),提升全民人工智能綜合素養(yǎng)。目前,對(duì)于人工智能素養(yǎng)應(yīng)該包括哪些方面,各國(guó)有著不同的理解。比如,聯(lián)合國(guó)教科文組織在廣義上將人工智能素養(yǎng)界定為關(guān)于人工智能的知識(shí)、理解、技能和價(jià)值取向;芬蘭則在實(shí)踐層面上將人工智能素養(yǎng)概括為理解、適應(yīng)和開發(fā)三個(gè)部分[9]。在學(xué)界,對(duì)于人工智能素養(yǎng)的內(nèi)涵也有著不同的理解視角:一類是從能力論視角,認(rèn)為包含個(gè)體適應(yīng)人工智能時(shí)代的工作、學(xué)習(xí)與生活能力;另一類是從綜合素質(zhì)論視角,認(rèn)為除了相關(guān)的知識(shí)與能力之外,還應(yīng)包括與人工智能技術(shù)使用相關(guān)的態(tài)度和倫理等,包括AI概念、AI應(yīng)用和AI倫理[10]??梢钥闯?不管對(duì)人工智能素養(yǎng)的定義與內(nèi)涵存在怎樣的不同理解,但在數(shù)字智能時(shí)代,提升全民人工智能素養(yǎng)的重要性已經(jīng)成為基本共識(shí)。