魏曉光 ,趙珂旋 ,呂 菲 ,樓俊濤
(河北金融學(xué)院,河北 保定 071000)
Chat GPT(Chat Generative Pre-trained Transformer)的產(chǎn)生和發(fā)展引發(fā)全球矚目,隨著其與各個(gè)行業(yè)交互的不斷擴(kuò)展和延伸,生成式人工智能(AIGC)的時(shí)代即將到來(lái),并將深刻影響社會(huì)的各個(gè)領(lǐng)域。生成式人工智能與判別式人工智能主要區(qū)別在于:生成式人工智能可以生成新的內(nèi)容,而判別式人工智能主要是對(duì)歷史數(shù)據(jù)進(jìn)行分析判斷。本研究將分析以ChatGPT為代表的生成式人工智能會(huì)帶來(lái)哪些風(fēng)險(xiǎn),在面對(duì)這些風(fēng)險(xiǎn)時(shí)應(yīng)如何去尋找破解之路。
以ChatGPT 為代表的生成式人工智能賦能社會(huì)發(fā)展益處頗多,同時(shí)面臨挑戰(zhàn)與風(fēng)險(xiǎn)。
ChatGPT 作為人工智能技術(shù)自然語(yǔ)言處理工具,可能引發(fā)捏造事實(shí)、抄襲內(nèi)容等現(xiàn)象,進(jìn)而引發(fā)社會(huì)虛假信息泛濫危機(jī)[1]。ChatGPT 不具備人的價(jià)值和倫理觀念,它所輸出的信息也不一定具有社會(huì)應(yīng)用價(jià)值,甚至可能有違真實(shí)性。雖然大多數(shù)人都肯定生成式人工智能帶給人類的便利,但是完全利用人工智能來(lái)解決生活中的問(wèn)題,或許會(huì)引起更加混亂的局面。利用ChatGPT 可能還會(huì)引發(fā)學(xué)術(shù)造假、行業(yè)競(jìng)爭(zhēng)不公、虛假信息泛濫等危害社會(huì)秩序的現(xiàn)象。
雖然ChatGPT 可以為人類帶來(lái)更加智能化的體驗(yàn),但是它的智能化程度目前仍然有限,尤其是在知識(shí)理解和應(yīng)用方面,ChatGPT 可以通過(guò)大量的訓(xùn)練數(shù)據(jù)不斷提高自己的服務(wù)能力,卻無(wú)法達(dá)到人類的思考高度和對(duì)事物的理解程度[2]。因此,在某些高度復(fù)雜和專業(yè)化的領(lǐng)域,人類的經(jīng)驗(yàn)仍然無(wú)法被替代,當(dāng)面對(duì)一些復(fù)雜的問(wèn)題或者情境時(shí),通過(guò)ChatGPT 獲得的解答僅僅是為了回應(yīng)此問(wèn)題,并不能真正理解問(wèn)題的內(nèi)在含義,某些時(shí)候它只能捏造出沒(méi)有任何事實(shí)依據(jù)的結(jié)果“應(yīng)付”使用者,而這種現(xiàn)象很有可能給金融、醫(yī)療等相關(guān)領(lǐng)域帶來(lái)嚴(yán)重的損失。
個(gè)人信息隱私安全問(wèn)題是以ChatGPT 為代表的生成式人工智能不得不面對(duì)的風(fēng)險(xiǎn),公民的個(gè)人隱私和國(guó)家安全息息相關(guān)。在使用ChatGPT 等生成式人工智能時(shí),保護(hù)用戶的數(shù)據(jù)安全與隱私問(wèn)題同樣面臨著諸多挑戰(zhàn)。
首先,訓(xùn)練模型需要通過(guò)大量的數(shù)據(jù)處理來(lái)學(xué)習(xí)人類語(yǔ)言模式,這些學(xué)習(xí)演練數(shù)據(jù)可能包含用戶的部分敏感信息。社會(huì)群體依靠以ChatGPT 為代表的生成式人工智能獲取大量數(shù)據(jù)信息,所需要的數(shù)據(jù)規(guī)模巨大且復(fù)雜,由此可能會(huì)引發(fā)知識(shí)產(chǎn)權(quán)歸屬問(wèn)題[3]。模型的訓(xùn)練數(shù)據(jù)大多來(lái)自互聯(lián)網(wǎng),其中可能包含未經(jīng)授權(quán)的個(gè)人信息,生成式人工智能主要通過(guò)計(jì)算機(jī)檢索功能獲取數(shù)據(jù),數(shù)據(jù)的收集和生成過(guò)程存在“黑箱”問(wèn)題,數(shù)據(jù)獲取的途徑無(wú)法判斷是否正當(dāng)合理,獲取的數(shù)據(jù)也無(wú)法判斷是否涉及知識(shí)產(chǎn)權(quán)等問(wèn)題。例如,社會(huì)群體用ChatGPT 時(shí)可能會(huì)涉及那些未被法律賦予使用權(quán)利的數(shù)據(jù),那么使用該數(shù)據(jù)就違反了相關(guān)法律,侵犯了他人的權(quán)利和隱私。
其次,使用ChatGPT 生成的內(nèi)容可能會(huì)包含算法訓(xùn)練數(shù)據(jù)中的某些片段,從而導(dǎo)致信息泄露。生成式人工智能時(shí)代到來(lái)之后,社會(huì)群體利用以ChatGPT為代表的生成式人工智能極大地便捷了作品的創(chuàng)作,但用戶在使用ChatGPT 時(shí)就是在向其提供數(shù)據(jù),在此過(guò)程中存在著個(gè)人數(shù)據(jù)泄露的風(fēng)險(xiǎn)。例如,社會(huì)群體在對(duì)ChatGPT 進(jìn)行詢問(wèn)的同時(shí),ChatGPT 會(huì)收集大量與用戶相關(guān)的數(shù)據(jù),此過(guò)程會(huì)涉及大量個(gè)人信息方面的數(shù)據(jù),容易衍生一系列的個(gè)人隱私安全問(wèn)題。
最后,黑客可能通過(guò)生成式人工智能更加快捷地獲取用戶數(shù)據(jù),這對(duì)用戶隱私構(gòu)成了極大的潛在威脅。黑客可以通過(guò)ChatGPT 等生成式人工智能編寫的代碼攻擊網(wǎng)絡(luò)用戶[4],這將降低網(wǎng)絡(luò)攻擊者的技術(shù)門檻,擴(kuò)大惡意黑客的群體規(guī)模,最終使網(wǎng)絡(luò)環(huán)境愈加惡劣。
生成式人工智能的廣泛發(fā)展會(huì)降低人的創(chuàng)造性思維能力,沖擊人的主導(dǎo)地位。機(jī)器是人類創(chuàng)造出來(lái)的,它所具備的思維能力也是對(duì)于人類行為的學(xué)習(xí)與模仿,每次技術(shù)革新都離不開人類的創(chuàng)造,這是機(jī)器所不能完成的。以ChatGPT 為代表的新技術(shù)的產(chǎn)生在一定程度上可以簡(jiǎn)化人類的思考過(guò)程,但如果過(guò)度依賴此類技術(shù),就會(huì)掉進(jìn)“省力原則”的陷阱。例如在教育領(lǐng)域,學(xué)生完成作業(yè)時(shí)可能會(huì)使用ChatGPT作弊[5],將使得教育體系失去相對(duì)應(yīng)的公正性和平衡性,導(dǎo)致教育不公平,而學(xué)生長(zhǎng)期缺乏獨(dú)立思考能力,有可能造成學(xué)生群體產(chǎn)生技術(shù)依賴性。這種“技術(shù)依賴”的產(chǎn)生,會(huì)導(dǎo)致人的自主性、批判性、創(chuàng)造性思維退化。
在信息爆炸的時(shí)代,人類免不了利用工具篩選并處理大量的信息。生成式人工智能的優(yōu)點(diǎn)便是強(qiáng)大的信息處理能力,它為人類提供了更加便捷和迅速的信息收集和處理方式,節(jié)約了人類在一些信息上所需要耗費(fèi)的時(shí)間,但長(zhǎng)此以往,人們便會(huì)不假思索地利用技術(shù)來(lái)解決一切問(wèn)題,從而被技術(shù)手段所禁錮。
數(shù)字鴻溝就是信息鴻溝,隨著生成式人工智能大規(guī)模的迭代更新,以技術(shù)鴻溝、算法鴻溝為代表的新型數(shù)字鴻溝將提高新一輪的數(shù)字不平等現(xiàn)象發(fā)生的可能性,而ChatGPT的出現(xiàn)與發(fā)展在某種程度上加深了城鄉(xiāng)數(shù)字鴻溝[6]。一方面,部分地區(qū)經(jīng)濟(jì)發(fā)展水平相對(duì)落后,沒(méi)有健全的數(shù)字基礎(chǔ)建設(shè),使得其無(wú)法接觸到生成式模型等先進(jìn)的人工智能技術(shù),從而進(jìn)一步拉大了城鄉(xiāng)間的差距。另一方面,生成式人工智能模型在訓(xùn)練時(shí)需要巨大的數(shù)據(jù)庫(kù)和極強(qiáng)的算法能力,運(yùn)行成本巨大,使得此類技術(shù)手段只被小部分人控制,而集中的控制能力使得此領(lǐng)域形成壟斷,從而擴(kuò)大了城鄉(xiāng)數(shù)字鴻溝問(wèn)題。城鄉(xiāng)本身經(jīng)濟(jì)發(fā)展的不平衡,造成了存在于地區(qū)間經(jīng)濟(jì)發(fā)展、教育水平、信息接受能力等的不同程度的不平衡。生成式人工智能有可能加大城市與城市、城市與鄉(xiāng)村、鄉(xiāng)村與鄉(xiāng)村之間的不公平性。
生成式人工智能助力社會(huì)發(fā)展時(shí)所產(chǎn)生風(fēng)險(xiǎn)的治理是一個(gè)開放性的、國(guó)際性的問(wèn)題,必須通過(guò)廣泛的國(guó)際合作來(lái)達(dá)成共識(shí),從而確定生成式人工智能賦能社會(huì)發(fā)展的基本原則,形成一個(gè)完備的治理體系。應(yīng)從治理理念、數(shù)據(jù)合規(guī)、技術(shù)基礎(chǔ)、服務(wù)保障等多個(gè)方面來(lái)進(jìn)行防范治理。
首先,遵循敏捷治理理念。簡(jiǎn)而言之就是要在時(shí)代發(fā)展的進(jìn)程中逐步針對(duì)以ChatGPT 為代表的生成式人工智能所存在的問(wèn)題,進(jìn)行及時(shí)、有效的調(diào)整,而不是根據(jù)所制定的長(zhǎng)期計(jì)劃進(jìn)行改變。這就要求該技術(shù)的監(jiān)管部門時(shí)刻注意生成式人工智能發(fā)展和使用的過(guò)程,做到實(shí)時(shí)跟蹤、動(dòng)態(tài)監(jiān)測(cè),推動(dòng)企業(yè)可持續(xù)發(fā)展,將潛在的負(fù)面影響控制到最小狀態(tài)。具體應(yīng)做好以下幾方面的工作:1)完善生成式人工智能平臺(tái)內(nèi)部的組織機(jī)構(gòu),利用有效的排查手段調(diào)動(dòng)全平臺(tái)、全方面進(jìn)行監(jiān)測(cè)。2)在用戶使用前統(tǒng)一簽訂用戶使用規(guī)范說(shuō)明,對(duì)用戶的使用進(jìn)行嚴(yán)格規(guī)范,對(duì)其中出現(xiàn)的一些不符合規(guī)定的內(nèi)容進(jìn)行強(qiáng)制性刪除,對(duì)于那些嚴(yán)重違反規(guī)定的用戶進(jìn)行永久拉黑處理。3)監(jiān)管部門可在正式運(yùn)行前進(jìn)行小規(guī)模內(nèi)測(cè),或者請(qǐng)第三方機(jī)構(gòu)對(duì)于平臺(tái)的運(yùn)行進(jìn)行評(píng)價(jià)和漏洞審查。
其次,遵循終身學(xué)習(xí)理念。生成式人工智能技術(shù)的廣泛應(yīng)用為社會(huì)帶來(lái)諸多便利的同時(shí),也因部分用戶對(duì)其過(guò)分依賴逐漸喪失自主性[7],從而對(duì)社會(huì)發(fā)展造成負(fù)面影響。面對(duì)部分用戶對(duì)ChatGPT 技術(shù)的過(guò)分依賴問(wèn)題,需要人們樹立終身學(xué)習(xí)的理念,理性使用作為新時(shí)代勞動(dòng)工具的ChatGPT。為了跟上時(shí)代的發(fā)展步伐,人們需要積極參與數(shù)字教育和培訓(xùn),不斷構(gòu)建和完善自身的數(shù)字化知識(shí)體系,培養(yǎng)數(shù)字思維,以適應(yīng)數(shù)字化時(shí)代的發(fā)展需求。
政府及相關(guān)監(jiān)管部門應(yīng)從管理機(jī)制、技術(shù)手段以及責(zé)任規(guī)范三個(gè)方面不斷健全和完善數(shù)據(jù)合規(guī)建設(shè),統(tǒng)籌治理虛假信息、個(gè)人隱私泄露和技術(shù)依賴問(wèn)題,為生成式人工智能行業(yè)的健康發(fā)展保駕護(hù)航。
在管理機(jī)制上,政府及監(jiān)管部門應(yīng)建立完備的法律體系,堅(jiān)持“倫理先行”原則,應(yīng)明確落實(shí)落細(xì)《中華人民共和國(guó)個(gè)人信息保護(hù)法》《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等的相關(guān)規(guī)定。政府監(jiān)管部門應(yīng)密切追蹤生成式人工智能的發(fā)展態(tài)勢(shì),加強(qiáng)對(duì)生成式人工智能相關(guān)設(shè)備和行為的監(jiān)管能力,以確保個(gè)人隱私和數(shù)據(jù)得到法律保護(hù)[8],保障個(gè)人信息記錄及使用的合法性,監(jiān)控?cái)?shù)據(jù)的來(lái)源并審核其真實(shí)性,防止虛假、錯(cuò)誤等不符合法律規(guī)范的信息進(jìn)入生成式人工智能模型。
在技術(shù)手段上,要加強(qiáng)生成式人工智能技術(shù)的研發(fā)和管理,對(duì)個(gè)人隱私信息和虛假信息等數(shù)據(jù)進(jìn)行監(jiān)測(cè)。通過(guò)聚焦個(gè)人隱私和虛假信息等維度,提高治理手段的智能化水平,降低生成式人工智能造成的數(shù)據(jù)和隱私泄漏風(fēng)險(xiǎn),并有效識(shí)別虛假信息,增強(qiáng)生成式人工智能技術(shù)的透明度,避免獲取數(shù)據(jù)時(shí)出現(xiàn)“黑箱”問(wèn)題。
在責(zé)任規(guī)范上,政府及監(jiān)管部門應(yīng)明確ChatGPT等生成式人工智能各個(gè)主體的責(zé)任[9],并對(duì)各個(gè)主體提出數(shù)據(jù)規(guī)范要求,使技術(shù)開發(fā)方、提供方和使用方各司其職,各自承擔(dān)相應(yīng)的義務(wù)與責(zé)任。具體而言,使用方在使用生成式人工智能過(guò)程中,要加強(qiáng)信息識(shí)別能力,時(shí)刻保持警惕,不輸入敏感的數(shù)據(jù)信息,如密碼、銀行賬戶信息、個(gè)人身份證件號(hào)碼等,并定期清除在ChatGPT 中的聊天記錄,以減少信息泄露的風(fēng)險(xiǎn)。構(gòu)建多主體的數(shù)據(jù)監(jiān)管體系,有助于監(jiān)管部門在監(jiān)管過(guò)程中提高監(jiān)管效率,動(dòng)態(tài)跟蹤數(shù)據(jù)并實(shí)時(shí)調(diào)整治理手段。
為從根本上治理以ChatGPT 為代表的生成式人工智能技術(shù)擴(kuò)大城鄉(xiāng)數(shù)字鴻溝問(wèn)題,避免生成式人工智能產(chǎn)生的個(gè)人隱私泄露風(fēng)險(xiǎn)和虛假信息,政府和相關(guān)企業(yè)應(yīng)從數(shù)字基礎(chǔ)建設(shè)、數(shù)據(jù)算法規(guī)制等方面采取相應(yīng)措施來(lái)提升生成式人工智能的技術(shù)基礎(chǔ)。
針對(duì)生成式人工智能擴(kuò)大城鄉(xiāng)數(shù)字鴻溝問(wèn)題,政府應(yīng)加大對(duì)鄉(xiāng)村數(shù)字基礎(chǔ)建設(shè)的投入,加快5G 技術(shù)、生成式人工智能技術(shù)、云計(jì)算等數(shù)字化設(shè)施的布局,并提高數(shù)字技術(shù)的可訪問(wèn)性和可用性。這有利于農(nóng)民將ChatGPT 等生成式人工智能技術(shù)和農(nóng)業(yè)生產(chǎn)結(jié)合,及時(shí)獲取有效的農(nóng)業(yè)信息,同時(shí)對(duì)農(nóng)業(yè)布局作出合理的生產(chǎn)調(diào)整,提高農(nóng)業(yè)生產(chǎn)效率,進(jìn)而推動(dòng)鄉(xiāng)村經(jīng)濟(jì)發(fā)展,縮小城鄉(xiāng)數(shù)字鴻溝。
針對(duì)生成式人工智能產(chǎn)生的個(gè)人隱私泄露和虛假信息問(wèn)題,一方面,從數(shù)據(jù)算法設(shè)計(jì)出發(fā),通過(guò)大量的模擬預(yù)訓(xùn)練,加強(qiáng)算法技術(shù)中對(duì)數(shù)據(jù)的審核及過(guò)濾,使得數(shù)據(jù)的抓取和訓(xùn)練過(guò)程更加合規(guī)有序[10],防止未授權(quán)的個(gè)人信息被錄入,以降低個(gè)人信息泄露風(fēng)險(xiǎn)。另一方面,在數(shù)據(jù)算法應(yīng)用過(guò)程中,通過(guò)用戶的數(shù)據(jù)反饋,及時(shí)改進(jìn)數(shù)據(jù)算法的設(shè)計(jì),使生成式人工智能提高數(shù)據(jù)理解能力,不斷進(jìn)行優(yōu)化處理,糾正數(shù)據(jù)算法中違背道德倫理的信息。
生成式人工智能在發(fā)展和應(yīng)用過(guò)程中,應(yīng)當(dāng)彌合數(shù)字鴻溝,強(qiáng)化對(duì)用戶個(gè)人隱私的保護(hù),加強(qiáng)數(shù)據(jù)的真實(shí)可靠性。首先,針對(duì)城鄉(xiāng)數(shù)字鴻溝問(wèn)題,政府應(yīng)加快構(gòu)建鄉(xiāng)村數(shù)字化人才教育保障體系,促使鄉(xiāng)村居民認(rèn)識(shí)到數(shù)字化教育的重要性,同時(shí)實(shí)施人才激勵(lì)政策,吸引新青年返鄉(xiāng)創(chuàng)業(yè),從而提高鄉(xiāng)村數(shù)字化教育程度,縮小城鄉(xiāng)差距。其次,為保障系統(tǒng)和信息安全,應(yīng)根據(jù)生成式人工智能產(chǎn)業(yè)鏈的運(yùn)作流程明確上下游企業(yè)的相關(guān)義務(wù)與責(zé)任,上游企業(yè)負(fù)責(zé)維護(hù)生成式人工智能的系統(tǒng)安全,下游企業(yè)負(fù)責(zé)保障數(shù)據(jù)內(nèi)容的安全性和準(zhǔn)確性,同時(shí)上下游企業(yè)應(yīng)建立健全生成式人工智能中生成不符合倫理規(guī)范內(nèi)容的阻斷機(jī)制。生成式人工智能的上下游企業(yè)分工合作,共同保障用戶的個(gè)人隱私安全和所產(chǎn)生數(shù)據(jù)的真實(shí)性。
以ChatGPT 為代表的生成式人工智能的大規(guī)模興起,將對(duì)人們的生活和社會(huì)的發(fā)展產(chǎn)生巨大的影響。生成式人工智能和社會(huì)發(fā)展之間存在密切的關(guān)系,在推動(dòng)生成式人工智能發(fā)展的同時(shí),需要充分考慮其對(duì)社會(huì)發(fā)展的負(fù)面影響。面對(duì)新技術(shù)帶來(lái)的風(fēng)險(xiǎn),與其排斥,不如學(xué)會(huì)利用新技術(shù),化危為機(jī)迎難而上,充分發(fā)揮人類的主觀能動(dòng)性,將生成式人工智能掌握在自己手中。