【摘 要】 以ChatGPT為代表的生成式人工智能已然對當前社會各領域造成了巨大的影響和沖擊。通過回溯ChatGPT的發(fā)展歷程及其運作原理可以發(fā)現(xiàn),以ChatGPT為代表的生成式人工智能相比于傳統(tǒng)的人工智能具有擴展性、復合性以及涌現(xiàn)性等特征,將其運用于教育行業(yè)的過程中將帶來諸多機遇,包括個性化輔導、作文自動評分、語言翻譯、互動學習以及適應性學習等。但其在嵌入教育系統(tǒng)的過程中也容易產(chǎn)生缺少人際互動、理解能力有限、訓練數(shù)據(jù)導致的偏見、缺少創(chuàng)造性、對數(shù)據(jù)的依賴性、缺乏對背景的理解、個人化教學的能力有限以及學生喪失獨立思考能力等風險,因此需要構(gòu)建包括隱私保護原則、公平原則、透明性原則以及信息準確性原則在內(nèi)的風險規(guī)制原則,并明確當前的生成式人工智能仍然會因其無法全面理解具體的語境背景、缺乏獨立的思考能力、存在算法歧視風險等特點而具有很大的局限性,教育行業(yè)的相關使用者在使用過程中需要予以充分重視,并合理協(xié)調(diào)生成式人工智能與人類教師間的關系。
【關鍵詞】 生成式人工智能;教育行業(yè);ChatGPT;風險治理
【中圖分類號】 G647 【文章編號】 1003-8418(2023)08-0013-10
【文獻標識碼】 A 【DOI】 10.13236/j.cnki.jshe.2023.08.002
【作者簡介】 畢文軒(1992—),男,陜西西安人,東南大學法學院講師,人權研究院助理研究員、法學博士。
一、 引言
當下,機器學習的進展和擴展導致了更復雜的創(chuàng)新技術數(shù)字內(nèi)容生成,如生成式人工智能(Generative AI)[1]。生成式人工智能是一個無監(jiān)督或部分監(jiān)督的機器學習框架,它通過使用統(tǒng)計學、概率等生成人工遺跡[2]。不同于以往的人工智能,其不僅能夠提煉信息,還可以針對不同場景語境生成不同的文本內(nèi)容。隨著深度學習技術的進展,生成式人工智能可以利用現(xiàn)有的數(shù)字內(nèi)容(如視頻、圖像、文本、音頻)通過檢查訓練實例創(chuàng)建人工遺跡并學習其模式和分布[3]。作為生成式人工智能的典型,ChatGPT近來在全球范圍內(nèi)的熱度迅速攀升并引起包括新聞、教育、工程、金融、法律、醫(yī)學等各個領域的廣泛關注。其中,有關ChatGPT在教育領域的應用及其風險受到了更加廣泛的關注。例如,許多學校已經(jīng)明確表示不接受學生在其考試或日常作業(yè)中使用ChatGPT作答,否則將會以作弊論處[4]。對于在教育工作中使用ChatGPT及其前景的討論已然成一個爭議性話題:一些人認為ChatGPT和相關的生成式人工智能是教學和學習以及教育研究的未來,而另一些人則持懷疑態(tài)度并認為其會使教師和學生變得懶惰并逐漸喪失分析能力[5]。因此,本文希望借此機會就ChatGPT和相關生成式人工智能在推動教學方面的優(yōu)點與可能存在的缺點進行逐一分析,并就其應如何促進教學工作以及如何改進做出逐一闡述。
二、 生成式人工智能的技術背景與發(fā)展現(xiàn)狀
(一)ChatGPT的發(fā)展歷程
ChatGPT語言模型由OpenAI開發(fā),OpenAI被公認為是人工智能研究領域最有影響力的組織之一。OpenAI是一個人工智能研究實驗室,成立于舊金山,旨在促進和創(chuàng)造“友好的人工智能”以造福人類。OpenAI的使命宣言表明,該組織的最終目標是創(chuàng)造“人工通用智能”。人工智能有可能大大改善許多不同的行業(yè),OpenAI的創(chuàng)始人認為,應該安全和有益地開發(fā)人工智能,開放源碼軟件和先進的人工智能工具可以不受基于知識產(chǎn)權的限制。OpenAI在2019年之前曾以非營利性組織的形式運作,但目前已經(jīng)成為一家營利性公司。由于在2018年,微軟向OpenAI投資了10億美元,OpenAI則將其最新的語言模型GPT3完全授權給微軟。此后,微軟又對OpenAI追加了20億美元的投資并且還在討論將之后的投資數(shù)額再次追加到100億美元。
作為OpenAI研發(fā)核心的GPT架構(gòu)最初在2018年推出并作為該系統(tǒng)的基礎。GPT模型的第一個版本是通過利用被稱為變壓器的深度學習技術,對從互聯(lián)網(wǎng)上獲得的大量文本數(shù)據(jù)進行訓練,它能夠生成與人類書寫幾乎沒有區(qū)別的文本。因為第一版GPT模型取得了巨大的成功,OpenAI決定創(chuàng)建GPT2,并對GPT模型進行了大幅改進和更有彈性的迭代。盡管如此,OpenAI還是決定不向公眾提供GPT2的完整版本,因為人們擔心該模型可能會被不當使用。在2020年,OpenAI提供了GPT3語言模型供公眾使用,其也被認為是有史以來最先進的語言模型,可以執(zhí)行各種涉及自然語言處理的任務。自此,GPT家族已經(jīng)先后擁有GPT1、GPT2、GPT3以及圖像預訓練iGPT等模型。具體到ChatGPT,其最初的測試是基于GPT3協(xié)議的一個變體,并針對對話任務進行了優(yōu)化,故而當前的ChatGPT運行的模型本質(zhì)就是GPT3.5,其具有更加強大的運算參數(shù)并且更加智能。
(二) 生成式人工智能的工作原理與特征
根據(jù)現(xiàn)有文獻表明,主要的生成式人工智能包含兩種類型:生成式對抗網(wǎng)絡(Generative Adversarial Network,簡稱GAN)和生成式預訓練轉(zhuǎn)化器(Generative Pre-trained Transformer,簡稱GPT)[6]。目前,GAN是常用的生成建模人工智能技術,其使用生成器和判別器兩個神經(jīng)網(wǎng)絡。其具體操作原理為:生成器網(wǎng)絡生成合成數(shù)據(jù)(例如生成某人的面部圖像),然后判別器網(wǎng)絡檢查內(nèi)容的真實性以確定內(nèi)容是真實的還是虛假的(例如判斷人的圖像是真的還是假的)。這個驗證過程一直持續(xù)到判別器網(wǎng)絡無法對合成內(nèi)容和真實內(nèi)容進行進一步破譯為止,換言之,此時的合成內(nèi)容也即被識別為真實內(nèi)容[7]。通常在實踐中,GAN主要被用于語音、圖形和視頻生成[8]。另一方面,生成性預訓練轉(zhuǎn)化器(GPT)模型使用大量公開的數(shù)字內(nèi)容數(shù)據(jù)來生成若干種語言的類人化文本,并能在幾乎任何主題上通過一段話或完整研究文章的方式表現(xiàn)出令人信服的創(chuàng)造力。這些模型甚至能夠讓客戶參與到類似人類的對話中,如客服聊天機器人或視頻游戲中的虛構(gòu)人物[9]。本文所研究的ChatGPT便是后者,其自2022年11月30日首次發(fā)布以來,在一周內(nèi)便獲得了超過一百萬的用戶[10]。ChatGPT以其復雜的能力讓世界大吃一驚,并成為社交媒體和新聞機構(gòu)的最熱門話題。ChatGPT具有前所未有的能力,能夠完成非常復雜的任務,如撰寫文章、故事、詩歌、論文,能夠?qū)ξ谋具M行總結(jié)或擴展,調(diào)整文本以反映不同的觀點,甚至能夠撰寫和調(diào)試原始計算機代碼[11]。下文也將就ChatGPT的基本工作原理作出剖析。
1.ChatGPT的工作原理
ChatGPT是一個由OpenAI訓練的大型語言模型LLM(Large Language Model),是大模型在NLP(Natunal Language Processing)領域不斷發(fā)展的一種結(jié)果。所謂GPT即通過轉(zhuǎn)化器為基礎模型,使用預訓練技術得到通用的文本模型。ChatGPT被設計用來根據(jù)給定的提示或上下文語境生成類似人類的文本。它可以用于各種自然語言處理任務,如文本完成、對話生成和語言翻譯。根據(jù)OpenAI官方的原理介紹[12],ChatGPT的生成機制主要分為四個階段,具體如圖1所示。
首先,通過對人工智能進行數(shù)據(jù)喂養(yǎng)來鍛煉其自動生成后續(xù)文本的能力。在這一階段,主要是通過讓人工智能在通用的、海量的數(shù)據(jù)上學習文字接龍,即掌握基于前文內(nèi)容生成后續(xù)文本的能力。這樣的訓練不需要人類標注數(shù)據(jù),只需要給一段話的上文同時把下文遮住,將人工智能的回答與語料中下文的內(nèi)容做對比,就可以訓練人工智能。ChatGPT正是在GPT3.5模型上所做的優(yōu)化,而作為GPT系列的第三代,GPT3.5在萬億詞匯量的通用文字數(shù)據(jù)集上訓練完成,幾乎可以完成自然語言處理的絕大部分任務,例如日常生活中常見的完形填空、閱讀理解、語義推斷、機器翻譯等均是其體現(xiàn)。
其次,收集人類數(shù)據(jù)并進行有監(jiān)督的策略。單純依靠人工智能根據(jù)網(wǎng)絡數(shù)據(jù)進行自我學習的文字接龍會產(chǎn)生一個問題,即其仍不知道該如何給出對人更有用的回答。此時,為了解決這一問題,研究人員讓人類就一些問題寫出人工答案,這些問題和答案會交給GPT學習并優(yōu)化其模型。這便是有監(jiān)督訓練,即對于特定問題告訴人工智能人類認可的答案。這種方法可以引導人工智能往人類期望的方向去做文字接龍,也就是給出正確且有用的回答。通過這種有監(jiān)督訓練的方法,我們可以得到一個簡易版的ChatGPT模型。當然需要注意的是,這里并不需要人類窮舉出所有可能的問題和答案,實際上研究人員只提供了數(shù)萬條數(shù)據(jù)讓人工智能自己學習,因為GPT本來就有能力產(chǎn)生正確答案,只是尚不知道哪些是人類所需的。通過幾萬條數(shù)據(jù)的提供主要是為了告訴人工智能人類的喜好,并給其提供文字接龍方向上的引導。
再次,收集對比數(shù)據(jù)并訓練獎勵模型。由人來對其進行監(jiān)督固然有效,但考慮到人工智能的算力和人的精力相差太大,在客觀環(huán)境中無法永遠保障足夠的人為監(jiān)督。因此,找到合適的替代監(jiān)督機制便成為此階段重要的功能。在這一階段,研究人員讓GPT對特定問題給出多個答案,并由人類來對這些答案的好壞排序。因為相比直接給出答案,讓人類排序要簡單的多?;谶@些評價數(shù)據(jù),研究人員訓練了一個符合人類評價標準的獎勵模型。
最后,強化學習算法,針對獎勵模型優(yōu)化策略。這一階段人工智能在進行自我學習的過程中,不斷地根據(jù)獎勵模型的反饋來優(yōu)化自身的產(chǎn)出結(jié)果,以實現(xiàn)通過GPT的自我學習與優(yōu)化。具體而言,ChatGPT在得到一個問題后會產(chǎn)生一個回答,然后讓獎勵模型給這個回答一個評分,ChatGPT會基于評分去調(diào)整參數(shù)以便在下次問答中獲得更高分,再不斷重復這個過程,ChatGPT的交流能力就得到了極大的提高和改進。
綜上,ChatGPT具有很強的互動性,不僅能夠就廣泛的話題進行類人化的真實對話,而且還能產(chǎn)生令人信服的創(chuàng)意內(nèi)容。正是ChatGPT在教育領域執(zhí)行復雜任務的非凡能力,使其在教育工作者中引起了不同的感受,因為人工智能的這一進步似乎會徹底改變現(xiàn)有的教育實踐。
2.以ChatGPT為代表的生成式人工智能之特征分析
相比于傳統(tǒng)的弱人工智能,以ChatGPT等大模型為代表的生成式人工智能正在向強人工智能邁出堅實的一步。生成式人工智能通常具有擴展性、復合性以及涌現(xiàn)性等三個顯著特點,這也正是生成式人工智能所體現(xiàn)出的技術革新。
(1) 擴展性。對于生成式人工智能而言,其通??梢杂行е沃悄芙K端、平臺、系統(tǒng)等產(chǎn)品應用落地,此舉有利于解決壁壘多、部署難等問題。這一點正是傳統(tǒng)的人工智能所欠缺的,因為傳統(tǒng)的弱人工智能運行通常需要建立在一個相對穩(wěn)定且單一的環(huán)境中,如果擅自更換環(huán)境背景,那么將會對它的正常運行及其效果造成極大的影響。
(2) 復合性。對于生成式人工智能而言,其通常會在海量通用數(shù)據(jù)上預訓練以具備多種基礎能力,此舉有助于擺脫傳統(tǒng)人工智能碎片化、作坊式開發(fā)的局限。因為對于傳統(tǒng)人工智能的訓練,通常是研究者對其進行特定數(shù)量的數(shù)據(jù)輸入或者為其訓練的數(shù)據(jù)抓取范圍作出限定(也即“小模型”)。相比于更加復雜不易控制的大模型,由于小模型具有相對較高的可解釋性與穩(wěn)健性,故而在之前很長一段時間內(nèi)受到廣泛追捧。訓練的規(guī)模有限導致了人工智能在自我學習的過程中雖然可以通過數(shù)據(jù)的不斷積累而獲得一定程度的迭代升級,但始終難以擺脫人類的控制和引導,這會影響其向更高級別的智能化進行迭代,不利于增強人工智能的能力。
(3) 涌現(xiàn)性。在新的模型結(jié)構(gòu)涌現(xiàn)與算力提升的背景下,生成式人工智能可以通過有效集成自然語言處理等多個人工智能核心研究領域的多項技術,實現(xiàn)融合式涌現(xiàn)的效果。生成式人工智能可以通過從海量的、多類型的場景數(shù)據(jù)中學習,并總結(jié)不同場景和業(yè)務下的通用能力,學習出一種特征和規(guī)則,使其成為具有泛化能力的模型底座。基于大模型進行應用開發(fā)或面對新的業(yè)務場景時,將大模型進行微調(diào),或不進行微調(diào),就可以完成多個應用場景的任務,實現(xiàn)通用的智能。由此利用大模型的通用能力可以有效地應對多樣化、碎片化的人工智能應用需求,為實現(xiàn)大規(guī)模推廣人工智能落地應用提供可能[13]。
(三) 生成式人工智能的發(fā)展現(xiàn)狀與趨勢
目前有關生成式人工智能的發(fā)展可謂如火如荼,眾多科技企業(yè)爭相在此投資并取得了一定的成果。除了OpenAI推出的ChatGPT以外,DeepMind、谷歌、Meta和其他主體也都開發(fā)了自己的語言模型并在大模型上進行了進一步的布局與投資。在國內(nèi),超大模型研發(fā)異常迅速,2021 年,商湯、華為云、阿里達摩院、百度、浪潮信息等公司相繼發(fā)布大規(guī)模預訓練模型,而阿里達摩院的M6模型參數(shù)達到10萬億,將大模型參數(shù)直接提升了一個量級。2022年,基于清華大學、阿里達摩院等研究成果以及超算基礎實現(xiàn)的“腦級人工智能模型”八卦爐(BAGUALU)完成建立,其參數(shù)模型突破了 174 萬億個,完全可以與人腦中的突觸數(shù)量相媲美。
隨著ChatGPT取得的巨大成功,生成式人工智能將迎來新一輪的發(fā)展并可以在多個領域?qū)崿F(xiàn)新的價值。例如在搜索引擎領域,ChatGPT與搜索引擎的結(jié)合似乎已經(jīng)不可避免,基于搜索引擎為ChatGPT提供生成結(jié)果證據(jù)展示以及利用檢索的新知識擴展ChatGPT的回答邊界已經(jīng)是可以預見并正在進行的結(jié)合方向。換言之,ChatGPT有很大可能會在將來實現(xiàn)對搜索引擎的替代,并成為人們?nèi)粘I暇W(wǎng)搜索的重要工具。也正因如此,ChatGPT一經(jīng)推出便有報道稱,Google擔心ChatGPT可能會打破其搜索引擎的使用方式和市場格局而拉響了紅色警報,并加快內(nèi)測自己的類ChatGPT產(chǎn)品Bard。同樣地,在泛娛樂行業(yè)中ChatGPT也發(fā)揮著越來越大的作用。無論是其創(chuàng)建更智能的游戲虛擬人物與玩家進行交流提升體驗,抑或是利用虛擬數(shù)字人進行虛擬主播直播互動,ChatGPT都為機器提供了更加智能且更趨同于人類的“大腦”,使得整個行業(yè)的發(fā)展?jié)摿Ω泳薮?。類似的也發(fā)生在教育行業(yè),許多學生開始利用ChatGPT完成老師布置的論文和作業(yè),甚至有些還獲得了不錯的分數(shù)[14]。這也使得許多學校和機構(gòu)明文規(guī)定禁止使用ChatGPT完成作業(yè)、考試或者論文等[15],否則即按照作弊論處。當然,ChatGPT未來可以運用的場景非常多元,既包括其獨立使用又包括與其他的應用結(jié)合后的再次運用,這些都會進一步加速人工智能的社會化發(fā)展進程。
三、 生成式人工智能為教育行業(yè)帶來的機遇與風險
(一) 生成式人工智能為教育帶來的機遇
ChatGPT能夠?qū)懽魑牡氖聦崬樵诮逃h(huán)境中使用新鮮和創(chuàng)新的方法鋪平了道路。該領域的許多專家學者認為,人工智能技術將很快成為教育的一個重要組成部分,他們建議利用技術來加強學習[16]。改善評估程序的一個方法是為教師提供他們所需的工具,使他們既把測試作為學習的工具,又把它作為學習本身的一種手段。此外,ChatGPT可以被用來建立教學方法,促進學生的參與和團隊合作,并促進實踐、體驗式學習。ChatGPT有可能成為教育領域的一個強大工具,并為教育系統(tǒng)的現(xiàn)代化提供巨大的機會,其具體可能帶來的機遇如下所述。
1.個性化輔導。ChatGPT可以用來根據(jù)學生的個人學習需求和進展,為他們提供個性化的輔導和反饋。一項研究表明,基于生成模型(ChatGPT)的對話代理可以為學生提供個性化的數(shù)學輔導,從而提高學習效果[17],對話代理能夠提供針對學生錯誤觀念的解釋,并能夠適應他們的理解水平。
2.作文自動評分。ChatGPT可以被訓練成對學生作文進行評分,為教師提供更多時間來關注教學的其他方面。Kim等學者通過一項研究表明,在人類評分的論文數(shù)據(jù)集上訓練的生成模型(ChatGPT)可以準確地為高中生寫的論文評分,與人類評分的相關度為0.86[18],該模型能夠識別寫得好的文章的關鍵特征,并能夠提供與人類評分員類似的反饋。
3.語言翻譯。ChatGPT可用于將教育材料翻譯成不同的語言,使其更容易被更多人接受。Johnson等學者通過一項研究表明,在雙語句子對數(shù)據(jù)集上訓練的ChatGPT可以準確地進行語言間的翻譯,在幾個翻譯基準上取得了最先進的結(jié)果[19],該模型能夠理解一種語言的句子的含義,并能生成另一種語言的準確翻譯。
4.互動學習。ChatGPT可用于創(chuàng)建互動學習體驗,學生可以以對話方式與虛擬導師進行互動。Peng等學者通過一項研究表明,基于生成模型的對話代理可以為學習英語作為第二語言的學生提供有效支持,從而提高語言能力,該代理能夠理解學生的問題,并提供適當和相關的回應[20]。
5.適應性學習。ChatGPT可以用來創(chuàng)建自適應學習系統(tǒng),根據(jù)學生的進度和表現(xiàn)來調(diào)整其教學方法。Chiang等學者通過一項研究表明,基于ChatGPT的自適應學習系統(tǒng)可以為學生學習編程提供更有效的支持,從而提高編程評估的成績。該模型能夠理解學生的知識,并相應地調(diào)整其生成的問題的難度[21]。此外,一些教育工作者已經(jīng)開始測試ChatGPT的效率,將其整合到他們的教育活動中(如研究、教學、評估),并發(fā)現(xiàn)通過某些任務和流程的自動化,ChatGPT能夠為其他重要活動節(jié)省時間,例如花更多的時間與學生相處[22]。
綜上不難看出,ChatGPT有可能成為一個強大的工具,通過提供個性化輔導、論文自動評分、語言翻譯、互動學習和自適應學習來提高教學水平。使用ChatGPT可以提高教師的評價能力,激發(fā)學生之間的合作和團隊精神,讓學生有更多機會通過試驗和經(jīng)驗來學習。具體而言,ChatGPT是一項被認為在教育領域具有顛覆性的技術,它有可能通過創(chuàng)新改變教育。
(二) 生成式人工智能為教育帶來的風險
當然,ChatGPT也被認為是一種破壞性的技術,對其不當?shù)氖褂糜锌赡軙楫斍暗慕逃到y(tǒng)帶來一定的風險。
1. 缺少人際互動。ChatGPT和其他生成模型無法提供與真正的教師相同水平的人際互動,這對于那些可能從與教師的個人聯(lián)系中獲益更多的學生來說是一個不利因素。研究發(fā)現(xiàn),與模仿人類情感行為的虛擬導師互動的學生,比與缺乏這種行為的虛擬導師互動的學生有更好的學習效果[23]。
2. 理解能力有限。生成模型是基于它們所訓練的數(shù)據(jù)中的統(tǒng)計模式,對幫助學生學習的概念并沒有真正的理解。在提供針對學生個人需求和錯誤概念的解釋或反饋時,其可能會提供一個不相干或者完全錯誤的答案。
3. 因訓練數(shù)據(jù)存在缺陷而導致偏見。生成模型的好壞取決于其所訓練的數(shù)據(jù),如果數(shù)據(jù)包含偏見,模型自然也會有偏見。例如,如果一個模型是在主要由某一類群體學生撰寫的論文數(shù)據(jù)集上訓練所得,那么它可能無法準確地對其他類群體學生撰寫的論文進行評分。如果訓練生成式人工智能的數(shù)據(jù)存在偏見或歧視,那么在互聯(lián)網(wǎng)上的大型文本語料庫上訓練的生成模型在其語言生成中會表現(xiàn)出性別、種族、宗教等方面的偏見。
4. 缺少創(chuàng)造性。生成式模型只能根據(jù)它們在訓練期間看到的數(shù)據(jù)模式來生成反應,這可能會限制其反應的創(chuàng)造性和原創(chuàng)性。例如,基于生成模型的音樂創(chuàng)作系統(tǒng)產(chǎn)生原創(chuàng)和多樣化旋律的能力有限。
5. 對數(shù)據(jù)的高度依賴性。生成式模型是在大量的數(shù)據(jù)上訓練的,模型的質(zhì)量高度依賴數(shù)據(jù)的質(zhì)量和數(shù)量。如果數(shù)據(jù)不充分或不相關,模型的表現(xiàn)就不會很好。當訓練數(shù)據(jù)與當前的任務不相關時,基于生成模型的問題回答系統(tǒng)表現(xiàn)不佳。
6. 缺乏對具體場景語境下的恰當理解。生成式模型缺乏理解語境和情況的能力,這可能導致不適當或不相關的反應,因為基于生成式模型的對話系統(tǒng)在對話中理解和產(chǎn)生符合語境的反應能力有限。
7. 個性化教學的能力有限。雖然ChatGPT和其他生成式人工智能模型可以提供一般的信息和幫助,但它們可能無法實現(xiàn)個性化教學以滿足特定學生的個人需求。
8. 易導致學生喪失獨立思考的能力。由于ChatGPT具有強大的語言生成能力,一些教育工作者擔心如果不對其使用加以限制,學生們將他們的作業(yè)外包給ChatGPT的現(xiàn)象將越發(fā)嚴重。同時,由于ChatGPT本身擁有的海量數(shù)據(jù)庫訓練,也使得識別抄襲的過程變得更加困難,并引起了一些教育工作者的擔憂[24]。
需要注意的是,ChatGPT和其他生成式人工智能模型是強大的工具,但它們不能取代人類教師。重要的是要負責任地使用這些工具,并與人類指導和支持相結(jié)合??偟膩碚f,雖然像ChatGPT這樣的生成式人工智能模型可以成為加強教學和學習的有力工具,但重要的是要意識到它們的局限性,并與其他強調(diào)人際互動和理解的教學方法一起使用。綜上,ChatGPT實際上只是一個文本生成器,它既不掌握生成的信息,又不判斷是否準確或相關。故而在未來相關的教育主管部門和立法機構(gòu)很可能會有許多專門性的法律法規(guī)對ChatGPT等生成式人工智能的使用加以限制,只是任何規(guī)范的制定都需要通盤考慮被規(guī)制客體的優(yōu)勢和風險(如圖2),以便最大限度地降低風險帶來的負面效應。
四、 生成式人工智能的風險回應
為了確保ChatGPT的使用方式對學生、教師和所有其他利益相關者的安全和公平,在教育環(huán)境中實施該技術時,有必要構(gòu)建相應的風險規(guī)制原則,并具體制定相應的規(guī)范來重塑行為的責任性和道德取向。
(一)生成式人工智能的風險回應之基本原則構(gòu)建
對于生成式人工智能可能產(chǎn)生的風險進行規(guī)制,要建立在隱私保護原則、公平原則、透明性原則以及信息準確性原則等四項原則基礎之上。
1.隱私保護原則
保護用戶的數(shù)據(jù)隱私是合理使用ChatGPT的前提。因為ChatGPT是通過從互聯(lián)網(wǎng)上獲得的大量數(shù)據(jù)進行訓練的,所以必須確保學生的個人數(shù)據(jù)得到保護且不得被用于不合法的用途。此外,學生應該了解為保護個人數(shù)據(jù)所采取的安全措施。當涉及ChatGPT在教育領域的應用時,必須始終保護所有參與教育過程的個人(包括學生、教師和其他任何人)的隱私。我國《民法典》第111條以及《個人信息保護法》第2條均規(guī)定了自然人的個人信息應當受法律保護。歐洲的《一般數(shù)據(jù)保護條例》(GDPR)和美國的《兒童在線隱私保護法》(COPPA)也都要求各組織保護個人的數(shù)據(jù)[25]。這些法律的相似之處在于,它們要求各組織盡其所能保護個人數(shù)據(jù),這就包括了通過在教育環(huán)境中使用ChatGPT收集的學生信息、成績和評估結(jié)果。
為了維護相關個人的隱私,有必要明確生成式人工智能的制造者需要采取必要措施,以防止未經(jīng)授權訪問、使用或披露有關信息。這也就要求在教育環(huán)境中使用ChatGPT等生成式人工智能時,應以符合道德原則的方式進行構(gòu)思和實施,有必要采取適當?shù)谋U洗胧?,以保護參與教育過程的個人信息安全并確保ChatGPT的使用符合道德原則,例如構(gòu)建知情同意、透明度和問責制等具體規(guī)則。
2.公平原則
由于訓練ChatGPT時所使用的數(shù)據(jù)來自研究人員的輸入,如果被選擇用來訓練的數(shù)據(jù)具有一定偏見,那么極可能會造成使用ChatGPT的主體受到歧視。同時,類似ChatGPT這樣的生成式人工智能算法還會進一步延續(xù)和放大現(xiàn)有的偏見和歧視[26],所以只要在教育環(huán)境中使用ChatGPT,就必須嚴格遵守公平和非歧視的原則,確保ChatGPT和其他人工智能系統(tǒng)在整個過程的每個階段都以公平和非歧視性的方式進行構(gòu)思、開發(fā)和使用,以避免學生可能會受到不平等的待遇。例如,考慮到使用ChatGPT給學生作文分配分數(shù)的可能性,來自代表性不足群體的學生可能會因為用于訓練ChatGPT的數(shù)據(jù)偏向于某類人群而使他們的論文得到不公正的評分。這可能導致這些在教育方面已經(jīng)處于劣勢的人群更加邊緣化,并可能進一步加劇現(xiàn)有的教育差距。此外,ChatGPT等語言模式還可能會傳播和放大歧視和偏見,這也是使用生成式人工智能所帶來的又一風險。例如,如果用來訓練它的數(shù)據(jù)對特定群體存在不利的偏見,在ChatGPT不斷自我學習的過程中此種偏見會被不斷強化,導致相關的學生所遭受到的歧視可能會愈發(fā)嚴重。因此,應為ChatGPT等生成式人工智能提供一個合適公平的使用環(huán)境,并應提示相關的教育工作者注意當ChatGPT被用作學生的評分或評價工具時可能導致潛在的歧視傷害。具體而言,無論學生的膚色、性別或社會經(jīng)濟背景等有何不同,都不應因為使用ChatGPT而受到偏見、歧視或不公平的待遇。
3.透明性原則
在教育環(huán)境中使用ChatGPT時,需要遵守透明性原則的要求。因為它不僅有助于培養(yǎng)使用者對技術負有道德和責任意識,還能讓學生更好地理解ChatGPT能力和限制。這會使學生有能力以知情的方式使用ChatGPT,同時也確保該技術的使用方式是符合他們所在教育機構(gòu)的核心價值和指導原則。在教育過程中實施生成式人工智能技術之前,使用主體必須了解ChatGPT等人工智能技術是如何處理信息和創(chuàng)造反饋的,這有助于消除可能出現(xiàn)的誤解或分歧并確保該技術的使用符合道德和責任方面的要求[27]。具體而言,透明性原則要求技術開發(fā)者告知使用者該技術使用的算法和數(shù)據(jù)來源,以及描述它是如何處理和制造反饋機制,例如為學術機構(gòu)及相關學生和教師提供指導材料或指南。此外,教育機構(gòu)還需要把利用開源或透明的生成式人工智能技術作為優(yōu)先事項,以確保學生和教師能夠獲得源代碼和基礎數(shù)據(jù)。這可以通過將采用開源或透明的人工智能技術作為優(yōu)先事項來實現(xiàn),向?qū)W生明確解釋關于課堂上使用技術的潛在偏見和局限性。例如,必須讓學生意識到生成式人工智能算法只有在它們被訓練的數(shù)據(jù)是客觀中立時才是客觀的,否則該技術產(chǎn)生的反饋很容易反映出訓練數(shù)據(jù)中可能帶有的偏見。如果學生了解了ChatGPT中的限制條件及其適用情況,他們便可以更好地對其產(chǎn)生的反饋機制進行批判性分析和理解。當然,為確保在教育過程中實施ChatGPT具有的持續(xù)開放性和透明性,可以通過搭建交流平臺的方式以使師生就生成式人工智能的合道德性與責任邊界展開討論。但核心仍在于,在教育中使用ChatGPT時需要使用者了解其潛在的偏見和局限性,例如學生數(shù)據(jù)的安全性、使用的透明度并就其對教學過程的影響進行批判性評估。教育者的作用是幫助學生了解生成式人工智能并對其產(chǎn)生的觀點進行批判性思考,而并非通過生成式人工智能技術來取代教育工作者的作用。
4.信息準確性原則
信息準確性原則是規(guī)范ChatGPT等生成式人工智能在教育領域適用的重要原則,其作用在于可以保證教育環(huán)節(jié)中所教和所學的材料是準確的、值得信賴的和可信的。因為當涉及科學原理的教學時,提供準確的信息是相當必要的,如果提供不準確的材料可能會導致誤解和錯誤的認識。如果在訓練ChatGPT時對其喂養(yǎng)的數(shù)據(jù)缺乏必要的準確性,那么通過其向?qū)W生展示的內(nèi)容將可能嚴重失實,這對于判斷能力尚且有限的學生而言將會產(chǎn)生極大的影響。例如,如果ChatGPT在訓練時使用的數(shù)據(jù)忽略或者歪曲了某些重要的歷史事實,那么將可能會影響學生世界觀、價值觀和歷史觀的形成。因此,必須確保ChatGPT以及教育過程中使用的任何其他工具所提供的信息是準確的。當涉及他們所獲得的信息時,教師和學生不能盲目跟從,而需要進行批判性思考并與可靠的來源進行核對。
(二) 生成式人工智能在教育中的作用反思
當前的生成式人工智能仍不能代替人類教師的作用。近來,關于生成式人工智能在課堂環(huán)境中的應用已經(jīng)有很多討論。但需要注意的是,盡管ChatGPT等生成式人工智能可以為教育環(huán)境的改善提供許多機會,但其本身并不能取代實際生活中的教師角色。由于教師和學生之間的關系是教育過程中最重要的組成部分,一方面,教師可以與學生建立聯(lián)系,了解學生的特殊要求以及他們的優(yōu)勢和劣勢[28];另一方面,生成式人工智能本質(zhì)上是一個人工智能語言模型,并不具備人類教師的情商、同理心以及人際交往能力,故而也就無法與學生建立起有意義的聯(lián)系。教育的目標不應局限于信息的傳播,還應該包括培養(yǎng)人際關系的紐帶,發(fā)展學生的創(chuàng)造性和批判性思維能力,并提供個性化的支持和指導[29]。同時,教師也可以通過在課堂上建立一種鼓勵和包容學生的氛圍,并為學生提供創(chuàng)造性或批判性的思考方式。這些作為人類教師最重要的品質(zhì),恰恰是受到編程和算法限制的生成式人工智能所無法實現(xiàn)的。
當前的生成式人工智能還無法完全理解不同學生的教育背景并提供最適宜的教育模式。由于ChatGPT等生成式人工智能只是一個模型,其是按照預先編程的算法運作,不具備人類導師所具有的創(chuàng)造力。但在教育領域,對學生所處的環(huán)境有一個扎實的了解,以提供最相關的幫助和指導往往是至關重要的[30]。這種背景往往需要考慮到學生的文化背景和人生經(jīng)歷。很顯然,當前如ChatGPT等生成式人工智能還只能被作為一臺機器,因為它并不能像教師那樣理解或欣賞個體因素與條件。具體而言,其既無法給學生提供實踐培訓,又不能提供體驗式教育的機會。此外,當前的生成式人工智能還缺乏引導學生創(chuàng)意和構(gòu)想的能力。換言之,創(chuàng)意和發(fā)明都是人類智慧的最重要體現(xiàn),生成式人工智能雖然看起來很智慧,但其都是因為建立在人類為其輸入大量數(shù)據(jù)的基礎之上。因此,當前的生成式人工智能暫時還無法形成自我的創(chuàng)意、構(gòu)想或發(fā)明,但人類教師卻可以通過開發(fā)有趣的課程、采用獨特的教學方法、鼓勵學生跳出既有思維框架進行批判性和創(chuàng)造性的思考等方式來促進學生創(chuàng)意的萌發(fā)。僅就這一點而言,當前的生成式人工智能仍然無法獨立于人類教師而存在。
生成式人工智能的使用者應當認識到它的局限性而不能對其盲從。由于ChatGPT等生成式人工智能是基于大量來自互聯(lián)網(wǎng)的數(shù)據(jù)而訓練產(chǎn)生的,其中勢必可能包含許多不可靠的、有偏見的或欺騙性的信息,這些將會嚴重影響其結(jié)果產(chǎn)生的真實性和可靠性。因此,生成式人工智能的使用者需要對其產(chǎn)生的數(shù)據(jù)進行深入辯證分析和批判性思考,理解如何區(qū)分真實和不可靠的信息來源。此外,作為生成式人工智能使用者的學生需要了解其可能帶來的潛在道德風險和社會影響。例如,如果生成式人工智能存在算法歧視,那么通過其評估不同身份背景學生的作業(yè)并向他們提供的反饋,就很可能存在極大的不公平,且這種歧視現(xiàn)象又因為隱蔽而難以被發(fā)現(xiàn),故而可能會給學生帶來長期的影響。當然,教育工作者可以通過向?qū)W生講授生成式人工智能的局限性和風險,讓學生了解人工智能的局限性,對于發(fā)展其批判性思維、促進人工智能更符合道德規(guī)范和責任要求,以及使學生具備駕馭快速變化的技術環(huán)境所需的技能和知識而言具有重要的作用。
五、 結(jié)語
當前,我們已經(jīng)無法對以ChatGPT為代表的生成式人工智能時代的到來視而不見,雖然有很多人仍在奮力疾呼要求學校全面禁止學生使用ChatGPT,但從長期的發(fā)展來看這并非是一條行之有效的方法,因為學生總是會有辦法接觸并使用這些人工智能產(chǎn)品[31]。因此,我們當下需要做的便是積極擁抱因新技術產(chǎn)生而帶來的變化,并將其在教育實踐中所可能產(chǎn)生的副作用盡可能降低,以更好地服務于教育工作者。具體而言,這其中就會涉及如何協(xié)調(diào)生成式人工智能與人類教師之間的關系,采取必要的措施以減少其運作過程中可能產(chǎn)生的算法偏見或算法歧視風險,以便更好地促進學生批判性思考和獨立尋找問題解決方案的能力,而這些應當如何落地踐行仍有待持續(xù)深入的研究。
【參考文獻】
[1][7]Luhui Hu. Generative AI and Future[EB/OL].(2022-07-17)[2023-02-11]. https://pub.towardsai.net/generative-ai-and-future-c3b1695876f2.
[2]Mlaan Jovanovió, Mark Campbell. Generative Artificial Intelligence: Trends and Prospects[J].Computer,2022,55(10):107-112.
[3]Mohanad Abukmeil, Stefano Ferrari, Angelo Genovese, et al. A Survey of Unsupervised Generative Models for Exploratory Data Analysis and Representation Learning[J].ACM Computing Surveys,2021,54(05):1-40.
[4]香港大學宣布禁用!ChatGPT是否應被視為“教學公敵”?[EB/OL].(2023-02-20)[2023-02-16]. https://www.baidu.com/link?url=oGHPLj5gIrAv4Zu2l-Bu0gBHPwhFDnM7ajuivsUYJB1Petxc-Slu1XV6rCSlqzmHPc3_7FntwUI6ozKNDkcd5wnwMxx7v4AreOjwKDkIALOamp;wd=amp;eqid=8569819a000421fd0000000664126b97.
[5]狼來了?ChatGPT 引教育界“封殺”[EB/OL].(2023-02-12)[2023-02-01]. https://china.huanqiu.com/article/4Bfudc87V16.
[6]Jie Gui, Zhenan Sun, Yonggang Wen, A Review on Generative Adversarial Networks:Algorithms, Theory, and Applications[J]. IEEE Transactions on Knowledge and Data Engineering,2023,35(04):3313-3332.
[8]人工智能生成內(nèi)容(AIGC)白皮書(2022年)[EB/OL].(2022-07-17)[2023-02-17].http://www.caict.ac.cn/sytj/202209/P020220913580752910299.pdf.
[9]Aydln, mer., Karaarslan, Enis. OpenAI ChatGPT Generated Literature Review: Digital Twin in Healthcare[EB/OL].(2022-12-28)[2023-02-17].https://ssrn.com/abstract=4308687.
[10]Steve Mollman. ChatGPT Gained 1 Million Users in Under a Week. Here’s Why the AI Chatbot is Primed to Disrupt Search as We Know It[EB/OL].(2022-12-09)[2023-02-17].https://finance.yahoo.com/news/chatgpt-gained-1-million-followers-224523258.html.
[11]Tate, Tamara P., Shayan Doroudi, Daniel Ritchie, et al. Educational Research and AI-Generated Writing: Confronting the Coming Tsunami[EB/OL].(2023-01-31)[2023-03-01].https://doi.org/10.35542/osf.io/4mec3.
[12]OpenAI. Introducing ChatGPT[EB/OL].(2022-12-30)[2023-02-21]. https://openai.com/blog/chatgpt.
[13]2023年人工智能行業(yè)專題報告 大模型是人工智能的發(fā)展趨勢和未來[EB/OL].(2023-02-08)[2023-03-06].https://www.vzkoo.com/read/20230208ffa2ea195f3e341a1793c69e.html.
[14]AI作弊寫出全班最佳論文!老師被迫改線下手寫筆試!AI這是要瘋?。。跡B/OL].(2023-03-07)[2023-03-08].https://www.sohu.com/a/650990881_121124406.
[15]NYC Education Department Blocks ChatGPT on School Devices, Networks.[EB/OL].(2023-01-06)[2023-03-09].https://www.nbcnews.com/tech/tech-news/new-york-city-public-schools-ban-chatgpt-devices-networks-rcna64446.
[16]Mhlanga, David. Human-centered Artificial Intelligence: The Superlative Approach to Achieve Sustainable Development Goals in the Fourth Industrial Revolution[J]. Sustainability,2022,14(13): 7804.
[17]Cai, William, Hao Sheng,Sharad Goel. MathBot: A Personalized Conversational Agent for Learning Math[EB/OL].[2023-03-08].https://www.semanticscholar.org/paper/MathBot%3A-A-Personalized-Conversational-Agent-for-Cai-Sheng/ff7cbcbd1c874cbc48ad06e0938612d3ea46fdd4.
[18]Kim, S., Park, J., Lee, H. Automated Essay Scoring Using a Deep Learning Model[J]. Journal of Educational Technology Development and Exchange, 2019,2(01):1-17.
[19]Yonghui Wu, Mike Schuster, Zhifeng Chen,et al. Google's Neural Machine Translation System: Bridging the Gap Between Human and Machine Translation[EB/OL].(2016-10-08)[2023-03-08]. https://arxiv.org/abs/1609.08144.
[20]Zhou Guangyou, Peng Yehong, Fang Yizhen, et al. Neural Conversation Generation with Auxiliary Emotional Supervised Models[J]. ACM Transactions on Asian and Low-Resource Language Information Processing,2019,19(02): 1-17.
[21]Sehwag Vikash, Chiang Mung, Mahloujifar Saeed, et al. Robust Learning Meets Generative Models: Can Proxy Distributions Improve Adversarial Robustness?[J]. arXiv preprint arXiv, 2021.
[22]Christian Terwiesch. Would Chat GPT3 Get a Wharton MBA? A Prediction Based on Its Performance in the Operations Management Course. Mack Institute for Innovation Management at the Wharton School: University of Pennsylvania[EB/OL].(2023-01-17)[2023-03-12]. https://mackinstitute.wharton.upenn.edu/wp-content/uploads/2023/01/Christian-Terwiesch-Chat-GTP.pdf.
[23]D'Mello, S., Craig, S., Witherspoon, A., et al. Affective and Learning-related Dynamics During Interactions with an Intelligent Tutoring System[J]. International Journal of Human-Computer Studies, 2023,72(06):415-435.
[24]Jürgen Rudolph, Samson Tan, Shannon Tan.ChatGPT: Bullshit Spewer or the End of Traditional Assessments in Higher Education?[J]. Journal of Applied Learning and Teaching,2023, 6(01):14-17.
[25]Da Veiga, A., Vorster, R., Li, F., et al. Comparing the Protection and Use of Online Personal Information in South Africa and the United Kingdom in Line with Data Protection Requirements[J]. Information and Computer Security, 2019, 28(03):399-422.
[26]張恩典.超越算法知情權:算法解釋權理論模式的反思與建構(gòu)[J].東南法學,2022(01):1-17.
[27]Waymond Rodgers, James M. Murray, Abraham Stefanidis, et al. Tarba. An Artificial Intelligence Algorithmic Approach to Ethical Decision-making in Human Resource Management Processes[J]. Human Resource Management Review, 2023, 33(01):1-19.
[28]Attard C, Holmes K. An Exploration of Teacher and Student Perceptions of Blended Learning in four Secondary Mathematics Classrooms[J]. Mathematics Education Research Journal, 2022, 34(04): 719-740.
[29]Kim, Jinyoung. Learning and Teaching Online During Covid-19: Experiences of Student Teachers in an Early Childhood Education Practicum[J]. International Journal of Early Childhood, 2020, 52(02): 145-158.
[30]Mahoney, Joseph L., Weissberg, Roger P., et al.Systemic Social and Emotional Learning: Promoting Educational Success for all Preschool to High School Students[J]. American Psychologist, 2021, 76(07): 1128-1142.
[31]儲舒婷. ChatGPT 火熱“出圈”,我們?nèi)绾螒獙π绿魬?zhàn)[N]. 文匯報, 2023-02-05.
基金項目:國家社科基金重大項目“數(shù)字網(wǎng)絡空間的知識產(chǎn)權治理體系研究”(19ZDA164)。
Challenges and Responses of Generative Artificial Intelligence to theEducation Industry: Taking ChatGPT as the Object of Analysis
Bi Wenxuan
Abstract: Generative AI, represented by ChatGPT, has already caused a huge impact on various fields. By looking back at the development of ChatGPT and its operation principle, we can see that the generative AI represented by ChatGPT is scalable, composite and emergent compared with traditional AI, and its application in the education industry may bring many opportunities, including personalized tutoring, automatic essay scoring, language translation, interactive learning and adaptive learning. However, there are also risks associated with its embedding in education systems, such as lack of human interaction, limited understanding, bias due to training data, lack of creativity, dependence on data, lack of contextual understanding, limited ability to personalize instruction, and loss of independent thinking. Therefore, it is necessary to construct risk regulation principles including privacy protection principle, fairness principle, transparency principle, and information accuracy principle, and to clarify that the current generative AI still has great limitations due to its inability to fully understand specific contextual background, lack of independent thinking ability, and risk of algorithmic discrimination, etc., and relevant users in the education industry need to pay full attention to it in the process of use. The relationship between generative AI and human teachers also needs to be coordinated.
Key words: generative artificial intelligence; education industry; ChatGPT; risk governance
(責任編輯 楊國興)