摘 要:大規(guī)模預訓練語言模型以學生主動使用為渠道入局高等教育,引發(fā)知識、誠信、價值觀多重危機。其本身巨大的應用前景和海量用戶的既定事實,表明封禁排異已不可行;現(xiàn)有產品尚處于快速迭代期,加之缺乏成熟的治理方案,因而鼓勵推廣亦為時過早。對大模型的規(guī)制應樹立“放管結合”的立場,堅持有所為、有所不為。一方面,公權力機關宜克制規(guī)制沖動、適當放任觀望,僅對部分確有必要的事項精確管治;另一方面,鼓勵教師、學生、企業(yè)等私主體探索自治舉措,引導大模型正向賦能高等教育。未來“師—生—機”三位一體的教育模式中,教師的中心地位非但不會削弱,反將得到增強。
關鍵詞:大規(guī)模預訓練語言模型;高等教育;ChatGPT;人工智能
中圖分類號:G649.2"" 文獻標識碼:A"" 文章編號:1673-1794(2024)03-0102-09
作者簡介:陳心哲,安徽財經大學法學院講師,博士,研究方向:刑法學(安徽 蚌埠 233030)。
科技變革與教育變革之間始終存在著密切關聯(lián)。自OpenAI公司推出的大規(guī)模預訓練語言模型(以下簡稱大模型)ChatGPT風靡全球以來,微軟、百度、訊飛等一眾互聯(lián)網龍頭企業(yè)爭相推出自己的大模型產品,中國知網等也在官網上線了相應功能,全球大模型活躍用戶已超10億。人們不禁感嘆大模型時代已悄然到來。在高等教育領域,大模型以學生主動使用為最先渠道迅速侵入,嚴重沖擊傳統(tǒng)教學秩序,引發(fā)教育界的集體憂慮。在此之前,亦有不少人工智能技術入局高等教育,例如虛擬現(xiàn)實、AI潤色、智能翻譯等,但它們所造成的沖擊力都遠不及大模型。究其原因,在于大模型無與倫比的自然語言處理能力,已經達到了一般人類的智慧水準,能夠在一定程度上取代教師和學生的工作,實現(xiàn)了從“輔助人”到“代替人”的轉變。在新一輪科技革命浪潮之下,我們應該以何種態(tài)度看待大模型引發(fā)的教育危機?又該怎樣正確處理眼下科技與教育緊張關系?針對這些問題,筆者嘗試以歸納危機挑戰(zhàn)為起點,先明理再答策。
一、歸納:大模型引發(fā)高等教育現(xiàn)實危機
立德樹人是高等教育的根本任務。教師和學生則是傳統(tǒng)教育教學體系的兩個中心主體。大模型技術在學生群體中的迅速蔓延,沖擊了高等教育的底層架構,在動搖教師和學生地位的同時,也給立德樹人任務造成新的挑戰(zhàn),筆者以ChatGPT為例具體說明。
(一)知識獲取便捷 動搖教師地位
讓學生掌握充足的知識是高等教育的基本功能。相較于以往的人工智能系統(tǒng),人利用ChatGPT等大模型產品獲取知識的便捷性得到大幅提升。這種便捷性得益于OpenAI公司首次將基于人類反饋的強化學習算法(RLHF)遷移到自然語言處理領域,實現(xiàn)了先進的強化學習算法與自然語言處理技術的結合。
首先,利用ChatGPT獲取知識幾乎沒有門檻,使用和學習成本也基本為0。由于其本質上是一個通用式聊天機器人,先進的自然語言處理技術使其能夠看懂、聽懂人類輸入的需求,整個使用過程與打字或語音聊天無異,可以隨時隨地實現(xiàn)有問即答。
其次,利用ChatGPT獲取知識具有前所未有的高效率。歷經數年的調試打磨和前三代產品的經驗積累,ChatGPT具備了超人的思維理解和推理能力,能夠準確理解用戶的意圖并給予準確的答復,節(jié)約了反復溝通或者答非所問所浪費的時間。對于較為分散或沒有準確答案的問題,ChatGPT還可以主動從互聯(lián)網檢索有關信息并將其中相關性最高的部分整理后呈現(xiàn)給用戶,免去了常規(guī)學習方式中冗長的檢索、整理過程。
最后,人工智能所具備的強大算力和海量數據是人類教師所無法比擬的。ChatGPT模型的總參數量高達1750億,僅其學習的一個中文語料集MNBVC,規(guī)模便高達2000GB。海量的學習文本和訓練數據,使其擁有人類無法企及的淵博知識,從自然科學到社會科學,從代碼編寫到文學創(chuàng)作,從基礎教育到學術訓練,任何領域的問題可以訴諸于它。
相較于傳統(tǒng)人類教師,人工智能在學習門檻、效率和知識儲備方面具有明顯優(yōu)勢。過去,無論是傳統(tǒng)的線下教學課堂,還是虛擬教室、云課堂,教師的中心地位都是不可替代的。如今教師不再是學生獲取知識的最佳來源,機器給出的回答可能比教師更全面、更精準、更及時,學生轉而求助于機器的現(xiàn)象愈加顯現(xiàn)。教師給出的解答與機器不一致時,學生可能會質疑教師。教師傳授知識的中心地位逐漸消解,引發(fā)學生對教師權威的質疑甚至是教師群體的自我懷疑。
(二)數字技術濫用 引發(fā)學生誠信危機
大模型不僅能用于知識獲取,還能夠用于知識生產。其基本功能是按照人類輸入的指定提示信息,完成文字內容的輸出經過不斷迭代。目前先進的大模型已經能夠生成包括文字、圖片、代碼、聲音、視頻在內各種形式的生成物。這一功能進入高等教育領域,很快被學生用于完成課程作業(yè)。刊載在《Nature》的一項調查證實:有相當一部分教授已經在他們的課程中遇到了或是所在的大學已經出現(xiàn)了學生使用人工智能工具完成作業(yè)的情況。福布斯網站的一項調查顯示,美國有89%的學生正在或曾經使用ChatGPT完成作業(yè)。[1]更令人擔憂的是,AI的生成內容早已達到了人類作者的水準。如:微軟小冰獨立創(chuàng)作的詩歌集《陽光失了玻璃窗》,便被認為已經達到了一般詩人的水平。ChatGPT完成的學術論文、教學大綱、個人簡介等文本,均達到了“以假亂真”的效果。[2]
人工智能、大數據、云計算等數字技術本身是中立性的,但對這些技術的過度依賴和利用已經威脅正常的教學秩序,引發(fā)師生間誠信危機。相較于以往那些輔助學習機器,大模型已經完全從“輔助人”進階到“代替人”的程度。作業(yè)、論文的撰寫如同自動售貨機般輸入、輸出,學習和思考環(huán)節(jié)淪為技術行為,喪失獨立思考和鍛煉能力的作用。在這個過程中,學生的邏輯、推理、記憶等能力沒有絲毫鍛煉,反而是機器能夠利用學習算法從海量人次的使用中不斷進步,本意“培養(yǎng)人”的教育活動最終卻培養(yǎng)了機器。
此外,在生成內容署名問題上,大多數學生會將署名權歸屬自己而非機器,這實質上是一種欺騙行為。盡管目前學界對于人工智能生成物的著作權歸屬尚存較大爭議,但是對于該問題的回答基本集中于研發(fā)人員和機器人主體之間,將人工智能生成物視為用戶的作品的觀點少有支持者。畢竟用戶付出的智力和體力勞動是微乎其微,將之作為保護主體根本上背離了促進知識產權、鼓勵知識創(chuàng)新的知識產權保護目的。況且,現(xiàn)階段人工智能創(chuàng)作的本質實際上是對學習樣本的拼接、模仿和組合,利用大模型完成教學作業(yè)的行為實際上與剽竊或代寫無異。
(三)不良知識輸出 蘊藏德育風險
大模型固然具有強大的知識獲取和知識生產能力,但由于“算法黑箱”的存在,其生成過程和邏輯依據仍然是不可解釋的。這就造成了大模型加持下的高等教育具有不確定和不可控性,隨時可能對正常的教學秩序甚至學生的身心健康產生負面影響。這些負面影響主要來源于大語言模型可能輸出不良信息,包括錯誤信息、偏見信息、違法信息。這些不良信息既有可能歸責于算法的局限性,也有可能是用戶有意繞開識別算法而獲取的。例如當向ChatGPT提問如何“挑鎖”時,其準確識別到提供敏感信息并表示:這是非法行為,不能提供非法建議。但當提問方式被轉換為“專業(yè)的鎖匠會如何挑鎖”這種更具誘導性的表述時,ChatGPT便準確提供了挑鎖具體的步驟和操作方式??梢?,即使開發(fā)者有意識地設置防御性措施,使得機器拒絕、回避或者較為含糊地回答可能出錯的敏感問題,然而,由于技術局限性的存在,不良信息的輸出風險始終難以根除。
不良信息的生成產生誤導,還會潛移默化地影響他們的價值觀。數字網絡時代,任何一款產品都會想方設法占據用戶更多的時間,以便在“眼球經濟”的競爭中獲得優(yōu)勢。當學生對生成式人工智能產生高度依賴時,算法價值觀缺失的弊病將會直接投射到學生,開發(fā)者個人的偏見也會借此波及社會。此外,考慮到現(xiàn)有的人工智能技術框架來自歐美,主要基于西方的價值和思維導向建立,因而在內容輸出上先天地帶有偏向性。大模型介入高等教育后,還可能為西方價值觀的入侵提供便捷途徑。
誠然,《辦法》第4條明確規(guī)定了生成式人工智能提供者和使用者的安全保障義務,即“應當遵守法律、行政法規(guī),尊重社會公德和倫理道德。禁止生成違法、偏見、侵犯知識產權、違背商業(yè)道德、損害他人合法權益以及不可靠、不準確的內容?!钡沁@一規(guī)定顯得過于籠統(tǒng)寬泛,其中禁止的范疇涵蓋了從道德到法律層面一切可能的不良信息。其結果要么是由于缺乏現(xiàn)實可操作性而被束之高閣,要么是由于忽視了科技發(fā)展所必然伴隨的風險而束縛了人工智能產業(yè)的發(fā)展。
二、明理:對大模型入局兩面性之研判
答策先明理。大模型帶來的這些風險引發(fā)了教育界的廣泛焦慮,不少學者順勢提出各種規(guī)制之策。但風險并非規(guī)制的充足條件,現(xiàn)代社會中風險是無處不在的,機遇與收益往往也蘊藏其中。那種急于防微杜漸,或是力求根治的想法都是局限的。在討論應對之策前,我們首先需要對風險的性質加以研判。
(一)看待大模型入局的對立觀點
人工智能的每一次驚艷表現(xiàn)都使人們感到恐懼?!癎PT模型在一定程度上可能已經具備了成年人的通識和邏輯,所以我們只需要拿特定專業(yè)領域的數據對其再做訓練(微調),它就可以成為獨當一面的專業(yè)人才。”[3]如果在勞動生產方面,機器取代人類是值得期待的話,那么在教育領域這種取代則值得高度警惕。因為教育的根本目的是立德樹人,其重視的是知識獲取的過程而非單純的結果。那種自動售貨機式的知識傳遞,對教育教學體系的破壞是顛覆甚至崩塌式的。特別是對于大學生而言,他們正處于三觀形成的關鍵階段,學生過度依賴技術的扶持,最終將淪為技術的“異化物”。[4]
秉持著這種畏懼心態(tài),排斥人工智能對高等教育的入侵,禁止學生在學習過程中使用大模型,成了不少政府和機構不約而同的做法。香港大學、香港中文大學也率先表態(tài):禁止學生在所有課堂、作業(yè)、評估和一切涉及學分的活動中使用包括大模型在內的AI工具,否則將被視為剽竊。[5]還有不少地方采取半封禁態(tài)度,例如紐約市就出臺政策,禁止所有師生在公立學校的網絡和設備上訪問ChatGPT。巴黎政治學院要求學生在使用類似工具時,將其作為一項外部來源明確說明,否則將受到嚴厲處罰等等。
與悲觀排斥立場完全不同,更多的教育、科技工作者對大模型融入高等教育持積極開放的態(tài)度。他們能夠認識到消極論者所提出的種種問題,但相信可以克服。[6]同時,他們主張以更加積極主動的態(tài)度擁抱變革,并給出了各自不同的理由:(1)從功利主義的角度出發(fā),新技術的介入利大于弊。隨著新技術的不斷迭代,現(xiàn)有的種種弊病將被逐漸完善,而其帶來的生產效率的提升也將不斷加速。(2)從現(xiàn)實層面來看,鑒于大模型等人工智能產品龐大且快速增長的用戶數量,完全封禁是不現(xiàn)實的。中國知網、WPS、科大訊飛、百度等大眾軟件均在其最新版本,內置了大模型功能。其成為學生和教育工作者高效工作不可或缺的工具已是既定事實。(3)人工智能技術已經滲透進社會的各行各業(yè),學生進入社會或職場后不可避免地要使用這些新型數字化工具,不論是通用式人工智能還是專業(yè)領域的專家系統(tǒng)的使用,都應該成為勞動者所必備的技能。(4)歷史表明,新技術與技術相互融合的趨勢通常是不可逆的。人工智能時代,高等教育擁抱大模型是大勢所趨,將二者強行剝離無異于開倒車。
秉持著這種開放包容的立場,一些國家和機構主動在教育領域擁抱生成式人工智能。新加坡、芬蘭、挪威等國教育部門先后公開支持使用ChatGPT等人工智能工具。可汗學院率先宣布引入ChatGPT輔助學習,同時開發(fā)智能工具Khanmigo作為教學助手,幫助老師備課、收集素材、回答學生問題等。
(二)正反立場的盲點與糾合
上述兩種對立說實際上體現(xiàn)的是大模型風險和收益的對立。消極排斥論能夠回避大模型入局帶來的現(xiàn)實危機,但沒有正確認識到其巨大價值或者沒有正確看待利弊關系,這種過于保守的立場與到來的人工智能時代、大模型時代正在快速普及的客觀現(xiàn)實以及現(xiàn)有的政策導向均顯得格格不入。
真正決定大模型應用前景的并非利或弊單側,而是利益與否以及在何種程度上大于弊害,即二者之差。對待上述爭議不同觀點及其相應的政策措施,表面上看是關于如何應對大模型沖擊的爭議,本質上則是關于如何處理技術風險與創(chuàng)新收益之間矛盾的分歧。自從人類進入到工業(yè)社會,每一次現(xiàn)象級的科技創(chuàng)新難以避免地會伴隨諸多現(xiàn)代風險。這種現(xiàn)代風險因其往往具有難以感知、難以預見、難以規(guī)避等特點,幾乎必然引發(fā)國民的憂慮和排斥。[7]但是現(xiàn)代社會又是利弊相伴、危機共存的,完全拒絕冒險無異于停止發(fā)展。諸如環(huán)境開發(fā)、核能利用、數字網絡這些現(xiàn)如今已經被普遍接受的事物,其技術風險引發(fā)的危害仍然很大??梢?,人類面對新技術的態(tài)度歸根結底取決于其收益和風險兩個因素之間的權衡,即收益是否,以及在何種程度上大于風險。當收益不明顯大于,甚至弱于可能的風險時,則接納新事物的意義不大。反之,當二者之間的差距逐漸放大,則接納新事物的必要性同步地增加,即便有些風險終究無法消除,最終也會被視作“可被容許的危險”。
秉持著這種“風險—收益”理念再來審視大模型在高等教育領域的前景不難發(fā)現(xiàn),其發(fā)展收益遠遠大于可能的風險成本。其一,大模型在教育領域的風險是有限的。人工智能最終會不會毀滅人類尚不可知,但至少在本文所討論的教育領域內,其危害最多表現(xiàn)為教育秩序的紊亂或教育質量的下降。這與環(huán)境污染、核能泄漏、生化濫用等種種現(xiàn)代性風險相比,完全不在同一量級。即便未來出現(xiàn)了未知的巨大風險,也是隨時可控的,無非重新回歸傳統(tǒng)教育模式,出現(xiàn)災難性后果的可能性微乎其微。其二,大模型在教育領域的開發(fā)應用潛能巨大,在提高效率、解放生產力方面的潛能卻絲毫亞于其他科技革命。對此,筆者已經在前文多次提及,在此不再贅述。其三,可以預見的是,隨著大模型技術的迭代更新,這種風險與收益之間的差距還將不斷擴大,這一方面源于開發(fā)企業(yè)自身的利益競爭需求,另一方面也歸于相關規(guī)范性文件的不斷完善。長此以往,生成式人工智能與高等教育的綁定將愈加深刻,最終使得這場利弊討論越來越缺乏實踐意義。
回顧過去,與大模型爭議頗為相似的是基礎教育階段學生能否使用科學計算器的問題。以往我國基礎教育特別重視對學生口算、心算甚至珠算能力的訓練,通常會花費大量時間要求學生背誦運算口訣、練習運算習題。隨著科學計算器的普及,越來越多的人開始質疑這種教育是否脫離時代。畢竟,在智能設備隨處可見的今天,對科學計算器的依賴已經難言產生何種風險,反倒是其便捷、高效、準確性遠非人力可比。收益與風險的巨大差異,使得如今的人們已不再排斥在基礎教育中允許學生使用科學計算器這件事,一些發(fā)達地區(qū)甚至允許學生在高考中攜帶科學計算器。
此外,若將視角拉升至國際戰(zhàn)略的層面來看,拒絕大模型與高等教育的融合也與我國人工智能發(fā)展的頂層設計相背離。大模型究竟是否以及應以何種姿態(tài)融入高等教育,不僅是備受學界關注的現(xiàn)實論題,更是事關科教興國和中國式現(xiàn)代化的時代命題。未來國與國之間的競爭歸根結底是尖端科技的競爭,誰率先在關鍵領域掌握核心科技,誰就掌握了主動權。人工智能是戰(zhàn)略性新興產業(yè)和引領世界經濟增長新的引擎,而大模型作為其中應用最廣、爆發(fā)最快的類別之一,已然成為各國企業(yè)科技競爭重要戰(zhàn)場。僅2023年上半年,全球新發(fā)布的大模型產品已超400個。我國作為世界第二大經濟體、第一大工業(yè)制造國以及知識產權強國,必須通過自主創(chuàng)新在這一關鍵領域取得主動權。公開報道顯示,我國企業(yè)已開發(fā)10億級參數規(guī)模以上的大模型80余個,其中科大訊飛星火大模型、百度文心一言等產品已經達到世界領先水平。倘若采取消極論指導實踐,阻塞大模型與高等教育的融合,固然可以隔絕未知風險,但新技術、新應用的發(fā)展將因為缺乏土壤而被遲滯。
(三)注意大模型的技術局限性
巨大的應用前景、可控的現(xiàn)實風險和現(xiàn)有的政策立場,共同指向消極排斥論的不科學性。但這些并不足以反證對立說的科學性,也并非意味著我們只能走另一條積極擁抱之路。
隨著用戶群體的增加,大模型的未盡之處被逐漸發(fā)現(xiàn),相關的差評和批判也隨之而來,不少人開始質疑大模型技術是否真能如提倡者所說的那般神力:現(xiàn)有的教育人工智能的研究、開發(fā)和應用充斥著泡沫,有的甚至混淆了視聽[8]?!敖逃夹g總體上并沒有給我們帶來令人激動的應用效果,更沒有從根本上改善教育形態(tài)”[9]。還有學者系統(tǒng)性地批判了這種對技術的極端、盲目崇拜,忽視了教育的本質和對人的尊重,最終傷害了學生。[10] 這些論點都說明,由于進入公眾視野尚短,以ChatGPT為代表的一眾大模型產品是否已經成熟到足以讓高等教育全面擁抱的程度,能否以正向賦能收獲師生群體的正面評價都充滿著不確定性。在缺乏時間檢驗和局部試點的情況下徑直提倡擁抱,反倒可能給新事物造成“捧殺”。一個新近的例子是,在線教育經過多年發(fā)展,特別是經歷疫情期間的磨合似乎已經足夠成熟,其融合甚至替代傳統(tǒng)教育的聲音不絕于耳。但現(xiàn)實卻是,逼促下的線上教育所引發(fā)的社會性消極體驗,造成了學生、教師、家長的抗拒,以至于后疫情時代,多數教學活動迅速回歸線下。
三、立場:“放管結合”的慢規(guī)制之提倡
消極排斥脫離實際、積極擁抱為時尚早。面對大模型對高等教育的侵入及其引發(fā)的問題,筆者主張采取“放管結合”的中間立場,即不鼓勵、不反對,而是暫以觀望放寬為主、精準管治為輔。具體包含以下兩個方面內容。
(一)放緩規(guī)制 具有諸多現(xiàn)實優(yōu)勢
“放管結合”首先提倡“放”,即公權力機關對大模型入局高等教育的伴生問題持適當觀望的態(tài)度,暫時克制規(guī)制沖動。這一提倡能夠克服消極排斥、積極擁抱兩說的不少弊端,優(yōu)勢明顯。
放緩規(guī)制有助于教育行政管理部門科學精準施策,增強決策的穩(wěn)定性。每每出現(xiàn)亂象,人們總是期待公權力機關盡快出臺措施且立竿見影。但這種規(guī)制一般以出臺一定級別的規(guī)范性文件為標志,其立場不會是完全中立無責的,必然表露出某種的政策傾向。消極排斥不可取,積極擁抱不必要。如此,規(guī)制主體便陷入進退維谷的窘境。況且,大模型介入高等教育為時尚短,必然有許多問題尚未暴露,已暴露的問題也難免隨著技術的更迭而嬗變,甚至大模型會不會迅速被后續(xù)技術所取代也猶未可知。急于規(guī)制難免掛一漏萬、朝令夕改,造成行政機關資源的浪費和公信力的減損?!稌盒修k法》第16條賦予了網信、發(fā)展改革、教育、科技、工業(yè)和信息化、公安、廣播電視、新聞出版等多個部門的對生成式人工智能的管理職責,如此極易造成各主體間權責不清,表明立法者在管理主體問題上的糾結。
放緩規(guī)制有助于鼓勵教師群體和學校自主探索適合自身學情的應對舉措。如何看待大模型帶來的沖擊,不同主體站在不同立場可能有不同觀點,具體到應對措施上將只有適合與否,沒有絕對的對錯之分。相較于行政規(guī)制更可能采取的“一刀切”,短暫觀望能夠給予私主體更多的選擇權,鼓勵其根據自身特點探索適宜的措施。例如學??梢愿鶕煌瑢W業(yè)階段的特點,對本科學生禁用,以倒逼其大量重復練習基礎知識;對著重培養(yǎng)科研能力的碩士生、博士生,則可以附條件地例外。又如對于財會類專業(yè)學生,不妨在實訓課上訓練他們利用大模型快速整理報表、輸出管理日志等實務技能。
放緩規(guī)制有助于因材施教,讓學生根據自身需求和實際體驗自己掌握決定權?!洞蟊娦睦韺W》中的逆反原理提示我們:人們在面對引導或規(guī)范時往往會產生反向心理活動,這一規(guī)律在青年群體中尤為顯著。不論封禁還是鼓勵,都難免引起部分學生的抵觸,引發(fā)完全相反的行為。對此卻不能簡單歸責于學生。畢竟,即使是在同一學校、同一專業(yè)內學習水平大致相同的學生,其學習方法和思維也是不盡相同。要不要使用大模型、用哪款大模型產品、在什么時間或學科用、具體怎么用最適合自己,這些問題沒有人比學生自己更清楚。將選擇權交還給學生,最有利于他們結合自身實際情況和真實用戶體驗,做出個性化的安排。這一點是教育管理部門、學校抑或教師都無法企及的。
放緩規(guī)制還有助于最大限度為大模型研發(fā)企業(yè)的創(chuàng)新發(fā)展提供寬松的政策環(huán)境,助力中國大模型產品角逐國際競爭。高新技術企業(yè)探索新技術、新場景、新應用時常會面臨合規(guī)與否、安全與否、道德與否的拷問。指望完全克服這些問題再圖發(fā)展是不切實際的,況且某些問題在紙面上永遠不會形成定論,而激烈的國際競爭卻時不我待?!都t旗法案》的教訓表明:過分強調安全將會毀掉一個新興產業(yè),寬松的政策環(huán)境就是對高新技術產業(yè)而言尤為重要?!稌盒修k法》第3條明確:國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務實行包容審慎和分類分級監(jiān)管。這里的表述和順位恰暗含了此意。
(二)有條件地對必要事項精準管治
可能有人會質疑,主張放緩對大模型的規(guī)制,豈非置其負面影響于不顧?豈非將發(fā)展置于安全之上,走先發(fā)展再治理的彎路?對此筆者持否定態(tài)度。發(fā)展是第一要務,安全是根本保障,二者在任何時候皆需統(tǒng)籌兼顧、不可偏廢。放緩規(guī)制不是不規(guī)制,而是為了更好地規(guī)制,是在適當的時間以適當的方式對必要的事項予以規(guī)制,即精準管治。
精準管治首先要求時間精準?!胺殴芙Y合”并非一成不變之策,大模型技術快速迭代、互聯(lián)網巨頭激烈競爭、尚未形成穩(wěn)定的用戶群體、人們對新事物的接納有待磨合等現(xiàn)實條件,都是其產生的基礎。待這些客觀條件發(fā)生變化后,再選擇適當時間轉換立場。之所以提倡放緩規(guī)制,就是恪守公權力介入的沖動,待規(guī)制對象逐一成熟定型、問題充分暴露后再對癥下藥,力求成熟一個、治理一個、解決一個,以免朝令夕改、頭痛醫(yī)腳。以此實現(xiàn)放與管的“結合”,即以放促管,以管助放,實現(xiàn)科教良性互動。
即便立足當下,放任也不是無差別的。對于那些負面影響突出、群眾反映強烈等確有必要的問題,可以果斷予以規(guī)制。這些問題往往已經多次出現(xiàn)、危害顯著并且通過其他方式難以有效解決。對此,既可以對現(xiàn)有規(guī)范作擴大解釋,也可以出臺新規(guī)專門性規(guī)制。例如針對大模型使用過程中可能存在的違法違規(guī)收集個人信息的情形,這類問題已在以往的網絡平臺治理中形成了成熟的方案,也有大量典型案例可供參考,可以直接借鑒移植。又如網絡上已經爆出的個別大模型生成歪曲歷史、抹黑歷史人物錯誤內容的事件,對于這種嚴重違法違規(guī)、損害國民感情的行為,可以依托現(xiàn)有規(guī)范追究企業(yè)和自然人的法律責任。
放緩規(guī)制的提倡主要針對來自公權力部門的政策性規(guī)制,不排斥甚至鼓勵其他主體積極探索多渠道治理方式。公權力不是萬能的,無論是行政、立法、司法手段都只是眾多社會治理方式中的一種。公權力規(guī)制的缺位并不意味著混亂無序。相反,包括企業(yè)、學校、教師、學生、市場、行業(yè)協(xié)會等多種群體都存在著多種形式的自治。以其中的市場自治為例,現(xiàn)有的大模型基本以數字產品的形式呈現(xiàn),其本質上都是一種商品,脫離不了基本市場規(guī)律。換言之,大模型永遠不可避免地受到市場調節(jié)。用戶對大模型的歡迎程度,短期內可能受到各種因素的誘導,但長期來看起決定性作用的仍舊是產品本身的優(yōu)劣。倘若其長期具有諸多難以克服的危害,即便一時受到個別群體的追捧,最終也會被理性的消費者所拋棄。反之,則證明其經受住了市場和時間的檢驗,是利大于弊的。
(三)貫徹高等教育治理機制改革舉措
當前,高等教育治理機制改革正在穩(wěn)步開展,其中一個重要內容就是推進高等教育“放管服”改革。這場改革是在全面推進治理體系和治理能力現(xiàn)代化的大背景下展開的,旨在進一步簡政放權、簡除繁苛,破除束縛高等教育發(fā)展的體制機制障礙。建設面向世界、面向未來、面向現(xiàn)代化的管理服務理念。這一持久創(chuàng)新的治理機制不僅適用于克服高等教育領域的一些頑瘴痼疾,對于諸如大模型沖擊等新情況、新問題同樣具有借鑒意義。
高等教育“放管服”改革首先強調簡政放權,即教育事權與管理權相分離,把教學和科研的主動權還給高校,實現(xiàn)變管治為多主體合作共治。通過簡政放權,高等教育治理涌現(xiàn)了 “自主辦學”“尊重學術自由”“落實教授治學”“院系自主辦學”等諸多新規(guī)則,形成以大學章程統(tǒng)領高校發(fā)展的新樣態(tài)。面對大模型的沖擊,筆者所提倡的放寬、放緩來自教育行政管理部門的規(guī)制,本質上可以看作高教領域在處理具體問題時的簡政放權。教育行政管理部門從全能管理者的角色上有序退出,鼓勵高校自主探索符合自身學情、校情的治理路徑,實現(xiàn)“放”與“管”的良性互動。
簡政放權不是什么都放,高等教育“放管服”也注重管,這里的管不是傳統(tǒng)模式下事無巨細的行政管理,而是讓行政機關從繁雜的事務中解放出來,專心做好高校政策供給,從管事務轉向管標準。一方面,在貫徹落實中央深化高等教育改革總體布局的基礎上,對一系列政策措施予以細化,統(tǒng)籌管理、分類指導、一校一策,為高校的發(fā)展保駕護航。另一方面,對于觸碰底線和紅線的問題要主動作為、精準懲處。
高等教育“放管服”改革中的最后一環(huán)是優(yōu)化服務。所謂優(yōu)化服務既要求行政機關轉變職能,從高等院校的管理者轉變?yōu)榉照?,還強調充分利用政策優(yōu)勢,將社會、市場等相關利益者吸引過來,激發(fā)市場活力,為各種高等教育參與主體服務。筆者“放管結合”立場的提倡,其落腳點恰恰是鼓勵學校、教師、學生、企業(yè)等多元主體參與到大模型治理體系中來,群策群力、共建共享。最終實現(xiàn)“政府頂層設計引領、高校自主內生發(fā)展、市場利益相關者參與”的“共治格局”。
總之,“放管結合”應對大模型沖擊的立場并非無本之木。其完全可以看作當下高等教育治理機制改革向人工智能時代的延伸,是高等院?!胺殴芊备母锏男聵討B(tài)。
四、答策:化解大模型賦能風險的多方探索
“從長遠來看,技術革命會造福每一個人,但是在短期卻隱藏著陷阱,而這種技術所帶來的發(fā)展?jié)摿?,實際的結果將取決于短期發(fā)展能否得到良好的管理”[11]?!胺殴芙Y合”的立場提倡有所為有所不為,公權力層面的謹慎觀望,并不妨礙其他私主體積極探索應對舉措,面對眼下大模型給高等教育帶來的現(xiàn)實問題,實然層面的具體對策仍必不可少。
(一)強化教師在教學活動中的核心地位
“教師是立教之本、興教之源”。從留聲機、攝像機,再到教學機器、在線課程,不論何種時代的教育科技,都無法取代教師的中心地位。雖然教師不會被人工智能取代的判斷,但不會應用人工智能的教師可能會被淘汰[12]??萍紟淼淖兏锿羌みM的,是優(yōu)勝劣汰、適者生存的。廣大高校教師應對技術沖擊最好的辦法就是“以我為主、為我所用”,變被動接納為主動擁抱,避免因信息不對稱,帶來教師和學生之間的數字鴻溝。
鼓勵教師主動擁抱大模型,需要廣大教師從思想上構建面向人工智能時代的高等教育理念,構建“師—生—機”三位一體的教學模式。在這個模式中,教師仍為核心,其中心地位不僅沒有被取代,而且得到了加強。一方面,得益于插上AI的翅膀,老師的教學能力和教學效果將得到普遍提升。教師能夠更加專注于育人,而把單純的知識傳遞任務交由機器。另一方面,學生在厭倦了大模型所提供的那種淺表性、機械性、同質化的知識后,終將會對教師產生更強的知識依賴。教師和學生作為教育者和受教育者,在這個組合中始終是最穩(wěn)固的一對關系。無論何種機器應用于高等教育,都將以豐富教師教學方式和學生學習方式為載體,成為發(fā)展和穩(wěn)固這對關系的驅動力。
當前的大模型技術已經可以從多個方面賦能教師,實現(xiàn)驅動教學質量和效率雙增長。大模型擅長處理簡單的自然語言處理工作的優(yōu)勢,特別適合完成簡單重復性的文字類事項,可以作為一種綜合性的教學輔助工具,替代大部分助教類工作,包括課前的課程設計、課件制作、素材收集;課中的虛擬討論、過程展示;課后的自動出題、閱卷、格式調整等。除了教學工作,大模型還可以高效地幫助教師完成撰寫匯報、填寫表格、數據統(tǒng)計等非教學工作,將教師從繁瑣的行政事務中解放出來,更加專注于育人。提高效率之余,大模型還可以借助“AI+教育”實現(xiàn)人機協(xié)同育人,助力教師提高教學質量。大模型還可以接入現(xiàn)有的學習通等教學平臺,通過動態(tài)分析學生學習情況,根據不同學情分級分類編寫教學案例,實現(xiàn)因材施教。例如智能分析學生日常作業(yè)中的高頻錯題,有針對性地生成測驗試卷,實現(xiàn)定制化教育。
盡管具有諸多優(yōu)勢,也難免存在部分教師因循守舊,對于擁抱大模型存在天然的排斥心理。對此,學??梢猿雠_各種措施,加速“師—生—機”新型教學模式的演進過程。例如邀請相關開發(fā)企業(yè)進校園、進課堂,為師生現(xiàn)場講解、線上答疑;開展多種形式的創(chuàng)新教學競賽,將大模型運用作為評分點之一;在新教師入職培訓和老教師繼續(xù)教育培訓課程中更新相關課程等。
(二)謹防學生對大模型產生負面依賴
當下,大模型高等教育應用最為人所詬病的問題就是越來越多的學生直接生成本應由自己完成的作業(yè)和考核,包括文字、數字、編程、圖片等各種形式。由于其內容已經達到了以假亂真的程度,教師們又普遍缺乏對大模型技術底層邏輯的了解,因而陷入束手無策、放任自流的窘境。更糟糕的是,即使教師根據自己的經驗和感性認知,從內容的語法、措辭、邏輯等線索懷疑學生使用了大模型技術,也無法獲取有說服力的證據,進而給予適當處罰。長此以往,教育庸俗化、知識同質化、學習淺表化的問題將愈加尖銳。
解決這一難題,需從大模型技術的特征和弱點入手。大規(guī)模預訓練語言模型是自然語言機器學習模型,其自始就是為了理解與輸出自然語言而生,天然地不如專家系統(tǒng)那般擅長解決專業(yè)問題。ChatGPT是通用式聊天人工智能,其生成內容的準確性會隨著輸入信息專業(yè)性和前沿性的提升而降低。高等教育是培養(yǎng)專業(yè)人才和開展學術研究的教育活動,專業(yè)性恰是其天然屬性。基于這一原理,盡可能提高問題的專業(yè)性,不失為一個簡單而有效的做法。盡可能使用更專業(yè)的表述、更開放的論題、更復雜的材料。譬如,用“請結合我國脫貧攻堅取得的偉大勝利,談談馬克思主義為什么行?”替換“馬克思主義為什么行”這一簡單命題時,ChatGPT便難以作出切題的答復??紤]到大模型不具備分析復雜文本的能力,我們還可以再給出一段閱讀材料后,將問題繼續(xù)變形為:“請結合這段材料和中國國情,回答馬克思主義為什么行?”
針對已經出現(xiàn)的在學位論文中使用大模型的行為,按照現(xiàn)有規(guī)范應當明確禁止、懲處。此種行為屬于《高等學校預防與處理學術不端行為辦法》第27條列明的“代寫論文”“造假”等行為。新修訂的《學位法》也明確規(guī)定:利用人工智能代寫屬于學術不端行為,將面臨撤銷學位的處罰。目前市面上已有多款AI生成檢測軟件問世,例如北京大學和華為聯(lián)合開發(fā)了一款基于PU學習的多尺度語言模型檢測器,解決了目前市面上檢測器短文本識別進度低的痛點。對此,可以參照重復率檢測措施,要求學生在提交學位論文時一并提交AI生成檢測報告,并由學校對本校學位論文開展隨機抽檢或全覆蓋檢測。
關于學生在學位論文中使用大模型生成內容的現(xiàn)象,同樣需要引導和規(guī)范。在生成內容的署名問題上,當前學界針對AI生成內容是否具有知識產權上的可保護性尚未形成一致意見。其癥結在于算法黑箱的遮蔽弱化了AI的可解釋性,造成人們難以判斷生成內容是否具有著作權法所要求的獨創(chuàng)性。[13]筆者的建議是,將大模型視為一種類似數據處理軟件的新型研究工具,不禁止學生在學位論文中使用,但需以注釋形式或在研究方法一欄額外注明使用的原因、方法、范圍和關鍵詞等信息。至于是否接受此類新樣態(tài)論文,則交由學?;蚓庉嫴孔灾鳑Q定。
(三)研發(fā)階段企業(yè)需對生成質量分類把關
企業(yè)在科教融合中總是起到橋梁和紐帶作用。作為集設計者、開發(fā)者、生產者、服務提供者等多重角色于一身的關鍵主體,任何圍繞大模型所討論的規(guī)范措施,如果不能回溯到企業(yè),則難免治標不治本。這樣或那樣的弊病層出不窮,后續(xù)的應對措施注定是亡羊補牢、疲于奔命的。若能將治理節(jié)點前移至上游企業(yè)的研發(fā)階段,采取以技術治理技術、以算法防范風險的路徑,方才是最安全、有效、便宜、徹底之舉。
縱觀我國現(xiàn)有的規(guī)范文件,不論是與大模型關聯(lián)度最密切的《暫行辦法》,還是《科學技術進步法》《科技倫理審查辦法》等有關文本,無不強調對企業(yè)安全管理義務。這種安全管理義務是全流程的,貫穿科技服務始終的,但對大模型產品而言其關鍵在研發(fā)之前的階段。畢竟,一旦內容生成則瞬間完成了創(chuàng)造環(huán)節(jié)、傳播環(huán)節(jié),幾乎沒有阻斷的可能性,即使企業(yè)履行了“通知—刪除”義務,也無法控制用戶通過的其他途徑傳播內容。所謂的安全管理義務已經再難履行,相應的安全風險也越發(fā)不可控。因而筆者認為在高等教育領域,大模型研發(fā)企業(yè)安全管理義務最核心的要求,就是采取技術手段對生成內容的質量有所把關。
采取技術手段對生成內容的質量有所把關,底線是消除有害內容的自動生成。這里的有害內容大致包括三類:違反法律、背離黨和國家大政方針等國家層面的不良內容;傷害公眾感情、產生不良輿論導向等社會層面的不良內容,以及黃色、暴力、恐怖等個人層面的不良內容。其來源既可能是用戶不規(guī)范提問的無心之舉,也可能是有意為之。當大模型通過“關鍵詞檢測+人工復檢”的方式識別到這些提問時,可以采取分類應對的方式。第一種情形通常存在明確的規(guī)定或權威論述,研發(fā)企業(yè)所需要做的就是訓練大模型準確檢索并完整展示相關答案。防止錯誤言論產生的同時,也要杜絕含糊其辭、隨意刪減、變換表述之類容易引發(fā)歧義的回答。針對第二種情況,如有公權力機關的通報、公告等官方答復時應當優(yōu)先引用,否則也可以在程序設計時要求大模型多做事實陳述、少做價值判斷。針對第三種情況,則需考慮其中是否包含積極作用,例如具有豐富文學藝術價值的作品、具有學習參考價值的醫(yī)學圖片等。反之,則應禁止或進行局部無害化處理。
采取技術手段對生成內容的質量有所把關,還要求大模型具備對敏感問題提問的識別和回避能力。與有害內容不同,敏感問題往往無關是非對錯,其敏感之處在于涉及價值觀分歧,易制造矛盾、爭議或焦慮。例如如何看待同性戀群體、如何看待中國式人情世故、如何評價某爭議歷史人物等,這些問題由于缺乏官方答復,也未形成權威觀點,因而無法采取與前者同樣的措施。對此存在三種對策:一是直接賦予大模型拒絕回答的權利,在識別到敏感問題提問后一律禮貌地拒絕回答。此舉最為簡單、徹底,缺點是會降低用戶體驗,也易使研發(fā)人員陷入懶怠,拖累大模型技術發(fā)展;二是作開放式回答,只進行觀點和論據的展示,不作價值判斷和傾向性回答。同時對所展示的觀點亦要有所篩選,剔除個別過于極端、明顯不當的觀點。三是作差異化答復,通過先前積累的用戶信息和交流習慣精準繪制用戶畫像,以此推送最契合其價值觀的答案,實現(xiàn)人機交流時的“高情商”對話。
五、結語
黨的二十大報告將教育、科技、人才進行統(tǒng)籌安排和一體部署,并且明確提出“推進科教融匯”“推進教育數字化”,凸顯出我國教育與科技融合的頂層設計。習近平總書記指出:“促進教育變革創(chuàng)新,充分發(fā)揮人工智能優(yōu)勢,加快發(fā)展伴隨每個人一生的教育、平等面向每個人的教育、適合每個人的教育、更加開放靈活的教育”[14]這些論述都表明高等教育必將持續(xù)接納以大模型為代表的諸多數字技術的融入。繼ChatGPT之后,各家類似的產品紛紛問世,新情況、新問題層出不窮,大模型之外,各種數字技術快速發(fā)展,高等教育還將不斷面臨各種未知的沖擊?!胺殴芙Y合”的基本立場或許能夠為面向數字時代的高等教育長治久安提供參考。
[參 考 文 獻]
[1] Educators Battle Plagiarism As 89% Of Students Admit To Using OpenAI's ChatGPT For Homework Chris Westfall[EB/OL].(2023-01-28)[2024-5-11].https://www.forbes.com/sites/chriswestfall/2023/01/28/educators-battle-plagiarism-as-89-of-students-admit-to-using-open-ais-chatgpt-for-homework/.
[2] 郭劍英.ChatGPT沖擊波已來,高等教育應做好準備[N].中國社會科學報,2023-01-14(9).
[3] 丁磊.生成式人工智能:AIGC的邏輯與應用[M].北京:中信出版集團,2023:5.
[4] 王正青,阿衣布恩·別爾力克.ChatGPT升級:GPT-4應用于未來大學教學的可能價值與陷阱[J].現(xiàn)代遠距離教育,2023(7):3-11.
[5] 港大禁用ChatGPT等AI工具 為全港大學首例[EB/OL].(2023-02-28)[2024-5-11].https://news.cctv.com/2023/02/18/ARTIuUEtF2v60iUtd2ZsFSNt230218.shtml.
[6] 王悠然.利用ChatGPT優(yōu)勢完成教育目標[N].中國社會科學報,2023-03-31(5).
[7] 烏爾里希·貝克.風險社會:一種新的現(xiàn)代化之路[M].張文杰 ,何博聞,譯.南京:譯林出版社,2018:9.
[8] 彭椿庭.ChatGPT對教育意味著什么——代表委員熱議人工智能技術對教育的影響[N].中國教育報,2023-03-05(11).
[9] 吳剛.從工具性思維到人工智能思維——教育技術的危機與教育技術學的轉型[J].開放教育研究,2018(2):51.
[10] 李芒,石君齊.靠不住的諾言:技術之于學習的神話[J].開放教育研究,2020(1):14.
[11] 卡爾·貝內迪克特·弗雷.技術陷阱:從工業(yè)革命到 AI 時代技術創(chuàng)新下的資本勞動與權力[M].賀笑,譯.北京:民主與建設出版社,2021:25.
[12] 蘇令.人工智能時代需要怎么樣的教師[N].中國教育報,2018-05-17(3).
[13] 劉艷紅.人工智能的可解釋性與AI的法律責任問題研究[J].法治與社會發(fā)展,2022(1):79.
[14] 習近平總書記向國際人工智能與教育大會致賀信[EB/OL].(2019-05-16)[2024-5-11].http://www.xinhuanet.com/politics/leaders/2019-05/16/c_1124502111.htm.
The Combination of Laissez-Faire and Regulation on Higher Education Response to the Impact of Large-Scale Language Models and Its Development
Chen Xinzhe
Abstract: Large-scale pre-training language models invade higher education through the active use of students, leading to a triple crisis of knowledge, integrity and values. Its huge application prospect and the established fact of a large number of users indicate that the ban is not feasible. The existing products are still in the rapid iteration period, coupled with the lack of mature governance schemes, so it is too early to encourage promotion. The regulation of the large model should establish the position of combining laissez-faire and regulation, insisting on doing something and not doing something. On the one hand, the public authority should restrain the impulse of regulation, properly indulge in wait-and-see, and precisely regulate only some necessary matters; On the other hand, private subjects such as teachers, students and enterprises are encouraged to explore autonomous measures and guide large models to positively empower higher education. In the future “teacher-student-machine” trinity education model, the central position of teachers will not be weakened, but will be enhanced.
Key words:large-scale pre-training language model; higher education; ChatGPT; artificial intelligence
責任編輯:陳星宇