摘" "要:在分析人工智能對教育益處的基礎(chǔ)上,探討人工智能應用于教育的可能性風險,包括“教育加速”背景下人的主體地位喪失、“技術(shù)異化”視野中人工智能對人的本質(zhì)力量壓迫、依賴人工智能導致的人的智能下降、侵犯數(shù)據(jù)隱私所導致的倫理風險、“情智悖論”難題下的教育迷失、惡意使用人工智能引發(fā)的后果。針對這些風險提出應對之道,包括回歸教育的育人本質(zhì)、對人工智能要有全面深入的認識、加強對人工智能在教育中應用的監(jiān)管。
關(guān)鍵詞:人工智能;教育;風險
中圖分類號:G434" " " " "文獻標志碼:A" " " " " " "文章編號:1673-8454(2023)07-0022-08
一、人工智能促進教育發(fā)展
整體來看,人工智能主要從以下方面促進教育的發(fā)展。
(一)人工智能促進教師角色變遷
在人工智能時代,教師的角色會發(fā)生變化。對于教師而言,人工智能可以輔助教學、實現(xiàn)智能作業(yè)批改,從而減少教師的工作量,促進精準教學。余勝泉認為,未來將是教師與人工智能教師協(xié)同共存的時代,未來知識傳授功能會逐步被人工智能取代,人類教師則應偏重于培養(yǎng)學生的核心素養(yǎng),而人工智能教師在未來可能扮演自動出題和自動批閱作業(yè)的助教、學習障礙自動診斷與反饋的分析師、問題解決能力測評的素質(zhì)提升教練等12個角色。[1]袁振國認為,人工智能雖在教育行業(yè)發(fā)揮作用,但不會取代教師,教師可以將簡單重復性工作交給機器,把時間精力放在學生心理層面。[2]有學者提出,基于數(shù)據(jù)智能挖掘為教學增能的可能性,有利于喚醒學習設計工具的數(shù)據(jù)智能并助力教師的教學實踐,從而幫助教師實現(xiàn)數(shù)據(jù)啟發(fā)式的教學設計和現(xiàn)場教學。[3]盡管大部分人認為,人工智能不會取代教師,但是從人工智能發(fā)展的趨勢來看,“人工智能教師”出現(xiàn)的可能性是存在的。只要人工智能技術(shù)足夠成熟,在一些特定應用上,如專家系統(tǒng)、智能導學等,人工智能完全可以勝任教師角色。在這種情況下,教師的角色或許會變?yōu)椤叭斯ぶ悄芙處煛钡南到y(tǒng)管理員,只需要發(fā)揮維持系統(tǒng)正常運轉(zhuǎn)的作用就行。當然,人工智能最終會讓教師的角色向何種方向變遷,還有待觀察及歷史檢驗。
(二)人工智能提升教育管理效率
對于教育管理而言,人工智能可以降低教育管理成本、提高教育管理效率。以往的教育管理,依靠人對紙質(zhì)材料或相關(guān)數(shù)據(jù)的主觀判斷,管理效率較低,容易出錯。通過數(shù)字化技術(shù),收集教育全方位數(shù)據(jù),通過人工智能算法進行判斷,可以提高決策的科學性。智能教育管理面向整個教育體系以提高整體效能。[4]通過人工智能技術(shù),能夠?qū)⒔逃芾砗蜎Q策從經(jīng)驗導向轉(zhuǎn)向證據(jù)導向。[5]基于大數(shù)據(jù)的教育智能決策系統(tǒng)可以實現(xiàn)教育質(zhì)量動態(tài)監(jiān)測、實現(xiàn)定制化教育。[6]通過人工智能大幅度提升教育管理效率之后,教師將會有更多的時間關(guān)注學生身心發(fā)展方面的問題。在教育管理上,人工智能的確是可以提高管理效率的。不過,提高管理效率未必會提高教育效果。教育的實質(zhì)問題可能不是效率問題,只是對教育管理者而言,如教育政策制定者、教育行政領(lǐng)導者等,人工智能有助于管理工作的開展。人工智能大幅度提高教育管理效率,一方面當然可以減輕教育管理者的負擔,另一方面可能會導致更大的教育決策和管理風險。任何效率的提升,都有可能導致系統(tǒng)的不穩(wěn)定,對教育系統(tǒng)而言,也是如此。因此,在人工智能提高教育管理效率的過程中,一定要注意這種效率的提高不能違背教育的育人目的。
(三)人工智能促變教育過程
人工智能可以從個性化學習方式和教育評價兩個方面來影響教育過程。一是人工智能可以促進個性化學習。有學者認為,大數(shù)據(jù)使教師和機器能夠了解每個學生的真實情況,從而為其提供個性化的學習資源、學習活動、學習路徑、學習工具與服務。[7]牟智佳提出基于學習者數(shù)據(jù)畫像模型的個性化學習路徑實施框架。[8]二是從教學評價來看,人工智能技術(shù)可以優(yōu)化和影響教育評價。EdX、Coursera和Udacity中的一些很受歡迎的MOOC,都在使用自然語言理解、機器學習和眾包技術(shù),來對學生的回答、論文以及作業(yè)打分。無論從個性化學習方式,還是從教育評價來看,在想象的層面上人工智能促進教育過程的變革似乎是顯而易見的。但是從實際情況來看,基于人工智能的個性化學習方式在教育實踐中依然少見,教育評價的智能化變革也才剛剛開始。教育不是技術(shù),而技術(shù)需要服務于教育。教育技術(shù)學者大部分認為人工智能會促變教育過程。從教育形式的角度來看,似乎是如此。但從教育內(nèi)涵來看,基于人工智能的教育過程在教育本質(zhì)內(nèi)涵上未必有變化。
(四)人工智能影響教育環(huán)境
人工智能技術(shù)將會促進教育環(huán)境從信息化走向智能化。人工智能可以實現(xiàn)校園監(jiān)測預警、刷臉出入校園,提升校園安全水平。[9]美國南加州大學創(chuàng)新技術(shù)研究所是創(chuàng)建智能虛擬環(huán)境和應用的先驅(qū),它利用人工智能、3D游戲和計算機動畫來開發(fā)真實的虛擬角色與現(xiàn)實的社會互動(地平線報告,2018)。人工智能對教育環(huán)境的影響將是深遠的,智能化的教育環(huán)境將為教師和學生提供個性化的支持和服務。在不遠的將來,以人工智能、大數(shù)據(jù)、VR、區(qū)塊鏈為技術(shù)支撐的元宇宙將進一步促進教育環(huán)境的深刻變革。智能教育環(huán)境日益成為現(xiàn)實,校園的人臉識別系統(tǒng)可以用于校園門禁、食堂打飯、教學監(jiān)控。校園里的人工智能應用越來越多,這是教育環(huán)境變遷的顯著標志。在智能教育環(huán)境中,教師和學生的互動會發(fā)生怎樣的變化,是一個值得研究的問題。教育環(huán)境受人工智能的影響,在技術(shù)層面會日益先進,走向現(xiàn)代化、智能化。但是,智能教育環(huán)境中人的成長規(guī)律,需要研究和探索。智能教育環(huán)境中的教與學設計也是值得研究的方向。
二、人工智能應用于教育所帶來的
可能性風險
人工智能必然會帶來教育的深刻變革。在這個事實性前提下,需要思考的一個重要問題是,人工智能應用于教育可能會帶來哪些風險。關(guān)于這個問題已有一些研究。例如,有學者探討教育領(lǐng)域中人工智能在認知局限、倫理危機、評價偏差和教育風險上的若干隱憂;[10]有學者從管控視角廓清人工智能教育的四類典型現(xiàn)象,即忽視智能技術(shù)還原教育世界的本體風險、遮蔽智能技術(shù)表征教育生態(tài)的認識風險、輕視智能技術(shù)違背教育初心的價值風險、濫用智能技術(shù)導致教育治理的倫理風險;[11]有學者提出人工智能倫理原則的四個向度,即算法向度、關(guān)系向度、情感向度和資源向度。這些研究可以為思考人工智能應用于教育會帶來何種風險提供參考。[12]不過,關(guān)于這個問題,需要從思想層面探討最壞的可能性及其原因。探討最壞的可能性有助于我們把握事物發(fā)展的極端情況,從而認識清楚事物的本質(zhì)并加以應對。
(一)“教育加速”背景下人的主體地位喪失
哈特穆特·羅薩(Hartmut Rosa)提出社會加速批判理論,認為社會加速是現(xiàn)代社會的核心特征,社會加速可以劃分為科技加速、社會變遷加速和生活節(jié)奏加速3種形式。[13]基于社會加速批判理論,有學者認為,績效主義是教育現(xiàn)代性之加速邏輯的重要表征,科學主義使教育現(xiàn)代性的加速邏輯成為可能,新異化的誕生是教育現(xiàn)代性之加速邏輯的后果。[14]顯然,人工智能作為一種具有巨大潛能的技術(shù),應用于教育領(lǐng)域,無論將人工智能作為一種社會背景,還是將其作為一種創(chuàng)新技術(shù),都將無可避免地帶來“教育加速”。目前,人工智能帶來的“教育加速”突出地表現(xiàn)為各種樂觀說法:人工智能將會顛覆教育流程、提高教育效率;人工智能將帶來基于大數(shù)據(jù)的精準教學;人工智能將促進大規(guī)模的個性化學習……
事實上,“教育加速”的結(jié)果往往是教育焦慮,這實質(zhì)上有悖于教育的目的。教育應該是為人服務的,而現(xiàn)實是人卻被教育所奴役。而且,相對于人工智能而言,人的能力總是處于弱勢地位。無論在速度或準確度上,人都難以追趕人工智能。在人工智能對人個體能力的碾壓之下,人的主體地位最終將會蕩然無存,而人的主體地位的淪落將會帶來價值危機,使生存喪失意義。因此,人工智能導致“教育加速”背景下的人的主體地位缺失,是一個很有可能出現(xiàn)的風險。存在一個有意思的問題,即人的主體地位在整個教育歷史發(fā)展上什么時候開始存在的?或者說,在人類教育歷史上,人的主體地位是在何時確立的?現(xiàn)實中,教師的主體地位和學生的主體地位是不同的。中國自古有尊師重道的傳統(tǒng)。教師的主體地位或許在孔子時代就有所體現(xiàn)。孔子周游列國,收弟子三千,開創(chuàng)儒家學派,是師道的開始。學生的主體地位或許是從“以學生為中心”理念萌發(fā)時開始出現(xiàn)。教育中,人的主體地位缺失,還是在很大范圍內(nèi)存在的。
(二)“技術(shù)異化”視野中人工智能對人本質(zhì)力量的壓迫
技術(shù)本是人的創(chuàng)造物,是用來實現(xiàn)其正價值、為人類服務的,但由于技術(shù)應用過程中負價值的產(chǎn)生,使它發(fā)展成為異己的敵對力量,反過來給人類自身帶來危害。[15]人工智能在教育中的應用所帶來的技術(shù)異化,突出地表現(xiàn)為一種本末倒置現(xiàn)象,即使用人工智能成為目的,人成為實現(xiàn)人工智能的手段。人工智能應用于教育的前提是必須獲得大量的數(shù)據(jù)。為了獲得大量數(shù)據(jù),人就成為人工智能系統(tǒng)的重要數(shù)據(jù)來源。換言之,人成了人工智能的數(shù)據(jù)產(chǎn)生工具。作為具有主體性的人不僅被客體化,也被對象化、數(shù)據(jù)化。有學者認為,大數(shù)據(jù)異化從根本上說就是人們不能完全控制和規(guī)定大數(shù)據(jù)技術(shù)而導致的非人道、非人性和非自由。[16]某種程度而言,人工智能異化包含大數(shù)據(jù)異化。在人工智能異化中,人成了人工智能系統(tǒng)的一個要素,成為實現(xiàn)人工智能的手段。這背離了人工智能服務于人的目標,導致對人本質(zhì)力量的壓迫。按照馬丁·海德格爾(Martin Heidegger)把技術(shù)理解為“座架”的思想,技術(shù)一方面成為人們的生存背景,另一方面成為一種外在于人的力量,因而對人產(chǎn)生一種“促逼”作用。此種作用也體現(xiàn)出技術(shù)異化的特點。人工智能所導致的技術(shù)異化,跟其他技術(shù)所帶來的技術(shù)異化還不一樣。因為人工智能是從“智能”層面對人的壓迫,而不是某些技術(shù)單方面對人形成的壓迫。馬歇爾·麥克盧漢(Marshall McLuhan)認為,技術(shù)是人體器官的延伸。如果把人工智能看成人大腦的延伸,就能看出人工智能帶來的技術(shù)異化的嚴重后果。布萊斯·帕斯卡爾(Blaise Pascal)說,人是會思考的蘆葦。在人工智能的碾壓下,人的思想不再重要,將會變成純粹的“蘆葦”而已。這不僅僅是對人思想的壓迫,更致命的是,人的存在的根本將不復存在,人之所以為人將成為一個疑問。阿爾法狗與李世石的圍棋大戰(zhàn)中,讓李世石感受到一種恐慌,這就是人工智能對人的智能一種壓迫的表現(xiàn)。
(三)依賴人工智能導致的人的智能下降
技術(shù)的教育應用能夠提升人對技術(shù)的依賴程度。技術(shù)確保現(xiàn)代教育的確定性,但同時會帶來負面影響,最為突出的是降低人的相應能力。以想象力為例,從教育現(xiàn)狀來看,人的想象力被PPT的使用給破壞了。人的想象力依靠語言和形象。傳統(tǒng)課堂上,學生主要靠聽教師講課來學習,或者通過閱讀來思考,這是建立學生想象力的基礎(chǔ)。使用PPT之后,課程傳授的知識量大幅度增加,知識的呈現(xiàn)被特定的畫面固定下來。學生想象力局限在PPT對知識的某種特定呈現(xiàn)。當我們在看電影的時候,大腦幾乎是不思考的,而是被電影鏡頭帶著往前跑。PPT的使用、網(wǎng)絡學習環(huán)境的應用,也會產(chǎn)生這種情況。有學者通過實證研究證明,網(wǎng)絡環(huán)境下人的學習并沒有實際發(fā)生。[17]當人盯著電腦看視頻、看文本來學習的時候,跟人看書來學習相比,效果是要差很多的?,F(xiàn)在都提倡線上線下相結(jié)合的學習,線下的學習效果往往比線上要好,但是在疫情期間,完全脫離線上學習又不現(xiàn)實。一流高校的優(yōu)勢在于提供一種極佳的校園環(huán)境和學習氛圍。在線上教學環(huán)境中,一流高校的那種優(yōu)勢反而被淹沒,因為任何高校在線教學和學習的質(zhì)量,從理論邏輯來看幾乎是相差無幾的。
人工智能作為一種人工塑造的思考能力,其在教育中的應用,將會導致人的智能下降,卡爾·馬克思(Karl Heinrich Marx)關(guān)于勞動的觀點某種程度上可以說明。馬克思認為,勞動是人的本質(zhì)。勞動帶來兩個作用,一是自我對象化,二是對象自我化。自我對象化,意味著人通過勞動將自己的意識變成物質(zhì)產(chǎn)品。對象自我化意味著,人通過勞動提升自己的能力。簡言之,勞動使人既改變世界,又塑造人自身。也就是說,人在勞動的時候使自己某方面的能力得到提升。相反,人在不從事某種勞動時,其相應的能力就會退化。古人常說的“用進廢退”就是這個道理。按照馬克思的理論來解釋,當人類把思考工作交給人工智能,人不再思考,將導致的嚴重后果是,人的思考能力將會下降,即人的智能下降。盡管從知識搜索的角度來看,人工智能的確會提高教師的教學效率和學生的學習效率;但是,人工智能的教育應用,會造成人對人工智能的依賴。由于依賴人工智能,人的各方面智能都會下降。感知、推理、決策等智能都交給人工智能,人在感知、推理、決策方面的能力施展機會必然減少,結(jié)果最終導致人的智能下降。ChatGPT的出現(xiàn),標志著大量的腦力工作可以被人工智能所取代,這在某種程度上意味著人工智能會消滅人的智能。人工智能應用于教育,應該提高人的智能,結(jié)果卻是帶來人的智能下降,甚至消滅人的智能,這是人工智能應用于教育的另一個風險。
(四)侵犯數(shù)據(jù)隱私所導致的倫理風險
人工智能應用于教育,必然要收集大量的數(shù)據(jù)。有學者認為,大數(shù)據(jù)推動社會向前發(fā)展的同時引發(fā)不同于以往的隱私倫理挑戰(zhàn),這種新挑戰(zhàn)表現(xiàn)在數(shù)據(jù)挖掘、數(shù)據(jù)預測、更全面的監(jiān)控等方面。[18]事實上,在人工智能應用于教育的主要環(huán)節(jié),即數(shù)據(jù)收集、數(shù)據(jù)挖掘、數(shù)據(jù)預測、數(shù)據(jù)監(jiān)控,都會侵犯教師和學生的隱私。從數(shù)據(jù)收集來看,在人工智能應用于教育的過程中,無論教師和學生是否愿意,他們在網(wǎng)絡空間或現(xiàn)實教室中的一言一行都會以各種類型的數(shù)據(jù)被收集。這些數(shù)據(jù)當然會涉及教師和學生的隱私問題。從數(shù)據(jù)挖掘來看,人工智能以收集到的數(shù)據(jù)為基礎(chǔ)進行分析、標記、畫像,對教師和學生加以判斷。因為這種判斷的基礎(chǔ)是收集到的數(shù)據(jù),而數(shù)據(jù)不可能是全面有效的,因此這種判斷包含著片面性。這種判斷一般會以標志著某種類型的“標簽”來表示。某種程度而言,這些“標簽”其實是對人的價值的單向否定。從數(shù)據(jù)預測來看,教師和學生的行為可以被人工智能所預測,這等于提前預判人的發(fā)展的可能性結(jié)果,把教育的“可能性”變成“確定性”,讓教師和學生處于“數(shù)據(jù)決定論”的陰影下,從而極大地違背教育的本意。從數(shù)據(jù)監(jiān)控來看,在人工智能的監(jiān)管下,教師和學生幾乎沒有任何反抗的余地,即使反抗也沒有獲勝的機會。教師和學生只是人工智能監(jiān)控的對象,學校有可能成為智能化的“監(jiān)獄”,難以想象在這樣的環(huán)境中教師和學生會健康成長。當教師和學生的數(shù)據(jù)隱私被人工智能侵犯,教師和學生的心理也可能會受到傷害??傊?,由侵犯數(shù)據(jù)隱私所導致的倫理風險,是人工智能應用于教育所帶來的重要后果。
(五)“情智悖論”難題下的教育迷失
人工智能可以模擬人的情緒,難以模擬人的情感。人的情感很復雜,是由內(nèi)向外顯露的,人工智能難以做到這一點。劉悅笛提出“情智悖論”難題:“在人工智能與機器試圖擁有情感之際,情與智力之間就形成一種內(nèi)在矛盾。這個悖論里的‘情’是復數(shù)的,而‘智力’則是單數(shù)的,二者形成悖謬張力,即理性化的智力愈發(fā)達,就愈加要面對模擬人類復雜性情感與情感的復雜性,然而,越是如此,情感反而被理性越推越遠。”[19]在這個難題下,人工智能應用于教育極有可能帶來情感缺失。就某方面而言,教育的核心目標在于培養(yǎng)人的情感健康成長。為了達到這個目標,需要教師和學生之間具有積極意義的情感互動。由于人工智能的介入,教師和學生之間的情感互動將會減弱,這對學生的情感成長不利。培養(yǎng)學生的健康情感,絕對不是通過學生與機器之間的互動可以實現(xiàn)的。由于存在“情智悖論”難題,人工智能天然具有情感缺陷,將之在教育中進行應用可能會帶來人的冷漠,最終導致教育的迷失。據(jù)說人工智能在情感計算領(lǐng)域有很大突破,可以模擬人的喜怒哀樂。即使人工智能具備情感,當把具備情感能力的人工智能應用于教育的時候,也會帶來無法預料的災難。因為人工智能的情感是假的,是人工制造出來的,用這種假的情感來和學生交流,學生的情感能力會朝向哪里發(fā)展,這是值得深思的問題。
(六)惡意使用人工智能引發(fā)的后果
人工智能本身是沒有決策能力的,它只能給人提供參考。當人惡意使用人工智能來干壞事的時候,可能會引發(fā)嚴重的危機局面。從網(wǎng)絡安全、信息安全的角度而言,幾乎沒有機制能絕對阻止這種局面的發(fā)生,而大多只能在事后去補救。然而,惡意使用人工智能造成的后果有可能無法補救。在教育領(lǐng)域中惡意使用人工智能,可能會帶來信息泄露、不公平競爭、網(wǎng)絡犯罪等后果。如果把人工智能當成信息技術(shù)中的“核武器”,那么惡意使用人工智能就等同于在現(xiàn)實世界中惡意使用核武器,這將帶來無法控制的可怕結(jié)局。伊隆·馬斯克(Elon Musk)曾多次公開表示過對人工智能的擔憂,他認為不受控制的人工智能比核武器還危險。[20]這種危險也是人工智能應用于教育可能會帶來的風險。如果使用人工智能進行考試作弊,那么考試的公平性就蕩然無存。如果使用人工智能來進行網(wǎng)上輿論攻擊,那么網(wǎng)絡輿論的真實性就無法得到保證。如果使用人工智能來進行學生學業(yè)的預測和評估,那么將可能喪失教育的公正性。因此,在教育中惡意使用人工智能,所引發(fā)的后果是難以控制的。因此,強調(diào)人工智能的倫理規(guī)則非常重要。
三、應對之道
人工智能在教育中的應用會帶來上述風險,而且這些風險近似無解。盡管如此,在把人工智能應用于教育的過程中,若能采用合適的應對之道,可以減少上述風險出現(xiàn)的可能性。
(一)回歸教育的育人本質(zhì)
教育作為一種社會活動,其本質(zhì)在于育人。阿爾伯特·愛因斯坦(Albert Einstein)認為,學校的目標應當是培養(yǎng)有獨立行動和獨立思考的個人,不過他們要把為社會服務看成是自己人生的最高目的。愛因斯坦的這個觀點是教育育人本質(zhì)的一個很好的說明。[21]既然教育是為了育人,那么教育就不應該是技術(shù)應用秀。教育要回歸育人本質(zhì),就應該把目標聚焦在人的培養(yǎng)上面,讓人自由充分地發(fā)展,而不是讓教育淪為人工智能應用秀的場域。為了回歸育人本質(zhì),就不能把人工智能強加在教育上。為了培養(yǎng)有獨立行動和獨立思考的個人,教育需要放慢節(jié)奏,把時間歸還給學生,通過對學生的興趣引導,讓學生掌握學習的主動性和積極性,從而實現(xiàn)自我學習、自我教育、自我發(fā)展。教育要放慢節(jié)奏,就應該盡可能地減少人工智能在教育中的應用。如此,在理論的邏輯上可以減少人工智能給教育帶來的風險?;貧w教育的育人本質(zhì),不是一種宣傳口號,而是要付諸實踐。“雙減”的實質(zhì),其實就是回歸育人本質(zhì),減少學生的學業(yè)負擔,把對人的培養(yǎng)放在核心的位置。要回歸教育的育人本質(zhì),需要整個教育系統(tǒng)進行全方位變革,從理念、政策、制度、校園、課程、考試、評價等方面進行教育本質(zhì)的回歸。
(二)對人工智能要有全面深入的認識
在教育中應用人工智能之前,對人工智能必須要有全面深入的認識,從而對人工智能在教育中的應用保持一種謹慎的態(tài)度。該如何認識人工智能呢?一方面要看到,人工智能具有巨大的潛能,在感知、識別、推理、決策等功能上有著超越人類的強大能力,因而將其應用在教育當中可以帶來人們期盼的“效率”的提升。另一方面,要從哲學高度看到人工智能所帶來的風險。趙汀陽認為,長遠而終極的威脅,也是人們最怕的事情,當然是將來可能出現(xiàn)自主超級人工智能,擁有自主意識和自由意志,擁有遠遠超過人的智力,也就是一種在存在級別上高于人的新智能存在,這個存在的革命的另一種表達是人類的終結(jié)。[22]從存在論的角度來看,如果人工智能將導致人類的終結(jié),那么在教育中使用人工智能可能會加快人類終結(jié)的到來。因此,對人工智能在教育中的應用,應當慎之又慎。
當然,哲學不僅僅探討存在論,還探討包括認識論、價值論、實踐論等在內(nèi)的許多方面,這些都可以作為思考人工智能的維度。只有全面深入地認識人工智能,才能對人工智能在教育中的應用有更深刻的思考,才不會導致在教育中濫用人工智能,從而避免一些風險。當前,在整個教育圈,尤其是教育技術(shù)界,存在一個極其不好的現(xiàn)象:大部分人在為人工智能的教育應用而歡呼,似乎人工智能是一方靈丹妙藥,能夠包治百病。其實很多人對人工智能根本不了解。從沒寫過代碼的人、從沒搞過算法的人、從沒用過人工智能的人,在大談特談人工智能教育應用的輝煌前景。此種現(xiàn)象不僅不利于教育的健康發(fā)展,反而有害于教育的正常發(fā)展。因此,對人工智能一定要有全面深入的認識,不能人云亦云、不知所云。
(三)加強對人工智能在教育中應用的監(jiān)管
要監(jiān)管對數(shù)據(jù)的收集。要明確哪些數(shù)據(jù)是人工智能程序可以收集的,哪些數(shù)據(jù)是教師、學生愿意給人工智能程序收集的,哪些數(shù)據(jù)是不能給人工智能程序收集的。還要監(jiān)管對數(shù)據(jù)進行分析處理后產(chǎn)生的結(jié)果。要明確這些數(shù)據(jù)的使用權(quán)限和呈現(xiàn)范圍,不能造成數(shù)據(jù)泄露,要充分地考慮數(shù)據(jù)安全問題。從人本主義角度出發(fā),人工智能所收集數(shù)據(jù)的來源者應該對這些數(shù)據(jù)具備充分的擁有權(quán)。為了加強對人工智能的監(jiān)管,教育事務的主管部門應出臺相關(guān)政策文件,以對人工智能的數(shù)據(jù)收集和數(shù)據(jù)使用進行規(guī)范,并防止人工智能在教育中的濫用。在加強對人工智能教育應用的監(jiān)管上,需要系統(tǒng)性、全方位地推動。教育行政領(lǐng)導需要從政策制定上嚴把人工智能的教育入口關(guān),要明確教育中哪些場景可以由人工智能介入、哪些場景不能使用人工智能。如AI只能應用在教師“能做”“會做”卻“難做”的工作上,這樣的原則將AI永遠置于工具的地位而不是可能替代教師的主體地位。學校信息化部門,要做好充分的測試,防止人工智能程序在校園應用中帶來不可控的后果。教師和學生,對人工智能的教育應用,不能盲目崇拜,而是要謹小慎微,不能陷在人工智能應用的泥潭而出不來。需建立第三方機構(gòu),對企業(yè)的人工智能產(chǎn)品和應用進行評估,把風險盡可能揭示出來,以改進產(chǎn)品和應用,從而盡量避免人工智能教育應用帶來的不良影響。
參考文獻:
[1]余勝泉.人工智能教師的未來角色[J].開放教育研究,2018,24(1):16-28.
[2]袁振國.未來教育,屬于這六類教師[J].教書育人,2018(32):1.
[3]顧小清,舒杭,白雪梅.智能時代的教師工具:喚醒學習設計工具的數(shù)據(jù)智能[J].開放教育研究,2018,24(5):64-72.
[4][6][9]王哲,李雅琪,馮曉輝,等.人工智能在教育領(lǐng)域的發(fā)展態(tài)勢與思考展望[J].人工智能,2019(3):15-21.
[5]張慧,黃榮懷,李冀紅,等.規(guī)劃人工智能時代的教育:引領(lǐng)與跨越——解讀國際人工智能與教育大會成果文件《北京共識》[J].現(xiàn)代遠程教育研究,2019,31(3):3-11.
[7]楊現(xiàn)民,唐斯斯,李冀紅.發(fā)展教育大數(shù)據(jù):內(nèi)涵、價值和挑戰(zhàn)[J].現(xiàn)代遠程教育研究,2016(1):50-61.
[8]牟智佳.學習者數(shù)據(jù)肖像支撐下的個性化學習路徑破解——學習計算的價值賦予[J].遠程教育雜志,2016,34(6):11-19.
[10]孟翀,王以寧.教育領(lǐng)域中的人工智能:概念辨析、應用隱憂與解決途徑[J].現(xiàn)代遠距離教育,2021(2):62-69.
[11]李世瑾,胡藝齡,顧小清.如何走出人工智能教育風險的困局:現(xiàn)象、成因及應對[J].電化教育研究,2021(7):19-25.
[12]趙磊磊,張黎,代蕊華.教育人工智能倫理:基本向度與風險消解[J].現(xiàn)代遠距離教育.https://doi.org/10.13927/j.cnki.yuan.20210831.005.
[13]于桂鳳.論羅薩的社會加速批判理論[J].理論界,2020(1):37-42.
[14]邱昆樹,張寅.教育現(xiàn)代性批判:基于社會加速批判理論的視角[J].教育發(fā)展研究,2020(8):14-22.
[15]郭沖辰,陳凡.技術(shù)異化的價值觀審視[J].科學技術(shù)與辯證法,2002(2):1-5.
[16]陳仕偉.大數(shù)據(jù)異化的倫理治理[J].自然辯證法研究,2016(1):46-50.
[17]黃榮懷,張振虹,陳庚,等.網(wǎng)上學習:學習真的發(fā)生了嗎?——跨文化背景下中英網(wǎng)上學習的比較研究[J].開放教育研究,2007(6):12-24.
[18]薛孚,陳紅兵.大數(shù)據(jù)隱私倫理問題探究[J].自然辯證法研究,2015(2):44-48.
[19]劉悅笛.人工智能、情感機器與“情智悖論”[J].探索與爭鳴,2019(6):76-88,158.
[20]萬成.“終結(jié)者”?霍金與馬斯克都對人工智能表示擔憂[J].華東科技,2015(3):15.
[21]許良英,趙中立,張宣三.愛因斯坦文集第三卷[M].北京:商務印書館,1979:143.
[22]趙汀陽.人工智能會是一個要命的問題嗎?[J].開放時代,2018(6):49-54.
Risks of Artificial Intelligence Application in Education and Its Response
Wei TAN1, Manyin ZHANG1, Liang CHEN2
(1.Institute of Lifelong Educational Studies, Open University of China, Beijing 100039;
2.Beijing Huafeng Test amp; Control Technology Co., Ltd., Beijing 100070)
Abstract: Based on the analysis of the benefits of artificial intelligence to education, this paper discussed the possible risks of artificial intelligence application in education, including the loss of human subject status under the background of “education acceleration”, the artificial intelligence’s oppression of human essential power from the perspective of “technological alienation”, the decline in human intelligence caused by relying on artificial intelligence, the ethical crisis caused by infringement of data privacy, the loss of education under the “Paradox of Emotion-intellect” problem, and consequences caused by the malicious use of artificial intelligence. In response to these risks, solutions have to be proposed, including returning to the educating nature of education, having a comprehensive and in-depth understanding of artificial intelligence, and strengthening the supervision of the application of artificial intelligence in education.
Keywords: Artificial intelligence; Education; Risks
編輯:王天鵬" "校對:王曉明
DOI: 10.3969/j.issn.1673-8454.2023.07.003
作者簡介:譚偉,國家開放大學終身教育研究院副研究員,博士(北京 100039);張曼茵,國家開放大學終身教育研究院副教授,博士(北京 100039);陳良, 北京華峰測控技術(shù)股份有限公司工程師,碩士(北京 100070)