●陳祥梅 寧本濤
人工智能技術(shù)作為信息科技的高階發(fā)展,為推動教育領(lǐng)域的改革與創(chuàng)新發(fā)展提供了堅(jiān)實(shí)的技術(shù)基石。2019 年,中共中央、國務(wù)院印發(fā)的《中國教育現(xiàn)代化2035》強(qiáng)調(diào)“加快信息化時(shí)代教育變革”,人工智能教育已成為實(shí)現(xiàn)規(guī)?;逃c個(gè)性化培養(yǎng)有機(jī)結(jié)合的重要技術(shù)手段。技術(shù)賦能教學(xué)、技術(shù)促進(jìn)學(xué)習(xí)的呼聲不絕于耳,然而人工智能技術(shù)給教育領(lǐng)域帶來變革希望的同時(shí),亦存在人工智能數(shù)據(jù)濫用、過度依賴人工智能教育等現(xiàn)象,引發(fā)人工智能教育焦慮。人工智能教育產(chǎn)品研發(fā)過程中潛在的偏見使教育領(lǐng)域面臨多重風(fēng)險(xiǎn)與焦慮[1],以及人工智能教育存在將自定步調(diào)重復(fù)學(xué)習(xí)視為個(gè)性化學(xué)習(xí)的隱患等[2]。然而當(dāng)前學(xué)術(shù)界關(guān)于人工智能教育焦慮的系統(tǒng)論述研究尚不完善,本研究旨在分析人工智能教育產(chǎn)生的消極現(xiàn)象、探究背后的本質(zhì)成因并提出相應(yīng)的緩解對策,以期為人工智能教育的理性發(fā)展和科學(xué)應(yīng)用提供些許參考。
人工智能熱潮帶來教育新的發(fā)展業(yè)態(tài)的同時(shí),也引發(fā)了人工智能教育焦慮。Wang 指出人工智能焦慮是一種抑制人類與人工智能發(fā)生交互作用且表現(xiàn)在整體情感上的焦慮[3]。Johnson 認(rèn)為人工智能焦慮是由于人們對人工智能發(fā)展方向的不明確而產(chǎn)生的一種緊張和恐慌情緒[4]。參考相關(guān)學(xué)者定義,本研究將人工智能教育焦慮界定為人工智能技術(shù)在教育領(lǐng)域應(yīng)用過程中產(chǎn)生的焦慮情緒。人工智能教育焦慮主要表現(xiàn)在以下幾個(gè)方面。
在使用人工智能教育產(chǎn)品時(shí),人工智能技術(shù)需獲取、存儲、管理和應(yīng)用使用者的數(shù)據(jù),在此過程中經(jīng)常出現(xiàn)人工智能教育數(shù)據(jù)的泄露、侵權(quán)、盜用甚至被利用的現(xiàn)象[5],以及因違背倫理道德所產(chǎn)生的教育數(shù)據(jù)倫理風(fēng)險(xiǎn)[6],引發(fā)人們對人工智能教育的數(shù)據(jù)安全焦慮。如《2022 人工智能教育藍(lán)皮書》研究結(jié)果顯示,學(xué)校管理層愿意積極推進(jìn)人工智能教學(xué)應(yīng)用,但對人工智能技術(shù)在教育應(yīng)用中可能導(dǎo)致師生的個(gè)人信息泄露或被監(jiān)視等問題較為擔(dān)憂,以及近年來頻繁出現(xiàn)的以“教育創(chuàng)新”之名監(jiān)控學(xué)生的現(xiàn)象。學(xué)生穿戴智能芯片校服,學(xué)校和家長可實(shí)時(shí)動態(tài)了解學(xué)生的位置,并能夠進(jìn)行軌跡分析,存在違背道德倫理的隱憂。人工智能教育數(shù)據(jù)安全焦慮表面上是一種焦慮情緒,本質(zhì)上反映的則是當(dāng)前新技術(shù)挑戰(zhàn)舊有教育數(shù)據(jù)管理體系、相關(guān)技術(shù)應(yīng)用不規(guī)范和人工智能教育倫理觀念的缺失導(dǎo)致對人工智能教育數(shù)據(jù)的濫用,以及因教育問題的復(fù)雜性和教育對象的特殊性,教育的人本價(jià)值秩序在使用人工智能技術(shù)的過程中可能會被弱化的問題。
人工智能技術(shù)提供了便利、精準(zhǔn)和個(gè)性化的服務(wù),人工智能算法為學(xué)習(xí)者“量身定制”個(gè)性化學(xué)習(xí)方案,人們的使用體驗(yàn)較好并逐漸對人工智能技術(shù)產(chǎn)生了信任和依賴。但人工智能技術(shù)并沒有人類預(yù)想的“完全可信”,使用者在技術(shù)方便中不自覺地產(chǎn)生依賴甚至被誤導(dǎo),個(gè)人思辨能力逐漸缺乏[7]。人工智能算法的個(gè)性化推薦已被發(fā)現(xiàn)存在推薦內(nèi)容同質(zhì)化的問題,人工智能基于用戶的行為和興趣習(xí)慣來為特定群體做精準(zhǔn)的內(nèi)容投放將會導(dǎo)致特定群體同質(zhì)、群體間異質(zhì)現(xiàn)象嚴(yán)重,最終導(dǎo)致“群體極化”現(xiàn)象[8]。推薦給學(xué)生的學(xué)習(xí)資源同質(zhì)化,學(xué)生接受的信息會被限制在算法的提供范圍內(nèi),這將會在一定程度上窄化學(xué)生的思維、價(jià)值觀等,抑制學(xué)生的多元化發(fā)展。且個(gè)性化學(xué)習(xí)方案是在算法標(biāo)準(zhǔn)化的運(yùn)行機(jī)制下產(chǎn)生的。依托大數(shù)據(jù)算法的規(guī)?;?、標(biāo)準(zhǔn)化的個(gè)性化,是“真?zhèn)€性化服務(wù)”,還是一種“偽個(gè)性化的標(biāo)準(zhǔn)化服務(wù)”[9]?抑或是個(gè)性化學(xué)習(xí)方案是否能有效促進(jìn)學(xué)習(xí)者的全面發(fā)展?這些懸而未答的疑惑,引發(fā)人工智能教育依賴誤導(dǎo)焦慮。
近年來,人工智能教育領(lǐng)域頻繁出現(xiàn)人工智能技術(shù)刻板評估教師、忽視殘障學(xué)生、教育違規(guī)收費(fèi)、性別歧視、學(xué)生家庭歧視和學(xué)生成績評估偏見等現(xiàn)象[10]。人工智能技術(shù)基于教育大數(shù)據(jù)采用算法進(jìn)行分析,從而對不同特征群體的使用者采用不同的策略,產(chǎn)生偏見或歧視傾向或行為,或?qū)е麓笠?guī)模的群體偏見歧視,使群體感知到非公平的對待,從而產(chǎn)生人工智能教育焦慮情緒。人工智能教育偏見歧視主要來源于設(shè)計(jì)者和算法的偏見歧視,其背后的內(nèi)在機(jī)理在于算法研發(fā)者的偏見和歧視行為會在算法的推斷與執(zhí)行過程中不斷加以強(qiáng)化,并最終通過人工智能教育產(chǎn)品的應(yīng)用潛移默化“植入”使用者的頭腦中,從而固化或改變其行為選擇[11],導(dǎo)致偏見歧視行為的惡性迭代。人工智能技術(shù)的發(fā)展使得為不同特征的學(xué)習(xí)者提供相適應(yīng)的教學(xué)支持成為可能,但是當(dāng)人工智能偏見和歧視進(jìn)入教育領(lǐng)域,帶來的可能將是“教育偏見歧視”,而非“因材施教”[12]。
人工智能時(shí)代的到來,引發(fā)了人工智能學(xué)習(xí)的熱潮,人工智能相關(guān)課程逐漸得以普及[13]。人工智能教育逐漸呈現(xiàn)低齡化發(fā)展趨勢,從高中教材到小學(xué)教育,甚至幼兒編程都可以看到人工智能的身影。給幼兒學(xué)習(xí)者開展復(fù)雜的人工智能編程培訓(xùn)是否有必要,這一問題雖未有定論[14],但相關(guān)研究也表明幼兒學(xué)習(xí)者通過學(xué)習(xí)人工智能教育,可以鍛煉他們的思維和邏輯能力,激發(fā)其探究的好奇心和創(chuàng)造力,提升幼兒學(xué)習(xí)者的信息素養(yǎng)[15]。家長希望自己的子女“不輸在起跑線上”,有更多的技能可以“傍身”,爭相參加校外教育培訓(xùn)機(jī)構(gòu)針對低齡兒童推出的人工智能教育課程班,導(dǎo)致人工智能教育的低齡化現(xiàn)象越來越嚴(yán)重。人工智能教育低齡化是否符合教育身心發(fā)展的基本規(guī)律?幼兒學(xué)習(xí)者是否達(dá)到編程所需的英語、數(shù)學(xué)和閱讀門檻基礎(chǔ)[16]?這一系列懸而未決的問題均指向當(dāng)前人工智能教育課程領(lǐng)域幼兒學(xué)習(xí)者開展人工智能教育的適切性問題以及由適切性問題引發(fā)的人工智能教育課程標(biāo)準(zhǔn)界定不一、課程內(nèi)容缺乏合理性等諸多現(xiàn)實(shí)問題。
焦慮現(xiàn)象背后折射焦慮情緒本因,只有透析焦慮現(xiàn)象背后的本質(zhì),才能“對癥下藥”,找到應(yīng)對人工智能教育焦慮之法。人工智能教育四重焦慮的具體成因分析如下。
當(dāng)前,新技術(shù)挑戰(zhàn)舊有教育數(shù)據(jù)管理體系、相關(guān)技術(shù)應(yīng)用不規(guī)范以及人工智能教育倫理觀念的缺失導(dǎo)致對人工智能教育數(shù)據(jù)的濫用,由此引發(fā)人工智能教育數(shù)據(jù)安全焦慮。首先是人工智能技術(shù)對舊有教育數(shù)據(jù)管理體系的挑戰(zhàn)。人工智能技術(shù)與相應(yīng)的教育數(shù)據(jù)管理體系和管理制度等方面相比發(fā)展較為迅速,很多教育互聯(lián)網(wǎng)企業(yè)在用戶數(shù)據(jù)隱私的紅線邊緣徘徊。相關(guān)教育數(shù)據(jù)安全管理體系和管理制度的不完善[17],導(dǎo)致數(shù)據(jù)侵權(quán)、濫用和盜用現(xiàn)象屢見不鮮,引發(fā)使用者人工智能教育數(shù)據(jù)安全焦慮。其次是相關(guān)技術(shù)應(yīng)用不規(guī)范。大部分人工智能教育產(chǎn)品硬性要求讀取用戶個(gè)人隱私信息,使用者不開放權(quán)限將無法使用該項(xiàng)教育服務(wù)。甚至部分人工智能產(chǎn)品在未經(jīng)使用者授權(quán)同意的情況下自動獲取使用者個(gè)人數(shù)據(jù)。為體驗(yàn)到更加精準(zhǔn)和個(gè)性化的人工智能教育服務(wù),使用者必須讓渡一部分的隱私權(quán)給人工智能技術(shù)。在讓渡隱私權(quán)的過程中,使用者產(chǎn)生人工智能技術(shù)隱私侵犯的焦慮,擔(dān)心私人信息被監(jiān)控甚至被利用。最后是人工智能教育倫理觀念的缺失。開放教育數(shù)據(jù)的挑戰(zhàn)很大一部分原因在于觀念層面。教育問題不同于其他領(lǐng)域問題,不同于工業(yè)領(lǐng)域生產(chǎn)、技術(shù)領(lǐng)域等的升級。教育的對象是人,更加注重人本價(jià)值取向追求[18]。隨著人工智能技術(shù)更多的應(yīng)用于教育領(lǐng)域,琳瑯滿目的人工智能教育產(chǎn)品競相亮相,沖擊著原本的人、技術(shù)、數(shù)據(jù)和倫理之間的關(guān)系。
對人工智能技術(shù)的過度依賴引發(fā)人工智能教育依賴誤導(dǎo)焦慮。首先,感受世界的視角影響和決定了我們對世界的判斷。人工智能技術(shù)的感知系統(tǒng)遠(yuǎn)沒有達(dá)到精準(zhǔn)描述和再現(xiàn)世界的程度。人工智能技術(shù)依然缺乏很多維度的“觸角”,數(shù)據(jù)獲取維度的不全面性將加劇人工智能誤導(dǎo),引發(fā)人工智能教育誤導(dǎo)焦慮。其次,教育追求的是人的更好發(fā)展,但人更好發(fā)展的標(biāo)準(zhǔn)涉及價(jià)值觀。不同對象因其成長背景、環(huán)境不同對其自身發(fā)展標(biāo)準(zhǔn)界定不同,甚至有些界定之間本身存在沖突。因此用統(tǒng)一標(biāo)準(zhǔn)化的算法去衡量所有學(xué)習(xí)者的更好發(fā)展,引發(fā)人們對人工智能教育同質(zhì)化、絕對化的焦慮。最后,人工智能技術(shù)依據(jù)學(xué)習(xí)者的學(xué)習(xí)特征提供個(gè)性化學(xué)習(xí)方案,學(xué)習(xí)者的學(xué)習(xí)體驗(yàn)較好。按理說,這是一種非常理想化的學(xué)習(xí)方式,但這或許是一種假象。學(xué)習(xí)者在技術(shù)方便中不自覺地越來越依賴人工智能技術(shù)[19],個(gè)人思辨能力逐漸缺失,引發(fā)人工智能教育依賴焦慮。人工智能技術(shù)刻意屏蔽了算法程序中認(rèn)為與學(xué)習(xí)者不匹配的知識與內(nèi)容,而屏蔽掉的部分或許是學(xué)習(xí)者缺乏和需要得到強(qiáng)化的部分,從而導(dǎo)致學(xué)習(xí)者的全面發(fā)展受限。再者,基于人工智能技術(shù)捕捉到的學(xué)習(xí)者即時(shí)反饋信息并對其調(diào)整學(xué)習(xí)方案,關(guān)注的只是學(xué)習(xí)者的短期情況,而長遠(yuǎn)的關(guān)于人的價(jià)值觀、責(zé)任感和理想信念等的形成,人工智能技術(shù)則無法觸及。
人工智能教育偏見歧視焦慮主要來源于設(shè)計(jì)者偏見和算法偏見。一方面,人工智能教育產(chǎn)品在設(shè)計(jì)開發(fā)時(shí)便被植入了設(shè)計(jì)者和開發(fā)者的偏見。負(fù)責(zé)開發(fā)教育智能產(chǎn)品的設(shè)計(jì)團(tuán)隊(duì)以技術(shù)人員為主,偏見的一部分來自開發(fā)團(tuán)隊(duì)自身教育理論經(jīng)驗(yàn)不足、片面采集數(shù)據(jù)和忽視特殊受眾群體。在設(shè)計(jì)人工智能相關(guān)教育產(chǎn)品的過程中,并未考慮到在認(rèn)知和注意等方面存在障礙的學(xué)習(xí)群體,這些群體被人工智能教育忽視和邊緣化。人工智能教育應(yīng)用產(chǎn)品在設(shè)計(jì)之初便帶入了設(shè)計(jì)人員的偏見,而算法的不斷強(qiáng)化將會導(dǎo)致迭代的偏見。另一方面便是人工智能算法導(dǎo)致的偏見[20]。如上文所述算法會存在誤導(dǎo)問題,也會導(dǎo)致偏見問題。人工智能教育獲取使用者的數(shù)據(jù)類似于工廠需加工的“原材料”,“原材料”在進(jìn)入工廠時(shí)便被加上了設(shè)計(jì)者的偏見。算法類似于工廠的機(jī)器,機(jī)器運(yùn)行加工原材料時(shí)也被添加了算法工程師的偏見。如英國A-Level 和GCSE 考試事件便是算法導(dǎo)致偏見的例子,由于這兩個(gè)事件產(chǎn)生的社會負(fù)面影響過大,已被專業(yè)人士剖析并有后續(xù)的解決措施。而大部分情況下由于人工智能技術(shù)相關(guān)算法如神經(jīng)網(wǎng)絡(luò)一般缺少解釋性[21],以及其內(nèi)在的運(yùn)行機(jī)理缺乏透明度等問題,很多使用者受到歧視和偏見的問題并不會被發(fā)現(xiàn)。
由于教育的人力資本效應(yīng)以及我國義務(wù)教育優(yōu)質(zhì)資源的不均衡,家長迫切希望自己的子女可以獲得更好的教育,有更多的技能可以“傍身”,教育過度競爭和教育“內(nèi)卷”現(xiàn)象愈演愈烈?!皟?nèi)卷”一詞出自格爾茨《農(nóng)業(yè)的內(nèi)卷化》,用來表達(dá)一種“不經(jīng)濟(jì)而勞累”的模式[22]。在當(dāng)前技術(shù)快速發(fā)展的時(shí)代,編程能力是從升學(xué)自主招生到高考再到未來就業(yè)的核心競爭力之一,校外編程培訓(xùn)課程受到家長的青睞。有調(diào)查顯示,在中小學(xué)生校外培訓(xùn)課程中,除藝術(shù)類和體育類校外培訓(xùn)課程外,計(jì)算機(jī)編程類課程選擇的人最多[23]。且近年來人工智能學(xué)習(xí)者的低齡化趨勢明顯,很多的幼兒園學(xué)生開始接觸計(jì)算機(jī)編程課程,引發(fā)人工智能教育學(xué)習(xí)焦慮。人工智能教育低齡化是否符合教育身心發(fā)展的基本規(guī)律?“編程”是否能真正促進(jìn)兒童的個(gè)體發(fā)展?這些疑問當(dāng)前學(xué)術(shù)界暫未有明確的定論。再者,當(dāng)前人工智能教育課程在教材標(biāo)準(zhǔn)和設(shè)計(jì)方面存在諸多問題。傳統(tǒng)學(xué)科教育如數(shù)學(xué)、化學(xué)和物理等經(jīng)歷了多年的積淀和改革,無論是從教材標(biāo)準(zhǔn)還是從課程設(shè)計(jì)方面都較為科學(xué)和規(guī)范。人工智能技術(shù)本身屬于一個(gè)新興技術(shù),人工智能教育課程目前在規(guī)范性和系統(tǒng)性等方面仍需進(jìn)一步完善,這也給人工智能學(xué)習(xí)者的學(xué)習(xí)帶來較大的挑戰(zhàn)。
隨著人工智能技術(shù)在教育場景中的深度應(yīng)用,如何緩解人工智能教育焦慮,更好地收獲人工智能教育紅利,是當(dāng)前亟待解決的現(xiàn)實(shí)問題?;谒闹厝斯ぶ悄芙逃箲]的深度剖析,我們提出如下有針對性地緩解人工智能教育教育焦慮的對策。
教育與人工智能技術(shù)相互融合形成了一種全新的教育形態(tài),新的教育形態(tài)勢必挑戰(zhàn)舊有的教育治理體系,應(yīng)構(gòu)建與算法時(shí)代相適應(yīng)的教育數(shù)據(jù)安全治理體系。首先,完善相關(guān)人工智能數(shù)據(jù)安全保護(hù)制度。教育數(shù)據(jù)獲取必須征得使用者的授權(quán)同意,隨著當(dāng)前調(diào)用數(shù)據(jù)的開源化和多元化趨勢,這一點(diǎn)尤為重要。必須保證人工智能技術(shù)對使用者教育數(shù)據(jù)采集獲取、調(diào)用及管理等過程的規(guī)范性。尤其禁止以商業(yè)盈利化目的對教師和學(xué)生數(shù)據(jù)濫用的行為,保障使用者的個(gè)人隱私權(quán),消除使用者教育數(shù)據(jù)隱私侵犯的焦慮。其次,開發(fā)和應(yīng)用新興技術(shù)保障使用者數(shù)據(jù)安全。應(yīng)用新興的數(shù)據(jù)安全技術(shù),如聯(lián)邦學(xué)習(xí)法、區(qū)塊鏈等,保障人工智能教育的數(shù)據(jù)安全。如谷歌公司于2016 年首創(chuàng)的一種基于機(jī)器學(xué)習(xí)的聯(lián)邦學(xué)習(xí)法,學(xué)習(xí)者通過聯(lián)邦學(xué)習(xí)可以將個(gè)人隱私信息保留到本地?cái)?shù)據(jù)庫。人工智能技術(shù)在調(diào)用數(shù)據(jù)時(shí),只需調(diào)用本地聯(lián)邦學(xué)習(xí)下構(gòu)建的經(jīng)處理后的個(gè)人隱私數(shù)據(jù)的模型、參數(shù)等,不直接調(diào)用使用者個(gè)人隱私原始數(shù)據(jù),從而從根本上杜絕了人工智能教育數(shù)據(jù)隱私外泄的風(fēng)險(xiǎn)[24]。最后,構(gòu)建以人本價(jià)值為取向的數(shù)據(jù)服務(wù)倫理秩序。在隱私保護(hù)政策制度和先進(jìn)數(shù)據(jù)技術(shù)無法施展的區(qū)域,用人工智能倫理規(guī)約的方式助力數(shù)據(jù)安全風(fēng)險(xiǎn)治理,消除使用者教育數(shù)據(jù)倫理安全焦慮[25]。人工智能技術(shù)只是一項(xiàng)技術(shù),人類對技術(shù)所做的努力是為了人和社會更好地發(fā)展?;诮逃龑ο蟮奶厥庑院徒逃齼?nèi)容的復(fù)雜性,要求必須構(gòu)建“以人為本”的人本價(jià)值取向的人工智能社會。
人工智能技術(shù)為人們提供教育便利的同時(shí)也存在人們逐漸對人工智能技術(shù)產(chǎn)生依賴、人類與機(jī)器主客易位以及人工智能技術(shù)對人類產(chǎn)生誤導(dǎo)等諸多問題,引發(fā)人工智能教育焦慮。應(yīng)從增強(qiáng)技術(shù)手段、強(qiáng)化人機(jī)協(xié)同機(jī)制以及理性運(yùn)用人工智能技術(shù)等方面緩解人工智能教育依賴誤導(dǎo)焦慮。首先,應(yīng)加大人工智能技術(shù)獲取數(shù)據(jù)的前端傳感研究力度。感受世界的視角影響和決定了我們對世界的判斷。從人工智能技術(shù)數(shù)據(jù)收集的維度方面來說,當(dāng)前人工智能技術(shù)的感知系統(tǒng)遠(yuǎn)沒有達(dá)到精準(zhǔn)描述和再現(xiàn)世界的程度,依然缺乏很多維度的“觸角”。加大對人工智能技術(shù)前端傳感研究投入,以獲取更加全面多維的數(shù)據(jù),更好地服務(wù)使用者。其次,人類智能和人工智能相結(jié)合,彼此揚(yáng)長避短更好發(fā)揮人工智能技術(shù)的作用,并促進(jìn)其逐漸形成一種人與技術(shù)交互式的、日益融合的關(guān)系。人類智能和人工智能各自擅長的領(lǐng)域不同,兩者之間協(xié)同合作、相互作用、雙向賦能產(chǎn)生整體效應(yīng),其發(fā)揮的效能大于等于“人類智能”和“人工智能”單獨(dú)作用時(shí)發(fā)揮的能效之和[26],從而緩解人工智能教育依賴誤導(dǎo)焦慮。最后,理性運(yùn)用人工智能技術(shù)。尊重人類自身身心發(fā)展的教育規(guī)律,牢牢把握住教育決策權(quán)、選擇學(xué)習(xí)方案的自主權(quán)。用辯證發(fā)展的眼光運(yùn)用該項(xiàng)技術(shù),不完全依賴于人工智能技術(shù),不讓人工智能技術(shù)成為人類發(fā)展?jié)撃艿南拗菩砸蛩亍?/p>
為更加充分、廣泛和深度地將人工智能技術(shù)運(yùn)用于教育領(lǐng)域,激發(fā)人工智能技術(shù)更好服務(wù)教育的潛能,緩解人工智能教育技術(shù)的偏見歧視焦慮,應(yīng)從人的全面發(fā)展視角探討人工智能教育核心算法的使用規(guī)則。首先,提高研發(fā)團(tuán)隊(duì)對教育基本理論和教育規(guī)律的認(rèn)識和理解,將更多的教育概念融入算法框架中。教育算法必須以教育理論為依據(jù)[27],堅(jiān)持以人的全面發(fā)展為導(dǎo)向。人工智能教育產(chǎn)品研發(fā)團(tuán)隊(duì)需引入多種角色,引入教育領(lǐng)域?qū)<覍W(xué)者為人工智能教育產(chǎn)品的研發(fā)提供理論指導(dǎo),引入教育智能產(chǎn)品的實(shí)際使用者反映用戶實(shí)際需求,從而在人工智能教育產(chǎn)品的設(shè)計(jì)開發(fā)源頭上避免偏見歧視的進(jìn)入。其次,完善人工智能技術(shù)運(yùn)用于教育領(lǐng)域的準(zhǔn)入機(jī)制、監(jiān)管機(jī)制和退出機(jī)制。在產(chǎn)品發(fā)布之前需經(jīng)過多輪審查和試驗(yàn),加強(qiáng)人工智能應(yīng)用產(chǎn)品關(guān)于偏見和歧視等方面的檢測和評估。對無法促進(jìn)人全面發(fā)展的人工智能教育產(chǎn)品不予發(fā)布,提前規(guī)避人工智能教育的歧視偏見問題。對于已經(jīng)發(fā)布的人工智能教育應(yīng)用需不定期進(jìn)行篩查檢測,將存在嚴(yán)重偏見和歧視問題的教育產(chǎn)品及時(shí)下架修改。及時(shí)發(fā)現(xiàn)人工智能教育產(chǎn)品存在的偏見歧視問題并予以糾正,緩解人工智能教育焦慮。最后,培養(yǎng)師生正確的人工智能應(yīng)用觀。人工智能應(yīng)用或產(chǎn)品只是教育的輔助手段和工具,師生作為使用者需要有自己的主觀判斷能力。人工智能技術(shù)不一定是完全智能的,也存在著偏見和錯(cuò)誤,人工智能決策得出的結(jié)果可以作為判斷的參考,但切忌盲目相信和依賴人工智能教育,沉浸迷失在算法給出的答案中。
面對教育“內(nèi)卷”,不少校外教育培訓(xùn)機(jī)構(gòu)針對低齡兒童推出人工智能教育課程,人工智能學(xué)習(xí)低齡化趨勢明顯。加之當(dāng)前人工智能課程領(lǐng)域存在內(nèi)容缺乏合理性、標(biāo)準(zhǔn)界定不一等諸多問題引發(fā)人工智能教育學(xué)習(xí)焦慮。2022 年4 月,教育部發(fā)布《義務(wù)教育信息科技課程標(biāo)準(zhǔn)(2022 年版)》,人工智能教育進(jìn)入“新課標(biāo)”。在新的背景下,需以“新課標(biāo)”引領(lǐng)人工智能教育課程發(fā)展,多方齊心協(xié)力,共建、共研、共同探索面向未來的人工智能教育課程,提升人工智能課程規(guī)范的科學(xué)性。首先,需依據(jù)不同年齡層面和不同學(xué)段的學(xué)習(xí)者認(rèn)知特點(diǎn)開展人工智能教學(xué)。人工智能的學(xué)習(xí)需要學(xué)習(xí)者有一定程度的知識儲備,具備相關(guān)信息技術(shù)、數(shù)學(xué)和英語等基礎(chǔ)知識。因此在進(jìn)行教學(xué)之前需對學(xué)習(xí)者的人工智能學(xué)習(xí)基礎(chǔ)做一定的測試和評價(jià),基于學(xué)習(xí)者的認(rèn)知和知識水平開展相應(yīng)的人工智能教學(xué),符合人的身心發(fā)展規(guī)律,不可拔苗助長。其次,需制定專門的人工智能課程標(biāo)準(zhǔn)。盡管在區(qū)域?qū)用嬉延泻芏鄬W(xué)校開設(shè)機(jī)器人課程、編程等人工智能相關(guān)課程[28],但在課時(shí)、課程內(nèi)容和開設(shè)年級等方面缺少國家的統(tǒng)一標(biāo)準(zhǔn)。最后,需加強(qiáng)人工智能教育教材建設(shè)。當(dāng)前,人工智能課程教材和內(nèi)容已初步規(guī)范化,但仍存在教材質(zhì)量參差不齊、版本繁多等系列問題。且存在部分教材并未做到難度循序漸進(jìn)以及未充分考慮到學(xué)習(xí)者的認(rèn)知水平。因此,需以“新課標(biāo)”引領(lǐng)人工智能教育課程建設(shè),緩解人工智能教育學(xué)習(xí)焦慮。