摘要:當(dāng)前,隨著以ChatGPT為代表的生成式人工智能技術(shù)的興起,教學(xué)活動正從傳統(tǒng)的“師-生”二元主體結(jié)構(gòu)轉(zhuǎn)變?yōu)椤皫?生-機”三元結(jié)構(gòu)。在此背景下,作為新主體的AI代理應(yīng)該秉持怎樣的設(shè)計原則,才能夠?qū)崿F(xiàn)不輸于傳統(tǒng)“師-生”互動的有效教學(xué)?“人-人”教學(xué)中的有效教學(xué)策略又能否遷移到“人-機”教學(xué)的場景中?為回答上述問題,文章回顧了教學(xué)代理的相關(guān)研究,圍繞兩個方面展開研究:一是保證情感互動。在媒介層面,提升機器的社會臨場感,使其能夠通過擬人化的聲音、表情和行為與學(xué)習(xí)者進行情感化互動;在社交層面,重視社交規(guī)范的作用,重新構(gòu)建機器和學(xué)習(xí)者之間的互動規(guī)則,促進有效的教學(xué)交互。二是保證信息有效性。針對大模型的“幻覺”問題,提出結(jié)合領(lǐng)域知識庫和技術(shù)護欄機制來提升信息的準(zhǔn)確性;關(guān)注人機信任的平衡,避免過度信任和算法厭惡,培養(yǎng)學(xué)習(xí)者的批判性思維和數(shù)字素養(yǎng)。文章通過這一系列討論,旨在提出構(gòu)建適用于“人-機”教學(xué)場景的設(shè)計原則,為人工智能教育應(yīng)用的開發(fā)設(shè)計和教學(xué)實踐創(chuàng)新提供參考。
關(guān)鍵詞:生成式人工智能;教學(xué)理論;臨場感;算法信任;社交規(guī)范
【中圖分類號】G40-057 【文獻標(biāo)識碼】A 【論文編號】1009—8097(2025)02—0006—10 【DOI】10.3969/j.issn.1009-8097.2025.02.001
一研究背景
當(dāng)前,生成式人工智能催生了人們對新的人工智能教育應(yīng)用的期待,尤其是在大模型展現(xiàn)出近似人類的對話交流能力、思考分析能力和任務(wù)處理能力后,“人機協(xié)同”這一概念逐漸走進現(xiàn)實[1][2]。有學(xué)者斷言在不遠(yuǎn)的將來,人工智能將以教學(xué)活動協(xié)作者的角色進入教學(xué)實踐,課堂活動的主體結(jié)構(gòu)也會從傳統(tǒng)的“師-生”二元結(jié)構(gòu)向“師-生-機”三元結(jié)構(gòu)轉(zhuǎn)變[3]。這樣的轉(zhuǎn)變是否會重構(gòu)我們對教育活動的理解,是否會導(dǎo)致新的教學(xué)理論出現(xiàn),還需要進一步分析研究?;卮疬@一問題涉及大量系統(tǒng)性的工作,包括對人工智能能力的深度理解,以及對新教學(xué)場景中應(yīng)用模式、應(yīng)用效果的深度考察。同時,技術(shù)發(fā)展日新月異,新的教學(xué)理論和模式的構(gòu)建也需要隨技術(shù)的發(fā)展進行動態(tài)更新。
以往教育技術(shù)教學(xué)應(yīng)用的理論與實踐主要研究如何利用計算機、平板電腦等工具提升教學(xué)效果[4]。在這些技術(shù)輔助教學(xué)的場景中,教學(xué)活動的基本樣態(tài)由“師-生”二元的教育活動者組成,而技術(shù)僅作為工具出現(xiàn)在教學(xué)活動中,被動地執(zhí)行師生的意圖與決策,是師生教與學(xué)活動的組成部分。例如,個人電腦、電子大屏與黑板、課桌等物質(zhì)技術(shù)并不具有本質(zhì)的區(qū)別,它們都是教學(xué)活動者所處環(huán)境中的要素,能幫助教學(xué)活動者完成其意圖[5]。然而,新近出現(xiàn)的生成式人工智能在一定程度上表現(xiàn)出自主性,有望超越工具之藩籬,擁有教學(xué)活動者的特點。這種自主性即根據(jù)環(huán)境自動執(zhí)行恰當(dāng)?shù)男袆右酝瓿赡繕?biāo)的能力[6],具體表現(xiàn)為AI能夠依據(jù)環(huán)境進行判斷和決策,并根據(jù)反饋進一步優(yōu)化決策和調(diào)整行為。具有自主性的人工智能出現(xiàn)在教學(xué)環(huán)境中,可能是課堂中的第二位老師,也可能是學(xué)習(xí)者的伴讀,“師-生-機”三元結(jié)構(gòu)論由此而來。但僅由此就斷言現(xiàn)有的教學(xué)理論與“師-生-機”新型課堂主體關(guān)系不匹配尚為時過早,因為各種形式的雙師教學(xué)實踐早已有之,同伴教學(xué)也已經(jīng)形成了多種模式。換句話說,不同的教學(xué)環(huán)境決定了某類教學(xué)模式會占主流,當(dāng)機器在一定程度上超越了工具的角色,開始成為具備自主參與教學(xué)活動能力的主體時,當(dāng)教師有意識地希望AI在教學(xué)活動中與學(xué)習(xí)者有更多的互動交流并提供學(xué)習(xí)支持時,一對一教學(xué)法就開始回歸了[7]。
早在20世紀(jì)70年代,教育技術(shù)的研究者就已經(jīng)對機器如何扮演人這一問題進行了探討,其中具有代表性的探討來自20世紀(jì)90年代對教學(xué)代理的研究[8]。教學(xué)代理(Pedagogical Agent)是多媒體學(xué)習(xí)環(huán)境中的一類擬人動畫形象,能扮演不同的教學(xué)角色,與學(xué)習(xí)者進行交互,為學(xué)習(xí)者提供學(xué)習(xí)支持,如微軟Windows的卡通書簽形態(tài)助手。在人工智能技術(shù)仍未充分發(fā)展的那個時代,研究者基于媒介理論和教育心理學(xué)理論,發(fā)展出了一套系統(tǒng)的關(guān)于“機器如何扮演教學(xué)活動者”的理論。其中,Baylor等[9][10][11]和Ryu等[12]在2000年~2005年期間開展了一系列研究,發(fā)現(xiàn)一個能夠有效扮演教學(xué)活動者角色的教學(xué)代理需要滿足以下兩個條件:①保證情感互動,即教學(xué)代理需要提供情感化、類似人類的互動,也就是教學(xué)代理應(yīng)當(dāng)在媒介層面表現(xiàn)得“像人一樣”。②保證信息有效性,即教學(xué)代理應(yīng)該具有淵博的知識,能夠提供可靠的學(xué)習(xí)信息。在當(dāng)前階段,機器的教學(xué)身份從教學(xué)工具轉(zhuǎn)向教學(xué)助手的過程并沒有完全完成,但是這種發(fā)展趨勢已經(jīng)非常明顯,有必要基于過去的研究發(fā)現(xiàn),為一對一AI教學(xué)助手的實現(xiàn)提供設(shè)計原則。
二保證情感互動:機器類人
相較于人工智能,人類教師具有難以替代的情感能力,這被認(rèn)為是教師不會被人工智能替代的原因之一。但現(xiàn)有研究和生活經(jīng)驗也證實,人類會將自己的情感投射于其他生物并對其行為進行擬人化解釋,從而讓非人類的生物“通人性”,那么已經(jīng)可以用自然語言對話并展示思維過程的AI助理還需要怎么做,才能夠獲得師生類人化的對待呢?本節(jié)將從社會臨場感和社交規(guī)范兩個維度綜述現(xiàn)有研究帶來的啟發(fā)。選擇這兩個維度展開討論,是基于它們在人機情感互動中的核心作用和互補性。其中,社會臨場感關(guān)注AI如何通過增強存在感和互動真實感來促進情感連接,為擬人化提供基礎(chǔ)條件;社交規(guī)范則著眼于如何通過建立合理的互動規(guī)則和角色定位來引導(dǎo)交互行為,為擬人化提供行為框架。這兩個維度分別解決了“如何在場”和“如何互動”的問題,共同構(gòu)建起促進人工智能獲得類人化對待的完整互動體系。
1 媒介層面的機器類人——社會臨場感的作用
建立類人的教學(xué)代理,首先需要關(guān)注教學(xué)活動者與教學(xué)代理之間的情感互動。情感互動的核心在于機器在多大程度上能夠“像人一樣”,做到媒介交互意義上的“機器類人”[13]。“機器類人”不僅依賴于人類的心理傾向,更涉及復(fù)雜的社會、技術(shù)與文化互動,而“擬人化”或“人格化”對象的心理動因源于人類深層次的認(rèn)知與社交需求,即通過賦予無生命物體或非人類主體以人類的特征、動機、意圖和情感狀態(tài),來增強互動體驗與社會聯(lián)結(jié)感[14]。當(dāng)媒介通過模仿人類的溝通行為展示出足夠的社會臨場感時,人們自然會對其產(chǎn)生類人化的社交反應(yīng),仿佛是在與另一個人進行互動[15]。對此,有研究表明當(dāng)計算機在特定情境中觸發(fā)了人際交往的社會腳本時,人類會無意識地將其視為具有社會屬性的主體,并根據(jù)人際交往規(guī)則進行回應(yīng)[16][17][18]。在教育心理學(xué)研究中,社會臨場感(Social Presence)理論為如何實現(xiàn)“機器類人”提供了重要的理論支撐,其含義是個體在通過媒介進行交流時,能感知到另一方作為“真實的人”存在的程度[19][20]。教育心理學(xué)的研究已證實,學(xué)習(xí)者在學(xué)習(xí)環(huán)境中感知到類似教師或同伴的存在時,往往表現(xiàn)出更高的學(xué)習(xí)動機或?qū)W習(xí)成就[21]。
因此,為了讓機器能夠勝任教學(xué)活動者的角色,首先需要保證其在媒介交互層面上能夠讓人類產(chǎn)生“像人”的感受,而實現(xiàn)這一點的關(guān)鍵在于提升其所表現(xiàn)出的臨場感。那么,如何提升機器所傳遞的社會臨場感呢?研究證明,傳遞有效的社會線索(Social Cues)是實現(xiàn)這一目標(biāo)的關(guān)鍵,多媒體學(xué)習(xí)環(huán)境中的教學(xué)代理所傳達(dá)出的社會線索(如聲音、情緒、表情等)能激發(fā)學(xué)習(xí)者社會交往的圖式[22]。也就是說,當(dāng)學(xué)習(xí)者通過社會線索感知到社會交流發(fā)生時,他就會將系統(tǒng)中的教學(xué)代理當(dāng)作一個真人來進行交流。這種通過社會線索激活主體社交圖式的根據(jù)在于:為了降低信息處理的負(fù)荷,人們更喜歡用一些啟發(fā)式的規(guī)則(Heuristics)對信息來源進行歸類,并采用最相似的模式來處理它[23]。因此,當(dāng)學(xué)習(xí)者在多媒體學(xué)習(xí)環(huán)境中發(fā)現(xiàn)類人交互的線索時,會將這一類信息歸為正常的人類社交信息加以處理,社會性的反應(yīng)取向會變得特別明顯[24]。
Schilbach等[25]基于磁共振成像的研究也支持這一觀點,其研究表明,給被試觀看具有面部表情的虛擬人物會激活與“人-人”交互相同的腦區(qū)。在社交圖示被激活之后,學(xué)習(xí)者就會對計算機傳達(dá)出的信息進行更深層次的加工,這也就為有意義的學(xué)習(xí)的發(fā)生提供了條件[26][27]。Naas等[28]認(rèn)為,計算機與人呈現(xiàn)出越多的相似特征,就越有可能激發(fā)人類的社會性反應(yīng)。然而后續(xù)研究指出,社會線索的數(shù)量增加并不一定意味著能夠更大程度地激活學(xué)習(xí)者的社交圖示,盡管學(xué)習(xí)者可能會受到環(huán)境中絕大多數(shù)社會線索的影響[29],但部分線索的缺失并不會對其產(chǎn)生顯著影響。因此,如何選擇合適的社會線索加以呈現(xiàn)成為一個重要問題,這也表明在某些情景中,為了提升媒介的社會臨場感,社會線索的“質(zhì)量”可能比“數(shù)量”更為關(guān)鍵。
因此,為了對已有的“人-人”教學(xué)理論進行優(yōu)化,使其中的機器能夠更好地扮演真實的人類教學(xué)活動者,提升其表現(xiàn)出的社會臨場感,一個可行的策略是讓機器傳遞更多有效且高質(zhì)量的社會線索。例如,可以更多地使用擬人的聲音而非電子合成音[30],以及采用具有手勢、面部表情的教學(xué)代理形象[31][32]。而在缺乏擬人形象的場景中(如純文本交互),可以考慮在文本中加入表情符號等策略來彌補[33]。
2 社交層面的機器類人——社交規(guī)范的作用
前文討論了如何在媒介層面保證“機器類人”,但設(shè)想這樣一種未來情境:通過人工智能技術(shù),構(gòu)建了一個在媒介層面與人類教師極為相似的教學(xué)代理——這個代理基于虛擬現(xiàn)實與多模態(tài)人工智能技術(shù),能夠呈現(xiàn)與真人教師幾乎一樣的形象、聲音、表情、手勢——學(xué)習(xí)者是否會像面對真人教師一樣,與其進行教學(xué)互動?也許會,也許不會。目前已經(jīng)發(fā)現(xiàn)一些中小學(xué)生在與大模型的對話過程中會對其辱罵叱責(zé)。也就是說,當(dāng)學(xué)習(xí)者知道自己是在與機器對話的時候,可能不會遵循尊師重道這類傳統(tǒng)原則,而對機器教師的教學(xué)指令表現(xiàn)出拒不服從等越軌行為。
人類社會能夠有序組織和發(fā)展,離不開“社會規(guī)范”(Social Norms),即人類作為高度社會化的物種,在交互行為中逐漸發(fā)展出的一套復(fù)雜的潛在行為準(zhǔn)則。在傳統(tǒng)人際教學(xué)中,隱含的社會規(guī)范無形中引導(dǎo)著教師與學(xué)習(xí)者之間、學(xué)習(xí)者與學(xué)習(xí)者之間的教學(xué)互動。從功能主義的視角來看,社會規(guī)范在很大程度上促進了群體效益的最大化,并通過抑制個體利己行為來實現(xiàn)更高效的協(xié)同互動[34],這保證了一般意義上的教學(xué)互動的有效進行。例如,在傳統(tǒng)的課堂講授中,教師天然處于話語權(quán)的主導(dǎo)地位,學(xué)習(xí)者則大多遵從教師的指導(dǎo)并信任其權(quán)威觀點[35]。相比之下,在學(xué)習(xí)者之間的合作學(xué)習(xí)中,話語權(quán)通常在參與對話的學(xué)習(xí)者之間流動,從而使每位學(xué)習(xí)者得到積極參與和表達(dá)的機會。盡管社會規(guī)范在以對話和交互為核心的教學(xué)模式中發(fā)揮著至關(guān)重要的作用,但這一概念在傳統(tǒng)的“人-人”教學(xué)法研究中往往被忽視,更多以隱性前提的形式存在。隨著人機教學(xué)模式的興起,社會規(guī)范這一隱性前提逐漸成為一個亟待深入探討的核心議題。
在“人-機”互動場景中,人工智能并不具備固定的社交身份,其定位在某種程度上處于“人類”與“工具”之間的模糊邊界,因此不能認(rèn)為學(xué)習(xí)者會遵從與教師的社會互動模式,如同樣地遵從人工智能的教學(xué)指令,或者認(rèn)真評估人工智能給出的反饋。在人機互動的背景下,如何在教學(xué)過程中重塑教學(xué)活動者與機器之間互動的社交規(guī)范,成為保證情感互動,加速“人-人”教學(xué)法向“人-機”教學(xué)法轉(zhuǎn)型的又一關(guān)鍵。
(1)“師-生”關(guān)系中的社交規(guī)范
在課堂教學(xué)這一具備高度結(jié)構(gòu)化的場域中,社交規(guī)范深刻影響著師生互動及教學(xué)效果,研究表明個體在此類明確的社會關(guān)系中往往會表現(xiàn)出對社交規(guī)范的高度遵從[36]。在經(jīng)典的教學(xué)情境下,教師憑借其權(quán)威性的社會身份,能夠有效掌控教學(xué)進程,然而這種權(quán)威也可能無意間阻礙學(xué)習(xí)的發(fā)生。一項在菲律賓開展的研究指出,學(xué)習(xí)者在與教師互動時往往由于敬畏教師的權(quán)威身份而不愿主動溝通,這種權(quán)威性社交規(guī)范削弱了教學(xué)中的雙向互動,并可能導(dǎo)致學(xué)習(xí)者感到沮喪和挫敗[37]。因此,傳統(tǒng)教學(xué)中的社交規(guī)范不僅影響了教師與學(xué)習(xí)者的互動流暢性,也在一定程度上壓抑了學(xué)習(xí)者的創(chuàng)造性與批判性思維。由于害怕違反與教師互動的規(guī)范,學(xué)習(xí)者往往選擇遵從而非質(zhì)疑或探究,進而放棄自主的學(xué)習(xí)策略或?qū)χR的深度理解[38]。在“人-機”互動教學(xué)場景中,這種傳統(tǒng)的社交規(guī)范是否仍然適用呢?或者,人工智能能否通過類人化交互方式,打破傳統(tǒng)師生關(guān)系中的權(quán)威性障礙,從而激發(fā)學(xué)習(xí)者更主動地學(xué)習(xí)參與?一項研究通過比較學(xué)習(xí)者在寫作任務(wù)中與大模型(如GPT-4)對話和與人類教師對話的差異發(fā)現(xiàn),學(xué)習(xí)者在與大模型的互動中能夠更直接、無障礙地表達(dá)疑問和學(xué)習(xí)需求[39]。這一結(jié)果表明在“人-機”教學(xué)的場景下,傳統(tǒng)教學(xué)中基于教師身份與權(quán)威的社交規(guī)范可能會被弱化,從而為學(xué)習(xí)者提供更大的表達(dá)自由和自我引導(dǎo)的空間,這為我們重新思考人機教學(xué)中的社交規(guī)范提供了新的視角。將“人-人”教學(xué)模式遷移到“人-機”教學(xué)中,既面臨挑戰(zhàn)也迎來機遇:挑戰(zhàn)在于,傳統(tǒng)教學(xué)中的社交規(guī)范在師生互動中發(fā)揮著重要的隱性作用,是維持課堂秩序、促進知識傳遞的關(guān)鍵機制,如果這些隱性規(guī)范在人工智能主導(dǎo)的教學(xué)中不再具備約束力,教學(xué)過程可能會失去原有的結(jié)構(gòu)性。而當(dāng)人工智能作為教學(xué)主體時,其社交身份介于工具與教育者之間,如何幫助學(xué)習(xí)者建立有效的互動規(guī)則成為一個關(guān)鍵問題,這一問題也引發(fā)了關(guān)于人機互動中的社會角色定位與交互秩序等一系列新的教學(xué)設(shè)計考量——人工智能的設(shè)計應(yīng)通過類人化行為、個性化反饋以及多模態(tài)互動的方式,幫助學(xué)習(xí)者自然適應(yīng)新的交互規(guī)則,并在此過程中找到類似傳統(tǒng)課堂的認(rèn)知安全感。盡管這一過程面臨挑戰(zhàn),但人工智能引入教育也帶來了諸多機遇,尤其是在打破傳統(tǒng)師生關(guān)系的權(quán)威性方面。正如前述研究所示,學(xué)習(xí)者在與大模型互動時,能夠更直接地表達(dá)疑惑并尋求個性化幫助,這表明傳統(tǒng)教學(xué)中的社交障礙在新型人機互動中可能不再是顯著問題。此外,社交規(guī)范的消解使學(xué)習(xí)者更有可能挑戰(zhàn)既有的知識框架,提出具有創(chuàng)造性和批判性的見解,這種開放的互動環(huán)境有助于深化學(xué)習(xí)者自主學(xué)習(xí),促使他們主動探索復(fù)雜問題,并構(gòu)建更具個體化的認(rèn)知結(jié)構(gòu)。因此,未來的人機教學(xué)設(shè)計需進一步探索如何在社交規(guī)范的存在與創(chuàng)新自由之間實現(xiàn)平衡,如何在教學(xué)場景中選擇性地消解不必要的權(quán)威性規(guī)范,同時保留教學(xué)結(jié)構(gòu)中的必要秩序,將成為未來人機協(xié)同教學(xué)設(shè)計的重要方向。
(2)“生-生”關(guān)系中的社交規(guī)范
在現(xiàn)代教育理論中,協(xié)作學(xué)習(xí)和探究學(xué)習(xí)等以“生-生”互動為核心的教學(xué)模式被廣泛研究并應(yīng)用于多種教育場景[40]。與傳統(tǒng)的“師-生”互動不同,“生-生”互動通常不存在明確的身份和權(quán)力不對等,相較于教師在師生關(guān)系中的權(quán)威,學(xué)習(xí)者之間的交互更具動態(tài)性和復(fù)雜性。同時,“生-生”關(guān)系中的社交規(guī)范往往隨著具體的教學(xué)任務(wù)和小組成員的個體特質(zhì)而具有生成性與情境性,這些規(guī)范影響了小組內(nèi)的角色分工、信息共享以及知識建構(gòu)的過程。例如,在協(xié)作學(xué)習(xí)中,學(xué)習(xí)者通常根據(jù)群體中的社會身份、任務(wù)貢獻的預(yù)期大小等因素,迅速形成臨時性的社交規(guī)范[41],其規(guī)定了小組成員的分工,包括確定誰作為意見領(lǐng)袖、誰負(fù)責(zé)整合信息、誰是主要的執(zhí)行者等。在這一過程中,群體中的知識共享、任務(wù)協(xié)商、角色分工等行為都遵循一定的潛在規(guī)范,是協(xié)作學(xué)習(xí)能夠成功的關(guān)鍵。Kynigos等[42]的研究表明,協(xié)作學(xué)習(xí)中的有效溝通、知識貢獻和相互支持等行為,是促成小組產(chǎn)出的必要條件。這些潛在的社交規(guī)范并非單純出于任務(wù)完成的需要,往往還涉及學(xué)習(xí)者之間的信任建立、情感支持與社會認(rèn)同,其動態(tài)解釋了為什么某些協(xié)作學(xué)習(xí)理論強調(diào)社交規(guī)范對于有效知識建構(gòu)的前提性作用[43]。通過“生-生”互動,學(xué)習(xí)者不僅能夠從知識的傳播中受益,還通過解釋、爭論和協(xié)商的過程深化了對知識的理解,這些活動是協(xié)作學(xué)習(xí)成功的基礎(chǔ),而其得以順利進行的背后,是潛移默化的社交規(guī)范在發(fā)揮作用。
當(dāng)大模型參與到學(xué)習(xí)者的協(xié)作學(xué)習(xí)中時,能否形成類似于人類群體中的社交規(guī)范成為關(guān)鍵問題。傳統(tǒng)的“生-生”互動通過解釋、辯論和協(xié)商來構(gòu)建知識[44],并依賴清晰表達(dá)和相互尊重的社會規(guī)范。然而,由于大模型不具備明確的人類身份,學(xué)習(xí)者可能將其視為單純的知識提供者而非合作伙伴,這會導(dǎo)致其對模型的過度依賴和“元認(rèn)知懶惰”[45]。此外,大模型在提供答案時,往往缺乏同伴互動中“挑戰(zhàn)性反饋”的特質(zhì),這可能進一步加劇學(xué)習(xí)者的被動學(xué)習(xí)傾向,導(dǎo)致學(xué)習(xí)成果的淺層化。有研究表明,協(xié)作學(xué)習(xí)的成功不僅依賴于知識的簡單傳遞,還需要成員之間的社會互動過程和關(guān)系建構(gòu)[46]。因此,大模型的設(shè)計與應(yīng)用應(yīng)盡可能模擬這些人類間的互動特質(zhì),通過類人化的媒介形式和情感交互等設(shè)計來激發(fā)學(xué)習(xí)者的社會性反應(yīng),從而維持和增強協(xié)作學(xué)習(xí)中的社交規(guī)范。未來教育技術(shù)的設(shè)計需要進一步探索如何在大模型參與的學(xué)習(xí)中維持或重塑協(xié)作學(xué)習(xí)的社交規(guī)范,推動人機協(xié)同學(xué)習(xí)模式的發(fā)展,促進更為動態(tài)的知識建構(gòu)與社會互動。在這種模式下,社交規(guī)范不僅是人類學(xué)習(xí)者之間的隱性準(zhǔn)則,也應(yīng)成為人機交互中的顯性設(shè)計原則。
三保證信息有效性:人機信任
承前所述,要使機器有效扮演教學(xué)活動者角色,完成從“人-人”互動到“人-機”互動的轉(zhuǎn)型,除了保證情感互動,信息有效性也是其中的關(guān)鍵。若“情感互動”是教學(xué)場景中激發(fā)學(xué)習(xí)動機和認(rèn)知投入的關(guān)鍵要素,那么“信息有效性”就是教育活動得以展開的功能性前提,后者不僅涉及信息生成本身的準(zhǔn)確性,還依賴于人機信任機制的合理建構(gòu)與動態(tài)維系。
1 內(nèi)稟缺陷:模型幻覺的優(yōu)化路徑
使機器扮演好一個真實教學(xué)活動者角色的功能性前提是,機器能夠提供有效的教學(xué)信息,執(zhí)行符合邏輯的教學(xué)活動。例如,機器扮演的教師應(yīng)當(dāng)在講授中盡可能給出正確的答案,而機器扮演的學(xué)習(xí)者應(yīng)當(dāng)能夠模仿人類學(xué)習(xí)者當(dāng)下階段的認(rèn)知狀態(tài),與同伴進行有意義的互動。盡管生成式人工智能技術(shù)在自然語言處理和推理能力方面已趨成熟,但大模型的“幻覺”問題仍然是其作為教育工具的重要隱患。在生成文本的過程中,大模型可能產(chǎn)生不準(zhǔn)確、具有誤導(dǎo)性甚至完全虛構(gòu)的信息,這些信息極易對學(xué)習(xí)者的認(rèn)知發(fā)展和知識建構(gòu)造成負(fù)面影響。這種不可預(yù)測的“幻覺”現(xiàn)象嚴(yán)重削弱了師生對人工智能工具的信任基礎(chǔ),從而制約了其在教學(xué)場景中的深度應(yīng)用。錯誤信息的傳播還可能導(dǎo)致學(xué)習(xí)者形成扭曲的知識體系,從而影響其后續(xù)學(xué)習(xí)決策及成果,構(gòu)成影響教育質(zhì)量與效果的重大隱患。
為了應(yīng)對大模型幻覺引發(fā)的深層挑戰(zhàn),除了大模型自身性能水平的提升、微調(diào)等手段的使用,技術(shù)開發(fā)者和教育工作者還應(yīng)著重提升大模型在教育應(yīng)用中的穩(wěn)健性,這可以通過利用領(lǐng)域知識庫整合[47]、教育護欄機制制定[48]、垂直領(lǐng)域大模型構(gòu)建[49]等措施防范錯誤輸出來實現(xiàn)。其中,領(lǐng)域知識庫整合能夠提升模型的語義理解與推理能力,使其在進行多模態(tài)信息處理時具備更高的可靠性和準(zhǔn)確性。領(lǐng)域知識庫不僅能夠作為知識的補充層,為AI提供更為精準(zhǔn)的背景信息;還可以通過對領(lǐng)域特定的事實性知識進行自動驗證,有效防范錯誤信息的輸出,從而更為精準(zhǔn)地應(yīng)對復(fù)雜的教育任務(wù),減少模型幻覺的發(fā)生概率。同時,領(lǐng)域知識庫的引入應(yīng)與技術(shù)護欄機制協(xié)同運作,以多維度的防護策略保障生成內(nèi)容的準(zhǔn)確性與安全性。當(dāng)前大模型技術(shù)中的護欄機制涵蓋話題限定護欄、對話安全護欄、攻擊防御護欄等多個層次,這些護欄可以通過限定對話的主題范圍、過濾不當(dāng)內(nèi)容、防御惡意操縱等手段,有效防止大模型輸出偏離教育目標(biāo)的無關(guān)信息。除此之外,為了更好地適應(yīng)多樣化與專業(yè)化的教育場景,未來教育技術(shù)的發(fā)展可能朝向垂直領(lǐng)域的大模型設(shè)計。這些定制化的模型將具備更強的學(xué)科特異性,滿足特定領(lǐng)域內(nèi)的精細(xì)化需求。例如,STEM教育中的定制化AI模型可提供更精確的數(shù)理邏輯與科學(xué)推理支持,而在人文學(xué)科與社會科學(xué)中,AI可通過知識的生成與反思性反饋,推動深層次的理論建構(gòu)。
2 人機信任:信任失衡的優(yōu)化路徑
除了從技術(shù)底層保障人工智能輸出的教學(xué)信息的有效性,教學(xué)活動者對這些信息準(zhǔn)確性的主觀判斷也至關(guān)重要。信任作為人際互動的重要基礎(chǔ),當(dāng)其對象轉(zhuǎn)移到類人化的機器上時常常走向兩極:一方面,過度信任可能導(dǎo)致學(xué)習(xí)者對智能系統(tǒng)產(chǎn)生依賴,削弱其自主批判思維的能力;另一方面,缺乏信任會引發(fā)學(xué)習(xí)者對算法系統(tǒng)的懷疑和抵制,從而妨礙技術(shù)工具在教育中的有效應(yīng)用,最終導(dǎo)致學(xué)習(xí)效果的下降。
(1)過度信任
過度信任人工智能系統(tǒng)的風(fēng)險在于,學(xué)習(xí)者會忽視其輸出的潛在局限性與錯誤,這在情感支持領(lǐng)域尤為明顯,教育系統(tǒng)中的情感AI工具常被賦予過高的心理咨詢與決策功能,導(dǎo)致學(xué)習(xí)者形成依賴。這種現(xiàn)象可以視為技術(shù)魅惑效應(yīng)的具體化表現(xiàn)[50],學(xué)習(xí)者被技術(shù)的外在表現(xiàn)和能力所迷惑,失去了對其內(nèi)部運作機制的質(zhì)疑和警惕。伊麗莎效應(yīng)(Eliza Effect)是這一問題的另一體現(xiàn)[51],得名于Joseph Weizenbaum于1964年開發(fā)的ELIZA程序。該程序通過簡單的模式匹配規(guī)則模擬人類對話,用戶對這些顯現(xiàn)出智能跡象的程序常常產(chǎn)生過度的人性化投射,認(rèn)為其具有與人類相似的認(rèn)知能力。這一效應(yīng)揭示了用戶對技術(shù)能力的高預(yù)期與技術(shù)實際表現(xiàn)之間的錯位而導(dǎo)致的過度信任,這種錯覺不僅影響用戶的行為決策,還加劇了其對技術(shù)的依賴,在教育領(lǐng)域尤為明顯。
為了應(yīng)對這一挑戰(zhàn),構(gòu)建信任的優(yōu)化路徑需從系統(tǒng)透明性、用戶教育與情感智能三方面入手:首先,提高系統(tǒng)的透明性和可解釋性,可以幫助學(xué)習(xí)者理解AI的決策過程與局限性,從而降低過度信任的風(fēng)險。其次,教育工作者應(yīng)培養(yǎng)學(xué)習(xí)者的批判性思維能力與數(shù)字素養(yǎng),鼓勵其對AI生成的內(nèi)容進行批判性的思考。最后,情感智能的培養(yǎng)對于建立健康的信任關(guān)系也至關(guān)重要,學(xué)習(xí)者需要學(xué)會在依賴技術(shù)的同時,保持對人機互動的獨立思考和情感判斷。
(2)算法厭惡
與過度信任相反,算法厭惡(Algorithm Aversion)指個體在面對智能系統(tǒng)時的懷疑與抵觸,即使算法性能優(yōu)于人類,他們?nèi)詢A向于信任人類決策[52]。算法厭惡被認(rèn)為是一種在大量場景中廣泛存在的效應(yīng)[53],如在醫(yī)療場景中,盡管AI診斷的準(zhǔn)確性在統(tǒng)計結(jié)果上超過了人類醫(yī)生,但病人更傾向于信任人類醫(yī)生的診斷[54]。在教育領(lǐng)域這一現(xiàn)象則可能表現(xiàn)為:盡管智能系統(tǒng)提供了精準(zhǔn)性分析和個性化反饋,學(xué)習(xí)者仍持懷疑態(tài)度。造成算法厭惡的原因頗為復(fù)雜,不僅來自于學(xué)習(xí)者對算法本身的陌生感,更深層次的原因在于智能系統(tǒng)的決策過程往往缺乏足夠的透明度,使用者難以獲得必要的控制感和參與感[55]。
針對算法厭惡這一現(xiàn)象也存在部分交互解決方案,而優(yōu)化算法信任解決方案的重點在于提升透明性、增強控制感和改進交互設(shè)計:首先,可以考慮利用解釋性AI技術(shù),讓學(xué)習(xí)者理解算法的運行邏輯,以減輕算法厭惡[56]。研究表明,用戶了解算法細(xì)節(jié)后,信任度顯著提升[57]。其次,可以考慮提供部分控制權(quán),允許學(xué)習(xí)者微調(diào)結(jié)果,增強參與感,形成協(xié)同信任的互動模式[58]。研究表明,當(dāng)個體理解算法決策過程或參與修改時,算法厭惡顯著減少,通過賦予學(xué)習(xí)者微小的算法控制權(quán),能顯著提升其對算法的信任感[59][60]。最后,在交互層面,可以考慮采用擬人化交互代理增加社會臨場感,提升對AI的情感認(rèn)同。研究顯示,符合人類社交規(guī)范的交互設(shè)計能提高建議接受度[61]。
此外,對教學(xué)大模型的不信任并非全然負(fù)面,它能激發(fā)批判性思維,促進對模型輸出內(nèi)容的深度反思與驗證。從人機協(xié)同角度來看,這種不信任構(gòu)建了動態(tài)反饋機制,推動了智能系統(tǒng)與學(xué)習(xí)者的辯證發(fā)展——學(xué)習(xí)者的反饋為模型優(yōu)化提供數(shù)據(jù),而智能系統(tǒng)通過持續(xù)修正,可以為學(xué)習(xí)者提供更精準(zhǔn)、個性化的教學(xué)服務(wù)。
四結(jié)語
本研究圍繞一種預(yù)演性的“加速轉(zhuǎn)型”思路展開探討,即如何讓人工智能扮演教學(xué)中人類活動者的角色,使已有的蘇格拉底對話、協(xié)作學(xué)習(xí)等“人-人”教學(xué)理論和模式經(jīng)過合理調(diào)整后,能夠應(yīng)用到“人-機”教學(xué)場景中。本研究從情感互動與信息有效性兩個角度出發(fā),梳理了機器扮演教學(xué)活動者時需要重點關(guān)注的兩大問題:在情感互動層面,首要是提升機器作為教學(xué)活動者時所傳遞的臨場感,從而實現(xiàn)“機器類人”;其次,由于機器本身并不具備社會身份,需要通過設(shè)計重建其與學(xué)習(xí)者交互過程中的社交規(guī)范,以滿足一般的教學(xué)法背后的隱性假設(shè)。在信息有效性層面,首先要克服大模型的幻覺問題,這是確保教學(xué)信息有效的功能性前提;其次,需要優(yōu)化人機信任機制,使學(xué)習(xí)者既不過度依賴,也不過于厭惡大模型輸出的信息和觀點。
事實上,本研究討論的關(guān)于機器扮演人類活動者的關(guān)鍵問題主要分為兩類:一類是可以通過合理的人機交互設(shè)計加以彌補或優(yōu)化的問題,包括臨場感問題和算法信任問題;另一類問題則受當(dāng)下技術(shù)條件和社會文化環(huán)境的限制,即社交規(guī)范和模型幻覺的問題,它們很難通過交互設(shè)計進行優(yōu)化,并且在一定程度上會影響到那些可以被遷移到“師-生-機”場景中的“人-人”教學(xué)法的實施。例如,大模型幻覺作為一種生成式人工智能技術(shù)底層的缺陷,極難通過交互設(shè)計完全克服,而這些無法由簡單的交互設(shè)計克服的問題,可能正是未來有價值的研究方向。展望未來,“師-生-機”三元結(jié)構(gòu)下的教學(xué)模式正在逐步成型,其核心在于確保學(xué)習(xí)者在與AI教學(xué)代理的互動中保持高水平的認(rèn)知參與和思維在場,通過主動、批判性的對話實現(xiàn)知識建構(gòu)和認(rèn)知深化,從而達(dá)成真正的自我超越與智慧成長。
————————
參考文獻
[1]郝祥軍,顧小清,張?zhí)扃?,?人機協(xié)同學(xué)習(xí):實踐模式與發(fā)展路向[J].開放教育研究,2022,(4):31-41.
[2]王一巖,劉淇,鄭永和.人機協(xié)同學(xué)習(xí):實踐邏輯與典型模式[J].開放教育研究,2024,(1):65-72.
[3]柯清超,米橋偉,鮑婷婷.生成式人工智能在基礎(chǔ)教育領(lǐng)域的應(yīng)用:機遇、風(fēng)險與對策[J].現(xiàn)代教育技術(shù),2024,(9):5-13.
[4]Teixeira P N, Shin J C. The international encyclopedia of higher education systems and institutions[M]. Dordrecht: Springer Netherlands, 2020:233.
[5]Cole M, John-Steiner V, Scribner S, et al. Mind in society: The development of higher psychological processes[M]. Cambridge, MA: Harvard University Press, 1978:141.
[6]Russell S, Norvig P. Artificial intelligence: A modern approach (3rd ed.)[M]. Upper Saddle River, NJ: Pearson, 2010:935-937.
[7]Lo C K. What is the impact of ChatGPT on education? A rapid review of the literature[J]. Education Sciences, 2023,(4):410.
[8]Johnson W L, Lester J C. Pedagogical agents: Back to the future[J]. AI Magazine, 2018,(2):33-44.
[9]Baylor A L. Investigating multiple pedagogical perspectives through MIMIC (Multiple Intelligent Mentors Instructing Collaboratively)[OL]. lt;https://conferences.inf.ed.ac.uk/aied2001/baylor.pdfgt;
[10]Baylor A L, Kim Y. Simulating instructional roles through pedagogical agents[J]. International Journal of Artificial Intelligence in Education, 2005,(2):95-115.
[11]Baylor A L, Ryu J. The effects of image and animation in enhancing pedagogical agent persona[J]. Journal of Educational Computing Research, 2003,(4):373-394.
[12]Ryu J, Baylor A L. The psychometric structure of pedagogical agent persona[J]. Technology Instruction Cognition and Learning, 2005,(4):291.
[13]Epley N, Waytz A, Cacioppo J T. On seeing human: A three-factor theory of anthropomorphism[J]. Psychological Review, 2007,(4):864.
[14]Reeves B, Nass C. The media equation: How people treat computers, television, and new media like real people[M]. Cambridge, UK:Cambridge University Press, 1996:28.
[15]Nass C, Moon Y. Machines and mindlessness: Social responses to computers[J]. Journal of Social Issues, 2000,(1):81-103.
[16]Westerman D, Edwards A P, Edwards C, et al. I-It, I-Thou, I-Robot: The perceived humanness of AI in human-machine communication[J]. Communication Studies, 2020,(3):393-408.
[17]Xu K, Chen X, Huang L. Deep mind in social responses to technologies: A new approach to explaining the computers are social actors phenomena[J]. Computers in Human Behavior, 2022,134:107321.
[18][19]Gunawardena C N. Social presence theory and implications for interaction and collaborative learning in computer conferences[J]. International Journal of Educational Telecommunications, 1995,(2):147-166.
[20]Lowenthal P R. The evolution and influence of social presence theory on online learning[A]. Online Education and Adult Learning: New Frontiers for Teaching Practices[C]. Hershey, PA: IGI Global, 2009:124-134.
[21]Richardson J C. Examining social presence in online courses in relation to students’ perceived learning and satisfaction[D]. New York: State University of New York at Albany, 2001:6.
[22]Mayer R E, Sobko K, Mautone P D. Social cues in multimedia learning: Role of speaker’s voice[J]. Journal of Educational Psychology, 2003,(2):419.
[23]Shah A K, Oppenheimer D M. Heuristics made easy: An effort-reduction framework[J]. Psychological Bulletin, 2008,(2):207.
[24]Nass C, Steuer J, Tauber E, et al. Anthropomorphism, agency, and ethopoeia[R]. Stanford, CA: Department of Communication, Stanford University, 1993:111-112.
[25]Schilbach L, Wohlschlaeger A M, Kraemer N C, et al. Being with virtual others: Neural correlates of social interaction[J]. Neuropsychologia, 2006,(5):718-730.
[26][30]Atkinson R K, Mayer R E, Merrill M M. Fostering social agency in multimedia learning: Examining the impact of an animated agent’s voice[J]. Contemporary Educational Psychology, 2005,(1):117-139.
[27]Mayer R E, DaPra C S. An embodiment effect in computer-based learning with animated pedagogical agents[J]. Journal of Experimental Psychology: Applied, 2012,(3):239.
[28]Nass C, Moon Y. Machines and mindlessness: Social responses to computers[J]. Journal of Social Issues, 2000,(1):81-103.
[29]Bangerter A, Louwerse M M. Focusing attention with deictic gestures and linguistic expressions[A]. Proceedings of the Annual Meeting of the Cognitive Science Society[C]. California: California Digital Library, 2005:1331-1336.
[31]Hostetter A B. When do gestures communicate? A meta-analysis[J]. Psychological Bulletin, 2011,(2):297-315.
[32]王福興,李文靜,謝和平,等.多媒體學(xué)習(xí)中教學(xué)代理有利于學(xué)習(xí)嗎?——一項元分析研究[J].心理科學(xué)進展,2017,(1):12-28.
[33]Andel S A, de Vreede T, Spector P E, et al. Do social features help in video-centric online learning platforms? A social presence perspective[J]. Computers in Human Behavior, 2020,113:106505.
[34]Rusbult C E, Van Lange P A M. Interdependence, interaction, and relationships[J]. Annual Review of Psychology, 2003,(1):351-375.
[35][37]Aruta J J B R, Barretto I D E, Shin Y, et al. The experience of power in teacher-student relationships in collectivistic context[J]. Psychological Studies, 2019,64:316-331.
[36][38]van Kleef G A, Gelfand M J, Jetten J. The dynamic nature of social norms: New perspectives on norm development, impact, violation, and enforcement[J]. Journal of Experimental Social Psychology, 2019,84:103814.
[39]Shen Y, Tang L, Le H, et al.Aligning and comparing values of ChatGPT and human as learning facilitators: A value-sensitive design approach[OL]. lt;https://doi.org/10.1111/bjet.13562gt;
[40]Bruffee K A. Collaborative learning and the “conversation of mankind”[J]. College English, 1984,(7):635-652.
[41]Chen C M, You Z L. Community detection with opinion leaders’ identification for promoting collaborative problem-based learning performance[J]. British Journal of Educational Technology, 2019,(4):1846-1864.
[42][43]Kynigos C, Theodossopoulou V. Synthesizing personal, interactionist and social norms perspectives to analyze collaborative learning in the classroom in the context of a computer-based innovation program[J]. The Journal of Classroom Interaction, 2001,(36): 63-73.
[44][45]Yoon J, Brice L. Water project: Computer-supported collaborative e-learning model for integrating science and social studies[J]. Contemporary Educational Technology, 2011,(3):250-263.
[46]Dillenbourg P. A multidisciplinary viewpoint on European research on collaborative learning - Europaeische forschung zu “collaborative learning” in multidisziplinaerer perspektive[J]. Kognitionswissenschaft, 2000,(1):50-53.
[47]Marino K, Chen X, Parikh D, et al. KRISP: Integrating implicit and symbolic knowledge for open-domain knowledge-based VQA[J]. arXiv preprint arXiv:2012.11014, 2020.
[48]Biswas A, Talukdar W. Guardrails for trust, safety, and ethical development and deployment of Large Language Models (LLM)[J]. Journal of Science amp; Technology, 2023,4:55-82.
[49]Chen Z, Liu C, Duan H. A three-phases-LORA finetuned hybrid LLM integrated with strong prior module in the education context[A]. International Conference on Artificial Neural Networks[C]. Switzerland: Springer Nature, 2024:235-250.
[50]Alfano M, Carter J, Cheong M. Technological seduction and self-radicalization[J]. Journal of the American Philosophical Association, 2018,4:298-322.
[51]Cristea I A, Sucala M, David D. Can you tell the difference: Comparing face-to-face versus computer-based interventions: The “Eliza” effect in psychotherapy[J]. Journal of Cognitive amp; Behavioral Psychotherapies, 2013,(2):291-298.
[52][55]Dietvorst B J, Simmons J P, Massey C. Algorithm aversion: People erroneously avoid algorithms after seeing them err[J]. Journal of Experimental Psychology: General, 2015,(1):114-126.
[53][56]Jussupow E, Benbasat I, Heinzl A. Why are we averse towards algorithms? A comprehensive literature review on algorithm aversion[A]. Proceedings of the 28th European Conference on Information Systems (ECIS)[C]. Marrakech, 2020:1-16.
[54]Longoni C, Bonezzi A, Morewedge C. Resistance to medical artificial intelligence is an attribute in a compensatory decision process: Response to Pezzo and Beckstead[J]. Journal of Consumer Research, 2020,15:446-448.
[57]Palmeira M, Spassova G. Consumer reactions to professionals who use decision aids[J]. European Journal of Marketing, 2015,(3/4):302-326.
[58][59]Dietvorst B J, Simmons J P, Massey C. Overcoming algorithm aversion: People will use imperfect algorithms if they can (even slightly) modify them[J]. Management Science, 2018,(3):1155-1170.
[60]Hasan M, Islam A K M N, Ahmed S I, et al. What influences algorithmic decision-making? A systematic literature review on algorithm aversion[J]. Technological Forecasting amp; Social Change, 2022,175:121390.
[61]MacGeorge E L, Guntzviller L M, Hanasono L K, et al. Testing advice response theory in interactions with friends[J]. Communication Research, 2016,(2):211-231.
Pedagogical Transformation: Constructing Teaching Principles in the Era of Human-AI Symbiosis
LE Hui-Xiao1" SONG Xiao-Wei1"" YU Qing-Qing2"" WANG Qiong1[Corresponding Author]
(1. Graduate School of Education, Peking University, Beijing, China 100871;
2. Center for Excellent Teaching and Learning, Peking University, Beijing, China 100871)
Abstract: With the emergence of generative artificial intelligence technologies exemplified by ChatGPT, the fundamental structure of educational activities is transitioning from the traditional binary “teacher-student” framework to a ternary “teacher-student-machine” structure. What design principles should AI agents, as new actors in this structure, follow to establish effective teaching interactions that are comparable to traditional teacher-student dynamics? What differences between humans and machines pose unprecedented challenges when translating existing human-to-human teaching theories and models to human-machine teaching scenarios? This paper addresses two critical issues: First, ensuring emotional interaction - at the media level, enhancing the machine’s social presence to enable emotional engagement with learners through humanized voice, expressions, and behaviors; at the social level, emphasizing the role of social norms and reconstructing interaction protocols between machines and learners to promote effective teaching interactions. Second, ensuring information validity - addressing the “hallucination” issue of large language models by proposing the integration of domain knowledge bases and technical guardrail mechanisms to improve information accuracy; focusing on the balance of human-machine trust to avoid both over-reliance and algorithm aversion while fostering learners’ critical thinking and digital literacy. This paper aims to propose design principles for future human-machine teaching scenarios through these discussions.
Keywords: generative artificial intelligence; pedagogy; social presence; algorithm trust; social norms