胡鑫月
摘 要:科技的發(fā)展推動著社會不斷地變革,作為21世紀新興技術的人工智能正推動著社會進入智能化時代,教育也在這種背景下不斷塑造新的形態(tài)。目前,人工智能在教育領域的應用所帶來的成效已經(jīng)得到廣泛認可,但隨之而來的潛在倫理風險也應當引起注意。通過梳理人工智能技術在教育中應用的常見倫理風險,從彼得·保羅·維貝克的技術哲學觀出發(fā),指出人工智能教育應用中存在的主客二分思想根深蒂固,影響人與技術關系的正確認知;技術內(nèi)部“腳本”設計,限制學習者使用范圍;數(shù)據(jù)詮釋偏差與技術說服性交織,干擾教育的科學管理;缺乏有力歸因依據(jù),責任主體難以明確等問題,提出超越傳統(tǒng)現(xiàn)象學視域,增強教育主體自信;開發(fā)有價值的技術腳本,彌補設計與使用之間的情境鴻溝;審慎設計與使用技術,降低技術調(diào)節(jié)消極影響;剖析技術責任主體,軟硬結合規(guī)范技術使用的應對策略,以助推智能技術“賦能”教育。
關鍵詞:人工智能技術;教育應用;倫理審思;技術哲學
中圖分類號:G434 文獻標識碼:A 文章編號:1009 — 2234(2023)07 — 0120 — 07
一、問題的提出
當前,隨著科學技術的快速發(fā)展,社會逐漸進入到智能化時代,教育在這樣的背景之下也逐漸發(fā)展出“人工智能+教育”的新形態(tài),這種新的教育形態(tài)既給教育帶來了機遇,同時也引發(fā)了一些潛在的倫理風險。目前,學術界關于人工智能在教育領域應用的倫理問題研究呈現(xiàn)井噴式增長,由此也可以看出學者們對于該領域問題的高度關注。從已有的研究成果可以發(fā)現(xiàn),學者們已經(jīng)開始從不同角度對人工智能技術在教育領域應用的倫理風險進行探究,部分學者從宏觀層面上分析技術為教育帶來的問題,并提出了相應的破解路徑。如趙磊磊通過對技術倫理和教育人工智能倫理的內(nèi)涵與特征詮釋,梳理了教育人工智能倫理原則向度,針對存在的倫理風險提出了對應的消解路徑[1];李曉巖等人從教育主體的維度出發(fā)分析了人工智能教育應用倫理原則的構建[2]。也有學者針對于其中存在的風險問題具體展開研究:比如算法風險、偏見風險、教育決策風險、教育評估風險等問題展開分析。本研究試圖從彼得·保羅·維貝克的技術哲學視角出發(fā),關注技術對于人的行為調(diào)節(jié)作用,審思人工智能教育應用存在的倫理問題,以望能夠?qū)θ斯ぶ悄芘c教育深度融合的過程起到一定的促進作用。
二、人工智能教育應用中的倫理風險
社會的智能化在不斷推動教育領域的智能化,人工智能對于教育的賦能作用使教育各方面都在發(fā)生著變化,這種變化無論是對于教師教學的開展還是對于學生學習的進行都有深刻的影響。但是,我們在享受人工智能作為技術給教育帶來的便捷服務時,必須時刻保持頭腦的清醒,理性的審視技術在教育領域的功用與限度,適時適度的使用,防止人工智能在教育上的應用不當而陷入潛在的倫理危機。本研究以下將總結人工智能在教育應用中存在的一些常見倫理問題:
(一)人與技術關系的認知偏差動搖教育主體地位
在傳統(tǒng)的教學模式中,教師對于學生而言扮演著多種角色。教師既是學生學習的引導者,同時也是學生身心發(fā)展的呵護者。教師角色的多樣化會不可避免地分解其有限的精力及時間,于是教師對學生的情感以及身心發(fā)展等方面的關注難免會出現(xiàn)無暇顧及的現(xiàn)象。然而,隨著人工智能技術在教育領域的出現(xiàn),教師在教學中的一些繁瑣、復雜、機械的工作被技術替代,這有效減輕了教師的工作負擔,“它將教師從常規(guī)、耗時的任務中解放出來,使他們能夠把更多的精力投入到創(chuàng)造性、人性化的活動中,如培養(yǎng)學生的創(chuàng)造性思維和同理心等”[3]。同時,教師借助技術能夠?qū)崿F(xiàn)對學生學習狀態(tài)、學習過程的動態(tài)觀察與評估,發(fā)現(xiàn)學生學習現(xiàn)存的困境,在反思自身的教學的基礎上改進教學策略,提高教學成效。
毋庸置疑,人工智能技術應用到教育領域給教學帶來了巨大的便捷,但同時也引發(fā)了人與技術的主體關系的問題。當前,對智能技術在教育領域的價值認識上,存在著兩極化現(xiàn)象。一端認為在教育過程中,技術的發(fā)展是快速且無止境的,它是無所不能的,相比之下,人類的認知發(fā)展速度則相對緩慢,按照這種發(fā)展趨勢,在未來的教育領域,人工智能將會代替人類教師去扮演“教育者”的角色;另一端則是認為人工智能只不過是普通技術在教育領域的應用,它既不會改變原有教育內(nèi)在要素之間的關聯(lián),也不會引起教育發(fā)生根本性的變化。
實際上,以上兩種主張都是對人工智能在教育領域應用的主管成見,前者對于技術盲目崇拜,而后者則是過于輕視技術對教育的影響。這兩種主張都容易導致教師在面對人工智能教育應用上產(chǎn)生片面的看法。一方面,“與人類教師相比,智能技術具有非常顯著的優(yōu)勢,譬如,大數(shù)據(jù)系統(tǒng)具有豐富的、更新速度快的知識庫,可以幫助學生精確定位,設定特色學習任務;智能機器人能在短時間內(nèi)學習大量知識,能持續(xù)保持高效率,只要有電就能一直工作等等”[4],這種對于技術的盲目崇拜會削弱教師教學的自信心,降低教學成就感,導致其對自我價值不斷產(chǎn)生懷疑,進而在面對技術引發(fā)的社會失業(yè)率上升的現(xiàn)象時會出現(xiàn)脅迫感,最終對人工智能產(chǎn)生“人—機”對立的消極印象,最后限制其在教育領域的“大顯神通”;另一方面,如果教師對人工智能給教育帶來的影響過于輕視,對人類能力盲目自信,缺乏風險意識,便易導致教師教學過于依賴技術,忽視技術應用教學的適切性,逐漸地在教育過程中弱化自身的主導地位,出現(xiàn)教學技能逐漸退化,慢慢的由“人使用技術”發(fā)展為“技術控制人”的局面,使教育最終陷入工具性的“泥潭”。換言之,“對工具理性的盲目崇拜會致使‘以人為本’的價值理性被遮蔽,為規(guī)避風險而‘因噎廢食’、放棄使用技術也將走向另一個文明倒退的極端”[5]。智能技術的合理使用是實現(xiàn)其對教育“賦能”的前提。當在教育領域應用人工智能技術出現(xiàn)了認識偏差時,其應用就會帶來教育主體地位受到?jīng)_擊的消極結果。
(二)“回音壁效應”異化個性化發(fā)展意蘊
智能技術在教學中可以為學生提供更加豐富的學習資源和多樣化的學習途徑,使其對知識的獲取可以通過文字、圖片、音頻等多種方式進行。借助智能技術能夠?qū)崿F(xiàn)教育資源的多方共享,學生可以依據(jù)自身需求有選擇地學習各校在網(wǎng)絡上提供的優(yōu)質(zhì)課程資源,做到在滿足學生多樣化學習需求的同時提高優(yōu)質(zhì)資源的利用效率。此外,智能技術還可以對學生的學習過程、風格、特點等進行數(shù)據(jù)化統(tǒng)計和分析,之后以適合學生個人學習的知識水平與進度的方式定制學習計劃,以促進個體的個性化發(fā)展。
但是,智能技術的這種個性化推薦功能往往會限制學生在學習上的自主選擇權。智能技術的個性化推薦是基于技術對網(wǎng)絡上多種學習資源進行篩選后的基礎上進行呈現(xiàn)的,這會將學生學習的知識面局限在一個狹隘的范圍內(nèi),固化學生的思維,長此以往將會產(chǎn)生一種“回音壁效應”,即學生每天處在一個相對封閉的虛擬學習情境中,他所看到的是他只能看到的、喜歡看到的東西,將自己與外界逐漸隔離開。技術的這種“取悅式”服務會為學生挖下一個“投你所好式”陷阱,逐漸將其“培養(yǎng)”成新時代的“井底之蛙”?!案鞣N智能工具造成的碎片化知識也會導致學生的淺表學習,削弱學生的創(chuàng)造力和想象力”[6]。久而久之,“學生自己的主體性將被技術消解”[7]。
同時,技術所帶來的學習模式原本是為了彌補當前班級授課制中存在的難以滿足學生多樣化學習需求的缺陷,依據(jù)學生的興趣、特點以及學習方式等為學生提供個性化教育,但智能技術在處理不同學生的學習需求時,往往都是用同等的模式對待所有學生,這樣一來就會導致具有不同學習需求的學生可能也會獲得相差無幾的結果,而這又與原本個性化發(fā)展的應用初衷相背離,最后將學生的發(fā)展引入了同質(zhì)化的陷阱。
(三)“數(shù)據(jù)畫像”損傷教育管理的公平合理
當前,智能技術在教育創(chuàng)新、教育決策、教育評估等方面得以廣泛應用,借助技術分析教育數(shù)據(jù),能夠為教育管理提供科學、客觀的依據(jù),進一步提高教育管理的質(zhì)量和效率。但是,這種智能化的數(shù)據(jù)處理是否得當以及它對實際教育帶來影響的好壞還需要我們進一步思考。
目前,就學生的學習而言,教師可以借助智能教育技術去收集學生的學習數(shù)據(jù),掌握學生的學習動態(tài)。智能技術以收集到的數(shù)據(jù)為基礎,為每一位學生生成專屬“數(shù)字畫像”,便于教師對學生進行因材施教。但是,這種“數(shù)字畫像”既可能是教師對學生實施有效干預措施的關鍵依據(jù),也可能是教師干預措施出現(xiàn)方向性偏差的源頭。由于技術是以“其自身的邏輯對待學生、對待教育,所以教師無法判斷他們依據(jù)算法做出的決定是否正確,是否符合學生需求,會不會對學生成長造成傷害?!保?]比如,在學生作業(yè)批閱上,倘若學生是因某些非認知因素導致其在某一段時間學習效果的下降,智能技術可能會機械的將這一問題歸因為學生的認知因素,將分析結果反饋給教師,此時的教師在這種問題源頭發(fā)生偏差的情況下,難以對學生面臨的問題提供針對性幫助,也就喪失了其教學策略的科學性與有效性。
此外,對于教師的教學評估而言,智能技術的使用也會引發(fā)一些爭議性問題。比如,當前對于教師的教學評估絕大多數(shù)會以學生學習成效的提升為依據(jù),應用智能技術去分析教師所教班級學生成績的變化,進而評判教學效果的好壞。從表面上看,這的確是一種相對客觀的評估標準,但實際上卻存在著很大的分析漏洞。如果一位A教師所帶的班級學生入學時原本就相對優(yōu)秀,在每次測驗中都會獲得較好的成績,那么學生進步幅度就會相對較小;另一位B老師所帶班級的學生知識基礎相對較弱,進步空間較大,通過后期指導,獲得較大進步,那么是否可以依據(jù)這種數(shù)據(jù)呈現(xiàn)的客觀的進步做出B老師比A老師教學水平高的判斷呢?由此可見,即使智能技術在教育管理中未直接代替管理者做出決定,但它會以一種數(shù)據(jù)化的方式去“說服”人,成為影響教育管理者做出明確決定的關鍵性因素。
(四)技術負面效應凸顯技術失范問責體系的缺失
目前,智能技術與教育的深度融合已經(jīng)是大勢所趨。教育領域的智能技術主要是憑借其收集的大量的該領域的數(shù)據(jù)為分析基礎,在技術進行數(shù)據(jù)分析前,會從大量的人群中收集關于教與學的信息,之后結合數(shù)據(jù)及自身算法去呈現(xiàn)分析結果。在教育領域,無論是教師還是學生的各方面信息都是以數(shù)據(jù)的形式被儲存在一個巨大的數(shù)據(jù)庫中,由智能系統(tǒng)進行分析處理。在這種將每個人的一舉一動轉(zhuǎn)化為數(shù)據(jù)的情境下,我們應進一步反思,對于掌握了大量教育數(shù)據(jù)的技術而言,它是否能夠保證數(shù)據(jù)的隱私不被非法使用?技術對其分析偏差導致的消極影響是否應當負責?技術又應當如何負責?技術設計者是否應當為他的這種產(chǎn)品所帶來的危機負責?技術的這種不可預測性讓其在教育領域的應用引發(fā)了責任危機。實際上,關于智能技術引發(fā)的責任危機的例子有很多,比如“徐玉玉事件”中黑客剽取學生的隱私信息,非法售賣,為電信詐騙分子提供了捷徑;在2016年的“魏則西”事件中,由于技術提供的信息不準確導致醫(yī)療事故的發(fā)生等。這些技術應用消極后果的出現(xiàn)究竟應當由誰負責?目前還沒有明確的問責依據(jù)。因此,對于智能技術應用所引發(fā)的責任危機,需要進一步明晰問責標準,以便在享用技術便捷的同時,盡早防范潛在的倫理風險。
三、維貝克技術哲學視域下人工智能教育應用的異化分析
智能技術在教育領域應用呈現(xiàn)的負效應使得我們不得不反思這些風險的來源,認清在教育領域中人類與技術的關系下,把握好技術使用的范圍,破解人工智能教育應用所帶來的挑戰(zhàn)。為了有效地解決問題,本研究從維貝克的技術哲學視角分析問題,試圖尋找一個分析問題的合理角度。
(一)主客二分思想根深蒂固,影響人與技術關系的正確認知
人工智能技術它是現(xiàn)代技術發(fā)展到一定階段的高級形式,它“既屬于技術概念的討論范疇,又具有自身新技術的獨特性,故滿足了技術哲學理論探討的適切性”[9]。在哲學界,關于技術倫理學的路徑各有不同。早期的技術倫理學一直處于對技術的批判之中,他們持外部主義的立場,擔憂技術與文化的融合,會將人與技術的關系對立起來,視技術為對人性以及現(xiàn)實存在的威脅,他們的主要目的就是防止人性在這種技術的環(huán)境中受到損害。從這種視角看,技術的廣泛使用會使社會發(fā)展成技術掌控的社會,而人類則會變成社會生產(chǎn)過程中的一個部件,逐漸失去自身的權力意志,人的現(xiàn)實意義也會喪失。
維貝克認為,從這種視角來看技術,“技術不是以塑性我們?nèi)粘I畹木唧w事物來被人認知的,而是被當作與人類世界敵對的整體現(xiàn)象來認知的”[10]4。維貝克批判技術倫理學從工具主義的角度去看待技術,因為這會將技術的使用作為實現(xiàn)目的好壞的工具,并將其視為對人類領域的侵犯,他主張應當關注技術對人的調(diào)節(jié)作用。維貝克從解釋學角度出發(fā),分析了人與技術之間的關系。他在伊德的技術哲學基礎上提出人與技術的幾種關系,一是“具身關系”,即技術的使用促進了人類身體的延伸;二是“詮釋關系”,即技術物可以呈現(xiàn)對現(xiàn)實表征的解釋。同時,維貝克強調(diào)技術在不同使用情境下會產(chǎn)生不同影響。回望教育領域,人工智能作為技術的一種形式,技術調(diào)節(jié)的作用也存在于人工智能與教育者之間。在教育領域中,部分教師對教育過程存在片面化理解,將教育視為傳授知識的過程,只看到“教”的存在,忽視了“育”的重要性。那么,當出現(xiàn)技術物對于教師“教”的大部分替代時,就會使教師產(chǎn)生一種威脅感。維貝克指出,技術的權力不是對身體使用酷刑那樣來控制身體,而是讓身體變得更有用來馴服人。這也解釋了當前教師過度依賴技術的有用性開展教學,逐漸喪失教學專業(yè)技能以及教學敏感性,被技術“馴服”的現(xiàn)象。
實際上,換一個角度看,教師的教育活動在智能技術協(xié)助下,教師可以與技術形成“具身關系”,在借助技術開拓自身專業(yè)發(fā)展的途徑,提升自己教育教學知識、技能的同時,也可以借助技術掌握學生學習動態(tài),適度調(diào)整教學進度與策略,優(yōu)化教學成效。
(二)技術內(nèi)部“腳本”設計,限制學習者使用范圍
維貝克認為,技術不僅調(diào)節(jié)著人的現(xiàn)實經(jīng)驗以及解釋,而且也會主動地參與到調(diào)節(jié)人的行動之中。他從現(xiàn)象學的角度出發(fā),借助拉圖爾關于人工物調(diào)節(jié)人行動的闡述,“拉圖爾指出:在很多情況下,人類所做的一切是由其所用物與其一起形成的”[10]12。維貝克引用拉圖爾的“腳本”概念,所謂的腳本就是技術的內(nèi)部結構會決定使用者在使用技術時會如何做出行動。譬如,紅綠燈的腳本是“當我變成紅色的時候,請停止前進”。同時,維貝克指出,在技術對于人的行動進行調(diào)節(jié)時,某些被技術腳本提議的行動會被促進,而反過來會抑制除此之外的其他行動。
維貝克引用拉圖爾的“行動者網(wǎng)絡”詮釋人與非人實體之間是如何相互作用的。非人實體可以憑借內(nèi)在的腳本對人的行動進行規(guī)定,在這種情況下,人所做出的行動既不是非人實體所決定的,也不是人所決定的,而是在二者之間的相互作用下形成的。智能技術與學習者之間的關系也符合這種技術對人行為調(diào)節(jié)的理論。學習者在使用技術之前,設計者便設計了技術的“腳本”,技術以這種“腳本”的規(guī)定調(diào)節(jié)著學習者的學習行動。比如,在教育智能軟件獲取學習者偏向的學習內(nèi)容以及特點后,過濾學習內(nèi)容,學習者只能在技術所提供的資源范圍內(nèi)進行學習,它在促進個體學習他所感興趣的內(nèi)容同時,抑制了其涉獵其他領域知識的學習行動。但是,這種學習行動的產(chǎn)生,并不是由智能技術所決定,而是技術在接受到個體反饋的學習需求和偏好時,在強大的資源數(shù)據(jù)庫中進行篩選呈現(xiàn),之后個體對技術提供內(nèi)容的持續(xù)學習會進一步強化技術的信息反饋路徑,導致個體在與技術的交互作用下陷入“信息繭房”,難以融入外部多樣化的世界。
(三)數(shù)據(jù)詮釋偏差與技術說服性交織,干擾教育的科學管理
維貝克主要以技術調(diào)節(jié)為核心,闡述了他關于技術哲學的觀點,而貫穿于其中的一個典型例子就是“產(chǎn)前超聲波”?!爱a(chǎn)前超聲波”原本是一項無害的胎兒健康診斷技術,父母們在胎兒出生前會對其進行全面的檢查,技術會生成關于胎兒的掃描圖,而這種掃描圖將以一種微妙的形式調(diào)節(jié)胎兒與父母的關系,即如果胎兒是健康的,那么父母會選擇把孩子生下來,反之,他便會被視為畸形,那么此時的父母就要面臨“選擇是否生孩子”的困境。維貝克從后現(xiàn)象學的意義進行分析,指出技術在用一種特殊的方式呈現(xiàn)關于胎兒的實在表征,這種表征需要技術“讀者”進行解釋。
反觀教育領域,教育者借助技術洞察教育世界的動態(tài),技術為教育管理提供數(shù)據(jù)化的支持,在管理者實施某項教育措施時,技術通過收集多方的數(shù)據(jù)信息生成表征,管理者需要對這種表征給予解釋。但是,如果這種解釋出現(xiàn)偏差,就會導致教育管理的不當?!半m然大數(shù)據(jù)的介入對于提升教育決策的科學性具有積極意義,但過度依賴,則會將決策由‘拍腦袋’的極端轉(zhuǎn)向‘技術化’的極端,使得教育決策缺乏必要的價值參照”[11]。
此外,維貝克提到了“說服性技術”的概念,即“技術能夠以特定的方式主動說服人去行動”[10]152,比如說服性鏡子通過呈現(xiàn)一個人的臉部圖像,顯示某人生活方式對于未來生活的影響,以說服其改變當前的行動。這種說服性技術影響著人作為主體的觀念。如果教育管理者的行動完全是被技術的“說服性”所影響,那么他就難以判斷技術對教育決策帶來的影響是否可以接受,其最終決策的科學性與正確性也就無從得知。
(四)缺乏有力歸因依據(jù),責任主體難以明確
維貝克在探討物是否具有道德時指出,倫理學的基本的假設便是不要以道德化的術語去評判物,因為一些不道德事情的發(fā)生是人使用技術做出,并非是技術自身的行動。從后果論上看,行為結果的好壞是評判某行為正確與否的標準,即如果行為帶來的正面結果大于負面結果,那么該行為在道德上就會被認為是正確的。從這個角度來看,物只是人們做出道德行動的一個工具,它無法脫離人去判斷行為結果的好壞,當人們將其應用到道德行為中,它參與了人的道德實踐,此時才具有道德屬性。換句話說,是使用技術的人賦予了技術道德屬性。從道義論上看,評判行為的好壞依據(jù)行動者是否按照道德標準采取行動。從這個角度看,如果技術引導人以正確的方式行動,那么這個行動就不是行為者按照道德標準采取的,而是在技術引導下發(fā)生的,
這就難以判斷行為結果應由誰負責。
從以上兩個角度看,技術不能從道德層面為行為負責,因為物是沒有意識的。從后果論和道義論上出發(fā),探討技術在教育領域應用的責任問題依舊如此。一方面,從后果論上看,使用技術的教育行為是否道德“其實質(zhì)就在于判斷該行為能否帶動整個教育行業(yè)的健康發(fā)展,能否培養(yǎng)全面發(fā)展的人才,能否增加師生的幸福感等”[12]。但技術為教育帶來了虛實結合的教育情境使后果論的判斷變得復雜。對于同一種技術,不同的使用者會有不同的體驗,這樣我們就無法從整體上對于技術進行道德判斷。另一方面,從道義論上看,即使技術為使用者的行動提供引導,但如果使用者借助技術以違背道德的方式采取行動,那么技術在這種情況下是否要擔責的問題也存在爭議。
盡管如此,維貝克也并不同意將物完全排除在道德共同體之外,他主張即使物不具有意識性,但它積極參與人的道德行為以及決定,它為人們行動提供選擇。從這個角度上來看,物可以促進人的道德塑形,它也應當成為道德共同體中的一部分。
四、人工智能教育應用的倫理風險應對策略
維貝克的技術哲學觀為審視當前人工智能教育應用倫理問題提供了一個新的視角,并且在進一步探討人與技術之間的關系上給予了啟示。基于上述分析,本研究將繼續(xù)結合維貝克的觀點探究解決當前存在問題的策略,以便從多個角度抵御智能技術在教育領域所引發(fā)的倫理風險。
(一)超越傳統(tǒng)現(xiàn)象學視域,增強教育主體自信
傳統(tǒng)的現(xiàn)象學將人與技術之間的關系視為主體與客體之間的完全對立,將技術視為對人的生活世界的威脅。但“當人類將自身視為與客體相對立的主體時,人類將自身與顯而易見的關系網(wǎng)絡分離”
“這個關系網(wǎng)絡就是人與世界相互交織和相互賦予意義的場所”[10]34。維貝克從伊德的“后現(xiàn)象學”出發(fā),主張超越現(xiàn)象主義主客二分的詮釋,指出主體與客體之間是相互建構、相互塑形的關系。技術在教育領域的應用需要教育者能夠以理性眼光審視自身與技術的關系。
其一,智能技術可以調(diào)節(jié)教師的教學行為。智能技術能夠代替教師完成教學中繁瑣、困難的工作,比如學生作業(yè)布置、批改,診斷學生知識薄弱點,給予教師學情反饋,便于其調(diào)整教學進度、策略。智能技術也給予了教師更多提升自己的機會與空間。在傳統(tǒng)的教師專業(yè)發(fā)展模式中,教師的發(fā)展培訓主要來自于學校的定期組織,而目前在智能技術的支持下,教師隨時隨地可以實現(xiàn)跨時空學習,技術既為教師提供了大量的學習資源,也為教師教學提供了多樣化途徑。
其二,教師在使用技術的過程中凸顯技術的價值,技術也憑借人的使用來獲得現(xiàn)實意義。人與技術之間的關系并不是對立的,對立主要是來自人對于技術的偏見以及誤用。如果教育者將教學完全交給技術,就會步入尼爾·波斯曼所說的技術壟斷階段,即“技術確實為我們提供了舒適的便利生活,但是也讓我們對子的信仰失去了自信,對自己也會失去自信,只剩下一個可以相信的東西——技術”[13]。這樣一來,人就“自愿”被技術所“馴服”,他也自然會感受到技術帶來的強烈壓迫感。盡管技術能夠代替人類教師進行部分的教學工作,但是,它永遠無法具備人所具有的思想、情感、意志等品質(zhì)。
雅思貝爾斯曾指出,“教育是人的靈魂的教育,而非理智知識和認識的堆積”[14]。在教育過程中,“教”與“育”二者不可分割。在“教人”的方面,技術可能會有過人之處,但是在“育人”領域,技術只能束手無策。因為它始終無法去捕捉學生內(nèi)心、情感等方面的微妙變化,這種變化依舊需要教育者依靠自身的專業(yè)敏感性對這種內(nèi)隱性的教育問題進行洞察、判斷,只有教育者才能夠去彰顯教育這種深層的育人本質(zhì)。正如德雷福斯所言:“人類理性和智能的獨特性需要積聚智力、社會以及文化的熏陶,而這種獨特性是很難被人工智能表征和程序化的”[15]。因此,教育者應當超越傳統(tǒng)現(xiàn)象學的主客對立視角,明確自身作為人類教師所具有的獨特價值,增強自身教育主體的自信,在與技術相互塑造中進行高質(zhì)量的教育教學。
(二)開發(fā)有價值的技術腳本,彌補設計與使用之間的情境鴻溝
維貝克在探討技術是如何調(diào)節(jié)人的行為時提出了“反彈效應”的概念,它是指技術的使用導致目標的實現(xiàn)與原本追求的方向背道而馳。比如節(jié)約能源裝置的使用,原本這種技術是為了減輕環(huán)境問題,但是實際的結果卻是導致更多的環(huán)境污染。維貝克將這種反彈效應分為“使用者無視技術、根本不使用或者完全不同于設計者所想的那樣使用技術”[10]116,對于第三類效應就是指設計者所預想的技術調(diào)節(jié)結果和使用者的預期結果出現(xiàn)的偏差。技術悄無聲息地影響著人們的行動,而人們的行為模式又會影響著技術的使用及功能。維貝克主張,可以通過設計者審慎的設計技術來調(diào)節(jié)這種“反彈效應”,使設計者將設計語境與使用語境相結合,從使用者如何使用技術的角度考慮實際產(chǎn)品的設計。技術的功能性與使用性的關系決定了使用者意圖是否可以實現(xiàn)。設計者要從技術的使用語境出發(fā),預期技術帶來的影響,其中十分重要的是關于有價值的腳本的設計。
設計有價值的腳本的路徑有兩條:其一是設計者想象該技術可能會帶來的影響;其二是利用現(xiàn)實虛擬技術,在設計發(fā)展腳本中讓腳本變得充分。智能技術在教育中的應用,技術的設計者應當從教育的角度出發(fā),基于教育所追求的目標去預測使用者在使用技術時所追求的結果,想象技術可能會給教育帶來哪些消極影響,進而在設計中盡可能去避免。同時,技術設計者可以借助虛擬現(xiàn)實技術,讓教育智能技術在投入教育領域使用前,可以在實驗環(huán)境中被教育者試用,通過虛擬使用結果的信息反饋,設計者可以了解技術產(chǎn)品的功能以及給使用者帶來的體驗,以此判斷技術是否符合教育領域的實際需求,借助技術與使用者之間的交互作用,讓腳本更加完善。但是,已有研究指出,“目前,人工智能教育應用產(chǎn)品的設計并沒有從其預期用戶(教師、學習者、學校和家長)那里獲得足夠的輸入,因此導致了教育產(chǎn)品應用產(chǎn)生了一系列問題”[16]。
維貝克提出了“利益相關者分析”的方法進行道德反思。利益相關者分析是從多個角度對于技術進行體驗反饋,聚焦技術調(diào)節(jié)的所有結果,包括設計者希望達到的結果、使用者實際獲得的結果以及未預測到的附加調(diào)節(jié)效果,通過將這些結果與影響反饋到設計的過程中,避免出現(xiàn)技術代替人來做出道德決定的風險。利用建構性評估技術也可以彌補設計語境與使用語境的鴻溝。建構性評估技術考慮技術設計過程中所有的利益相關者,收集所有的相關行動者的反饋,包括設計者、使用者和其他相關人員的需求以及對技術應用效果的評估。但在教育領域中,“由于師生不是專業(yè)的技術人員,應該為他們提供最為方便快捷的反饋路徑”[17],提供多樣化的反饋渠道,加強技術設計與使用的雙向溝通,便于設計者修改其原始的設計,降低技術的副作用給教育帶來的潛在風險。
(三)審慎設計與使用技術,降低技術調(diào)節(jié)消極影響
技術對于人的行為調(diào)節(jié)大概分為三種:一是強迫人改變行為;二是以說服的方式調(diào)節(jié)人的行為;最后是誘導人做出某種行為。技術對于人的這種調(diào)節(jié)行為使技術不再是作為一種工具被使用,而是成為了人采取行動的背景。技術為人的道德決定提供了選擇的語境,它可以改變?nèi)说膽B(tài)度與行為,人做出道德決策是技術與人共同決定的事情。技術說服的調(diào)節(jié)效果不僅來自于設計者,也在于使用者以及技術本身三者之間共同作用,最終產(chǎn)生技術說服的結果。
首先,設計者要在源頭上預防這種風險,審慎的思考使用者的意圖,在設計技術時想象技術對人的調(diào)節(jié)程度,讓用戶在使用技術時可以達到所期望的結果并有助于做出正確的決定。其次,使用者也要反思技術說服的可靠性,防止自身完全依賴于技術采取行動。如果使用者將技術調(diào)節(jié)的結果完全歸結為設計者和技術本身,那么就會導致技術專治的局面。教育領域應用智能技術進行管理,技術為教育管理者提供管理依據(jù),如果單是從管理者這一方對該依據(jù)進行詮釋并茫然采取行動,很有可能會導致管理的差錯?!霸诓磺宄藱C一體’給兒童成長和教育帶來的后果之先,保持節(jié)制與防范、慎而又慎的態(tài)度是極其必要的”[18]。比如,在教育評估上,無論是在對教師的教學還是對學生的學習進行評價時,評價者都不能單一憑借技術反饋的信息,而應當謹慎的看待技術給予的信息,以免造成技術提供“科學”依據(jù)下教育不公平的現(xiàn)象。因此,從技術的設計者與使用者角度去反思技術對行為的調(diào)節(jié)效應,發(fā)現(xiàn)二者都應當以審慎的態(tài)度看待技術對人行為的干預,通過結合多方使用者的反饋,紓解技術說服的副作用。
(四)剖析技術責任主體,軟硬結合規(guī)范技術使用
“人工智能教育應用過程中如果數(shù)據(jù)有誤、算法不合宜或者用戶操作不當,就可能導致反向的效果。事故發(fā)生后,設計者、開發(fā)方、使用方或用戶各自該承擔怎樣的責任,需要有明確的追責、問責機制”[19]。但技術與人的調(diào)節(jié)關系使得這種調(diào)節(jié)結果的責任難以分配。維貝克主張人的行動是由人自身的行動及受技術特定的影響所產(chǎn)生,從這個角度上看,如果考慮技術的責任問題首先就需要從設計者以及使用者兩個方面考慮。因為盡管人的行為受到技術調(diào)節(jié)的影響,但是技術以誘導和說服的形式干預人的行為而無法決定人的行為,行為的結果取決于使用者面對技術調(diào)節(jié)時的態(tài)度。因此,使用者需要為技術應用的結果擔當部分責任。另一方面,盡管技術的調(diào)節(jié)具有不可預測性,它會依賴不同的情境而以不同的方式去調(diào)節(jié)人的行為,但設計者應該去預測與評估技術調(diào)節(jié)存在的可能影響,在預測、評估后再加以調(diào)節(jié),這個過程也讓設計者為技術的負面效應負責。
當前,關于智能技術教育應用存在問題的歸因追責上缺乏清晰的界定,依據(jù)維貝克關于技術調(diào)節(jié)效應的責任分析,我們至少可以從使用者和設計者兩方面進行管理。第一,國家頒布明確的技術設計安全準則與使用規(guī)范,明晰技術負面影響的責任主體,標明技術設計的紅線,并嚴格禁止對于技術的濫用。同時,建立專門智能技術監(jiān)督、評估機構,加強技術使用的監(jiān)管,以嚴守技術設計和使用的倫理、安全底線。第二,開展廣泛的技術宣傳教育,一方面,增強技術開發(fā)人員的職業(yè)素養(yǎng),提高職業(yè)操守,增強自身責任意識,在設計技術時考慮教育領域的特殊性以及對技術的真實需求,適當預測技術應用教育領域的潛在負面影響,結合多方信息反饋不斷完善技術;另一方面,加強教育者的綜合教學能力,提升智能信息素養(yǎng),同時引導教育者理性看待技術對于自身教育行為的干預,積極的向技術設計者反饋其產(chǎn)品在教育領域應用出現(xiàn)的問題,二者攜手應對智能技術應用教育領域帶來的倫理風險。
五、結語
智能技術給教育領域帶來了全新的教育模式,但其引發(fā)的教育倫理風險也是我們需要重點關注的問題。本研究在維貝克的以技術調(diào)節(jié)為核心的技術哲學思想啟發(fā)下,提出要理性的看待技術與人之間的關系,加強設計者與使用者之間的交流對話,以促進技術有效使用。同時,需要理清技術在教育應用帶來消極影響的責任主體,制定必要的追責制度,不斷地促進智能技術與教育深度融合,開創(chuàng)智能時代教育的新局面。
〔參 考 文 獻〕
[1]趙磊磊,張黎,代蕊華.教育人工智能倫理:基本向度與風險消解[J].現(xiàn)代遠距離教育,2021(05):73-80.
[2]李曉巖,張家年,王丹.人工智能教育應用倫理研究論綱[J].開放教育研究,2021,27(03):29-36.
[3]王嵐,王凱.教育中的人工智能:應用、風險與治理研究[J].黑龍江高教研究,2020,38(06):45-49.
[4]于英姿,胡凡剛.隱憂與消解:智能技術之于教育的倫理省思[J].遠程教育雜志,2020,38(03):55-64.
[5]孫田琳子.論技術向善何以可能——人工智能教育倫理的邏輯起點[J].高教探索,2021(05):34-38+102.
[6]安濤.“算計”與“解蔽”:人工智能教育應用的本質(zhì)與價值批判[J].現(xiàn)代遠程教育研究,2020,32(06):9-15.
[7]馮銳,孫佳晶,孫發(fā)勤.人工智能在教育應用中的倫理風險與理性抉擇[J].遠程教育雜志,2020,38(03):47-54.
[8]譚維智.人工智能教育應用的算法風險[J].開放教育研究,2019,25(06):20-30.
[9]孫田琳子.虛擬現(xiàn)實教育應用的倫理反思——基于伯格曼技術哲學視角[J].電化教育研究,2020,
41(09):48-54.
[10]彼得·保羅·維貝克.將技術道德化——理解與設計物的道德[M].閆宏秀,楊秀峰,譯.上海:上海交通大學出版社,2016.
[11]劉金松.大數(shù)據(jù)應用于教育決策的可行性與潛在問題研究[J].電化教育研究,2017,38(11):38-42+74.
[12]田維琳.大數(shù)據(jù)環(huán)境對民眾倫理意識的淡化與沖擊[J].自然辯證法研究,2019,35(07):23-27.
[13]李曉云.媒介生態(tài)與技術壟斷——尼爾·波茲曼的技術壟斷批判[J].四川大學學報(哲學社會科學版),2007(01):70-74.
[14]雅思貝爾斯.什么是教育[M].鄒進,譯.北京:生活·讀書·新知三聯(lián)書店出版社,1991:4-4.
[15]徐獻軍.德雷福斯對人工智能的批判仍然成立嗎?[J].自然辯證法研究,2019,35(01):15-20.
[16]孟翀,王以寧.教育領域中的人工智能:概念辨析、應用隱憂與解決途徑[J].現(xiàn)代遠距離教育,2021(02):62-69
[17]沈苑,汪瓊.人工智能教育應用的偏見風險分析與治理[J].電化教育研究,2021,42(08):12-18.
[18]唐漢衛(wèi).人工智能時代教育將如何存在[J].教育研究,2018,39(11):18-24.
[19]高山冰,楊丹.人工智能教育應用的倫理風險及其應對研究[J].高教探索,2022(01):45-50.
〔責任編輯:侯慶?!?/p>