托雷·霍爾 曹夢瑩 明芷安 袁莉
摘 ? 要:人工智能的飛速發(fā)展和由此帶來的產(chǎn)業(yè)革命引發(fā)了一系列人工智能倫理問題,這些問題正成為阻礙新技術(shù)潛力發(fā)揮的主要障礙。人工智能所處的困境與生物科技、醫(yī)學(xué)等領(lǐng)域一樣,在新技術(shù)開發(fā)與實踐的發(fā)展過程中,倫理問題也備受關(guān)注。然而,與其他領(lǐng)域不同,人工智能增加了一個新的倫理維度——可解釋性,即機器學(xué)習(xí)的模型和算法,可以被用戶理解和需要對用戶負責(zé)任。這對于教育來說,開啟了一個前所未有的參與人工智能發(fā)展的空間和可能。據(jù)此,在研究支持人工智能系統(tǒng)技術(shù)的同時,也需要對大眾開展人工智能教育和培訓(xùn),了解人工智能在各個領(lǐng)域的應(yīng)用,以及人工智能系統(tǒng)和工具將如何改變?nèi)藗兊墓ぷ骱蜕睢N恼聫慕逃嵌忍接懭斯ぶ悄芸山忉屝缘膬?nèi)涵、原理和現(xiàn)實意義,以及人工智能給教育帶來的新的發(fā)展動力和變革機遇。在此基礎(chǔ)上,文章建議:首先,要完善人工智能開發(fā)流程,制定人工智能倫理規(guī)范和原則,通過培訓(xùn)和實踐指導(dǎo)建立可解釋和可信任的智能教育;其次,要開設(shè)人工智能教育課程,使學(xué)生掌握機器學(xué)習(xí)和其他人工智能技術(shù)的工作原理,構(gòu)建可解釋性人工智能的認知基礎(chǔ);最后,要加強人工智能素養(yǎng)教育,特別是人工智能倫理道德的培養(yǎng),這是教育促進未來社會發(fā)展的重要責(zé)任和義務(wù)。
關(guān)鍵詞:人工智能的可解釋性;人工智能倫理;人工智能素養(yǎng)
中圖分類號:G434 文獻標志碼:A ? ? ? ? 文章編號:1673-8454(2022)04-0005-09
一、引言
2021年,聯(lián)合國教科文組織(UNESCO)通過了首個供193個成員國采用的關(guān)于人工智能倫理的全球協(xié)議《人工智能倫理建議書》(Recommendation on the Ethics of Artificial Intelligence, 以下簡稱《倫理建議書》)[1]。《倫理建議書》定義了共同的價值觀和原則,用以指導(dǎo)建設(shè)必需的法律框架,以確保人工智能的健康發(fā)展,并且強調(diào)人工智能系統(tǒng)的透明度和可解釋性是確保人權(quán)、基本自由和倫理原則得到尊重、保護和促進的必要條件。《倫理建議書》明確指出,可解釋性是指讓人工智能系統(tǒng)的結(jié)果可以理解,并提供闡釋說明。并且呼吁會員國進行道德影響評估,確保道德治理;制定數(shù)據(jù)政策,確保適當?shù)陌踩蛿?shù)據(jù)保護措施,向公眾提供人工智能素養(yǎng)教育[1]。同年,中國《新一代人工智能倫理規(guī)范》[2]的發(fā)布,為從事人工智能相關(guān)活動的自然人、法人、相關(guān)機構(gòu)等提供倫理指引,強調(diào)在算法設(shè)計、實現(xiàn)、應(yīng)用等環(huán)節(jié),提升透明性、可解釋性、可理解性、可靠性、可控性??梢?,人工智能技術(shù)的發(fā)展需要相應(yīng)提高數(shù)據(jù)、媒體與信息素養(yǎng),努力減少錯誤信息、虛假信息和仇恨言論的風(fēng)險,以及濫用個人數(shù)據(jù)造成的傷害。
以深度學(xué)習(xí)為代表的智能技術(shù)存在的“黑箱”問題,使智能教育系統(tǒng)的決策結(jié)果缺乏透明度和可解釋性,對于輸出結(jié)果,往往沒人能確切地知道決策的依據(jù)以及決策結(jié)果是否可靠。因此,我們需要透明、可解釋的系統(tǒng)為人工智能的結(jié)論提供依據(jù),使其推理可以被檢查,錯誤的假設(shè)可以被識別。此外,加強人工智能素養(yǎng)教育,特別是遵循以人為本的原則是避免人工智能“黑箱”的先決條件。我們不僅要提高學(xué)生應(yīng)用人工智能的能力,也需要讓學(xué)生明白透明度、公平性等問題在智能社會的重要性,它是決定人工智能影響人們生活的關(guān)鍵所在。因此,在人工智能素養(yǎng)教育中,加強學(xué)生對人工智能可解釋性的認識,具有非常重要的意義。基于此,本文探討了人工智能機器學(xué)習(xí)可解釋性的原理,闡明了可解釋性在教育中的重要作用,以及開展全民人工智能素養(yǎng)和倫理教育的必要性,并強調(diào)提高教師、學(xué)生的人工智能知識和技能,發(fā)展可解釋的人工智能是可信任未來智能教育的基礎(chǔ)。
二、人工智能教育倫理框架
在過去的25年里,國際人工智能教育協(xié)會(the International Society for AI in Education)一直積極組織關(guān)于人工智能教育的會議并支持相關(guān)研究,但是人工智能對教育的影響近幾年才逐漸被大眾關(guān)注和討論,國內(nèi)外研究者和實踐者開展了大量研究,并發(fā)布相關(guān)報告。這些報告幾乎都涉及人工智能教育倫理的探討,但是很多研究只是提出問題,并沒有給出具體的解決方案。例如,微軟前教育戰(zhàn)略主管達根(Duggan)撰寫、聯(lián)合國教科文組織教育信息技術(shù)研究所發(fā)布的《教育中的人工智能:學(xué)習(xí)速度的變化》(AI in Education: Change at the Speed of Learning)報告中,描述了對人工智能算法可能導(dǎo)致的偏見,以及學(xué)生數(shù)據(jù)使用不當所帶來的隱私、數(shù)據(jù)保護等問題的擔(dān)憂,并提出,“在開發(fā)人工智能系統(tǒng)和解決方案時,同樣需要關(guān)注人工智能的倫理問題,而不僅僅是在實施階段”[3]。由美國計算與學(xué)習(xí)科學(xué)綜合研究中心(CIRCLS)發(fā)布的《人工智能與學(xué)習(xí)的未來:專家小組報告》(AI and the Future of Learning: Expert Panel Report)也得出相關(guān)結(jié)論,即需要“制定更強有力的倫理和公平政策”,并“迅速加強了解在這一新興領(lǐng)域有效、公平和符合道德規(guī)范的核心標準、準則、政策和其他指導(dǎo)形式”[4]。該報告還提出,從事這項工作的研究人員必須參與制定規(guī)范和指南,幫助該領(lǐng)域以安全可信的方式發(fā)展。實踐者、決策者和其他利益相關(guān)者需要平等參與。政策不僅要滿足研究人員的需求,還要滿足初創(chuàng)公司和提供大的科技平臺及服務(wù)公司的需求。政策及其實施需要透明,這樣一旦出現(xiàn)問題,教育工作者和公眾可以追究開發(fā)者的責(zé)任。[4]
另外,澳大利亞政府教育部委托索斯蓋特(Southgate)等人撰寫的報告《簡讀:人工智能與學(xué)校教育》(Short read: Artificial intelligence and school education)指出,人工智能教育面臨著“很難看懂機器決策的準確邏輯”的困境。該報告表達了一個重要觀點,“對于教育等人文領(lǐng)域來說,能夠解釋為什么做出這樣的決定,是運用智能系統(tǒng)進行教學(xué)和管理的核心原則”[5]。由此可見,為了確保人工智能在學(xué)習(xí)和教學(xué)中蓬勃發(fā)展和有效運用,機器學(xué)習(xí)的可解釋性是智能教育研發(fā)必須解決的問題。該報告還提出一個教育、倫理和人工智能(EEAI)框架,為教師、學(xué)校領(lǐng)導(dǎo)和政策制定者提供了一種思考倫理問題的方法,如圖1所示。該框架從公民權(quán)利、倫理原則、運用人工智能進行學(xué)習(xí)等方面,對如何設(shè)計、實施和治理面向大眾的人工智能進行分析和探討[5]。
當前,“人工智能倫理”已經(jīng)成為很多非盈利機構(gòu)和組織的一個非常重要的議題。例如,全球志愿者網(wǎng)絡(luò)已經(jīng)形成了一個以英國為基地的研究中心——人工智能倫理和機器學(xué)習(xí)研究所(http://ethical.institute),旨在探討人工智能倫理和機器學(xué)習(xí)對未來社會發(fā)展的影響。此外,白金漢大學(xué)建立了教育中的倫理人工智能研究所,并在2020年發(fā)布由國際人工智能教育協(xié)會前任主席羅盧金(Luckin)教授主持撰寫的《人工智能教育倫理的共同愿景》(Towards a Shared Vision of Ethical AI in Education)報告[6]。這份報告闡述了教育中人工智能倫理的重要性,以及實現(xiàn)符合倫理規(guī)范的智能教育系統(tǒng)的共同愿景和目標。首先,報告重申了歐盟委員會(European Commission)人工智能高級專家組提出的防止智能教育系統(tǒng)可能對學(xué)習(xí)者產(chǎn)生潛在傷害的要求[7],具體措施包括:人的參與和監(jiān)督;問責(zé)制;技術(shù)穩(wěn)健性和安全性;多樣性、不歧視和公平;隱私和數(shù)據(jù)治理;透明度以及社會、環(huán)境福祉。其次,報告還建立了一個人工智能教育倫理標準框架,并提出滿足這些標準規(guī)范的藍圖;反思了人工智能教育倫理方面的機制建設(shè),并就歐盟委員會可信賴人工智能的指導(dǎo)方針如何適用于教育環(huán)境提出了建議。機制討論包括法規(guī)、行為準則、認證、標準化、利益相關(guān)者的教育和意識、多樣性和包容性團隊、可信賴人工智能的架構(gòu)、服務(wù)質(zhì)量指標、解釋方法等。最后,報告進一步提出需要改進的方面,包括采購程序、關(guān)于人工智能和對教育工作者使用人工智能的培訓(xùn)、保障方法、人工更正的方法、風(fēng)箏標志(Kitemark)、監(jiān)測和報告人工智能教育的宏觀影響,以及確保人工智能教育倫理成為課程的一部分[6]。
對教育中人工智能倫理的討論,是在各個領(lǐng)域廣泛開展人工智能倫理框架、規(guī)范和實踐的背景下進行的。這里需要提出兩個問題:①人工智能與其他領(lǐng)域,如醫(yī)學(xué)、生物科學(xué)等,存在哪些通用的倫理原則?②當解決人工智能在學(xué)習(xí)、教育和培訓(xùn)中所面臨的倫理困境時,教育有什么特殊性?
弗羅里迪(Floridi)等人2019年在一份關(guān)于人工智能在社會中的五個原則框架中,回答了上面提出的第一個問題。他們分析了來自六個知名度很高、專家驅(qū)動的人工智能倫理報告中的47項規(guī)范,發(fā)現(xiàn)這些規(guī)范可以歸結(jié)為五項原則,其中四項是傳統(tǒng)生物倫理中眾所周知的原則(受益、無害、自主和公正),如圖2所示。他們認為第五個原則——可解釋,是人工智能所特有的。這一促進人工智能發(fā)展的原則包含可理解性(對于非專家,包括患者或商業(yè)客戶;對于專家,包括產(chǎn)品設(shè)計師或工程師)和責(zé)任性”[8]。
對學(xué)生進行人工智能倫理的教育是實現(xiàn)人工智能可解釋性的途徑。毋庸置疑,教育在可解釋人工智能中起著關(guān)鍵的作用,如使人工智能的倫理原則變得可理解和可操作。為了更好地掌握人工智能給教育帶來的潛在機遇和風(fēng)險,一方面,將可解釋性作為智能教育的內(nèi)在動因,明確哪些內(nèi)容應(yīng)該讓教育用戶理解;另一方面,智能教育系統(tǒng)、工具的決策和結(jié)果要具有透明性,這也包括認識論和倫理學(xué)的跨學(xué)科的探索,以及如何吸引更多教育工作者參與到智能教育的設(shè)計和實施過程中。
三、人工智能可解釋性的教育視角
(一)人工智能可解釋性的基本原理
解釋機器學(xué)習(xí),特別是具有多層抽象變量的深度學(xué)習(xí)的決策過程和結(jié)果,一直是開發(fā)和應(yīng)用人工智能的挑戰(zhàn)。近年來,隨著人工智能技術(shù)的日益發(fā)展,負責(zé)任的人工智能(歐盟使用術(shù)語“可信任的人工智能”)相關(guān)問題日益緊迫地被列入了研究議程。歐盟委員會任命了專家組為其人工智能戰(zhàn)略提供建議,其中包括制定可信賴的人工智能倫理準則、制定可信賴的人工智能政策和投資建議、制定可信賴的人工智能最終評估標準等[9]。目前,已經(jīng)有許多關(guān)于可解釋人工智能的研究和論文,其目的是“尋求解釋,并探討人類如何理解人工智能決策系統(tǒng)”。關(guān)于可解釋人工智能的概念至今仍未達成共識,根本原因是這個概念會因其所應(yīng)用的領(lǐng)域不同而發(fā)生變化。例如,在人機交互領(lǐng)域,沃克爾(Wallk?tter)等人專注于“機器人提供內(nèi)部工作信息的能力,這樣觀察者(目標用戶)可以推斷出機器人行為的方式和原因”[9]。同時,在教育、國防、醫(yī)藥、法律等許多領(lǐng)域,可解釋性便于用戶理解,并提高信任度,能夠有效地管理人工智能系統(tǒng)。由此可見,可解釋性定義取決于領(lǐng)域,并且不能獨立于領(lǐng)域進行定義。每種解釋都取決于人工智能系統(tǒng)用戶的任務(wù)、能力和期望值。
為了對可解釋性進行深入的討論,我們需要厘清一些基本概念和分類法,在最近的一些研究中也討論了這些問題[9-11]。簡而言之,可解釋人工智能通常是作為技術(shù)概念而被關(guān)注,如機器學(xué)習(xí)、深度神經(jīng)網(wǎng)絡(luò)、具身代理等。然而,從本文所提出的教育視角來看,我們需要有更廣闊的視野。例如,阿瑞塔(Arrieta)等人提出,需要“考慮到用戶的實際情況,可解釋的人工智能要提供使其功能非常明確或易于理解的信息和推理”[10]。他們在討論可解釋人工智能概念和分類時,把目標受眾的知識作為關(guān)鍵問題,提出可解釋性模型取決于受眾,“必須與隱私、保密、公平、問責(zé)等相關(guān)要求和約束一起解決”[10]。如圖3所示,在阿瑞塔等人提出的“負責(zé)任的人工智能”概念中,可解釋人工智能只是其中的一部分。
“負責(zé)任的人工智能”觀點說明,人工智能的可解釋性,不能與反思社會技術(shù)和實踐方面的其他倫理原則分開,如圖2所示。然而,如果一個能夠幫助和支持人類做決策的技術(shù)機制背后仍然是一個“黑箱”,就很難找到符合倫理要求的技術(shù)發(fā)展方向。因此,一方面,我們在討論問責(zé)制之前,需要理解可理解性;另一方面,當我們開始從技術(shù)角度出發(fā)考慮不同的受眾時,可理解性是很難達到的。在許多情況下,它只是一個近似值,而不是確定的答案。
人工智能的可解釋性在技術(shù)層面上需要達到什么程度,主要取決于其目標用戶。在教育環(huán)境中,完全透明的人工智能模型是很難實現(xiàn)的。但這個模型是可以被理解或易懂,而且這一模型所做的決策可以被解釋。阿瑞塔等人對人工智能和可解釋人工智能倫理規(guī)范中使用的術(shù)語進行了必要的澄清:可理解性(Interpretability)與可解釋性(Explainability)不能互換。可理解性,也可以表示為透明度,指模型的被動特性,“指給定模型達到目標受眾能夠理解的水平;相比之下,可解釋性可以被看作是模型的一個主動特征,表示模型為了闡明或詳述其內(nèi)部功能而采取的任何行動或過程”[10]。他們還進一步解釋道,“人工智能系統(tǒng)作為連接人和數(shù)據(jù)決策之間的應(yīng)用,既要呈現(xiàn)精確的決策又要為人們所理解”[10]。因此,根據(jù)阿瑞塔等人的定義,人工智能系統(tǒng)取決于數(shù)字的能動性,而系統(tǒng)應(yīng)用的界面提供了一個與外界交流的渠道,因此目標用戶也有能動性。也就是說,人們與智能系統(tǒng)互動就是一個解釋和學(xué)習(xí)的過程。在這個過程中,服務(wù)對象是誰、目的是什么、如何采取行動、為什么要這樣做,等等,這些問題都會被提出并加以分析。
在回答這些問題時,可解釋人工智能相關(guān)文獻中提出了使人工智能模型,特別是機器學(xué)習(xí)模型更透明的特征,即模擬、分解和算法透明[10][11]。然而,大部分解釋用的是事后解釋技術(shù),即文字解釋、視覺解釋、闡明更復(fù)雜的整體模型的局部解釋、實例解釋、簡單化解釋、特征關(guān)聯(lián)性解釋。
貝勒(Belle)和帕潘托尼斯(Papantonis)在圖4中總結(jié)了可解釋性方法[11]。從本文的角度來看,很明顯,即使一個很透明的模型顯示使用的是貝葉斯統(tǒng)計,也需要通過復(fù)雜的解釋機制和解釋方法,才能為使用人工智能系統(tǒng)管理日常任務(wù)的不同受眾,給予有意義的解釋,學(xué)校的教學(xué)就是一個最直接的例子。
(二)教育視角的可解釋性
一個好教師需要了解學(xué)生,也就是前文所說的受眾。換句話說,教師對可解釋人工智能所面臨挑戰(zhàn)的自然環(huán)境特征是非常清楚的。正如在智能教育這樣一個特定的領(lǐng)域,涉及很多系統(tǒng)和應(yīng)用,包括:機器自動評估和答疑、智能推送、對用戶需求進行引導(dǎo),使教師和學(xué)生潛意識受到人工智能的暗示做出決策。即使我們知道“場景(Context)就是一切”,而場景本身也是一個難以定義、難以捉摸的概念。好的教師會用現(xiàn)實生活中的例子,將一個現(xiàn)象解釋得簡單明了,其過程更像是個人信息的交流。尼森鮑姆(Nissenbaum)提出,“尊重場景意味著消費者有權(quán)期望公司收集、使用和披露個人數(shù)據(jù)的方式,與消費者提供數(shù)據(jù)的環(huán)境一致。”[12]她提出了“情境脈絡(luò)完整性”(Contextual Integrity)理論,在教育大數(shù)據(jù)的應(yīng)用中,這對于討論對隱私和數(shù)據(jù)保護是非常有用的。根據(jù)這一理論,人們應(yīng)該遵守“特定環(huán)境下的個人信息流動”規(guī)范[12]。數(shù)據(jù)共享方式是否侵犯了個人的隱私,取決于三個方面的因素:①共享的信息類型;②發(fā)送者、數(shù)據(jù)主體和接收者的社會角色;③信息的傳輸方式。
從教師的角度來看,在學(xué)生使用的所有應(yīng)用程序中,數(shù)據(jù)應(yīng)該如何處理,還沒有達成普遍共識。此外,如果我們需要在具體的環(huán)境中,才能決定數(shù)據(jù)共享是否符合倫理規(guī)范,那么學(xué)校的作用是什么? 由此不難得出結(jié)論,學(xué)校的責(zé)任是教育學(xué)生了解和掌握數(shù)據(jù)共享方面的知識、明白數(shù)據(jù)是如何收集和使用的,以及如果數(shù)據(jù)泄露能夠問責(zé)(由誰收集、出于什么目的,等等)。這就意味著,需要將人工智能素養(yǎng)的提高作為人工智能課程設(shè)計和開發(fā)的重要組成部分。
相關(guān)研究發(fā)現(xiàn),從2014年到2021年,人工智能素養(yǎng)課程大幅增加[13]。2021年11月,人工智能素養(yǎng)的關(guān)注度達到了一個新的高峰。聯(lián)合國教科文組織所有成員國就促進人工智能教育的建議達成了一致:成員國應(yīng)促進獲得人工智能教育的“基本技能”,如讀寫、計算、編程和數(shù)字技能,媒體和信息素養(yǎng)、批判性和創(chuàng)造性思維、團隊合作、溝通、社會情感、人工智能倫理的知識和能力,特別是目前還明顯落后的國家(地區(qū))或各國的區(qū)域[1]。
《倫理建議書》指出,有必要為各級各類學(xué)校設(shè)計人工智能課程,并且“促進人工智能的技術(shù)教育與人工智能相關(guān)的人文、倫理和社會方面的教育交叉合作”[1]。在2021年的另一份題為《一起重新構(gòu)想我們的未來:教育的新社會契約》(Reimagining Our Futures Together: A new social contract for education)報告中,聯(lián)合國教科文組織提出,人工智能課程開發(fā)應(yīng)該考慮如何應(yīng)對人工智能可能造成的錯誤信息的傳播[14]。
人工智能課程應(yīng)該強調(diào)培養(yǎng)學(xué)生科學(xué)探究精神,以及區(qū)分嚴謹?shù)难芯亢椭囌`謊言的能力。我們應(yīng)該發(fā)展數(shù)字技能,使學(xué)習(xí)者能夠有目的地使用技術(shù)。人工智能課程應(yīng)確保學(xué)生通過參與決定科學(xué)技術(shù)使用方式和運用目的,從而獲得“駕馭”智能技術(shù)的能力[14]。
四、人工智能素養(yǎng)
(一)人工智能素養(yǎng)教育
人工智能素養(yǎng)的定義由一場國際討論而引起關(guān)注,這場討論試圖解釋人工智能到底是什么,以及人工智能為人們對倫理的理解和行為帶來了哪些新的變化。如前文所述,可解釋性是人工智能倫理新的要素,那么相對于人們已經(jīng)熟悉的數(shù)字素養(yǎng),人工智能素養(yǎng)有哪些新的要素呢?有研究者將人工智能素養(yǎng)定義為,“一系列使個人能夠批判性地評估人工智能技術(shù);與人工智能有效溝通和協(xié)作以及在網(wǎng)上、家里和工作場所使用人工智能工具的能力”[15]。因此,人工智能素養(yǎng)包括:①數(shù)字素養(yǎng),即使用計算設(shè)備所需的能力;②計算素養(yǎng),即使用代碼表達、探討和交流思想的能力;③科學(xué)素養(yǎng),即對自然、目標和科學(xué)的一般局限性的理解,以及對更重要科學(xué)思想的一些理解;④數(shù)據(jù)素養(yǎng),即作為探索世界的更廣泛過程的一部分,閱讀、處理、分析和論證數(shù)據(jù)的能力。也可以理解為,人工智能素養(yǎng)有不同的類型:技術(shù)素養(yǎng)(功能、概念、評估和關(guān)鍵水平)、代碼素養(yǎng)、修辭素養(yǎng)(利用不同的修辭格)、寫作素養(yǎng)(保持在線和協(xié)作寫作)、倫理素養(yǎng)(就與數(shù)字安全、數(shù)字權(quán)利、數(shù)字財產(chǎn)、數(shù)字身份、數(shù)字隱私等相關(guān)數(shù)字行為做出符合道德的選擇和決定)和數(shù)字素養(yǎng)。
人工智能素養(yǎng)不能簡單地通過“知識傳授方式”來獲得提高,如人工智能在學(xué)術(shù)寫作中的運用??梢灶A(yù)測,在不久的將來,研究人員能夠通過數(shù)字技術(shù)互聯(lián)互通,與全球研究社區(qū)開展合作。那么,需要具備什么樣的素養(yǎng),才能與機器代理開展建設(shè)性合作。在英國,負責(zé)高等教育技術(shù)應(yīng)用的英國聯(lián)合信息系統(tǒng)委員會(JISC)制定了一個數(shù)字能力框架[16],如圖5所示。該框架將數(shù)字能力歸納為五個方面:①信息、數(shù)據(jù)和媒體素養(yǎng);②數(shù)字創(chuàng)作、問題解決和創(chuàng)新能力;③數(shù)字化交流、合作和參與;④數(shù)字化學(xué)習(xí)和發(fā)展;⑤自我實現(xiàn)數(shù)字身份管理和數(shù)字福祉。從這個角度來看,人工智能素養(yǎng)只能通過促進跨學(xué)科的教學(xué)和學(xué)習(xí)來獲取,這就需要將人工智能工具、實踐和人工智能倫理整合到各級各類學(xué)校的所有科目中。
(二)人工智能素養(yǎng)課程設(shè)計
目前,有研究者進行了針對不同年齡層學(xué)生不同需求的人工智能素養(yǎng)課程設(shè)計實踐。例如,金承勛(Kim)等人在研究中設(shè)計了針對小學(xué)階段的學(xué)生課程,通過體驗學(xué)生在日常生活中可能遇到的人工智能技術(shù),來開發(fā)人工智能素養(yǎng)課程模塊;通過體驗熟悉的人工智能技術(shù),使學(xué)生消除對人工智能先入為主的誤解。該課程的目的是培養(yǎng)人工智能素養(yǎng)的三種勝任力:人工智能知識、人工智能技能和人工智能態(tài)度[17]。需要特別強調(diào)的是,人工智能態(tài)度包括“社會影響”和“與人工智能合作”。人工智能態(tài)度能力要求學(xué)生能夠認識人工智能對社會的積極和消極影響,以及對使用人工智能技術(shù)的批判性觀點。另外,麻省理工學(xué)院發(fā)布了人工智能教育網(wǎng)站[18],分享K-12階段學(xué)生可以用來學(xué)習(xí)人工智能的各種在線資源,旨在培養(yǎng)學(xué)生的創(chuàng)造力、批判性思維和同理心,從而讓他們思考如何負責(zé)任地設(shè)計和使用人工智能,認識到人工智能倫理的社會影響。
有研究者采用整合技術(shù)的學(xué)科教學(xué)知識(Technological Pedagogical and Content Knowledge, TPACK)模型設(shè)計教師人工智能素養(yǎng)課程,并概念化其在人工智能素養(yǎng)教育中集成相關(guān)技術(shù)所需的能力和知識。圖6中包含三種知識:①技術(shù)知識,涉及特定領(lǐng)域?qū)W習(xí)工具,如人工智能素養(yǎng)教育中的硬件和軟件、人工智能相關(guān)代理(使用智能代理,包括專家系統(tǒng)、機器學(xué)習(xí)訓(xùn)練器、聊天機器人,無需編碼即可構(gòu)建定制機器學(xué)習(xí)模型)和無電子學(xué)習(xí)工具(在沒有計算機的情況下學(xué)習(xí)人工智能知識,包括講座、案例研究、角色扮演和講故事)。②教學(xué)知識,涉及教學(xué)方法及其應(yīng)用,以促進學(xué)生的人工智能素養(yǎng)學(xué)習(xí),這需要教學(xué)策略和支架,以反饋學(xué)生的學(xué)習(xí)過程。③學(xué)科知識,涉及關(guān)于人工智能素養(yǎng)主題的知識,即課程中應(yīng)該涵蓋的特定主題。[19]
五、結(jié)論
人工智能的發(fā)展通常被描述為世界各國爭奪未來科學(xué)技術(shù)主導(dǎo)地位的競賽。但是我們可以清楚地看到,僅僅關(guān)注人工智能技術(shù)方面的突破并不能實現(xiàn)人工智能發(fā)展質(zhì)的突破。歐盟在其報告《人工智能、機器人及相關(guān)技術(shù)倫理方面的歐洲框架》(European Framework on Ethical Aspects of Artificial Intelligence, Robotics and Related Technologies)中指出,“歐洲人工智能發(fā)展旨在促進歐洲在人工智能領(lǐng)域的創(chuàng)新能力,同時支持在整個歐盟經(jīng)濟中開發(fā)和采用符合倫理和可信的人工智能。人工智能應(yīng)該為人們工作,并成為社會中的一股正義力量”[20]。人工智能工具和應(yīng)用的開發(fā)涉及社會、文化、經(jīng)濟、教育等各個方面。了解人工智能應(yīng)用的環(huán)境是關(guān)鍵,社會上沒有其他機構(gòu)比教育更能滿足人工智能對不同背景環(huán)境的需求。教育的本質(zhì)是提出問題,如是什么、為什么、如何等解釋概念,以及想法和結(jié)果之間的關(guān)系,可解釋性是人工智能帶給人類的新挑戰(zhàn)。為了迎接這一挑戰(zhàn),需要通過精心設(shè)計的人工智能課程來提高全民的人工智能素養(yǎng)。值得一提的是,在2021年,包括中國在內(nèi)的世界上許多國家都公布了為中小學(xué)和大學(xué)開發(fā)人工智能課程的計劃,以用于提高人工智能素養(yǎng)和人工智能倫理意識[21]。
人工智能教育仍處于發(fā)展的相對早期階段,圍繞道德和法律框架還有許多工作要做?;谌斯ぶ悄軅惱碇贫ㄈ斯ぶ悄芩仞B(yǎng)課程框架,可以確保該技術(shù)向善應(yīng)用,并確保流程透明,以及課堂、學(xué)校社區(qū)和學(xué)校系統(tǒng)各級的問責(zé)制度。教師、學(xué)校領(lǐng)導(dǎo)和政策制定者應(yīng)該參與人工智能在教育和社會方面的發(fā)展,以便在現(xiàn)在和未來的變化中賦予學(xué)生權(quán)力[5]。最后需要強調(diào)的是,在人工智能素養(yǎng)課程教學(xué)中,除了培養(yǎng)學(xué)生的人工智能知識,更重要也是最容易被忽視的一點就是加強人工智能倫理教育??山忉尩娜斯ぶ悄苁谴蜷_智能教育“黑箱”的關(guān)鍵,智能系統(tǒng)、工具提供的預(yù)測和決策,只有獲得教師、學(xué)生的理解和信任,才能真正促進公平、公正、高質(zhì)、高效的未來教育的發(fā)展。
參考文獻:
[1]聯(lián)合國教科文組織.人工智能倫理問題建議書[EB/OL].(2021-11-9)[2022-04-05].https://unesdoc.unesco.org/ark:/48223/ pf0000380455_chi.
[2]國家新一代人工智能治理專業(yè)委員會.新一代人工智能倫理規(guī)范[EB/OL].(2021-09-25)[2022-04-05].http://www.safea.gov.cn/kjbgz/202109/t20210926_177063.html.
[3]DUGGAN S. AI in education: change at the speed of learning[R/OL].(2020-11-07)[2022-04-05]. https://iite.unesco.org/wp-content/uploads/2021/05/Steven_Duggan_AI-in-Education_2020-2.pdf.
[4]ROSCHELLE J, LESTER J, FUSCO J. AI and the future of learning: Expert panel report [R]. United States: Digital Promise, 2020.
[5]SOUTHGATE E, BLACKMORE K., PIESCHL S, et al. Short read: artificial intelligence and school education[R]. Australia: University of Newcastle, 2018.
[6]SELDON A, LUCKIN R, LAKHANI P, et al. The Institute for ethical AI in educations Interim report, towards a shared vision of ethical AI in education[R]. The University of Buckingham: The Institute for Ethical AI in Education, 2020.
[7]EUROPEAN COMMISSION. Ethics guidelines for trustworthy AI[EB/OL].(2019-04-08)[2022-04-05]. https:// ec.europa.eu/digital-single-market/en/news/ethics-guidelines- trustworthy-ai.
[8]FLORIDI L, COWLS J. A unified framework of five principles for AI in Society[J]. Social Science Electronic Publishing, 2019,1(1):1-15.
[9]WALLKOTTER S, TULLI S, CASTELLANO G, et al. Explainable agents through social cues: a review[J]. ACM Transactions on Human-Robot Interaction, 2021,10(3):1-24.
[10]ARRIETA A B, SER J D, BENNETOT A, et al. Explainable Artificial Intelligence(XAI): concepts, taxonomies, opportunities and challenges toward responsible AI[J]. Information Fusion, 2020,58:82-115.
[11]BELLE V, PAPANTONIS I. Principles and practice of explainable machine learning[J]. Frontiers in Big Data, 2021(4):1-33.
[12]NISSENBAUM H. Respecting context to protect privacy: why meaning matters[J]. Science and Engineering Ethics, 2015,24(3):831-852.
[13]NG D T K, LEUNG J K L, CHU S K W, et al. AI Literacy: definition, teaching, evaluation and ethical Issues[J]. Proceedings of the Association for Information Science and Technology, 2021,58(1):504-509.
[14]UNESCO. Reimagining our futures together: a new ?social ?contract for education[M]. France: United Nations Educational, Scientific and Cultural Organization, 2021.
[15]LONG D, MAGERKO B. What is AI literacy? competencies and design considerations[C]. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 2020:1-16.
[16]JISC. Jisc digital capabilities framework: the six elements defined[EB/OL].(2019-02-05)[2022-04-05]. https:// repository.jisc.ac.uk/7278/1/BDCP-DC-Framework-Individual- 6E-110319.pdf.
[17]KIM S, JANG Y, KIM W, et al. Why and what to teach: AI curriculum for elementary school[J]. In Proceedings of the AAAI Conference on Artificial Intelligence, 2021,35(17):15569-15576.
[18]MIT MEDIA LAB. Learning about artificial intelligence: A hub of MIT resources for K-12 students[EB/OL].(2020-04-07)[2022-04-05]. https://www.media.mit.edu/articles/ learning-about-artificial-intelligence-a-hub-of-mit-resources- for-k-12-students/.
[19]NG D T K, LEUNG J K L, CHU S K W, et al. Conceptualizing AI literacy: an exploratory review[J]. Computers and Education: Artificial Intelligence, 2021,2(2):1-14.
[20]TATJANA E. European framework on ethical aspects of artificial intelligence, robotics and related technologies[R]. European Union, 2020.
[21]UNESCO. K-12 AI curricula: a mapping of government-endorsed AI curricula[R/OL].(2022-02-27)[2022-04-06]. https://unesdoc.unesco.org/ark:/48223/pf0000380602.
作者簡介:
托雷·霍爾(Tore Hoel),北京師范大學(xué)未來教育學(xué)院特聘研究員,奧斯陸城市大學(xué)高級研究員,主要研究方向為教育技術(shù)標準、人工智能倫理等,郵箱:tore.hoel@gmail.com;
曹夢瑩,上海開放大學(xué)上海開放遠程工程技術(shù)研究中心助理研究員,共同第一作者、同等貢獻者,主要研究方向為在線開放教育、智能技術(shù)在教育中的應(yīng)用等,郵箱:mengying7039@163.com;
明芷安, 北京師范大學(xué)未來教育學(xué)院博士研究生,主要研究方向為戲劇教育、美育和哲學(xué),郵箱:mingzhian@126.com;
袁莉,北京師范大學(xué)未來教育學(xué)院教授,通訊作者,主要研究方向為人工智能與未來教育、學(xué)習(xí)分析與教育評價等,郵箱:l.yuan@bnu.edu.cn。
AI Explicability from an Educational Perspective: Rethinking Ethics and Literacy
Tore HOEL1,2?, Mengying CAO1,3?, Zhian MING1, Li YUAN1*
(1. College of Education for the Future, Beijing Normal University,Guangdong Zhuhai 519087;
2. Media and Academic Research Unit, Oslo Metropolitan University,Norway Oslo NO-0130;
3.Shanghai Engineering Research Center of Open Distance Education, Shanghai Open University,Shanghai 200433)
Abstract: The so-called AI revolution poses a host of ethical dilemmas, which represent significant obstacles to taking advantage of the new technologies now being developed. Many of these dilemmas created by AI are not limited to they are shared with bioscience, health, and other fields where ethical thinking has closely followed the development of new tools and practices. One new ethical dimension, however, that relates specifically to education is explicability. AI needs to be intelligible, and AI needs to be accountable. For education, this opens up an unprecedented space of engagement. We need research into the technologies supporting any AI systems being used in the field of education; we also need continuous education and training in how to interact with AI systems across the many domains in which their tools change the way we work. This opinion paper explores the different aspects of AI explicability from an educational perspective to see where education needs to innovate in the years to come. First, not only must we explain how algorithms, machine learning, and other techniques work, but we also need to design curricula to teach AI literacy. In addition, we need to understand how we might instil both trust and trustworthiness for these systems; we also must design processes for developing procedures, guidelines, training, and support for how ethical AI practice should unfold. Strengthening the education of AI literacy, especially the training of AI ethics, is an essential aspect, responsibility, and obligation of education in promoting its future development.
Keywords: Artificial intelligence explicability; Artificial intelligence ethics; Artificial intelligence literacy
編輯:王曉明 ? 校對:李曉萍