摘要:教育人工智能倫理研究的“原則方法”旨在通過(guò)倫理原則的構(gòu)建與教授消解教育領(lǐng)域應(yīng)用人工智能技術(shù)出現(xiàn)的倫理風(fēng)險(xiǎn)。然而,當(dāng)前教育人工智能倫理原則存在有限性,制約了其對(duì)教育實(shí)踐的影響力。就自身而言,教育人工智能倫理原則在構(gòu)建過(guò)程中忽略了其在不同行業(yè)領(lǐng)域、不同教育應(yīng)用甚至同一框架內(nèi)的個(gè)性特征或關(guān)系。就實(shí)踐而言,教育人工智能倫理原則既無(wú)法提升目標(biāo)對(duì)象將倫理原則付諸實(shí)踐的意愿,也缺乏強(qiáng)制其遵守這些價(jià)值觀和規(guī)范的機(jī)制。教育人工智能倫理原則有限性的消解需要在完善原則自身的同時(shí)引入美德與法律,進(jìn)而構(gòu)建“原則-美德-法律”框架。這一框架的構(gòu)建要義是使原則、美德、法律三大層次針對(duì)且有效地應(yīng)對(duì)倫理原則有限性的各個(gè)方面,做到確定可靠切實(shí)的倫理原則、開(kāi)展明確可行的美德培育、構(gòu)筑穩(wěn)健有效的法律保障。
關(guān)鍵詞:教育人工智能;倫理原則;有限性;“原則-美德-法律”框架
中圖分類(lèi)號(hào):G434 文獻(xiàn)標(biāo)識(shí)碼:A
教育是一門(mén)“時(shí)代學(xué)”,它隨時(shí)代變遷不斷進(jìn)化和演變。人工智能技術(shù)的興起引發(fā)了第四次教育革命,其在一定程度上重塑了教育形態(tài),為教育發(fā)展帶來(lái)了重要的機(jī)遇[1]。然而,伴隨著人工智能技術(shù)與教育的深度融合,隱私與安全隱患、技術(shù)依賴、算法歧視、學(xué)生數(shù)據(jù)所有權(quán)爭(zhēng)議等問(wèn)題不斷顯現(xiàn),實(shí)現(xiàn)可信賴的人工智能已成為全球教育領(lǐng)域的共同目標(biāo)?!叭斯ぶ悄軅惱怼保ˋI Ethics)是實(shí)現(xiàn)可信賴人工智能的核心要素[2]。近年來(lái),國(guó)際組織、各國(guó)政府與學(xué)界不斷探索教育領(lǐng)域的人工智能倫理,以期明晰人工智能教育應(yīng)用的價(jià)值導(dǎo)向與作用限度。然而,現(xiàn)有研究大多采用的是以構(gòu)建倫理原則為核心的“原則方法”,這一方法的有效性在當(dāng)前已存在質(zhì)疑。大量實(shí)踐表明,人工智能造成的倫理風(fēng)險(xiǎn)無(wú)法僅通過(guò)構(gòu)建倫理原則消解,且現(xiàn)有原則在自身可靠性方面也存在問(wèn)題。因此,本文將著眼于人工智能與教育向善融合發(fā)展的現(xiàn)實(shí)需要,聚焦教育人工智能倫理研究的“原則方法”,剖析倫理原則的有限性并在此基礎(chǔ)上提出具有針對(duì)性的“原則-美德-法律”框架,以期為人工智能教育事業(yè)的健康發(fā)展提供治理方向。
就主題而言,當(dāng)前教育人工智能倫理風(fēng)險(xiǎn)研究大體可分為風(fēng)險(xiǎn)識(shí)別與風(fēng)險(xiǎn)應(yīng)對(duì)兩類(lèi)。其中,風(fēng)險(xiǎn)識(shí)別研究劃分依據(jù)各異,劃分類(lèi)型多樣,已對(duì)教育人工智能在不同應(yīng)用、不同學(xué)段、不同利益相關(guān)者中出現(xiàn)的倫理風(fēng)險(xiǎn)進(jìn)行了較為全面的探討。但在風(fēng)險(xiǎn)應(yīng)對(duì)方面,與其他領(lǐng)域人工智能倫理研究相似,目前教育領(lǐng)域主要采用的是一種“原則方法”①(Principled Approach)。教育人工智能倫理研究的“原則方法”指代一種基于倫理原則,針對(duì)人工智能技術(shù)的應(yīng)用和發(fā)展進(jìn)行指導(dǎo)的方法論,它以建構(gòu)一系列基本倫理原則為核心,旨在為教育人工智能的健康發(fā)展提供方向指導(dǎo),使其能夠在遵循倫理原則和道德規(guī)范的前提下規(guī)避倫理風(fēng)險(xiǎn),從而更好地服務(wù)于教育實(shí)踐。具體來(lái)說(shuō),圍繞教育人工智能倫理原則,這種方法具有三方面特征。
第一,教育人工智能倫理研究的“原則方法”傾向于借鑒經(jīng)典倫理學(xué)與其他領(lǐng)域人工智能的基本倫理原則。各國(guó)人工智能發(fā)展規(guī)劃對(duì)教育的“工具性”定位使得教育領(lǐng)域的人工智能倫理原則構(gòu)建滯后于其他領(lǐng)域[3]。教育領(lǐng)域的后發(fā)背景加之各領(lǐng)域人工智能應(yīng)用在技術(shù)本質(zhì)與倫理風(fēng)險(xiǎn)上存在共性使得研究者在構(gòu)建教育人工智能倫理原則時(shí)傾向于靠攏已有研究,直接影響了構(gòu)建的方式與結(jié)果。方式層面,研究者往往以各領(lǐng)域已有原則為依據(jù)。表現(xiàn)為一種“參照-審視”的研究偏好,即以一套認(rèn)可度較高的元分析或幾套國(guó)際影響力較大的原則指南為參照系,橫向比較其它人工智能倫理框架或教育文件,在此基礎(chǔ)上對(duì)依據(jù)的元分析或倫理框架進(jìn)行條目增減,進(jìn)而提出教育的原則框架[4]。結(jié)果層面,構(gòu)建方式與各領(lǐng)域倫理原則的趨同導(dǎo)致不同教育研究提出的倫理原則往往內(nèi)容相近、形式相似。內(nèi)容上,無(wú)論是國(guó)家與國(guó)際組織制定的教育人工智能倫理指南,還是探討教育人工智能倫理原則的學(xué)術(shù)研究,大多將安全、公平、可解釋、隱私等跨領(lǐng)域共識(shí)性原則或其變體納入其清單中。形式上,相近于其他領(lǐng)域,教育人工智能倫理原則指南通常包含幾組宏觀原則及其簡(jiǎn)要說(shuō)明,側(cè)重價(jià)值導(dǎo)向與抽象要求的建構(gòu)。當(dāng)前,教育人工智能倫理研究依然以構(gòu)建強(qiáng)共識(shí)、高層次的原則為取向。
第二,教育人工智能倫理研究的“原則方法”主張將宏觀倫理原則靠攏教育情境。這類(lèi)研究大體指向三個(gè)方面:一是教育人工智能應(yīng)用的學(xué)段①。當(dāng)前研究可分為K-12教育與高等教育兩大階段,如世界經(jīng)濟(jì)論壇《人工智能一代:建立兒童和人工智能的全球標(biāo)準(zhǔn)》、白金漢大學(xué)《教育中人工智能的道德框架》及凱西·亞當(dāng)斯(Cathy Adams)團(tuán)隊(duì)提出的《人工智能在K-12教育中的倫理準(zhǔn)則》[5]。二是教育人工智能的利益相關(guān)者。目前研究側(cè)重學(xué)生與教師。學(xué)生方面,主要以《聯(lián)合國(guó)兒童權(quán)利公約》、經(jīng)合組織《數(shù)字時(shí)代的教育:健康與快樂(lè)的兒童》及歐盟委員會(huì)《關(guān)于在數(shù)字環(huán)境中尊重、保護(hù)和實(shí)現(xiàn)兒童權(quán)利的指導(dǎo)方針的部長(zhǎng)委員會(huì)建議》等文件為指導(dǎo),如聯(lián)合國(guó)兒童基金會(huì)的《兒童人工智能政策指南》。教師方面,將“教師福祉”納入倫理原則,回應(yīng)教師對(duì)人工智能應(yīng)用導(dǎo)致工作條件與師生關(guān)系改變、準(zhǔn)備教學(xué)工作所需額外時(shí)間以及“技術(shù)失業(yè)”等問(wèn)題的擔(dān)憂,但其在原則框架構(gòu)建上與學(xué)段劃分主題存在交叉[6]。三是針對(duì)性人工智能倫理原則或教育發(fā)展目標(biāo)。如將教育人工智能和人類(lèi)發(fā)展理論相結(jié)合,涵蓋主體性(Agency)、社會(huì)公正(Social Fairness)、合理選擇(Justified Choice)三個(gè)主題領(lǐng)域的《教育人工智能的社會(huì)發(fā)展倫理框架》[7]等。
第三,教育人工智能倫理研究的“原則方法”強(qiáng)調(diào)倫理原則的教育實(shí)踐。教育實(shí)踐旨在為人工智能的相關(guān)從業(yè)者提供指導(dǎo)以確保人工智能技術(shù)的開(kāi)發(fā)與使用符合道德標(biāo)準(zhǔn)和社會(huì)正義原則,實(shí)現(xiàn)倫理原則向現(xiàn)實(shí)場(chǎng)景的下落。2017年以來(lái),人工智能倫理原則愈發(fā)受到國(guó)內(nèi)外高等學(xué)校的關(guān)注并體現(xiàn)于課程開(kāi)設(shè)[8]。在國(guó)外,劍橋大學(xué)開(kāi)設(shè)了“人工智能、數(shù)據(jù)、倫理和社會(huì)”課程,旨在探索人工智能的倫理、社會(huì)和法律問(wèn)題,并介紹解決這些問(wèn)題的方法和原則;麻省理工學(xué)院計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室(CSAIL)為學(xué)生提供“人工智能與倫理”課程,內(nèi)容涵蓋人工智能倫理的規(guī)范、責(zé)任等方面;卡內(nèi)基梅隆大學(xué)的“計(jì)算機(jī)倫理”課程探討了計(jì)算機(jī)科學(xué)和人工智能應(yīng)用中的倫理問(wèn)題,旨在幫助學(xué)生了解如何在遵守倫理原則的基礎(chǔ)上負(fù)責(zé)任地開(kāi)發(fā)與應(yīng)用這些技術(shù)。在國(guó)內(nèi),南京大學(xué)于2019年出版了《南京大學(xué)人工智能本科專(zhuān)業(yè)教育培養(yǎng)體系2019》,將包含人工智能倫理簡(jiǎn)介、倫理規(guī)范、倫理案例等內(nèi)容的“人工智能倫理”課程納入人才培養(yǎng)方案。同一年,西安交通大學(xué)出版了《人工智能本科專(zhuān)業(yè)知識(shí)體系與課程設(shè)置》,構(gòu)建了由“人工智能的哲學(xué)基礎(chǔ)與倫理”和”人工智能的社會(huì)風(fēng)險(xiǎn)與法律”兩門(mén)課程組成的人工智能與社會(huì)課程群,其中“人工智能的哲學(xué)基礎(chǔ)與倫理”課程專(zhuān)門(mén)用以講授人工智能的一般哲學(xué)問(wèn)題與人工智能的倫理規(guī)范??傮w來(lái)看,盡管這些課程的授課內(nèi)容與授課方式存在差異,但均涉及人工智能的倫理原則與規(guī)范。
倫理原則作為教育人工智能的指導(dǎo)性標(biāo)準(zhǔn)和價(jià)值取向,對(duì)人工智能開(kāi)發(fā)與應(yīng)用具有定向、引導(dǎo)、規(guī)范作用,是確保人工智能技術(shù)符合社會(huì)價(jià)值觀和道德標(biāo)準(zhǔn)的重要前提。然而,僅依靠倫理原則并不足以實(shí)現(xiàn)其所預(yù)期的效果。一方面,目前提出的諸多倫理原則在自身可靠性方面存在爭(zhēng)議,限制了其對(duì)實(shí)踐的指導(dǎo)效力。另一方面,倫理原則由于自身“無(wú)牙”的局限性,無(wú)法為人工智能的開(kāi)發(fā)和應(yīng)用提供強(qiáng)制性約束。因此,需要在倫理原則的基礎(chǔ)上尋求對(duì)其有限性的補(bǔ)正要素,實(shí)現(xiàn)倫理原則與教育人工智能實(shí)踐的有效聯(lián)系。
(一)有方法不等于有原則:原則自身的有限性
如上所述,由于起步相對(duì)滯后,教育人工智能倫理研究的“原則方法”傾向于借鑒其他領(lǐng)域人工智能的基本倫理原則。這意味著所構(gòu)建的教育人工智能倫理原則往往由各領(lǐng)域已有原則組成或至少受已有原則啟發(fā)。然而,這種構(gòu)建方式一定程度上忽略了人工智能倫理原則在不同領(lǐng)域間、不同應(yīng)用間甚至同一框架內(nèi)的個(gè)性特征或關(guān)系,制約了其對(duì)教育實(shí)踐的指導(dǎo)效果。
在不同領(lǐng)域間,人工智能倫理原則存在結(jié)構(gòu)與指向差異。首先,不同領(lǐng)域?qū)θ斯ぶ悄軅惱碓瓌t有著各自的偏好與價(jià)值排序。例如,在法律領(lǐng)域,“正義”與“問(wèn)責(zé)”原則被不成比例的提及,而在醫(yī)學(xué)領(lǐng)域,強(qiáng)調(diào)最多的是“善意”或“非惡意”。“隱私”在醫(yī)學(xué)和法律領(lǐng)域被視為重要的倫理原則,但在商業(yè)、科學(xué)與工程領(lǐng)域卻少有提及。同時(shí),即使某一領(lǐng)域包含了相對(duì)全面的原則條目,它們的優(yōu)先級(jí)也并不相同,如在軍事領(lǐng)域,“非惡意”遠(yuǎn)優(yōu)先于其他原則[9]。其次,不同領(lǐng)域的倫理原則具有特定的關(guān)聯(lián)。例如,“可解釋性”作為人工智能醫(yī)學(xué)倫理與傳統(tǒng)醫(yī)學(xué)倫理相區(qū)別的標(biāo)志性原則,已與自主、有利、不傷害、正義四項(xiàng)醫(yī)學(xué)倫理學(xué)經(jīng)典原則深度結(jié)合[10]。但在司法領(lǐng)域,居于核心位置的倫理原則是“正義”,其他倫理原則均應(yīng)與之結(jié)合,這被稱(chēng)為“正義關(guān)聯(lián)”(Justice Relevance)。最后,同一原則在不同領(lǐng)域有著不同的指代。例如,“以人為本”的“人”在《北京共識(shí)——人工智能與教育》中指代“人類(lèi)”,而在IBM《人工智能的日常倫理》中則僅指代“用戶”[11]。
在教育領(lǐng)域的不同應(yīng)用間,人工智能倫理原則存在對(duì)象與內(nèi)容差異。盡管當(dāng)前研究對(duì)倫理風(fēng)險(xiǎn)的類(lèi)型劃分存在爭(zhēng)議,但對(duì)風(fēng)險(xiǎn)識(shí)別的前提性問(wèn)題已基本達(dá)成共識(shí),即“教育人工智能引發(fā)的倫理風(fēng)險(xiǎn)往往是特定于環(huán)境的”[12]。這意味著“原則方法”所構(gòu)建的宏觀性倫理原則很難有效匹配多樣的目標(biāo)對(duì)象與具體應(yīng)用,及由此產(chǎn)生的個(gè)性化倫理風(fēng)險(xiǎn)。就目標(biāo)對(duì)象而言,教育人工智能大體指向?qū)W生、教師、機(jī)構(gòu)三類(lèi)群體,所涉及的學(xué)生、教師、機(jī)構(gòu)具有各自的特征,且在同一群體內(nèi)部亦存在差異,不能在倫理方面劃為一談。相比之下,教育人工智能的應(yīng)用類(lèi)別更加復(fù)雜。當(dāng)前影響較大的教育人工智能應(yīng)用分類(lèi)由倫敦大學(xué)學(xué)院教授韋恩·霍姆斯(Wayne Holmes)提出,其將現(xiàn)有人工智能應(yīng)用劃分為21類(lèi)[13]。由表1可知,不同教育應(yīng)用的具體用途、作用對(duì)象與運(yùn)作過(guò)程迥然有別,它們對(duì)學(xué)生、教師、機(jī)構(gòu)的影響程度不盡相同,它們并不收集相同類(lèi)型或數(shù)量的數(shù)據(jù),因此未必都會(huì)造成特定的倫理風(fēng)險(xiǎn)[14]。
在教育領(lǐng)域的同一框架內(nèi),人工智能倫理原則存在概念與關(guān)系差異。概念差異表現(xiàn)為倫理原則自身模棱兩可。“原則方法”大多構(gòu)建的是模糊的、高層次的原則和價(jià)值陳述,它們?cè)噲D指導(dǎo)實(shí)踐,卻沒(méi)有給出針對(duì)實(shí)踐的實(shí)施計(jì)劃與目標(biāo)受眾,也未能明晰關(guān)鍵概念包含的基本規(guī)范。例如,“正義”原則往往不會(huì)給出正義的定義,而是讓行為者自行衡量[15]。關(guān)系差異表現(xiàn)為倫理原則間相互矛盾?!霸瓌t方法”所構(gòu)建的教育人工智能倫理原則,如公平、隱私、透明度、福祉等乍一看很合理,因?yàn)樗鼈儗?duì)應(yīng)了人工智能教育應(yīng)用的現(xiàn)存風(fēng)險(xiǎn)。但如果進(jìn)行追問(wèn),便會(huì)發(fā)現(xiàn)這些原則可能相互緊張甚至相互矛盾。例如,福祉原則要求教育人工智能不能剝奪教育群體的自主權(quán)與決策能力。然而,在某些情況下教育人工智能系統(tǒng)能夠做出比人類(lèi)更優(yōu)秀的決策,這在一定程度上導(dǎo)致了福祉與自治原則的沖突。又如,在確保學(xué)生隱私和數(shù)據(jù)安全時(shí),可能會(huì)影響個(gè)性化學(xué)習(xí)和適應(yīng)性評(píng)估。倫理原則的模棱兩可與互相矛盾掩蓋了自身蘊(yùn)含的解釋差異與價(jià)值排序,使其難以有效落實(shí)于教育實(shí)踐。
(二)有原則不等于能落實(shí):原則實(shí)踐的有限性
按照“原則方法”的最初設(shè)想,教育人工智能倫理原則的提出與教授能夠引發(fā)某種程度的監(jiān)管或自我監(jiān)管,進(jìn)而使開(kāi)發(fā)者、使用者的行為與規(guī)范標(biāo)準(zhǔn)保持一致。然而,一項(xiàng)針對(duì)軟件工程專(zhuān)業(yè)學(xué)生和專(zhuān)業(yè)軟件開(kāi)發(fā)人員的調(diào)查表明,接受倫理原則培訓(xùn)幾乎沒(méi)有影響到他們?cè)陂_(kāi)發(fā)人工智能應(yīng)用時(shí)的倫理抉擇[16]。此外,一些教育人工智能研發(fā)企業(yè)會(huì)采用“倫理漂藍(lán)”①(Ethics Blue Washing)的手段規(guī)避監(jiān)管、節(jié)約成本或提高自身競(jìng)爭(zhēng)優(yōu)勢(shì)。這意味著“原則方法”所主張的實(shí)踐導(dǎo)向并沒(méi)有在教育人工智能倫理實(shí)踐中得到有效落實(shí)。據(jù)此,有學(xué)者直言其是“毫無(wú)作用的倫理原則”[17]。這一觀點(diǎn)頗具攻擊性但并非孤例,對(duì)倫理原則實(shí)踐有限性的分析已成為當(dāng)前國(guó)際教育人工智能倫理研究的熱點(diǎn)話題。
行為者缺乏將原則付諸實(shí)踐的意愿是導(dǎo)致教育人工智能倫理原則難以落實(shí)的一大原因。瓦庫(kù)里(Vakkuri)調(diào)查了五家參與教育人工智能開(kāi)發(fā)的公司,發(fā)現(xiàn)雖然所有的調(diào)查對(duì)象均承認(rèn)倫理原則的重要性,但當(dāng)被問(wèn)及他們是否會(huì)在人工智能開(kāi)發(fā)實(shí)踐中考慮道德時(shí),所有的調(diào)查對(duì)象的回答都是“否”[18]。在后續(xù)研究中,瓦庫(kù)里專(zhuān)門(mén)調(diào)查了開(kāi)發(fā)人員對(duì)倫理原則的態(tài)度,得出的結(jié)論是“人工智能倫理的研究與實(shí)踐間存在顯著差距,原則在學(xué)院和研究所廣受贊譽(yù),但實(shí)際構(gòu)建技術(shù)的工程實(shí)驗(yàn)室和工作室卻不以為然”[19]。上述情況反映了“知識(shí)與道德的關(guān)系”這一道德教育的經(jīng)典元理論問(wèn)題。對(duì)這一問(wèn)題的共識(shí)是,僅有關(guān)于倫理問(wèn)題和理論的知識(shí)并不能影響行為。事實(shí)上,道德心理學(xué)的研究表明,道德知識(shí)所指涉的道德推理主要是對(duì)已經(jīng)根深蒂固的觀點(diǎn)和行為慣例的事后合理化,它是相對(duì)脫離對(duì)道德原則有意識(shí)反思的自動(dòng)心理過(guò)程的結(jié)果[20]。如果忽略了行為個(gè)體的心理因素,倫理原則將無(wú)法有效影響其倫理決策。
教育人工智能倫理原則自身的“無(wú)牙”局限是造成其實(shí)踐有限性的另一原因?!盁o(wú)牙”局限是指人工智能倫理原則可以設(shè)定規(guī)范理想,但缺乏強(qiáng)制遵守這些價(jià)值觀和規(guī)范的機(jī)制,且違反它們不會(huì)受到切實(shí)的懲罰。德國(guó)社會(huì)學(xué)家烏爾里?!へ惪耍║lrich Beck)曾指出,現(xiàn)在的倫理學(xué)“在洲際飛機(jī)上扮演著自行車(chē)剎車(chē)的角色”。這個(gè)比喻在人工智能領(lǐng)域內(nèi)尤其正確,在《AI Now 2017》報(bào)告中,紐約大學(xué)凱特·克勞福德(Kate Crawford)指出,人工智能倫理原則和軟治理形式“面臨的真正挑戰(zhàn)”是人工智能企業(yè)研發(fā)的經(jīng)濟(jì)目的對(duì)倫理原則的公共關(guān)系目的的兼并與消解,而面對(duì)這一情況,倫理原則與從事研究的企業(yè)與個(gè)人之間除自愿和非約束性合作之外,沒(méi)有任何維護(hù)自身的手段[21]。2019年,谷歌成立由哲學(xué)家、工程師和政策專(zhuān)家組成的先進(jìn)技術(shù)外部咨詢委員會(huì)(ATEAC),用以審查公司的項(xiàng)目并評(píng)估它們是否違反了人工智能倫理原則。但是,該委員會(huì)沒(méi)有實(shí)際權(quán)力否決或終止項(xiàng)目,最終僅成立十天即宣告夭折[22]??傊?,道德規(guī)范在多大程度上影響并塑造個(gè)體行為取決于后果與威懾機(jī)制,即個(gè)體如何權(quán)衡違反原則所帶來(lái)的好處與懲罰[23]。這意味著如果沒(méi)有強(qiáng)制性的獎(jiǎng)懲機(jī)制,人工智能倫理原則的影響將是相當(dāng)有限的。
(三)“原則-美德-法律”:原則有限性的補(bǔ)正框架
教育人工智能倫理原則的有限性提示我們需要重新審視原則自身及其支撐的人工智能倫理治理。一般認(rèn)為,人工智能倫理治理“就是應(yīng)用倫理工具與理論,對(duì)人工智能倫理與社會(huì)風(fēng)險(xiǎn)進(jìn)行治理,與法學(xué)領(lǐng)域中的軟法治理本質(zhì)上是一致的,相對(duì)于法律法規(guī)的鋼性規(guī)制而言,通過(guò)倫理原則等軟法實(shí)現(xiàn)對(duì)人工智能的靈活與敏捷治理,是當(dāng)前及今后相當(dāng)長(zhǎng)的時(shí)間內(nèi)人工智能治理的基本途徑”[24]。但從對(duì)倫理原則有限性的分析可以發(fā)現(xiàn),其無(wú)法獨(dú)自承擔(dān)在倫理治理中的角色期待。自身的有限性尚可通過(guò)內(nèi)容及形式優(yōu)化進(jìn)行修正,但對(duì)于實(shí)踐的有限性,倫理原則本身是無(wú)能為力的。安娜伊絲·瑞瑟吉爾(Anais Resseguier)對(duì)此有一個(gè)形象的比喻:“指責(zé)人工智能倫理原則沒(méi)有牙齒來(lái)確保人們遵守它所要求的一切,就像指責(zé)叉子無(wú)法切肉一樣——這不是它的設(shè)計(jì)目的”[25]。因此,人工智能倫理治理不能僅僅依靠倫理原則,還需要尋求原則實(shí)踐有限性的補(bǔ)正途徑。2018年,麻省理工學(xué)院計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室教授帕特里克·溫斯頓(Patrick Winston)在TEDx Beacon Street演講中指出,倫理(Ethics)、道德(Morality)、法律(Laws)是人工智能三個(gè)最重要的方面,它們共同構(gòu)成了人工智能的倫理基礎(chǔ)。在這一觀點(diǎn)的影響下,國(guó)際學(xué)界已就人工智能倫理原則實(shí)踐有限性的兩個(gè)方面提出了針對(duì)性方向——美德與法律。
人工智能倫理研究的美德方向旨在提升行為者將原則付諸實(shí)踐的意愿。美德方向研究起源于對(duì)個(gè)體及人工智能交叉領(lǐng)域的關(guān)注。在美德研究者看來(lái),人工智能倫理具有三大特征——組織環(huán)境特征(倫理規(guī)范)、道德問(wèn)題特征(倫理風(fēng)險(xiǎn))、個(gè)人特征(性格傾向),但當(dāng)前對(duì)個(gè)人特征的關(guān)注很少,導(dǎo)致倫理規(guī)范與倫理風(fēng)險(xiǎn)的鏈接斷裂[26]。在與人工智能交叉的數(shù)據(jù)領(lǐng)域,亦存在同樣的問(wèn)題。在相當(dāng)長(zhǎng)的一段時(shí)間內(nèi),數(shù)字倫理學(xué)及其子領(lǐng)域數(shù)據(jù)倫理學(xué)由所謂的宏觀倫理學(xué)(Macroethics)主導(dǎo)[27]。宏觀倫理學(xué)所涵蓋的范圍及其與數(shù)字環(huán)境、文化社會(huì)研究的關(guān)系使得很難在倫理討論中找到個(gè)人。面對(duì)這一情況,美德倫理學(xué)及對(duì)美德的培養(yǎng)在數(shù)據(jù)領(lǐng)域得到復(fù)興,表現(xiàn)為開(kāi)始重視個(gè)體的性格發(fā)展并培養(yǎng)與道德推理相關(guān)的各種技能。例如,哈佛大學(xué)2017年提出Embedded EthiCS項(xiàng)目,該項(xiàng)目反對(duì)將倫理原則進(jìn)行獨(dú)立教學(xué)并以分布式教學(xué)加以代替,將道德推理貫穿于整個(gè)計(jì)算機(jī)科學(xué)課程,旨在使學(xué)生熟悉整個(gè)領(lǐng)域存在的道德問(wèn)題并通過(guò)反復(fù)的道德推理形成穩(wěn)定的個(gè)人秉性[28]。在數(shù)據(jù)領(lǐng)域的影響下,2020年以來(lái),人工智能倫理領(lǐng)域出現(xiàn)了類(lèi)似的呼聲,主張求諸美德倫理并關(guān)注人工智能從業(yè)者的性格傾向,以便將倫理原則有效地付諸實(shí)踐。
人工智能倫理研究的法律方向旨在破解原則自身的“無(wú)牙”局限。法律方向研究起源于對(duì)人工智能倫理原則哲學(xué)基礎(chǔ)①的追問(wèn)。當(dāng)前,人工智能倫理由英國(guó)倫理學(xué)家喬治·愛(ài)德華·摩爾(G.E.Moore)的理念所主導(dǎo)[29]。伊麗莎白·安斯康姆(Elizabeth Anscombe)稱(chēng)其為“法律倫理觀”[30](Law Conception Of Ethics),即努力使倫理向法律靠攏,甚至具備法律的部分特征。如上所述,將倫理原則視為“法律的軟版本”(Softer Version of The Law)在當(dāng)前人工智能倫理研究中十分普遍。然而,這只是倫理學(xué)的一種取向,且正如實(shí)踐的有限性所表明的那樣,這一取向是有局限的。人工智能的倫理原則可以成為法律的先驅(qū),它們能夠?yàn)榉梢?guī)則的可能內(nèi)容提供方向。但是,它們不能取代法律,因?yàn)樗鼈內(nèi)狈υ试S監(jiān)管機(jī)構(gòu)執(zhí)行權(quán)力的合法性與約束性保障[31]。因此,有必要在倫理原則的指導(dǎo)下制定更加具體、可操作的指導(dǎo)方針,將倫理研究成果轉(zhuǎn)化為政府法規(guī)或部門(mén)規(guī)章,使倫理原則產(chǎn)生法律和行政效力。
美德與法律是補(bǔ)正倫理原則有限性的關(guān)鍵要素,但三者在關(guān)系上還需進(jìn)一步討論?,F(xiàn)有研究側(cè)重構(gòu)建倫理原則與美德、法律的一對(duì)一聯(lián)系,即“原則-美德”“原則-法律”。出于三方面考慮,要想更好地發(fā)揮美德與法律對(duì)倫理原則的保障作用,需要同時(shí)將二者納入討論范圍,構(gòu)建“原則-美德-法律”框架(如圖1所示)。首先,原則、美德、法律存在相互聯(lián)系。具體而言,原則層次關(guān)注道德準(zhǔn)則與價(jià)值觀,旨在為人工智能開(kāi)發(fā)與應(yīng)用明確立場(chǎng)與方向,是開(kāi)展倫理治理、實(shí)現(xiàn)技術(shù)向善的最基本前提;美德層次關(guān)注個(gè)人品質(zhì)和行為習(xí)慣,在明確原則后,美德可以成為一種激勵(lì)機(jī)制,促使行為者更加積極地踐行這些原則;法律層次關(guān)注規(guī)范、制裁和補(bǔ)救,在美德失效后,法律具有維護(hù)原則地位的強(qiáng)制力量。其次,原則、美德、法律在相互聯(lián)系的基礎(chǔ)上具有一定的獨(dú)立性。當(dāng)面對(duì)道德沖突或困境時(shí),行為者應(yīng)首先考慮倫理原則;在原則無(wú)法提供明確指導(dǎo)時(shí),行為者可以依據(jù)自己的特質(zhì)和經(jīng)驗(yàn),發(fā)揮自己的美德來(lái)做出決策;當(dāng)原則和美德均無(wú)法提供清晰指導(dǎo)時(shí),行為者應(yīng)遵循相應(yīng)的法律規(guī)定。最后,原則、美德、法律相互作用與制約。原則為美德培養(yǎng)與法律制定提供了基礎(chǔ)和方向;法律為原則執(zhí)行提供保障和支持;美德為遵守法律和原則提供內(nèi)驅(qū)動(dòng)力??傊?,原則、美德、法律三個(gè)層次共同構(gòu)成了一個(gè)完整的倫理治理框架,能夠更好地管理和引導(dǎo)教育人工智能的發(fā)展和應(yīng)用。
“原則-美德-法律”作為倫理原則有限性的補(bǔ)正框架,核心目標(biāo)是使教育人工智能的開(kāi)發(fā)與應(yīng)用遵循倫理原則所明確的價(jià)值觀以確保技術(shù)向善。實(shí)現(xiàn)這一目標(biāo)的關(guān)鍵路徑是使原則、美德、法律三大層次針對(duì)且有效地應(yīng)對(duì)倫理原則有限性的各個(gè)方面,即做到原則構(gòu)建可靠、美德培育有方、法律保障有效。
(一)確定可靠切實(shí)的倫理原則
原則層次旨在應(yīng)對(duì)教育人工智能倫理原則自身的有限性。相較于美德與法律層次,原則層次的構(gòu)建方向較為明確,即承認(rèn)、彌合人工智能倫理原則在領(lǐng)域間、應(yīng)用間、自身內(nèi)的差異或矛盾,從而確定指向教育、可靠切實(shí)的倫理原則。
首先,要明確教育領(lǐng)域應(yīng)用人工智能技術(shù)的目的。如果沒(méi)有明晰的教育目的,在教育中尋找人工智能倫理將是徒勞的。例如,“公平”被普遍認(rèn)為是一項(xiàng)重要的教育人工智能倫理原則,但教育領(lǐng)域的“公平”至少存在起點(diǎn)公平、過(guò)程公平與結(jié)果公平三種不同的取向,采納不同的取向會(huì)形成對(duì)應(yīng)的原則內(nèi)涵與實(shí)現(xiàn)途徑①。又如,定義教育人工智能“福祉”原則需要對(duì)什么是“進(jìn)步”或“利益”有明確的理解,即應(yīng)用技術(shù)的目的是為了知識(shí)構(gòu)建、社會(huì)化還是自我實(shí)現(xiàn)。只有在明確教育目的的前提下,才能解釋原則術(shù)語(yǔ)的指向與內(nèi)涵。
其次,要明確倫理原則的目標(biāo)對(duì)象與應(yīng)用。教育人工智能包括應(yīng)用開(kāi)發(fā)人員、學(xué)生、家長(zhǎng)、教育工作者、監(jiān)管者等多種利益相關(guān)者。復(fù)雜的利益相關(guān)者構(gòu)成必然會(huì)將對(duì)價(jià)值共識(shí)與規(guī)范的尋求引向脫離實(shí)踐的高抽象層次。未來(lái),使人工智能倫理原則能夠有效指導(dǎo)教育實(shí)踐可以考慮兩種構(gòu)建方向。一種是構(gòu)建聚焦某類(lèi)具體教育人工智能應(yīng)用及其利益相關(guān)者的針對(duì)性框架,這需要對(duì)人工智能的應(yīng)用目的有著清晰的界定。另一種是構(gòu)建可調(diào)整的宏觀性框架,當(dāng)它面對(duì)不斷發(fā)展的教育應(yīng)用時(shí),能夠進(jìn)行自我優(yōu)化而變得繼續(xù)適用,這需要其具有可持續(xù)性和彈性,以適應(yīng)快速變化的科技進(jìn)步和新的教育需求。
最后,要提升倫理原則的實(shí)踐指導(dǎo)力。教育領(lǐng)域現(xiàn)有的倫理原則側(cè)重從宏觀層面闡釋價(jià)值導(dǎo)向,它們雖然體現(xiàn)了教育領(lǐng)域的重要道德議題與愿景,但對(duì)其內(nèi)涵缺少具有可操作性的說(shuō)明。同時(shí),內(nèi)涵模糊會(huì)導(dǎo)致對(duì)原則的期待過(guò)高,進(jìn)而引發(fā)原則間的沖突。提升倫理原則的實(shí)踐指導(dǎo)力有三種可能方向。一是明晰倫理原則的內(nèi)涵。“人工智能倫理原則間矛盾的消解需要澄清術(shù)語(yǔ)上的歧義”[32],如教育人工智能中的“隱私”“公平”等原則具體指代什么,以及在不同的群體和背景下如何得到不同的解釋。實(shí)現(xiàn)這一點(diǎn)需要倫理研究者了解目前技術(shù)上可行的內(nèi)容,如在機(jī)器學(xué)習(xí)中確保數(shù)據(jù)隱私的最佳方法及其成本等;二是縮小倫理原則的指導(dǎo)范疇。原則間緊張關(guān)系的存在意味著各原則的作用程度是有限的,它們必須在追求理想的道德假設(shè)與確??尚械膭?wù)實(shí)結(jié)果之間取得平衡②;三是確定倫理原則的優(yōu)先級(jí)。雖然教育人工智能倫理原則之間不存在嚴(yán)格的價(jià)值排序,但是在實(shí)際教育應(yīng)用中,可以根據(jù)教育目的確定原則的先后排序,以權(quán)衡不同利益間的沖突。
(二)開(kāi)展明確可行的美德培育
美德層次旨在從個(gè)體內(nèi)驅(qū)力方面應(yīng)對(duì)教育人工智能倫理原則實(shí)踐的有限性。美德層次構(gòu)建的關(guān)鍵在于回答好“美德可教”這一前提性問(wèn)題?!白鳛樘K格拉底道德哲學(xué)經(jīng)典命題,‘美德可教’探討美德的存在形式及其傳達(dá)性”[33],即“教什么”和“怎么教”。
“教什么”指向教育的目標(biāo)與內(nèi)容,即明確人工智能美德要素。目前國(guó)內(nèi)對(duì)于人工智能美德尚沒(méi)有一個(gè)清晰的界定。而在國(guó)際,對(duì)人工智能美德要素的探討起源于工程倫理。2008年,查爾斯·哈里斯(Charles Harris)指出,“在工程學(xué)中,理想的倫理目標(biāo)即使用技術(shù)促進(jìn)人類(lèi)福祉”[34],據(jù)此,他提出了誠(chéng)實(shí)、勇氣、同情、感恩四大技術(shù)美德。2016年,香農(nóng)·瓦洛(Shannon Vallo)對(duì)技術(shù)美德內(nèi)容進(jìn)行擴(kuò)充,并在其《技術(shù)與美德》一書(shū)中確定了十二種技術(shù)美德,即誠(chéng)實(shí)、自控、謙遜、正義、勇氣、同理心、關(guān)懷、文明、靈活性、遠(yuǎn)見(jiàn)、寬容和智慧[35]。在此基礎(chǔ)上,2020年,德國(guó)倫理學(xué)家蒂洛·哈根多夫(Thilo Hagendorff)指出,現(xiàn)有的技術(shù)美德在人工智能領(lǐng)域過(guò)于冗雜,需要結(jié)合人工智能實(shí)際需要構(gòu)建篩選標(biāo)準(zhǔn),這一標(biāo)準(zhǔn)即“美德A是否包含一種性格傾向,當(dāng)其被人工智能從業(yè)者內(nèi)化時(shí),這種性格傾向會(huì)內(nèi)在激勵(lì)他們?cè)谛袆?dòng)中‘自動(dòng)’執(zhí)行倫理原則所要求的事項(xiàng)”[36]。兩年后,哈根多夫基于這一標(biāo)準(zhǔn)正式提出正義(Justice)、誠(chéng)實(shí)(Honesty)、責(zé)任(Responsibility)、關(guān)懷(Care)四項(xiàng)人工智能基本美德[37],并詳細(xì)解釋了這四項(xiàng)美德與諸倫理原則間的對(duì)應(yīng)關(guān)系③。在四項(xiàng)人工智能基本美德的基礎(chǔ)上,哈根多夫還提出審慎(Fortitude)與堅(jiān)毅(Prudence)兩項(xiàng)二階人工智能美德,以克服“有限倫理”對(duì)個(gè)體踐行四項(xiàng)基本美德的妨礙,如意義偏見(jiàn)、價(jià)值行動(dòng)差距、道德脫鉤、情境與同儕影響等(如圖2所示)[38]。
“怎么教”涉及教育的方法和形式,即實(shí)現(xiàn)人工智能美德的個(gè)體內(nèi)化。在明確美德要素的基礎(chǔ)上,哈根多夫結(jié)合道德心理學(xué)與行為倫理學(xué),針對(duì)人工智能從業(yè)者個(gè)體與人工智能企業(yè)管理者,從個(gè)人層面與組織層面提出獲得或支持人工智能美德的十個(gè)維度。其中,個(gè)人層面包括美德知識(shí)、行動(dòng)策略、控制感、公開(kāi)承諾、審核與討論小組五個(gè)維度。組織層面則包括領(lǐng)導(dǎo)力影響、道德氛圍與文化、女性比例、減輕壓力與緊張感、接受批評(píng)的開(kāi)放態(tài)度五個(gè)維度。除這種較為宏觀的培養(yǎng)維度外,牛津大學(xué)科學(xué)、創(chuàng)新和社會(huì)研究院路易絲·貝祖登豪特(Louise Bezuidenhout)等人提出了一種將美德倫理學(xué)對(duì)個(gè)人性格的強(qiáng)調(diào)與微觀倫理學(xué)的具體情境相結(jié)合的人工智能美德培育方法,包括四個(gè)遞進(jìn)方面:一是“劃分日常行為”,即讓個(gè)體認(rèn)識(shí)到構(gòu)成日常人工智能開(kāi)發(fā)活動(dòng)的常規(guī)、重復(fù)行為不僅具有道德意義,而且是可以提供道德訓(xùn)練的事件,并對(duì)這些行為進(jìn)行劃分;二是“突出美德行為”,即識(shí)別所劃分日常行為的道德內(nèi)容并提供相應(yīng)的道德訓(xùn)練;三是“認(rèn)識(shí)角色多樣性”,即通過(guò)道德訓(xùn)練使個(gè)體認(rèn)識(shí)到人工智能開(kāi)發(fā)涉及角色的復(fù)雜性,思考自身角色可能引起的個(gè)性化倫理問(wèn)題;四是“將微事件與‘大局’聯(lián)系”,即在個(gè)體理解自身角色后,將日常行為與社會(huì)利益相關(guān)聯(lián),以幫助其更好地理解日常工作中做出的決策和行為的社會(huì)影響[39]。
上述研究為培養(yǎng)教育人工智能開(kāi)發(fā)者與應(yīng)用者的美德提供了方向與途徑借鑒。但需注意的是,受文化和哲學(xué)傳統(tǒng)的影響,不同地區(qū)對(duì)美德的定義和強(qiáng)調(diào)存在差異。正義、誠(chéng)實(shí)、關(guān)懷、審慎、堅(jiān)毅等人工智能美德的選擇與提出受古希臘經(jīng)典美德觀念的影響并帶有一定的宗教色彩。而在中華民族傳統(tǒng)文化中,亦存在仁愛(ài)、誠(chéng)信、正直、和諧等可供借鑒的相關(guān)美德。因此,教育人工智能倫理研究需要充分考慮文化多樣性和差異性,探索基于中國(guó)文化傳統(tǒng)的美德觀念及適用于中國(guó)本土的美德培育路徑,從而推進(jìn)我國(guó)教育人工智能技術(shù)的負(fù)責(zé)任發(fā)展。
(三)構(gòu)筑穩(wěn)健有效的法律保障
法律層次旨在從監(jiān)督與規(guī)約方面應(yīng)對(duì)教育人工智能倫理原則實(shí)踐的有限性。一項(xiàng)由八所高校學(xué)者開(kāi)展的系統(tǒng)性文獻(xiàn)綜述(Systematic Literature Review,簡(jiǎn)稱(chēng)SLR)表明,缺乏道德知識(shí)、法律框架與監(jiān)管機(jī)構(gòu)是人工智能倫理治理實(shí)踐面臨的最嚴(yán)峻的挑戰(zhàn)[40]。其中,道德知識(shí)可以由原則方法自身或美德培育進(jìn)行傳授,而法律框架與監(jiān)督機(jī)構(gòu)則有賴于法律層次加以保障。目前我國(guó)尚未正式出臺(tái)國(guó)家層面的人工智能專(zhuān)門(mén)立法。與之相對(duì),國(guó)際相關(guān)研究亦不明確但起步較早,部分舉措及其爭(zhēng)議可為我國(guó)相關(guān)工作的開(kāi)展提供鏡鑒。
完善人工智能法律框架是保障倫理原則的核心要?jiǎng)?wù)。法律框架、指南和標(biāo)準(zhǔn)被視為在國(guó)家人工智能戰(zhàn)略規(guī)劃中制定人工智能監(jiān)管制度的第一步[41]。2018年,歐盟頒布了通用數(shù)據(jù)保護(hù)條例(General Data Protection Regulation,GDPR),旨在為公民提供更大的數(shù)據(jù)掌控權(quán)和隱私保護(hù)。兩年后,又通過(guò)了數(shù)字市場(chǎng)法(Digital Markets Act,DMA)與數(shù)字服務(wù)法(Digital Services Act,DSA)以期對(duì)數(shù)字市場(chǎng)和數(shù)字服務(wù)進(jìn)行監(jiān)管與規(guī)范。但如奧利維亞·埃爾德利(Olivia Erdélyi)所言,“幾乎每個(gè)受技術(shù)進(jìn)步影響的領(lǐng)域都存在日益嚴(yán)重的法律真空”[42]。隨著人工智能技術(shù)的快速發(fā)展,現(xiàn)有法律框架已無(wú)法完全應(yīng)對(duì)人工智能技術(shù)帶來(lái)的挑戰(zhàn),越來(lái)越多的研究者呼吁開(kāi)發(fā)新的監(jiān)管工具與法律框架。在已有法案的基礎(chǔ)上,2021年4月,歐盟提出了全球第一個(gè)專(zhuān)門(mén)為人工智能開(kāi)發(fā)的法律框架——《人工智能法案》(Artificial Intelligence Act,AIA),旨在為人工智能的開(kāi)發(fā)與應(yīng)用提供法律確定性。此外,《人工智能法案》還提供了第一個(gè)基于倫理風(fēng)險(xiǎn)的人工智能系統(tǒng)法律分類(lèi)。但需要注意的是,目前《人工智能法案》的幾個(gè)要點(diǎn),如數(shù)據(jù)處理、監(jiān)管機(jī)構(gòu)角色、風(fēng)險(xiǎn)定義、國(guó)際合作存在要求改進(jìn)、修正與進(jìn)一步澄清的呼聲[43]。此外,法案在人工智能治理中的具體作用及其治理模式的組合形式仍然是一個(gè)懸而未決的問(wèn)題[44]??傊?,盡管人工智能立法已受到越來(lái)越多的關(guān)注,但無(wú)論是作為學(xué)術(shù)議題還是公共政策目標(biāo),其仍然是一個(gè)相對(duì)欠發(fā)達(dá)的領(lǐng)域。
明確人工智能監(jiān)管機(jī)構(gòu)①是保障倫理原則的直接途徑。監(jiān)管機(jī)構(gòu)作為法律框架的落實(shí)保障,其職責(zé)是根據(jù)法律框架或標(biāo)準(zhǔn)規(guī)定對(duì)人工智能開(kāi)發(fā)與應(yīng)用進(jìn)行監(jiān)督,因此對(duì)其的討論往往與法律框架同時(shí)出現(xiàn)[45]。例如,歐盟《人工智能法案》在提出法律框架的同時(shí),也指出要保障法律框架“順利、有效和協(xié)調(diào)的實(shí)施”,并暗示要成立一個(gè)新的歐洲人工智能委員會(huì)。鑒于這一政策話語(yǔ),新的人工智能監(jiān)管機(jī)構(gòu)似乎很快就能出現(xiàn),但實(shí)際上對(duì)于“是否應(yīng)當(dāng)成立一個(gè)獨(dú)立的人工智能監(jiān)管機(jī)構(gòu)”在當(dāng)前存在極大的爭(zhēng)議。在學(xué)界,支持建立獨(dú)立監(jiān)管機(jī)構(gòu)的關(guān)鍵論點(diǎn)是,人工智能的管理與監(jiān)管涉及對(duì)技術(shù)、法律與道德因素的復(fù)雜理解,將它們整合為一個(gè)整體可能會(huì)有所幫助。而反對(duì)者則認(rèn)為,新的人工智能監(jiān)管機(jī)構(gòu)可能會(huì)重復(fù)現(xiàn)有國(guó)家機(jī)構(gòu)的工作,且一個(gè)新的機(jī)構(gòu)在運(yùn)作、權(quán)力、范圍與關(guān)系上可能會(huì)與現(xiàn)有機(jī)構(gòu)產(chǎn)生交叉或沖突,甚至存在監(jiān)管俘獲風(fēng)險(xiǎn)[46]。在國(guó)家層面,對(duì)于是否應(yīng)當(dāng)成立一個(gè)獨(dú)立的人工智能監(jiān)管機(jī)構(gòu)亦存在分歧。例如,法國(guó)呼吁在歐盟層面建立與數(shù)據(jù)保護(hù)局(Data Protection Authority,DPA)類(lèi)似的新的人工智能監(jiān)管機(jī)構(gòu),但這一提議目前尚未被其他歐盟成員國(guó)接受;英國(guó)政府的公共生活標(biāo)準(zhǔn)委員會(huì)(CSPL)明確表示沒(méi)有必要建立新的人工智能監(jiān)管機(jī)構(gòu),本國(guó)的數(shù)據(jù)倫理與創(chuàng)新中心(CDEI)完全可以承擔(dān)相關(guān)工作;與英國(guó)類(lèi)似,美國(guó)近期擬議的法律也試圖賦予現(xiàn)有機(jī)構(gòu)新的權(quán)力以監(jiān)管人工智能的開(kāi)發(fā)與應(yīng)用[47]。同樣,人工智能監(jiān)管的技術(shù)、法律、道德統(tǒng)合,獨(dú)立監(jiān)管機(jī)構(gòu)成立的必要性及向現(xiàn)有監(jiān)管機(jī)構(gòu)賦權(quán)的可能性亦是未來(lái)我國(guó)人工智能監(jiān)管需要考慮的問(wèn)題。
目前,“原則方法”所構(gòu)建的教育人工智能倫理原則在自身可靠性與實(shí)踐效果上均存在一定問(wèn)題。其中,原則自身的有限性提示我們要提升原則的可靠程度,而原則實(shí)踐的有限性則表明僅依靠原則自身已不能有效應(yīng)對(duì)教育人工智能的倫理風(fēng)險(xiǎn)。在完善倫理原則的基礎(chǔ)上引入美德與法律,進(jìn)而構(gòu)建起“原則-美德-法律”框架是補(bǔ)正原則有限性的可行路徑。但需要注意的是,人工智能作為算法、算力與大數(shù)據(jù)的技術(shù)集合體,存在明顯的“步調(diào)問(wèn)題”(AI Pace Problem),即人工智能技術(shù)在發(fā)展過(guò)程中會(huì)呈現(xiàn)不斷加速的態(tài)勢(shì),使得倫理原則、法律規(guī)范、管理?xiàng)l例等難以跟上其發(fā)展的速度而無(wú)法做出有效的決策、監(jiān)管和控制。因此,任何人工智能倫理框架的構(gòu)建都無(wú)法畢其功于一役,需要不斷地完善和更新以適應(yīng)持續(xù)變化的社會(huì)和技術(shù)環(huán)境?!霸瓌t-美德-法律”框架的各個(gè)層次是否包含其他內(nèi)容,三個(gè)層次間是否存在其他互動(dòng)關(guān)系,抑或是否存在其他層次乃至新的框架,亦是未來(lái)教育乃至各領(lǐng)域人工智能倫理研究所需關(guān)注的問(wèn)題。
參考文獻(xiàn):
[1] Seldon A,Abidoye O.The fourth education revolution [M].London:Legend Press Ltd,2018.
[2] Hagendorff T.AI ethics and its pitfalls:not living up to its own standards [J]. AI and Ethics,2023,3(3):329-336.
[3][4] 白鈞溢,于偉.超越“共識(shí)”:教育人工智能倫理原則構(gòu)建的發(fā)展方向[J].中國(guó)電化教育,2023,(6):9-17+24.
[5][6] Adams C,Pente P,et al.Artificial Intelligence ethics guidelines for K-12 education:A review of the global landscape [C].Cham:Springer,2021.24-28.
[7] Tuomi I.A framework for socio-developmental ethics in educational AI [C]. Hawaii:University of Hawaii,2023.6208-6217.
[8] 古天龍.人工智能倫理及其課程教學(xué)[J].中國(guó)大學(xué)教學(xué),2022,(11):35-40.
[9] Morley J,F(xiàn)loridi L,et al.From what to how:an initial review of publicly available AI ethics tools, methods and research to translate principles into practices [J].Science and engineering ethics,2020,26(4):2141-2168.
[10] Kempt H,F(xiàn)reyer N,et al.Justice and the Normative Standards of Explain ability in Healthcare [J].Philosophy Technology,2022,35(4):248-266.
[11] IBM Corporation.Everyday ethics for artificial intelligence [EB/OL]. https://www.ibm.com/downloads/cas/VDO5W3JK mhsrc=ibmsearch_ amhq=Everyday%20ethics%20for%20artificial%20intelligence,2019-05-07.
[12][14] Rességuier A,Rodrigues R F.The Ethics of Artificial Intelligence in Education:Practices,Challenges,and Debates [M].London:Taylor Francis,2022.
[13] Holmes W,Tuomi I.State of the art and practice in AI in education [J]. European Journal of Education,2022,57(4):542-570.
[15][32] Whittlestone J,Nyrup R,et al.The role and limits of principles in AI ethics:towards a focus on tensions [C].New York:ACM,2019.195-200.
[16] McNamara A,Smith J,et al.Does ACM’s code of ethics change ethical decision making in software development [C].New York:ACM Press,2018.729-733.
[17] Munn L.The uselessness of AI ethics [J].AI and Ethics,2022,1(1):1-9.
[18] Vakkuri V,Kemell K K,et al.Ethically Aligned Design of Autonomous Systems:Industry Viewpoint and an Empirical Study [J].Electronic Journal of Business Ethics and Organization Studies,2022,27(1):4-15.
[19] Vakkuri V,Kemell K K,et al“.This is just a prototype”:How ethics are ignored in software startup-like environments [C].Copenhagen: Springer International Publishing,2020.195-210.
[20][25][29] Rességuier A,Rodrigues R.AI ethics should not remain toothless! A call to bring back the teeth of ethics [J].Big Data Society,2020,7(2):1-5.
[21] Campolo A,Sanfilippo M,et al.AI now 2017 report [EB/OL].https://assets. ctfassets.net/8wprhhvnpfc0/1A9c3ZTCZa2KEYM64Wsc2a/8636557c5fb1 4f2b74b2be64c3ce0c78/_AI_Now_Institute_2017_Report_.pdf,2018-10-02.
[22] Knight,W.Google appoints an ‘AI Council’ to head off controversy,but it proves controversial [EB/OL].https://www.technologyreview. com/2019/03/26/136376/google-appoints-an-ai-council-to-head-offcontroversy-but-it-proves-controversial/,2019-03-26.
[23] Koniakou V.From the “rush to ethics” to the “race for governance” in Artificial Intelligence [J].Information Systems Frontiers,2023,25(1):71-102.
[24] 吳紅,杜嚴(yán)勇.人工智能倫理治理:從原則到行動(dòng)[J].自然辯證法研究,2021,37(4):49-54.
[26][36][37][38] Hagendorff T.A virtue-based framework to support putting AI ethics into practice [J].Philosophy Technology,2022,35(3):1-24.
[27] Floridi L.Soft ethics and the governance of the digital [J].Philosophy Technology,2018,31(1):1-8.
[28] Grosz B J,Grant D G,et al.Embedded EthiCS:integrating ethics across CS education [J].Communications of the ACM,2019,62(8):54-61.
[30] Anscombe G E M.Modern moral philosophy [J].Philosophy,1958,33(124):1-19.
[31] Nemitz P.Constitutional democracy and technology in the age of artificial intelligence [J].Philosophical Transactions of the Royal Society A,2018,2133(376):1-10.
[33] 張濟(jì)洲,黃書(shū)光.美德是否可教——論蘇格拉底的德性教化[J].教育研究,2013,34(4):76-81.
[34] Harris Jr C E.The Good Engineer:Giving Virtue Its Due in Engineering Ethics [J].Science and Engineering Ethics,2008,14(2):153-164.
[35] Vallor S.Technology and the virtues:A philosophical guide to a future worth wanting [M].Oxford:Oxford University Press,2016.
[39] Bezuidenhout L,Ratti E.What does it mean to embed ethics in data science An integrative approach based on microethics and virtues [J].AI Society,2021,36(3):939-953.
[40] Khan A A,Akbar M A,et al.AI Ethics:An Empirical Study on the Views of Practitioners and Lawmakers [J].IEEE Transactions on Computational Social Systems,2023,12(3):1-23.
[41] Papyshev G,Yarime M.The state’s role in governing artificial intelligenc e:development,control,and promotion through national strategies [J].Policy Design and Practice,2023,6(1):1-24.
[42] Erdélyi O J,Goldsmith J.Regulating artificial intelligence:Proposal for a global solution [C].New York:ACM,2018.95-101.
[43] Ebers M,Hoch V R S,et al.The European commission’s proposal for an artificial intelligence act—a critical assessment by members of the robotics and ai law society [J].Multidisciplinary Scientific Journal,2021,4(4):589-603.
[44] de Almeida P G R,dos Santos C D,et al.Artificial intelligence regulation:a framework for governance [J].Ethics and Information Technology,2021,23(3):505-525.
[45][47] Stahl B C,Rodrigues R,et al.A European Agency for Artificial Intelligence:Protecting fundamental rights and ethical values [J].Computer Law Security Review,2022,45(1):1-25.
[46] 白鈞溢.教育人工智能倫理治理:現(xiàn)實(shí)挑戰(zhàn)與實(shí)現(xiàn)路徑[EB/OL].http://kns. cnki.net/kcms/detail/50.1028.G4.20231211.1217.002.html,2024-01-26.
作者簡(jiǎn)介:
白鈞溢:在讀博士,研究方向?yàn)榧夹g(shù)哲學(xué)。
于偉:教授,博士生導(dǎo)師,研究方向?yàn)榻逃軐W(xué)。
The Limitations of Ethical Principles for Educational AI and Their Remedies
—A Discussion on the “Principle-Virtue-Law” Framework
Bai Junyi, Yu Wei
Faculty of Education, Northeast Normal University, Changchun 130024, Jilin
Abstract: The “principled approach” to ethical research in educational artificial intelligence aims to construct and teach ethical principles to mitigate the ethical risks associated with the application of AI technology in education. However, current ethical principles for educational AI are limited, which constrains their impact on educational practices. Specifically, in constructing these principles, individual characteristics or relationships within different industry sectors, educational applications, and even within the same framework have been overlooked. Moreover, these principles themselves lack the ability to influence the willingness of the target objects to put them into practice, and there is a lack of mechanisms that can effectively enforce compliance with these values and norms. Ethics, virtues, and laws together constitute the ethical foundation of artificial intelligence. To overcome the limitations of ethical principles for educational AI, it is necessary to introduce virtues and laws and construct a “principle-virtue-law” framework. The key to this framework is to address all aspects of the limitations of ethical principles by developing reliable and viable ethical principles, conducting clear and feasible virtue cultivation and building robust and effective legal safeguards.
Keywords: educational AI; ethical principles; boundedness; “principle-virtue-law” framework
收稿日期:2023年8月6日
責(zé)任編輯:李雅瑄
① “原則方法”這一概念由艾倫·圖靈研究所布倫特·米特爾斯塔德(Brent Mittelstadt)教授于2019年在分析國(guó)際人工智能倫理研究現(xiàn)狀后提出,這一概念目前已得到廣泛認(rèn)可并被諸多研究使用。參見(jiàn)Mittelstadt B.Principles alone cannot guarantee ethical AI [J].Nature machine intelligence,2019,1(11):501-507。
① 這類(lèi)研究主要是在宏觀倫理框架的基礎(chǔ)上增加符合本學(xué)段特征的倫理原則,如在K-12階段側(cè)重強(qiáng)調(diào)包括以學(xué)生為中心、差異化和個(gè)性化學(xué)習(xí)等方面的教學(xué)適當(dāng)性,而在高等教育階段,關(guān)注更多的則是人工智能素養(yǎng)。
① “倫理漂藍(lán)”由耶魯大學(xué)教授盧西亞諾·弗洛里迪(Luciano Floridi)將環(huán)境倫理學(xué)“倫理漂綠”(Ethics Green Washing)概念類(lèi)比到數(shù)字技術(shù)領(lǐng)域提出,指代部分人工智能企業(yè)通過(guò)市場(chǎng)宣傳、廣告以及其他公共關(guān)系活動(dòng),使人們相信他們的行為、產(chǎn)品與服務(wù)等合乎倫理原則,但實(shí)際情況并非如此的現(xiàn)象。
① 通常來(lái)說(shuō),后果論、義務(wù)論與美德倫理作為塑造西方道德哲學(xué)傳統(tǒng)的三大規(guī)范理論,共同構(gòu)成了人工智能倫理原則的哲學(xué)基礎(chǔ)。但目前研究明顯傾向于義務(wù)論,并且具有“道德泛法律化”傾向。
① 很長(zhǎng)時(shí)間內(nèi),教育人工智能中的“公平”傾向于過(guò)程公平。1997年,《計(jì)算機(jī)與教室:美國(guó)學(xué)校的技術(shù)現(xiàn)狀》指出,公平是“技術(shù)問(wèn)題”而非“倫理問(wèn)題”,最好解決策略是為社會(huì)經(jīng)濟(jì)地位低下的教師和學(xué)生提供額外的技術(shù)來(lái)“創(chuàng)造公平的競(jìng)爭(zhēng)環(huán)境”。(參見(jiàn)Coley R J,Cradler J,et al.Computers and Classrooms:The Status of Technology in U.S. Schools [J].Princeton Nj Educational Testing Service,1997:71.)。
② 當(dāng)前教育人工智能倫理原則以集合而非層次結(jié)構(gòu)的形式出現(xiàn),這“暗示”著各原則要盡可能地實(shí)現(xiàn)。但倫理原則想要發(fā)揮實(shí)際作用則必須相互權(quán)衡。如在隱私保護(hù)方面,既需要保障學(xué)生的隱私和數(shù)據(jù)安全,又需要充分利用數(shù)據(jù)進(jìn)行模型訓(xùn)練和優(yōu)化,在設(shè)計(jì)隱私保護(hù)策略時(shí),需要考慮不同利益方的需求,做到原則的彈性適應(yīng)。
③ 例如,正義美德對(duì)應(yīng)公平原則,一個(gè)正義的人會(huì)“自動(dòng)地”構(gòu)建不歧視任何群體的人工智能應(yīng)用,且不受外部因素的影響;誠(chéng)實(shí)美德對(duì)應(yīng)透明度原則,一個(gè)誠(chéng)實(shí)的人會(huì)“自動(dòng)地”公開(kāi)錯(cuò)誤,不隱瞞技術(shù)缺陷,使設(shè)計(jì)的人工智能易于理解和解釋?zhuān)魂P(guān)懷美德對(duì)應(yīng)安全原則,關(guān)懷美德將促使人工智能開(kāi)發(fā)者與應(yīng)用者承認(rèn)安全與避免傷害的重要性,并采取相應(yīng)的行動(dòng)。
① 根據(jù)既定慣例,此類(lèi)監(jiān)管機(jī)構(gòu)可以采取多種形式,如數(shù)字機(jī)構(gòu)、獨(dú)立監(jiān)管機(jī)構(gòu)、檢查機(jī)構(gòu)、公共部門(mén)監(jiān)管機(jī)構(gòu)或工作組等。