摘要:人工智能倫理風險評估是確保教育領域中人工智能技術安全、合規(guī)與可持續(xù)應用的有效途徑。然而受限于評估方法,當前的相關研究仍處于初步階段,尚缺乏全面且系統(tǒng)的評估機制和流程。風險矩陣作為一種可視化的風險評估工具,通過將風險的發(fā)生概率和影響程度映射到一個矩陣中,可以幫助組織和個體更直觀、清晰地識別、評估潛在的風險,進而做出更有針對性的應對策略。從風險管理視角出發(fā),采用風險矩陣構建的教育人工智能應用倫理風險評估方法,包括環(huán)境構建、風險識別、風險分析、風險評價和風險處置五個關鍵步驟。經(jīng)案例驗證,該方法易于操作,且能較為準確地識別、評估人工智能產品在教育領域應用帶來的可能風險。但需看到,倫理風險評估是一個動態(tài)的過程,需要隨著教育和人工智能技術的演進不斷完善評估流程,并與教育領域各利益相關者共同努力,協(xié)同推動人工智能在教育中的可持續(xù)發(fā)展。
關鍵詞:教育人工智能;倫理風險;風險矩陣;風險評估;風險管理
中圖分類號:G434 文獻標識碼:A 文章編號:1009-5195(2024)06-0003-08 doi10.3969/j.issn.1009-5195.2024.06.001
一、問題的提出
隨著技術迭代創(chuàng)新,人工智能在教育領域的應用從智能輔助教學、教育數(shù)據(jù)分析到個性化學習不斷拓展,深刻地改變著教育教學的面貌。人工智能技術為師生帶來了更高效、個性化的學習方式和教學工具,也帶來了一系列新的倫理挑戰(zhàn)和社會問題,個人數(shù)據(jù)安全、算法歧視、技術依賴等日益受到廣泛關注(白鈞溢等,2024)。2021年,聯(lián)合國教科文組織193個會員國一致通過了《人工智能倫理問題建議書》,該建議書提出了在教育領域使用人工智能時需要考慮的倫理原則,包括透明度、可解釋性、公平性、隱私和數(shù)據(jù)保護等(UNESCO,2021)。國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能倫理規(guī)范》中也明確提出,要加強風險防范,及時開展系統(tǒng)的風險監(jiān)測和評估,建立有效的風險預警機制,提升人工智能倫理風險管控和處置能力(中華人民共和國科學技術部,2021)。
盡管人工智能教育應用倫理問題已經(jīng)引起了社會的廣泛重視,但相關研究仍處于初步階段,缺乏全面且系統(tǒng)的評估機制與流程。這一方面是由于倫理問題的復雜性和多樣性,制定統(tǒng)一且適用的評估標準和方法有一定難度;另一方面,專業(yè)評估機構和人員的缺乏,也導致評估結果的信度和效度受到質疑。因此,預測和評估教育領域人工智能應用的倫理風險問題,并采用科學合理方法對倫理風險進行防范,是當前教育人工智能應用過程中亟待解決的問題。本文借鑒風險管理的方法,采用風險矩陣,對教育領域人工智能應用的倫理風險進行評估,通過識別和量化各種潛在風險的發(fā)生概率和影響程度,更準確地評估其嚴重性,并確定應對策略的優(yōu)先級。這種系統(tǒng)性的評估方法能夠為教育實踐和政策制定提供更具體和可操作的建議,從而更好地保障人工智能技術在教育領域的可持續(xù)、安全和規(guī)范化應用。
二、風險矩陣及其風險評估應用
風險矩陣(Risk Matrix)是一種可視化的風險評估工具,它通過將風險的發(fā)生概率和影響程度映射到一個矩陣中,以便更清晰地理解和優(yōu)先處理不同風險(李素鵬,2013)。風險矩陣最早可以追溯到20世紀中期,其初衷是為了幫助企業(yè)和組織更好地理解和處理不同風險的復雜性,之后在項目管理和決策制定領域得到了廣泛應用。風險矩陣通常由風險發(fā)生概率和風險影響程度兩個維度組成(Garvey et al.,1998),每個維度劃分為若干等級,以便更好地分類和評估風險。等級的劃分可以是定量的(如概率的百分比或數(shù)字),也可以是定性的(如低、中、高等級)。矩陣的交點處,通過將發(fā)生概率和影響程度等級相乘,可以計算出每種風險的綜合得分,從而確定哪些風險更為嚴重,以便有針對性地制定風險應對措施。該方法相較于專家直接判斷,由于事先對風險影響和風險概率進行了等級劃分(常虹等,2007),評估的準確性更高。
為解決傳統(tǒng)風險評估中存在的復雜性、主觀性和難以全面考慮不同維度等問題,國內外已有許多學者將風險矩陣應用于風險評估研究中。例如,李夢薇等(2023)在服務機器人領域的人工智能倫理風險評估設計與實踐中,將風險發(fā)生的可能性與算法風險影響相結合,構建風險矩陣,得出風險評級;杜文靜等(2022)通過風險矩陣分析法和Borda序值法,對“雙減”政策實施關鍵期的風險進行了評估與賦值,并結合政策實踐深入分析了潛在的風險隱患,并成功識別出高風險致災因子;Acramel等(2024)利用風險矩陣方法,通過確定故障模式、影響及相關原因,對注射用抗癌藥物的影響進行嚴重性及原因發(fā)生概率評分,從而得到注射用抗癌藥物使用的關鍵性指數(shù)。也有學者基于風險矩陣理論構建相關的風險評估流程。例如,徐自強等(2022)基于國家標準《風險管理 風險評估技術》(GB/T27921—2011)構建了包括風險識別、風險分析和風險評價等主要步驟的師范生公費教育政策執(zhí)行的風險評估框架;陳蔚等(2020)運用改進風險矩陣法對學校體育競賽風險進行結構性評估,初步建立了包括風險識別、風險評估、風險應對三個環(huán)節(jié)的評估流程。由此可知,風險矩陣作為一種有效的風險評估工具,已被廣泛應用于教育領域的研究與實踐中。
風險矩陣的優(yōu)勢在于其可以通過將風險發(fā)生的可能性與風險影響相結合,實現(xiàn)對風險的量化評估,同時提供一種直觀的方式來識別那些可能對教育組織產生較大影響的風險,促使組織對風險進行更系統(tǒng)化、有序的管理,進而更好地分配資源和控制風險。將風險矩陣應用于教育領域人工智能應用倫理風險評估的理由包括:首先,風險矩陣作為一種有效的風險評估工具,能夠提供一個系統(tǒng)的框架,幫助組織或個體全面、細致地分析教育領域在引入和應用人工智能時可能帶來的潛在風險。其次,利用風險矩陣對人工智能在教育領域廣泛應用帶來的倫理問題進行風險評估,可以更加清晰地了解這些問題的潛在影響,為制定有效的應對策略提供科學依據(jù)。最后,教育領域的人工智能應用倫理風險評估是一個復雜而系統(tǒng)的過程,需要綜合考慮技術、倫理、法律等多方面的因素。風險矩陣作為一種結構化的評估方法,能夠將這些因素有機地結合在一起,提供一個全面、系統(tǒng)的風險評估框架。然而,需要注意的是,風險矩陣是一種簡化工具,對于某些復雜的風險情境可能需要結合其他風險管理工具和方法一起進行評估,特別是涉及眾多變量和多樣化利益相關者的教育場景中,風險管理可能受到多元變量和主體的影響,評估的復雜度較高,僅依靠單一工具,較難做出準確評估。
三、教育人工智能倫理風險評估方法與流程
ISO 31000是國際標準化組織(International Organization for Standardization,ISO)于2009年發(fā)布的一系列標準,旨在幫助組織管理風險(ISO,2009)。該標準的最新版本是2018年發(fā)布的一套風險管理準則,全稱《ISO 31000:2018 風險管理——原則和指南》(ISO 31000:2018 Risk Management—Principles and Guidelines)。在這個版本中,ISO 31000標準進行了一些修訂,重點指導風險管理框架的設計和實施,以更好地滿足風險管理的實踐和需要。本文采用ISO 31000標準來設計教育領域人工智能應用的倫理風險評估方法與流程,具體包括環(huán)境構建、風險識別、風險分析、風險評價以及風險處置等環(huán)節(jié),全面覆蓋整個風險評估過程,如圖1所示。
1.環(huán)境構建
環(huán)境構建涉及對風險評估環(huán)境的全面認知,包括明確風險評估對象及風險接受準則,目的在于為后續(xù)評估工作提供一個清晰、明確且符合實際需求的背景,確保整個評估過程能夠有的放矢,并取得切實有效的成果。因此,在正式的風險評估開始之前,需要對環(huán)境進行全面的了解和分析。當前人工智能在教育中的具體應用場景,包括智能教學過程、智能教育評價、智能教育管理與服務等(徐和祥等,2023)。這些應用不僅帶來了巨大的益處,例如,滿足多樣化學習需求的教學環(huán)境、精準支持學生的人性化學習過程、提升教師工作效率、促進教育評價的增值以及實現(xiàn)學習管理智能化等,同時也伴隨著一系列潛在的風險和挑戰(zhàn)。為了更好地理解這些風險和挑戰(zhàn),評估者需要明確風險評估對象及風險接受準則。
(1)風險評估對象
風險評估對象一般包括數(shù)據(jù)、軟件、硬件、人員、服務五大類別(郭寧,2006)。如表1所示,教育領域人工智能倫理風險評估范圍限定于人工智能技術在教育領域的應用安全,評估依據(jù)主要有《信息安全技術 信息安全風險評估方法》(GB/T 20984—2022)和《信息安全技術 信息安全風險評估實施指南》(GB/T 31509—2015)。通過界定明確的評估對象及范圍,可以更精確地識別與之相關的潛在倫理風險,為不同評估對象所涉及的倫理問題制定差異化、針對性的管理策略。第一,數(shù)據(jù)。教育系統(tǒng)中涉及大量的敏感數(shù)據(jù),風險可能源于數(shù)據(jù)泄露、數(shù)據(jù)濫用、數(shù)據(jù)質量問題或數(shù)據(jù)處理的不當行為。不準確的數(shù)據(jù)可能導致基于錯誤信息的決策,影響教學管評(馮銳等,2020)。第二,軟件。軟件的安全性和穩(wěn)定性直接關系到教育過程的順利進行。風險可能來自軟件漏洞、未經(jīng)授權的訪問、惡意軟件或不穩(wěn)定的系統(tǒng)。例如,一款學習監(jiān)控軟件在未經(jīng)學生同意的情況下收集了大量學生的行為數(shù)據(jù),可能引發(fā)隱私保護和倫理道德爭議。第三,硬件。硬件包括教育系統(tǒng)中的智能設備、機器人助教、一卡通、智慧門禁、智能安防等教學、管理和服務設備。硬件風險可能來自過度依賴設備、算法偏見與歧視。例如,智能設備的便捷性可能導致教育過程過度依賴技術,而忽略了教育過程中其他重要的因素,如教師的角色、學生的需求以及情感交流等。第四,人員。人員是指與教育系統(tǒng)相關的所有人,包括教育工作者、學生、管理員、家長等。風險一方面可能來自自身,如喪失自主權、過度依賴人工智能技術、忽視技術局限等;另一方面可能來自外部威脅,如受到監(jiān)視與監(jiān)管、隱私泄露、算法歧視與偏見等。第五,服務。服務這一類別包括提供人工智能輔助教育服務的技術支持和維護。風險可能來自教學資源質量低下、行為受限、思維創(chuàng)新受限以及人工智能算法的偏見等。例如,一款人工智能輔助學習平臺使用的算法在學生評估中表現(xiàn)出性別偏見,可能導致對學生的不公平評估,影響學生的學業(yè)發(fā)展。通過綜合評估這些目標類別,教育組織能夠制定有效的風險管理策略,最大程度地保護利益相關方的權益,確保教育系統(tǒng)的順利運行。
(2)風險接受準則
風險接受準則是基于法律法規(guī)、行業(yè)規(guī)范以及社會普遍期望,為評估提供的一個判斷風險是否可接受的基準,是評價風險重要程度的依據(jù)(丁輝,2020)。在環(huán)境構建的過程中,教育組織需要明確定義其在面對倫理風險時的風險接受水平,建立一套明確的標準,以便通過評估風險值來量化評估潛在倫理風險的等級。一般而言,風險值的計算公式為:風險值=風險發(fā)生概率×風險影響程度。其中,風險值的取值范圍根據(jù)風險發(fā)生概率和風險影響程度的取值范圍而有所變化。本研究將風險發(fā)生概率和風險影響程度的取值范圍限定在1到5之間,通過計算可得到如表2所示的風險接受準則。
2.風險識別
風險識別是指發(fā)現(xiàn)、承認和描述風險要素的過程。該過程旨在全面、系統(tǒng)地辨識可能對教育系統(tǒng)、學生和教育工作者造成不利影響的潛在倫理風險。教育人工智能倫理風險的識別主要包括風險類型的確定、風險誘因的分析以及風險因素的描述。本文通過梳理相關文獻和探究人工智能技術在教育領域的實際應用現(xiàn)狀,依據(jù)風險源、技術流、效應期三條路徑構建倫理風險分類體系,形成技術本體、教育數(shù)據(jù)、機器算法、教育應用四大倫理風險類型,并將其劃分為一級維度(王佑鎂等,2023)。在二級維度中,技術本體倫理風險分為技術“拜物教”與技術依賴兩類;教育數(shù)據(jù)倫理風險分為泄露數(shù)據(jù)與隱私、數(shù)據(jù)失真與數(shù)據(jù)濫用三類;機器算法倫理風險分為算法歧視與偏見、算法同質推薦、算法固化與算法不透明四類;教育應用倫理風險分為重構師生關系、喪失自主權、破壞教育公平與反饋避責四類,最后共計形成13個風險因素,分別編號C1~C13,每個風險因素的描述見表3。在整個風險識別過程中,構建風險分類體系有助于系統(tǒng)性地理解潛在倫理挑戰(zhàn),為制定有針對性的風險管理策略提供指導。
3.風險分析
風險分析是考慮風險發(fā)生的可能性及后果嚴重程度的過程,其核心目標是在風險識別的基礎上,深入挖掘各個風險類型的潛在威脅,以全面洞察其可能產生的影響。風險的影響因素可以劃分為發(fā)生概率與影響程度兩個維度,教育領域人工智能應用的倫理風險值也由風險發(fā)生概率與風險影響程度兩個因素共同決定。按照前文提及的風險值計算公式,二者與整體風險大小均為正比關系。本文采用國際標準化組織提倡的5×5階矩陣,將風險的發(fā)生概率與影響程度分別劃分為5個等級(ISO,2008)。其中,風險發(fā)生概率按照風險可能發(fā)生的概率,劃分為極低、低、中等、高、極高5個等級尺度,分別對應數(shù)字1~5級;風險影響程度按照風險可能產生的嚴重后果,也劃分為5個等級尺度,分別是極小、小、中等、大、極大,對應數(shù)字等級1~5級,二者形成的風險矩陣如表4所示。風險評估的結果由二者的乘積得出。因此,要計算風險大小,就要分別對發(fā)生概率與影響程度進行評估。
本研究采用專家評估法對上述所識別的風險因素進行評分?;趯<业葯嗟脑瓌t,風險發(fā)生概率和風險影響程度的計算公式分別為:
其中,m代表專家的打分結果,n代表打分的專家數(shù)量,Ci代表第i個風險因素,PCi代表Ci風險因素的發(fā)生概率,ICi代表Ci風險因素的影響程度。
4.風險評價
風險評價是確定每個風險因素風險等級的過程。依據(jù)已經(jīng)設定的評價準則,利用風險矩陣判斷各種潛在風險的大小是否處于可接受或可容忍的范圍之內,以此確定每個風險因素的級別(高昕欣,2014)。風險評價涉及將風險分析中獲得的風險值與事先設定的風險接受準則進行比對,包括對風險影響程度、發(fā)生概率等因素的全面評估,旨在確保所設定的風險接受準則充分覆蓋了教育組織關注的各個方面。確定好風險值后,根據(jù)風險接受準則中定義的風險等級,將風險值小于5的記為低風險,低風險存在較小的安全威脅和潛在損害,為不需要評審即可接受的風險;將風險值大于等于5且小于等于12的記為中風險,中風險存在一定的安全威脅和潛在損害,需要進一步評估再決策;將風險值大于12的記為高風險,高風險存在嚴重的安全威脅和潛在損害,必須進行處置以降低風險。這一階段是風險管理的關鍵步驟,為教育組織提供了決策的基礎,使其能夠在權衡風險和收益的同時,合理配置資源、采取措施,從而實現(xiàn)對風險的有效管理。
5.風險處置
風險處置是指針對不同等級的風險,依照風險接受準則的要求制定不同的處置策略,具體可采用轉移風險、規(guī)避風險、接受風險和消減風險四種處置措施(陳蔚等,2020),如圖2所示。各類風險處理方式的選擇應該兼顧管理與技術,具體處置措施應根據(jù)人工智能技術應用的實際情況慎重考慮。
第一,轉移風險。轉移風險是4dd1f00f6b560ea9d1fc3e0f716744f5指通過購買保險、外包等方法把風險轉移到外部機構的風險應對策略。轉移風險策略主要針對那些發(fā)生概率較低但影響較大的潛在風險。在應用人工智能技術時,可以尋找符合教育行業(yè)需求的保險產品,并與相應的保險公司合作,通過風險轉移的方式,確保在應對倫理問題時有適當?shù)慕?jīng)濟支持。例如,為教育組織購買專門的責任保險,以應對可能出現(xiàn)的學生隱私、教育公平性被侵犯等風險。
第二,規(guī)避風險。規(guī)避風險是指采取措施或行動,以減少或避免可能發(fā)生的不利事件或損失的風險處置策略,如在開發(fā)和實施人工智能技術時,規(guī)避可能引起倫理問題的活動,包括限制某些敏感數(shù)據(jù)的使用和避免實施可能導致歧視的算法等。例如,在人工智能應用的開發(fā)階段,對算法進行嚴格審查,確保其遵循道德和法規(guī)標準,通過制定清晰的政策禁止或限制特定類型的數(shù)據(jù)使用來預防潛在的倫理問題。規(guī)避風險策略主要針對那些影響較大且發(fā)生概率也較大的風險。
第三,接受風險。接受風險是指針對風險值不高的風險,采取直接接受的處置策略。對于風險值相對較低的情況,教育組織可以通過建立監(jiān)測和應對機制來接受這些風險。但在此過程中,要確保能夠迅速識別風險并即時采取行動,從而將潛在的負面效應降至最低。
第四,消減風險。風險消減有兩方面的含義:一是降低風險發(fā)生的概率;二是一旦風險事件發(fā)生,盡量降低其損失(丁輝,2020)。消減風險主要針對影響較小,但發(fā)生概率較大的風險,指通過適當?shù)目刂拼胧┙档惋L險發(fā)生的可能性的應對策略。我們可以通過采取適當?shù)目刂拼胧﹣斫档腿斯ぶ悄芟到y(tǒng)引起的倫理風險,包括增加透明度、建立審查機制、采用公平的算法等。例如,可引入倫理審查小組,負責審查和監(jiān)督人工智能應用的設計和實施。
在風險處置措施實施后,需持續(xù)開展溝通與協(xié)商工作,并加強監(jiān)視與評審活動,以確保所采取的措施達到預期效果。首先,需要在教育組織各個層面建立恰當?shù)闹卫頇C制和有效的溝通流程,確保關鍵信息能夠在內外部利益相關者之間流通,從而支持有效的決策制定和實施。制定專門的溝通計劃是確保教育組織內外部利益相關者充分理解風險處置措施、實施過程以及最新的倫理風險評估結果的關鍵步驟。其次,設立監(jiān)測和評估機制,對實施的風險控制措施進行持續(xù)跟蹤和評估,以便及時發(fā)現(xiàn)新的風險或明確已有措施的有效性,確保處置計劃的可持續(xù)性和適應性。最后,進行定期的審查和更新,以確保倫理風險評估和處置計劃持續(xù)適應新的技術、法規(guī)或倫理標準的變化。通過建立強有力的監(jiān)測和評估機制,以及定期審查和更新風險處置計劃,教育領域可以更好地應對不斷變化的倫理挑戰(zhàn),確保人工智能在教育中安全和負責任的應用。
四、教育人工智能倫理風險評估應用案例
1.實例選取
本文以溫州市某中學引入智能監(jiān)控系統(tǒng)為例,進行教育人工智能應用倫理風險評估。該系統(tǒng)由于利用人臉識別技術實現(xiàn)校園出入管理,可能引發(fā)倫理風險,需要進行倫理風險評估。按照風險評估流程,研究者首先從環(huán)境角度,充分考慮學校、教師、學生、家長等利益相關者的意見和建議,確保風險評估的全面性和公正性;其次,風險識別部分,選取教育人工智能應用倫理風險評估指標體系中的二級指標作為風險因素(見表3);最后,通過問卷的方式邀請5位專家,基于該中學人臉識別技術應用的實際情況,對上述13個風險因素的發(fā)生概率及影響程度分別進行評分。
2.數(shù)據(jù)計算
根據(jù)公式(1)和(2)分別計算出風險發(fā)生概率和風險影響程度的專家打分結果,再取5位專家打分的平均值,得到如表5、表6所示結果;然后根據(jù)風險值計算公式,可得到13個倫理風險因素的風險等級情況(如表7所示)。
3.評估結果分析
通過風險評估結果可以看出,所識別風險中技術本體倫理風險類別下的“技術拜物教”(C1)、機器算法倫理風險類別下的“算法固化”(C8)、教育應用倫理風險類別下的“破壞教育公平”(C12)風險較?。患夹g本體倫理風險類別下的“泄露數(shù)據(jù)與隱私”(C3)風險很高,可重點考慮該類風險事件,并針對性地進行管理及維護。例如,制定嚴格的數(shù)據(jù)保護政策和流程,明確數(shù)據(jù)的收集、存儲、處理、傳輸和銷毀等各個環(huán)節(jié)的安全要求。其余因素均為中風險因素,表明需進一步監(jiān)控和管理以確保風險的控制和降低。例如,針對“技術依賴”(C2)風險,可選擇轉移風險應對策略,即不依賴單一的人臉識別技術,而是采用多元化的身份驗證方法,如指紋識別、聲紋識別、虹膜識別等,降低系統(tǒng)受單一技術故障影響的風險。針對“數(shù)據(jù)濫用”(C5)風險,可選擇消減風險策略,對收集到的人臉數(shù)據(jù)進行加密和匿名化處理,以有效保護數(shù)據(jù)的安全,防止未經(jīng)授權的訪問和濫用;同時明確數(shù)據(jù)的使用范圍應僅限于特定的、合法的領域,禁止將數(shù)據(jù)用于其他未經(jīng)授權的領域。
五、結語
在教育領域應用人工智能技術時進行科學有效的倫理風險評估,對于確保技術的合理應用與教育的健康發(fā)展至關重要。本文參考了國際標準化組織(ISO)的風險管理框架,并結合風險矩陣,對倫理風險評估的各個環(huán)節(jié)進行了詳盡的探討,包括環(huán)境構建、風險識別、風險分析、風險評價、風險處置等。通過這一流程,研究者可以快速評估人工智能產品在教育領域應用可能引發(fā)的潛在倫理風險及其影響,進而制定合理的風險處置計劃和決策策略,確保人工智能在教育中的合理、負責任應用。同時我們也要認識到,倫理風險評估是一個動態(tài)的過程,隨著教育領域和人工智能技術的不斷演進,新的倫理問題可能隨之而來。因此,需要在實踐中積累經(jīng)驗,不斷完善評估流程,并與教育領域的各方利益者共同努力,協(xié)同推動人工智能在教育中的可持續(xù)發(fā)展。只有通過持續(xù)的合作和創(chuàng)新,才能更好地應對倫理挑戰(zhàn),確保人工智能在教育領域中的應用能夠為教育帶來實質性的益處。
參考文獻:
[1]白鈞溢,于偉(2024).教育人工智能倫理原則的有限性及其補正——兼論“原則—美德—法律”框架[J].中國電化教育,(2):23-31.
[2]常虹,高云莉(2007).風險矩陣方法在工程項目風險管理中的應用[J].工業(yè)技術經(jīng)濟,(11):134-137.
[3]陳蔚,李燕燕,黃明明等(2020).基于改進風險矩陣法的學校體育競賽風險評估研究[J].武漢體育學院學報,54(10):72-79.
[4]丁輝(2020).安全風險術語辨析(連載之六)[J].中國應急管理科學,(6):94-99.
[5]杜文靜,姜晨(2022).“雙減”背景下校外培訓治理風險評估[J].現(xiàn)代教育論叢,(4):63-72,111.
[6]馮銳,孫佳晶,孫發(fā)勤(2020).人工智能在教育應用中的倫理風險與理性抉擇[J].遠程教育雜志,38(3):47-54..
[7]高昕欣,葉惠,康永博(2014).基于風險矩陣的企業(yè)技術創(chuàng)新風險管理研究[J].科技管理研究,34(16):8-11,17.
[8]郭寧(2006).信息安全風險評估指標體系研究[J].信息技術與標準化,(5):17-21.
[9]李夢薇,徐峰,晏奇等(2023).服務機器人領域人工智能倫理風險評估方法的設計與實踐[J].中國科技論壇,(10):74-84.
[10]李素鵬(2013).風險矩陣在企業(yè)風險管理中的應用:詳解風險矩陣評估方法[M].北京:人民郵電出版社:23-24.
[11]王佑鎂,王旦,王海潔等(2023).基于風險性監(jiān)管的AIGC教育應用倫理風險治理研究[J].中國電化教育,(11):83-90.
[12]徐和祥,申利俠(2023).“智能+教育”:應用場景、風險挑戰(zhàn)與治理對策[J].復旦教育論壇,21(2):24-30.
[13]徐自強,趙焱鑫(2022).師范生公費教育政策執(zhí)行風險評估與應對[J].黑龍江高教研究,40(12):33-40.
[14]中華人民共和國科學技術部(2021).《新一代人工智能倫理規(guī)范》發(fā)布[EB/OL].[2023-10-12].https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.
[15]Acramel, A., Blondee-Gomes, S., & Dupré, M. et al. (2024). Advanced Prescription of Injectable Anticancer Drugs: Safety Assessment in a European Comprehensive Cancer Centre Using the Risk Matrix Approach[J]. British Journal of Clinical Pharmacology, 90(5):1333-1343.
[16]Garvey, P. R., & Lansdowne, Z. F. (1998). Risk Matrix: An Approach for Identifying, Assessing, and Ranking Program Risks[J]. Air Force Journal of Logistics, 22(1):18-21.
[17]ISO (2008). ISO/IEC 27005: 2008. Information Technology—Security Techniques—Information Security Risk Management[S]. Geneva, Switzerland: International Standards Organization:32-57.
[18]ISO (2009). ISO 31000: 2009. Risk Management— Principles and Guidelines[S]. Geneva, Switzerland: lnternational Organization for Standardization:5-33.
[19]UNESCO (2021). Draft Text of the UNESCO Recommendation on the Ethics of Artificial Intelligence[EB/OL].[2023-10-01]. https://unesdoc.unesco.org/ark:/48223/pf0000378426.