李夢薇,徐 峰,晏 奇,李 芳,劉鑫怡
(1.中國科學(xué)技術(shù)信息研究所,北京 100038;2.北京曠視科技有限公司,北京 100190 )
隨著本輪人口紅利的逐漸消失,我國老齡化程度加深,空巢青年數(shù)量增加,護(hù)幼與未成年人陪護(hù)等壓力日益增大。人工智能技術(shù)在服務(wù)機(jī)器人領(lǐng)域的應(yīng)用將大大緩解人類的勞動(dòng)壓力、生活成本,彌補(bǔ)服務(wù)業(yè)人力的不足,提高社會(huì)生產(chǎn)力與生活舒適程度,是應(yīng)對人口老齡化、空巢青年等社會(huì)問題的有力舉措。國際機(jī)器人聯(lián)合會(huì) (IFR)報(bào)告認(rèn)為,未來幾年服務(wù)機(jī)器人將出現(xiàn)強(qiáng)勁增長。然而,隨著人類對服務(wù)機(jī)器人的需求日益旺盛,服務(wù)機(jī)器人對人類社會(huì)的影響也日趨深入,產(chǎn)生的各種問題紛至沓來,對人類主體性威脅的恐慌、對隱私泄露的擔(dān)憂等,使得服務(wù)機(jī)器人的人工智能倫理風(fēng)險(xiǎn)熱議不斷。以歐盟為代表的國家、經(jīng)濟(jì)體與國際組織紛紛制定出臺(tái)人工智能倫理風(fēng)險(xiǎn)相關(guān)的政策法律、標(biāo)準(zhǔn)規(guī)范,力圖通過倫理規(guī)制確保人工智能的健康發(fā)展,為人工智能的未來應(yīng)用掃清障礙。2018年10月,習(xí)近平總書記在中央政治局集體學(xué)習(xí)中強(qiáng)調(diào),要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,維護(hù)人民利益和國家安全,確保人工智能安全、可靠、可控。要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德。探討服務(wù)機(jī)器人的人工智能倫理風(fēng)險(xiǎn)點(diǎn),并采用合適的評價(jià)方法對其風(fēng)險(xiǎn)大小進(jìn)行評估,是亟待解決的問題。
本文聚焦服務(wù)機(jī)器人這一人工智能的重要應(yīng)用領(lǐng)域,通過識別服務(wù)機(jī)器人領(lǐng)域的人工智能倫理風(fēng)險(xiǎn)、分析風(fēng)險(xiǎn)源,梳理風(fēng)險(xiǎn)評價(jià)方法,并構(gòu)建一套通用的人工智能倫理風(fēng)險(xiǎn)評估方法。此外,本文將該評估方法落實(shí)到實(shí)踐中,對服務(wù)機(jī)器人領(lǐng)域的五大人工智能倫理風(fēng)險(xiǎn)及其風(fēng)險(xiǎn)源進(jìn)行評價(jià),驗(yàn)證了該方法的可操作性。
服務(wù)機(jī)器人是人工智能技術(shù)的重要應(yīng)用領(lǐng)域,指半自主或全自主工作的機(jī)器人能完成有益于人類的、便利人類生活的服務(wù)工作[1]。服務(wù)機(jī)器人的應(yīng)用場景極其廣泛,既包括以供人觀賞、娛樂為目的的娛樂機(jī)器人,如唱歌機(jī)器人、足球機(jī)器人;又包括用于在家庭生活中承擔(dān)家庭事務(wù)工作的家庭服務(wù)機(jī)器人,如烹飪機(jī)器人、護(hù)理機(jī)器人等;還包括在特定場所應(yīng)用的專業(yè)服務(wù)機(jī)器人,如醫(yī)療機(jī)器人、導(dǎo)游機(jī)器人等[2]。
風(fēng)險(xiǎn)評估是風(fēng)險(xiǎn)管理過程的一部分,旨在為有效的風(fēng)險(xiǎn)應(yīng)對提供基于證據(jù)的信息和分析。風(fēng)險(xiǎn)評估主要包括風(fēng)險(xiǎn)識別、風(fēng)險(xiǎn)分析和風(fēng)險(xiǎn)評價(jià)三個(gè)步驟。風(fēng)險(xiǎn)識別是發(fā)現(xiàn)、列舉和描述風(fēng)險(xiǎn)要素的過程;風(fēng)險(xiǎn)分析是明確風(fēng)險(xiǎn)產(chǎn)生的原因、引發(fā)的正面和負(fù)面影響以及發(fā)生的可能性,主要目標(biāo)是確定風(fēng)險(xiǎn)等級。風(fēng)險(xiǎn)評價(jià)是將風(fēng)險(xiǎn)分析的結(jié)果與預(yù)先設(shè)定的應(yīng)對準(zhǔn)則相比較,對未來的行動(dòng)進(jìn)行決策,包括確定某個(gè)風(fēng)險(xiǎn)是否需要應(yīng)對、風(fēng)險(xiǎn)的應(yīng)對優(yōu)先次序以及應(yīng)該采取哪種應(yīng)對措施。人工智能倫理風(fēng)險(xiǎn)評估是對人工智能在應(yīng)用過程中可能產(chǎn)生的倫理風(fēng)險(xiǎn)的可能性大小、后果嚴(yán)重性輕重進(jìn)行量化分析的過程。
隨著人工智能技術(shù)在服務(wù)機(jī)器人領(lǐng)域的落地應(yīng)用,一些由這種新技術(shù)引發(fā)的倫理挑戰(zhàn)也隨之而來,包括隱私保護(hù)、算法歧視、就業(yè)替代和責(zé)任分擔(dān)等一系列風(fēng)險(xiǎn)和問題。例如,醫(yī)療機(jī)器人領(lǐng)域算法偏見對患者安全造成的潛在風(fēng)險(xiǎn),家庭機(jī)器人的 “不受控”給家庭成員帶來的安全威脅,服務(wù)機(jī)器人訓(xùn)練和使用過程中涉及的用戶隱私數(shù)據(jù)泄露風(fēng)險(xiǎn),公眾對服務(wù)機(jī)器人的接受性,事故發(fā)生后責(zé)任難以界定的風(fēng)險(xiǎn),技術(shù)濫用和倫理審查缺乏導(dǎo)致的潛在風(fēng)險(xiǎn)等。
荷蘭學(xué)者魯亞科斯等[3]認(rèn)為,仿生陪護(hù)機(jī)器人會(huì)破壞社會(huì)尤其是兒童的發(fā)展,人們甚至不愿意去培養(yǎng)和維護(hù)長期的關(guān)系,社交能力退化。美國學(xué)者福特[4]認(rèn)為,由于絕大多數(shù)工人都來自服務(wù)業(yè)和零售業(yè),智能服務(wù)機(jī)器人的應(yīng)用將對這些行業(yè)造成破壞,導(dǎo)致大量工人失業(yè),加劇社會(huì)不公。對于自閉癥兒童而言,使用陪護(hù)機(jī)器人極易導(dǎo)致情感依賴問題,物理輔助機(jī)器人則容易侵犯使用者隱私[5]。趙志耘等[6]將人工智能倫理風(fēng)險(xiǎn)劃分為人類決策自主受控、侵犯隱私、偏見和歧視加劇、安全責(zé)任劃歸困難與失當(dāng)、破壞公平、生態(tài)失衡六大類風(fēng)險(xiǎn),并認(rèn)為人工智能倫理風(fēng)險(xiǎn)源于技術(shù)-人-社會(huì)-自然之間的復(fù)雜交互,主要包括技術(shù)內(nèi)生型倫理風(fēng)險(xiǎn)和技術(shù)應(yīng)用型倫理風(fēng)險(xiǎn)兩大生成路徑。本文基于這種認(rèn)知,將服務(wù)機(jī)器人領(lǐng)域的人工智能倫理風(fēng)險(xiǎn)梳理整理,歸類為五大倫理風(fēng)險(xiǎn),即決策自主受控風(fēng)險(xiǎn)、隱私侵犯風(fēng)險(xiǎn)、偏見或歧視風(fēng)險(xiǎn)、破壞公平風(fēng)險(xiǎn)、責(zé)任歸屬不清或失當(dāng)風(fēng)險(xiǎn) (責(zé)任歸屬不確定風(fēng)險(xiǎn))。通過前人的研究梳理與場景分析,對服務(wù)機(jī)器人領(lǐng)域的五大人工智能倫理風(fēng)險(xiǎn)做了論述。
縱觀前人研究,盡管已有不少學(xué)者論述了人工智能倫理風(fēng)險(xiǎn) “是什么” “有哪些”等問題,但對倫理風(fēng)險(xiǎn)進(jìn)行評估,指出不同風(fēng)險(xiǎn)的 “輕重緩急”,尤其對人工智能某個(gè)重要應(yīng)用領(lǐng)域進(jìn)行倫理風(fēng)險(xiǎn)評估的研究較為缺失。本文基于場景分析的思維,對服務(wù)機(jī)器人這一人工智能重要應(yīng)用領(lǐng)域展開倫理風(fēng)險(xiǎn)的識別與評估,以期彌補(bǔ)該領(lǐng)域研究的空白,為人工智能技術(shù)的應(yīng)用發(fā)展,尤其是在服務(wù)機(jī)器人領(lǐng)域的應(yīng)用發(fā)展提供參考。
人工智能倫理風(fēng)險(xiǎn)的實(shí)質(zhì)是人與機(jī)器、人與人以及人與自然之間的控制失衡[6]。由于服務(wù)機(jī)器人的應(yīng)用產(chǎn)生了與人類界限模糊、被機(jī)器監(jiān)控、用戶失去對個(gè)人數(shù)據(jù)的控制權(quán)以及傷害人類安全等問題[7],也可能沉浸在對機(jī)器人的 “被動(dòng)”或 “依賴”中,從而造成主觀能動(dòng)性的匱乏[8],對個(gè)人隱私、社會(huì)公平、安全可控、負(fù)責(zé)任等倫理價(jià)值產(chǎn)生沖擊。因此,該領(lǐng)域主要包含決策自主受控、隱私侵犯、偏見和歧視加劇、破壞公平以及責(zé)任歸屬不清這五類倫理風(fēng)險(xiǎn)。
1.2.1 決策自主受控風(fēng)險(xiǎn)
人類一旦接受并開始使用服務(wù)機(jī)器人,就難以避免對服務(wù)機(jī)器人產(chǎn)生依賴,且隨著服務(wù)機(jī)器人智能化水平的不斷提升,人類對其的依賴性也會(huì)不斷增強(qiáng)。機(jī)器人的道德判斷可能決定人類的利益是否受到保護(hù),甚至?xí)Q定人類的生死[9]。服務(wù)機(jī)器人可能造成社交活動(dòng)量的減少、家庭關(guān)系的不穩(wěn)定,侵犯被服務(wù)者的人身自由,甚至身心健康受損[10]。人類不能長時(shí)間與機(jī)器人在一起,脫離人際交往而單獨(dú)與機(jī)器在一起會(huì)產(chǎn)生各種各樣的問題,包括依賴機(jī)器人、失去自我的主動(dòng)性等[11]。此外,服務(wù)機(jī)器人也存在安全隱患,例如手術(shù)機(jī)器人突然出現(xiàn)手臂關(guān)節(jié)螺栓松動(dòng)、突然停電導(dǎo)致機(jī)器人操作系統(tǒng)自動(dòng)復(fù)位等,都會(huì)對患者直接造成意想不到的傷害[11-12]。
服務(wù)機(jī)器人的自主問題主要發(fā)生在三個(gè)情境中,一是出現(xiàn)危險(xiǎn)或故障之前,二是出現(xiàn)危險(xiǎn)或故障時(shí),三是正常使用 (無危險(xiǎn)或故障出現(xiàn)時(shí))。第一種情境是出現(xiàn)危險(xiǎn)或故障之前,如果服務(wù)機(jī)器人系統(tǒng)聯(lián)網(wǎng),則存在被黑客攻擊的危險(xiǎn),包括可能被黑客控制機(jī)器人進(jìn)行有危險(xiǎn)性的活動(dòng);如果沒有聯(lián)網(wǎng),則服務(wù)機(jī)器人無法及時(shí)更新操作系統(tǒng),也無法與其他智能家居等智能化設(shè)備進(jìn)行交互,從而導(dǎo)致服務(wù)效果不盡如人意。第二種情境是出現(xiàn)危險(xiǎn)或故障時(shí),此時(shí)服務(wù)機(jī)器人系統(tǒng)理應(yīng)將控制權(quán)交給人類用戶,甚至由人類用戶終止其使用狀態(tài),但服務(wù)機(jī)器人危險(xiǎn)或故障出現(xiàn)情況的界線難以判斷,且移交控制權(quán)的過程中服務(wù)是立刻終止或者緩慢停止 (如服務(wù)機(jī)器人在炒菜過程中火候沒能控制好導(dǎo)致出現(xiàn)火災(zāi)可能,此時(shí)機(jī)器人是直接停止工作,抑或是一邊暫停炒菜一邊采取其他措施避免火災(zāi)發(fā)生)?這些判斷的問題是交由政府決定,還是服務(wù)機(jī)器人的生產(chǎn)廠商決定,抑或直接由使用者決定?使用者是否具備判斷的能力?第三種情境是正常使用時(shí),假設(shè)為了避免糖尿病潛在人群患上糖尿病或者病狀加重,服務(wù)機(jī)器人拒絕了人類用戶想要吃西瓜的要求,但用戶確實(shí)是非常想吃甜品,而且一定的甜品危害不深,或者用戶愿意承擔(dān)病情加重的后果,此時(shí)就出現(xiàn)了人類用戶 “想做卻無法做的事情”,違背了人類用戶的意愿,即其決策自主性受控。
1.2.2 隱私侵犯風(fēng)險(xiǎn)
服務(wù)機(jī)器人的智能決策依賴于大數(shù)據(jù)的分析應(yīng)用,難免會(huì)帶來隱私困擾。為了更好的服務(wù)體驗(yàn),應(yīng)當(dāng)鼓勵(lì)開發(fā)者之間共享相關(guān)數(shù)據(jù),但為了保護(hù)版權(quán)、商業(yè)機(jī)密,這種共享又需要予以限制。同時(shí),為了提升服務(wù)體驗(yàn),必不可少需要與人類用戶產(chǎn)生交互,并獲得用戶的相關(guān)數(shù)據(jù),但為了保護(hù)用戶隱私權(quán)又應(yīng)盡可能減少用戶信息的搜集,這就使得隱私問題成為一個(gè)牽涉其他敏感問題的復(fù)雜問題。仍以醫(yī)療服務(wù)機(jī)器人為例,隨著信息技術(shù)的發(fā)展,遠(yuǎn)程診療、智能陪護(hù)等涉及的患者信息往往以電子病歷或醫(yī)療信息系統(tǒng)方式存儲(chǔ)在云端,使得安全確保個(gè)人隱私變得越來越困難——不僅存在黑客入侵盜取信息的可能,還存在醫(yī)療機(jī)器人未經(jīng)患者同意讀取患者與診療無關(guān)的生活信息的可能 (例如,醫(yī)護(hù)機(jī)器人在照顧患者的過程中難以避免接觸其生活信息,而患者可能并不知情甚至并未授權(quán))。這些隱私信息的被侵犯可能導(dǎo)致一些嚴(yán)重后果,例如,醫(yī)療從業(yè)者可能在獲取患者信息的情況下針對性推銷醫(yī)療器材,報(bào)銷從業(yè)者也可以針對性提升保險(xiǎn)費(fèi)用,企業(yè)可以將醫(yī)療檔案作為是否聘用員工的重要參考,既往病史的泄露還可能損害患者的尊嚴(yán)。如何在確保用戶隱私保護(hù)和相關(guān)數(shù)據(jù)共享之間達(dá)到最佳平衡,將是服務(wù)機(jī)器人發(fā)展所要面臨的巨大倫理挑戰(zhàn)。
1.2.3 偏見或歧視風(fēng)險(xiǎn)
由于機(jī)器人的訓(xùn)練數(shù)據(jù)標(biāo)注、算法的設(shè)計(jì)等來自人類個(gè)體,這些個(gè)體自身帶有的偏見歧視可能會(huì)被所訓(xùn)練的服務(wù)機(jī)器人 “繼承”,使得服務(wù)機(jī)器人難以做到客觀中立。推薦引擎通過調(diào)查用戶的各項(xiàng)特質(zhì)推出最適合的廣告、換取更高的點(diǎn)擊率,這種推薦本身即含有偏見歧視。例如,男性和女性會(huì)在網(wǎng)上看到不一樣的招聘廣告——卡內(nèi)基·梅隆大學(xué)的研究顯示[13],谷歌的高薪職位推薦重男輕女。齊琳琿[14]根據(jù)新聞寫作機(jī)器人ZXM關(guān)于2018年溫網(wǎng)公開賽的報(bào)道進(jìn)行內(nèi)容分析,發(fā)現(xiàn)關(guān)于男選手的圖片數(shù)量明顯多于女選手,且圖片類型分布上存在明顯的性別差異,說明該機(jī)器人存在性別偏見,而此類偏見會(huì)對社會(huì)產(chǎn)生潛移默化的影響。
1.2.4 破壞公平風(fēng)險(xiǎn)
與人工智能在其他領(lǐng)域的應(yīng)用一樣,服務(wù)機(jī)器人也會(huì)涉及公平問題,且由于服務(wù)機(jī)器人應(yīng)用非常廣泛,理論上可以對幾乎任何社會(huì)領(lǐng)域產(chǎn)生影響,因此涉及的公平問題非同小可,可能會(huì)導(dǎo)致社會(huì)出現(xiàn)系統(tǒng)性分配不公,從而阻礙共同富裕的實(shí)現(xiàn)。人類個(gè)體的學(xué)習(xí)與思考能力與人工智能技術(shù)相比有一定的局限性,人工智能技術(shù)在服務(wù)機(jī)器人領(lǐng)域的應(yīng)用將大大提升效率、精度,大幅壓縮成本,從而逐步替代越來越多的服務(wù)業(yè)工作者。在醫(yī)療領(lǐng)域,醫(yī)療服務(wù)機(jī)器人對患者信息具有更加科學(xué)體系化的判斷,從而降低診療的錯(cuò)誤率,這種顯著優(yōu)勢促使醫(yī)療機(jī)器人逐步取代醫(yī)療人員的工作。但同時(shí),服務(wù)機(jī)器人畢竟不是人類,缺乏人類的情感與同理心,在醫(yī)療診斷等敏感領(lǐng)域的服務(wù)過程中,可能會(huì)因不能設(shè)身處地為患者著想、缺乏同情心等造成醫(yī)患矛盾,有礙社會(huì)和諧穩(wěn)定。此外,由于我國地區(qū)之間發(fā)展的不平衡不充分依然存在,醫(yī)療機(jī)器人等服務(wù)機(jī)器人資源的不公平使用及獲得相關(guān)信息技術(shù)的方法不平衡,可能會(huì)加劇地區(qū)之間的發(fā)展鴻溝,從而加深不公平。
1.2.5 責(zé)任歸屬不確定風(fēng)險(xiǎn)
服務(wù)機(jī)器人的事故規(guī)則問題也是輿論的熱點(diǎn)之一,不僅涉及復(fù)雜的技術(shù)認(rèn)定問題,也涉及倫理、法律對于服務(wù)機(jī)器人主體地位認(rèn)定的爭議。從服務(wù)機(jī)器人的使用過程來看,人類意愿是服務(wù)機(jī)器人使用的目的,而服務(wù)機(jī)器人本身是一種方法,但隨著人工智能技術(shù)的快速發(fā)展,服務(wù)業(yè)工作者,尤其是單調(diào)勞動(dòng)者將在相當(dāng)大的程度上被服務(wù)機(jī)器人取代,從而失去作為參與者的影響。在這種情況下,幾乎完全由服務(wù)機(jī)器人完成的行為應(yīng)當(dāng)規(guī)則于誰成為重要問題。更進(jìn)一步,服務(wù)機(jī)器人有時(shí)甚至需要做出社會(huì)道德選擇,例如康復(fù)機(jī)器人在康復(fù)護(hù)理過程中間接對患者造成欺騙性、虛幻性消極影響時(shí),是否應(yīng)訴諸康復(fù)機(jī)器人承擔(dān)責(zé)任?當(dāng)服務(wù)機(jī)器人出現(xiàn)故障,究竟是使用前就存在潛在設(shè)計(jì)漏洞或制造問題,還是用戶使用時(shí)操作不當(dāng)、訓(xùn)練不足?其責(zé)任認(rèn)定到底由誰來承擔(dān)[11]?可見,如何規(guī)避和厘清此類責(zé)任的倫理風(fēng)險(xiǎn)是服務(wù)機(jī)器人在責(zé)任設(shè)計(jì)中的重要環(huán)節(jié)。
隨著生活水平提升,人們對服務(wù)行業(yè)的個(gè)性化、極致化需求會(huì)越來越多。服務(wù)機(jī)器人將從最基本的替代人類的服務(wù)性勞動(dòng),發(fā)展為可以替代情感性交流,為人類提供更貼心的情感寄托。也正因此,服務(wù)機(jī)器人將越來越多地融入人類生活的物質(zhì)和精神世界,人類或?qū)⒂幸庾R無意識地從機(jī)器人那里聽取更多的建議。從護(hù)幼到助老、從醫(yī)療輔助到康養(yǎng)服務(wù)、從家務(wù)輔助到管家服務(wù),機(jī)器人將越來越多地介入人們的日常,會(huì)時(shí)刻發(fā)生人與機(jī)器人之間的決策控制問題。隨著服務(wù)機(jī)器人的智能化水平提升,人類決策自主受控的可能性會(huì)越來越大、程度越來越深。與之相伴的服務(wù)失誤、失敗責(zé)任問題,偏見歧視與破壞公平問題也會(huì)偶爾出現(xiàn)。與所有人工智能產(chǎn)品或服務(wù)一樣,服務(wù)機(jī)器人智能決策系統(tǒng)所使用的訓(xùn)練數(shù)據(jù)或自動(dòng)收集的數(shù)據(jù)面臨著較大的隱私侵犯風(fēng)險(xiǎn)。做出決策所依賴的算法,是決策自主受控、加劇偏見歧視的重要風(fēng)險(xiǎn)源;無論是訓(xùn)練還是服務(wù)機(jī)器人使用過程中收集的數(shù)據(jù),都存在數(shù)據(jù)泄露的可能,與隱私侵犯最為相關(guān)。服務(wù)機(jī)器人的部署使用不僅將替代服務(wù)工作者,也將挑戰(zhàn)現(xiàn)有的制度規(guī)范,帶來社會(huì)面的公平及責(zé)任問題。
具體來看,由于服務(wù)機(jī)器人的開發(fā)與應(yīng)用推廣過程涉及面較廣,在分析其倫理風(fēng)險(xiǎn)生成機(jī)制,即尋找其倫理風(fēng)險(xiǎn)點(diǎn)時(shí),需要對其從數(shù)據(jù)搜集、算法設(shè)計(jì)到產(chǎn)品開發(fā)與應(yīng)用落地的全過程進(jìn)行環(huán)節(jié)分析,以期更為全面地評估風(fēng)險(xiǎn)的 “輕重緩急”。
決策自主受控風(fēng)險(xiǎn)可能由數(shù)據(jù)處理、算法開發(fā)、產(chǎn)品開發(fā)、部署使用、制度規(guī)范等風(fēng)險(xiǎn)源引起,例如,機(jī)器人未經(jīng)用戶同意自主采集用戶信息,或機(jī)器人數(shù)據(jù)被黑客竊取、控制;機(jī)器人的算法開發(fā)過程中沒有設(shè)置自主決策選項(xiàng)或程序;機(jī)器人的產(chǎn)品開發(fā)過程中沒有設(shè)置自主決策選項(xiàng)或按鈕;醫(yī)院等服務(wù)機(jī)構(gòu)強(qiáng)行為用戶選擇機(jī)器人的服務(wù),或者要求配合人工服務(wù)方案共同使用;在制度規(guī)范中缺乏詳細(xì)的避免機(jī)器人脫離人類控制的條款或細(xì)則等。
隱私侵犯風(fēng)險(xiǎn)可能由數(shù)據(jù)處理、算法開發(fā)、產(chǎn)品開發(fā)、部署使用、制度規(guī)范等風(fēng)險(xiǎn)源引起,例如,服務(wù)機(jī)器人模型訓(xùn)練需要收集大量數(shù)據(jù);服務(wù)機(jī)器人算法開發(fā)企業(yè)沒有設(shè)立數(shù)據(jù)安全審查機(jī)制;服務(wù)機(jī)器人系統(tǒng)數(shù)據(jù)安全性能不足,機(jī)器人信息安全威脅分析及防護(hù)體系架構(gòu)不完備;服務(wù)機(jī)器人運(yùn)營過程中收集用戶的表情、動(dòng)作和狀態(tài)等生物特征信息,以及個(gè)人和企業(yè)用戶的行程、地址等信息;服務(wù)機(jī)器人數(shù)據(jù)安全頂層設(shè)計(jì)、監(jiān)管體系、標(biāo)準(zhǔn)法規(guī)等不完善等。
偏見歧視風(fēng)險(xiǎn)可能由數(shù)據(jù)處理、算法開發(fā)、產(chǎn)品開發(fā)、部署使用、制度規(guī)范等風(fēng)險(xiǎn)源引起,例如,服務(wù)機(jī)器人訓(xùn)練數(shù)據(jù)存在偏見;服務(wù)機(jī)器人算法開發(fā)中植入偏見,缺乏倫理審核;服務(wù)機(jī)器人在功能設(shè)計(jì)、人機(jī)交互方式、系統(tǒng)透明性等方面考慮不周,導(dǎo)致偏見歧視;將服務(wù)機(jī)器人用于可能引發(fā)偏見歧視的場合;關(guān)于服務(wù)機(jī)器人數(shù)據(jù)、算法、應(yīng)用中的偏見與歧視相關(guān)標(biāo)準(zhǔn)或監(jiān)管體系不完善等。
破壞公平風(fēng)險(xiǎn)可能由數(shù)據(jù)處理、部署使用、制度規(guī)范等風(fēng)險(xiǎn)源引起,例如,服務(wù)機(jī)器人自主搜集數(shù)據(jù)信息從事有損于患者的活動(dòng);服務(wù)機(jī)器人大規(guī)模使用替代醫(yī)護(hù)、餐飲等服務(wù)業(yè)工作者;有關(guān)服務(wù)業(yè)工作者轉(zhuǎn)崗就業(yè)的培訓(xùn)和就業(yè)保障安排缺乏;現(xiàn)有的壟斷法規(guī)尚未適應(yīng)數(shù)字智能化趨勢,等等。
權(quán)責(zé)歸屬不清或失當(dāng)風(fēng)險(xiǎn)可能由數(shù)據(jù)處理、部署使用、制度規(guī)范等風(fēng)險(xiǎn)源引起,例如,服務(wù)機(jī)器人數(shù)據(jù)來源記錄不清晰;服務(wù)機(jī)器人算法缺乏透明性/可解釋性;服務(wù)機(jī)器人生產(chǎn)過程各環(huán)節(jié)責(zé)任人記錄不清、缺乏可追溯性;服務(wù)機(jī)器人系統(tǒng)使用過程缺乏使用日志或日志記錄不清晰;服務(wù)機(jī)器人責(zé)任相關(guān)的法規(guī)不明確,保險(xiǎn)覆蓋范圍狹窄等。
當(dāng)前,學(xué)術(shù)界與產(chǎn)業(yè)界在進(jìn)行風(fēng)險(xiǎn)評估時(shí),大致可以分為客觀視角和主觀視角兩種類型[15]??陀^視角即 “以數(shù)據(jù)或案例說話”,通過對大量數(shù)據(jù)的搜集、統(tǒng)計(jì)分析,結(jié)合模型構(gòu)建,建立對評價(jià)主體的理解并最終獲得評估結(jié)果,側(cè)重于定量分析。典型的定量分析方法有神經(jīng)網(wǎng)絡(luò)方法、蒙特卡洛模擬分析、聚類分析法、時(shí)序模型、因子分析法、回歸模型等。主觀視角則 “以主觀感知為證”,帶有一定的個(gè)人傾向色彩,但同時(shí)也充分利用個(gè)人的經(jīng)驗(yàn)等隱性知識,即通過主觀認(rèn)知獲得評價(jià)結(jié)果,側(cè)重于定性分析。典型的定性分析方法有邏輯分析法、歷史比較法、因素分析法、德爾斐法。
就人工智能倫理風(fēng)險(xiǎn)的評估而言,實(shí)踐中普遍采用風(fēng)險(xiǎn)矩陣的方式進(jìn)行綜合評估。風(fēng)險(xiǎn)矩陣是風(fēng)險(xiǎn)管理過程中識別風(fēng)險(xiǎn)重要性的一種方法,它能從兩個(gè)維度刻畫特定風(fēng)險(xiǎn) (一般來說是風(fēng)險(xiǎn)發(fā)生的可能性、嚴(yán)重性),進(jìn)而以二維表的方式綜合評估特定風(fēng)險(xiǎn)的等級。例如,新西蘭政府于2020年7月發(fā)布 《算法憲章》,評估人工智能應(yīng)用產(chǎn)生不利風(fēng)險(xiǎn)的可能性、影響規(guī)模和嚴(yán)重性[16]。該評估采用的基本模式是將風(fēng)險(xiǎn)發(fā)生的可能性與算法風(fēng)險(xiǎn)影響相結(jié)合,構(gòu)建風(fēng)險(xiǎn)矩陣,得出風(fēng)險(xiǎn)評級。具體而言,風(fēng)險(xiǎn)發(fā)生的可能性有三個(gè)等級:不太可能、有可能和很可能;嚴(yán)重性程度同樣有三個(gè)等級:不嚴(yán)重、中等嚴(yán)重、嚴(yán)重。風(fēng)險(xiǎn)影響范圍大小的三個(gè)等級分別是 “孤立發(fā)生、影響中等數(shù)量的人、廣泛的影響”。由此,將算法風(fēng)險(xiǎn)劃分為低、中、高三種類型。我國的 《信息安全技術(shù)個(gè)人信息安全影響評估指南》 (GB/T 39335—2020)以安全事件可能性和個(gè)人權(quán)益影響程度兩個(gè)要素進(jìn)行綜合分析,將個(gè)人信息安全事件發(fā)生的可能性分為四級:很高、高、中、低;對個(gè)人權(quán)益的影響程度也劃分為四級:嚴(yán)重、高、中、低。綜合得出個(gè)人信息安全的影響等級。
客觀與主觀兩種視角各有優(yōu)勢又相互補(bǔ)充,本文的方法設(shè)計(jì)綜合考慮兩種視角,運(yùn)用客觀視角進(jìn)行風(fēng)險(xiǎn)發(fā)生的可能性分析,運(yùn)用主觀視角進(jìn)行風(fēng)險(xiǎn)發(fā)生的嚴(yán)重性分析,最后將兩種視角進(jìn)行綜合考量,獲得人工智能倫理風(fēng)險(xiǎn)的最終評價(jià)結(jié)果。
風(fēng)險(xiǎn)的影響因素可以劃分為可能性與嚴(yán)重性兩個(gè)維度[17],服務(wù)機(jī)器人領(lǐng)域的人工智能倫理風(fēng)險(xiǎn)應(yīng)當(dāng)由倫理風(fēng)險(xiǎn)的可能性與倫理風(fēng)險(xiǎn)的嚴(yán)重性兩個(gè)因素共同決定,且二者與整體風(fēng)險(xiǎn)大小均為正比關(guān)系,即風(fēng)險(xiǎn)大小得分=風(fēng)險(xiǎn)發(fā)生的可能性×風(fēng)險(xiǎn)發(fā)生的嚴(yán)重性。
嚴(yán)重性是該風(fēng)險(xiǎn)造成的損失總和,可以劃分為以下四個(gè)等級尺度:①毀滅:造成死亡或主系統(tǒng)故障,需要立刻終止活動(dòng)或操作;②危險(xiǎn):造成嚴(yán)重傷害,需要立刻執(zhí)行正確的操作;③臨界:如果人為錯(cuò)誤、設(shè)計(jì)漏洞、程序漏洞等問題能得到合理控制,那么嚴(yán)重傷害、主系統(tǒng)故障等問題就可以避免,或者只發(fā)生輕微傷害、次系統(tǒng)故障等微小問題;④極?。喝藶殄e(cuò)誤、設(shè)計(jì)漏洞、程序漏洞等問題并沒有導(dǎo)致或只導(dǎo)致微乎其微的傷害及系統(tǒng)故障等問題。
可能性是危害發(fā)生的概率,可以劃分為以下五個(gè)等級尺度:①頻繁發(fā)生:在一個(gè)周期內(nèi)經(jīng)常發(fā)生;②可能發(fā)生:在一個(gè)周期內(nèi)多次發(fā)生;③偶爾發(fā)生:在一個(gè)周期內(nèi)發(fā)生幾次;④少數(shù)發(fā)生:在一個(gè)周期內(nèi)可能發(fā)生,但可能性不大;⑤不太可能:發(fā)生可能性極小,基本不會(huì)發(fā)生。
風(fēng)險(xiǎn)評估的結(jié)果由嚴(yán)重性及可能性數(shù)據(jù)的乘積得出。因此,要計(jì)算風(fēng)險(xiǎn)大小,就要分別對可能性與嚴(yán)重性進(jìn)行評估。在可能性的評估上,對某一風(fēng)險(xiǎn)討論熱度的高低,或者稱輿論熱度,可以代表對該風(fēng)險(xiǎn)的關(guān)注度大小。當(dāng)某一倫理風(fēng)險(xiǎn)頻頻出現(xiàn)在公眾的討論中,則說明對這些事件的關(guān)注程度越高,事件發(fā)生的頻率越高,該倫理風(fēng)險(xiǎn)發(fā)生的可能性越高。同理,對于研究經(jīng)驗(yàn)豐富的學(xué)術(shù)界群體,我們也能夠通過其論文、專利等挖掘其對倫理風(fēng)險(xiǎn)的感知度。討論頻率越高,說明風(fēng)險(xiǎn)的關(guān)注度和發(fā)生可能性越高。我們以知網(wǎng)和Web of Science的檢索數(shù)據(jù)代表專家群體對風(fēng)險(xiǎn)發(fā)生可能性的認(rèn)知,以微博、百度和谷歌這類社交媒體平臺(tái)和資訊平臺(tái)的檢索數(shù)據(jù)代表公眾的風(fēng)險(xiǎn)可能性認(rèn)知。
由于可能性的評估是客觀數(shù)據(jù),而客觀數(shù)據(jù)來源難以做到覆蓋全面,關(guān)鍵詞難以窮盡,因此在嚴(yán)重性的評估上主要考慮專家和公眾的主觀性觀點(diǎn),通過其經(jīng)驗(yàn)積累、日常感受進(jìn)行打分或提出態(tài)度傾向。采取問卷訪談形式,闡述各類倫理風(fēng)險(xiǎn)在各環(huán)節(jié)中的風(fēng)險(xiǎn)點(diǎn)和表現(xiàn)形式,由不同人群 (一般群體、互聯(lián)網(wǎng)及相關(guān)行業(yè)工作者、相關(guān)政府機(jī)關(guān)工作者、專家學(xué)者等)基于過往經(jīng)驗(yàn)及日常認(rèn)知,對這些環(huán)節(jié)可能發(fā)生風(fēng)險(xiǎn)的大小、發(fā)生風(fēng)險(xiǎn)后影響嚴(yán)重性大小進(jìn)行主觀判斷。將五大風(fēng)險(xiǎn) (自主決策受控、隱私侵犯、加劇社會(huì)偏見或歧視、破壞社會(huì)公平、責(zé)任歸屬不清或失當(dāng))依次編號為i=1,2,3,4,5;將五大風(fēng)險(xiǎn)平臺(tái) (Web of Science、微博、百度、谷歌)依次編號為j=1,2,3,4,5;將各大風(fēng)險(xiǎn)對應(yīng)的風(fēng)險(xiǎn)源 (數(shù)據(jù)處理、算法開發(fā)、產(chǎn)品開發(fā)、部署使用、制度規(guī)范)依次編號為h=1,2,3,4,5。各種符號的說明見表1。
表1 符號說明
2.2.1 可能性
可能性由公眾與專家的關(guān)注程度表示,數(shù)據(jù)來源于對微博等輿情平臺(tái)和知網(wǎng)等學(xué)術(shù)平臺(tái)的關(guān)鍵詞檢索統(tǒng)計(jì)。由于各平臺(tái)對于同一倫理風(fēng)險(xiǎn)的討論熱度不同,因而需要給平臺(tái)的檢索結(jié)果賦以權(quán)重,規(guī)定平臺(tái)風(fēng)險(xiǎn)權(quán)重為該平臺(tái)的風(fēng)險(xiǎn)相關(guān)文章或新聞數(shù)量占五大平臺(tái)統(tǒng)計(jì)總數(shù)的比重,其中微博、百度、谷歌數(shù)據(jù)代表公眾可能性認(rèn)知,知網(wǎng)、Web of Science數(shù)據(jù)代表專家可能性認(rèn)知,即:
(1)
同理,界定風(fēng)險(xiǎn)i對應(yīng)的平臺(tái)風(fēng)險(xiǎn)源權(quán)重為該平臺(tái)的風(fēng)險(xiǎn)i對應(yīng)風(fēng)險(xiǎn)源的相關(guān)文章或新聞數(shù)量占五大平臺(tái)統(tǒng)計(jì)總數(shù)的比重,即:
(2)
風(fēng)險(xiǎn)i發(fā)生的可能性為:
(3)
風(fēng)險(xiǎn)i對應(yīng)的風(fēng)險(xiǎn)源h發(fā)生的可能性為:
(4)
2.2.2 嚴(yán)重性
嚴(yán)重性由公眾與專家的主觀評價(jià)表示,數(shù)據(jù)來源于對兩個(gè)不同人群的問卷調(diào)查結(jié)果。根據(jù)被調(diào)研者的排序與評價(jià),得到五大風(fēng)險(xiǎn)嚴(yán)重性平均綜合得分:
各風(fēng)險(xiǎn)的平均綜合得分= (∑頻數(shù)×權(quán)值)/本調(diào)研填寫人次
(5)
其中,權(quán)值由選項(xiàng)被排列的位置決定,若有三個(gè)選項(xiàng)參與排序,則排在第一的權(quán)值為3、第二的權(quán)值為2、第三的權(quán)值為1。例如,一個(gè)風(fēng)險(xiǎn)調(diào)研題被填寫12次,風(fēng)險(xiǎn)A被選中并排在第一位置2次、第二位置4次、第三位置6次,則A的平均綜合得分= (2×3+4×2+6×1)/12=1.67。
圖1所示為服務(wù)人領(lǐng)域人工資能倫理風(fēng)險(xiǎn)的評估過程,結(jié)合對服務(wù)機(jī)器人領(lǐng)域人工智能五大倫理風(fēng)險(xiǎn)的認(rèn)識及其風(fēng)險(xiǎn)源的分析,本文的服務(wù)機(jī)器人領(lǐng)域人工智能倫理風(fēng)險(xiǎn)評估分為倫理風(fēng)險(xiǎn)評價(jià)與風(fēng)險(xiǎn)源評價(jià)兩個(gè)階段進(jìn)行。兩個(gè)階段的方法相通,先分別進(jìn)行可能性與嚴(yán)重性評價(jià),再根據(jù)式 (2)評價(jià)風(fēng)險(xiǎn)大小。其中,可能性評價(jià)涉及的數(shù)據(jù)來自百度、微博、谷歌、知網(wǎng)、Web of Science五個(gè)平臺(tái),分別以 “服務(wù)機(jī)器人倫理風(fēng)險(xiǎn)” “機(jī)器人決策自主”等關(guān)鍵詞 (包含英文以及日文、韓文、法文、德文、俄文等小語種詞匯)進(jìn)行檢索,每個(gè)關(guān)鍵詞在每個(gè)平臺(tái)取前300條檢索結(jié)果 (不足300條的以實(shí)際檢索結(jié)果計(jì)算);嚴(yán)重性評價(jià)涉及的數(shù)據(jù)來自問卷調(diào)研數(shù)據(jù),包括專家有效問卷71份、公眾有效問卷581份。
圖1 服務(wù)機(jī)器人領(lǐng)域人工智能倫理風(fēng)險(xiǎn)評估過程
首先進(jìn)行可能性評價(jià),百度、微博、谷歌數(shù)據(jù)代表 “公眾可能性認(rèn)知”,知網(wǎng)、Web of Science數(shù)據(jù)代表 “專家可能性認(rèn)知”。五大平臺(tái)的權(quán)重分別為21.14%、24.10%、1.48%、45.03%、8.25%,各平臺(tái)的五大風(fēng)險(xiǎn)占比見表2。根據(jù)式 (3)得出五大風(fēng)險(xiǎn)發(fā)生的可能性,見表3。其次進(jìn)行嚴(yán)重性評價(jià),根據(jù)式 (4),并按照專家:公眾=7:3的權(quán)重,得到五大風(fēng)險(xiǎn)嚴(yán)重性綜合得分 (來自問卷統(tǒng)計(jì)結(jié)果),見表4。最后根據(jù)式 (5),得到五大風(fēng)險(xiǎn)大小的最終得分,如圖2所示??梢钥吹?,在服務(wù)機(jī)器人領(lǐng)域的人工智能五大倫理風(fēng)險(xiǎn)中,決策自主受控風(fēng)險(xiǎn)最高,侵犯隱私風(fēng)險(xiǎn)次之,二者得分遙遙領(lǐng)先于其他風(fēng)險(xiǎn)。權(quán)責(zé)歸屬不清或失當(dāng)風(fēng)險(xiǎn)、破壞社會(huì)公平風(fēng)險(xiǎn)分居第三、第四位,加劇社會(huì)偏見或歧視風(fēng)險(xiǎn)最小。
圖2 五大風(fēng)險(xiǎn)的最終得分
表2 各平臺(tái)五大風(fēng)險(xiǎn)占比 單位 (%)
表3 五大風(fēng)險(xiǎn)發(fā)生的可能性
表4 五大風(fēng)險(xiǎn)嚴(yán)重性平均綜合得分
首先進(jìn)行決策自主受控風(fēng)險(xiǎn)的風(fēng)險(xiǎn)源可能性評價(jià),百度、微博、谷歌、知網(wǎng)、Web of Science平臺(tái)的權(quán)重分別為30.77%、13.61%、5.92%、17.75%、31.95%,各平臺(tái)五大風(fēng)險(xiǎn)源的占比見表5。根據(jù)式 (2),得出決策自主受控風(fēng)險(xiǎn)的風(fēng)險(xiǎn)源可能性占比,見表6。其次進(jìn)行嚴(yán)重性評價(jià),根據(jù)式 (4),并按照專家:公眾=7:3的權(quán)重,得出決策自主受控風(fēng)險(xiǎn)的風(fēng)險(xiǎn)源嚴(yán)重性綜合得分 (來自問卷統(tǒng)計(jì)結(jié)果),見表7。最后根據(jù)式 (5),得到五大風(fēng)險(xiǎn)源大小的最終得分,如圖3所示??梢钥吹?,在服務(wù)機(jī)器人領(lǐng)域的決策自主受控風(fēng)險(xiǎn)中,算法開發(fā)最高,部署使用次之,產(chǎn)品開發(fā)再次,三者得分接近,且遙遙領(lǐng)先于其他風(fēng)險(xiǎn)源。外部制度規(guī)范居第四位,數(shù)據(jù)處理風(fēng)險(xiǎn)源最小。同理可得侵犯隱私風(fēng)險(xiǎn)、加劇社會(huì)偏見或歧視風(fēng)險(xiǎn)、破壞社會(huì)公平風(fēng)險(xiǎn)、權(quán)責(zé)歸屬不清或失當(dāng)風(fēng)險(xiǎn)的風(fēng)險(xiǎn)源大小,如圖4所示。
圖3 決策自主受控風(fēng)險(xiǎn)的風(fēng)險(xiǎn)源大小
圖4 風(fēng)險(xiǎn)源大小
表5 決策自主受控風(fēng)險(xiǎn)的風(fēng)險(xiǎn)源在各平臺(tái)占比 單位 (%)
表6 決策自主受控風(fēng)險(xiǎn)的風(fēng)險(xiǎn)源可能性占比
表7 決策自主受控風(fēng)險(xiǎn)的風(fēng)險(xiǎn)源嚴(yán)重性平均綜合得分
從服務(wù)機(jī)器人領(lǐng)域人工智能五大倫理風(fēng)險(xiǎn)來看,無論是風(fēng)險(xiǎn)大小的綜合得分,還是風(fēng)險(xiǎn)發(fā)生的可能性、嚴(yán)重性得分,決策自主受控風(fēng)險(xiǎn)、隱私侵犯風(fēng)險(xiǎn)都位居前兩位。從風(fēng)險(xiǎn)發(fā)生的可能性來看,隱私侵犯風(fēng)險(xiǎn)居第一位,決策自主受控風(fēng)險(xiǎn)居第三位;從風(fēng)險(xiǎn)發(fā)生的嚴(yán)重性來看,決策自主受控風(fēng)險(xiǎn)居第一位,隱私侵犯風(fēng)險(xiǎn)居第二位,且這兩種倫理風(fēng)險(xiǎn)的大眾問卷與專家問卷評價(jià)結(jié)果一致。風(fēng)險(xiǎn)大小居第三位的是權(quán)責(zé)歸屬不清或失當(dāng)風(fēng)險(xiǎn),其風(fēng)險(xiǎn)發(fā)生的嚴(yán)重性排名居第三位 (專家和公眾問卷評價(jià)結(jié)果同樣居第三位),但該風(fēng)險(xiǎn)發(fā)生的可能性居第四位,遠(yuǎn)低于可能性排名第二的破壞社會(huì)公平風(fēng)險(xiǎn) (后者的風(fēng)險(xiǎn)大小排名居第四位)。破壞社會(huì)公平風(fēng)險(xiǎn)與加劇社會(huì)偏見或歧視風(fēng)險(xiǎn)在風(fēng)險(xiǎn)嚴(yán)重性的專家與公眾問卷評價(jià)結(jié)果上稍有差異,前者的大眾問卷排名高于后者,而專家問卷排名低于后者,但大眾問卷和專家問卷的平均綜合得分差距較小 (二者的大眾問卷得分為2.65和3.06,專家問卷得分為2.92和2.51),說明這兩種風(fēng)險(xiǎn)在大眾眼里的區(qū)分度可能并不大,在后續(xù)的宣傳科普中應(yīng)當(dāng)著重予以區(qū)分。
從風(fēng)險(xiǎn)源大小的評價(jià)來看,不同風(fēng)險(xiǎn)的風(fēng)險(xiǎn)源大小排序差別較大。對于決策自主受控風(fēng)險(xiǎn)而言,算法開發(fā)最值得關(guān)注,其次是部署使用 (且二者得分差距很小),再次是產(chǎn)品開發(fā);外部制度規(guī)范和數(shù)據(jù)處理相對沒有那么重要,得分差距與前三名彼此之間的分差相比較大。
對于隱私侵犯風(fēng)險(xiǎn)而言,部署使用最值得關(guān)注 (且可能性和嚴(yán)重性得分均位居第一),其次分別是算法開發(fā)和數(shù)據(jù)處理 (二者分差較小),產(chǎn)品開發(fā)和外部制度規(guī)范相對沒有那么重要。
對于加劇社會(huì)偏見或歧視風(fēng)險(xiǎn)而言,算法開發(fā)最值得關(guān)注且遠(yuǎn)遠(yuǎn)高于其他風(fēng)險(xiǎn)源,其次是外部制度規(guī)范、數(shù)據(jù)處理和部署使用 (且三者得分接近),相對而言最不重要的是產(chǎn)品開發(fā)。值得注意的是,算法開發(fā)的可能性與嚴(yán)重性得分均位居第一位,但部署使用、外部制度規(guī)范、數(shù)據(jù)處理三者的可能性非常接近,外部制度規(guī)范、數(shù)據(jù)處理的嚴(yán)重性綜合得分也非常接近,這也是其風(fēng)險(xiǎn)源大小得分接近的原因。
對于破壞社會(huì)公平風(fēng)險(xiǎn)而言,部署使用遠(yuǎn)高于外部制度規(guī)范。對于權(quán)責(zé)歸屬不清或失當(dāng)風(fēng)險(xiǎn)而言,外部制度規(guī)范最值得關(guān)注 (可能性得分也居第一位,但嚴(yán)重性得分中的大眾問卷得分居第二位),其次是產(chǎn)品開發(fā) (可能性得分居第三位,嚴(yán)重性得分中的大眾問卷得分居第一位,專家問卷得分居第三位),再次分別是部署使用和算法開發(fā),數(shù)據(jù)處理相對最不重要。值得注意的是,部署使用的可能性得分居第二位,遠(yuǎn)高于后兩名;算法開發(fā)的嚴(yán)重性得分居第三位,且與第二位的產(chǎn)品開發(fā)非常接近,其專家問卷評價(jià)結(jié)果甚至居第二位。
本文對服務(wù)機(jī)器人領(lǐng)域的人工智能倫理風(fēng)險(xiǎn)進(jìn)行了較為深入的探討,主要解決了兩個(gè)問題:一是對該領(lǐng)域的人工智能倫理風(fēng)險(xiǎn)及風(fēng)險(xiǎn)源進(jìn)行系統(tǒng)梳理;二是設(shè)計(jì)了一套通用的人工智能倫理風(fēng)險(xiǎn)評估方法,可以概括為風(fēng)險(xiǎn)和風(fēng)險(xiǎn)源大小評價(jià) “兩步走”的評價(jià)思路,并將該方法在服務(wù)機(jī)器人領(lǐng)域進(jìn)行了實(shí)踐。本研究不僅在一定程度上填補(bǔ)了人工智能倫理風(fēng)險(xiǎn)評價(jià)的方法空白,而且在服務(wù)機(jī)器人這一人工智能的重要應(yīng)用領(lǐng)域?qū)⑷斯ぶ悄軅惱盹L(fēng)險(xiǎn)的評價(jià)方法進(jìn)行了實(shí)踐,具有一定的理論和實(shí)踐意義,更重要的是構(gòu)建了一套系統(tǒng)的人工智能倫理風(fēng)險(xiǎn)評估方法,包括風(fēng)險(xiǎn)的識別、輕重緩急的判斷、結(jié)果的分析。
基于本文的研究基礎(chǔ),特別是理論框架與模型基礎(chǔ)、實(shí)踐應(yīng)用基礎(chǔ),下一步可以考慮對服務(wù)機(jī)器人領(lǐng)域的人工智能倫理風(fēng)險(xiǎn)做進(jìn)一步的識別與分析,將該方法的應(yīng)用范圍進(jìn)一步擴(kuò)大,在風(fēng)險(xiǎn)識別環(huán)節(jié)嘗試進(jìn)一步細(xì)化風(fēng)險(xiǎn)類型,完善實(shí)踐數(shù)據(jù),對于結(jié)果分析與政策建議的銜接做進(jìn)一步研究細(xì)化,同時(shí),可以嘗試將該方法應(yīng)用于解決自動(dòng)駕駛、計(jì)算機(jī)視覺等領(lǐng)域的人工智能倫理風(fēng)險(xiǎn)評價(jià),根據(jù)評價(jià)結(jié)果提出可行性政策建議,以助力人工智能技術(shù)與應(yīng)用的健康、可持續(xù)發(fā)展。