[摘 要] 全球人工智能技術(shù)的發(fā)展呈現(xiàn)出寡頭壟斷與層級(jí)分化的格局。開(kāi)發(fā)者的地域、文化、教育背景差異,以及訓(xùn)練數(shù)據(jù)的社會(huì)、文化、政治屬性差異,正在加劇知識(shí)壟斷和倫理壟斷,放大文化偏見(jiàn)和價(jià)值觀沖突。人工智能偏見(jiàn)和沖突的治理需要以大科學(xué)的研究理念,生成倫理與技術(shù)的同步鏈接,以確保技術(shù)與倫理的協(xié)同發(fā)展。倫理治理的內(nèi)在主義進(jìn)路具有哲學(xué)和技術(shù)兩方面的學(xué)理基礎(chǔ):將倫理準(zhǔn)則作為人工智能的邏輯起點(diǎn)而非評(píng)價(jià)標(biāo)準(zhǔn),創(chuàng)造具有道德能動(dòng)性的人工智能,是防范、化解偏見(jiàn)和沖突的有效策略;預(yù)訓(xùn)練-微調(diào)的技術(shù)范式和微調(diào)數(shù)據(jù)集是內(nèi)在主義進(jìn)路的技術(shù)基礎(chǔ)。以本體表示法作為結(jié)構(gòu)化倫理知識(shí)表達(dá)和語(yǔ)義推理的基礎(chǔ),設(shè)計(jì)再微調(diào)的技術(shù)路線(xiàn)和倫理數(shù)據(jù)集對(duì)大模型進(jìn)行倫理智能優(yōu)化,為建構(gòu)人工智能的道德能動(dòng)性提供了方法論和路線(xiàn)圖。以中國(guó)倫理為例的本體知識(shí)表示,論證了人工智能偏見(jiàn)與沖突治理的內(nèi)在主義進(jìn)路何以可能。
[關(guān)鍵詞] 人工智能 倫理 治理 內(nèi)在主義 知識(shí)表示 偏見(jiàn)沖突
[基金項(xiàng)目]
江蘇省社會(huì)科學(xué)基金項(xiàng)目“‘信息繭房’效應(yīng)對(duì)大學(xué)生非倫理行為的影響與對(duì)策研究”(22MLB010);江蘇省社科應(yīng)用研究精品工程課題“AI算法的偏見(jiàn)評(píng)估與治理方法研究”(24SLB-01);江蘇省道德發(fā)展智庫(kù)課題“中國(guó)文化語(yǔ)境下人工智能倫理的知識(shí)表示研究”(20230017);國(guó)家社會(huì)科學(xué)基金重大項(xiàng)目“改革開(kāi)放四十年中國(guó)倫理道德數(shù)據(jù)庫(kù)建設(shè)研究”(18ZDA022)階段性成果,受中央基本科研業(yè)務(wù)費(fèi)支助。
[作者簡(jiǎn)介] 徐進(jìn),東南大學(xué)物理學(xué)院副教授,研究方向:道德哲學(xué)、科技倫理;王玨,東南大學(xué)人文學(xué)院教授,研究方向:組織倫理、實(shí)踐倫理。
①
Ntoutsi E, Fafalios P, Gadiraju U, et al, “Bias in data-driven artificial intelligence systems—An introductory survey”, Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 2020, 10(3), e1356.
盡管人工智能的設(shè)計(jì)和開(kāi)發(fā)應(yīng)以人類(lèi)價(jià)值觀為核心,然而根據(jù)哪種倫理規(guī)范判斷,基于誰(shuí)的利益取舍,都是人工智能決策時(shí)面臨的現(xiàn)實(shí)困境。在政治、經(jīng)濟(jì)、技術(shù)等多重因素的交互作用下,全球人工智能技術(shù)的發(fā)展呈現(xiàn)出寡頭壟斷與層級(jí)分化的格局。開(kāi)發(fā)者的地域、文化、教育背景差異,以及訓(xùn)練數(shù)據(jù)的社會(huì)、文化、政治屬性差異,正在加劇知識(shí)壟斷和倫理壟斷,放大文化偏見(jiàn)和價(jià)值觀沖突,成為人工智能全領(lǐng)域深度應(yīng)用的風(fēng)險(xiǎn)和挑戰(zhàn)。如何防范、化解偏見(jiàn)與沖突,已成為人工智能倫理治理中亟待解決的關(guān)鍵問(wèn)題①。人工智能的技術(shù)演進(jìn)與倫理治理之間呈現(xiàn)出短期相互制衡、長(zhǎng)期相互依賴(lài)的狀態(tài),亟待以大科學(xué)的研究理念,生成倫理與技術(shù)的同步鏈接,實(shí)現(xiàn)技術(shù)與倫理的動(dòng)態(tài)平衡和協(xié)同發(fā)展。
在技術(shù)倫理領(lǐng)域,外在主義(Externalism)認(rèn)為技術(shù)本身是中性的,其道德屬性是由外部使用情境、社會(huì)背景或人類(lèi)意圖所賦予的,而內(nèi)在主義(Internalism)認(rèn)為技術(shù)本身具有內(nèi)在的道德屬性,無(wú)論它被如何使用。就人工智能而言,外在主義主張用倫理規(guī)范監(jiān)督技術(shù)的發(fā)展和應(yīng)用,通過(guò)評(píng)估、約束、糾正人工智能系統(tǒng)的行為后果,確保其符合倫理標(biāo)準(zhǔn),內(nèi)在主義則關(guān)注技術(shù)本身的倫理屬性和道德責(zé)任,認(rèn)為應(yīng)建構(gòu)人工智能的道德能動(dòng)性,而不必依賴(lài)其行為結(jié)果或外部反饋。因此,人工智能倫理治理的外在主義進(jìn)路主要依賴(lài)于法律、倫理、行業(yè)規(guī)約對(duì)人工智能的發(fā)展加以監(jiān)督和約束,而內(nèi)在主義進(jìn)路則是將外在的“監(jiān)督”轉(zhuǎn)變?yōu)閮?nèi)在的“嵌入”,把倫理觀念嵌入到人工智能系統(tǒng)之中,將倫理轉(zhuǎn)化為人工智能系統(tǒng)可以遵循的內(nèi)在邏輯。二者均是人工智能倫理治理的重要路徑,相對(duì)于外在主義,內(nèi)在主義的治理進(jìn)路建立了倫理與技術(shù)的聯(lián)系,具有同步、高效的潛在優(yōu)勢(shì)。
當(dāng)下的人工智能倫理治理實(shí)踐多選擇外在主義的進(jìn)路,通過(guò)制定法律規(guī)約、發(fā)布行業(yè)指南、促進(jìn)跨文化交流等方式,約束和引導(dǎo)開(kāi)發(fā)者以實(shí)現(xiàn)對(duì)偏見(jiàn)和沖突的治理徐繼敏:《生成式人工智能治理原則與法律策略》,《理論與改革》2023年第5期。
王國(guó)豫:《科技倫理治理的三重境界》,《科學(xué)學(xué)研究》2023年第41期。各國(guó)、各機(jī)構(gòu)都試圖通過(guò)法律和行業(yè)規(guī)范加以監(jiān)督和約束,如歐盟的《人工智能倫理指南》、谷歌的AI倫理原則和IEEE的倫理設(shè)計(jì)框架等。然而,開(kāi)發(fā)者的地域、文化、教育背景差異,以及訓(xùn)練數(shù)據(jù)的社會(huì)、文化、政治屬性差異,使得偏見(jiàn)與沖突客觀存在。同時(shí),政治博弈、行業(yè)競(jìng)爭(zhēng)和技術(shù)保護(hù)等,亦成為偏見(jiàn)與沖突主觀存在的現(xiàn)實(shí)因素。受制于上述主、客觀因素,依靠法律規(guī)約、行業(yè)指南的外在主義治理進(jìn)路從決策到執(zhí)行的時(shí)間周期長(zhǎng),難以應(yīng)對(duì)復(fù)雜環(huán)境和不確定因素,也難以匹配新興技術(shù)發(fā)展所需的快速響應(yīng)與敏捷治理Ferrer X., Van Nuenen T., Such J. M., et al. “Bias and discrimination in AI: a cross-disciplinary perspective”, IEEE Technology and Society Magazine, 2021, 40(2), pp.72-80.。因而,部分研究者轉(zhuǎn)而探索倫理治理的內(nèi)在主義進(jìn)路,提出從多學(xué)科和更廣闊的視域聚焦人工智能算法認(rèn)知過(guò)程與認(rèn)知生態(tài)系統(tǒng)段偉文:《深度智能化時(shí)代算法認(rèn)知的倫理與政治審視》,《中國(guó)人民大學(xué)學(xué)報(bào)》2022年第36期。,將人工智能從倫理治理的對(duì)象轉(zhuǎn)化為倫理治理的工具王大洲:《從科技倫理到倫理科技:作為倫理治理工具的人工智能》,大連:全國(guó)“科技倫理:研究、教育、治理”學(xué)術(shù)研討會(huì)(2023年)。,創(chuàng)造具有道德能動(dòng)性的人工智能張正清、黃曉偉:《作為“他者”而承擔(dān)道德責(zé)任的智能機(jī)器——一種人工智能成為道德能動(dòng)者的可能性》,《道德與文明》2018年第4期。
已有的內(nèi)在主義治理進(jìn)路大多選擇道德算法的嵌入,將倫理原則整合到人工智能的算法之中,確保其符合人類(lèi)的倫理規(guī)范廖備水:《論新一代人工智能與邏輯學(xué)的交叉研究》,《中國(guó)社會(huì)科學(xué)》2022年第3期。
張衛(wèi):《人工智能倫理的兩種進(jìn)路及其關(guān)系》,《云南社會(huì)科學(xué)》2021年5月。。然而,這在全球人工智能發(fā)展的寡頭壟斷和層級(jí)分化格局中仍面臨著挑戰(zhàn)。首先,掌握人工智能技術(shù)先發(fā)優(yōu)勢(shì)的一方,在人、數(shù)據(jù)、算法等關(guān)鍵要素上也占據(jù)優(yōu)勢(shì),是偏見(jiàn)和沖突的獲益方,主觀上放棄倫理壟斷的動(dòng)力不足。其次,在計(jì)算機(jī)系統(tǒng)中如何表示倫理,如何識(shí)別偏見(jiàn)和沖突,如何將執(zhí)行倫理原則的過(guò)程轉(zhuǎn)化為計(jì)算機(jī)系統(tǒng)可理解、可執(zhí)行的算法,仍是巨大的挑戰(zhàn)Nath R., Sahu V., “The problem of machine ethics in artificial intelligence”, AI amp; society, 2020, 35, pp.103-111. 。
下文將從內(nèi)在主義進(jìn)路的哲學(xué)基礎(chǔ)展開(kāi)論證,解析偏見(jiàn)和沖突治理的技術(shù)基礎(chǔ),提出倫理治理內(nèi)在主義進(jìn)路的實(shí)踐。通過(guò)構(gòu)造倫理知識(shí)的本體表示框架,將倫理規(guī)范轉(zhuǎn)化為計(jì)算機(jī)可理解、可執(zhí)行的形式化語(yǔ)言,以實(shí)現(xiàn)倫理知識(shí)的語(yǔ)義理解和邏輯推理,為道德能動(dòng)性的建構(gòu)提供基礎(chǔ),探索科技與倫理交叉應(yīng)用的內(nèi)在主義的治理進(jìn)路。
一、內(nèi)在主義進(jìn)路的哲學(xué)基礎(chǔ)
“內(nèi)在主義”是一個(gè)廣泛應(yīng)用于哲學(xué)、倫理學(xué)、心理學(xué)等領(lǐng)域的概念,強(qiáng)調(diào)個(gè)體內(nèi)在的觀念、感受、意愿或信仰對(duì)于其行為和決策的重要性和優(yōu)先性。內(nèi)在主義傾向于認(rèn)為個(gè)體的內(nèi)在狀態(tài)或特性才是其行為的真正動(dòng)機(jī)或根源,而非外部環(huán)境或行為后果。人工智能倫理治理的外在主義進(jìn)路更傾向于評(píng)估技術(shù)的應(yīng)用場(chǎng)景和后果,而非技術(shù)本身;內(nèi)在主義進(jìn)路則強(qiáng)調(diào)在設(shè)計(jì)階段考慮技術(shù)的內(nèi)在道德屬性,避免開(kāi)發(fā)出在本質(zhì)上具有不道德傾向的技術(shù)。從哲學(xué)的角度,內(nèi)在主義進(jìn)路具有道德哲學(xué)和技術(shù)哲學(xué)兩個(gè)方面的學(xué)理基礎(chǔ)。
(一)道德哲學(xué)基礎(chǔ)
在道德哲學(xué)中,內(nèi)在主義常用于區(qū)分以規(guī)則或義務(wù)為主導(dǎo)的道德理論,如康德的道德哲學(xué),與那些以效果或后果為主導(dǎo)的道德理論,如功利主義。前者強(qiáng)調(diào)道德行為應(yīng)出于個(gè)體對(duì)道德法則的內(nèi)在尊重或認(rèn)同,而不是為了追求某種外部的結(jié)果或獎(jiǎng)勵(lì),正如康德道德哲學(xué)提出的“出于義務(wù)而非合于義務(wù)”的觀點(diǎn)。在人工智能領(lǐng)域,基于偏頗數(shù)據(jù)和獎(jiǎng)勵(lì)機(jī)制的強(qiáng)化學(xué)習(xí)算法已經(jīng)暴露出顯著的倫理風(fēng)險(xiǎn):(1)歧視和偏見(jiàn)。表現(xiàn)為基于偏頗的數(shù)據(jù)進(jìn)行訓(xùn)練的人工智能系統(tǒng),對(duì)種族、性別、年齡等特征人群的不公平對(duì)待,并由此作出帶有歧視和偏見(jiàn)的決策
Dastin J., Amazon scraps secret AI recruiting tool that showed bias against women. (2018.10.11)[2024.3.2], https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G.。(2)獎(jiǎng)勵(lì)劫持。表現(xiàn)為人工智能系統(tǒng)通過(guò)“捷徑”或者“作弊”的方式,根據(jù)開(kāi)發(fā)者設(shè)定的規(guī)則實(shí)現(xiàn)利益最大化,但違背倫理和開(kāi)發(fā)者的意圖
OPENAI, Faulty reward functions in the wild(2016.12.21)[2024.3.2], https://openai.com/research/faulty-reward-functions.。在當(dāng)前海量數(shù)據(jù)、不透明算法、復(fù)雜應(yīng)用場(chǎng)景之下,外在主義的治理策略常會(huì)陷入倫理約束與技術(shù)創(chuàng)新兩者難以平衡的困境。
然而,從義務(wù)論的觀念出發(fā)強(qiáng)調(diào)技術(shù)本身的道德性,在倫理學(xué)界取得了廣泛的共識(shí)。艾薩克·阿西莫夫所著的系列小說(shuō)中提出的“機(jī)器人三定律”是人工智能倫理原則的雛形,即“機(jī)器人不得傷害人類(lèi),必須服從人類(lèi)命令,以及保護(hù)自己但不違背前兩條”,之后他又在“三定律”之上提出了“第零定律”,即“機(jī)器人不得傷害人類(lèi)整體,或因不作為使人類(lèi)整體受到傷害”,強(qiáng)調(diào)不僅要考慮人類(lèi)個(gè)體的安全,還要優(yōu)先考慮人類(lèi)整體的利益。斯圖爾特·羅素也從義務(wù)論的角度提出人工智能應(yīng)學(xué)習(xí)和采納人類(lèi)的一切價(jià)值觀
Russell S., Human Compatible: AI and the Problem of Control, New York: Penguin Random House LLC, 2019, pp.55-60.。維貝克提出技術(shù)應(yīng)納入道德共同體,強(qiáng)調(diào)技術(shù)不僅是工具,更是作為社會(huì)的一部分影響并參與道德決策,必須考慮其在道德共同體中的角色和責(zé)任
Verbeek P. P., Moralizing technology: Understanding and Designing the Morality of Things, Chicago: Universityof Chicago press, 2011, pp.54-60.??梢?jiàn),內(nèi)在主義將人工智能視作道德的主體,將道德視作為人工智能的邏輯起點(diǎn)而非評(píng)價(jià)標(biāo)準(zhǔn)。
(二)技術(shù)哲學(xué)基礎(chǔ)
從技術(shù)哲學(xué)的角度,人工智能是否具有道德能動(dòng)性是實(shí)現(xiàn)內(nèi)在主義治理的基礎(chǔ)。弗洛里迪和桑德斯認(rèn)為隨著技術(shù)的發(fā)展,智能機(jī)器將逐漸具備與人類(lèi)相似的道德考量能力Floridi L., Sanders J. W., “On the morality of artificial agents”, Minds and machines, 2004, 14, pp.349-379.。瓦拉赫和艾倫順著技術(shù)發(fā)展的路徑從操作性道德、功能性道德、完全道德三個(gè)層次解析,認(rèn)為技術(shù)發(fā)展最終可以使人工智能具備類(lèi)似人類(lèi)的道德意識(shí)和自我反省能力Wallach W., Allen C., Moral machines: Teaching Robots Right from Wrong[M]. Oxford: Oxford University Press, 2008, pp.25-36.。隨著智能機(jī)器的自主性不斷增強(qiáng),艾倫、摩爾等哲學(xué)家提出人工道德能動(dòng)性的概念A(yù)llen C., Smit I., Wallach W., “Artificial morality: Top-down, bottom-up, and hybrid approaches”, Ethics and information technology, 2005, 7, pp.149-155.
Moor J. H., “The nature, importance, and difficulty of machine ethics.” IEEE intelligent systems, 2006, 21(4), pp.18-21.??刂普撝妇S納認(rèn)為智能系統(tǒng)可以嵌入道德準(zhǔn)則,通過(guò)設(shè)計(jì)和編程可以使人工智能體在執(zhí)行任務(wù)時(shí)遵循人類(lèi)的倫理標(biāo)準(zhǔn),這一思想為后續(xù)的人工智能道德算法設(shè)計(jì)奠定了基礎(chǔ)Wiener N., The Human Use of human Beings: Cybernetics and society, New York: Da Capo press, 1988, pp.125-128.。
盡管人工智能系統(tǒng)是不是真正意義上的康德道德主體還存在爭(zhēng)論Chakraborty A., Bhuyan N., “Can Artificial Intelligence be a Kantian Moral Agent? On Moral Autonomy of AI System”, AI and Ethics, 2024, 4(2), pp.325-331.
閆坤如:《人工智能機(jī)器具有道德主體地位嗎? 》,《自然辯證法研究》2019年第5期。,但機(jī)器學(xué)習(xí)(Machine Learning)技術(shù)使得內(nèi)在主義的倫理治理進(jìn)路在開(kāi)發(fā)負(fù)責(zé)任的人工智能與實(shí)現(xiàn)敏捷治理方面顯示出巨大的潛在優(yōu)勢(shì)?;跀?shù)據(jù)分析和模式識(shí)別的機(jī)器學(xué)習(xí)是人工智能的關(guān)鍵技術(shù)
Jordan M. I., Mitchell T. M., “Machine learning: Trends, perspectives, and prospects.” Science, 2015, 349(6245), pp.255-260.,在哲學(xué)的視角下是經(jīng)驗(yàn)主義和實(shí)證主義的產(chǎn)物。它通過(guò)設(shè)計(jì)算法使人工智能從數(shù)據(jù)中學(xué)習(xí)知識(shí)來(lái)解決問(wèn)題,而無(wú)須人為編寫(xiě)大量指定規(guī)則。這種建構(gòu)知識(shí)的過(guò)程既是人工智能產(chǎn)生偏見(jiàn)與沖突的主因,也為解決這一問(wèn)題的內(nèi)在主義進(jìn)路提供了介入的窗口。
訓(xùn)練(Training)是機(jī)器學(xué)習(xí)的核心步驟,人工智能算法(AI Algorithm)在給定的訓(xùn)練數(shù)據(jù)集(Training Dataset)中提取特征、識(shí)別模式,模擬其對(duì)應(yīng)關(guān)系以作出合理的預(yù)測(cè)或推斷?;诜椒ㄕ摰囊暯欠治觯^訓(xùn)練即是采用概率論的方法來(lái)處理不確定性,其目的是通過(guò)量化管理不確定性,以最大限度地減少模型預(yù)測(cè)結(jié)果與現(xiàn)實(shí)數(shù)據(jù)之間的差異。由此,算法通過(guò)與訓(xùn)練數(shù)據(jù)集的不斷交互,優(yōu)化調(diào)整人工智能模型的結(jié)構(gòu)和參數(shù),從而逐步構(gòu)建出對(duì)數(shù)據(jù)的模擬和預(yù)測(cè)能力,使模型在處理新問(wèn)題時(shí)能夠基于參數(shù)生成與訓(xùn)練數(shù)據(jù)模式一致的預(yù)測(cè)輸出。由此可見(jiàn),存在偏見(jiàn)的訓(xùn)練數(shù)據(jù)集將必然導(dǎo)致人工智能輸出有偏見(jiàn)的內(nèi)容或作出有偏見(jiàn)的決策,帶來(lái)不良的倫理后果。因此,算法和數(shù)據(jù)既是機(jī)器學(xué)習(xí)的核心部分,也是倫理介入的重要環(huán)節(jié)。通過(guò)算法設(shè)計(jì)和數(shù)據(jù)構(gòu)造將倫理知識(shí)形式化并嵌入到人工智能系統(tǒng)中,使其能夠模擬人類(lèi)的道德認(rèn)知過(guò)程,為人工智能偏見(jiàn)與沖突治理的內(nèi)在主義進(jìn)路提供了技術(shù)哲學(xué)的基礎(chǔ)。
二、內(nèi)在主義進(jìn)路的技術(shù)基礎(chǔ)
基于道德哲學(xué)和技術(shù)哲學(xué)的理論框架,內(nèi)在主義倫理治理的實(shí)現(xiàn)仍有賴(lài)于必要的技術(shù)基礎(chǔ)。遷移學(xué)習(xí)(Transfer Learning)為這一技術(shù)基礎(chǔ)的構(gòu)建提供了方法,其核心思想是令模型可以利用先前獲得的知識(shí)解決新場(chǎng)景中的新任務(wù)。早期的機(jī)器學(xué)習(xí)中每個(gè)任務(wù)都經(jīng)過(guò)獨(dú)立訓(xùn)練,模型在一個(gè)任務(wù)中學(xué)到的知識(shí)無(wú)法應(yīng)用到其他任務(wù)上。然而,人類(lèi)能夠?qū)⒁环N情境下學(xué)到的知識(shí)或技能應(yīng)用到新任務(wù)中,實(shí)現(xiàn)知識(shí)和技能的遷移。認(rèn)知心理學(xué)領(lǐng)域關(guān)于知識(shí)的可遷移性和可重用性研究為遷移學(xué)習(xí)提供了概念框架和解決思路,遷移學(xué)習(xí)成為機(jī)器學(xué)習(xí)的一個(gè)重要分支
Iman M., Arabnia H. R., Rasheed K., “A review of deep transfer learning and recent advancements”, Technologies, 2023, 11(2), p.40. 。在語(yǔ)音識(shí)別、圖像識(shí)別、自然語(yǔ)言處理、推薦系統(tǒng)、醫(yī)療診斷等應(yīng)用場(chǎng)景中,遷移學(xué)習(xí)在加速已有模型快速適用新任務(wù)的過(guò)程中顯現(xiàn)出優(yōu)勢(shì)。這意味著人工智能可通過(guò)遷移學(xué)習(xí)將已學(xué)習(xí)的倫理知識(shí)遷移到新場(chǎng)景、新問(wèn)題上,為人工智能道德能動(dòng)性的建構(gòu)提供了技術(shù)基礎(chǔ),包括預(yù)訓(xùn)練-微調(diào)的范式和微調(diào)數(shù)據(jù)集的建構(gòu)兩個(gè)方面。
(一)預(yù)訓(xùn)練-微調(diào)的訓(xùn)練范式
預(yù)訓(xùn)練-微調(diào)(Pre-training and Fine-tuning)的技術(shù)范式始于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的研究,并隨著轉(zhuǎn)換器(Transformer)架構(gòu)的出現(xiàn)而被廣為應(yīng)用
Ding N., Qin Y., Yang G., et al. “Parameter-efficient fine-tuning of large-scale pre-trained language models”, Nature Machine Intelligence, 2023, 5(3), pp.220-235.。預(yù)訓(xùn)練-微調(diào)是通過(guò)在通用數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練來(lái)學(xué)習(xí)通用特征表示,然后通過(guò)微調(diào)適應(yīng)特定任務(wù)的一種高效范式,通常包含兩個(gè)階段:(1)預(yù)訓(xùn)練(Pre-training)階段。模型在大規(guī)模的未標(biāo)記數(shù)據(jù)集上進(jìn)行無(wú)監(jiān)督學(xué)習(xí)。這一階段的訓(xùn)練數(shù)據(jù)集由大量的公共可用的文本數(shù)據(jù)構(gòu)成,如書(shū)籍、網(wǎng)站和其他數(shù)據(jù)資源。模型通過(guò)數(shù)據(jù)統(tǒng)計(jì)來(lái)學(xué)習(xí)一般的模式和關(guān)系,并不記錄具體的信息以保護(hù)數(shù)據(jù)隱私。預(yù)訓(xùn)練階段的目的是利用大量數(shù)據(jù)來(lái)捕獲和學(xué)習(xí)信息的通用特征和知識(shí)表示。(2)微調(diào)(Fine-tuning)階段。經(jīng)過(guò)預(yù)訓(xùn)練的模型將在較小的標(biāo)記數(shù)據(jù)集上進(jìn)行調(diào)整,以?xún)?yōu)化任務(wù)相關(guān)的性能和精度。這一階段的訓(xùn)練數(shù)據(jù)集由小規(guī)模的特定數(shù)據(jù)構(gòu)成,既可以是公開(kāi)的數(shù)據(jù),也可以是專(zhuān)家標(biāo)注或用戶(hù)提供的數(shù)據(jù)。模型通過(guò)數(shù)據(jù)的特定標(biāo)簽或信息來(lái)學(xué)習(xí)特定的模式和關(guān)系,更好地理解和響應(yīng)特定類(lèi)型的目標(biāo)任務(wù)和應(yīng)用場(chǎng)景。
預(yù)訓(xùn)練-微調(diào)的技術(shù)范式為機(jī)器學(xué)習(xí)提供了一種高效的知識(shí)遷移方法,在多個(gè)領(lǐng)域發(fā)展出高性能和高適用的人工智能模型,如用于英文語(yǔ)言理解的BERT模型,用于圖像分類(lèi)的ViT模型,用于自然語(yǔ)言處理的Transformer模型等。同理,預(yù)訓(xùn)練-微調(diào)的技術(shù)范式亦為倫理的介入提供了技術(shù)基礎(chǔ),并具有顯著的應(yīng)用優(yōu)勢(shì):(1)預(yù)訓(xùn)練可以提高模型對(duì)輸入數(shù)據(jù)的理解能力,從而具備基本的智能去理解新的倫理知識(shí);(2)經(jīng)過(guò)預(yù)訓(xùn)練的模型不需要從頭學(xué)習(xí),因而可以在微調(diào)階段更加專(zhuān)注于學(xué)習(xí)特定的倫理知識(shí),減少訓(xùn)練時(shí)間,提升訓(xùn)練效率,優(yōu)化其在未知任務(wù)上的道德決策;(3)微調(diào)過(guò)程可以無(wú)限疊加,任一已有模型均可被視為一個(gè)預(yù)訓(xùn)練的結(jié)果,因而理論上倫理介入具有多級(jí)的技術(shù)窗口。因此,預(yù)訓(xùn)練-微調(diào)的技術(shù)范式為人工智能倫理治理的內(nèi)在主義進(jìn)路提供了可行、高效的技術(shù)路線(xiàn)。
(二)訓(xùn)練數(shù)據(jù)集
訓(xùn)練數(shù)據(jù)集是人工智能的學(xué)習(xí)基礎(chǔ),通過(guò)算法對(duì)數(shù)據(jù)的學(xué)習(xí),模型從數(shù)據(jù)中捕獲并理解潛在的關(guān)系和結(jié)構(gòu)。訓(xùn)練數(shù)據(jù)集的多樣化和代表性,能確保模型足以應(yīng)對(duì)現(xiàn)實(shí)世界的復(fù)雜性和多樣性,在新場(chǎng)景和新任務(wù)中表現(xiàn)更好,即泛化能力增強(qiáng)。訓(xùn)練數(shù)據(jù)集、驗(yàn)證數(shù)據(jù)集與測(cè)試數(shù)據(jù)集三者的聯(lián)合使用,為模型進(jìn)一步優(yōu)化提供了可靠的基準(zhǔn)
Cui M., Zhang D. Y., “Artificial intelligence and computational pathology”, Laboratory Investigation, 2021, 101(4), pp.412-422.。盡管訓(xùn)練數(shù)據(jù)集為人工智能模型提供了學(xué)習(xí)基礎(chǔ)、泛化增強(qiáng)和優(yōu)化基準(zhǔn),但預(yù)訓(xùn)練階段使用的大規(guī)模無(wú)監(jiān)督數(shù)據(jù)同時(shí)帶來(lái)了倫理風(fēng)險(xiǎn):若數(shù)據(jù)集存在偏見(jiàn)或歧視,那么模型也將繼承這些偏見(jiàn)和歧視,在實(shí)際應(yīng)用中導(dǎo)致不公平的結(jié)果。如用于亞馬遜公司簡(jiǎn)歷篩選的AI工具,其訓(xùn)練數(shù)據(jù)中的應(yīng)聘者數(shù)據(jù)以男性居多,這就導(dǎo)致其決策時(shí)產(chǎn)生歧視女性的后果。因此,一個(gè)用于模型訓(xùn)練的倫理數(shù)據(jù)集是建構(gòu)人工智能道德能動(dòng)性的重要基礎(chǔ)。
設(shè)計(jì)倫理數(shù)據(jù)集用于模型的再微調(diào),是建構(gòu)模型道德能動(dòng)性的可行、高效路線(xiàn),也是實(shí)現(xiàn)倫理在場(chǎng)的直接途徑。原因在于:(1)大模型通過(guò)預(yù)訓(xùn)練階段已經(jīng)具備基本智能,為微調(diào)階段加速提升倫理智能提供了基礎(chǔ),且大幅減少了從零開(kāi)始訓(xùn)練所需要的數(shù)據(jù)量和計(jì)算資源;(2)相對(duì)于預(yù)訓(xùn)練階段的大規(guī)模數(shù)據(jù)集,微調(diào)所需的數(shù)據(jù)集規(guī)模要小得多,如圖像領(lǐng)域的ImageNet圖片數(shù)據(jù)集包含約1400萬(wàn)張圖片,而微調(diào)只需要數(shù)萬(wàn)張圖片的特定數(shù)據(jù)集;(3)雖然預(yù)訓(xùn)練的時(shí)長(zhǎng)受制于模型規(guī)模、數(shù)據(jù)量、硬件配置等因素,但根據(jù)OpenAI公布的數(shù)據(jù),擁有1750億個(gè)參數(shù)的大模型GPT-3,在配置了數(shù)千個(gè)高性能GPU的龐大硬件支撐下,其預(yù)訓(xùn)練時(shí)長(zhǎng)約為34天,而微調(diào)的時(shí)間只需幾小時(shí)。因此,使用倫理數(shù)據(jù)集對(duì)大模型進(jìn)行微調(diào)是提升人工智能模型道德推理和倫理決策的有效策略,也為人工智能倫理治理的內(nèi)在主義進(jìn)路提供了技術(shù)基礎(chǔ)。
三、基于本體表示法的倫理知識(shí)表示與倫理治理策略
基于內(nèi)在主義進(jìn)路的哲學(xué)基礎(chǔ)和技術(shù)基礎(chǔ),人工智能道德能動(dòng)性的建構(gòu)成為可能,進(jìn)而有助于推動(dòng)倫理治理內(nèi)在主義進(jìn)路的實(shí)踐。其關(guān)鍵在于建構(gòu)人工智能的道德能動(dòng)性,即需要將倫理規(guī)范轉(zhuǎn)化為計(jì)算機(jī)可理解、可執(zhí)行的形式化語(yǔ)言,以實(shí)現(xiàn)人工智能對(duì)倫理知識(shí)的語(yǔ)義推理和道德決策。以本體表示法作為結(jié)構(gòu)化倫理知識(shí)表達(dá)和語(yǔ)義推理的基礎(chǔ),設(shè)計(jì)再微調(diào)的技術(shù)路線(xiàn)和倫理數(shù)據(jù)集對(duì)大模型進(jìn)行倫理智能優(yōu)化,是一條融合科技與倫理的內(nèi)在主義路徑,為建構(gòu)人工智能的道德能動(dòng)性提供了方法論和路線(xiàn)圖。
(一)基于本體表示法的倫理知識(shí)表示
在人工智能領(lǐng)域,知識(shí)表示(Knowledge Representation)是指用某種形式化語(yǔ)言或數(shù)據(jù)結(jié)構(gòu)來(lái)表示信息和數(shù)據(jù),以便計(jì)算機(jī)系統(tǒng)可以使用這些信息來(lái)解決問(wèn)題,如語(yǔ)義理解、邏輯推理等,是人工智能的核心技術(shù)之一。它可以將現(xiàn)實(shí)世界中的事物、概念、情況和關(guān)系轉(zhuǎn)化為計(jì)算機(jī)系統(tǒng)可以理解和處理的形式,使得道德推理和道德建模得以可能
廖備水:《論新一代人工智能與邏輯學(xué)的交叉研究》,《中國(guó)社會(huì)科學(xué)》2022年第3期。
程海東、胡孝聰、陳凡:《分布式道德機(jī)制:人工智能體道德建模的新策略》,《哲學(xué)分析》2024年第15期。。本體表示法(Ontology Representation)通過(guò)構(gòu)建和利用本體(Ontologies)來(lái)組織和表達(dá)知識(shí),是一種被廣泛應(yīng)用的知識(shí)表示方法
Guarino N., “Formal ontology, conceptual analysis and knowledge representation”, International journal of human-computer studies, 1995, 43(5-6), pp.625-640.?!氨倔w”是為了探討存在的本質(zhì)而發(fā)展出來(lái)的哲學(xué)概念。20世紀(jì)70年代,科學(xué)家們意識(shí)到知識(shí)表示是構(gòu)建強(qiáng)大的人工智能的關(guān)鍵,于是嘗試將這一概念應(yīng)用于計(jì)算機(jī)科學(xué),把“本體”定義為一種形式化的知識(shí)表示,用于明確定義一個(gè)領(lǐng)域的概念及這些概念之間的關(guān)系,從而幫助機(jī)器理解人類(lèi)的知識(shí)。如果“價(jià)值多元本身既是尊重人權(quán)、尊重地區(qū)多樣性的體現(xiàn),對(duì)防止偏見(jiàn)和歧視也能起到一定的牽制作用”羅藝、陳佳星:《生成式人工智能失范性風(fēng)險(xiǎn)的法律因應(yīng)——以凱爾森規(guī)范性理論為視角》,《貴州大學(xué)
學(xué)報(bào)(社會(huì)科學(xué)版)》2023年第5期。,那么針對(duì)偏見(jiàn)與沖突治理的需要和多元倫理知識(shí)的特點(diǎn),在此引入類(lèi)、關(guān)系、函數(shù)、公理、實(shí)例五個(gè)元語(yǔ),構(gòu)建本體知識(shí)表示的框架用于表示倫理知識(shí)。本體知識(shí)表示法具備以下的特點(diǎn)和優(yōu)勢(shì):
首先,本體知識(shí)表示法形式化、結(jié)構(gòu)化的方式,能夠減少語(yǔ)義歧義,有效描述倫理知識(shí)。(1)本體知識(shí)表示法中“類(lèi)”是實(shí)體集合,用E=e1,e2,……,eN表示,其中e是實(shí)體,N是實(shí)體的個(gè)數(shù)。實(shí)體e用向量來(lái)表示,用以描述實(shí)體的性質(zhì),比如:張三(男,南京,東南大學(xué),倫理,……)?!邦?lèi)”用集合來(lái)表示,用以說(shuō)明其包含的實(shí)體,比如:環(huán)境{空氣、土壤、森林、河流……}等?!邦?lèi)”對(duì)于倫理主體、規(guī)范等概念的描述是靈活、可擴(kuò)展的。(2)“關(guān)系”r用向量來(lái)表示,用以描述關(guān)系的具體含義,比如:保護(hù)(保衛(wèi),照管,使其不受害,……)。它與實(shí)體可構(gòu)成一個(gè)三元組eh,r,et,其中eh表示頭實(shí)體,et表示尾實(shí)體,r表示兩者的關(guān)系,即構(gòu)成了實(shí)體間關(guān)系的知識(shí)表示,比如(張三,保護(hù),森林)的知識(shí)表示是“張三保護(hù)森林”,并由此可以推演出“張三保衛(wèi)森林”“張三照管森林”或“張三使森林不受害”等語(yǔ)義。由實(shí)體和關(guān)系構(gòu)成的三元組,可以簡(jiǎn)潔、靈活地表達(dá)豐富的語(yǔ)義信息,支持各類(lèi)復(fù)雜倫理知識(shí)的表示。
其次,本體知識(shí)表示法具有足夠的靈活性與適應(yīng)性,支持?jǐn)?shù)據(jù)集之間的兼容和交互,亦適用于各類(lèi)大模型的優(yōu)化訓(xùn)練與知識(shí)共享。如“函數(shù)”作為一種映射或轉(zhuǎn)換關(guān)系,可作為語(yǔ)義識(shí)別、邏輯推理和策略?xún)?yōu)化的一種算法。比如距離模型中的損失函數(shù)freh,et=eh+r-et被用來(lái)推算在r關(guān)系下兩個(gè)實(shí)體間的語(yǔ)義相關(guān)度,值越小越相關(guān)。所以,損失函數(shù)f保護(hù)張三,森林=張三+保護(hù)-森林可以用來(lái)判斷張三對(duì)森林的保護(hù)程度,函數(shù)值越小則“張三保護(hù)森林”的語(yǔ)義符合程度越高。損失函數(shù)可以用于推導(dǎo)新的知識(shí)或檢驗(yàn)知識(shí)的一致性。函數(shù)在知識(shí)表示中不僅提供了一種表示復(fù)雜概念和關(guān)系的方式,還支持了知識(shí)的計(jì)算、推理功能,是構(gòu)建高效、智能的知識(shí)系統(tǒng)的工具。通過(guò)定義不同的函數(shù)或組合函數(shù),可以靈活地表達(dá)更為復(fù)雜和動(dòng)態(tài)的知識(shí),支持?jǐn)?shù)據(jù)集之間的知識(shí)共享與復(fù)用。
最后,本體知識(shí)表示法能夠保障決策與輸出的正當(dāng)性?xún)?yōu)先于大概率。通過(guò)定義“公理”和設(shè)定“實(shí)例”可以定義最基本的規(guī)則,避免矛盾和錯(cuò)誤的發(fā)生。(1)“公理”是描述類(lèi)、關(guān)系、實(shí)例等元素之間關(guān)系和約束的基本規(guī)則或聲明。通過(guò)公理,可以定義和推導(dǎo)關(guān)于實(shí)體的新信息,比如:“人應(yīng)該保護(hù)環(huán)境”,可推導(dǎo)出“張三應(yīng)該保護(hù)森林”,進(jìn)一步地還可以推導(dǎo)出“李四應(yīng)該保護(hù)空氣”?!肮怼笨梢詸z測(cè)和保證數(shù)據(jù)或邏輯的一致性,不符合“公理”的結(jié)果將被視為錯(cuò)誤或異常予以否定。當(dāng)多個(gè)本體合并或建立關(guān)系時(shí),“公理”亦可協(xié)調(diào)不同本體間的概念和關(guān)系。(2)“實(shí)例”是知識(shí)的具體體現(xiàn),也是進(jìn)行推理和查詢(xún)的基礎(chǔ)。通過(guò)對(duì)“實(shí)例”的分析和處理,可以從本體中獲取有用的信息和知識(shí)。比如:從“張三保護(hù)森林”這個(gè)實(shí)例中,可以獲取到“張三是環(huán)保人士”這一信息,從而賦予實(shí)體“張三”更多的屬性,如張三(男,南京,東南大學(xué),倫理,環(huán)保人士,……)。“公理”為系統(tǒng)提供了概念和邏輯基礎(chǔ),實(shí)例則確保了適用性和實(shí)用性?!肮怼焙汀皩?shí)例”的運(yùn)用可以保障推理系統(tǒng)輸出的邏輯一致性、準(zhǔn)確性和相關(guān)性。通過(guò)這種方式,可以大大提高人工智能系統(tǒng)在各種應(yīng)用中的有效性和可靠性。
可見(jiàn),本體知識(shí)表示法除了能夠明晰、靈活、動(dòng)態(tài)的表示倫理知識(shí),還能夠支持異構(gòu)系統(tǒng)之間倫理知識(shí)的共享、交互和復(fù)用,具有可識(shí)別、可量化、易計(jì)算、易優(yōu)化的優(yōu)勢(shì)。倫理知識(shí)不再是抽象和難以捉摸的概念,而是可以被計(jì)算機(jī)系統(tǒng)以高效、精確的方式處理和應(yīng)用的實(shí)用信息。因此,本體知識(shí)表示法促進(jìn)了模型對(duì)倫理數(shù)據(jù)集中知識(shí)的捕捉,為倫理智能的“再微調(diào)”提供了基礎(chǔ)。
(二)“再微調(diào)”的倫理治理策略
參考現(xiàn)有大模型訓(xùn)練的實(shí)踐,倫理治理重建大模型的時(shí)間成本和經(jīng)濟(jì)代價(jià)極高,需要的文本語(yǔ)料數(shù)據(jù)量巨大。因此,設(shè)計(jì)“再微調(diào)”的技術(shù)路線(xiàn)、建構(gòu)增量型的倫理數(shù)據(jù)集對(duì)大模型進(jìn)行倫理智能的提升,尤其是多元倫理知識(shí)的補(bǔ)齊,可高效實(shí)現(xiàn)對(duì)偏見(jiàn)與沖突的治理。參見(jiàn)圖2。
倫理智能提升涉及理解倫理知識(shí)和解決倫理問(wèn)題兩個(gè)方面,如理解多元文化語(yǔ)境下倫理規(guī)范的語(yǔ)義,減少偏見(jiàn),包括性別、種族和其他社會(huì)經(jīng)濟(jì)因素導(dǎo)致的偏見(jiàn),以及強(qiáng)調(diào)包容、平衡,包括對(duì)偏好差異和價(jià)值沖突的處理。因此,用于上述“再微調(diào)”的增量型倫理數(shù)據(jù)集應(yīng)遵循三個(gè)設(shè)計(jì)原則。一是有效性原則。作為一個(gè)增量型數(shù)據(jù)集,主要的刻畫(huà)對(duì)象是多元文化語(yǔ)境下倫理的獨(dú)特性,因此需有效表達(dá)倫理知識(shí)的多義性與隱含性;在處理倫理問(wèn)題中為尊重差異并形成共識(shí),應(yīng)有效表達(dá)包容、平衡的理念。二是兼容與交互的原則。這一原則具有文化和技術(shù)的雙重意義。文化意義上,不同倫理觀作為世界文明的一部分,在保持獨(dú)特性的同時(shí),亦需兼容并蓄,與人類(lèi)文明一同融合創(chuàng)新,因此數(shù)據(jù)集應(yīng)實(shí)現(xiàn)跨文化的倫理知識(shí)交流;技術(shù)意義上,兼容與交互需要技術(shù)方案具有足夠的靈活性和適應(yīng)性,以及能夠與現(xiàn)有大模型進(jìn)行系統(tǒng)對(duì)接、數(shù)據(jù)交換的能力。三是正當(dāng)性原則。若人工智能讀取的數(shù)據(jù)出現(xiàn)樣本謬誤,將導(dǎo)致其獲取的相對(duì)大概率的倫理知識(shí)不具備正當(dāng)性,因此需要在增量數(shù)據(jù)集中建立一個(gè)修正機(jī)制,或通過(guò)公理設(shè)定或直接賦值的方式對(duì)倫理知識(shí)進(jìn)行強(qiáng)制修正,或通過(guò)專(zhuān)家評(píng)估和參數(shù)調(diào)優(yōu)的方式驅(qū)動(dòng)人工智能自我學(xué)習(xí)。
四、基于倫理知識(shí)表示的治理實(shí)踐
全球不同地區(qū)和社群擁有各自的文化傳統(tǒng)、價(jià)值觀和社會(huì)規(guī)范,對(duì)于隱私、公平和其他倫理問(wèn)題有不同的理解和處理方式,這對(duì)制定全球統(tǒng)一的人工智能倫理治理框架是一個(gè)巨大的挑戰(zhàn)。人工智能內(nèi)在主義進(jìn)路的治理實(shí)踐應(yīng)根植于多元文化語(yǔ)境的倫理智慧之中,以防范、化解偏見(jiàn)和沖突,促成人類(lèi)文明的交融與創(chuàng)新。為此,以中國(guó)文化語(yǔ)境下的倫理知識(shí)表示為例,采用本體知識(shí)表示法作為實(shí)現(xiàn)這一目標(biāo)的工具,設(shè)計(jì)科技與倫理交叉應(yīng)用的實(shí)踐。這一方法論關(guān)注倫理知識(shí)的深度理解與倫理問(wèn)題的有效處理,意在為全球范圍內(nèi)多元文化背景下的偏見(jiàn)與沖突處理提供一種可參考、可操作的實(shí)踐方案。
(一)語(yǔ)義的深度理解與跨文化交流
在自然語(yǔ)言處理(Natural Language Processing)領(lǐng)域,語(yǔ)言的理解和交互通常需要綜合考慮語(yǔ)境和語(yǔ)義。同一個(gè)詞或短語(yǔ)在不同的語(yǔ)境中有著不同的含義,理解這些含義的變化是訓(xùn)練高質(zhì)量人工智能的目標(biāo)。本體表示法的靈活性和動(dòng)態(tài)性,不僅可以敏感地捕捉到不同語(yǔ)境下倫理概念的細(xì)微語(yǔ)義變化,而且能夠在學(xué)習(xí)和交互中不斷地豐富和深化倫理概念的語(yǔ)義,促進(jìn)人工智能對(duì)特定倫理知識(shí)的語(yǔ)境和語(yǔ)義的深度理解與跨文化交流。
中國(guó)文化語(yǔ)境下的倫理知識(shí)在很大程度上源于其深厚的文化傳統(tǒng),往往具有多重語(yǔ)義。比如“仁”的語(yǔ)義可用實(shí)體向量表示為“仁(愛(ài),友善,敬詞,果核……)”,在理解時(shí)還需要結(jié)合具體語(yǔ)境信息來(lái)判斷。由于向量的維度是可擴(kuò)展的,因此通過(guò)人工智能深度學(xué)習(xí)的過(guò)程能夠?qū)@一概念動(dòng)態(tài)地補(bǔ)充和修正。如在“仁人志士”一詞中“仁”指道德高尚的意思,則可擴(kuò)展“仁”的實(shí)體向量為“仁(愛(ài),友善,敬詞,果核,道德高尚的……)”,從而豐富了“仁”的語(yǔ)義,促進(jìn)了人工智能對(duì)這一倫理概念的深度理解。在跨文化的情況下,本體表示法亦能夠?yàn)閭惱碇R(shí)的交流融合提供一個(gè)表示框架。如英語(yǔ)中“Benevolence”與“仁”的意思有相似之處,對(duì)其相似度的判斷是人工智能進(jìn)行語(yǔ)義識(shí)別的依據(jù)。通過(guò)英漢詞典的翻譯可將“Benevolence”的實(shí)體向量表示為Benevolence(仁愛(ài),善行,捐助,厚道……),再運(yùn)用余弦相似度函數(shù)fcose仁,eBenevolence=e仁·eBenevolence‖e仁‖‖eBenevolence‖對(duì)二者的語(yǔ)義相似度進(jìn)行計(jì)算,其結(jié)果將是一個(gè)介于-1和1之間的值,其中 1 表示兩個(gè)詞語(yǔ)義完全相同,-1 表示兩個(gè)詞語(yǔ)義完全相反,0 表示兩個(gè)詞語(yǔ)義沒(méi)有相關(guān)性。通過(guò)向量表示和函數(shù)運(yùn)算,在兩種文化語(yǔ)境的倫理知識(shí)間建立了關(guān)聯(lián),不僅深化了對(duì)語(yǔ)義的理解,其可量化、可計(jì)算的優(yōu)勢(shì)也為倫理知識(shí)跨文化的交流融合提供了基礎(chǔ)。
(二)偏見(jiàn)與沖突治理的道德能動(dòng)性建構(gòu)
中國(guó)文化語(yǔ)境下的倫理思想為人工智能的倫理治理提供了獨(dú)特的價(jià)值導(dǎo)向。人工智能領(lǐng)域知名學(xué)者Stuart Russell教授借鑒中國(guó)春秋戰(zhàn)國(guó)時(shí)代墨子的“兼愛(ài)”思想,認(rèn)為人工智能作出道德決定時(shí)應(yīng)該充分考慮每一方的利益,在人工智能領(lǐng)域引入了中國(guó)文化中包容與平衡的倫理觀。對(duì)包容、平衡進(jìn)行恰當(dāng)?shù)闹R(shí)表示,能夠使人工智能在新情境、新任務(wù)中識(shí)別偏見(jiàn)與沖突,避免不良倫理后果。
包容強(qiáng)調(diào)接納不同的觀點(diǎn),尊重多樣性與差異。正如中國(guó)文化語(yǔ)境下的倫理觀念強(qiáng)調(diào)接納和尊重不同的觀點(diǎn)并加以融合,如儒釋道的合流、馬克思主義中國(guó)化等,均體現(xiàn)出包容的倫理觀,也是中國(guó)文化對(duì)世界的智慧貢獻(xiàn)。用本體知識(shí)表示法表示“包容”,首先賦予觀點(diǎn)i一個(gè)權(quán)重wi,它是一個(gè)描述重要性、存在度、被接納度等屬性的一個(gè)向量;然后定義接納度函數(shù)I=∑Nwi-1/N2,它是一個(gè)平方差函數(shù),當(dāng)所有觀點(diǎn)的權(quán)重wi越接近1/N時(shí)函數(shù)I值越小,表示不同觀點(diǎn)被平等接納的程度越高;最后通過(guò)優(yōu)化降低函數(shù)I的值,從而使人工智能的偏見(jiàn)減少、包容性增強(qiáng),提高決策的公正性。進(jìn)一步地定義和諧函數(shù)H=wi-Avgwi2/N,當(dāng)wi越接近平均值A(chǔ)vgwi,函數(shù)H的值越小,表示和諧度越高,體現(xiàn)了不同觀點(diǎn)協(xié)調(diào)的程度。和諧強(qiáng)調(diào)各種利益、觀點(diǎn)等的協(xié)調(diào)一致,既意味著包容,又注重調(diào)和差異,以達(dá)到一種相互適應(yīng)、相互裨補(bǔ)的狀態(tài)。接納度函數(shù)與和諧函數(shù)的組合使用,可在計(jì)算機(jī)系統(tǒng)中充分體現(xiàn)包容的理念,是消除偏見(jiàn)的有效方式。
平衡在中國(guó)文化語(yǔ)境中強(qiáng)調(diào)和諧共生的理念,注重兼顧各方利益和共同體利益。在對(duì)平衡進(jìn)行知識(shí)表示時(shí),首先定義一個(gè)關(guān)于實(shí)體的利益函數(shù)fei表示實(shí)體ei的利益值,定義bi表示實(shí)體ei的基本利益值;然后定義可優(yōu)化的目標(biāo)函數(shù)B=∑Ni=1fei-biL,表示在限制條件L下,N個(gè)實(shí)體ei的共同利益為B,其值越大表示共同體利益越大,同時(shí)每個(gè)實(shí)體的利益又必須大于基本利益bi,表示在每一實(shí)體的利益都得到保障的前提下去最大化共同體利益B。這一知識(shí)表示能夠使人工智能大模型識(shí)別偏見(jiàn)與沖突,在決策時(shí)充分權(quán)衡各方利益,避免極端狀況導(dǎo)致的倫理風(fēng)險(xiǎn),是防范、化解偏見(jiàn)與沖突的有效方法。
以上,僅以中國(guó)文化語(yǔ)境下的包容、平衡的倫理觀念為例,為建構(gòu)道德能動(dòng)性以防范、化解偏見(jiàn)與沖突提供了一個(gè)實(shí)踐案例。中國(guó)文化語(yǔ)境下倫理的豐富的內(nèi)涵,以及全球多元倫理知識(shí)的表示仍有待深化和擴(kuò)展。
五、結(jié)語(yǔ)
人工智能的技術(shù)演進(jìn)與倫理治理之間短期相互制衡、長(zhǎng)期相互依賴(lài)的狀態(tài),及其快速發(fā)展的不可預(yù)知性亟需建立倫理治理的敏捷響應(yīng)機(jī)制,須以大科學(xué)的研究理念,生成倫理與技術(shù)的同步鏈接,實(shí)現(xiàn)技術(shù)與倫理的動(dòng)態(tài)平衡和協(xié)同發(fā)展?;趦?nèi)在主義進(jìn)路的哲學(xué)基礎(chǔ)和技術(shù)基礎(chǔ),人工智能道德能動(dòng)性的建構(gòu)成為可能。進(jìn)而提出以本體知識(shí)表示法作為結(jié)構(gòu)化倫理知識(shí)表達(dá)和語(yǔ)義推理的基礎(chǔ),設(shè)計(jì)“再微調(diào)”的技術(shù)路線(xiàn)和倫理數(shù)據(jù)集,為建構(gòu)人工智能的道德能動(dòng)性提供了方法論和路線(xiàn)圖,在全球人工智能發(fā)展的寡頭壟斷與層級(jí)分化的格局中,為打破知識(shí)壟斷和倫理壟斷、防范化解偏見(jiàn)與沖突提供了實(shí)踐策略,提供一條科技與倫理交叉融合的治理路徑。
(責(zé)任編輯 萬(wàn) 旭)