• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      IEEE人工智能社會倫理規(guī)范實施機制研究

      2021-09-24 09:54:30黃國彬黃戀陳麗
      情報工程 2021年4期
      關鍵詞:倫理規(guī)范人工智能

      黃國彬 黃戀 陳麗

      北京師范大學政府管理學院 北京 100875

      引言

      人工智能技術在各行業(yè)領域都獲得了研發(fā)與應用的探索[1-4]。隨著其相關實踐力度的加大,為了維護人類利益,使人工智能技術在合乎社會倫理道德的前提下更好地服務人類社會,很多機構(gòu)紛紛建立了其各自的人工智能社會倫理規(guī)范。不同機構(gòu)制定的人工智能社會倫理規(guī)范各有其合理性和現(xiàn)實性,而就其如何具體落實到人類社會,能夠在真正意義上處理人與智能技術的關系則需要建立有效的實施機制。

      針對IEEE 標準協(xié)會 (IEEE Standards Association) 在2019年發(fā)布的自動與智能系統(tǒng)領域倫理規(guī)范設計(Ethically Aligned Design,EAD)進行剖析,并就其可適用于各行業(yè)的實施機制進行研究和提煉,將能夠為不同領域人工智能技術社會倫理規(guī)范的落實提供參考,有助于積極推動人工智能社會倫理規(guī)范發(fā)揮現(xiàn)實作用。

      1 研究現(xiàn)狀

      1.1 國內(nèi)研究現(xiàn)狀

      對CNKI以“人工智能”并“倫理道德”或“社會倫理”為主題詞進行檢索,一共獲得目標文獻共計198篇。從學科分布來看,除自動化技術相關的學科領域外,有關人工智能社會倫理在現(xiàn)實應用方面的研究討論主要集中在法律、商業(yè)、教育三大領域,這些具體問題的提出和應對建議主要基于教學經(jīng)驗與文獻基礎。教育領域以劉斌[5]、雷曉維[6]等人的研究為代表,前者重點探討教育領域的主體在智能化進程中所需要形成的智能教育素養(yǎng),并從主體自身與外部政策、系統(tǒng)和各方職能部門四方面探討如何具體提升該素養(yǎng);后者則主要針對整個教育過程,從評價、管理、保障等方面探討人工智能在該領域的落實方法。商業(yè)領域以張慶龍[7]為代表的學者主要探討在智能財務方面的技術應用所帶來的系列變革,并提出具體實施時應重點考慮隱私安全、數(shù)據(jù)保護與責任劃分問題。而法律領域以羅洪洋等[8]為代表,主要探討了在整個司法過程中,人工智能技術的定位與風險應對。對目標文獻進行分析時發(fā)現(xiàn),國內(nèi)學者們在結(jié)合社會倫理對現(xiàn)實問題作探討時,常著眼于某一行業(yè)領域人工智能技術的融合路徑,基于此,再對技術應用過程中的潛在倫理問題進行挖掘。

      就其中的倫理規(guī)范問題而言,由于國內(nèi)如今權威機構(gòu)出臺的有關人工智能社會倫理規(guī)范的政策標準文本較少,主要集中在生物領域,專門針對國內(nèi)某一政策標準如何實施的研究文章還基本空白,一些學者如李倫等[9]、劉偉等[10]將人工智能社會倫理本身看作研究點,認為社會倫理只是人工智能倫理研究的一部分,社會倫理的實施應落腳到人機關系優(yōu)化上,最終為維護社會穩(wěn)定、公平、正義服務。而如張世龍[11]等學者則在綜合考察科技創(chuàng)新與社會倫理道德間的沖突問題后,提出從信息溝通、教育宣傳、法律、責任、約束等五個方面建立協(xié)調(diào)機制。更有閆坤如等[12]學者針對人工智能的責任倫理、風險倫理等一系列問題提出籠統(tǒng)的解決方案。這類研究從宏觀層面探討了倫理實施路徑,但其主體并未涉及到社會倫理規(guī)范。國內(nèi)學者們關注的話題實則還處于人工智能社會倫理規(guī)范構(gòu)建層面的探討,內(nèi)容方面主要以宏觀政策的方向性建議為主要研究點。如段偉文[13]的研究認為,應該立足人機關系,開展對人工智能的價值校準和倫理調(diào)試。以醫(yī)學領域郭曉斐等[14]的研究為例,其就人工智能在醫(yī)療領域可能面臨的系列法律問題為切入點,認為行業(yè)應聯(lián)合多領域?qū)<夜餐闪⑷斯ぶ悄軅惱砦瘑T會,對智能技術從倫理性和安全性等方面進行評估。這些研究中對于衡量評估指標并未涉及,但已經(jīng)在建設層面有所探討。

      1.2 國外研究現(xiàn)狀

      對web of science以“AI ethics”與“standard”或“principle”為主題詞進行檢索,獲得目標文獻共計209篇,其中,大部分目標文獻都處于人工智能倫理規(guī)范的制定層面。與國內(nèi)存在差異的是,除自動化技術相關領域外,有關人工智能社會倫理在現(xiàn)實應用方面的研究討論的學科分布主要集中在醫(yī)學和法律領域。法律領域中以Choong-Kee[15]為代表的學者,研究某一行業(yè)如汽車行業(yè)中自動駕駛的人工智能法律責任明確問題;而還有以Luetge和Poszler[16]為代表的學者則對某行業(yè)整體已發(fā)布的完整的人工智能社會倫理規(guī)范進行注釋和進一步說明,試圖通過已有的準則規(guī)范來幫助應用主體制定行業(yè)政策。醫(yī)學領域中以Cecilia等[17]為代表的學者主要關注當新的技術手段被引入治療應用時所應遵循的道德規(guī)范,其也探討了在實施過程中相關道德規(guī)范的局限性和挑戰(zhàn);一些學者如Felicia和Amitabha[18]在內(nèi)則重點探討具體的醫(yī)療環(huán)節(jié)如何遵循社會倫理道德規(guī)范對人工智能和人類的職能進行分工。存在一些文獻處于兩領域交叉地帶,如以Jean和Emily[19]為代表的學者就基于人工智能在應用到醫(yī)療衛(wèi)生行業(yè)時所涉及的數(shù)據(jù)治理相關法律責任問題進行了研究。

      可以看出國外學者除了在探討人工智能在不同行業(yè)領域的融合路徑時進一步挖掘其具體落實的問題,也有就某一已發(fā)布的規(guī)范進行實踐層面的探討。然而一般涉及實踐層面時,學者們主要是對現(xiàn)實中出現(xiàn)的問題提出應對建議或作應對經(jīng)驗總結(jié),并未能從已發(fā)布的人工智能社會倫理規(guī)范中挖掘出一套與實際應用相適應的實施機制。如Philip[20]在研究建筑行業(yè)應對人工智能的方法時,就結(jié)合了機器道德指南,首先對問題進行了明確,再從不同主體的角度分別總結(jié)其潛在的具體有效方法,該方法是描述性的,未能形成一套機制;而Luciano和Josh等[21]在Atomium的EISMD計劃中則提出了五項人工智能倫理原則,為了支持該原則的使用,其還有針對地設計了20條具體實施建議,并在國家政府層面對實施主體進行了限定,但該程度依然沒能達到實施機制的地步。因此,目前從各種人工智能社會倫理規(guī)范中挖掘出有效的實施機制將彌補該缺憾,并從現(xiàn)實意義角度推動學界和業(yè)界對規(guī)范的研究和制定。

      2 實施機制

      從時間階段來看,實施機制的內(nèi)容主要可分為準備階段、實施階段、檢驗階段三個模塊。其中,準備階段主要凸顯實施工作開展前所需要的鋪墊,包括從社會文化氛圍角度奠定實施基礎,并提前設計好目標定位;而在實施過程中,工作主要分兩方面開展,一是垂直將人工智能倫理融入項目流程的各個環(huán)節(jié)中,二是對各個環(huán)節(jié)進行監(jiān)督約束。最后,實施情況還需要檢驗,因此在檢驗階段,給出了驗證其社會倫理規(guī)范實施程度的參照標準。

      結(jié)合規(guī)范內(nèi)容來說,IEEE對人工智能所應該遵循的社會倫理規(guī)范進行了描述[22],主要從八個角度對人工智能從創(chuàng)造到使用進行了限制,其內(nèi)容如表1所示。在具體的實施中,IEEE將尊重人權作為貫徹始終的核心立足點,將為人類發(fā)展謀求利益作為實施人工智能社會倫理規(guī)范的目標,將能力作為執(zhí)行社會倫理規(guī)范的必要條件。而為了確保人工智能有關項目在其項目進程中確實落實了社會倫理,主要從數(shù)據(jù)力、有效性、透明度、問責、濫用意識等方面作進一步細化。

      表1 IEEE人工智能社會倫理規(guī)范準則

      2.1 準備階段

      在具體項目中落實人工智能倫理規(guī)范并非一蹴而就的,首先要進行的工作是確保社會能夠?qū)嵤┕ぷ鞯拈_展提供支持,這就要求在現(xiàn)實社會中嵌入人工智能倫理規(guī)范的概念,讓人們有足夠的意識在開展各類人工智能技術相關的工作項目時能秉承社會倫理規(guī)范,并以之為指導工作目標的重要思想。

      2.2.1 實施基礎

      確保社會能夠為具體項目中倫理規(guī)范實施工作的開展提供支持,需要在整個社會營造人工智能社會倫理規(guī)范的文化氛圍,主要分兩步進行[23]。

      (1)向人們介紹關于人工智能社會倫理的新概念

      介紹這一概念的有效方法需要對某一項目上不同工作層次的工作人員提出能力要求。對于基礎層而言,一般要求其能力可提供直接支持,最好是具備開展意識宣傳的能力。對于領導層而言,一般要求其積極推動、參與或負責以倫理為導向的人工智能發(fā)展戰(zhàn)略的末端整合,以便在經(jīng)濟利益與技術為社會帶來的變革之間取得平衡。

      (2)幫助人們在各自的工作環(huán)境中理解人工智能社會倫理

      這要求在項目的不同工作領域中,找到能夠幫助推進人工智能社會倫理規(guī)范的關鍵人物或宣傳者,通過讓這些特定人員戰(zhàn)略性地分散從而擴散信息。

      在沒有明確戰(zhàn)略要求的情況下,可能有些人員在從事人工智能實踐時已經(jīng)自覺踐行了符合其個人道德標準的社會倫理規(guī)范。因此,在項目的創(chuàng)建或進行人力整合時,提升這些人員的話語權是至關重要的。

      2.1.2 目標定位

      要將人工智能社會倫理規(guī)范納入具體項目工作中,需要在工作的指導思想中嵌入相關內(nèi)容,在此基礎上去考慮諸多方面的公眾利益,并以之為倫理規(guī)范的實施目標。具體說來,從宏觀層面來看,在實施過程中應該要解決以下方面的問題[24]。

      (1)確保人工智能規(guī)范能支持、促進國際公認的法律政策。

      涉及人工智能社會倫理的國家政策和法規(guī)應以權利導向為基礎,應該從一定程度上為人權標準提供國際公認的法律框架,既能考慮到技術對個人的影響,又能解決公平和歧視方面的問題。

      (2)發(fā)展人工智能及倫理方面的專業(yè)知識

      促進在技術和其他方面的技能發(fā)展,進一步提高決策者、監(jiān)管者等就這些人工智能技術的各個方面提出明智建議和決策的能力。有效管理人工智能及相關技術需要特定人員來了解并能夠分析技術、政策目標和整體社會價值觀之間的相互作用。足夠深度和廣度的知識背景將有助于確保社會倫理規(guī)范在成功支持實踐創(chuàng)新的同時、還能堅持社會基本原則,并能夠保護公眾安全。

      (3)確保倫理規(guī)范是人工智能項目的核心部分

      支持人工智能研究與開發(fā)工作,需要重點關注人工智能的倫理影響。為了從這些新技術中獲益,同時確保它們滿足社會需求和價值觀,各界應積極參與支持相關的研發(fā)工作。人工智可通過一系列技術來改善社會,如通過在物流、交通、醫(yī)療、法律和環(huán)境等方面的決策支持來提高社會生活質(zhì)量,或減少社會事故概率等。為了確保對個人、社會和項目產(chǎn)生積極影響,應該在研發(fā)、采購、使用、評估等各個環(huán)節(jié)特別注重人工智能的倫理發(fā)展和部署。在這些環(huán)節(jié)中,無論國家、企業(yè)、個人都應該衡量的重要標準包括,從人工智能技術獲得的社會利益,這些技術涉及的倫理因素,以及使用人工智能增加或減少的風險等。

      (4)確保人工智能技術的安全性和責任性

      各行業(yè)在確保人工智能社會倫理規(guī)范適應其工作的同時,還應該解決人工智能算法的透明度、可解釋性、可預測性、偏差和責任性,以及風險管理、隱私安全、數(shù)據(jù)保護措施等問題。合適的解決方法取決于具體情況,應通過以人權為基礎、以人類福祉為主要目標的策略來制定。對此,IEEE建議開展人工智能項目時采用一套包括了學界、業(yè)界以及政府相關部門等人工智能利益相關方的知情程序,用以協(xié)調(diào)其人工智能社會倫理規(guī)范的具體工作,以解決與人工智能的治理和安全部署有關的問題。

      2.2 實施階段

      2.2.1 實施流程

      (1)樹立需求意識

      在人工智能相關項目工作中的為工作人員樹立對社會倫理規(guī)范的需求意識是至關重要的第一步。當項目工作人員具備對倫理規(guī)范的認識和需求以后,項目團隊的基礎層和領導層就可以著手將倫理規(guī)范意識反映并嵌入到項目的工作流程中。IEEE就樹立工作人員對社會倫理規(guī)范的需求意識這一步提出如下可行的做法,大致說來主要是通過人員交流來落實,如:利用人工智能社會倫理規(guī)范開展網(wǎng)絡研討會,并在會后組織人員進行問答;把人工智能社會倫理規(guī)范交給項目領導層或者關鍵技術的設計負責人;確保引用符合人工智能社會倫理規(guī)范的數(shù)據(jù)和研究等。

      (2)建立核心團隊

      確定一個跨學科的多樣化團隊,并向他們提供項目組織內(nèi)的額外資源和權限。這要求確定關鍵的利益相關者和天生為特定團隊宣傳的人,以企業(yè)為例,這樣的角色通常由產(chǎn)品經(jīng)理擔任。此外,還需要確定關鍵決策者和團隊領導,避免在倫理規(guī)范的具體實施過程中出現(xiàn)將之排除在外的可能。對于技術核心人員而言,需要從一開始就明確社會倫理規(guī)范的價值,并將其作為自身角色的基本要求,使得其從意識階段進入規(guī)范工作的行動階段。

      (3)修正項目進程

      基于目前正開展的項目所要依據(jù)的核心價值觀,對能夠產(chǎn)生較大影響的社會倫理規(guī)范所產(chǎn)生的具體執(zhí)行細則進行評估。而在項目階段之初,不僅應該確保利益相關者在人工智能的潛在風險和利益上保持一致,還應該創(chuàng)建一個風險分類清單,以便適當?shù)貎?yōu)先考慮和處理已經(jīng)確定的風險。為了更好的項目成果,在涉及到人工智能相關的整個項目階段需要不斷尋求主題領域的專家建議以不斷修正項目進程中的大小決策,這些建議將基于人工智能社會倫理規(guī)范,落腳到人工智能的開發(fā)、采購、使用等諸個環(huán)節(jié)。此外,還應該確保對受眾有足夠了解,并能在符合社會倫理規(guī)范的背景下向受眾展現(xiàn)人工智能的價值,例如預先確定基于公平原則的人工智能優(yōu)先級,防止代表性不足的受眾(包括殘疾人等)受到難以衡量的影響;或確保項目目標受眾的感知或行為是具備可操作性的,對于其可能出現(xiàn)的潛在問題,項目方應該設計好應對框架,幫助規(guī)避意外的公平、歧視等問題。

      (4)溝通協(xié)調(diào)各方

      與目前正在為項目設計人工智能相關技術的人員溝通,并聯(lián)系項目咨詢方、擁簇方、宣傳方、領導層等,在各方溝通渠道順暢的情況下就項目管理問題和涉及的倫理問題進行討論,以避免意外的負面影響,促進這一人工智能相關的項目建立信任度和透明度。

      (5)記錄工作進度

      IEEE建議在項目工作進度上應該記錄的內(nèi)容包括:①項目目標、受眾和預期用途。②項目團隊成員,包括過去和現(xiàn)在的。③做出的關鍵決策和達到的里程碑。④模型。⑤數(shù)據(jù)集。⑥記錄非目標即誰不應使用項目成果,以及確定其不應被用于某些場合的用例。⑦拖延計劃預期的意外影響。⑧按分類法評級分類的風險。⑨倫理審查或討論的注釋。⑩受眾的反饋。?項目進程中出現(xiàn)的大小事件。

      (6)組織倫理規(guī)范

      就倫理規(guī)范在實施過程中的組織問題而言,IEEE認為首先應從推廣角度切入。其建議開展宣傳活動,提高人工智能在社會倫理方面的透明度,鼓勵圍繞社會倫理規(guī)范進行對話,分享經(jīng)驗教訓。從資源配置角度看,應在人員技能方面制定并實施倫理方面的技能培養(yǎng)計劃;與領導層合作,確保道德規(guī)范成為管理和領導議程的一部分,以便其能夠配置專門用于人工智能社會倫理規(guī)范實踐的資源(資金、人員、技術)。從項目管理角度看,應首先定義可能增進或破壞人工智能倫理規(guī)范實踐的文化和行為,并制定變革管理計劃,以改變文化并彌合行為差距;其次,調(diào)整獎勵和認可結(jié)構(gòu),以激勵道德決策和發(fā)展實踐;創(chuàng)建(或調(diào)整)管理結(jié)構(gòu),以盡量避免社會倫理規(guī)范影響失效;定義各類指標和關鍵績效;調(diào)整靈活度和以人為本的項目流程,以確保倫理規(guī)范貫穿于整個開發(fā)、設計,和交付鏈;突出和慶祝項目進程中有關倫理規(guī)范發(fā)揮了成果影響的具體事宜。

      2.2.2 監(jiān)督約束

      人工智能的開發(fā)、采購、使用等諸個環(huán)節(jié)必須基于適當且細致的監(jiān)督約束框架,以證明其部署和運作符合社會倫理,從而促進人的尊嚴、權利和福祉。其所涉及到的內(nèi)部或外部監(jiān)督約束機構(gòu)主要包括項目方和政府,具體說來,大致涵蓋以下方面的內(nèi)容[25]。

      (1)效力衡量

      ①為衡量工作提供支持。由項目資本方或政府來資助和支持不斷開展的衡量工作,以便為在社會倫理規(guī)范制度中部署或可能部署的措施提供有效、公開的衡量標準。這種支持可以采取多種形式,包括投資建立一系列監(jiān)管測量實驗室、工作組提供直接支持,或通過雇傭認可可信的第三方來間接支持。

      ②促進數(shù)據(jù)集的創(chuàng)建。項目方或政府應促進數(shù)據(jù)集的創(chuàng)建,這些數(shù)據(jù)集可用于評估在社會倫理規(guī)范下人工智能相關實踐應用的有效性。在建立或協(xié)助建立這類數(shù)據(jù)集時,項目方或政府必須考慮到潛在的社會價值觀(如個人數(shù)據(jù)應受到保護等),確保數(shù)據(jù)集既能維護社會價值觀,又可用于現(xiàn)實世界。IEEE認為在這一方面所行舉措都應透明,并接受公眾監(jiān)督。

      ③描述測量和驗證。項目方應采取有效措施衡量其人工智能社會倫理規(guī)范的有效性,一般而言可采取兩類手段,包括多系統(tǒng)比較評估與單系統(tǒng)驗證。單系統(tǒng)驗證的結(jié)論通常更具體,能夠回答在特定實例中是否有效的問題。多系統(tǒng)比較評估的結(jié)論通常更具有普遍性,可以回答在一般的現(xiàn)實環(huán)境中是否有效的問題。同樣,IEEE認為應在不披露知識產(chǎn)權的情況下,以公眾都能理解的清晰語言描述測試程序和結(jié)果,且這些描述還應向利益相關者發(fā)布以供其監(jiān)督審查,有必要或適當情況下還應該面向公眾作公開發(fā)布。

      ④定義有效指標。項目方應設法定義有意義的指標作為衡量效力的標準。在選擇和定義指標時,應尋求所有利益相關者的意見,以確保在社會倫理規(guī)范體系下涵蓋開發(fā)、采購、使用等涉及人工智能的諸多環(huán)節(jié)。與測量驗證一致,IEEE明確指出這些指標應該很容易被公眾理解。此外,還應確保項目所定義的有效性指標具有易獲得性和可使用性(可供所有利益相關者使用)。最后,應該提供有關解釋和響應指標的指導。

      ⑤開展指導工作。從政府和行業(yè)協(xié)會來說,其應開展思想層面的指導工作,向人工智能相關項目方從事社會倫理規(guī)范部署及運行的人員和受其運行結(jié)果影響的人員通報顯著的有效性措施,以及有關社會倫理規(guī)范的能力和局限性。

      ⑥遵循指導。從項目方來說,將人工智能社會倫理規(guī)范應用于具體任務的工作人員應遵循其內(nèi)部領導層或外部政府部門制定的有效性測量指導。在遵循層面來講,主要包括在關于獲得哪些指標、如何和何時獲得這些指標、如何對給定結(jié)果作出反應、何時采用衡量有效性的替代方法等方面。

      ⑦解釋和評估測量。從項目方來說,在解釋和回應適用于社會倫理規(guī)范的人工智能有效性測量時,解釋結(jié)果的人員應考慮到給定人工智能部署的具體目標和情況的變化。定量評估還應輔以對給定結(jié)果的實際意義及其是否需要補救的定性評估。這項工作應該由具備正確判斷能力的人員來完成,一般要求其具備所需專業(yè)背景知識和實際經(jīng)驗。

      ⑧制定有效標準。項目方及外部的行業(yè)協(xié)會、政府等應合作制定衡量和報告人工智能社會倫理規(guī)范實施有效性的標準。此外,這些標準的制定還應得到學界和法律界的投入。

      (2)能力規(guī)范

      ①提供技能指導。對項目方而言,人工智能社會倫理規(guī)范的實施如果想達到預期的效力水平,則項目內(nèi)外有關領域的專家應為人工智能的開發(fā)、使用者提供所需知識、技能、經(jīng)驗的的指導。該指導應該是清晰易用的、可擴展的,包括對不符合這些要求時所涉風險的描述,并且應以公眾都能理解的形式加以記錄。

      ②制定管理運行政策。項目方的創(chuàng)建者和開發(fā)者應制定書面政策,以管理人工智能的開發(fā)運作方式。在制定這些政策時,基本思路應該基于社會倫理規(guī)范,內(nèi)容應包括:人工智能的實際應用規(guī)范;有效使用的前提條件;開發(fā)、操作、評估等環(huán)節(jié)的人員所需的培訓和技能;評估人工智能有效性的程序;解釋人工智能結(jié)果時要考慮的因素;人工智能正常運行時,各個受影響方的預期結(jié)果;不當使用所帶來的具體風險等。此外,管理政策還應明確可能涉及到人工智能的情況。基于透明度原則,這些政策也都應該是公開的。

      ③為系統(tǒng)運行提供綜合保障。就項目方而言,開發(fā)者應該為人工智能的運行提供綜合保障。保障措施可以包括在某些情況下向使用者發(fā)出通知和警告;根據(jù)使用者的專業(yè)水平限制其對人工智能功能的訪問;在潛在的高風險條件下關閉系統(tǒng)等,這些保障措施應是靈活的。除此之外,還應在政府(如司法部門)的監(jiān)督下制定對環(huán)境敏感的政策。

      ④保障受影響者權益。對于項目外部的政府或其他機構(gòu)而言,應規(guī)定向任何因為項目程序中適配了人工智能而受到影響的利益方告知人工智能在該過程中所起的作用。此外,受影響的一方還應求助于領域?qū)<遥ň邆渲R背景者)的判斷。

      ⑤技能應用于職責。無論是項目方還是外部政府或其他機構(gòu),從事人工智能實踐、解釋和執(zhí)行的人員都應認識到如何基于倫理,有效地將技能應用于其專業(yè)職責。這些從業(yè)人員所屬的行業(yè)協(xié)會(如果有),應通過教育計劃和職業(yè)倫理守則,努力確保其成員充分了解技術能力要求,以便有效和可信地履行職責。人工智能的開發(fā)、使用、評估者應適應社會倫理規(guī)范,無論是人工智能技術人員還是非技術人員,或努力提升自身適應能力,或找出具有相應能力的個人以支持其履行職責。

      (3)責任分配

      ①明確各方責任。這需要由項目方創(chuàng)建者闡明并記錄所有參與人工智能開發(fā)運營的人員在成果方面的明確責任。確定法律層面的責任時,應考慮到整個設計、開發(fā)、采購、部署、運行和有效性驗證環(huán)節(jié)的各個人員,相應地分配責任。以商業(yè)往來為例,在與外界溝通談判提供使用人工智能產(chǎn)品、服務的合同時,人工智能的提供者和使用者、經(jīng)營者應在合同條款上明確規(guī)定對所獲得產(chǎn)品使用結(jié)果的責任范圍,包括明確其對應用結(jié)果的具體責任,人工智能產(chǎn)生的結(jié)果與預期不同時的潛在責任,以及人工智能的使用者和經(jīng)營者應了解其可能在多大程度上對不良結(jié)果承擔責任。

      ②適應監(jiān)督審查。為了給人工智能實踐結(jié)果分配責任,人工智能的創(chuàng)建者、經(jīng)營者、使用者都適用于同一套政策法律體系,應服從其監(jiān)督機制和調(diào)查審核。IEEE建議如果項目方涉及到的人工智能是由有直接公眾互動的組織(如執(zhí)法機構(gòu)等)使用和部署的,也可以由項目外部的第三方專門審查機構(gòu)進行監(jiān)督調(diào)查。這也要求項目方保存其在具體進展中所遵循的各類明確的程序或決策文件。

      ③建立激勵機制。從事人工智能開發(fā)和運營的組織應考慮建立個人和集體的激勵機制,以確保人工智能的結(jié)果符合倫理標準,維持其應盡的責任。

      (4)權限限定

      ①協(xié)調(diào)利益相關者。項目方和政府應促進利益相關者之間的對話,包括參與技術設計、開發(fā)、采購、部署、運行和驗證的利益相關者;可能直接受到成果影響的利益相關者;可能間接受到成果影響的利益相關者,包括一般公眾;在倫理、政治和法律方面具有專門知識的人;在透明度與其他優(yōu)先事項(例如安全、隱私、所有權等)間取得平衡的問題方面具有專門知識的人。在具體實現(xiàn)各方利益平衡時,項目方和政府應考慮如何協(xié)調(diào)利益相互競爭的情況。

      ②制定透明度原則。一方面,具體政策的制定者在依據(jù)社會倫理規(guī)范為人工智能實踐制定執(zhí)行細則時,應要求其制定的原則既要對可能披露的信息類型間的區(qū)別足夠敏感,也要對開發(fā)、使用等諸多環(huán)節(jié)足夠敏感,更要對給定成果有足夠敏感。另一方面,也應考慮適當保護知識產(chǎn)權,即使基于透明度原則,需要公開如成果效力性能等在內(nèi)的某類信息,也應該對知識產(chǎn)權進行保護。這就要求制定者在一定程度上考慮到,其所保證的公開級別將取決于特定情況下的利害關系。

      ③設置公共利益管理者。政策制定者應考慮為某個特別指定的“公共利益管理者”或“可信賴的第三方”設置職能,賦予其一般公眾所無法獲得的信息權限。這樣的公共利益管理者將負責評估信息以回答公共利益問題,同時也有義務不披露在得出該回答時獲取信息的具體細節(jié)。

      ④信息授權。對于包含合作或利益來往的項目而言,涉及到人工智能成果(產(chǎn)品、服務等)的談判協(xié)商時,雙方應在文件條款中,明確規(guī)定處于不同類別、層次的人具有不同的信息查看權限,即規(guī)定不同權限的人群所能獲得的關于項目開發(fā)、使用、評估的信息屬于不同層級。

      ⑤建立錯誤共享機制。外界政府或其他機構(gòu)應在適當?shù)那闆r下與項目方的人工智能開發(fā)者及其他利益相關者合作,促進建立錯誤共享機制,以便能夠更有效地識別和糾正其在社會倫理規(guī)范下開發(fā)或使用人工智能存在的不足,例如安全應用或風險評估算法中的系統(tǒng)性識別錯誤等。

      ⑥提供舉報人保護。在人工智能的開發(fā)或運行不符合預期,或結(jié)果沒有得到正確解釋的情況下,無論外部還是內(nèi)部的監(jiān)督機構(gòu),都應向主動提供信息的個體提供舉報人保護。例如,如果某一利益方采用面部識別技術是基于非法或不符合倫理規(guī)范的目的,或其使用方式處于預期用途之外,則接收舉報的機構(gòu)應該向提供信息的個人給予安全保護使其免遭報復。

      2.3 檢驗階段

      人工智能社會倫理規(guī)范對于不同行業(yè)領域而言需要依據(jù)其行業(yè)特色有針對性地實施,但總的說來,可以從各行業(yè)領域的項目進程角度提煉一套泛化的實施效果檢驗框架。該框架主要從項目基礎層的支持、領導層的認同、指標績效、組織影響等方面進行衡量舉措,通過落后、基本、高級、卓越四個層次的表現(xiàn)具體驗證其社會倫理規(guī)范實施程度,如表2所示。

      表2 人工智能倫理實施程度參照表

      3 建議

      人類社會的科技水平與其依靠代代承繼才擁有的文化背景存在發(fā)展不協(xié)調(diào)的問題,因此,需要通過在人工智能相關技術或項目中實施倫理規(guī)范,找到二者間的融合路徑,實現(xiàn)為人類發(fā)展謀求福祉的根本訴求。根據(jù)目前從IEEE提煉的實施機制可總結(jié)出以下幾點建議。

      (1)構(gòu)建文化氛圍

      人工智能技術從設計研發(fā)到推廣使用需要社會各界的投入與支持。因此,需要不斷在社會的科技創(chuàng)新發(fā)展進程中向民眾構(gòu)建和強化社會倫理的價值認同。有效的方法通常有賴于通識教育和社會宣傳,這將會使得倫理規(guī)范始終貫穿各個學科領域、被各個項目環(huán)節(jié)自然遵循,為各行業(yè)從業(yè)者普遍認可和理解,也能避免社會倫理被作為單獨的模塊生硬嵌入人工智能技術相關的項目中。

      (2)區(qū)分實施主體

      在人工智能技術相關的項目中實施社會倫理規(guī)范對處于不同環(huán)節(jié)不同利益方的人員而言,是必然存在差異的。從技術設計者、開發(fā)者到推廣者、使用者等,各有側(cè)重傾向。因而在具體某一項目的倫理規(guī)范實施過程中,各方應提前明確其自身角色屬性,劃分好各自實施工作的范圍和重點,并找到不同利益方之間合作互助的溝通方式。

      (3) 建立監(jiān)督框架

      對于人工智能技術相關項目的各個環(huán)節(jié)而言,應該始終處于給定的監(jiān)督約束框架中開展實施工作。一般來說,監(jiān)督方主要分項目內(nèi)部的自我監(jiān)督和第三方監(jiān)督機構(gòu)的外部監(jiān)督,而監(jiān)督內(nèi)容應該包括實施規(guī)范的效力、實施規(guī)范者的能力、各利益方責任的分配、權限限定等。此外,有效的監(jiān)督除了在國家層面或整個行業(yè)層面依靠對監(jiān)督框架本身標準作明確定義外,還應將執(zhí)行人員的專業(yè)素養(yǎng)納入考量,以此保障監(jiān)督制度的針對性和執(zhí)行度。

      總的來說,遵循人工智能社會倫理規(guī)范是現(xiàn)實社會運用人工智能技術的重要前提。人工智能技術為現(xiàn)實社會的發(fā)展帶來了系列變革,從便捷性、安全性、公平性等諸多因素對其進行考量,利弊皆存,這就要求明確的社會倫理規(guī)范來約束各行業(yè)領域人工智能技術的應用。為此,需要明確人工智能社會倫理規(guī)范的具體實施機制。而以IEEE為代表,其人工智能社會倫理規(guī)范在一般項目開展中的實施機制,也以此為目標導向,因地制宜,因時制宜,在切合實際項目流程的基礎上,強化了項目內(nèi)部的組織管理與項目外部各方利益的協(xié)調(diào),有力地服務現(xiàn)實社會各行業(yè)領域的項目開展與當代社會的智能化建設。

      猜你喜歡
      倫理規(guī)范人工智能
      《心之死》的趣味與倫理焦慮
      來稿規(guī)范
      來稿規(guī)范
      PDCA法在除顫儀規(guī)范操作中的應用
      來稿規(guī)范
      護生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      都兰县| 榕江县| 丽江市| 金乡县| 驻马店市| 康保县| 开封市| 乌鲁木齐市| 汕头市| 江城| 宿迁市| 施秉县| 宿州市| 拜城县| 苏尼特左旗| 平南县| 和静县| 安化县| 天全县| 伊春市| 玉环县| 罗定市| 惠州市| 保山市| 黎平县| 罗源县| 同江市| 泰兴市| 即墨市| 靖安县| 平阴县| 绍兴县| 铁岭市| 元氏县| 延边| 乌兰县| 平乡县| 大荔县| 中方县| 嘉善县| 库车县|