寇建波
(甘肅省公安廳, 甘肅 蘭州 730000)
公安歷史既是一部科技應(yīng)用進步史,也是一部科技應(yīng)用批判史,從新中國成立之初“一窮二白”的技術(shù)手段到現(xiàn)在人工智能、“智慧+”“互聯(lián)網(wǎng)+”的科技應(yīng)用層出不窮,幾十年間,公安科技化水平有了革命性的變化。伴隨著近年來人工智能(Artificial Intelligence)的飛速發(fā)展,新一代公安科技變革也隨之而來,帶來了整個系統(tǒng)的生態(tài)進步、部門重組、結(jié)構(gòu)優(yōu)化等一系列改變,但同時一些問題也隨之顯現(xiàn),其中最令人擔(dān)憂的就是人工智能在移動警務(wù)終端上的倫理風(fēng)險。
之所以將探討范圍限定在移動警務(wù)終端,是因為在“互聯(lián)網(wǎng)+”概念不斷發(fā)展的今天,公安機關(guān)為了提高執(zhí)勤辦公效率,為我國警察配發(fā)了移動警務(wù)終端,移動警務(wù)終端成了辦案、辦公的必備工具,且智能化水平越來越高。最初的單一警務(wù)終端,一切日常辦公學(xué)習(xí)、執(zhí)法執(zhí)勤活動都是基于事先儲存的內(nèi)容、程序來運行,其缺點在于諸如剛發(fā)生的案件或者新上網(wǎng)的各級通緝逃犯等內(nèi)容,無法做到及時更新,極易導(dǎo)致失控漏查。而現(xiàn)在基于人工智能“警務(wù)云”下的移動警務(wù)終端,完全可以實現(xiàn)適時現(xiàn)場采錄核、終端布控預(yù)警、移動業(yè)務(wù)辦理等功能,有效將警務(wù)移動終端從單人時代轉(zhuǎn)變?yōu)楣蚕頃r代。但問題也隨之而來,人工智能具有自主決策屬性,在某種可能下,人工智能可以在移動警務(wù)終端上自主決策警務(wù)活動的開始或者結(jié)束,這將遠遠超出我們對警務(wù)運行方式的理解,換句話說就是,究竟誰在主導(dǎo)警務(wù)運行?這時或許就像劍橋大學(xué)物理學(xué)家斯蒂文·霍金教授說的那樣,“在我的一生中,見證了許多社會深刻變化,其中最深刻的,同時也是對人類影響與日俱增的變化,就是人工智能的崛起”。因此,對人工智能在移動警務(wù)終端上的倫理審視就顯得格外必要。
在對人工智能在移動警務(wù)終端進行倫理反思之前,首先需要確認移動警務(wù)終端對人工智能是否具有必要性需求。本人認為,只有當人工智能能夠幫助移動警務(wù)終端建構(gòu)場景模型、重組現(xiàn)場影響、收集資源情報、提供判斷依據(jù)時,才屬移動警務(wù)終端對人工智能的必要性需求。從價值上看,人工智能應(yīng)以輔助警察作出必要性判斷為基本價值。從過程上看,人工智能應(yīng)以能夠在移動警務(wù)終端上為警務(wù)活動提供幫助為基本手段。從結(jié)果上看,人工智能應(yīng)以使移動警務(wù)終端功能最優(yōu)、價值最大為基本目標。人工智能應(yīng)是警務(wù)移動終端深度拓展后的必然產(chǎn)物。
人工智能環(huán)境下的移動警務(wù)終端整合了各類業(yè)務(wù)系統(tǒng),融合了5G通信技術(shù)、警務(wù)數(shù)據(jù)庫同步、人員信息認證以及VPN多種前沿技術(shù),一個終端就能夠執(zhí)行所有任務(wù),改變了過去民警執(zhí)法執(zhí)勤必須通過對講機向指揮中心詢問身份信息,后臺人工查詢錄入等方式,實現(xiàn)了即時采、即時問、即時核的功能。并且,人工智能可以實現(xiàn)警務(wù)數(shù)據(jù)自我學(xué)習(xí),并利用學(xué)習(xí)成果靈活適應(yīng)特定目標和任務(wù)的能力,為人工智能在警務(wù)技術(shù)實踐中成長提供了無限可能性。同時,移動警務(wù)終端中擁有警務(wù)微信、警務(wù)動態(tài)圈、警務(wù)公眾號等功能,極大地方便了各地、各部門、各警種之間的信息交流、工作往來、業(yè)務(wù)合作。
傳統(tǒng)警務(wù)活動中,一切行動以當值警務(wù)人員為主,這樣做的不利之處在于,警務(wù)人員只能通過自我判斷來避免執(zhí)法風(fēng)險,尤其是在人數(shù)眾多的現(xiàn)場處置中,很難對現(xiàn)場狀態(tài)進行合理預(yù)判,但人工智能可以根據(jù)移動警務(wù)終端反饋的現(xiàn)場態(tài)勢,給出幾人出警、攜帶什么樣的裝備、是否需要支援力量等建議,與傳統(tǒng)警務(wù)活動相比,人工智能更能了解、預(yù)測警務(wù)活動中出現(xiàn)的風(fēng)險。同時,移動警務(wù)終端搭載有人像、語音、車牌、指紋、步態(tài)、虹膜智能識別和掌上視頻監(jiān)控、內(nèi)網(wǎng)定位、350M集群對講、NFC讀卡讀證、藍牙打印等諸多功能,民警只需一點就能完成信息比對、圖像核實、即時打印等工作。
移動警務(wù)終端中的人工智能可以打破警務(wù)活動中的時空限制,可以根據(jù)時空變換對警務(wù)活動及時進行干預(yù),與此同時,警務(wù)活動主體與指揮中心的關(guān)系不再受限于指揮與被指揮之間,而是同步進行警務(wù)活動,無延遲、無差別地對待警務(wù)活動中出現(xiàn)的突發(fā)狀況。這樣做的好處在于,現(xiàn)場指揮官不會因指揮失誤受到事后追究,指揮中心也能實時參與現(xiàn)場指揮形成最佳解決方案。同時,移動警務(wù)終端擁有個人生活和警務(wù)工作雙系統(tǒng),既可以使用公安專網(wǎng)完成工作,又可以通過個人系統(tǒng)保持信息暢通,一部終端就可以兼顧工作生活。
“我們正在邁入開放性、異質(zhì)性的智能社會,科技的威力更甚以往,有時候甚至超出了人類的想象”[2],而人工智能因其具有的顛覆性特征,會讓民警在使用移動警務(wù)終端時產(chǎn)生相應(yīng)的倫理風(fēng)險,具體如下:
人工智能存在“偏好”的根本原因在于算法,算法指的是為解決某個問題、完成某項任務(wù)、達到某種目的而采取的處理規(guī)則、運行指令、策略機制,被認為是人工智能設(shè)定的核心因素。雖然算法中的數(shù)據(jù)符號是絕對中立的,但算法設(shè)計者因其自身帶有的偏見,有可能將“偏見”寫入計算程序,從而影響人工智能。況且,當今社會已經(jīng)進入一切皆可計算的時代,如果人類所特有的情感、思想、行為都能被量化處理,都可以通過算法進行,那么,“用算法來處理人類特有的一些活動,有可能使這些活動喪失最根本的人性”[3]。更何況,一旦人類決定把屬于自身的權(quán)利、決策都讓渡給算法,那么就會形成一個“算法為王”的世界,這“無疑會引發(fā)人類身份認知的危機”[4],從而產(chǎn)生相關(guān)倫理風(fēng)險。
我們現(xiàn)在暫時在移動警務(wù)終端的應(yīng)用中還沒有發(fā)現(xiàn)算法“偏好”,一個原因是移動警務(wù)終端對人工智能的應(yīng)用還處在弱人工智能時代(1)一般來講,人工智能分為三個階段:弱人工智能時代、強人工智能時代和超人工智能時代。弱人工智能時代的產(chǎn)品只能對人為設(shè)定做出反應(yīng),目前大多數(shù)人工智能產(chǎn)品屬于弱人工智能產(chǎn)品。例如,語音控制系統(tǒng),導(dǎo)航等。,技術(shù)應(yīng)用還遠未達到。但人工智能在警務(wù)移動終端應(yīng)用上預(yù)測的基本原理是以過去的數(shù)據(jù)預(yù)測未來的數(shù)據(jù),其本質(zhì)是一種建立在大數(shù)據(jù)上的自我學(xué)習(xí),然而,要想獲得警務(wù)領(lǐng)域的大數(shù)據(jù),就需要獲得社會各個方面的數(shù)據(jù),比如街面視頻、銀行交易、物流信息等數(shù)據(jù)信息,在海量的警務(wù)數(shù)據(jù)面前,算法怎么樣選擇數(shù)據(jù)將會是“偏好”產(chǎn)生的原因。比如,我們在辦理案件時需要個人信息全要素錄入,如果我們將算法設(shè)置為某個群體犯罪率高而去個別關(guān)注,那么依據(jù)這個算法,人工智能就會自動收集這個群體的整體信息,并根據(jù)算法作出是否有犯罪風(fēng)險的判斷。我們不否認這樣可以提前預(yù)防犯罪,降低犯罪率,但這樣就可能出現(xiàn)對某個特定群體的整體偏見,造成身份歧視。而這還是建立在明確算法規(guī)則上的,最棘手的問題是我們的警務(wù)工程師即使主觀上并沒有偏見傾向,而人工智能在自我學(xué)習(xí)中也會出現(xiàn)“偏好”。在實踐過程中科研人員發(fā)現(xiàn),人工智能在學(xué)習(xí)大量數(shù)據(jù)后竟然會產(chǎn)生“個人偏好”,顯著的例子是微軟公司的聊天機器人TAY,在學(xué)習(xí)完成后產(chǎn)生種族歧視和厭惡女性的“個人偏好”,這是人工智能在應(yīng)用過程中始料未及的。人工智能最令人興奮的可能性之一就是搭建一個沒有人類偏見的世界,但現(xiàn)在它自身卻出現(xiàn)“個人偏好”,這其中頗具諷刺意味。隨著將來我們進入強人工智能時代甚至超人工時代,難免不發(fā)生人工智能因其“偏好”來決策警務(wù)活動的現(xiàn)象,而現(xiàn)階段,其中的技術(shù)鴻溝不是公安一家可以解決的,需要全社會參與,這就決定了人工智能在移動警務(wù)終端方面依然存在缺陷。
這二十多年來,隨著移動互聯(lián)網(wǎng)的蓬勃發(fā)展,每個人都逐漸習(xí)慣了一個現(xiàn)象,就是大型互聯(lián)網(wǎng)公司在獲取個人數(shù)據(jù)時我們只能同意,一旦選擇拒絕,就意味著我們無法使用該公司的產(chǎn)品。而事實上,這些公司索要的是什么數(shù)據(jù)我們一無所知,而一旦得到數(shù)據(jù),電話、地址、年齡、身份證號碼、快遞、出行、喜好等一切將不再是秘密,在這些公司眼中我們基本上是“透明”的,傳統(tǒng)語境下的隱私權(quán)已不再成立,取而代之的將是數(shù)字隱私權(quán)。不同于互聯(lián)網(wǎng)APP有嚴格的法律法規(guī)限制,各大公司需要用戶授權(quán)才能收集數(shù)據(jù),移動警務(wù)終端上的警用APP一般都沒有用戶授權(quán)這一步,其應(yīng)用內(nèi)核一般情況下執(zhí)行的是無差別信息采集,但問題也隨之而來,如果警員信息被濫用,將構(gòu)成對警員這個使用主體數(shù)字隱私權(quán)的侵犯。如何最大程度上保護警員信息,最低程度上減少對警用APP的限制,筆者認為最主要的就是要尊重警員對自己個人身份認證信息的掌握。
個人身份認證信息必須由用戶本人絕對控制,任何公司不經(jīng)本人允許不能隨意使用,這應(yīng)是人工智能時代保護數(shù)字隱私權(quán)的一項鐵律。如果個人身份認證信息內(nèi)容必須讓渡,那么也要堅持一個原則,即數(shù)字統(tǒng)計結(jié)果歸政府或者公司,但個人數(shù)字信息所有權(quán)必須歸個人所有。舉例來說,“我”在淘寶上購買的商品信息經(jīng)過統(tǒng)計后形成的大數(shù)據(jù),具有巨大的商業(yè)價值,這一部分信息歸淘寶公司所有無可厚非,但“我”夫人利用“我”的淘寶購買了內(nèi)衣以后,“我”只要打開瀏覽器,第一時間就有淘寶推送給“我”內(nèi)衣圖片,而且還特別標注是“我”感興趣的商品,這就會使“我”在使用公共電腦的時候很尷尬,這其實就是一種侵犯個人身份認證信息的典型案例,即未經(jīng)用戶授權(quán),公司不應(yīng)將個人愛好習(xí)慣作為精準營銷的手段,這既違反了個人身份信息未經(jīng)授權(quán)不得濫用的原則,也是一種人工智能對數(shù)字隱私權(quán)的侵犯。強調(diào)個人身份信息未經(jīng)授權(quán)不得濫用,是因為在互聯(lián)網(wǎng)時代,警員的個人身份認證信息一旦泄露或者被境外勢力利用造成的后果將不可想象。
技術(shù)層面的數(shù)字隱私權(quán)保護可以通過提高技術(shù)門檻、加強公司監(jiān)管來改善,但有時候移動警務(wù)終端使用主體的主動泄密問題也屢禁不止。人手一部警務(wù)移動終端意味著警察人手一部公安網(wǎng),可以隨時隨地查詢信息,雖然公安機關(guān)會以級別權(quán)限的形式進行限制,但基本的個人信息依然屬于全警都可查到的內(nèi)容。某省就曾出現(xiàn)過在朋友聚會時,一民警為炫耀移動警務(wù)終端強大功能,現(xiàn)場查詢朋友開房信息,導(dǎo)致朋友氣急敗壞大打出手的事件。還有就是移動警務(wù)終端具有獲取公安敏感數(shù)據(jù)的功能[5],始終處于公安網(wǎng)狀態(tài)下,若終端丟失后,將會面臨著非法終端接入、非法人員接入、通信人員信息丟失等一系列問題??梢?,是否需要使用主體盡到更高保密義務(wù),是需要關(guān)注的問題。
一方面是法律法規(guī)不健全。隨著人工智能在移動警務(wù)終端中的深度應(yīng)用,必然會伴隨著出現(xiàn)一些傳統(tǒng)警務(wù)中從未出現(xiàn)的法律問題,而且由于人工智能發(fā)展速度較快,一些新出現(xiàn)的法律問題是與現(xiàn)行法律法規(guī)相沖突的。比如,人工智能在警務(wù)應(yīng)用中最重要的功能就是預(yù)測,但基于人工智能“大數(shù)據(jù)預(yù)測的深層次邏輯其實就是有罪推定”(2)大數(shù)據(jù)預(yù)測出來的犯罪,是根據(jù)犯罪分子以前的行為來判斷,有時候甚至只是一個舉動,就判斷犯罪分子有犯罪動機,這時候采取行動的法理依據(jù)就是“有罪推定”。,人工智能作為大數(shù)據(jù)應(yīng)用的金字塔,在預(yù)測犯罪時必然也面臨著先“有罪推定”的尷尬。比如,一個人在公共場所拿起一把玩具刀揮舞了一下,根據(jù)人工智能預(yù)測——“這個人要殺人”,但現(xiàn)實中我們都知道這不過是個平常行為,是無法殺人的。如何看待人工智能的預(yù)測將是一個法律問題。更為現(xiàn)實的是,當人工智能觸發(fā)法律后果時,究竟應(yīng)該追究誰的責(zé)任,怎么進行處罰?這些都是需要研究的問題。此外,人工智能經(jīng)過深層學(xué)習(xí)后會產(chǎn)生“自主行為”,能夠思考自己的目標并進行適時調(diào)整,“當你命令一個機器人去工作的時候,它卻決定去海邊玩”。換言之,“當機器人變得足夠復(fù)雜的時候,它們既不是人類的仆人,也不是人類的主人,而是人類的伙伴”[6],對這個看不見摸不著的“伙伴”我們應(yīng)該怎樣進行處罰,是處罰應(yīng)用者還是設(shè)計者?法律的滯后性要求法律法規(guī)一般不對實踐中沒有定型的經(jīng)驗、社會中沒有成熟的關(guān)系進行調(diào)整,而這種滯后性容易導(dǎo)致對人工智能約束不足,一旦出現(xiàn)任何問題,大量法律灰色地帶便給人工智能公司推卸責(zé)任帶來便利。
另一方面是事后責(zé)任歸屬難。人工智能一旦在移動警務(wù)終端上出現(xiàn)安全問題,劃分責(zé)任將可能異常復(fù)雜。首先,人工智能通常借助虛擬社區(qū)進行開發(fā)者協(xié)同研發(fā),在其過程中可能用到數(shù)量龐大的開發(fā)者組件,如果出現(xiàn)問題就會給責(zé)任劃分帶來困難。其次,現(xiàn)階段大多數(shù)人工智能產(chǎn)品的內(nèi)部運作架構(gòu)并不透明,多數(shù)支持移動警務(wù)終端的科技企業(yè)并未公開源代碼、訓(xùn)練數(shù)據(jù)及測試信息等,這給監(jiān)管部門增加了監(jiān)管難度。再者,隨著人工智能計算能力的不斷攀升,它可以計算數(shù)以兆計的“可能性”,并且其可選擇的空間廣度往往大于人類,它們能夠輕而易舉地解決和嘗試人類之前從未考慮過的方案[7]。換句話說就是,研發(fā)者有時也無法預(yù)判人工智能產(chǎn)生的實際效果,一旦出現(xiàn)問題,將責(zé)任歸于法律意義上沒有“故意”的研發(fā)者,也實屬不公。但好消息是聯(lián)合國犯罪和司法研究所已決定在海牙法庭成立第一個聯(lián)合國人工智能和機器人中心,這或許可以成為我國在規(guī)范人工智能方面的借鑒。
麻省理工學(xué)院教授Rosalind Plcard說:“機器的自動化程度越高,就越需要道德標準?!盵8]人工智能帶來了人像、虹膜、步態(tài)等一系列識別技術(shù),為警察抓捕罪犯提供了原先難以想象的便利,但同時也帶來了一系列倫理問題。因此,認識人工智能技術(shù)在移動警務(wù)終端應(yīng)用中的倫理問題,密切關(guān)注它的發(fā)展,建立相應(yīng)倫理風(fēng)險應(yīng)對路徑,才能更好地讓人工智能為我們服務(wù)。
目前,人工智能與移動警務(wù)終端是一種鑲嵌式的發(fā)展關(guān)系,人工智能需要移動警務(wù)終端進行表達,而移動警務(wù)終端需要人工智能來發(fā)展。但隨著時間推移,鑲嵌式的發(fā)展關(guān)系必然跟不上技術(shù)發(fā)展的節(jié)奏,隨之而來的將會是一體式發(fā)展模式。目前,我們預(yù)測人工智能與移動警務(wù)終端的發(fā)展將會走向兩條道路:一是移動警務(wù)終端“依附”于人工智能,二是“以人為本”。如果出現(xiàn)第一種情況,必然伴隨著移動警務(wù)的全面失守,甚至于消亡,人工智能將全面接手移動警務(wù),而移動警務(wù)的使用主體也將面臨被替代?!叭斯ぶ悄艿陌l(fā)展使得人類許多崗位被人工智能所替代”[9],簡單性、重復(fù)性的人力勞動將面臨取代。僅以“一標三實”(3)一標是指“標準地址”,三實是指“實有人口、實有房屋、實有單位”。其中,標準地址是基礎(chǔ),“三實”信息必須錄入在標準地址上。“一標三實”是這些年派出所的主要工作,也是最為耗費人力物力的一項工作。工作為例,現(xiàn)在我們的民警需要上門采集信息,但在可預(yù)測的未來,完全可以實現(xiàn)自主采集,這確實節(jié)約了我們的警力,但這也將使眾多基層警察變成“無用”的警察,現(xiàn)行警察體系將隨之產(chǎn)生解體的風(fēng)險,目前看起來,這還是屬于不能被接受的范疇。
我們更傾向于建立第二種關(guān)系,即“以人為本”。人工智能的本質(zhì)是服務(wù)人類社會,而人類社會的核心價值就是“以人為本”。在主體地位上,要堅持以人為本的最高標準,即所有的技術(shù)發(fā)展都是為人服務(wù),體現(xiàn)人的思維價值,實現(xiàn)人的全面自由。因此,在改進移動警務(wù)終端時,我們要注意樹立正確的科技觀、價值觀,要注意不是所有為使用者主體省時省力的改進都是必需的,也要適當?shù)谋A粢恍┤斯げ僮?,只發(fā)揮人工智能的工具價值,以此體現(xiàn)執(zhí)法者的主觀價值取舍和法律修養(yǎng),確保警察執(zhí)法權(quán)威不被人工智能過度侵犯,而事實上許多人工智能科學(xué)家“都有意選擇了‘以人為本’的設(shè)計”[10]。
人工智能之所以在移動警務(wù)終端應(yīng)用中產(chǎn)生倫理風(fēng)險問題,與監(jiān)管不嚴或者沒有監(jiān)管有很大關(guān)系,而要保障其更好地為使用主體服務(wù),建立一個全方位、多層次的監(jiān)管系統(tǒng)勢在必行。一要發(fā)揮民警對人工智能的監(jiān)督。我們在開發(fā)移動警務(wù)應(yīng)用時,應(yīng)明確告知民警是否包含人工智能,是否存在使用風(fēng)險。這樣一來,我們的民警在使用時會相應(yīng)注意到人工智能帶來的問題,為以后改進提供堅實的基礎(chǔ),這也符合我國現(xiàn)階段的法律法規(guī)[11]。二要建立相應(yīng)的部門規(guī)范。對人工智能的開發(fā)要進行政府干預(yù),不能任由科技公司以技術(shù)至上論、技術(shù)中立論為借口反對政府干預(yù)[12]。目前,我國對人工智能更多是從產(chǎn)業(yè)扶持的角度提供政策支持[13],而非監(jiān)管,如2017年國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》就反映了這一思路。但我們不應(yīng)該對人工智能放松監(jiān)管,通過“北大法寶”網(wǎng)站查詢,有關(guān)人工智能的法律法規(guī)主要有行政法規(guī)1篇、部門規(guī)章47篇、行業(yè)規(guī)定7篇,其中《數(shù)據(jù)安全管理辦法》對算法進行了相應(yīng)的規(guī)制,《關(guān)于規(guī)范金融機構(gòu)資產(chǎn)管理業(yè)務(wù)的指導(dǎo)意見》對人工智能在金融領(lǐng)域進行了規(guī)制,但這些都是個別條款分散涉及,并沒有一部專門法律法規(guī)對人工智能進行規(guī)制。非常遺憾的是公安部也沒有出臺任何有關(guān)人工智能的部門規(guī)范。這倒也不難理解,畢竟現(xiàn)階段人工智能在移動警務(wù)終端中只是小范圍應(yīng)用,考慮到目前公安實際情況,大規(guī)模推廣還有待時日,但我們千萬不可掉以輕心,技術(shù)推廣的速度遠比我們想象的要快[14]。三要進行算法審計?!爸贫藴?、制造硬件、編寫代碼的人擁有相當程度的控制力量”[15],人工智能帶不帶“偏見”,有沒有非法收集用戶資料、留取后門,對不對使用主體產(chǎn)生倫理風(fēng)險,存不存在歧視問題,算法審計至關(guān)重要。與人類擁有情感不同,算法是種客觀工具,不能撒謊也不會撒謊。因此,如果人工智能出現(xiàn)的結(jié)果是有“偏見”的,一定是和人類采用的數(shù)據(jù)有關(guān),而非算法,人類可以去撒謊掩飾某個問題,但算法不行。通常情況下,只有人工智能在實際運行算法后,才可能發(fā)現(xiàn)內(nèi)在的“偏見”,因為這些設(shè)計中的“偏見”在實際運行當中會被放大,采用算法審計后就有可能知道什么時候出現(xiàn)“偏見”,然后相應(yīng)地對其進行調(diào)整,以便將來不出現(xiàn)“偏見”。此外,相關(guān)從業(yè)公司不應(yīng)把算法審計看作一種威脅,不應(yīng)將算法審計理解為一種枷鎖,而是要創(chuàng)造解決任何“偏見”問題的機會,并能在必要的時候加以糾正,畢竟在一定規(guī)則下運行的人工智能才不至于失控。因此進行算法審計很有必要。這里介紹的一種算法審計方法即“貝葉斯”(Bayesian)定律。其簡單來說就是確定算法規(guī)則的一個參考集來定義什么是正確算法,然后使用參考集中的特定點來判定出現(xiàn)的算法是正確算法還是帶有“偏見”的算法,如果在判定結(jié)果中發(fā)現(xiàn)“偏見”,這個新的算法會更新最初參考集中的資源信息,以便將來在判定算法正確與否時結(jié)果更為精確。
總之,人工智能的“偏見”最終還是來源于設(shè)計者——人類。而能解決這個問題的關(guān)鍵因素是那些技術(shù)公司、工程師和算法編寫者,他們應(yīng)該采取更為有效的措施來防止有意無意間的算法“偏見”。同時,公安機關(guān)要做好移動警務(wù)終端算法開發(fā)者的資格審核,規(guī)范移動警務(wù)終端的開發(fā)層級?,F(xiàn)階段有的地市,甚至有實力的縣都組織開發(fā)警用APP,這樣看起來一片繁榮,但長遠來看,算法“偏見”、源代碼泄露、組織架構(gòu)破壞、冗余信息的占用都會對移動警務(wù)終端帶來災(zāi)難性的后果。
根據(jù)美國CSIS(國際戰(zhàn)略研究中心)的報告顯示,“安全可靠的技術(shù)基礎(chǔ)是搭建良性人工智能技術(shù)發(fā)展的生態(tài)系統(tǒng)不可或缺的一部分”,因此減少移動警務(wù)中人工智能的風(fēng)險在于安全意識的強化以及安全管理機制的建立。為此,我們應(yīng)該在綜合考慮人工智能技術(shù)倫理風(fēng)險的基礎(chǔ)上,加強對數(shù)據(jù)壟斷、算法歧視、隱私保護以及倫理價值等問題的預(yù)判,為人工智能在警務(wù)應(yīng)用上制定相應(yīng)的行業(yè)規(guī)范,著手建立諸如技術(shù)風(fēng)險評估機制、災(zāi)難性風(fēng)險管理機制、技術(shù)錯誤糾正機制等一系列可管理、可操作、可驗證的安全管理機制。同時,還應(yīng)提高人工智能的可檢驗性來驗證技術(shù)應(yīng)用中的透明度和信任度,即人工智能中的算法和數(shù)據(jù)在一定條件下,應(yīng)當被完整保存和查驗,相關(guān)企業(yè)也應(yīng)為了公共安全,放棄自身保密性的請求,轉(zhuǎn)而與公安機關(guān)簽訂保密協(xié)議來獲取技術(shù)秘密的不被泄露。當然,也要積極發(fā)展其他技術(shù)彌補人工智能所帶來的缺陷。比如,區(qū)塊鏈技術(shù)就能很好地避免人工智能中出現(xiàn)的技術(shù)隱私、安全保障問題。
此外,還要注重數(shù)字隱私權(quán)的保護。數(shù)字隱私權(quán)是隨著科技發(fā)展近幾年才提出來的概念,但它依然符合隱私權(quán)的基本特征,即是人類的基本權(quán)利。人工智能的發(fā)展不能以犧牲人類的數(shù)字隱私權(quán)為代價,恰恰相反,人工智能應(yīng)該要很好地保護數(shù)字隱私權(quán),這才是人工智能發(fā)展的方向。同理,保護民警的數(shù)字隱私權(quán)也至關(guān)重要。我們認為,保護民警的數(shù)字隱私權(quán)應(yīng)遵循和履行合法、正當、必要原則。在合法原則要求下,警用人工智能收集民警個人信息應(yīng)符合網(wǎng)絡(luò)安全法、民法典、電信條例等相關(guān)法律法規(guī),以及相關(guān)主管部門和一些地方性行政規(guī)章。對于法律未規(guī)定的,也應(yīng)遵守公序良俗和行業(yè)規(guī)范。在正當原則的要求下,警用人工智能在收集民警個人信息時,也要獲得用戶授權(quán),不能以默認授權(quán)、捆綁服務(wù)、強制停止使用等手段進行用戶信息收集。在必要原則要求下,收集民警個人信息時不能過于寬泛,只有那些影響警務(wù)人工智能使用,非收集不可或者不收集就無法開展工作的必要信息,才應(yīng)該被允許收集。
事實上,人工智能作為國家科技發(fā)展的全新框架性技術(shù),對于原先搭建的公共安全治理體系具有結(jié)構(gòu)性挑戰(zhàn),而伴隨著人工智能技術(shù)的快速發(fā)展,一些新風(fēng)險、新困境將不斷出現(xiàn)。與此同時,公安機關(guān)作為公共安全治理體系中最為重要的一個環(huán)節(jié),同樣面臨人工智能技術(shù)上挑戰(zhàn)、倫理上的困境。但是,我們不能拒絕科技的進步,反而要主動擁抱前沿科技,只有掌握科學(xué)技術(shù)的發(fā)展,把握好科技安全的尺度,才是公安機關(guān)履行保護國家和人民財產(chǎn)安全最為重要的任務(wù)。