2016年3月,隨著“Alpha Go”(譯做“阿爾法狗”,是由美國谷歌公司研發(fā)的一款圍棋人工智能程序)以4比1擊敗圍棋世界冠軍李世石,人工智能熱潮再次興起。人工智能正作為一種“賦能”技術(shù),已向安防、金融、醫(yī)療等傳統(tǒng)行業(yè)滲透應(yīng)用,改變著我們的生產(chǎn)生活方式。人工智能在未來社會中將扮演至關(guān)重要的角色。然而,隨著無人汽車、智能語音助手、智能安防產(chǎn)品的落地應(yīng)用,人工智能發(fā)展所帶來的安全問題也不斷暴露,應(yīng)引起我們高度重視。
人工智能的概念最早是由美國科學(xué)家麥卡錫在1956年的達特茅斯會議上提出的,他認為“人工智能就是要讓機器的行為看起來就像是人所表現(xiàn)出的智能行為一樣”。隨著時間的推移和科技的不斷發(fā)展,人工智能經(jīng)過了3次發(fā)展浪潮,現(xiàn)在正在進入第4次浪潮。目前普遍被人們認可的人工智能定義是“人工智能是用機器模仿和實現(xiàn)人類的感知、思考、行動等人類智力與行為能力的科學(xué)與技術(shù),目標(biāo)在于模擬、延伸、拓展人的智慧與能力,使信息系統(tǒng)或機器勝任一些以往需要人類智能才能完成的復(fù)雜任務(wù)”。
現(xiàn)在這一階段,是以日本推出AIBAO機器狗為啟動標(biāo)志,以“AlphaGo”戰(zhàn)勝李世石為引爆點,在算法、算力和數(shù)據(jù)3大內(nèi)在因素的驅(qū)動下,在與安防、金融、制造等行業(yè)深入融合下,出現(xiàn)的一次智能化變革浪潮。目前來看,人工智能雖仍屬于潛能釋放階段,但其優(yōu)勢已得到逐步顯現(xiàn)。
一是人工智能正在改變部分行業(yè)的生產(chǎn)運作模式。隨著人工智能的發(fā)展應(yīng)用,正在推動產(chǎn)業(yè)從生產(chǎn)方式到管控模式的變革。以制造業(yè)為例,由“機器換人”,將可以實現(xiàn)工廠的24h無停歇生產(chǎn)制造,可實現(xiàn)產(chǎn)品的規(guī)格化、標(biāo)準(zhǔn)化、批量化,最大限度地提升勞動效率和生產(chǎn)效益。據(jù)埃森哲預(yù)測,在人工智能的幫助下,人們將能更有效地利用時間,到2035年,在人工智能的推動下,我國勞動生產(chǎn)率有望提高27%。
二是人工智能正在改變?nèi)藗兊娜粘I罘绞?。在人工智能的?qū)動下,語音語義、計算機視覺等技術(shù)應(yīng)用更加成熟,智能化人機交互軟硬件不斷出現(xiàn),語音識別、人臉識別等技術(shù)已經(jīng)廣泛應(yīng)用于智能客服、遠程開戶、實名認證等方面,使得人們的生活更加便捷。例如微眾銀行和騰訊云合作,利用人工智能技術(shù),通過在手機上安裝的APP程序,僅需20s就能判斷開戶者與身份證持有者是否為同一人,使得用戶可以不用到銀行柜臺就能辦理各種銀行業(yè)務(wù)。
三是人工智能將驅(qū)動社會向更高層級發(fā)展。人工智能正在將人類從簡單重復(fù)的勞動中解放出來,使得人們有更多的時間去追求更高層級的生活體驗。例如,谷歌公司正在研發(fā)的無人駕駛汽車,就是在計算機視覺技術(shù)、傳感器與高精度地圖等人工智能軟硬件配合協(xié)作下,實現(xiàn)的在公路網(wǎng)上的自動行駛,使人們可以從“駕駛”的工作中解放出來,在車內(nèi)空間中開展辦公、休閑等活動,極大地提升了時、空利用率。
總的來看,現(xiàn)階段的人工智能是一種“賦能”技術(shù),可以應(yīng)用于生產(chǎn)生活的各個方面,有效提高效率和質(zhì)量,必將在今后的社會中發(fā)揮重要作用。
隨著人工智能的推廣應(yīng)用,特別是在金融、制造、交通等關(guān)系國家和人們生命安全的重要基礎(chǔ)領(lǐng)域的應(yīng)用,人工智能的安全問題也顯得尤為重要。
(1)人工智能類產(chǎn)品暫時無法擺脫傳統(tǒng)的信息安全問題
人工智能本質(zhì)上是一種信息通信技術(shù),需要運行在一定的信息系統(tǒng)環(huán)境中,這就意味著基于人工智能的應(yīng)用也面臨著傳統(tǒng)的信息安全問題。比如,基于人工智能的人臉識別算法已相對成熟,并在門禁、考勤等系統(tǒng)中應(yīng)用,但是黑客仍可利用系統(tǒng)自身漏洞、獲取管理員權(quán)限等方式實現(xiàn)入侵,使得人臉識別的功能失去意義。此外,現(xiàn)有的人工智能產(chǎn)品往往采用“終端+云端”的模式,云端的接口往往直接暴露在公共網(wǎng)絡(luò)環(huán)境下,或比較容易被找到,一旦發(fā)生拒絕服務(wù)攻擊,將使得整個產(chǎn)品陷入癱瘓狀態(tài)。
(2)諸多人工智能產(chǎn)品設(shè)計研發(fā)中安全考慮不足
現(xiàn)有的人工智能產(chǎn)品大多是基于機器學(xué)習(xí)或深度學(xué)習(xí)算法,而這些算法需要大量數(shù)據(jù)來訓(xùn)練模型,利用算法對輸入數(shù)據(jù)變化的敏感性,攻擊者可對輸入數(shù)據(jù)進行干擾生成對抗樣本誘使人工智能系統(tǒng)產(chǎn)生錯誤輸出,進而達到攻擊的效果。在2016年的DefCon會議上,來自360公司的團隊就利用對抗樣本攻擊成功控制特斯拉自動駕駛汽車;利用人工智能記錄數(shù)據(jù)細節(jié)的特點,可實施反向攻擊以獲取敏感信息,例如Fredrikson等人成功從面部識別系統(tǒng)恢復(fù)出訓(xùn)練數(shù)據(jù)集中特定用戶的圖像。
(3)人工智能亦“矛”亦“盾”,存在濫用風(fēng)險
人工智能是一種通用技術(shù),天生沒有“正”、“反”的屬性,但卻可能被用于不同的方面。一方面,人工智能正在被用于軍事領(lǐng)域,成為了得力的“殺人”工具,這種不需要人類操控就能自動運行的武器一旦“失控”,后果將不堪設(shè)想。在聯(lián)合國特定常規(guī)武器公約會議上,一位演講者介紹了一款迷你無人機,能夠自主飛行,且裝有小型爆炸物,通過人臉定位沖向目標(biāo),引爆爆炸物,實現(xiàn)一擊致命,充分展示了這種人工智能“武器”的強大威力。另一方面,人工智能正在被用于黑灰色產(chǎn)業(yè),為黑灰色產(chǎn)從業(yè)人員開展“刷單”、“撞庫”等惡意行為提供了方便。例如,驗證碼是存在于各種網(wǎng)絡(luò)入口的“守門員”,可以起到防止機器大規(guī)模注冊,防止機器暴力破解等作用。但是,利用人工智能技術(shù)可輕松識別圖形、語音驗證碼,將使驗證碼的防御功效大打折扣。目前,已有安全研究人員成功使用谷歌提供的Web Speech API(語音識別服務(wù))來破解它自己的reCaptcha聲音驗證碼。
目前,人工智能技術(shù)還屬于前沿科技,相關(guān)產(chǎn)品也處在嘗試性應(yīng)用階段,對其安全問題的研究也處于初期階段。但人工智能的安全風(fēng)險已引起相關(guān)國家、國際組織、科技巨頭公司、學(xué)術(shù)界等多方的關(guān)注和重視。
(1)歐美等發(fā)達國家將人工智能上升到國家戰(zhàn)略高度,并將安全問題作為重要研究方向
美國政府在2016年發(fā)布的《國家人工智能研究與發(fā)展策略規(guī)劃》和《為人工智能的未來做好準(zhǔn)備》兩份重要報告中,都將“確保人工智能系統(tǒng)的安全可靠”、“安全和控制”、“人工智能和網(wǎng)絡(luò)安全”作為美國人工智能戰(zhàn)略中的重點方向。同年6月,歐盟召開專門會議,討論人工智能立法問題,認為人工智能機器人也受法律約束,必須依法繳稅,同時可以享有養(yǎng)老金。
(2)部分國際組織、學(xué)術(shù)機構(gòu)意識到人工智能所面臨的安全和倫理問題,呼吁人們予以關(guān)注
國際標(biāo)準(zhǔn)化組織IEEE于2016年發(fā)布《合倫理設(shè)計:利用人工智能和自主系統(tǒng)最大化人類福祉的愿景》,提出科技人員在人工智能研發(fā)過程中應(yīng)遵循的人工智能安全倫理原則及實施建議,并鼓勵在人工智能研發(fā)過程中,優(yōu)先考慮安全和倫理問題。谷歌、OpenAI、加州大學(xué)伯克利分校、斯坦福大學(xué)的科學(xué)家聯(lián)合發(fā)表了《人工智能安全性的具體問題》一文,認為有必要在人工智能研究中對安全問題進行驗證,從而以切實可行的方法,設(shè)計安全可靠的人工智能系統(tǒng)。
(3)一些科技巨頭公司投入重金,開展人工智能安全方面的研究
特斯拉和SpaceX太空探索技術(shù)公司的CEO埃隆·馬斯克向FutureofLifeInstitute(FLI)捐贈1000萬美金專門用于保證人工智能安全性的研究。
近年來,我國政府先后出臺了《“互聯(lián)網(wǎng)+”人工智能三年行動實施方案》、《新一代人工智能產(chǎn)業(yè)發(fā)展規(guī)劃》、《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018—2020年)》等文件,黨的十九大報告指出要“加快建設(shè)制造強國,加快發(fā)展先進制造業(yè),推動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實體經(jīng)濟深度融合”,足可見人工智能在我國經(jīng)濟社會中的戰(zhàn)略高度。然而,人工智能是一把“雙刃劍”,我國在人工智能安全方面的努力還遠遠不夠,需要高度重視安全問題,否則可能無法享受其帶來的智能化“紅利”,反而會造成嚴(yán)重的社會問題。
因此,需要充分認清人工智能的本質(zhì)和特點,制定較為完善的法律政策要求,建立精確、精細的技術(shù)管理手段,確保人工智能的可管可控,以便更好地利用人工智能,發(fā)揮其價值作用,從而帶來技術(shù)上的創(chuàng)新與變革。建議我國政府、學(xué)術(shù)機構(gòu)及產(chǎn)業(yè)界聯(lián)手協(xié)作,共同應(yīng)對人工智能帶來的安全問題。
一是應(yīng)研究推進我國人工智能相關(guān)的法律法規(guī)建設(shè)。歐盟、日本等人工智能技術(shù)起步較早的地區(qū)和國家,已經(jīng)意識到機器人和人工智能進入生活將給人類社會帶來的安全與倫理問題,并已著手開展立法探索,如2016年5月,歐盟法律事務(wù)委員會發(fā)布《就機器人民事法律規(guī)則向歐盟委員會提出立法建議》的報告草案,探討如何從立法角度避免機器人對人類的傷害。我國也應(yīng)當(dāng)盡快開展相關(guān)研究,明確重點領(lǐng)域人工智能應(yīng)用中的法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任,建立和完善適應(yīng)智能時代的法律法規(guī)體系。
二是制定倫理準(zhǔn)則,完善人工智能技術(shù)研發(fā)規(guī)范。當(dāng)人工智能系統(tǒng)決策與采取行動時,人們希望其行為能夠符合人類社會的各項道德和倫理規(guī)則,而這些規(guī)則應(yīng)在系統(tǒng)設(shè)計和開發(fā)階段,就需被考慮并被嵌入到人工智能系統(tǒng)。因此,需要建立起人工智能技術(shù)研發(fā)的倫理準(zhǔn)則,指導(dǎo)機器人設(shè)計研究者和制造商對一個機器人做出道德風(fēng)險評估,并形成完善的人工智能技術(shù)研發(fā)規(guī)范,以確保人工智能系統(tǒng)的行為符合社會倫理道德標(biāo)準(zhǔn)。
三是應(yīng)研究建立人工智能產(chǎn)品的評估體系和準(zhǔn)入標(biāo)準(zhǔn)。應(yīng)盡快組織人工智能產(chǎn)業(yè)鏈上的各方專家,共同梳理研究我國人工智能應(yīng)用及標(biāo)準(zhǔn)化需求,并積極與ITU、ISO等國際標(biāo)準(zhǔn)化組織溝通對接,圍繞人工智能產(chǎn)品的研發(fā)、生產(chǎn)和使用等環(huán)節(jié),建立評估體系和準(zhǔn)入標(biāo)準(zhǔn)。對涉及國家政治、經(jīng)濟、國防、社會公共安全的人工智能信息系統(tǒng)的引進和建立,應(yīng)建立行政審核機制,引導(dǎo)采用自主品牌的產(chǎn)品和技術(shù)。
四是建立監(jiān)管體系,強化人工智能技術(shù)和產(chǎn)品的監(jiān)督。由于智能系統(tǒng)在使用過程中會不斷進行自行學(xué)習(xí)和探索,很多潛在風(fēng)險難以在研發(fā)階段或認證環(huán)節(jié)完全排除,因此加強監(jiān)管對于應(yīng)對人工智能的安全、隱私和倫理等問題至關(guān)重要。建議在國家層面建立一套公開透明的人工智能監(jiān)管體系,實現(xiàn)對人工智能算法設(shè)計、產(chǎn)品開發(fā)、數(shù)據(jù)采集和產(chǎn)品應(yīng)用的全流程監(jiān)管,加強對違規(guī)行為的懲戒,督促人工智能行業(yè)和企業(yè)自律。