□ 文 司曉
過去幾年,隨著技術的發(fā)展,各種包含人工智能技術的產(chǎn)品走入大眾生活的方方面面。從新聞客戶端中越來越“懂你”的信息流,到開始嘗試在封閉道路上自動駕駛的汽車。但是,人工智能這個“仆人”真的忠誠么?又或者說,人工智能只需要遵守忠誠一條倫理么?當越來越多的人工智能承擔了原本由人類承擔的工作,人工智能倫理問題成為了技術行業(yè)、監(jiān)管機構和大眾最為關注的問題。
如果為人工智能建立倫理框架,未來人工智能應該做到“可知”、“可控”、“可用”和“可靠”的。一個新技術的誕生本身無關好壞,但通過倫理法律和各種制度設計確保這些技術能夠成為“好的技術”是人類自身的責任。
當前的人工智能發(fā)展浪潮很大程度上受益于我們在使用互聯(lián)網(wǎng)過程中積累的大量數(shù)據(jù)。如今,互聯(lián)網(wǎng)連接了世界一半以上的人口,僅在中國便有8億網(wǎng)民。但互聯(lián)網(wǎng)在帶來便利與效率的同時,也帶來了風險,尤其是在大數(shù)據(jù)和人工智能大范圍驅(qū)動日常生活的時代。算法決定著我們閱讀的內(nèi)容,決定著我們的目的地以及出行方式,決定著我們所聽的音樂,決定著我們所購買的物品及其價格。自動駕駛汽車、自動癌癥診斷和機器人寫作等新事物正前所未有地接近大規(guī)模商業(yè)應用。
因此,在某種程度上,將數(shù)據(jù)比喻為“新石油”,將人工智能比喻為“新鉆頭”并無不妥,而故障算法及其帶來的負面影響則可比喻為由此產(chǎn)生的“新污染”。但要注意的是,算法故障不等于有惡意。因為善意并不能保證算法不導致任何法律、倫理和社會問題。在人工智能領域,我們有相當多這樣的例子,例如由于技術意外、缺乏對問題的預見或技術上難以監(jiān)督監(jiān)管、責任分散導致的隱私侵犯、算法偏見和濫用等。此外,一些研究人員開始擔心智能機器將取代人類勞動力,從而導致社會失業(yè)率上升。
很多人認為人工智能倫理還是一個科幻議題,但其實麻煩已經(jīng)迫在眉睫。最近幾年,一系列涉及AI不端行為的新聞頻頻出現(xiàn)在新聞客戶端;面部識別應用程序?qū)⒎且崦绹藰擞洖榇笮尚?,將國會議員標記為刑事罪犯;美國法院使用的風險評估工具對非裔美國人有偏見;優(yōu)步的自動駕駛汽車在亞利桑那州撞死了一名行人;Facebook和其他大公司因歧視性廣告行為被起訴。
在過去幾十年中,對技術倫理的研究經(jīng)歷了三個階段。第一階段的研究主要集中在計算機上。在此期間,各國頒布了大量有關計算機使用、欺詐、犯罪和濫用的倫理準則和法律,大多數(shù)規(guī)則今天也仍然適用。第二階段則集中在互聯(lián)網(wǎng)領域,創(chuàng)建了規(guī)范信息創(chuàng)建、保護、傳播和預防濫用的倫理原則和法律?,F(xiàn)在,這個研究領域已經(jīng)悄然進入了一個全新的第三階段,可以將其稱為“數(shù)據(jù)和算法倫理”。未來,我們將需要有關人工智能開發(fā)和利用的倫理框架和法律。
而究竟如何為人工智能制定倫理,是全人類都沒有遇到過的問題,我們正在向無人區(qū)航行,需要原則和規(guī)則作為指南針,來指導這次偉大的探險,而技術倫理則是這套原則和規(guī)則的核心。當前,一些政府部門和行業(yè)協(xié)會已開始嘗試建立這樣的倫理框架,顯著的例子包括阿西洛馬人工智能原則,以及IEEE的倫理標準和認證計劃。
今年九月,騰訊董事會主席兼首席執(zhí)行官馬化騰在上?!?018世界人工智能大會”上提出人工智能的“四可”理念,即未來人工智能是應當做到“可知”、“可控”、“可用”和“可靠”。筆者將“四可”翻譯為“ARCC”(Available,Reliable,Comprehensible,以及Controllable,讀作ark,寓意“方舟”),正如傳說中數(shù)千年前拯救人類文明的諾亞方舟一樣,人工智能領域的“倫理方舟”(ARCC)也將在未來幾千年確保人類與機器之間友好、和諧的關系。因此,這四項原則值得深入探討。
這一原則要求盡可能多的人可以獲取、利用人工智能,而不是為少數(shù)人所專享。我們已經(jīng)習慣于智能手機、互聯(lián)網(wǎng)、應用程序帶來的便利,而往往忘了還有半個世界被隔絕在這場數(shù)字變革之外。人工智能的進步應該解決這個問題,而不是加劇這個問題。我們應該讓欠發(fā)達地區(qū)的居民,以及老人、殘障人士回到數(shù)字世界中來,而不是將數(shù)字鴻溝視為既定事實。我們需要的人工智能應當是包容的、可被廣泛共享的技術,并將人類的共同福祉作為其唯一發(fā)展目的。只有這樣,我們才能確定人工智能不會讓少數(shù)人的利益凌駕于大眾之上。
以最近醫(yī)療機器人的發(fā)展為例,騰訊醫(yī)療AI實驗室開發(fā)的“覓影”目前正與數(shù)百家地區(qū)醫(yī)院的放射科醫(yī)生合作。這種癌癥預篩查系統(tǒng)目前已經(jīng)審查了數(shù)十萬張醫(yī)學影像,鑒別出數(shù)十萬個疑似高風險病例,并將這些案例轉(zhuǎn)交給人類專家進行進一步判斷。這項技術使醫(yī)生免于繁重的影像判斷工作,從而有更多的時間來照顧病人。讓機器和人類各司其職,在這種情況下,醫(yī)生與看似危及其工作的機器和平相處。
此外,可用的人工智能還應當是公平的。完全遵循理性的機器應該是公正的,沒有人類的情緒化、偏見等弱點。但機器的公正并不是想當然存在的。最近發(fā)生的事件,如微軟開發(fā)的聊天機器人使用粗俗語言等,表明當給人工智能“喂養(yǎng)”了不準確、過時、不完整或有偏見的數(shù)據(jù)時,機器也會犯和人類一樣錯誤。對此,必須強調(diào)“經(jīng)由設計的倫理”(ethics by design)理念,也就是在人工智能的開發(fā)過程中就要仔細識別、解決和消除偏見??上驳氖?,政府部門和互聯(lián)網(wǎng)行業(yè)組織等已經(jīng)在制定解決算法偏見和歧視的指導方針和原則。谷歌、微軟等大型科技公司也已經(jīng)建立了自己的內(nèi)部倫理委員會來指導其人工智能研究。
人工智能的應用如機器人等已進入普通家庭,我們需要這些人工智能是安全的、可靠的,能夠抵御網(wǎng)絡攻擊和其他事故。以自動駕駛汽車為例,騰訊目前正在開發(fā)3級自動駕駛系統(tǒng),并已獲得在深圳市進行道路測試的許可。而在獲得道路測試許可前,騰訊的自動駕駛汽車需要在封閉場進行累計超過一千公里的封閉測試,以確保道路測試的安全。但由于相關的認證標準和法律規(guī)定仍有待確定,目前道路上還沒有投入商用的真正的自動駕駛汽車。
此外,人工智能的可靠性還應當確保數(shù)字安全、物理安全和政治安全,尤其是對用戶隱私的保護。由于人工智能研發(fā)需要收集個人數(shù)據(jù)以訓練其人工智能系統(tǒng),研發(fā)者在這一過程中應當遵守隱私要求,踐行“經(jīng)由設計的隱私”(privacy by design)理念,通過一定的設計保護用戶的隱私,并防止數(shù)據(jù)濫用。
深度學習等人工智能方法的流行,使得底層的技術細節(jié)越發(fā)隱秘,可謂隱藏在一個“黑盒”當中。深度神經(jīng)網(wǎng)絡的輸入和輸出之間還有很多隱藏層,這使得研發(fā)人員都可能難以理解其系統(tǒng)。因此,當人工智能算法導致車禍時,調(diào)查其技術原因可能需要花費數(shù)年時間。
幸運的是,AI行業(yè)已經(jīng)開始對可理解的AI模型進行研究。算法透明是實現(xiàn)可理解人工智能的一種方式。雖然用戶可能不大關心產(chǎn)品背后的算法,但監(jiān)管機構需要深入了解技術細節(jié)以便進行監(jiān)管。無論如何,就AI系統(tǒng)直接作出或輔助做出的決策,向用戶提供易于理解的信息和解釋,都是值得鼓勵的。
為了建立可知的人工智能,應該保證和鼓勵公眾參與和個人權利的行使。人工智能開發(fā)不應只是企業(yè)的秘密行為。作為最終用戶的公眾可以提供有價值的反饋,有權質(zhì)疑可能造成傷害或難堪的機器決策,這將有助于開發(fā)更高質(zhì)量的人工智能。
此外,可知的人工智能要求企業(yè)提供必要的信息,也即科技公司應當向其用戶提供有關AI系統(tǒng)的目的、功能、限制和影響的足夠信息。
可控原則目的在于確保人類始終處于主導地位。從數(shù)千年前的文明曙光乍現(xiàn),到今日的科學技術發(fā)展,人類始終控制著自己的造物,AI或是任何其他技術都不應當成為例外。只有確保機器的可控性,人類才能在機器出差錯、損害人類利益時,及時阻止事態(tài)惡化。只有嚴格遵循可控原則,我們才能避免霍金和馬斯克等名人所描繪的科幻式的噩夢。
每一次創(chuàng)新都會帶來風險。但是,我們不應該讓這些擔憂和恐懼阻止我們通過新技術邁向更好的未來。我們應該做的是確保AI的好處遠遠超過潛在的風險,制定并采取適當?shù)念A防措施,以防范潛在的風險。
就目前而言,人們還不信任人工智能。我們經(jīng)常能看到批評自動駕駛汽車不安全、過濾系統(tǒng)不公平、推薦算法限制選擇、定價機器人導致更高價格的聲音。這種根深蒂固的懷疑來源于信息的匱乏,我們大多數(shù)人要么不關心,要么沒有足夠的知識來理解人工智能。對此我們應該如何行動?
應該提議是,以倫理原則為起點,建立一套規(guī)則體系,以幫助人工智能開發(fā)人員及其產(chǎn)品贏得公眾的信任。
規(guī)則體系的最左端,是軟法性質(zhì)的規(guī)則,包括非強制性的社會習慣、倫理標準和自我行為規(guī)范等,以及筆者所說的倫理原則。國際上,谷歌、微軟和其他一些大公司都已經(jīng)提出了它們的AI原則,且阿西洛馬人工智能原則和IEEE的AI倫理項目都得到了很高評價。
隨著規(guī)則體系的坐標右移,我們有強制性的規(guī)則,例如標準和法律規(guī)范。今年發(fā)布的一份關于自動駕駛汽車的政策研究報告,發(fā)現(xiàn)目前許多國家正在研究制定鼓勵和規(guī)范自動駕駛汽車的法律規(guī)則。可以預見未來各國也將制定關于人工智能的新法律。
隨著規(guī)則體系的坐標繼續(xù)右移,我們可以通過刑法懲罰惡意使用人工智能的行為。而在規(guī)則體系的最右端,則是具有最大約束范圍的國際法。一些國際學者正在積極推動聯(lián)合國提出關于禁止使用致命自動化武器的公約,就像禁止或限制使用某些常規(guī)武器的公約一樣。
最后,其實無論是核技術還是人工智能,技術本身是中性的,既非善也非惡。賦予技術價值并使它們變得美好是人類自身的責任?!?/p>