美國國家科技委員會的機器學習與人工智能分委會
守護未來——人工智能的安全、法律與倫理——本刊特別策劃專題
美國白宮報告:為人工智能的未來做好準備1
美國國家科技委員會的機器學習與人工智能分委會
2016年10月15日,美國白宮發(fā)布為《人工智能的未來做好準備》(Preparing for the Future of Artificial Intelligence),該報告由美國國家科技委員會的機器學習與人工智能分委會完成,對人工智能的發(fā)展現(xiàn)狀、現(xiàn)有及潛在應用、人工智能技術(shù)進步引發(fā)的社會及公共政策相關(guān)問題進行了分析。
1.1 什么是人工智能
人工智能研究員佩德羅·多明戈斯根據(jù)人工智能研究人員采取的方式,將他們分為五大流派——根據(jù)抽象符號進行邏輯推理的“符號派”;受人腦啟發(fā)搭建結(jié)構(gòu)的“聯(lián)結(jié)派”;受達爾文進化論啟發(fā)的“進化派”;采用概率推理的“貝葉斯派”以及根據(jù)以前出現(xiàn)的類似情況進行推理的“類推派”。
雖然人工智能的界限并不確定并且隨時間推移發(fā)生變化,但這并非問題的重點,重點在于人工智能的研究和應用始終圍繞自動化或者復制智能行為。
1.2 對人工智能的擔憂暫不影響當前政策
美國國家科技委員會技術(shù)委員會的評估結(jié)果是,對超智商強人工智能的長期擔憂幾乎不對當前政策產(chǎn)生任何影響。如果這種恐慌被證明合理,聯(lián)邦政府應在短期到中期內(nèi)采用現(xiàn)行政策;如果無法證明其合理性,聯(lián)邦政府會采取幾乎相同的政策。對于長期存在的猜測性風險,最理想的解決之道就是提高能力,降低甚至消除當前已經(jīng)出現(xiàn)的非極端性風險,例如現(xiàn)在的安全和隱私風險,同時加大研究投入,提高長期應對挑戰(zhàn)的能力。此外,隨著該領域的研究和應用繼續(xù)走向成熟,政府和商界的人工智能實踐者應適當思考人工智能發(fā)展所能帶來的長期社會和倫理問題,而不僅僅是技術(shù)問題。雖然這種謹慎做法會讓一些人相信邪惡的超級智能或可在將來的某一天成為可能,但這種恐慌不應成為人工智能公共政策的主要影響因素。
1.3 政府隨時監(jiān)控技術(shù)發(fā)展
考慮到人工智能所能帶來的潛在影響,如果能夠準確及時地監(jiān)控和預測人工智能技術(shù)的發(fā)展,社會將會從中收益。
一個極具潛力的研究方法就是長期調(diào)查并記錄專家們在這一領域的看法。例如,一項關(guān)于人工智能研究人員的調(diào)查報告顯示,百分之八十的受訪者相信,和人類智商同級別的“強人工智能”能夠最終實現(xiàn),而其中一半的人相信在2040年之前實現(xiàn)這一目標的概率超過50%。絕大多數(shù)受訪者相信強人工智能將逐漸超越普通人類的智力。就如上面所討論的,雖然這些具體的預測還有很大的不確定性,但調(diào)查記錄這些專業(yè)判斷卻是十分有用的,尤其當這些判斷反復出現(xiàn),長期下來我們就可以看到這個領域?qū)<宜汲钡难葑儭?/p>
1.4 呼吁美國政府加大資金支持
2015年,據(jù)公開數(shù)據(jù)顯示,美國政府在人工智能相關(guān)領域投入研發(fā)資金大約為11億美元,此前預測顯示2016年相關(guān)投入將增長到12億美元。在白宮科技政策辦公室主辦的所有人工智能相關(guān)研討會和公共推廣活動中,無論是業(yè)界領袖、技術(shù)專家還是經(jīng)濟學家,都向政府官員呼吁加大在人工智能技術(shù)研發(fā)方面的政府投入。
我們有充分的理由支持聯(lián)邦政府加大在人工智能研究方面的資金投入。經(jīng)濟顧問委員會的分析顯示,不僅僅是人工智能研發(fā)領域,在所有科研領域,增加兩倍乃至三倍的研發(fā)投入所帶來的經(jīng)濟增長,對一個國家來說也是一項值得投資的凈收益。
可以肯定的是,私營企業(yè)將會是人工智能技術(shù)發(fā)展進步的主要引擎。但從目前的現(xiàn)狀來看,在基礎研究方面的投資還遠遠不夠,基礎研究投入周期長,研究目的純粹是為了拓展這一領域的科學邊界,因此私營企業(yè)很難在短期內(nèi)獲得相應的投資回報。
1.5 全體公民準備接受人工智能教育
人工智能的快速發(fā)展對具有相關(guān)技能的人員支持和相關(guān)領域的發(fā)展也提出了巨大的需求。
將人工智能、數(shù)據(jù)科學及相關(guān)領域與全國教育系統(tǒng)整合起來,對發(fā)展出一批突出國家戰(zhàn)略重點的從業(yè)者十分必要。各個級別的教育機構(gòu)都在設立和發(fā)展人工智能項目。大學、院校甚至中學都在擴充人工智能和數(shù)據(jù)科學課程,但我們現(xiàn)在需要更多的項目和教師。
在一個具備人工智能技術(shù)的社會中,要求全體公民都能夠閱讀數(shù)據(jù)、理解數(shù)據(jù),對數(shù)據(jù)進行溝通,并參與到與人工智能相關(guān)政策制定的討論中來。在中學乃至小學就引進數(shù)據(jù)科學課程,可以有效改善國民的數(shù)據(jù)知識水平,同時為學生在高中之后理解更高級別的數(shù)據(jù)科學概念和課程做好準備。
人工智能教育同時還是“全民計算機科學教育”項目的組成部分,總統(tǒng)發(fā)起這個項目的目的是,讓所有美國學生從幼兒園一直到高中都可以學習計算機科學課程,培養(yǎng)計算機思維技能,在數(shù)字經(jīng)濟中成為一名創(chuàng)造者而不僅僅是消費者,同時在一個技術(shù)驅(qū)動的社會中成為一名活躍的合格公民。美國經(jīng)濟正在發(fā)生劇變,無論是教育工作者還是商業(yè)領袖都越來越意識到,計算機科學在經(jīng)濟機會和社會流動性方面已經(jīng)成為一門“新基礎技能”。在此之前,全國各地的家長、老師、社區(qū)、州政府以及私營企業(yè)領袖已經(jīng)在計算機科學教育方面有了很大的投入,全民計算機科學教育項目就是建立在這一基礎之上,也是為了讓未來的從業(yè)者準備好迎接人工智能驅(qū)動經(jīng)濟的需求所帶來的挑戰(zhàn)。
1.6 預防機器產(chǎn)生偏見
人們往往陷入一個誤區(qū),認為復雜的算法一般是遵照其設計者的指令,那么只有在設計者自身有意或無意地擁有偏見時,一種算法才會出現(xiàn)偏見。這一點使得人們難以正確認識機器學習的結(jié)果。一名技術(shù)開發(fā)員若想開發(fā)出一種帶有偏見的算法自然不是難事,而無意識的偏見也常常會使從業(yè)者們防范不足。但是在實踐中,無偏見的開發(fā)者們盡心盡力開發(fā)出的系統(tǒng)也難免會產(chǎn)生帶有偏見的結(jié)果,因為即便是人工智能系統(tǒng)的開發(fā)者也無法完全了解并防止意外結(jié)果的產(chǎn)生。舉個例子,在未進行大量測試時,一個為照片自動添加說明的模型可能會在一些膚色較深的肖像照片上添上“大猩猩”字樣。這與開發(fā)者的意圖背道而馳,即便測試結(jié)果顯示該模型已經(jīng)為絕大多數(shù)照片提供了準確的結(jié)果,可這種糟心事還是會發(fā)生。這種類似錯誤雖然發(fā)生的幾率很小,但其造成的惡劣結(jié)果卻不是人力所能左右的,其中并沒有蘊含任何種族概念,也沒有對相關(guān)歷史背景的看法。防止這類問題的一個辦法就是進行大量的算法測試,對人們的面部進行仔細地檢查和標注,包括人為地對一些結(jié)果進行篩查,識別出模型無法發(fā)現(xiàn)且人類無法接受的結(jié)果。
1.7 致力于確保人工智能的“道德”
應將人工智能的社會利益與社會和經(jīng)濟影響作為法律和政府管理的常規(guī)課題召開專題討論會,確保人工智能可以促進正義和公平,確保以人工智能為基礎的技術(shù)能夠取得利益相關(guān)方的信賴。
對人工智能的從業(yè)者和學生進行道德倫理教育也是該方案的一個重要組成部分。最好能讓每個學習人工智能、計算機或數(shù)據(jù)科學的學生都加入有關(guān)道德和安全問題的課程和討論。但是,單單學習道德還不夠。道德可以使從業(yè)者們認清他們對所有利益相關(guān)方的責任,但道德培訓還應增強學生們將良好的意圖植入實踐的技術(shù)能力,在構(gòu)建和測試系統(tǒng)時,加入更多的技術(shù)防范。
1.8 致命性武器難以預測
在一系列與國防相關(guān)的活動中,人工智能可能提供顯著的優(yōu)勢。非致命性的活動,如物流、維護、基本操作、退伍軍人的醫(yī)療、救生戰(zhàn)場醫(yī)療救助和傷員運送、人員管理、導航、通信、網(wǎng)絡國防和情報分析可以從人工智能中受益,使美國軍隊更加安全和高效。人工智能也可以通過非致命手段在新的系統(tǒng)中扮演重要角色,保護人員和高價值的固定資產(chǎn)并防止攻擊。最后,這些應用可能會成為國防部最重要的部分。
從更廣泛的角度看軍事技術(shù)和人工智能的進步,科學家、戰(zhàn)略專家和軍事專家一致認為,致命性自主武器系統(tǒng)的未來難以預測,而且變化速度非???。許多新水準可能不久便會成為達到,并迅速得以發(fā)展和運用。行政機構(gòu)正積極、持續(xù)進行跨部門討論,致力于制定關(guān)于自動武器的政府政策,并符合人類共同的價值觀、國家安全利益和國內(nèi)國際義務。
如果業(yè)界、公民社會、政府和公眾共同努力,支持技術(shù)的發(fā)展,密切關(guān)注它的發(fā)展?jié)摿Γ芾硭娘L險,那么人工智能就將成為經(jīng)濟增長和社會進步的主要驅(qū)動力。
政府可以發(fā)揮多方面的作用。它可以召集各方就重要問題進行交流,幫助制定公開辯論的日程。它可以在技術(shù)開發(fā)的同時對其應用的安全性和公平性進行監(jiān)督,并制定規(guī)章制度在保護大眾的同時鼓勵創(chuàng)新。它應該支持基礎性研究,支持將人工智能應用于公眾福利,支持有技能的、多樣化的從業(yè)者的培養(yǎng)。同時,政府自身也應使用人工智能,更快捷、更有效、更經(jīng)濟地服務大眾。
從教育到經(jīng)濟安全網(wǎng)、再到國防、環(huán)境保護、刑事司法,許多公共政策的領域都將在人工智能的持續(xù)發(fā)展中迎來新的機遇和新的挑戰(zhàn)。政府應不斷提升自身的能力,了解并應對這些改變。
隨著人工智能技術(shù)的不斷發(fā)展,從業(yè)者們必須確保人工智能為基礎的系統(tǒng)能夠得到有效的管理;確保它們公開、透明、易于理解;確保它們能夠和人們一起高效地工作;確保它們的應用不會與人類的價值觀和理想背道而馳。研究人員和從業(yè)者們已經(jīng)增加了對這些挑戰(zhàn)的關(guān)注,并將繼續(xù)關(guān)注下去。
開發(fā)和研究機器智能可以幫助我們更好地理解和鑒別自身的人類智能。縝密周到地使用人工智能可以提高我們的智能水平,幫助我們規(guī)劃出一條更美好、更只能的道路,大步前進。
建議措施1:鼓勵私人和公共機構(gòu)進行自我審視,判斷自身是否能夠、且通過何種方式,才能盡可能得利用人工智能和機器學習技術(shù)為社會造福。社會爭議機構(gòu)和公共政策機構(gòu)在日常工作中通常不會使用先進技術(shù)及數(shù)據(jù)科技,但應該考慮與人工智能研究人員及從業(yè)者開展合作,促進人工智能技術(shù)解決更廣泛的社會問題,尤其是這些機構(gòu)正在通過其他方式進行解決的那些社會問題。
建議措施2:聯(lián)邦機構(gòu)應該將人工智能的公開培訓數(shù)據(jù)及公開數(shù)據(jù)標準放在工作中的首要位置。政府應該強調(diào)發(fā)布數(shù)據(jù)集的重要性,這樣,人工智能就可以用于解決社會難題了。潛在步驟可能包括:通過實施“人工智能公開數(shù)據(jù)”計劃,實現(xiàn)公布大量政府數(shù)據(jù)集的目標,加速人工智能研究,在政府、學術(shù)機構(gòu)和私營部門等領域,促進人工智能公開數(shù)據(jù)標準的使用和最佳實踐。
建議措施3:聯(lián)邦政府應該探索新方法,提高關(guān)鍵機構(gòu)應用人工智能完成任務的能力。例如,聯(lián)邦機構(gòu)應該發(fā)揮潛能,設立類似國防高級研究計劃局這樣的機構(gòu),以支持高風險、高回報的人工智能研究及其應用。教育部就是一例,該部提出建立專項高級教育研究項目,以確定人工智能及其他技術(shù)是否能夠顯著提高學生的學習成績。
建議措施4:美國國家科技委員會的機器學習和人工智能分會應該為政府的人工智能從業(yè)者們開辟一個實踐社區(qū)。各機構(gòu)應該共同努力,制定并分享人工智能在政府工作中的使用標準和最佳實踐經(jīng)驗。各機構(gòu)應該確保將人工智能引入到“聯(lián)邦雇員培訓計劃”的可能性。
建議措施5:在制定人工智能驅(qū)動的產(chǎn)品政策時,相關(guān)機構(gòu)應當吸收適當?shù)母呒壖夹g(shù)專家。有效管理人工智能驅(qū)動的產(chǎn)品需要以下三方的合作:機構(gòu)領導、了解現(xiàn)有管理框架和辦法的雇員、人工智能技術(shù)專家。機構(gòu)領導應當采取措施外聘必要的技術(shù)專家,或者從內(nèi)部挑選專家,并且確保在管理政策討論中保留足夠的技術(shù)“討論席位”。
建議措施6:機構(gòu)應當充分使用人員任命和交流模式(如招聘部門),以培養(yǎng)聯(lián)邦的工作人員,從多個角度了解當前的技術(shù)發(fā)展狀況。
建議措施7:交通部應該與產(chǎn)業(yè)界和研究人員合作,加強用于安全、研究和其他目的的數(shù)據(jù)共享。未來,人工智能將在地面車輛和飛行器上得到重要應用。面對這樣的未來,聯(lián)邦機構(gòu)應在短期內(nèi)建立起豐富的數(shù)據(jù)集——收集數(shù)據(jù)時要注意保護消費者隱私——以便在這些技術(shù)成熟時能夠做出更合理的決策。
建議措施8:美國政府應投資開發(fā)和應用一種高端的自動空中交通管理系統(tǒng),該系統(tǒng)可擴展升級,也能夠同時應對無人機和有人駕駛的飛行器。
建議措施9:美國交通部應繼續(xù)致力于建立不斷完善的制度框架,確保全自動車輛和無人飛行器的安全整合,包括將新型車輛設計融入到公共交通系統(tǒng)。
建議措施10:美國國家科技委員會機器學習和人工智能分委員會應該監(jiān)控人工智能技術(shù)的發(fā)展,并定期向上級主管部門領導匯報人工智能的發(fā)展狀況,尤其是關(guān)于其發(fā)展技術(shù)中的里程碑式突破。隨著技術(shù)的不斷發(fā)展和專家共識的不斷變化,分委員會應及時更新里程碑清單,并考慮在合適的時機向公眾報告人工智能技術(shù)的發(fā)展狀況。
建議措施11:政府應該監(jiān)控其他國家的人工智能發(fā)展狀況,尤其是人工智能技術(shù)的里程碑式突破。
建議措施12:人工智能相關(guān)行業(yè)應該和政府合作,及時向政府反饋行業(yè)的最新發(fā)展動態(tài),包括近期可能在技術(shù)上取得的重大突破。
建議措施13:聯(lián)邦政府應該優(yōu)先發(fā)展人工智能的基礎和長期研究項目。如果聯(lián)邦政府和私營企業(yè)能夠在人工智能研發(fā)領域長期穩(wěn)定地投入資金,尤其是在高風險的基礎研究領域的長期投資,會讓整個國家從中受益。由于私營企業(yè)尤其不愿意在長期的基礎研究領域進行投資,這就更凸顯出聯(lián)邦政府在一領域進行研發(fā)投資的重要性。
建議措施14:美國國家科技委員會(NSTC)機器學習與人工智能網(wǎng)絡信息技術(shù)研發(fā)分委員會,以及科學技術(shù)工程教育委員會應該聯(lián)合發(fā)起一項關(guān)于人工智能從業(yè)者流水線的研究,以發(fā)展出更多的事情及行動,促進從業(yè)者包括人工智能研究人員、專家和用戶在數(shù)量、質(zhì)量和多樣性上的合理增長。
建議措施15:總統(tǒng)辦公室應在年底前出版一份后續(xù)報告,進一步研究人工智能和自動化對美國就業(yè)市場的影響,并提出應對政策的綱要。
建議措施16:使用人工智能系統(tǒng)進行決策或為相關(guān)決策提供支持的聯(lián)邦機構(gòu)在決定個人事宜時,應當特別注意確保這些系統(tǒng)的效力和公平,并以證據(jù)為基礎進行驗證和確認。
建議措施17:資助各州和地方政府使用人工智能系統(tǒng)進行有關(guān)個人的決策的聯(lián)邦機構(gòu)應當對資金的使用條件進行審核,確保使用聯(lián)邦資金購買的以人工智能為基礎的產(chǎn)品或服務能夠產(chǎn)生足夠透明的結(jié)果,并以證據(jù)確保其效力和公平性。
建議措施18:學校和大學應該將道德、保障、隱私和安全等主題作為人工智能、機器學習、計算機科學和數(shù)據(jù)科學課程的一部分。
建議措施19:人工智能專業(yè)人士、安全專業(yè)人士以及他們所在的專業(yè)團體應該共同努力將人工智能向著更為成熟的人工智能安全工程領域推進。
建議措施20:美國政府應在涉及人工智能的國際參與方面制定政府層面的政策,并制作需要國際參與和監(jiān)督的人工智能熱點領域清單。
建議措施21:美國政府應該加深與關(guān)鍵國際利益相關(guān)者的合作,包括外國政府、國際組織、業(yè)界、學術(shù)界等,以交流人工智能研發(fā)方面的信息并促進合作。
建議措施22:機構(gòu)的計劃和戰(zhàn)略應考慮到人工智能和網(wǎng)絡安全之間的相互影響。參與人工智能問題的機構(gòu)應該向美國政府和私營部門網(wǎng)絡安全部門確保,人工智能系統(tǒng)和生態(tài)系統(tǒng)在應對智能對手時能夠保持安全性和恢復力。參與網(wǎng)絡安全問題的機構(gòu)應該使美國政府和私營部門人工智能部門制定創(chuàng)新的方法應用人工智能,以實現(xiàn)有效和高效的網(wǎng)絡安全。
建議措施23:美國政府應該在符合國際人道主義法的基礎上制定關(guān)于自動和半自動武器的統(tǒng)一政府政策。
1本報告中文版由譯言&第九區(qū)譯制并分享