秦 雪/編譯
人工智能、人與社會
秦 雪/編譯
艾薩克·阿西莫夫在一篇關(guān)于他的科幻小說的文章中表示:將機(jī)器人描述為一種危險的設(shè)備是很常見的,并總是以摧毀它們的創(chuàng)造者為結(jié)局。但他反對這一觀點,并制定了確保機(jī)器人系統(tǒng)安全且不會傷害人類的“機(jī)器人三定律”。1955年在建議使用計算機(jī)解決人類面臨的各種問題時首次使用了“人工智能”一詞,這離阿西莫夫“人與機(jī)器人”關(guān)系的問世僅幾年時間。半個多世紀(jì)以來,人工智能研究已日趨成熟并發(fā)展了多個分支學(xué)科,產(chǎn)生了一系列機(jī)器學(xué)習(xí)方法,賦予人工智能感知、學(xué)習(xí)、推理以及理解自然語言等多種能力。
“深度學(xué)習(xí)”令機(jī)器模式在準(zhǔn)確性上取得了令人驚訝的跳躍式進(jìn)展,人工智能日益繁榮的時代已經(jīng)到來。這些新的進(jìn)展給消費者帶來了人工智能的許多新能力,包括語音翻譯和半自動駕駛等。然而,許多艱難的挑戰(zhàn)依然存在,如何讓人工智能學(xué)會人類智能的許多能力,仍然是人工智能科學(xué)家困惑的一個問題。
與此同時,對人工智能潛在負(fù)面影響的憂慮也減緩了對AI研究的興奮和激情。受一些很久以前的科幻故事情節(jié)影響,有些人擔(dān)心超級智能機(jī)器人的崛起或人工智能系統(tǒng)可能會失控。另外一些人注重的則是一些較近的憂患問題,強(qiáng)調(diào)潛在的不良后果。例如,用于指導(dǎo)衛(wèi)生保健和刑事司法中高風(fēng)險決策的數(shù)據(jù)驅(qū)動分類器,可能受到隱藏在數(shù)據(jù)集深處的帶有偏見觀點的數(shù)據(jù)的影響,從而導(dǎo)致不公正和不準(zhǔn)確的推斷。其他迫在眉睫的問題包括關(guān)于自主系統(tǒng)所做決定的法律和道德問題,解釋人工智能所做推斷的困難,新形式的監(jiān)督系統(tǒng)對公民自由的威脅,軍事應(yīng)用不穩(wěn)定產(chǎn)生的影響,取代人類就業(yè)崗位的潛在威脅以及財富不平等現(xiàn)象的擴(kuò)大等。
我們在推動人工智能科學(xué)向前發(fā)展的同時,在短期和長期尺度上解決人工智能對人類和社會的影響將至關(guān)重要。例如,可以通過重點研究、監(jiān)測和分析,制定出有價值的評估和指導(dǎo)方案。人工智能的影響范圍廣泛,需要跨學(xué)科團(tuán)體的參與,包括計算機(jī)科學(xué)家、社會科學(xué)家、心理學(xué)家、經(jīng)濟(jì)學(xué)家和律師等。就長期問題來說,通過對話就超級人工智能和邪惡人工智能的不同看法和分歧進(jìn)行溝通是很有必要的。有前途的發(fā)展方向包括確定軌跡和結(jié)果,讓人工智能加入到計算機(jī)科學(xué)家和工程師們在軟件驗證、技術(shù)安全和故障安全設(shè)計原則等方面的工作中去。
好消息是,關(guān)于人工智能的研究以及一些項目計劃的實施已在進(jìn)行之中。2008年人工智能發(fā)展協(xié)會主持了一項長達(dá)數(shù)月的關(guān)于人工智能未來發(fā)展的研究項目,研究AI的興趣在之后美國加州阿西洛瑪?shù)囊淮螘h上達(dá)到了高潮。該項目負(fù)責(zé)在未來一個世紀(jì)甚至更長時間里,每5年組織一次類似研究的總結(jié)報告。最近其他方面的一些活動包括美國國家科學(xué)院主辦的研習(xí)班和研究項目。2017年4月,在一項為期兩年的調(diào)查研究之后,一份關(guān)于自動化對美國勞動力影響的報告問世了。2017年早些時候,來自工業(yè)界、學(xué)術(shù)界和民間社會的代表組成了一個稱為“AI伙伴關(guān)系”的非營利組織,以期為開發(fā)和保護(hù)人工智能技術(shù)推薦最佳范例。
阿西莫夫曾撰文總結(jié)道,“我無法讓自己相信,如果知識出現(xiàn)了危機(jī),解決方案也一樣無知。對我來說,解決方案必須充滿智慧。你不應(yīng)該拒絕面對危險,而是要學(xué)會如何安全地掌控它。”事實的確如此,人工智能的前進(jìn)之路應(yīng)該由理智的好奇心、謹(jǐn)慎與合作來引導(dǎo)。
[資料來源:Science][責(zé)任編輯:彥 隱]