• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      如何讓機器人變得善良

      2018-07-05 04:24:08何夢雨
      東西南北 2018年9期
      關鍵詞:阿金道德機器人

      何夢雨

      傳說400年前,在現在被稱為捷克共和國的布拉格,有位猶太教的拉比跪在伏爾塔瓦河河畔,他從水中撈出黏土,小心翼翼地拍打捏出人的形狀:原來,布拉格的猶太人被誣告在他們舉行的宗教儀式中使用基督徒的鮮血,因此遭到襲擊。所以拉比猶大·洛伊烏·本·比扎萊爾決定,他的社區(qū)需要一個比任何人都強的保護者。他將希伯來文的單詞emet(真相)刻在黏土巨人的前額上,并將一個寫有卡巴拉教派公式的膠囊放進它的嘴里。這個生物就有了生命。

      第一個人造人格勒姆就這樣誕生了,格勒姆在貧民窟巡邏,保護猶太社區(qū)內的人,并從事有益的工作:掃街、送水、劈柴。一切都很順利,直到有一天平靜被打破了,拉比忘了按照黏土人的要求讓其在安息日休息,于是這個怪物開始了一場兇殘的作亂。拉比被迫擦掉了格勒姆前額上刻字的首字母,它額頭上的字變成了met,在希伯來文中是“死亡”的意思。生命從黏土人的身體中消逝,它崩落成灰塵。

      這個關于制造人形機械仆人風險重重的警示性故事,在人工智能時代獲得了新的意義。機器人軍團現在不假思索地執(zhí)行我們的指示,但我們如何確保這些生物,無論它們是用黏土還是硅制成,始終以我們的利益來行事呢?我們應該教他們學會思考嗎?如果是這樣,我們如何教他們辨認對錯?

      人工智能相當于人類召喚惡魔?

      在2018年,這個問題變得更加迫切。自動駕駛汽車在城市的街道行駛數百萬英里,同時做出可能影響其他道路使用者安全的自主決定。日本、歐洲、中國和美國的機器人專家正在開發(fā)服務型機器人,為老年人和殘疾人提供護理。2015年日本研發(fā)的護理型機器人ROBEAR(它們長著小熊貓的臉)就致力于幫助那些行動不便的人,輕柔的動作可以將人類抱起或放下,或者是幫助其站立起來。但是我們也可以想象它們會輕易把人撕得粉碎。

      自2000年以來,美國陸軍就部署了數以千計的配備機槍的機器人,每個機器人都能夠在沒有人類參與的情況下定位目標并瞄準目標(然而,他們不允許在無人監(jiān)督的情況下扣動扳機)。這些越來越復雜的機器人正準備接管美國陸軍最危險、最枯燥無味和骯臟的工作。它們已經用于尋找埋藏在路邊的炸彈,執(zhí)行空中偵察任務和監(jiān)視軍事基地周圍的情況。

      在科幻小說或電影中,人工智能經常讓人類陷入噩夢中。電動汽車公司特斯拉、商業(yè)太空飛行公司SpaceX首席執(zhí)行官埃隆·馬斯克曾發(fā)表評論稱,人工智能的進步就相當于人類正在召喚惡魔。他聲稱:“我認為我們應當對人工智能萬分小心。如果讓我猜測人類生存面臨的最大威脅,人工智能或許就是?!敝锢韺W家霍金也表達了自己的擔憂,他認為人類不斷在AI領域探索“是個極大的錯誤,該錯誤甚至可能是人類有史以來犯過的最愚蠢的錯誤?!?/p>

      2016年夏天,白宮委托專家研討機器人的道德問題。麻省理工學院情感計算部主任羅薩琳德·皮卡德說:“機器的自由度越大,就越需要道德標準?!?h3>機器人就像孩子一樣需要學習

      現在蜿蜒流淌的伏爾塔瓦河岸邊矗立著未來派風格的辦公大樓,就在猶太拉比雕刻他的格勒姆的地方,整齊排列的電腦嗡嗡作響。這些電腦是奇特的教師,像忠誠于教育任務的人類一樣有崇高的目的。他們的學生沒有坐在電腦屏幕前,而是存在于硬盤上。這個名為GoodAI的虛擬學校教育的是人工智能:教它們思考、理智和行動。GoodAI的總體愿望是培養(yǎng)具有倫理的人工智能?!斑@并不意味著讓人工智能遵循既定的規(guī)則,按照人類規(guī)定的可能情況,明白該做什么,不應該做什么?!苯菘顺晒Φ碾娮佑螒蛟O計師兼GoodAI創(chuàng)始人馬雷克·羅莎說。他已經在該公司投資1000萬美元?!拔覀兊南敕ㄊ桥嘤査鼈儗⒅R應用到以前從未遇到過的情況?!?/p>

      專家們一致認為羅莎的做法是明智的?!邦A先為人工智能可能遇到的每一種情況都設定道德選擇是不太可能的,”紐約大學的認知科學家、幾何智能公司的首席執(zhí)行官和創(chuàng)始人加里·馬庫斯解釋說,“例如,你如何為公平還是傷害的概念編程?”他指出,編碼方法不能解釋人類信念和態(tài)度的轉變。

      最終,我們需要一臺能夠自學的機器。羅莎認為人工智能就像一個孩子,作為空白的石板可以刻上基本的價值觀,并且能將這些原則應用于不可預見的情景中。這一點和人類很像,人類通過觀察他人的行為,從而直觀地了解道德上可接受的準則。

      GoodAI通過提供數字導師來監(jiān)督人工智能獲取價值觀的進程,然后逐漸增加它們必須作出決定的復雜情況。羅莎認為,父母不會讓孩子一開始就在公路上跑?!巴瑯拥?,我們將人工智能置于越來越復雜的環(huán)境中,它們可以利用以前學到的知識做出行動,并從我們團隊獲得反饋?!?/p>

      GoodAI只是近年來世界各地不斷涌現的眾多致力于機器人倫理維度的機構之一。許多類似的機構都有宏大的、帶有不祥預感的名字。比如:生命未來研究所、負責任機器人小組、全球倫理自治系統(tǒng)。關于如何更好地向機器傳授道德倫理,很多人都有自己的看法,羅莎是一位,佐治亞理工學院移動機器人實驗室主管羅恩·阿金是另一位。

      讓機器人學會內疚

      羅恩·阿金60多歲,是個禿頭的機械倫理學家。他在喬治亞理工學院教授計算機倫理學,但他的工作并不局限于教室。阿金的研究資金來源廣泛,其中有的資金來自美國陸軍和海軍。2006年,阿金獲得資助,研究如何使機器人戰(zhàn)斗機在戰(zhàn)爭中能夠遵守道德標準。他認為機器人士兵在倫理上可以優(yōu)于人類。畢竟,它們不能強奸、掠奪或憤怒燒毀一個村莊。

      教授機器人如何在戰(zhàn)場上表現得當似乎很簡單,因為各國遵循國際公認的法律來制定參與戰(zhàn)爭的規(guī)則。但是,工程師并不能預見戰(zhàn)場上的每一個潛在情景,現實中總是存在道德上模棱兩可的情況。比如,一個機器人是否可以在某個目標正與平民分吃面包的房子里開火?

      它是否應該解救被圍困在城鎮(zhèn)一側的五名低級新兵,還是要為另外一個地方的高級軍官提供支持?決策應該基于戰(zhàn)術還是道德層面?

      為了幫助機器人及其創(chuàng)造者在戰(zhàn)場上解決這些問題,阿金一直在研究與GoodAI不同的模型。他的方法被稱為“道德適配器”,也就是說試圖模擬人類的情緒,而不是模仿人類的行為,以幫助機器人從錯誤中學習。他的系統(tǒng)允許一個機器人體驗類似于人類的內疚感?!皟染问且环N阻止我們重復特定行為的機制?!卑⒔鸾忉屨f。因此,內疚對機器人和人類來說都是有用的學習工具。

      阿金采取的方法是,設計一種被稱為“潛在行動的多維數學決策空間”的軟件程序。這套融合了人類悔恨、同情、內疚等情緒的程序安裝到機器人身上后,就能扮演“道德適配器”的角色,可根據傳感器接收到的數據和情報,把機器人所有可能的行動分為“道德的”和“不道德的”兩種,并根據需要選擇適當的武器系統(tǒng)。

      阿金解釋說:“想象一下,一名特工在戰(zhàn)場上射擊之前和之后進行戰(zhàn)斗傷害評估。如果附帶損害比預期的要多就會帶來內疚感。特定的底線內,特工將停止使用特定的武器。此外,還可能完全停止使用武器。雖然機器人可能感受到的內疚是模擬的,但像人類的內疚一樣具有三重含義:相信規(guī)范遭到侵犯,對自己行為擔憂以及回到原來狀態(tài)的愿望?!?/p>

      這是一個巧妙的解決方案,但不是沒有問題。首先,在機器人能夠修改其行為之前,內疚模型要求先出錯。在戰(zhàn)爭的混亂中,錯誤可能是可以接受的,因為損害可能完全出乎意料。但如果錯誤出現在民用住宅、醫(yī)院或道路上,公眾對致命機器人錯誤的容忍度要低得多。殺手機器人可能還沒來得及從錯誤中學習就被拆解掉了。

      讓機器人從圖書館獲得靈感

      從虛擬教室到模擬內疚,教機器人道德的方法各不相同,但都是探索性的,并且每種方法都伴隨著各自的問題。在喬治亞理工學院,娛樂智能實驗室主任馬克·里德爾正在嘗試一種方法,他的解決之道不是在課堂上,而是在圖書館中尋找靈感。

      通過讓人工智能讀取數以千計的人類歷史故事,并允許它們根據自己的發(fā)現制定一套行為規(guī)則,里德爾相信,從燭光晚餐到銀行搶劫等各種場景,機器人都能做出恰當表現。包括美國國防高級研究計劃局、美國陸軍、谷歌和迪斯尼等在內的一系列組織和公司為里德爾團隊的研究提供資金支持。

      里德爾贊同GoodAI的基本理念?!八械拇鸢付际菫榱藢C器人培養(yǎng)成孩子,”他說,“但是我沒有20年那么久的時間來培養(yǎng)機器人。這是一個非常耗時和昂貴的過程。我的想法是將故事作為學習的捷徑?!?/p>

      里德爾將這項技術命名為“堂吉訶德”。這項技術主要通過為機器人提供一些故事來展示正常的或者被人類所接受的行為,比如幫助別人、守時以及不消滅人類等等。這些故事都是研究人員從互聯網上挑選出來的,它們講述的都是正確的、被社會認可的行為。

      接下來,如果人工智能能夠做出跟故事的良好行為匹配的決定或者行為的話,這項堂吉訶德技術將會給機器人做出一定程度的“獎勵”(就是類似小紅花的一些機械行為)。反之,如果人工智能的決定或者行為不符合故事中的道德標準的話,研究人員就會對這些行為進行負面強化。通過閱讀幾百篇關于偷竊與不偷竊的故事,人工智能可以理解規(guī)則,并開始基于群體智慧制定道德框架?!拔覀內祟惖碾[含規(guī)則很難明確寫下來,但書籍、電視和電影的主角都體現了現實世界的價值觀。人工智能可以從簡單的故事開始,然后發(fā)展到年輕人讀的故事。它會面對越來越復雜的道德情況?!?/p>

      雖然在概念上不同于GoodAI,但里德爾的方法還是屬于機器學習的范疇。他說“我們要求人工智能觀看幾千名不同主角的故事,他們每個人都經歷著類似的困境。然后,機器可以作出判斷,并且制定符合大多數人會認為是正確的行為方式?!?h3>我們有責任教機器人如何生活

      從格勒姆到弗蘭肯斯坦,當人們想象人類作為造物主時,總是講述成故事。正如這些故事都有一個令人沮喪的結論一樣,現在的研究者還有一個擔憂:如果你只讓人工智能接觸黑暗的情節(jié),它最終可能會被訓練成邪惡的?!叭绻阆氤蔀锳I的老師,那就得擁有圣人般的學識,”里德爾說,“但如果你在教材中刪掉了反英雄形象,那就說明你這圣人當得不合格,因為你對這個社會根本沒有深刻的理解,而這正是我的擔心之一。我們已經進入了大數據時代,經驗告訴我們,超量數據總比剛好夠更安全,因此只要是合規(guī)的,就可以加入供AI學習的數據庫中,只有這樣我們才能不偏不倚地判斷出到底什么是善什么是惡?!?/p>

      里德爾聲稱,我們正處于歷史上的關鍵時刻,人類社會面臨著一個簡單的選擇“我們可以認為永遠都不可能有一個完美的機器人,而且由于存在各種危險,我們絕不應該開發(fā)人工智能;或者我們可以,盡自己所能,努力減輕傷害……我們永遠不會擁有完美的自駕車。它會發(fā)生事故,但事故發(fā)生的次數比人類少。所以我們的目標應該是不比人類更糟糕,也許,有可能比人類更好?!?/p>

      在科幻小說中,機器人獲得感知力的時刻通常是人類對自己的造物有道德義務的時候。與錘子或鐵鍬相比,iPhone或筆記本電腦的復雜程度要高得多,但它們都屬于同一類別:工具。然而,隨著機器人開始表現得像人類一樣,開始獲得情感,并學習和接受我們的文化和社會價值觀,或許舊的故事就需要重新被審視。至少,我們有道義上的責任去教機器人如何在世上生活。同時,我們也不得不重新考慮該如何對待它們。

      (趙欣薦自《世界博覽》)

      猜你喜歡
      阿金道德機器人
      頭上的星空與心中的道德律
      十幾歲(2021年24期)2021-11-18 02:18:40
      我沒看見你,但我知道你是誰
      跟蹤導練(五)(2)
      道德是否必需?——《海狼》對道德虛無主義的思考
      藍繡球開花就去找你
      機器人來幫你
      認識機器人
      機器人來啦
      認識機器人
      用道德驅散“新聞霧霾”
      新聞前哨(2015年2期)2015-03-11 19:29:31
      红河县| 安龙县| 乐至县| 茌平县| 双牌县| 河池市| 泽州县| 台东市| 遵义县| 天气| 西藏| 甘德县| 库尔勒市| 博湖县| 固原市| 沙田区| 华阴市| 若尔盖县| 泾阳县| 北流市| 嘉黎县| 蓬安县| 商洛市| 尉氏县| 大冶市| 云安县| 博罗县| 广东省| 团风县| 武宁县| 马关县| 靖江市| 蒙自县| 湟中县| 固始县| 井冈山市| 迁安市| 凤凰县| 建阳市| 江川县| 闻喜县|