云賀
如今,機(jī)器算法越來越深入地滲透到人類社會(huì)的諸多方面,輔助人們做出各種決策。在廣告投放、司法審判、人才雇傭等領(lǐng)域,機(jī)器算法都扮演著重要角色。
相對(duì)于人腦,機(jī)器算法具有效率高、中立性等諸多優(yōu)勢(shì)。然而,機(jī)器算法能帶來一個(gè)更公平的世界嗎?
今年7月,蘭德公司的六位研究員聯(lián)名發(fā)布名為《算法公平——社會(huì)應(yīng)用框架》的報(bào)告,梳理了金融、司法領(lǐng)域的諸多典型案例,系統(tǒng)闡述了機(jī)器算法的功與過。報(bào)告認(rèn)為,以如今的技術(shù)水平來看,機(jī)器算法往往帶有刻板“偏見”。
當(dāng)前,機(jī)器算法已經(jīng)滲透到人類現(xiàn)代生活的方方面面。有時(shí)候,甚至連人類自己都沒意識(shí)到是機(jī)器在輔助整個(gè)社會(huì)做出決策。機(jī)器算法對(duì)于提高決策效率和消除人為歧視的確有所助益。但近些年來,機(jī)器算法也惹出了一系列麻煩,其科學(xué)性和公正性屢遭公眾質(zhì)疑。
2013年5月,德國聯(lián)邦法院判定,谷歌搜索的“自動(dòng)填充”功能含有誹謗性搜索提示,侵犯了公民權(quán)利。事件源自德國一家化妝品業(yè)的企業(yè)家,其在谷歌搜索中輸入自己名字時(shí),文本框下方會(huì)自動(dòng)顯示“山達(dá)基教”和“欺詐”等詞匯。原告認(rèn)為,谷歌的這一功能侵犯了個(gè)人權(quán)利,損害了企業(yè)聲譽(yù)。
黑匣子 機(jī)器算法在輔助決策時(shí)存在“黑匣子”問題,即由于讀取數(shù)據(jù)龐大、算法系統(tǒng)復(fù)雜,有時(shí)可能連技術(shù)設(shè)計(jì)者都不知道機(jī)器將如何做出決策。
最終,德國聯(lián)邦法院雖然裁定“自動(dòng)填充”功能在原則上并無問題,但如果發(fā)生類似的侵犯?jìng)€(gè)人權(quán)利或損害名譽(yù)的事件,運(yùn)營商應(yīng)承擔(dān)相應(yīng)責(zé)任并作出賠償。
基于機(jī)器算法的谷歌搜索提示,可能來自媒體的錯(cuò)誤報(bào)道或未經(jīng)核實(shí)的言論。但無論如何,這一案件暴露出機(jī)器算法的“偽中立性”,即它并不一定能夠正確反映事實(shí)。
另一個(gè)案例,來自微軟在網(wǎng)絡(luò)社交平臺(tái)上推出的機(jī)器人——Tay。Tay的運(yùn)作原理是在和大量用戶聊天過程中,不斷攝取和分析數(shù)據(jù),從而學(xué)習(xí)人類交談方式。而這一特點(diǎn)也使得用戶有可能“教壞”算法。結(jié)果是,Tay上線不到24小時(shí),就變成了一位滿口臟話并帶有種族歧視的機(jī)器人。
那么,機(jī)器算法為什么會(huì)出錯(cuò)?
首先,算法歧視有可能來源于“有偏見”的數(shù)據(jù)。眾所周知,機(jī)器學(xué)習(xí)模型的構(gòu)建,在很大程度上取決于訓(xùn)練機(jī)器時(shí)讀取的數(shù)據(jù)。然而,一旦基礎(chǔ)數(shù)據(jù)出現(xiàn)哪怕細(xì)微的偏差,就可能導(dǎo)致整個(gè)模型出現(xiàn)結(jié)構(gòu)性偏差。上文中微軟聊天機(jī)器人的案例就說明了這一點(diǎn)。
更值得注意的是,數(shù)據(jù)存在的“偏見”經(jīng)由算法系統(tǒng)讀取和分析,不僅會(huì)被完整地記錄和學(xué)習(xí),甚至還會(huì)被放大,使之刻板化。
對(duì)此,蘭德的報(bào)告以金融和司法領(lǐng)域?yàn)槔f明了算法“偏見”是如何加劇社會(huì)不公平現(xiàn)象的。
在美國金融借貸行業(yè),機(jī)器算法越是強(qiáng)大,被打上“低收入”“高風(fēng)險(xiǎn)”“少數(shù)族裔”或特點(diǎn)地區(qū)等標(biāo)簽的群體,在辦理金融服務(wù)時(shí)難度就越大。
不僅如此,算法還可能會(huì)將這部分人群與高息貸款項(xiàng)目進(jìn)行自動(dòng)匹配。美國聯(lián)邦貿(mào)易委員會(huì)就曾在一次調(diào)查中發(fā)現(xiàn),基于機(jī)器算法的廣告商們,會(huì)更多地將高息貸款的相關(guān)信息自動(dòng)推介給低收入群體。
從根源上來看,算法的“偏見”在很大程度上并非來自機(jī)器本身。
蘭德的研究員們認(rèn)為,一旦金融領(lǐng)域的算法系統(tǒng)自動(dòng)篩掉被精細(xì)標(biāo)簽化后的部分企業(yè)和人群,包括小微企業(yè)、貧困人群、殘疾人、少數(shù)族裔等,將對(duì)社會(huì)公平秩序造成極大危害,導(dǎo)致貧富兩極分化愈演愈烈。
在司法領(lǐng)域,機(jī)器算法同樣有可能侵犯社會(huì)公平原則。一個(gè)最著名的案例就是2016年發(fā)生的“盧姆斯案”。
彼時(shí),威斯康星州法院提起公訴,指控盧姆斯犯有危及社會(huì)安全等五項(xiàng)罪名。在量刑調(diào)查環(huán)節(jié),法院適用了一款名為COMPAS的算法模型。COMPAS是一種基于大數(shù)據(jù)識(shí)別罪犯風(fēng)險(xiǎn)的評(píng)估工具。具體來說,COMPAS會(huì)根據(jù)被告檔案中的信息,對(duì)其再次犯罪的可能性進(jìn)行風(fēng)險(xiǎn)評(píng)估,從而為法院在收監(jiān)、量刑等環(huán)節(jié)提供決策支持。
但盧姆斯認(rèn)為,法院使用COMPAS進(jìn)行量刑評(píng)估,打破了正當(dāng)司法程序,特別是由于該算法本身的不透明性,其決策的科學(xué)性和準(zhǔn)確性都有待檢討。因此,他對(duì)量刑結(jié)果提出異議,向州最高法院上訴。
“盧姆斯案”反映出的,是機(jī)器算法技術(shù)在輔助決策時(shí)存在的“黑匣子”問題。由于讀取數(shù)據(jù)龐大、算法系統(tǒng)復(fù)雜,有時(shí)可能連技術(shù)設(shè)計(jì)者都不知道機(jī)器將如何做出決策。因此,想要在技術(shù)層面辨別算法是否存在歧視是很困難的事。
從根源上來看,算法的“偏見”在很大程度上并非來自機(jī)器本身,而是機(jī)器在學(xué)習(xí)人類語言或決策過程中,吸收了人類社會(huì)中根深蒂固的文化觀念,或是錯(cuò)誤的價(jià)值導(dǎo)向,并將這種傾向以技術(shù)方式進(jìn)行強(qiáng)化。
但無論如何,人工智能時(shí)代已經(jīng)來臨,全球智能化的浪潮不可遏制。在這種情況下,如何為算法糾偏成為重中之重。
實(shí)際上,當(dāng)前各國政府和企業(yè)已經(jīng)就此展開行動(dòng)。
在我國,國務(wù)院在《新一代人工智能發(fā)展規(guī)劃》中提出“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力”,為未來智能化社會(huì)劃出了法律和倫理道德的邊界。
今年4月,美國國會(huì)議員提出一項(xiàng)名為《2019年算法問責(zé)法》的法案,要求科技公司審查在其技術(shù)應(yīng)用中,是否存在種族、性別或其他方面的歧視和偏見傾向。
在某些特定領(lǐng)域,監(jiān)管機(jī)構(gòu)也開始為算法“劃紅線”。例如,自動(dòng)駕駛車輛會(huì)針對(duì)不同事故場(chǎng)景作出決策判斷,確定相關(guān)事物的安全優(yōu)先級(jí)。2017年5月,德國聯(lián)邦交通和數(shù)字基礎(chǔ)設(shè)施部下設(shè)的倫理委員會(huì),公布了全球首套自動(dòng)駕駛倫理準(zhǔn)則。該準(zhǔn)則明確:人類生命擁有最高優(yōu)先權(quán),并始終優(yōu)先于動(dòng)物以及其他財(cái)產(chǎn)等。
蘭德公司的研究員們認(rèn)為,除了在監(jiān)管層面設(shè)立“算法審計(jì)”環(huán)節(jié),機(jī)器算法要想維護(hù)公正和道德原則,還可在技術(shù)層面以擴(kuò)大樣本量、調(diào)整算法變量等方式進(jìn)行優(yōu)化。
此外,提高機(jī)器算法運(yùn)作方式的透明度也十分必要,這可以有效避免算法的“黑匣子”現(xiàn)象出現(xiàn)。