│ 本刊評(píng)論員 │
隨著人工智能技術(shù)的廣泛應(yīng)用,以算法為核心的自動(dòng)決策系統(tǒng)在社會(huì)生活中扮演著日益重要的角色。在萬物互聯(lián)的網(wǎng)絡(luò)世界,從閱讀什么新聞、看什么視頻到購物推薦、廣告投放,算法推薦應(yīng)用影響用戶的決策行為越來越多。在這個(gè)過程中如何實(shí)現(xiàn)算法推薦的公平、公正、合理,是新的技術(shù)環(huán)境下網(wǎng)絡(luò)平臺(tái)必須正視的重要課題。
人的決策是一種具有鮮明主觀特性的行為,在一定程度上要受到?jīng)Q策者認(rèn)知、情緒等主觀因素的影響,這就使得決策結(jié)果的客觀性、科學(xué)性或多或少受到一定損害。所以,在人類發(fā)展的長(zhǎng)河中,科學(xué)界長(zhǎng)期存在一種思潮,即創(chuàng)立一種能夠最大程度地降低主觀因素影響的決策方法,使決策盡可能客觀化、可量化,而基于數(shù)學(xué)的方法被認(rèn)為是最可行的。以色列歷史學(xué)家尤瓦爾·赫拉利在《人類簡(jiǎn)史》一書中將這種觀念稱之為“數(shù)據(jù)宗教”。大數(shù)據(jù)的產(chǎn)生讓這種想法逐漸變?yōu)楝F(xiàn)實(shí),大數(shù)據(jù)驅(qū)動(dòng)的算法應(yīng)用迅速介入到?jīng)Q策系統(tǒng),其本質(zhì)是利用數(shù)學(xué)方式或信息代碼,通過智能化技術(shù)產(chǎn)生決策結(jié)果,目的是要讓決策過程脫離人的主觀偏見,最大程度地展現(xiàn)客觀性。但是,由于算法應(yīng)用在體系設(shè)計(jì)、決策標(biāo)準(zhǔn)設(shè)定以及數(shù)據(jù)使用等方面依然需要算法開發(fā)者的主觀選擇,這就導(dǎo)致算法系統(tǒng)并不能完全避免主觀意志,進(jìn)而引起算法應(yīng)用中的歧視問題,蘊(yùn)含著一定的風(fēng)險(xiǎn)。例如,2022年年初,在我國首例算法推薦案件——愛奇藝訴字節(jié)跳動(dòng)科技有限公司案件判決中,法院最終認(rèn)定字節(jié)跳動(dòng)的算法推薦行為構(gòu)成幫助侵權(quán)。因此,算法推薦在提高網(wǎng)絡(luò)平臺(tái)決策效率的同時(shí),也讓網(wǎng)絡(luò)平臺(tái)面臨特定的風(fēng)險(xiǎn)。
算法應(yīng)用給網(wǎng)絡(luò)平臺(tái)帶來發(fā)展的同時(shí)也帶來了新問題,只有不斷完善相關(guān)法律法規(guī),才能在鼓勵(lì)創(chuàng)新的前提下,不斷應(yīng)對(duì)人工智能技術(shù)引起的各種風(fēng)險(xiǎn)和挑戰(zhàn)。具體到算法應(yīng)用,當(dāng)務(wù)之急是積極構(gòu)建更加合理、更加完善的網(wǎng)絡(luò)平臺(tái)責(zé)任制度體系,通過相關(guān)法律法規(guī)的修訂完善,進(jìn)一步廓清包括算法應(yīng)用的設(shè)計(jì)者、運(yùn)營(yíng)者和使用者在內(nèi)的各方主體的權(quán)利、義務(wù)和責(zé)任。相關(guān)研究已經(jīng)注意到算法應(yīng)用在實(shí)踐中可能產(chǎn)生的問題,分析這些問題,我們應(yīng)該在完善相關(guān)制度體系的過程中,特別重視算法的公平性、透明性和可責(zé)性建設(shè)。
在公平性方面,在算法程序設(shè)計(jì)過程中,不僅要關(guān)注程序的效率,還要進(jìn)一步強(qiáng)化程序的正當(dāng)性約束。這其中,倫理道德要求是人工智能應(yīng)用的重要方面,在算法應(yīng)用中,必須從程序設(shè)計(jì)階段就強(qiáng)化技術(shù)公平規(guī)則的指引,從源頭上保證算法應(yīng)用程序的公平和正義,避免算法應(yīng)用淪為謀取不當(dāng)利益的工具。在透明性方面,要提升算法應(yīng)用工作機(jī)制的透明度。在網(wǎng)絡(luò)平臺(tái),人們對(duì)某些算法決策結(jié)果產(chǎn)生質(zhì)疑,一個(gè)很重要的原因就是不能理解算法應(yīng)用工作的原理和機(jī)制,在他們看來算法決策系統(tǒng)是一個(gè)“黑箱”。因此,網(wǎng)絡(luò)平臺(tái)要履行相應(yīng)的義務(wù),有必要展現(xiàn)一定的透明度,既能保守商業(yè)秘密,又能回應(yīng)公眾對(duì)算法應(yīng)用工作機(jī)制的關(guān)切,從而消除公眾的疑慮,降低算法應(yīng)用風(fēng)險(xiǎn)。同時(shí),算法應(yīng)用透明度的提高也能進(jìn)一步保證公平性的實(shí)現(xiàn)。在可責(zé)性方面,要加快完善有關(guān)法律法規(guī),對(duì)于不合法的算法應(yīng)用行為及時(shí)進(jìn)行懲處,從而構(gòu)建良好的人工智能發(fā)展環(huán)境。當(dāng)前,算法應(yīng)用越來越廣泛,在算法應(yīng)用的影響大大超出已有的各種制度規(guī)范時(shí),我們應(yīng)該加快制定新的制度體系,既為促進(jìn)算法應(yīng)用提供制度保障,也為其劃定不可逾越的紅線,使算法應(yīng)用各種亂象的治理有法可依,確保算法應(yīng)用健康發(fā)展。
算法應(yīng)用是智能化技術(shù)催生的新生事物,在實(shí)踐中產(chǎn)生各種問題也是難以避免的。我們要多措并舉,趨利避害,構(gòu)建更加公平、透明和具有可責(zé)性的算法應(yīng)用體系,更好地發(fā)揮人工智能技術(shù)的優(yōu)勢(shì)。