• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    媒體傳播中人工智能大量運(yùn)用的風(fēng)險、成因及未來路徑

    2023-12-26 13:09:39○何
    新聞世界 2023年11期
    關(guān)鍵詞:受眾人工智能算法

    ○何 霞

    ChatGPT的問世在2023年初引起整個世界關(guān)注。人工智能的發(fā)展已成為全球焦點(diǎn),從機(jī)器學(xué)習(xí)、機(jī)器人,無人駕駛汽車到聊天機(jī)器人,人工智能改善和便利人類生活的同時,也給人類社會發(fā)展和社會治理帶來諸多風(fēng)險與挑戰(zhàn)。

    一、人工智能大量運(yùn)用背后的風(fēng)險

    人工智能的大量運(yùn)用給社會各行各業(yè)帶來巨大沖擊,它在帶來智能化和高效率的同時,也帶來諸多倫理問題與風(fēng)險挑戰(zhàn)。主要體現(xiàn)在以下幾個方面:責(zé)任主體的難以界定、隱私泄露、社會安全問題、不平等現(xiàn)象的加劇、就業(yè)沖擊及損害市場競爭行為。

    人工智能的發(fā)展給責(zé)任倫理理論提出新的難題,當(dāng)人工智能系統(tǒng)因?yàn)樽陨懋a(chǎn)品的某個缺陷引發(fā)不可避免的損害時,如何界定責(zé)任主體是目前的難題。如無人駕駛汽車在行駛過程中遇到突發(fā)危險時,啟動程序選擇保護(hù)車內(nèi)人員還是選擇保護(hù)行人?[1]誰來為這種選擇以及選擇后所產(chǎn)生的后果承擔(dān)責(zé)任是目前的困境。人們通過使用人工智能技術(shù)留下的痕跡和產(chǎn)生的包含個人隱私的許多信息是可免費(fèi)獲得的,由于人工智能算法可以綜合多方數(shù)據(jù)以識別并確認(rèn)公民個體身份,從而引發(fā)數(shù)據(jù)隱私擔(dān)憂。近幾年基于人工智能和自動控制系統(tǒng)的強(qiáng)大武器和監(jiān)控設(shè)備越來越多地被一些國家或地區(qū)運(yùn)用,在戰(zhàn)場上它們具有很強(qiáng)的破壞性,而令人類更為擔(dān)憂的是一旦這種武器落在恐怖組織手中會產(chǎn)生很嚴(yán)重的后果。與人類勞動力相比,機(jī)器能夠在短時間內(nèi)創(chuàng)造較高的收益。這樣一來,提供基于人工智能設(shè)施的公司比提供勞動力的人將獲得更多的收入,這會造成收入不平等和貧富差距越來越大的問題。人工智能的崛起已經(jīng)讓部分工作被機(jī)器人取代,在改善生產(chǎn)效率的同時,造成一些行業(yè)部分人員失業(yè),或因人工智能的應(yīng)用而導(dǎo)致勞資相互權(quán)力關(guān)系發(fā)生變化。人工智能的應(yīng)用可能導(dǎo)致?lián)p害競爭的情況出現(xiàn),最典型的例子便是“大數(shù)據(jù)殺熟”所牽涉的歧視定價問題。為什么老客戶看到的同一個產(chǎn)品或服務(wù)的價格比新客戶還高?在人工智能技術(shù)基礎(chǔ)上,通過對用戶信息的分析,出現(xiàn)區(qū)別對待不同用戶的“價格歧視”。

    二、人工智能大量運(yùn)用引發(fā)風(fēng)險的成因

    (一)算法和數(shù)據(jù)背后的秘密

    人工智能建立在現(xiàn)代算法基礎(chǔ)上,并結(jié)合數(shù)據(jù)進(jìn)行計(jì)算以實(shí)現(xiàn)相應(yīng)的目標(biāo)。算法和數(shù)據(jù)是人工智能的兩大核心板塊。人工智能的算法有很多種,這些算法是由人類開發(fā)設(shè)計(jì)并實(shí)施。目前,沒有保證算法的公正性的措施,一些算法中隱藏著不公與偏見。算法盡管不會撒謊,但算法偏見是真實(shí)存在的,這些隱藏的偏見會帶來各種問題。除此之外,技術(shù)復(fù)雜的算法在規(guī)模上的不透明性使得它們很難被仔細(xì)觀察,導(dǎo)致公眾在如何行使權(quán)力方面缺乏清晰界定。所有人工智能依賴于數(shù)據(jù)驅(qū)動,而數(shù)據(jù)的質(zhì)量,數(shù)據(jù)的選擇背后都隱藏著不可追溯性及不可解讀的挑戰(zhàn)。

    (二)技術(shù)開發(fā)人員隱藏的偏見

    技術(shù)設(shè)計(jì)者在程序設(shè)計(jì)中本意是以客觀中立的態(tài)度去開發(fā)設(shè)計(jì)產(chǎn)品,但是人類畢竟是有情感、自我意識、自我經(jīng)驗(yàn)和價值觀的高等動物。技術(shù)開發(fā)者在程序設(shè)計(jì)中難免有時會帶著他/她的喜好與偏見設(shè)計(jì)產(chǎn)品,這種偏見或許技術(shù)開發(fā)者自己都沒有發(fā)覺,但它會引起各種偏差與問題。

    (三)社會相關(guān)部門的作為力度不夠

    人工智能運(yùn)用面臨諸多倫理問題與挑戰(zhàn),除了算法和數(shù)據(jù)、技術(shù)開發(fā)人員自帶的偏見等因素外,社會大環(huán)境及相關(guān)部門沒有在人工智能發(fā)展上扮演好相關(guān)角色,也是造成人工智能陷入諸多倫理困境的因素之一。政府部門、研究機(jī)構(gòu)、企業(yè)、學(xué)術(shù)界需要分工明確,扮演好各自的角色,一起致力于促進(jìn)人工智能社會的發(fā)展。

    三、人工智能運(yùn)用在媒體傳播中產(chǎn)生的風(fēng)險與挑戰(zhàn)

    近幾年,國內(nèi)外出現(xiàn)了機(jī)器人從事寫稿工作,人工智能運(yùn)用在媒體傳播中越來越受到青睞。2022 年北京冬奧會中央廣播電視總臺央視新聞AI手語主播為聽障人士帶來手語解說,引起了極大的關(guān)注。[2]盡管媒體傳播中人工智能的運(yùn)用帶來了一些話題,但也給媒體行業(yè)的運(yùn)營帶來了一些風(fēng)險與挑戰(zhàn),主要體現(xiàn)在以下幾個方面。

    (一)人文關(guān)懷的缺失

    機(jī)器是冰冷的,只會按部就班地采集信息、寫稿件、機(jī)械地整理材料匯編成文。很多時候機(jī)器寫出的是平淡的、枯燥的、缺乏人情味的稿件。算法推薦的工具理性、科技理性至上,忽略了價值理性中那些真、善、美等的思想意識。[3]機(jī)器人扮演媒體從業(yè)人員的角色導(dǎo)致媒體缺失人文關(guān)懷。人工智能技術(shù)的發(fā)展以技術(shù)本身為導(dǎo)向,注重效率和利益最大化。一些媒體也傾向于追求市場效應(yīng),這種商業(yè)導(dǎo)向使得人工智能在媒體傳播中可能被過度使用,而忽視了人文關(guān)懷。

    (二)新聞消費(fèi)問題增加

    由于大數(shù)據(jù)和算法的使用,針對用戶個性化需求的定向新聞推送容易形成“信息繭房”,導(dǎo)致用戶視野狹窄,過多接受所偏好的信息,忽略社會上別的信息,從而導(dǎo)致社會上不同人群的心理區(qū)隔愈發(fā)嚴(yán)重。[4]新聞作為一種特殊產(chǎn)品,從產(chǎn)品消費(fèi)的角度看,這樣的消費(fèi)模式更多的是只顧產(chǎn)品銷量,而不顧消費(fèi)者是否會有損失。隱藏在這背后的問題將是新聞消費(fèi)者完整接受信息和從全局看問題能力的弱化及個人認(rèn)識的狹隘化。

    在三門江林場中,為了使激勵發(fā)揮其本質(zhì)作用,真正的實(shí)現(xiàn)獎懲分明、獎勤罰懶,就必須制定合理的績效考核制度,這也是所有企業(yè)對員工工作成果評價的重要一環(huán)。對員工的工作進(jìn)行績效考評,主要體現(xiàn)在兩個方面,一個是對工作"量"的考評,一個是對工作"質(zhì)"的考評。在績效考核中,往往是綜合這兩方面來進(jìn)行,若人力資源管理只關(guān)注某一方面,工作就會過于片面。績效考核,需要對員工工作的優(yōu)缺點(diǎn)進(jìn)行客觀系統(tǒng)的評價,通過科學(xué)合理的考核制度和考核辦法,將每個員工的工作考評進(jìn)行量化,得到一個最終成績,依據(jù)此成績,對員工的工作進(jìn)行獎勵和懲罰決定。

    (三)主流媒體影響力弱化

    在自媒體及平臺型媒體崛起的背后,流行著“流量為王”或急于變現(xiàn)的新聞生產(chǎn)及分發(fā)模式。盡管人工智能技術(shù)輔助生產(chǎn)的新聞數(shù)量有限,但通過人工智能技術(shù)分發(fā)推送的新聞數(shù)量龐大,且推送給用戶的這些新聞多數(shù)是一些娛樂或社會新聞。而傳統(tǒng)主流媒體生產(chǎn)的時政要聞等嚴(yán)肅新聞在這樣的泛娛樂化沖擊下,訂閱率和點(diǎn)擊率明顯降低。在人工智能的影響和推動下,一些主流媒體因?qū)κ鼙姅?shù)量、點(diǎn)擊率和廣告收入密切關(guān)注,而忽視了內(nèi)容的深度和質(zhì)量。這種情況下,主流媒體的影響力面臨下滑的風(fēng)險,因?yàn)槭鼙娭饾u對其內(nèi)容失去信任和興趣。

    (四)隱私泄露問題頻現(xiàn)

    數(shù)據(jù)信息是算法生產(chǎn)加工的原料,用戶在使用人工智能技術(shù)留下的痕跡和信息讓他們的個人私隱在一定程度上有暴露的風(fēng)險。全球?qū)θ斯ぶ悄艿乃诫[問題出臺相關(guān)保護(hù)措施的國家和地區(qū)近年來逐漸增加。以歐盟為例,2018 年5 月歐盟開始實(shí)行《通用數(shù)據(jù)保護(hù)條例》,旨在保護(hù)個人私隱,避免個人信息被濫用。因?yàn)槿斯ぶ悄茉诿襟w傳播中運(yùn)用越來越廣泛,我國也急需就如何對人工智能領(lǐng)域隱私權(quán)法律保護(hù)進(jìn)行研究,對信息進(jìn)行分級處理,正確界定公私邊界,就信息傳播業(yè)發(fā)展和用戶私隱保護(hù)做到平衡管控。[5]只有出臺了具體的規(guī)范或條例,人工智能領(lǐng)域個人私隱問題的保護(hù)才能做到有章可循。

    (五)存在損害新聞客觀性的可能性

    媒體使用人工智能算法來進(jìn)行新聞的采寫編和分發(fā),隱藏在人工智能編程中的不可預(yù)見的偏見可能會損害新聞的客觀性。諸如算法使用的數(shù)據(jù)具有一定的偏見,或者訓(xùn)練數(shù)據(jù)中存在主觀性并使用關(guān)于某個群體的固化思維,算法可能會傳遞這些偏見,影響新聞的客觀性。在生活快節(jié)奏的今天,用戶利用碎片化時間通過社交媒體來獲取新聞和各種信息,但一些社交媒體平臺上存在一些虛假信息和不實(shí)報(bào)道,這些平臺通過人工智能算法進(jìn)行內(nèi)容推薦,將虛假信息在極短的時間內(nèi)傳播給眾多用戶,這樣也損害了新聞的客觀性。

    (六)保密內(nèi)容的安全問題

    人工智能在媒體傳播中的應(yīng)用通常需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練和優(yōu)化。如果這些數(shù)據(jù)涉及保密內(nèi)容和敏感信息,相關(guān)媒體機(jī)構(gòu)因?yàn)槭韬鰶]有妥善保護(hù)這些數(shù)據(jù),那么會面臨數(shù)據(jù)泄露并導(dǎo)致保密新聞曝光的風(fēng)險。目前現(xiàn)實(shí)中的智能系統(tǒng)可能存在安全漏洞,而一些黑客或不法分子可能會利用這些漏洞來進(jìn)行未經(jīng)授權(quán)的訪問,獲取保密信息。另外,新聞算法在技術(shù)上也會存在一些漏洞,可能出現(xiàn)一些保密新聞在設(shè)備受到攻擊或因技術(shù)瑕疵被泄露出去,引發(fā)一系列的安全問題。

    (七)媒體從業(yè)人員就業(yè)問題

    人工智能的崛起尤其是機(jī)器人記者和編輯的出現(xiàn),如,騰訊的寫稿機(jī)器人Dreamwriter、百度度秘,IBM 的Watson 等,勢必會給媒體從業(yè)人員帶來壓力。人工智能技術(shù)的應(yīng)用可以幫助媒體降低制作成本,諸如通過自動化生成稿件等,人工智能可以在短時間內(nèi)完成大量的工作,造成媒體從業(yè)人員失業(yè)。人工智能的廣泛應(yīng)用也可能導(dǎo)致媒體產(chǎn)業(yè)結(jié)構(gòu)的調(diào)整,一些傳統(tǒng)媒體可能難以適應(yīng)新技術(shù)的發(fā)展,導(dǎo)致轉(zhuǎn)型困難和經(jīng)營困難,導(dǎo)致媒體工作者面臨失業(yè)的困境。

    (八)知識產(chǎn)權(quán)問題

    人工智能技術(shù)在新聞信息收集與分析方面具有一定優(yōu)勢,利用人工智能技術(shù)生成的新聞報(bào)道或文章等是否具有著作權(quán),以及著作權(quán)歸屬如何界定等問題;大量的數(shù)據(jù)在人工智能的訓(xùn)練過程被使用,這些數(shù)據(jù)可能是他人創(chuàng)作或擁有的,使用這些數(shù)據(jù)進(jìn)行訓(xùn)練是否涉及數(shù)據(jù)版權(quán)的問題;具有創(chuàng)新性的人工智能算法可以申請專利,如果某家媒體開發(fā)了新型的算法并申請了專利,其他媒體機(jī)構(gòu)是否可以使用類似算法,等等,這些問題可能成為爭議的焦點(diǎn)。除此之外,人工智能技術(shù)可以合成圖像和聲音,也涉及肖像權(quán)和聲音版權(quán)問題。不難看出,怎樣對信息或數(shù)據(jù)來源進(jìn)行知識產(chǎn)權(quán)保護(hù)以及怎樣界定人工智能技術(shù)創(chuàng)作的新聞作品或音像作品的著作權(quán)歸屬問題,都是處理人工智能與知識產(chǎn)權(quán)關(guān)系的難題。

    四、人工智能運(yùn)用在媒體傳播中引發(fā)風(fēng)險的成因

    (一)新聞算法隱藏的偏見

    新聞算法對于提高內(nèi)容生產(chǎn)與分發(fā)的效率的確有顯著作用,[6]算法通過在信息的優(yōu)先排序、分類、關(guān)聯(lián)和過濾方面做出的決策來發(fā)揮其效力。由此可見,算法中嵌入了許多人為的影響,不可避免地隱藏著一些人為的偏見。這與新聞媒體應(yīng)擔(dān)當(dāng)客觀公正地報(bào)道新聞的責(zé)任與倫理相悖,而如何將新聞算法中隱藏的偏見降到最低,是技術(shù)開發(fā)者和媒體從業(yè)者需要思考和解決的問題。

    (二)算法引領(lǐng)的評價機(jī)制誘導(dǎo)

    (三)專業(yè)人才、復(fù)合型人才不足

    人工智能是一門交叉性、綜合性的前沿學(xué)科,而新聞傳播業(yè)界在專家系統(tǒng)、機(jī)器學(xué)習(xí)和自然語言處理等多方面知識綜合掌握的復(fù)合型人才不足。一方面新聞專業(yè)人才難以駕馭人工智能技術(shù),另一方面算法工程師在構(gòu)建算法時,缺少對新聞價值的理解。算法工程師與新聞工作者的溝通代溝,在一定程度上影響人工智能新聞的新聞價值。因此人工智能新聞在內(nèi)容生產(chǎn)階段會出現(xiàn)弱化新聞原理和新聞道德的問題,在分發(fā)階段一味地個性化推送會導(dǎo)致新聞產(chǎn)品分發(fā)市場混亂。

    五、媒體傳播中人工智能運(yùn)用的未來路徑

    智能傳播將從專用智能向通用智能方向發(fā)展,將人工智能與腦科學(xué)進(jìn)行深度融合并進(jìn)行人機(jī)協(xié)同解決復(fù)雜難題。著名歷史學(xué)家尤瓦爾·諾亞·赫拉利(Yuval N.Harari)預(yù)測了超人工智能階段將在21 世紀(jì)40-60年代出現(xiàn),也即人工智能在經(jīng)歷了弱人工智能、強(qiáng)人工智能之后的第三階段,超人工智能可以超越人類智慧,在某些領(lǐng)域比人類更出色,導(dǎo)致人工智能社會的出現(xiàn)。在這樣的背景下,媒體傳播中人工智能運(yùn)用的未來路徑有以下幾個方向。

    (一)制定和遵守人工智能法規(guī)

    我國在2017 年7 月20 日印發(fā)《新一代人工智能發(fā)展規(guī)劃》,在規(guī)劃中既指出我國人工智能整體發(fā)展水平與發(fā)達(dá)國家存在差距,也強(qiáng)調(diào)了人工智能法律法規(guī)、倫理規(guī)范和政策體系建設(shè)的重要性。2022年,我國一些經(jīng)濟(jì)發(fā)達(dá)城市相繼通過了一些地方性的人工智能法規(guī)與條例,諸如《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》和《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》。總體上看,我國針對人工智能領(lǐng)域的法律法規(guī)數(shù)量少,內(nèi)容上側(cè)重于技術(shù)和產(chǎn)業(yè)的發(fā)展。為了適應(yīng)未來人工智能社會的需要,在媒體傳播行業(yè)需要制定和完善相應(yīng)的人工智能法律法規(guī)并嚴(yán)格遵守。

    (二)加強(qiáng)算法的透明度和可解釋性

    媒體運(yùn)用人工智能技術(shù)進(jìn)行信息傳播,對使用的算法向受眾進(jìn)行透明的描述并解釋算法的運(yùn)作原理和邏輯,確保受眾知情權(quán)。在算法的解釋過程中注意使用簡明易懂的語言向受眾描述數(shù)據(jù)如何采集、處理及運(yùn)作的流程,這不僅有助于受眾理解推薦內(nèi)容背后的原理,也有助于受眾增加消費(fèi)選擇權(quán)。當(dāng)算法發(fā)生變化時,媒體應(yīng)及時向受眾披露更新內(nèi)容,確保受眾了解算法變化可能帶來的影響。為了確保算法的透明度和公正性,媒體還可以邀請第三方機(jī)構(gòu)的專家和學(xué)者對算法進(jìn)行評估。通過透明的和可解釋性的算法推廣,不但可以增加受眾對算法的信任,也可以提高受眾體驗(yàn),實(shí)現(xiàn)可持續(xù)的媒體傳播。

    (三)提升受眾關(guān)于人工智能的知識儲備

    許多用戶關(guān)于新技術(shù)的知識儲備跟不上人工智能快速發(fā)展的步伐,尤其針對老年群體受眾。因此,需要采用一些方法來提升他們關(guān)于人工智能的理解和運(yùn)用。媒體可以創(chuàng)建用戶教育資源,諸如淺顯易懂的文章,或者生動有趣的視頻等,向受眾普及人工智能的基本知識和應(yīng)用,并讓他們了解人工智能在媒體傳播中的作用和影響。媒體也可以通過網(wǎng)上直播、座談會、講座等活動,解答關(guān)于人工智能的問題,引導(dǎo)受眾如何辨別信息來源的可信度等,既增強(qiáng)受眾對人工智能的了解和認(rèn)知,也提高受眾的媒介素養(yǎng)。

    注釋:

    [1]閆坤如,馬少卿.人工智能倫理問題及其規(guī)約之徑[J].東北大學(xué)學(xué)報(bào)(社會科學(xué)版),2018(04):331-336.

    [2]鄭弘,豐樹琪.人工智能在新聞報(bào)道中的突破、傳播和價值——以總臺央視新聞AI手語主播為例[J].傳媒,2022(20):48-50.

    [3]陳昌鳳,石澤.技術(shù)與價值的理性交往:人工智能時代信息傳播——算法推薦中工具理性與價值理性的思考[J].新聞戰(zhàn)線,2017(17):71-74.

    [4]張志安,湯敏.網(wǎng)絡(luò)技術(shù)、人工智能和輿論傳播的機(jī)遇及挑戰(zhàn)[J].傳媒,2018(13):11-14.

    [5]夏夢穎.人工智能傳播環(huán)境下隱私權(quán)的法律保護(hù)及完善[J].當(dāng)代傳播,2019(05):88-91.

    [6]彭蘭.智能時代的新內(nèi)容革命[J].國際新聞界,2018(06):88-109.

    [7]張志安.人工智能對新聞輿論及意識形態(tài)工作的影響[J].人民論壇·學(xué)術(shù)前沿,2018(08):96-101.

    猜你喜歡
    受眾人工智能算法
    基于MapReduce的改進(jìn)Eclat算法
    Travellng thg World Full—time for Rree
    2019:人工智能
    商界(2019年12期)2019-01-03 06:59:05
    進(jìn)位加法的兩種算法
    人工智能與就業(yè)
    用創(chuàng)新表達(dá)“連接”受眾
    傳媒評論(2018年6期)2018-08-29 01:14:40
    數(shù)讀人工智能
    小康(2017年16期)2017-06-07 09:00:59
    下一幕,人工智能!
    用心感動受眾
    新聞傳播(2016年11期)2016-07-10 12:04:01
    媒體敘事需要受眾認(rèn)同
    新聞傳播(2016年14期)2016-07-10 10:22:51
    青州市| 尼玛县| 清镇市| 寿宁县| 永济市| 江门市| 长武县| 南京市| 铜川市| 克什克腾旗| 双鸭山市| 景东| 丹寨县| 元氏县| 雅江县| 秀山| 舞阳县| 宝鸡市| 宜都市| 衡阳市| 叶城县| 松阳县| 鄱阳县| 贵阳市| 新乡县| 乐业县| 宁国市| 大足县| 芮城县| 大姚县| 沅江市| 北安市| 永济市| 舒城县| 南溪县| 蓝山县| 屏南县| 牟定县| 延吉市| 贵港市| 宕昌县|