劉 星
2019年3月,習(xí)近平總書記在《加快推動媒體融合發(fā)展 構(gòu)建全媒體傳播格局》中強(qiáng)調(diào),探索將人工智能運(yùn)用在新聞采集、生產(chǎn)、分發(fā)、接收、反饋中,用主流價值導(dǎo)向駕馭算法,全面提高輿論引導(dǎo)能力。2021年9月,國家互聯(lián)網(wǎng)信息辦公室、中央宣傳部等九部委聯(lián)合印發(fā)《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》,該意見指出要逐步建立治理機(jī)制健全、監(jiān)管體系完善、算法生態(tài)規(guī)范的算法安全綜合治理格局。習(xí)近平總書記的重要論述和頂層設(shè)計的出臺為算法推薦新聞(Algorithm Recommendation News)的規(guī)范化運(yùn)作提供了重要的認(rèn)識論、方法論和實(shí)踐論。自2016年以來,已有研究就算法推薦引發(fā)的新聞倫理問題進(jìn)行了探討,如算法偏見、公共性缺位、價值觀異化等,但對如何推進(jìn)算法推薦走向社會“善治”缺乏建設(shè)性思考。本文將嘗試從建構(gòu)主義技術(shù)觀視角出發(fā),提出基于技術(shù)、用戶、平臺、制度四位一體的優(yōu)化邏輯。
隨著社交網(wǎng)絡(luò)和物聯(lián)網(wǎng)的飛速發(fā)展,信息的生產(chǎn)與傳播早已發(fā)生根本性的變革,人類社會已經(jīng)從信息匱乏時代邁向信息超載時代。信息超載還引發(fā)了信息疲勞現(xiàn)象。有學(xué)者從技術(shù)哲學(xué)視角指出,這意味著“從某個臨界點(diǎn)開始,信息不再能給我們帶來資訊,而只會讓事物變畸形;交流不再能帶來溝通,而只是單純的疊加?!雹賉德]韓炳哲:《在群中:數(shù)字媒體時代的大眾心理學(xué)》,程巍譯,北京:中信出版社,2019年,第87頁。自1995年個性化推薦算法(Personalized Recommendation Algorithms,以下簡稱“算法”)被美國學(xué)者羅伯特·阿姆斯特朗等人提出以來,算法經(jīng)歷了從商業(yè)領(lǐng)域到新聞傳播領(lǐng)域的發(fā)展變化,從向顧客推薦可能感興趣的商品拓展為向用戶推薦可能感興趣的新聞,其影響力也從國外的Amazon、Google、Twitter、Facebook等平臺延伸至國內(nèi)的今日頭條、微信、抖音、知乎及部分主流媒體等平臺。“作為數(shù)據(jù)與人工智能的節(jié)點(diǎn),算法發(fā)揮著構(gòu)造流量入口、捕捉用戶黏性的關(guān)鍵作用?!雹儆鲊?、楊瑩瑩等:《算法即權(quán)力:算法范式在新聞傳播中的權(quán)力革命》,《編輯之友》2018年第5期。具體來看,在算法推薦新聞的智能化模型中,算法根據(jù)每個用戶內(nèi)容消費(fèi)的行為數(shù)據(jù)、個體屬性數(shù)據(jù)與社交關(guān)系數(shù)據(jù)進(jìn)行大數(shù)據(jù)計算與分析,并自動生成符合用戶興趣偏好或隱含偏好的用戶模型,以此實(shí)現(xiàn)從內(nèi)容到用戶的個性化推薦與精準(zhǔn)化傳播,信息生產(chǎn)者的傳播成本和信息接受者的獲取成本大大降低。
作為邏輯與控制的綜合,算法確實(shí)能夠通過大數(shù)據(jù)的挖掘能力和自己的計算、分發(fā)能力,高效率地實(shí)現(xiàn)新聞的個性化推薦與精準(zhǔn)化傳播,對用戶主體地位的彰顯和新聞分發(fā)效率的提升起著關(guān)鍵作用。然而,“從數(shù)據(jù)中衍生出來的信息不能與賦予數(shù)據(jù)意義和價值的社會關(guān)系與文化環(huán)境相剝離?!雹赥al Montal and Zvi Reich, “I, Robot. You, Journalist. Who is the Author? Authorship, Bylines and Full Disclosure in Automated Journalism ”, Digital Journalism, vol.5, no.7 ,2017.也就是說,對算法推薦新聞的價值評判應(yīng)該置于更廣闊的社會文化環(huán)境中予以考量。從個體層面來看,算法通過對用戶在APP上的搜索、瀏覽、點(diǎn)贊、評論信息等行為方式進(jìn)行大數(shù)據(jù)分析,推出用戶“算法畫像”,以便在用戶下一次使用APP時能為其推薦更中意的信息。這種基于內(nèi)容的算法推薦方式,實(shí)際上把用戶的興趣偏好作為衡量新聞價值的唯一標(biāo)準(zhǔn),將點(diǎn)擊率和流量奉為價值法則,在實(shí)際操作過程中更易于迎合用戶的風(fēng)格、口味與立場,本質(zhì)上是對用戶注意力的一種“收割”和對“長尾”用戶的深度挖掘。同時,越是充滿低俗、色情、獵奇的內(nèi)容,它的點(diǎn)擊率往往就會越高,而點(diǎn)擊率越高的內(nèi)容,往往就越容易得到推薦。有學(xué)者指出,算法高度關(guān)注內(nèi)容投放得“準(zhǔn)不準(zhǔn)”,而不關(guān)心“對不對”。③支庭榮、王特:《當(dāng)價值觀來敲門——算法生產(chǎn)內(nèi)容的現(xiàn)狀與未來》,《南方傳媒研究》2018年第3期。從社會層面來看,無論是基于內(nèi)容的算法推薦還是基于協(xié)同過濾的算法推薦,本質(zhì)上都是以“用戶為中心”的推薦方式,反映的是個體或一小部分群體的興趣偏好,這一價值邏輯與傳媒公共性相矛盾。同時,作為一種技術(shù)制造物,算法在設(shè)計之初就已經(jīng)融入了資本、權(quán)力等異質(zhì)要素,有著“黑箱”模型的技術(shù)特質(zhì),這就決定了算法推薦新聞在實(shí)踐操作中的不可解釋性。有學(xué)者指出,“推薦結(jié)果解釋力的缺位意味著用戶失去了對閱讀內(nèi)容的控制力,即在無法獲得推薦理由的情況下,被迫將信任交付給基于黑箱模型的算法和掌握技術(shù)權(quán)力的平臺”,④陳昌鳳、師文:《個性化新聞推薦算法的技術(shù)解讀與價值探討》,《中國編輯》2018年第10期。暗合著資本、權(quán)力邏輯主導(dǎo)下的算法異化問題。
就內(nèi)容維度而言,首先,標(biāo)題黨、虛假信息和低質(zhì)量資訊泛濫。算法推薦新聞在內(nèi)容層面呈現(xiàn)的第一個問題是標(biāo)題黨、虛假信息和低質(zhì)量資訊泛濫。根據(jù)《2020—2021年數(shù)字內(nèi)容產(chǎn)業(yè)趨勢報告》顯示,標(biāo)題黨的痛點(diǎn)覆蓋率超過80%,虛假信息和低質(zhì)量資訊的覆蓋率超過65%。⑤企鵝智庫:《2020—2021年數(shù)字內(nèi)容產(chǎn)業(yè)趨勢報告》,新浪網(wǎng):http://finance.sina.com.cn/tech/2020-12-09/dociiznezxs5932549.shtml,2020年12月9日。一方面,隨著傳統(tǒng)“把關(guān)人”角色的弱化,新聞逐漸交由算法把關(guān)。但算法只能對新聞的“熱度”進(jìn)行排序,對新聞的專業(yè)度、真實(shí)性卻無法識別。在社交媒體平臺,大量未經(jīng)把關(guān)的標(biāo)題黨、虛假信息和低質(zhì)量資訊被大肆傳播,致使社交媒體平臺的信息傳播內(nèi)容出現(xiàn)嚴(yán)重偏差,這瓦解了本應(yīng)該由嚴(yán)肅類新聞、調(diào)查類新聞對高品質(zhì)傳媒公共性的建構(gòu)。另一方面,由于在算法機(jī)制之下,一條新聞能否得到推薦很大程度上取決于新聞的熱度。因此,在實(shí)踐操作過程中,新聞資訊平臺更易于采用“標(biāo)題黨”手法提取新聞中能夠刺激用戶感官、吸引用戶眼球的內(nèi)容提取,并用夸張、歪曲等手段提煉出與內(nèi)容不符甚至完全相反的標(biāo)題,以吸引用戶注意力,增加資訊內(nèi)容的點(diǎn)擊量。在注意力經(jīng)濟(jì)的驅(qū)使下,造成媒體內(nèi)容市場的“劣幣驅(qū)逐良幣”現(xiàn)象。其次,真實(shí)的瓦解。隨著網(wǎng)民數(shù)量的持續(xù)增長以及移動資訊平臺陣營的不斷壯大,人們更傾向于選擇讓他們認(rèn)同且愉悅的信息,情緒、感覺等主觀感受與心理訴求被無限放大。事實(shí)、證據(jù)等本應(yīng)該被新聞視為“生命”的價值法則,已逐漸讓位于情感、主張、偏見以及個人化的信念。公眾越來越關(guān)注那些能夠調(diào)動他們的情緒、興趣以及利益的新聞內(nèi)容,并熱衷于在碎片化、情感化以及算法的“過濾氣泡”中探尋真相。從認(rèn)知心理學(xué)視角來看,算法推薦機(jī)制高度契合了人們對于新聞的心理訴求,致使在新聞中探尋真相逐漸讓位于在新聞中消費(fèi)情感、進(jìn)行娛樂,真相越來越游離于事實(shí)與公眾之外。有學(xué)者指出,這種由“信息繭房”和價值無序傳遞帶來的與真實(shí)世界的斷裂,讓公眾更愿意相信算法推薦營造的超真實(shí),對意義的追求轉(zhuǎn)向了對信息的迷戀,超真實(shí)世界取代了真實(shí)世界,導(dǎo)致真實(shí)的瓦解。①趙雙閣、岳夢怡:《新聞的“量化轉(zhuǎn)型”:算法推薦對媒介倫理的挑戰(zhàn)與應(yīng)對》,《當(dāng)代傳播》2018年第4期。
就價值維度而言,算法推薦新聞在滿足用戶個性化內(nèi)容需求的同時,會過濾用戶不感興趣的內(nèi)容,致使用戶主動獲取信息的自我意識和多元化的信息選擇權(quán)逐漸旁落,陷于算法所建構(gòu)的“信息繭房”。當(dāng)用戶長期沉浸在個性化內(nèi)容推薦的滿足中時,用戶容易受到片面信息甚至低俗、負(fù)面信息的影響,進(jìn)而加深固有偏見,導(dǎo)致群體極化現(xiàn)象的發(fā)生,最終觸發(fā)網(wǎng)絡(luò)輿情風(fēng)險點(diǎn)的形成。具體來看,一是正能量傳播不足。由于算法價值觀存在偏差,導(dǎo)致正能量內(nèi)容的推薦權(quán)重較低,算法服務(wù)正能量傳播的功能缺乏。同時,網(wǎng)站對于正能量信息的傳播效果監(jiān)測和分析不足,嚴(yán)重制約了正面宣傳效果。二是負(fù)面內(nèi)容過濾能力較差。算法推薦技術(shù)在涉及意識形態(tài)、色情、低俗信息等方面的審核過濾能力有待提高;在新聞評論、搜索等重點(diǎn)環(huán)節(jié),存在“軟色情”“獵奇”等內(nèi)容信息;對隱晦違法不良信息和歷史虛無主義等隱喻類負(fù)面內(nèi)容的識別和過濾能力不足等。
就法律維度而言,一是數(shù)據(jù)安全、用戶隱私權(quán)保護(hù)受到威脅。在以“大數(shù)據(jù)+算法”為主要模式的智能化新聞推薦機(jī)制中,必然需要多元化數(shù)據(jù)對用戶的興趣偏好進(jìn)行分析和建模,以此提升資訊內(nèi)容的個性化推薦和精準(zhǔn)化傳播效率,用戶的數(shù)據(jù)安全、用戶隱私權(quán)保護(hù)受到嚴(yán)重威脅。具體來看,算法在收集用戶的搜索、瀏覽以及使用習(xí)慣等信息時,可能存在過度收集用戶的其他信息的行為。比如用戶的通訊記錄、消費(fèi)記錄、行程記錄以及人臉信息、個人身份信息等個人隱私數(shù)據(jù)。2021年5月,國家互聯(lián)網(wǎng)信息辦公室就對短視頻、瀏覽器、求職招聘等公眾大量使用的部分APP的個人信息收集、使用情況進(jìn)行了檢測,發(fā)現(xiàn)包括抖音、快手、智聯(lián)招聘等在內(nèi)的55款A(yù)PP存在“違反必要原則,收集與其提供的服務(wù)無關(guān)的個人信息”等行為。二是用戶版權(quán)保護(hù)面臨挑戰(zhàn)。目前來看,算法推薦技術(shù)已經(jīng)實(shí)現(xiàn)了海量用戶與個性化內(nèi)容的高效匹配,并日益成為移動資訊平臺實(shí)現(xiàn)流量變現(xiàn)、獲取商業(yè)價值的重要技術(shù)手段。但由于在算法推薦機(jī)制之下,互聯(lián)網(wǎng)平臺在其內(nèi)容池中會優(yōu)先推薦更受用戶喜愛的內(nèi)容,哪怕是版權(quán)侵權(quán)的內(nèi)容,以此提升用戶對平臺的依賴性,從而吸引更多用戶上傳內(nèi)容,制造“滾雪球”效果。②盧海君、徐朗等:《互聯(lián)網(wǎng)平臺算法推薦的法律規(guī)制》,《中國出版》2022年第13期。因此,算法推薦在創(chuàng)造技術(shù)紅利的同時,也強(qiáng)化了內(nèi)容侵權(quán)作品的傳播,致使用戶版權(quán)保護(hù)面臨全新挑戰(zhàn)。其中,最為典型的內(nèi)容侵權(quán)表現(xiàn)為短視頻內(nèi)容版權(quán)的侵權(quán)。究其緣由,一方面,短視頻內(nèi)容分發(fā)已經(jīng)成為當(dāng)前移動資訊內(nèi)容分發(fā)的主要形式,并逐漸發(fā)展為互聯(lián)網(wǎng)行業(yè)重要支柱型產(chǎn)業(yè)。根據(jù)第49次《中國互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計報告》顯示,截至2021年12月,我國短視頻用戶為9.34億,短視頻滲透率高達(dá)90%。③中國互聯(lián)網(wǎng)絡(luò)信息中心:《第49次〈中國互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計報告〉》,中國互聯(lián)網(wǎng)信息中文網(wǎng)站:http://www.cnnic.net.cn/hlwfzyj/hlwxzbg/hlwtjbg/202202/t20220225_71727.htm,2022年2月25日,短視頻規(guī)模、業(yè)態(tài)與市場的急劇擴(kuò)張,使得舊有法律條文難以適應(yīng)短視頻內(nèi)容侵權(quán)糾紛情況。雖然自2019年以來,國家相關(guān)部門陸續(xù)出臺了《網(wǎng)絡(luò)短視頻平臺管理規(guī)范》《網(wǎng)絡(luò)短視頻內(nèi)容審核標(biāo)準(zhǔn)細(xì)則》《中華人民共和國著作權(quán)法(2020年修正)》等一系列旨在完善新型內(nèi)容產(chǎn)品生產(chǎn)的法律監(jiān)管條文,但短視頻內(nèi)容侵權(quán)行為仍然屢禁不絕,社會爭議頻發(fā)。另一方面,隨著傳統(tǒng)把關(guān)人角色的弱化,注意力經(jīng)濟(jì)、流量思維等商業(yè)化邏輯進(jìn)一步主導(dǎo)了用戶的內(nèi)容生產(chǎn)與傳播?!八惴ㄍ扑]機(jī)制淡化了用戶生產(chǎn)的差異化競爭意識,被算法所分類與區(qū)隔的用戶創(chuàng)作在即時效益的驅(qū)使下向內(nèi)容同質(zhì)化方向發(fā)展,同領(lǐng)域的抄襲行為明顯增加。”④魯恒志、李金寶:《傳播法學(xué)視域下短視頻內(nèi)容侵權(quán)認(rèn)定及治理路徑》,《視聽界》2022年第1期。此外,隨著仿冒、抄襲等不正當(dāng)競爭手段的日益隱蔽化,正當(dāng)模仿與違法仿冒的邊界逐漸模糊,也使得短視頻內(nèi)容侵權(quán)的界定規(guī)則受到挑戰(zhàn)。
就算法推薦新聞的內(nèi)容而言,目前存在兩方面問題:一是因“信息繭房”而引發(fā)的信息成癮等現(xiàn)象層面的問題,二是因算法價值觀出現(xiàn)偏差危及主流意識形態(tài)建構(gòu)等價值層面的問題。因此,在技術(shù)優(yōu)化方面就需要同時兼顧好用戶愛看和主流價值導(dǎo)向內(nèi)容推薦兩方面的內(nèi)容推薦權(quán)重,優(yōu)化算法推薦模型,積極有效營造風(fēng)清氣正、多元共生的良好內(nèi)容生態(tài)環(huán)境。首先要用主流價值導(dǎo)向駕馭算法,促進(jìn)智慧與智能的一體化發(fā)展。自2018年開始,主流媒體平臺就開始積極探索如何用主流價值導(dǎo)向駕馭算法,以此全面提高主流媒體的輿論引導(dǎo)力。2020年,封面新聞推出“算法推薦模型+人工干預(yù)+用戶自主選擇”有機(jī)結(jié)合的“智媒云——主流媒體算法”,以算法向善驅(qū)動智媒向善;2021年,川觀新聞秉持“智能+智慧+智庫”的智媒體理念,以進(jìn)一步實(shí)現(xiàn)對信息流的優(yōu)化重構(gòu)。其次要優(yōu)化內(nèi)容推薦指標(biāo),打破“唯流量”“唯熱點(diǎn)”等商業(yè)邏輯主導(dǎo)下的一元化算法推薦機(jī)制,并向多元化推薦機(jī)制轉(zhuǎn)變。
“在許多數(shù)字新聞客戶端中,新聞的可見性(visibility)取決于多個參與者的行為,比如內(nèi)容發(fā)布者(包括新聞機(jī)構(gòu)和算法)、用戶、用戶好友、廣告主等?!雹贄顩病①芗蚜幔骸缎侣勊惴ㄍ扑]的信息可見性、用戶主動性與信息繭房效應(yīng):算法與用戶互動的視角》,《新聞大學(xué)》2020年第2期。因此,用戶和用戶好友都可被視為算法推薦新聞優(yōu)化邏輯中的一個關(guān)鍵層面。這是因為,算法推薦的新聞內(nèi)容某種程度上正是用戶想要獲取的新聞內(nèi)容,是用戶的內(nèi)容心理訴求在技術(shù)層面上的反應(yīng)。這就為用戶通過提升算法素養(yǎng),進(jìn)行“算法馴化”,打破“信息繭房”桎梏,提供了實(shí)際操作的可能。一方面,資訊平臺要積極主動對用戶的“算法畫像”進(jìn)行公布,強(qiáng)化用戶主體意識,調(diào)動用戶識別與優(yōu)化“算法畫像”的主動性、積極性,逐漸培養(yǎng)用戶多元信息獲取習(xí)慣和接收習(xí)慣。另一方面,為了減弱親密關(guān)系加權(quán)算法帶來的同質(zhì)化傳播效應(yīng),以及興趣加權(quán)算法導(dǎo)致的自我內(nèi)卷化,用戶可以跨越交往互動圈層,不斷建立起基于不同類型信息生產(chǎn)或消費(fèi)的信息緣紐帶,實(shí)現(xiàn)群體紐帶的多元化。②謝進(jìn)川:《算法算計:算法傳播的公共性限度及公眾應(yīng)對策略》,《南京社會科學(xué)》2021年第8期。這既有利于弱化網(wǎng)絡(luò)社群圈層化引發(fā)的意見區(qū)隔、群體極化弊病,推動內(nèi)容、觀點(diǎn)和意見的跨圈層傳播與交流,還有利于在網(wǎng)絡(luò)空間中營造多元化的內(nèi)容生態(tài)環(huán)境,減少因“信息繭房”、群體極化引發(fā)的網(wǎng)絡(luò)輿情風(fēng)險點(diǎn)的形成。
事實(shí)上,算法推薦技術(shù)已經(jīng)成為移動資訊平臺崛起的技術(shù)保障。一是推動網(wǎng)絡(luò)平臺將“正面宣傳為主”作為算法推薦技術(shù)設(shè)計的指導(dǎo)思想,加強(qiáng)對算法設(shè)計者、審核團(tuán)隊等業(yè)務(wù)人員的教育培訓(xùn),提高思想政治素養(yǎng)和業(yè)務(wù)水平素養(yǎng),并在實(shí)踐操作過程中,通過產(chǎn)品設(shè)計、人工運(yùn)營來平衡“算法黑箱”帶來的不利影響。二是督促平臺規(guī)范推薦內(nèi)容來源,完善推薦內(nèi)容數(shù)據(jù)庫建設(shè),并對入庫內(nèi)容進(jìn)行再次審核篩選。一方面要督促平臺加強(qiáng)算法詞匯樣本庫建設(shè),健全與業(yè)務(wù)規(guī)模相適應(yīng)的違法不良信息關(guān)鍵詞庫、樣本詞庫,指導(dǎo)平臺優(yōu)化算法推薦的技術(shù)監(jiān)管系統(tǒng),不斷提升算法應(yīng)用的風(fēng)險防范能力。另一方面要督促平臺加強(qiáng)對負(fù)面內(nèi)容的技術(shù)過濾,強(qiáng)化對文本、圖片、音視頻等違法不良信息的識別。三是要建立健全算法推薦安全自評估機(jī)制以及算法推薦違規(guī)處理機(jī)制。一方面,要將具有互聯(lián)網(wǎng)新聞信息服務(wù)資質(zhì)的網(wǎng)絡(luò)平臺納入資質(zhì)審核范疇,對沒有資質(zhì)的一般網(wǎng)絡(luò)平臺依法加強(qiáng)監(jiān)管。另一方面,對因算法推薦導(dǎo)致主流價值觀出現(xiàn)偏差的網(wǎng)絡(luò)平臺,采取暫停更新、下架APP直至關(guān)停網(wǎng)站等一系列處罰措施。推動網(wǎng)絡(luò)平臺加強(qiáng)算法公開機(jī)制建設(shè),適當(dāng)公開其算法原理,接受各方面監(jiān)督。
倫理結(jié)構(gòu)化進(jìn)程是指規(guī)范化、制度化、體系化的邏輯構(gòu)成,有著科學(xué)化與認(rèn)同感的評價標(biāo)準(zhǔn)與評價方法,并逐步推進(jìn)形成倫理規(guī)范的制度化和標(biāo)準(zhǔn)化趨向。①張旺:《倫理結(jié)構(gòu)化:算法風(fēng)險治理的邏輯與路徑》,《湖湘論壇》2021年第2期。當(dāng)前,針對算法推薦新聞出現(xiàn)的種種倫理問題,比如“算法偏見”“算法歧視”“算法黑箱”等新聞倫理失范現(xiàn)象,應(yīng)盡快在倫理層面形成較為科學(xué)、標(biāo)準(zhǔn)的識別和評估體系,積極建構(gòu)規(guī)范合理的算法風(fēng)險評估模型。一方面,技術(shù)的研發(fā)人員需要遵守包括有益性、包容性、多樣性、透明性以及隱私保護(hù)等在內(nèi)的基本倫理準(zhǔn)則;另一方面,國家和政府要建立跨學(xué)科、多樣性的倫理審查制度,并對可能產(chǎn)生的倫理影響進(jìn)行評估和提出建議。②莫宏偉:《強(qiáng)人工智能與弱人工智能的倫理問題思考》,《科學(xué)與社會》2018年第1期。逐漸完善多樣性、包容性與規(guī)范性并存的倫理結(jié)構(gòu)化標(biāo)準(zhǔn)建設(shè),為算法推薦新聞的倫理失范提供科學(xué)、標(biāo)準(zhǔn)、可行的治理方案和優(yōu)化策略。算法推薦新聞的發(fā)展呈動態(tài)化特征,受政治、資本、市場等多元因素的影響與制約,因此在未來發(fā)展中要協(xié)調(diào)好多元行為主體的價值訴求,共同推動算法健康、有序、繁榮發(fā)展。