• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      獎勵函數(shù)·代碼撫觸·算法主義:人工智能媒介與知識生產(chǎn)

      2025-03-14 00:00:00劉大年曹月
      現(xiàn)代出版 2025年2期
      關(guān)鍵詞:知識生產(chǎn)

      內(nèi)容摘要:將人工智能作為一種媒介進(jìn)行考察,如同考察作為媒介的印刷機,具有重要意義。作為媒介的人工智能帶來了另一種知識生產(chǎn)方式,成為人類理性與信仰之外的知識來源。神經(jīng)網(wǎng)絡(luò)和獎勵函數(shù)提供了理解人工智能知識與人類知識關(guān)系的切入口。人類通過獎勵函數(shù)向人工智能神經(jīng)網(wǎng)絡(luò)傳遞知識目標(biāo),而人類知識目標(biāo)中還包括一系列價值內(nèi)涵,使人工智能真正理解人類價值目標(biāo)的過程中存在黑箱問題。在知識論層面,人工智能黑箱帶來的是人類知識主體的消解,難以用語言解釋的人工智能知識生產(chǎn)過程以“撫觸”的形式參與人類生活。人類生活的全部都可以被數(shù)據(jù)化,被算法系統(tǒng)計算,主客體二元關(guān)系以均質(zhì)化的方式被消解,取而代之的是模式生成。人類的經(jīng)驗材料和認(rèn)識形式開始不可避免地以算法作為中介,算法主義作為一種新的知識方法出現(xiàn)。人工智能拓展了知識來源,為人類展現(xiàn)了一幅新的知識圖景,人工智能知識的未來也就是人類知識的未來。

      關(guān)鍵詞:人工智能媒介;知識生產(chǎn);知識主體;算法主義

      DOI:10.3969/j.issn.2095-0330.2025.02.004

      一、引言

      因在使用人工神經(jīng)網(wǎng)絡(luò)機器學(xué)習(xí)方面的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明,美國科學(xué)家約翰·霍普菲爾德(John Hopfield)和英裔加拿大科學(xué)家杰弗里·辛頓(Geoffrey Hinton)獲得2024年諾貝爾物理學(xué)獎。2024年諾貝爾化學(xué)獎同樣與人工智能相關(guān):美國華盛頓大學(xué)科學(xué)家戴維·貝克(DavidBaker)因構(gòu)建了大量全新的蛋白質(zhì),獲該獎項一半獎金;另一半獎金則由人工智能公司DeepMind創(chuàng)始人、英國科學(xué)家德米斯·哈薩比斯(DemisHassabis)和該公司科學(xué)家約翰·江珀(JohnJumper)共享,以表彰他們開發(fā)的用于預(yù)測蛋白質(zhì)結(jié)構(gòu)的人工智能工具AlphaFold。2020年,AlphaFold取得了革命性突破,《自然》雜志稱贊“它將改變一切”\"。新的科學(xué)范式、知識范式正在形成。

      有什么樣的媒介,就有什么樣的知識生產(chǎn)。我們今天所熟知的科學(xué)理性世界是與書面文化交織在一起的?!拔淖謳砹艘环N橫向的交流,帶來了一種共時性,不同的文化、世界觀、觀點并列存在。即使是從前寫下來的東西,仍然原樣放在那里,也和現(xiàn)在寫下來的東西具有某種共時性?!边@種共時性為主體提供了一種“觀念并列雜陳”的背景,這就是他者的背景,因而“理性態(tài)度的第一個特征是反思,在他者的背景下看待自己”#。與此同時,有邊界的文本也意味著一個相對封閉的精神世界,知識被局限在主體的范圍以內(nèi),雅克·德里達(dá)(Jacques Derrida)的邏各斯中心主義集中批判了這種封閉性。主客體二元論的世界觀強調(diào)確定性,在一定程度上,實在物的動態(tài)性、復(fù)雜性和辯證性被掩蓋了。布魯諾·拉圖爾(Bruno Latour)提出“我們從未現(xiàn)代過”,通過社會行動網(wǎng)絡(luò)理論說明“雜合體”在人類社會中的普遍存在,人與非人之間始終是流動著的、紛繁復(fù)雜的纏繞關(guān)系。因而“現(xiàn)代性”的一個面相被拉圖爾描繪為在主客體二元論中建構(gòu)的神話。

      作為媒介的人工智能帶來了另一種知識生產(chǎn)方式,成了在人類理性與信仰之外的知識來源。在人類知識域中,人工智能黑箱過程充滿了不確定性和難以驗證性,對具有確定性的知識形態(tài)造成了沖擊,“得到證成的真信念”等人類知識觀念受到挑戰(zhàn)。% 對人工智能來說,在傳統(tǒng)知識生產(chǎn)中作為知識主體的人類,也同其他要素一樣化作數(shù)據(jù)被上傳至擬真系統(tǒng),人類主體性在這一過程中被消解:當(dāng)我們在擬真系統(tǒng)中與人工智能相會時,它已經(jīng)提前為我們設(shè)置好了答案。

      然而,人類的體驗不能和擬真系統(tǒng)區(qū)分開來,這就是說,擬真系統(tǒng)可能是沒有原物的模式生成,但人類的體驗是真實的。在此意義上,或許我們不應(yīng)當(dāng)把擬真系統(tǒng)看作現(xiàn)實消失的一種形式,而應(yīng)當(dāng)將其看作另一種現(xiàn)實的展開。面對新的現(xiàn)實,即人類知識域中新的情形,我們需要對人工智能知識生產(chǎn)作進(jìn)一步考察:人工智能媒介如何建立一種擬真系統(tǒng),又以何種方式在人類知識域中為人類帶來一種新的體驗?

      二、人工智能與知識原理

      (一)神經(jīng)網(wǎng)絡(luò):知識表示方式

      按照亞里士多德的觀點,記憶好比硬物壓在蠟燭上所留下的痕跡,也就是說認(rèn)知就像蠟燭那樣可以塑造。由此,當(dāng)人們知道神經(jīng)是認(rèn)知活動的主要載體時,人們就萌發(fā)了神經(jīng)可塑性的思想。1949年,唐納德·赫布(Donald Hebb)在《行為的組織》中提出了神經(jīng)學(xué)習(xí)理論,探究經(jīng)驗在認(rèn)知及神經(jīng)塑造中的機理。在大腦中,數(shù)量龐大的神經(jīng)元經(jīng)由突觸聯(lián)結(jié)成一個網(wǎng)絡(luò),神經(jīng)信號在編織成神經(jīng)網(wǎng)絡(luò)的神經(jīng)元之間傳遞。在伊萬·巴甫洛夫(IvanPavlov)的條件反射實驗中,給狗喂食時就搖鈴,反復(fù)多次后,狗聽到鈴聲就會觸發(fā)流口水的條件反射。赫布受到巴甫洛夫的影響,按照赫布理論,條件反射背后是神經(jīng)機制的形成,神經(jīng)元受到刺激時就產(chǎn)生興奮,通過突觸傳遞給相鄰神經(jīng)元,興奮在神經(jīng)元之間的傳遞,讓神經(jīng)元之間的連接更強,即突觸的連接強度可以隨著神經(jīng)元活動的增加而增強。赫布理論提示我們,主體的神經(jīng)機制或記憶機制,是思想產(chǎn)生的必要條件。amp; 從知識的角度來說,作為結(jié)構(gòu)承擔(dān)記憶功能的神經(jīng)網(wǎng)絡(luò),是人類知識在人腦中的組織和表示方式。

      構(gòu)造人工智能的方式與解釋人類智能的方式息息相關(guān),如果可以用一種過程來解釋智能,那么機器就可以對這種過程進(jìn)行模擬。將單個生物神經(jīng)網(wǎng)絡(luò)抽象和簡化成模型,就能得到M-P神經(jīng)元模型。M-P神經(jīng)元模型也被視作神經(jīng)網(wǎng)絡(luò)中的一個處理單元,人工神經(jīng)網(wǎng)絡(luò)就是在M-P神經(jīng)元模型的基礎(chǔ)上建立起來的。單個神經(jīng)元不足以模擬人腦神經(jīng)系統(tǒng)功能,由這些人工神經(jīng)元構(gòu)建出來的網(wǎng)絡(luò),才具有學(xué)習(xí)、聯(lián)想、記憶和模式識別的能力。赫布理論為構(gòu)造具有學(xué)習(xí)功能的神經(jīng)網(wǎng)絡(luò)奠定了基礎(chǔ),但直到20世紀(jì)70年代,人們都還沒有找到較為有效的方法構(gòu)建平衡、穩(wěn)定、有效的人工神經(jīng)網(wǎng)絡(luò),很多研究神經(jīng)網(wǎng)絡(luò)的科學(xué)家轉(zhuǎn)向基于邏輯符號處理的人工智能研究。

      非神經(jīng)網(wǎng)絡(luò)的、邏輯符號處理的人工智能要求對任務(wù)作出事前的公理化分析,首先要形成一個有關(guān)常識基礎(chǔ)的抽象理論,其次才要編寫程序。' 與神經(jīng)網(wǎng)絡(luò)人工智能相比,前者被認(rèn)為是理性主義的,后者是經(jīng)驗主義的,這是人工智能開發(fā)的兩個分支。也有學(xué)者提出不同意見,認(rèn)為兩者都是在構(gòu)造模型,都是在根據(jù)精確原則進(jìn)行計算。但是,多層神經(jīng)網(wǎng)絡(luò)的人工智能計算出的參數(shù)往往不能直接和現(xiàn)實中可用語言表達(dá)的概念產(chǎn)生聯(lián)系,甚至程序開發(fā)者也難以確定這些參數(shù)的現(xiàn)實意義。這些參數(shù)在學(xué)習(xí)過程中不斷變動和生成,總的來說,在神經(jīng)網(wǎng)絡(luò)內(nèi)部與其需要處理的任務(wù)對象之間,沒有概念化的表達(dá),不存在一一對應(yīng)的精確關(guān)系。

      神經(jīng)網(wǎng)絡(luò)人工智能的成功證明了理性主義傳統(tǒng)存在的知識缺陷。處理邏輯符號的傳統(tǒng)人工智或難以將一切人類常識概念進(jìn)行編程,也難以理解語境等被稱為“默會知識”的內(nèi)容,而相對來說,這些在神經(jīng)網(wǎng)絡(luò)人工智能中得到了較好的處理,深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)可以找到有時人類自身也沒有意識到的潛在聯(lián)系。反觀人類知識本身,人類的知識并不都是概念化、邏輯化、系統(tǒng)化、條理清晰的內(nèi)容,知識的來源也并非純粹理性的,人們在日常生活中并不總是使用關(guān)于日常生活的理論性知識。關(guān)于知識的見解傾向了路德維?!ぞS特根斯坦(LudwigWittgenstein)而非柏拉圖,在《論確定性》中,維特根斯坦得出了看似矛盾的結(jié)論,知識建立在不確定的基礎(chǔ)上,但這并不會導(dǎo)致預(yù)想中的懷疑論后果,因為我們的生活形式可以為之作支撐和擔(dān)保。

      (二)獎勵函數(shù):輸入知識目標(biāo)

      已有人機關(guān)系研究聚焦作為整體的人工智能技術(shù)的應(yīng)用,在人工智能開發(fā)過程中,也存在討論人機關(guān)系的理論空間。獎勵函數(shù)往往被視為機器強化學(xué)習(xí)中人與算法溝通的橋梁。在強化學(xué)習(xí)過程中,人工智能在當(dāng)前狀態(tài)下,根據(jù)策略選擇動作,環(huán)境對動作作出響應(yīng),同時產(chǎn)生一個獎勵信號,通常是一個數(shù)值,就像游戲中的分?jǐn)?shù),獎勵的累積是人工智能在強化學(xué)習(xí)中的目標(biāo)。人工智能根據(jù)獎勵,更新策略和參數(shù),以在下一次與環(huán)境的交互中獲得更高的獎勵。獎勵的累積,或可被稱為累計收益,是對人工智能目標(biāo)的數(shù)字化表達(dá),人工智能只會學(xué)習(xí)如何最大化收益,讓人工智能完成人類設(shè)定的任務(wù),就是設(shè)計一個獎勵函數(shù),使人工智能獲得最大收益的同時實現(xiàn)人類的目標(biāo),獎勵函數(shù)的意義就在于向人工智能指明目標(biāo)。

      獎勵函數(shù)也體現(xiàn)了人工智能與環(huán)境交互的模式,即通過不斷試錯獲得最大化的獎勵,人工智能的策略是在追求最大收益的過程中不斷優(yōu)化自身。這可以進(jìn)一步理解為,智能產(chǎn)生于所處環(huán)境中的獎勵最大化過程,智能本身是實現(xiàn)目標(biāo)過程中的表現(xiàn)。) 盡管這種功能主義觀點飽受爭議,但類似的觀點也作為前置的觀念出現(xiàn)在人類學(xué)研究中,在《槍炮、病菌與鋼鐵》中,賈雷德·戴蒙德(JaredDiamond)這樣描述人類農(nóng)業(yè)的產(chǎn)生:“在其他條件相同的情況下,人會追求最大的回報,不論是卡路里、蛋白質(zhì),還是其他食物范疇,而做法是:花最少的時間、最小的精力,盡可能獲得回報。同時,他們也要降低餓死的風(fēng)險:適度而可靠的回報,比大起大落的生活模式更有吸引力。”

      如何讓人工智能理解人類目標(biāo)?這里存在一個與符號主義人工智能類似的問題,和從人類概念到機器編程,從人類任務(wù)目標(biāo)到獎勵函數(shù)的過程是間接的、抽象的一樣,事實上,當(dāng)面對一個復(fù)雜任務(wù)時,我們很難通過獎勵函數(shù)向人工智能準(zhǔn)確地傳遞我們想要實現(xiàn)的目標(biāo)。人類對于給予不同獎勵的后果難以進(jìn)行預(yù)估,獎勵函數(shù)稍加改變、優(yōu)化后獲得的策略就可能和優(yōu)化前的策略天差地別。這里潛在的話語仍是黑箱問題,開發(fā)人員設(shè)置的獎勵在一些場景下是有效的,在一些場景中產(chǎn)生的反饋則很可能令人失望,獎勵函數(shù)的設(shè)置只能依賴反復(fù)實驗和經(jīng)驗總結(jié)。

      除理性目標(biāo)外,人類目標(biāo)中還蘊含著道德原則、倫理規(guī)范和價值觀,價值對齊要求人工智能的“價值觀”與人類的價值觀保持一致,以確保人工智能對人類社會無害。2023年7月,OpenAI宣布成立一個名為“超級對齊”(Superalignment)的新部門,該部門的目標(biāo)旨在于4年內(nèi)找到讓超級智能的AI系統(tǒng)實現(xiàn)價值對齊的路徑。OpenAI還承諾,將投入20%的計算資源專門用于對齊超級智能。+ 不僅是OpenAI,谷歌、微軟等知名科技公司也紛紛成立了類似的價值對齊部門或團(tuán)隊。人工智能價值對齊的前提是人類具有相對穩(wěn)定和一致的價值標(biāo)準(zhǔn),然而人類社會的價值體系本身是多元且不斷演變的。價值對齊問題就有了另一重解讀:人類價值體系有可能演變?yōu)椋l掌握人工智能技術(shù),誰就掌握了定義人類價值觀的權(quán)力。人類的道德原則、倫理規(guī)范、價值觀等源于生活實踐的知識內(nèi)容將被卷入技術(shù)體系中,而脫離人類生活的真實經(jīng)驗。

      三、人工智能與知識主體

      (一)算法黑箱:知識主體消解

      勒內(nèi)·笛卡兒(René Descartes)使用普遍懷疑的方法,懷疑一切可懷疑之物,最終推演得出“我思故我在”——思考的主體是不容置疑的出發(fā)點,人發(fā)現(xiàn)了作為主體的自身,主體性原則得到確立。主體究竟用什么樣的方式去認(rèn)識世界?笛卡兒企圖用最簡單、最通用的方法來解決所有問題,他對數(shù)學(xué)這種簡明的思考方式十分著迷,“普遍數(shù)學(xué)”成為笛卡兒哲學(xué)的方法論基礎(chǔ)。,“普遍數(shù)學(xué)”進(jìn)一步推動哲學(xué)家思考一種有秩序的世界本原。戈特弗里德·萊布尼茨(Gottfried Leibniz)追求普適的符號系統(tǒng),在理解過程中,人類把概念分析成更簡單的元素,有終極的單質(zhì),以期據(jù)此理解所有的復(fù)雜概念。萊布尼茨設(shè)想出一種“人類思想的字母表”,它們的“字符必須在被用于證明時顯示出客體中也發(fā)現(xiàn)了的某種聯(lián)結(jié)、分組和排序”。- 類似地,維特根斯坦在《邏輯哲學(xué)論》中將世界定義為邏輯上獨立的原子事實的總和,“世界是事實而非物的總和”.,進(jìn)而,事實可以被最終解析為本原客體,心靈表述的是本原客體相互結(jié)合的方式。我們可以認(rèn)為,人工智能就是試圖找到這些本原客體,以及這些本原客體之間的邏輯關(guān)系??梢杂纱藢θ斯ぶ悄苎芯康膬蓷l路徑進(jìn)行闡釋。以專家系統(tǒng)為代表的符號主義的人工智能,要求以認(rèn)識主體的心靈為范本,而神經(jīng)網(wǎng)絡(luò)人工智能繞過主體,嘗試自主完成解析本原客體的過程。盡管這樣的人工智能仍是由人類創(chuàng)造和開發(fā)的,人類利用獎勵函數(shù)引導(dǎo)人工智能實現(xiàn)人類目標(biāo),但我們是否真正向人工智能傳遞了人類的聲音?這個問題被持續(xù)不斷地提起,人工智能黑箱說明,對此不會有徹底而完美的回答。

      “富有數(shù)學(xué)頭腦的萊布尼茨在二進(jìn)制系統(tǒng)0和1的神秘雅致之中看到了造化的形象。他覺得,上帝靠二進(jìn)制在太虛中操作的統(tǒng)一體,足以從太虛中創(chuàng)造出一切存在?!? 當(dāng)我們揭開人工媒介的外殼,發(fā)現(xiàn)的正是二進(jìn)制信號,而這些信號不可解讀,沒有可能的闡釋,人類看到的只是代碼的黑箱。維特根斯坦后來在《哲學(xué)研究》中批判了自己先前的觀點,他借用蘇格拉底的話:“因為如果我沒有弄錯的話,那么我從一些人那里聽到如下說法:對于可以說我們和其他事物所借以復(fù)合而成的那些原初元素來說,不存在任何解釋;因為就一切憑借自身而存在的東西來說,人們僅僅能用名稱來表示它們?!? 絕對地尋找本原客體是毫無意義的,在一定程度上,維特根斯坦預(yù)言了基于萊布尼茨原則的人工智能媒介,不可解讀的二進(jìn)制信號對人類而言的無意義屬性被揭示了。當(dāng)存在被解析為二進(jìn)制代碼時,存在還是那個存在,只是披上一層代碼的外衣,人工智能技術(shù)所做的,和從蘇格拉底到維特根斯坦所做的知識論研究相比,沒有什么差別。有所變化的是,“在理性與信仰之外,人工智能成為知識的第三來源”1,它構(gòu)建了新的知識域,知識圖景被極大地拓展了,而人類只能在黑箱之外接受之,人類作為知識主體的地位被大大削弱了。

      另一種危險則在于人類智識被卷入計算體系,黑箱接替了一種確定的、客觀主義的科學(xué)。工業(yè)機器強化了一種理性的、精確的人類思維模式,這一過程反復(fù)在歷史學(xué)研究中被討論。那么現(xiàn)在的數(shù)據(jù)代碼會帶來什么樣的變化呢?一種更加精細(xì)的模式被封閉在黑箱內(nèi)部,接入黑箱的端口則充斥在日常生活中,每一次輸入/輸出都經(jīng)由黑箱的運轉(zhuǎn)。與工業(yè)機器相比,這種精細(xì)的模式反而喪失了更多參照物,思想也就失去了現(xiàn)實原則。主體和客體同處于均質(zhì)化的代碼空間,主體與客體的無差別消解了主客體之間的界限,對人工智能來說,識別人類思想的模式和識別其他事物運轉(zhuǎn)的模式?jīng)]有本質(zhì)區(qū)別,一切知識都可以用運轉(zhuǎn)在黑箱中的代碼來表達(dá)。

      “一切進(jìn)入代碼的無目的性時空中的東西或試圖進(jìn)入其中的東西,都被切斷了與自身目的性的聯(lián)系,都被瓦解并吸收了——這就是各個層面上的回收、操縱、循環(huán)和再循環(huán)的眾所周知的效果?!? 這是讓·波德里亞(Jean Baudrillard)對主體性消解過程的生動描繪。被卷入計算體系的主體成為體系運作的一部分,所有行為都被轉(zhuǎn)化為數(shù)據(jù)和代碼要素?!八心切﹤ゴ蟮娜宋闹髁x價值標(biāo)準(zhǔn),具有道德、美學(xué)、實踐判斷力的整個文明的標(biāo)準(zhǔn),都在我們這種圖像和符號的系統(tǒng)中消失了?!? 在知識域中,代碼的不確定形態(tài)取代了知識生產(chǎn)的范疇,知識生產(chǎn)脫離社會實在,表現(xiàn)為知識的無目的式流通,成為自為生成和無限拓展的擬真形式。

      自我意識通過認(rèn)識鏡像中的自我或者另一個自我而存在,這一意象反復(fù)出現(xiàn)在精神分析理論中。在雅克·拉康(Jacques Lacan)的理論中,自我在鏡中看到的是他者。他者是認(rèn)知的參照點,是認(rèn)識自我和世界的重要依據(jù),自我通過他者建構(gòu)自身。拉康采用的是黑格爾主奴辯證法的分析結(jié)構(gòu)。主奴辯證法被視作對人類文明的隱喻式理解:奴隸的勞動就相當(dāng)于人類文明形成的歷史過程,人類在這一過程中既創(chuàng)造自身又外化自身。人類只有通過外化或?qū)ο蠡陨恚ㄟ^為自己建造一個世界,然后在這一文化和歷史的世界中認(rèn)識自身,才能知道自己是什么,因為人類是通過作用和改變世界來形成自身的。

      (二)代碼撫觸:在問答中接受

      未來的強人工智能作為他者凝視人類時,人類又該如何想象來自黑箱的凝視?他者凝視理論是視覺中心的,視線確認(rèn)了主體的存在,也確認(rèn)了他者的存在,世界的意義在觀看與被觀看之中確立起來。強人工智能他者的功效則在于,它在主體的符號世界中以超越視覺的撫觸形式5 發(fā)生作用?!皳嵊|”描繪的是這樣一種情形:強人工智能無時無刻、無處不在地運轉(zhuǎn),人類身體在算法包裹下被非物質(zhì)化。通過對心率、血氧、血壓、血糖進(jìn)行監(jiān)測,計算攝入的碳水化合物、脂肪、蛋白質(zhì)和卡路里總量,通過圖像分析行為和情緒……人類生活的全部都可以化作數(shù)據(jù),以非物質(zhì)的方式在系統(tǒng)里被計算。撫觸的作用力在于,人工智能知識向人類生活提出無微不至的建議,睡眠時長、攝入能量、獲取信息……而這些僅是在人類個體生活最小單元中發(fā)生的事實,在社會知識領(lǐng)域,經(jīng)濟的、政治的、文化的身體同樣在強人工智能代碼的撫觸下運轉(zhuǎn),這代表著一種新的凝視。

      人工智能同時帶來了一種新的客觀主義。數(shù)據(jù)代碼的運作持久而客觀地存在,將人類吸納到擬真體系當(dāng)中,二進(jìn)制代碼的跳動取代了時間和空間的流動。人類主體在人工智能構(gòu)建的知識域中看到的將是怎樣的自我?在主奴辯證法中,奴隸通過勞動在對象物上刻上自我的印記,從而獲得自我的獨立性和持久性。當(dāng)人類主體被吸納為擬真體系中的一些樣本,意義的循環(huán)縮短為程序的不間斷運作,人類面對的不是外化了的自身,而是模式生成后的自身。人類在人工智能這面他者之鏡中看到的,是被波德里亞稱作“策略性幻覺”6 的東西。當(dāng)ChatGPT實現(xiàn)與人類對話時,語言學(xué)家注意到了這種初步的超脫性,“它們只是根據(jù)隨時間變化的概率進(jìn)行交換”7。ChatGPT提供的僅是根據(jù)語言概率生成的文本,而不是關(guān)于事實的知識。這還只是生成式人工智能初級形態(tài),而這種初級形態(tài)已經(jīng)被迅速應(yīng)用到知識服務(wù)領(lǐng)域,這照應(yīng)著貝爾納·斯蒂格勒(Bernard Stiegler)描述的“超前”8:在真正實現(xiàn)強人工智能之前,人類就已經(jīng)把知識的未來和人工智能他者維系成一體。

      ChatGPT為我們展示了一種古老的知識傳統(tǒng):在對話中生成知識。蘇格拉底將之描述為“精神助產(chǎn)術(shù)”。蘇格拉底以不斷追問的方式,不斷深入認(rèn)識事物,在對話中獲得關(guān)于事物的定義性說理——能夠為某物提供說理或定義說理,就擁有了關(guān)于某物的知識。9 在用戶使用ChatGPT時,出現(xiàn)了類似的效果。ChatGPT初次的回答往往難以令人滿意,如果連續(xù)以否定、質(zhì)疑、補充等方式繼續(xù)向ChatGPT追問,ChatGPT就可能不斷完善回答,最終給出滿足用戶需求的回復(fù)。在問答中,知識由用戶的思維結(jié)構(gòu)和ChatGPT的數(shù)據(jù)庫共同生成。然而,在人工智能系統(tǒng)的底層邏輯中,還存在一種更加本質(zhì)性的、無處不在的問答模式,這種模式在程序中是通過獎勵函數(shù)來實現(xiàn)運轉(zhuǎn)的。

      為了獲取人類知識目標(biāo),人工智能程序不間斷地向人類主體發(fā)問,一個名為算法的“幽靈”在人類生活中游蕩。資訊平臺記錄用戶行為,為用戶打上標(biāo)簽,利用算法進(jìn)行個性化推送,用戶每一次點擊、滑動屏幕,在某一頁面停留的時間,每一次互動行為都以數(shù)據(jù)的形式被收集、計算、貼上標(biāo)簽、進(jìn)行分類,一刻不停地投入新的算法運行周期。人類與屏幕的交互行為被計算了,身體也被計算了,算法無處不在地運轉(zhuǎn),生理的、經(jīng)濟的、文化的,人類主體作為被測試者已經(jīng)成為數(shù)據(jù)要素的一部分,與其說程序是在滿足主體需求,不如說需求已經(jīng)被提前設(shè)計出來。

      柏拉圖的洞喻說使我們注意到知識與現(xiàn)象的區(qū)分,但這種區(qū)分沒有達(dá)到尖銳對立的程度,知識論一直致力于二者的調(diào)和。知識論對二者進(jìn)行調(diào)和的努力并不意味著真實不再重要了,而是意味著對知識重新進(jìn)行評價。人工智能媒介在對想象與真實、過去與現(xiàn)在、身體與知覺的關(guān)系進(jìn)行組織等方面具有超常的能力,人工智能知識系統(tǒng)將人作為要素來調(diào)動。身體化作數(shù)據(jù)被上傳到系統(tǒng)中,帶來了目的與身體的分離,就連目的性本身也被程序化了。在程序的循環(huán)中,對問題的回答被前置在系統(tǒng)中,問題變成了答案本身。這是接受的力量,這種力量曾在斯蒂格勒對美國電影工業(yè)的批判中被重點揭示出來:,在那里,接受還是視覺中心的接受,觀眾與屏幕之間的關(guān)系仍是洞喻說中囚徒與穴壁的關(guān)系,接受的力量是自上而下傳導(dǎo)作用的。而今,在代碼撫觸的形式中,接受則是去中心化的,無距離、無間歇的撫觸造成一種新的無意識。從20世紀(jì)到21世紀(jì),人類觀看的屏幕縮小了,接受的力量卻大大增長,這種增長伴隨著人工智能知識系統(tǒng)的不斷建構(gòu)。

      四、人工智能與知識方法

      (一)模式生成:依賴倒置原則

      托馬斯·庫恩(Thomas Kuhn)在《科學(xué)革命的結(jié)構(gòu)》中揭示,知識并不是科研工作者在真空環(huán)境中的個人成果,科研工作者接受科學(xué)教育的整個過程就是趨向于接受某一社會文化范式的過程。; 人工智能媒介廣泛地滲透社會生活,帶來的影響或許將超越科學(xué)范式的層面。但是,與新的科學(xué)范式相比,新媒介的出現(xiàn)并不具備那般強烈的革命性質(zhì)?!靶旅浇榕c其說是認(rèn)知上的斷裂點,不如說是社會上正在進(jìn)行的意義協(xié)商的嵌合點?!眑t; 在對書面文化的考察中我們可以看到,文字與一種精確性聯(lián)系在一起?!拔淖之a(chǎn)生距離,使言語產(chǎn)出的結(jié)果更加精確,因為文字使語言脫離口頭表達(dá)豐富但混亂的生存語境?!? 而在馬歇爾·麥克盧漢(Marshall McLuhan)那里,這種聯(lián)系是通過視覺感官實現(xiàn)的?!坝∷⒄T導(dǎo)讀者去按照視覺的體系……去安排他的外在生活和行為?!眊t; 在書面文化中,精確性作為一種感知性特征因而也是社會性特征出現(xiàn)。我們熟知的科學(xué)方法論在書面文化中誕生,科學(xué)就是要盡可能精確地進(jìn)行因果性說明。如果我們把人工智能看作一種新媒介,就可以考察其在發(fā)展過程中表現(xiàn)了怎樣的方法論特質(zhì),或者說,人工智能媒介是以何種方式呈現(xiàn)自身的。

      此前我們已經(jīng)描述了人類主體被吸納進(jìn)代碼擬真體系中的情形,主客體二元關(guān)系以均質(zhì)化的方式被消解,取而代之的是,一些更加精細(xì)的模式參與了人類知識觀念的生成過程。我們在人工智能黑箱中看到正在生成的模式時,就很容易看到早期發(fā)生在廣義計算機程序中的模式生成。從面向?qū)ο蟮挠嬎銠C程序,到運轉(zhuǎn)在黑箱中的人工智能,這一過程具有連貫的歷史性。計算機程序中的依賴倒置原則生動地概括了一種喪失具體性的傾向,進(jìn)而表現(xiàn)了主體性消解的趨勢。依賴倒置被描述為:“高層模塊不直接依賴于低層模塊,兩者都依賴于抽象,抽象不依賴于細(xì)節(jié),細(xì)節(jié)應(yīng)該依賴于抽象?!?? 如果計算機程序直接編碼現(xiàn)實,那么一旦現(xiàn)實發(fā)生程序預(yù)設(shè)之外的輕微變化,程序就可能無法響應(yīng),進(jìn)而要求系統(tǒng)自下而上地調(diào)整。為了保證程序的穩(wěn)定性,提升代碼的復(fù)用性,代碼開始直接服務(wù)于程序的運行,而不是紛繁復(fù)雜的現(xiàn)實情形,當(dāng)現(xiàn)實中出現(xiàn)新的具體情況,經(jīng)過抽象的模式可以將其吸納進(jìn)整個代碼體系中去。

      當(dāng)生成了的模式最初出現(xiàn)在計算機程序中時,它使事物在計算機系統(tǒng)中更清晰地被組織起來,使被編碼于計算機中的事物可見、可讀、可操作,它的主要功用在于激勵我們用一種更加系統(tǒng)和便捷的方式表達(dá)和改造現(xiàn)實,就如同用圖書檢索系統(tǒng)取代圖書卡片目錄柜?!盁o縫”(seamless)被用來描述計算機程序的理想狀況:現(xiàn)實世界的情形被直接反映到代碼體系中。這種理想追求與依賴倒置原則存在顯而易見的矛盾,但計算機程序設(shè)計者能夠以手動方式,靈巧地在具體業(yè)務(wù)情景中實現(xiàn)依賴倒置原則與“無縫”理想的相對平衡。而在人工智能算法運轉(zhuǎn)不歇的今天,模式生成以一種新的、更深層次的形式發(fā)生作用,“無縫”的理想轉(zhuǎn)化為對算法擬合能力的追求。人類可理解的、位于觀念兩端的抽象性與具體性被一同封裝進(jìn)算法黑箱,這是真正徹底的依賴倒置原則:沒有對主體而言的具體性與抽象性,只有代碼的模式化運作,就連主體本身也化作代碼消解在模式當(dāng)中,和模式一同運作和生成。

      或許我們難以回答人類生活的目標(biāo)是什么,或者在某種意義上,人類生活并不一定是目的性的,但我們可以說,人類生活在總體上并不以一種更為精細(xì)的模式作為目標(biāo)。人工智能為人類敞開了更加廣闊的知識圖景,但其中的危險在于人變成了人工智能媒介體系的一部分。面對人類主體在模式生成以外的需求,尤其當(dāng)涉及價值層面時,人工智能媒介還能夠以模式生成的方式滿足之嗎?

      (二)算法主義:一切皆是算法

      我們已經(jīng)從人工智能的歷史中發(fā)現(xiàn),目前的神經(jīng)網(wǎng)絡(luò)人工智能是人類利用經(jīng)驗主義方法開發(fā)出來的。但是,人工智能與人類獲取的經(jīng)驗材料在性質(zhì)上有一定區(qū)別,二者處理經(jīng)驗材料的方式更是大相徑庭。CRUM(Computational RepresentationUnderstanding of Mind)理論將人類思維視為心智中的表征結(jié)構(gòu)以及在這些結(jié)構(gòu)上進(jìn)行操作的計算程序。@ 根據(jù)CRUM理論,人工智能能夠編程人類思維,能夠模擬人類智能及行為特征。然而,對證明CRUM理論的嘗試總是困難重重。人工智能在一些領(lǐng)域的成就可以輕松超過人類,如棋類游戲;許多對人類來說非常容易的任務(wù)對人工智能來說卻是復(fù)雜的,如在一張有噪點的圖片中識別出貓。人工智能的思維材料是標(biāo)識(token),而人類的思維材料是語言和意象。A 圖像模型學(xué)習(xí)圖像特征,如邊緣、紋理和顏色等,圖像特征在模型中被表示為一系列的標(biāo)識,標(biāo)識通過神經(jīng)網(wǎng)絡(luò)中的連接和權(quán)重進(jìn)行傳遞和處理。向一個經(jīng)過訓(xùn)練的模型提供一張有貓的圖片,它就能根據(jù)圖像特征判斷圖片中是否有一只貓,而如果給一只貓披上大象的紋理,某些模型就可能會將其識別為大象。但是,對人類來說,識別一只披著大象紋理的貓是一個簡單的任務(wù),“貓”在人類思維和語言中不只對應(yīng)著某些可以被計算和識別的特征。

      人工智能處理標(biāo)識或數(shù)據(jù)的方式是算法,而人腦并非計算機,心智并非軟件。通用人工智能的終極目標(biāo)是復(fù)制人類心智,現(xiàn)在的人工智能僅抓住了人類心智中有限的某些方面。人工智能幾乎融入人類科學(xué)體系的所有領(lǐng)域,使用人工智能算法解決人類問題已經(jīng)成為一種時代精神。 “算法主義”指向一種日益普遍而又與人類經(jīng)驗主義相區(qū)別的知識方法。尤瓦爾·赫拉利(Yuval Harari)在《未來簡史》中描繪了算法主義知識方法的表現(xiàn)形式:所有問題都可以用算法解決,所有事物都可以用算法解釋。B 算法的基本意涵是一套解決問題的指令、步驟或策略,算法可以由人設(shè)計和執(zhí)行,也可以在機器中運轉(zhuǎn)。C 一些觀點認(rèn)為生物活動本質(zhì)上也是由生物算法驅(qū)動的,這種觀點的提出本身就伴隨著機器算法在社會中愈加廣泛的運轉(zhuǎn),無處不在的機器算法促使人們以算法化的方式思考問題。

      五、媒介變遷與知識變遷

      雷吉斯·德布雷(Régis Debray)認(rèn)為,媒介學(xué)不是一門理論科學(xué),而只是一種工具,媒介學(xué)的出發(fā)點是研究技術(shù)和文化之間的關(guān)系。從不同學(xué)科的角度分析現(xiàn)象,意味著從現(xiàn)象本身中提取出屬于這個學(xué)科范疇的一部分,經(jīng)濟學(xué)關(guān)注生產(chǎn),社會學(xué)關(guān)注人的交往,語言學(xué)關(guān)注語音文字等。媒介學(xué)則沒有可以被劃定為學(xué)科范疇的研究對象,因而也就可以包容同一事物呈現(xiàn)的不同屬性。例如,書籍的生產(chǎn)與流通,既是商業(yè)行為,也是某種話語的社會建構(gòu),其中有人的因素,也有制度的因素,出版社如何組織知識生產(chǎn),出版制度如何建立和實施,都可以共同處于媒介學(xué)的視域之下。

      媒介學(xué)方法的包容性則來源于媒介概念本身的可解釋性。媒介即中介,媒介總是作為介質(zhì)而不是動力機器出現(xiàn)在人類社會歷史中。德布雷用圖書館作為例子進(jìn)行說明,“這種物理性的集中構(gòu)成了記憶保存”,圖書館既承載知識本身,也承載知識生產(chǎn)的習(xí)慣和模式,一座圖書館可以“孕育出許多作家”,而圖書館不是由自己調(diào)動起來的,“就像食品儲藏室并不能保證食品的供應(yīng)一樣”。

      麥克盧漢在《理解媒介》中揭示了媒介的另一重意義:“媒介即訊息?!边@意味著承載內(nèi)容的形式與內(nèi)容一樣重要。從人和媒介的關(guān)系來講,“每一種文化、每一個時代都有它喜歡的感知模式和認(rèn)知模式,所以它都傾向于為每個人、每件事規(guī)定一些受寵的模式”E。媒介不是直接改變?nèi)说乃枷胗^念,而是在人和現(xiàn)實之間提供一種感知比率。

      波德里亞的媒介批判則更進(jìn)一步。在波德里亞看來,基于對現(xiàn)代社會的分析,媒介是一套由能指和所指組成的符號系統(tǒng),正如在符號政治經(jīng)濟學(xué)中,價值關(guān)系被改造為符號學(xué)的意指關(guān)系。舉例來說,波德里亞認(rèn)為在五月風(fēng)暴中,媒介普遍介入,發(fā)揮樞紐功能,對運動進(jìn)行了強制性的夸大和變形,媒介剝奪了運動自身最初的節(jié)奏和意義。在混亂的秩序之中,媒介呈現(xiàn)了一種普遍抽象的形式,掌握著賦予事件意義的權(quán)力,媒介不再是中介,而是取消了指涉物(現(xiàn)實)而作為符號系統(tǒng)獨立存在。F 在波德里亞的媒介批判中,媒介處于普遍抽象的理論層次,媒介作為本體出現(xiàn)。從抽象層次還原到歷史現(xiàn)實層面,具體的媒介呈現(xiàn)了不同的特征,塑造了知識的不同形態(tài)。媒介環(huán)境往往被劃分為口頭語言的、文字印刷的、數(shù)字的三種。這并不意味著泛媒介論中,符合“中介”定義的其他類型媒介將被排除在外,貨幣、車輪、鐘表、徽章……同樣是媒介。從口頭語言到文字印刷,再到數(shù)字媒介,是根據(jù)人類知識在不同歷史時期的主要載體,以及媒介技術(shù)的演進(jìn),形成的一種種經(jīng)典敘事路徑。

      在人工智能時代,伴隨著代碼撫觸,人類的經(jīng)驗材料和認(rèn)識形式就開始越來越不可避免地以算法為中介。算法主義作為一種新知識方法出現(xiàn),同時勢必重塑已經(jīng)在人類歷史中凝練出來的經(jīng)驗主義和理性主義知識方法。媒介學(xué)方法的應(yīng)用,使我們看到了媒介與人類知識方法之間潛在的聯(lián)系。沃爾特·翁(Walter Ong)在《口頭文化與書面文化:語詞的技術(shù)化》中指出,文字分離了主體與客體,“文字把知識持有人和已知對象分離開來,使人的內(nèi)省日益清晰”G。從手抄到印刷,從朗讀到默讀,這一過程被不斷強化,我們今天所熟知的理性世界與書面文化交織在一起。類似地,模式、算法等一系列在知識論中具有媒介屬性的概念,發(fā)端于計算機、數(shù)字互聯(lián)網(wǎng)時代,又在人工智能時代得到前所未有的顯現(xiàn)與強化。因此,將人工智能作為一種媒介進(jìn)行考察,如同考察作為媒介的印刷機,具有重要意義。人工智能媒介不是文字符號,不是物質(zhì)載體,也不是傳播設(shè)備,難以把它歸入某種已有媒介類型之中。計算機、互聯(lián)網(wǎng)、數(shù)據(jù)庫等構(gòu)成了人工智能媒介產(chǎn)生和應(yīng)用的條件。人工智能媒介具有特殊的超越性,這種超越性存在于人們對通用人工智能(AGI)的想象之中:人工智能有一天會真正成為認(rèn)識的主體,成為全新的數(shù)字生命。

      六、結(jié)語

      在維特根斯坦的文本中,生活形式是“必須接受的,被給予的”,人類在使用語言時達(dá)成一致,使具有確定性的知識成為可能,這種一致性源于人類生活形式的一致性。生活形式包括四個方面:一是“世界圖畫”,即人類的知識文化背景;二是“自然歷史”,在維特根斯坦看來,從意識到行為,生活形式中的不同內(nèi)容,都是自然歷史的一部分;三是人類的共同行為;四是習(xí)俗與習(xí)慣。H 人工智能作為一種“被給定”的生活形式,開始成為人類生活世界的重要組成部分。

      將人工智能作為媒介考察時,出于人工智能的特質(zhì),我們面臨新的媒介方法論。人工智能具有的撫觸的作用形式,其最小的受力點往往被認(rèn)為是不值得認(rèn)識的日常生活實踐,只有在最細(xì)微的日常生活實踐中對它進(jìn)行考察,才能看到其直接的、廣泛的作用方式,及其深刻的媒介意義??疾煊∷⒊霭?、廣播電視等傳統(tǒng)媒介時,可以直接找到其受眾,也可以參考羅伯特·達(dá)恩頓(RobertDarnton)的書籍史研究方法,從作者到出版者、印刷者、販運者、圖書銷售商到讀者,以“傳播循環(huán)”的方式對每一個環(huán)節(jié)作具體的考察,認(rèn)識思想觀念如何借助物質(zhì)載體進(jìn)行傳播。I 而對人工智能媒介來說,撫觸以外的每一個具體環(huán)節(jié)都成了黑箱,具體性被封裝在不停歇的、海量的數(shù)據(jù)流中。想要從數(shù)據(jù)流中抽取出具體性,就只能采用另一種技術(shù)手段,如一種專門用于解釋人工智能的人工智能,而這種具體性在實質(zhì)上還是由代碼擬真的。因而,要考察作為生活形式的人工智能,就不能忽視人類最本真的日常生活,這也是媒介研究自身的價值?!懊浇榈臍v史與理論必須面向媒介在諸多異質(zhì)性元素——如裝置、代碼、符號系統(tǒng)、知識形式、具體實踐和審美體驗——的集合中生成的獨特場景或情境?!?/p>

      人工智能媒介的另一重特殊性在于,人工智能以實現(xiàn)人類功能為目標(biāo)。有這樣一系列問題不斷得到討論:人工智能有思想嗎?人工智能有情感嗎?這實際上是在問:人工智能像人類一樣有思想嗎?人工智能像人類一樣有情感嗎?因而在回答關(guān)于人工智能的問題之前,往往首先要回答的是關(guān)于人類的問題,即人類的思想是什么、人類的情感是什么。人類以人工智能為對象的思考總是基于人類自身的認(rèn)識,并最終關(guān)注人類本身。“從我們最嶄新的經(jīng)驗和最切近的恐懼出發(fā),重新考慮人的境況?!?/p>

      關(guān)于人工智能的所有討論都是在回應(yīng)古希臘德爾斐神廟上的那句箴言:“認(rèn)識你自己?!?/p>

      (作者劉大年系中國傳媒大學(xué)傳播研究院教授、博士生導(dǎo)師;曹月系中國傳媒大學(xué)傳播研究院出版專業(yè)2023 級碩士研究生)

      注釋

      ① CALLAWAY E.“It will change everything”: DeepMind’s AI makes gigantic leap in solving protein structures [J]. Nature,2020,588 (7837): 203-204.

      ② 陳嘉映. 哲學(xué) 科學(xué) 常識 [M]. 北京: 東方出版社, 2007: 39.

      ③ 拉圖爾. 我們從未現(xiàn)代過:對稱性人類學(xué)論集 [M]. 劉鵬, 安涅思,譯. 上海: 上海文藝出版社, 2022.

      ④? 劉大年, 曹月. 知識的幻象:人工智能與知識變遷 [J]. 現(xiàn)代出版, 2024(9): 53-67.

      ⑤ 黃家裕. 認(rèn)知神經(jīng)的可塑性: 赫布理論的哲學(xué)意蘊 [J]. 哲學(xué)動態(tài), 2015(9): 104-108.

      ⑥ 博登. 人工智能哲學(xué) [M]. 劉西瑞, 王漢琦, 譯. 上海: 上海譯文出版社,2006: 13.

      ⑦ 維特根斯坦. 維特根斯坦文集:第8卷:最后的哲學(xué)筆記(1950—1951)[M]. 劉暢, 譯. 北京: 商務(wù)印書館, 2019: 3.

      ⑧ SILVER D, SINGH S, PRECUP D, et al. Reward is enough [J/OL]. Artificial intelligence, 2021, 299: 103535 [2024-09-04].DOI:10.1016/j.artint.2021.103535.

      ⑨ 戴蒙德. 槍炮、病菌與鋼鐵 [M]. 王道還, 廖月娟, 譯. 北京: 中信出版社,2022: 89-90.

      ⑩ LEIKE J, SUTSKEVER I.Introducing superalignment [EB/OL]. (2023-07-05)[2024-09-04]. https://openai.com/index/introducing-superalignment/.

      ? 張朦. 笛卡兒的“普遍數(shù)學(xué)”思想闡釋 [D]. 上海:上海師范大學(xué), 2017: 40.

      ? 轉(zhuǎn)引自博登. 人工智能哲學(xué) [M]. 劉西瑞, 王漢琦, 譯.上海: 上海譯文出版社, 2006: 332.

      ? 維特根斯坦. 維特根斯坦文集:第2卷: 邏輯哲學(xué)論 [M]. 韓合林, 譯. 北京:商務(wù)印書館, 2019: 5.

      ?? 麥克盧漢. 理解媒介:論人的延伸 [M]. 何道寬, 譯. 南京:譯林出版社,2011: 136,23.

      ? 柏拉圖. 泰阿泰德篇 [M]// 維特根斯坦文集:第4卷:哲學(xué)研究. 韓合林,譯. 北京: 商務(wù)印書館, 2019: 41.

      ??? 波德里亞. 象征交換與死亡 [M]. 車槿山, 譯. 南京:譯林出版社,2012: 4, 7, 80.

      ? 凱西, 伍迪, 吳瓊. 拉康與黑格爾:欲望的辯證法 [J]. 外國文學(xué), 2002 (1):72-77.

      ? 波德里亞延續(xù)麥克盧漢的話語,分析了一種傳播界的“觸覺和策略仿真場的圖式”。參見波德里亞.象征交換與死亡 [M]. 車槿山, 譯. 南京:譯林出版社, 2012: 80-93.

      ? CHOMSKY N, ROBERTS I, WATUMULL J. Noam Chomsky: the 1 promise of ChatGPT [N/OL].The New York times, 2023-03-08 [2024-09-05]. https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html.

      ? 斯蒂格勒. 技術(shù)與時間1: 愛比米修斯的過失 [M]. 裴程, 譯. 南京:譯林出版社, 2012: 166-167.

      ? 詹文杰. 柏拉圖知識論研究 [M]. 北京: 北京大學(xué)出版社, 2020: 40.

      ? 斯蒂格勒. 技術(shù)與時間3: 電影的時間與存在之痛 [M]. 方爾平, 譯. 南京: 譯林出版社, 2012: 161.

      ? 庫恩. 科學(xué)革命的結(jié)構(gòu) [M]. 金吾倫, 胡新和, 譯. 北京: 北京大學(xué)出版社,2012: 38-39.

      ? 吉特爾曼. 作為歷史主體的媒介 [M]// 韓曉強. 走向媒介本體論:歐美媒介理論文選. 朱兆宇, 譯. 北京: 中國國際廣播出版社, 2024: 494.

      ?? 翁. 口語文化與書面文化:語詞的技術(shù)化 [M].何道寬, 譯. 北京: 北京大學(xué)出版社, 2008: 79,80.

      ? 麥克盧漢. 谷登堡星漢璀璨: 印刷文明的誕生 [M]. 楊晨光, 譯. 北京: 北京理工大學(xué)出版社, 2014: 257.

      ? 這一原則最早由羅伯特·馬丁提出,參見MARTIN R. The dependency inversion principle [J]. C++ report, 1996, 8 (6): 61-66.

      ? 薩伽德. 心智:認(rèn)知科學(xué)導(dǎo)論 [M]. 朱菁, 陳夢雅, 譯. 上海: 上海辭書出版社, 2012: 11.

      ? 趙汀陽. 人工智能還給人類的思維難題 [J]. 中國社會科學(xué), 2024 (8):101-123+206.

      ? 赫拉利. 未來簡史 [M]. 林俊宏, 譯. 北京: 中信出版社, 2017.

      ? 埃達(dá)·洛夫萊斯被認(rèn)為最早設(shè)計了可以在機器中運轉(zhuǎn)的算法,她認(rèn)為這種運轉(zhuǎn)算法的機器不像人一樣具備創(chuàng)造力,但這種解決問題的形式會帶來一種新的視角。后來艾倫·圖靈用“洛夫萊斯夫人的異議”來指代人工智能不具備創(chuàng)造性的觀點。

      ? 德布雷. 媒介學(xué)引論 [M]. 劉文玲, 譯. 北京: 中國傳媒大學(xué)出版社, 2014:8-9.

      ? 劉文嘉. 擬真化生存:波德里亞媒介批判理論 [M]. 北京: 商務(wù)印書館,2022: 10-13.

      ? 陳嘉明. 維特根斯坦的“確定性”與“生活形式”[J]. 哲學(xué)研究, 1997(1): 63-70.

      ? 達(dá)恩頓. 拉莫萊特之吻:有關(guān)文化史的思考 [M]. 蕭知緯, 譯. 上海: 華東師范大學(xué)出版社, 2011: 89-90.

      ? 沃格爾. 生成—媒介:伽利略的望遠(yuǎn)鏡 [M]// 韓曉強. 走向媒介本體論:歐美媒介理論文選. 北京: 中國國際廣播出版社, 2024: 99.

      ? 阿倫特. 人的境況 [M]. 王寅麗, 譯. 上海: 上海人民出版社, 2009: 4.

      猜你喜歡
      知識生產(chǎn)
      知識賦權(quán):付費問答類應(yīng)用的新動能
      新聞?wù)搲?2018年3期)2018-08-29 11:22:30
      從“錢學(xué)森之問”到“李約瑟難題”
      卷宗(2018年5期)2018-05-07 09:36:08
      教師教育學(xué)科的建構(gòu):一種知識生產(chǎn)的視角
      知識生產(chǎn)視域下高校智庫發(fā)展的脈絡(luò)、趨勢與困境
      高教探索(2017年12期)2018-01-06 22:28:33
      通識教育的知識類型、生產(chǎn)和傳授機制
      高教探索(2017年8期)2017-08-30 23:18:37
      哲學(xué)視野下大學(xué)圖書館的知識生產(chǎn)
      知識生產(chǎn)模式II中的跨學(xué)科研究轉(zhuǎn)型
      高教探索(2017年2期)2017-03-18 15:11:51
      ERP管理咨詢?nèi)瞬排囵B(yǎng)的知識生產(chǎn)實踐
      知識的革命
      基于協(xié)同創(chuàng)新的高校內(nèi)部治理變革
      高教探索(2015年4期)2015-04-29 03:31:37
      泰和县| 射洪县| 祁阳县| 桃园县| 克东县| 铅山县| 南城县| 盐源县| 南皮县| 新野县| 青川县| 漳州市| 包头市| 曲沃县| 浏阳市| 锦州市| 宜宾市| 肥城市| 会理县| 昌黎县| 勐海县| 通山县| 桦川县| 登封市| 新巴尔虎右旗| 青浦区| 融水| 深水埗区| 双流县| 芜湖市| 霍林郭勒市| 静安区| 巴中市| 湖口县| 永修县| 增城市| 乐东| 苏尼特右旗| 琼结县| 重庆市| 明光市|