看了那么多AI的玩法,關于AI的硬核知識,你知道多少呢?前方高能,做好準備,要“長腦子”了!
Q1 AI的發(fā)展歷史是怎樣的?
DeepSeek:
1950年代:AI\"出生\"!科學家們開始教計算機下棋、解數(shù)學題,像教小孩學走路一樣。
1980年代:AI學會“認東西\"!電腦能識別文字和語音了,但還是笨笨的,經(jīng)常犯錯。
2010年后:AI“開掛\"啦!有了大數(shù)據(jù)和超級計算機,AI突然變聰明了—會聊天(比如Siri)會畫畫(比如AI生成圖片),甚至能打敗圍棋世界冠軍!
現(xiàn)在:AI像你的“超能助手”,可以輔導作業(yè)、推薦視頻,還能開車!但科學家們還在努力,希望它更安全,更懂人類的心。
未來,AI可能會像電影里的機器人朋友一樣,陪你學習、探索宇宙!
(小提示:AI沒有真正的\"大腦”,它的智慧全靠人類教的算法和數(shù)據(jù)哦!)
侯泰羽:
我在大學上過一門叫“文本及其思想\"(Textand Itsldea)的課程,它講述了從古至今AI的發(fā)展歷史,道出了一個有趣的真相:今天人們?yōu)锳I狂熱或恐懼的問題,實際上是人類思想史上一直在循環(huán)的古老難題。
這門課從柏拉圖講起,因為AI的核心問題早在公元前就存在,即我們?nèi)绾嗡伎肌八伎肌北旧怼0乩瓐D通過蘇格拉底之口,批評了書面文字“不能為自己辯護\"(因為它是無聲的,讀者看到什么就是什么,每個人的理解都不一樣),也無法與讀者進行真正的對話。這預示了今天我們對AI的擔憂一它可以產(chǎn)生看似連貫的輸出,但缺乏真正的理解能力。最令我震撼的是,現(xiàn)代AI面臨的一些核心問題,其實是古老哲學難題的技術化體現(xiàn)。柏拉圖的“洞穴寓言\"提出的表象與實在的區(qū)別,直接關聯(lián)到當今關于AI是否真正“理解\"或僅僅在模仿的爭論。德里達對柏拉圖《斐德魯斯》的分析中提出的“藥方\"(pharmakon)概念—既是毒藥又是良藥的雙重性,完美映射了我們對AI的矛盾態(tài)度。
這門課讓我明白,AI不僅是一種前沿的技術,更是人類認識自我的鏡子。當我們創(chuàng)造模仿人類思考的機器時,我們在探索一個更深層次的問題:究竟什么是“我們\"?什么讓人類獨特?什么是思考的本質?歷史的驚人循環(huán)告訴我們,每一次當我們認為已經(jīng)解決了某些科技問題時,實際上只是繞了一圈又回到了起點,帶著新的洞察和新的困惑,繼續(xù)這場始于古希臘的偉大探索。
Q2"AI的學習原理是什么?
吳超:現(xiàn)在AI的學習原理,已經(jīng)脫離了早期的符號主義,更多的是靠“機器學習\"。簡單來說,就是從大量的數(shù)據(jù)中學習其中的規(guī)律。打個比方,AI的學習方式,不再是老師教給它解題方法,而是我們把一大堆習題集的題目和答案都給它,它能夠自己把學習方法摸索出來,這個思路就叫機器學習。
Q3 “深度學習”“神經(jīng)網(wǎng)絡”\"大模型”這些詞到底是什么意思?彼此有什么聯(lián)系?
吳超:
“人工智能\"的概念是最大的。人工智能包含一種方法叫“機器學習”,也是現(xiàn)在的主流方法。機器學習包括很多不同的模型,有一種模型是模仿人的神經(jīng)網(wǎng)絡,所以叫\(zhòng)"人工神經(jīng)網(wǎng)絡”。人工神經(jīng)網(wǎng)絡如果做得越來越大,就叫\(zhòng)"深度學習”,因為它的網(wǎng)絡是一層一層的,變大、變深了。而深度學習中有一種類型叫\(zhòng)"大模型\",大模型的全稱是\"大語言模型\"(Large Language Model)。大模型的任務就是不斷地生成語言,無論是問答,還是讓它出方案、寫報告,都是生成語言。大模型在生成語言的時候,實際上是在一個字一個字地做預測,每一次都預測下一個概率最高的詞是什么。所以這些概念存在包含關系。
Q4 為什么AI會無中生有、一本正經(jīng)地胡說八道?
吳超:
生成式AI并非真的“無中生有”,它依靠訓練好的模型來生成內(nèi)容。為什么會一本正經(jīng)地胡說八道呢?因為它輸出的內(nèi)容是預測概率最高的詞。而概率最高的詞,不一定是事實上最精確的內(nèi)容。在目前的實現(xiàn)模式里,AI沒有所謂的真正的知識推理。比如我們讓它算 11+12 等于多少,它不是像人一樣把11和12看成數(shù)字,而是把它們看成一段文本,根據(jù)以前大量的文本來推理結果。所以AI與人的實現(xiàn)方式不太一樣,它輸出的結果會與現(xiàn)實中的常識、很多精確的知識不匹配,這個被稱為“幻覺問題”。
Q5 為什么一字不差的問題,不同的人問同一個AI,會得到不同的回答?
吳超:
這涉及一個技術細節(jié)。大模型當中,有一個參數(shù)叫“溫度\"(temperature),它控制了大模型的隨機性,可以把它想象成大模型的創(chuàng)造力。當溫度設置得很低時,同一個問題,我們可以讓大模型輸出一模一樣的答案。但我們希望大模型有一些創(chuàng)造力,此時可以把溫度調(diào)高一點,讓它每次都能產(chǎn)生不同的回答?,F(xiàn)在普通用戶也可以在DeepSeek、ChatGPT中調(diào)溫度。
Q6 現(xiàn)在有一些AI查重軟件,用魔法打敗魔法。它們是如何檢測AI率的?
吳超:
現(xiàn)在的AI查重軟件并不是很靠譜。如何判斷某個內(nèi)容是人寫的還是大模型生成的,目前并沒有特別好的方法。尤其是人把大模型的內(nèi)容稍作修改后,就更難識別了。不過,很多人正在研究\"大模型水印”。我們熟悉在圖片或紙幣上加水印,從而辨別原創(chuàng)性或真假。同理,我們可以在大模型生成的文字中加入一些特征。舉個最簡單的例子,英文中的字母A、B、C,它們各自有不同的出現(xiàn)概率,比如A可能是 4% ,B可能是 5% 。這時給大模型加一個水印,讓A的比重上升到 6% ,在人看來這可能還是正常的文字,實際上字母出現(xiàn)的概率已經(jīng)發(fā)生了變化。通過這樣的水印,能夠在一定程度上檢測出AI寫的內(nèi)容。
Q7 我們可以如何一點一點訓練AI?
吳超:
現(xiàn)在的AI訓練有兩種。一種是預訓練,需要用大量的數(shù)據(jù)。像OpenAI訓練GPT-3.5的時候,花了幾個月時間,用了45TB的數(shù)據(jù)。這是一種大規(guī)模的訓練。
另一種訓練是在預訓練之后,我們可以對模型進行微調(diào)。比如這個模型要應用到醫(yī)療領域、司法領域,那就用相關領域的數(shù)據(jù)進行微調(diào),用相對較少的數(shù)據(jù)訓練它。
目前中學生要訓練模型還是比較難的,但同學們可以做一些提示詞工程或知識增強,比如你用DeepSeek做作業(yè),你不需要對模型進行訓練,而是可以用一些提示詞或者增加知識庫(如上傳整本課本),讓它來輔助你做作業(yè)。
Q8"目前AI有相應的倫理規(guī)范嗎?
吳亦全:
目前已經(jīng)有一套正在不斷完善的倫理規(guī)范,來保障AI的安全使用。比如在防止生成暴力、血腥等不良內(nèi)容方面,很多AI平臺采用了“黑名單機制”,這有點像游戲或社交軟件中的\"敏感詞屏蔽\"。一旦用戶輸入涉及暴力、血腥、仇恨等的關鍵詞,AI就會自動中止回復,或者引導用戶走向更健康的話題。
還有一種更復雜的倫理議題,是關于“數(shù)字逝者\"的。有些人希望借助AI模擬逝去親友的聲音和語言風格,和\"他們\"重新對話,緩解思念。這在情感上可能是一種安慰,但從倫理角度來說,容易帶來“情感依賴\"“虛擬替代現(xiàn)實\"等風險。因此,在這類應用中,相關的倫理規(guī)范會特別強調(diào)要取得明確授權、保護個人數(shù)據(jù)隱私,并避免AI造成虛假陪伴的錯覺。
值得一提的是,目前AI的\"倫理感\(zhòng)"是通過一種叫\(zhòng)"基于人類反饋的強化學習\"(RLHF)的技術訓練出來的。簡單來說,AI會不斷接受人類反饋,逐漸學會分辨“什么該說,什么不該說”“什么是有幫助的,什么可能會帶來傷害\"。就像一把帶防護裝置的智能鎖,當你試圖讓AI教你作弊或傳播虛假信息時,它會自動\"上鎖\"拒絕響應。
這些倫理機制的背后,是社會對AI的一種\"價值對齊\"的努力一一我們希望AI越來越像一個有判斷力、有責任感的伙伴,而不是一個沒有底線、無所不能的工具。
Q9 青少年使用AI是否需要一個尺度?
吳飛:
AI就像生活中觸手可及的水和電,至小有內(nèi),至大無外,人工智能無所不及。因此,應該鼓勵同學們使用AI來解決學習和生活上的問題。但如果一個問題超越了人類倫理和法律規(guī)定,比如通過人工智能了解如何制造危險品等,同學們就不應該去使用,應該鼓勵和提倡\"算法向善\"。總之,同學們在使用AI時,需要建立一種意識,即讓AI完成它更勝任的任務,讓人類完成人類更勝任的任務,從而不完全依賴于Al。