面對每天學(xué)校布置的作業(yè),你是否幻想有機器人能助你一臂之力?機器的誕生,讓人們從繁重的體力勞動中解放出來,而人工智能(簡稱AI)的出現(xiàn)也逐漸減輕了復(fù)雜的腦力工作強度。
當(dāng)人工智能技術(shù)廣泛普及于高強度的應(yīng)用場景時,正是源源不斷的電能,為AI系統(tǒng)提供了必要的動力與支撐,支撐其進行數(shù)據(jù)處理、學(xué)習(xí)優(yōu)化、智能決策等一系列復(fù)雜工作,深刻影響著社會發(fā)展的各個領(lǐng)域。
但你知道AI一天要用多少度電嗎?
ChatGPT一天“吃”50萬度電
自2022年末ChatGPT橫空出世,2023年被譽為AI元年,歷經(jīng)2024年的積淀,AI模型在壯大之路上疾馳。但背后的能源消耗問題日漸凸顯。據(jù)美國 《紐約客》雜志報道,ChatGPT每天需要處理超過2億次的請求,電量消耗每天高達50萬千瓦時,一年電費高達2億元人民幣。這意味著ChatGPT的日耗電量是美國一個普通家庭的1.7萬倍以上。
咕嚕說:千瓦時是一種能量量度單位,常用于衡量電能或電力的消耗量,千瓦時(國際單位制符號:kW·h,或簡記為kWh)又稱“度”,相當(dāng)于一件輸入功率為1000瓦(W)的設(shè)備連續(xù)穩(wěn)定工作1小時所消耗的能量。
盡管目前AI耗電量數(shù)據(jù)多基于估算而非精確測量,但足以引發(fā)社會廣泛熱議。關(guān)于AI的耗電問題,研究結(jié)論各異。2019年馬薩諸塞大學(xué)阿默斯特分校團隊研究估算,谷歌的大語言模型BERT在79小時的訓(xùn)練過程中排放了約652千克的二氧化碳,相當(dāng)于一架飛機往返于紐約和舊金山一次的二氧化碳排放量。
AI為什么這么耗電?
在不同情況下,
AI大模型也有不同的“飯量”需求。
日常的“碳水”補充
每次使用AI時,AI都需要用電力來保證日常運行。用戶向AI提出的每一個問題,AI都需要在數(shù)據(jù)庫中檢索出恰當(dāng)?shù)拇鸢福@一過程涉及高度復(fù)雜的計算與處理流程。
以ChatGPT為例,每次響應(yīng)用戶請求,ChatGPT耗電約2.96瓦時,而在谷歌搜索背后,由大型AI模型驅(qū)動的一次搜索則耗費高達8.9瓦時。這些環(huán)節(jié)無一不凸顯出電力消耗的巨大需求。在回答完問題后,AI還會進行自我優(yōu)化和迭代,如果用戶指出回答不準(zhǔn)確或不完整,AI模型可以學(xué)習(xí)這些反饋,并在未來的交互中改進性能。這種迭代優(yōu)化過程有助于AI模型不斷提高解答問題的準(zhǔn)確性,但也會耗費更多的電力。
特訓(xùn)沖刺的能量保證
定期AI大模型的訓(xùn)練也是AI耗電的另一個重要原因。這時的AI就像即將考試的特長生,在“關(guān)鍵考核”(迭代升級)前夕投入緊張的訓(xùn)練中,每一個進入“特訓(xùn)期”的AI都要通過分析大量數(shù)據(jù)進行深度學(xué)習(xí),來優(yōu)化算法模型。而每一項訓(xùn)練都需要大量的能量補充。
數(shù)據(jù)處理
AI模型在進入訓(xùn)練前需要做大量的數(shù)據(jù)準(zhǔn)備,包括根據(jù)模型的應(yīng)用場景收集數(shù)據(jù)類型、尋找可靠的第三方數(shù)據(jù)源、清洗重復(fù)錯誤的數(shù)據(jù)、統(tǒng)一數(shù)據(jù)格式、將不同數(shù)據(jù)進行分類等。這時的AI就像一個分類裝揀工,只不過AI分類裝揀的是數(shù)據(jù)。
深度學(xué)習(xí)
數(shù)據(jù)備妥后,AI便開始了“燃燒腦細胞”的深度學(xué)習(xí)。首先的挑戰(zhàn)就是需要龐大的計算資源,包括高性能計算機、圖形處理器(GPU)等。同時AI訓(xùn)練的算法難度也陡增,涉及多層神經(jīng)網(wǎng)絡(luò)、復(fù)雜的數(shù)學(xué)運算和邏輯推理等,這些過程非常耗電。如果說數(shù)據(jù)處理是AI的體力勞作,那么深度學(xué)習(xí)就是腦力挑戰(zhàn)。深度學(xué)習(xí)后的AI,電的能源需求自然就增加了。
模型訓(xùn)練
對于訓(xùn)練過程中既耗“體力”又耗“腦力”的AI來說,后續(xù)支持必須跟上,否則便有可能效能盡失。因此AI硬件必須過關(guān),其中包括算力中心的高效運轉(zhuǎn)、多臺設(shè)備的協(xié)同配合,以及其他高性能設(shè)備的運行和散熱、冷卻所需的能源。
例如,GPT-3一次訓(xùn)練的耗電量就達到了1287兆瓦時,相當(dāng)于3000輛特斯拉電動汽車共同開跑,且每輛車跑30多萬千米所耗電量的總和。而經(jīng)過迭代后的GPT-4的能耗更是顯著增加,其主要參數(shù)是GPT-3的20倍,計算量是GPT-3的10倍。
核心處理的芯片技術(shù)
AI的硬件也高度依賴電力驅(qū)動。為了滿足AI復(fù)雜算法需求,AI芯片應(yīng)運而生。AI芯片,也稱為AI加速器或智能芯片,是一種特制的微處理器,專為高效運行人工智能算法而設(shè)計。其主要是基于人工神經(jīng)網(wǎng)絡(luò)原理,模擬生物神經(jīng)元,通過大量的處理單元并行計算,來實現(xiàn)復(fù)雜的數(shù)學(xué)運算和數(shù)據(jù)處理。這些操作都需要消耗大量電力。例如,目前主流算力芯片英偉達H100芯片,單張最大功耗700瓦,運行一小時就要耗電0.7度。而訓(xùn)練GPT-5這樣的大模型,可能需要數(shù)萬張H100芯片。
面對人工智能技術(shù)的迅猛發(fā)展,大量AI大模型不斷涌現(xiàn),其運作背后的龐大電力用量成為支撐AI進步的關(guān)鍵要素。而計算資源和能源的需求量急劇攀升,傳統(tǒng)能源發(fā)電模式已難以應(yīng)對,高效、清潔的可持續(xù)能源成為人們的追求。因此,AI的發(fā)展不僅深刻影響著全球能源結(jié)構(gòu)的轉(zhuǎn)型,還激勵我們探索更加智能、環(huán)保的能源利用方式,實現(xiàn)科技發(fā)展與環(huán)境保護的雙贏。