今天小編分享的科技經驗:ChatGPT一年電費高達2億元,AI 為何如此耗電?,歡迎閱讀。
(來源:由 AI 生成的圖片)
随着 ChatGPT 引發新一輪人工智能(AI)熱潮,而其背後帶來的能耗問題也持續引發關注。
今年 4 月 10 日,芯片巨頭 Arm 公司 CEO 哈斯(Rene Haas)公開表示,包括 ChatGPT 在内的 AI 大模型需要大量算力,預計到 2030 年,AI 數據中心将消耗美國 20% 至 25% 的電力需求,相比今天的 4% 大幅增加。
公開數據顯示,目前,ChatGPT 每天需要處理超過 2 億次請求,其電量消耗高達每天 50 萬千瓦時。一年時間,ChatGPT 光電費就要花 2 億元人民币。
這意味着,ChatGPT 日耗電量是普通家庭的 1.7 萬倍以上。(美國商業用電一度約為 0.147 美元也就是 1.06 元,相當于一天 53 萬元)
據荷蘭咨詢機構負責人 Alex de Vries 預計,到 2027 年,AI 行業每年将消耗 850 億 ~1340 億千瓦時的電力,相當于瑞典或荷蘭一個歐洲國家一年的總用電量。
馬斯克判斷,電力缺口最早可能會在 2025 年發生," 明年你會看到,我們沒有足夠電力來運行所有的芯片 "。
OpenAI CEO 奧爾特曼(Sam Altman)也預計,AI 行業正在走向能源危機,未來 AI 技術發展将高度依賴于能源,人們也需要更多的光伏和儲能產品。
這一切都顯示出,AI 即将引爆全球新一輪 " 能源戰争 "。
不止是芯片,AI 還被能源 " 卡脖子 "
過去 500 多天裡,ChatGPT 引發全球新一輪 AI 大模型和算力需求熱潮。
微軟、谷歌、Meta、OpenAI 等多家全球科技巨頭開始瘋搶 AI 芯片,甚至親自下場 " 造芯 ",總規模超過數十萬億元美金。
實際上,AI 本質上是一種計算機技術和處理信息的技術,背後則需要大量 GPU 芯片,更底層則是大量電能、水力、風能、資金等資源的支持。
早在 1961 年,在 IBM 公司工作的物理學家拉爾夫 · 蘭道爾(Rolf Landauer)發表了一篇論文,提出了後來被稱為 " 蘭道爾原理 "(Landauer's Principle)的理論。
這一理論認為,計算機中存儲的信息發生不可逆的變化時,會向周圍環境散發一點點熱量,其散發的熱量和計算機當時所處的溫度有關——溫度越高,散發的熱量越多。
蘭道爾原理連接起了信息和能量。更具體地說,它連接到了熱力學第二定律上。因為邏輯上不可逆的信息處理操作,也就意味着湮滅了信息,這會導致物理世界中熵的增加,從而消耗能量。
這一原理自提出以來遭受過不少質疑。但近十幾年來," 蘭道爾原理 " 已被實驗證明。
2012 年,《自然》雜志發表了一篇文章,研究團隊首次測量到了一 " 位 "(bit)數據被删除時釋放的微量熱量。後來的幾次獨立實驗,也都證明了 " 蘭道爾原理 "。
過去 10 多年間,現代電子計算機在計算時實際消耗的能量,是蘭道爾理論值的數億倍。而科學家們一直在努力尋找更高效的計算方法,以降低成本。
如今,AI 大模型爆發,它确實需要大量計算。因此,AI 不止被芯片 " 卡脖子 ",還被能源 " 卡脖子 "。
馬斯克近期也在 " 博世互聯世界 2024" 大會上表示,一年多以前,短缺的是芯片,明年你會看到電力短缺,無法滿足所有芯片的需求。
中國科學技術信息研究所人工智能中心副主任李修全也表示,近年來, AI 大模型規模、數量都在高速增長,也帶來對能源需求的快速增加。盡管短期内還不會很快出現 " 缺電 " 等問題,但未來大規模智能化時代來臨後的能源需求激增不容忽視。
AI 大模型質量的關鍵在于數據、算力和頂尖人才,而高算力的背後,是靠着數萬張芯片晝夜不停的運轉支撐。
具體來說,AI 模型算力的工作過程大致可以分為訓練、推理兩個階段,能源消耗也是如此。
其中,在 AI 訓練階段,首先需要收集和預處理大量的文本數據,用作輸入數據;其次,在适當的模型架構中初始化模型參數,處理輸入的數據,嘗試生成輸出;最後,通過輸出與預想之間的差異反復調整參數,直到模型的性能不再顯著提高為止。
從訓練 15 億參數的 GPT-2,到訓練 1750 億參數的 GPT-3,OpenAI 模型背後的訓練能耗十分驚人。公開信息稱,OpenAI 每訓練一次需要 128.7 度電,相當于 3000 輛特斯拉同時跑 32 公裡。
據研究機構 New Street Research 估計,僅在 AI 方面,谷歌就需要大約 40 萬台伺服器,每天消耗 62.4 吉瓦時,每年消耗 22.8 太瓦時的能源。
而在推理階段,AI 則會先加載已經訓練好的模型參數,預處理需要推理的文本數據,再讓模型根據學習到的語言規律生成輸出。谷歌稱,從 2019 年到 2021 年,AI 相關能源消耗 60% 都來自推理。
據 Alex de Vries 估算,ChatGPT 每天大概要響應大約 2 億個請求,耗電量超過 50 萬度,按照一年電費就是 2 億元人民币,比每個美國家庭的平均日用電量高 1.7 倍。
SemiAnalysis 報告稱,使用大模型進行問題搜索所消耗的能源是常規關鍵詞搜索的 10 倍。以谷歌為例,标準谷歌搜索使用 0.3Wh 電力,而大模型每次互動的耗電量為 3Wh。如果用戶每次在谷歌搜索都使用 AI 工具,每年大約需要 29.2 太瓦時的電力,也就是每天約 7900 萬度。這相當于給全球最大的摩天大樓,迪拜的哈利法塔,連續供電超過 300 年。
另據斯坦福人工智能研究所發布的《2023 年 AI 指數報告》顯示,每次 AI 搜索的耗電量大約為 8.9 瓦時。相比普通谷歌搜索,加入 AI 的單次耗電量幾乎是一般搜索的 30 倍。而一個高達 1760 億參數的模型,光是前期訓練階段就得用掉了 43.3 萬度電,相當于美國 117 個家庭一年的用電量。
值得注意的是,在 Scaling Law(縮放規律)之中,随着參數規模不斷躍升,大模型性能也不斷提升,而對應的是,能耗也會越來越高。
因此,能源問題已經成為 AI 技術持續發展的關鍵 " 桎梏 "。
GPT 每天消耗 50000 升水,電和水是 AI 兩大能源需求
AI 不僅是 " 耗電狂魔 ",更是 " 吞水巨獸 "。
其中,在電力方面,除了上述信息外,據國際能源署 ( IEA ) 數據顯示,2022 年,全球數據中心消耗約 460 太瓦時的電量 ( 相當于全球總需求的 2% ) ,随着生成式 AI 飛速發展,這一數字到 2026 年可能膨脹至 620 至 1050 太瓦時。
Alex de Vries 預計,到 2027 年,AI 伺服器所消耗的用電量将等同于荷蘭全國的能源需求量。最壞的情況就是,僅谷歌一家公司的 AI 就可以消耗與愛爾蘭等國家一樣多的電力。
IBM 高級副總裁達裡奧 · 吉爾曾表示,"AI 能耗 " 是非常重要的挑戰。生成式 AI 的高性能伺服器的持續運行,将導致數據中心一半以上的電力消耗都被 AI 占據。據悉,預計到 2025 年,AI 業務在全球數據中心用電量中的占比将從 2% 猛增到 10%。
那麼,水能呢?大模型背後需要數據中心、雲基礎設施的支持,那就需要大量的 " 液冷 " 進行散熱。
得克薩斯大學的一份研究指出,作為 ChatGPT 背後的重要支持力量,微軟的 Microsoft Azure 雲數據中心光是訓練 GPT-3,15 天就用掉将近 70 萬升的水,相當于每天花銷約 50000L 水。
同時,ChatGPT 每回答 50 個問題就要消耗 500 毫升水。公開信息稱,2022 年微軟用水量達到 640 萬立方米,比 2500 個奧林匹克标準遊泳池的水量還多。
美國加州大學河濱分校副教授任紹磊團隊預計,到 2027 年,全球 AI 可能需要 4.2-66 億立方米的清潔淡水量,這比 4-6 個丹麥、或二分之一的英國的一年取水總量還要多。
除了數據中心,内置的 GPU 芯片也是能源消耗的重點領網域之一。今年 3 月,英偉達發布史上性能最強 AI 芯片—— Blackwell GB200,宣稱是 A100/H100 系列 AI GPU 的繼任者,性能相比 H100 提升 30 倍,但能耗卻降低了 25 倍。
上個月,黃仁勳的一句 "AI 的盡頭是光伏和儲能 " 更是在網絡瘋傳。盡管有網友扒出原視頻稱,黃仁勳本人并未說過這句話,更沒有提及 " 光伏和能源 ",但 AI 能耗嚴重,卻是擺在公眾面前的事實。
國際能源機構(IEA)在一份報告中強調了這個問題,全球 AI 數據中心的耗電量将是 2022 年的十倍,并指出部分原因在于 ChatGPT 這樣的大模型所需的電力,遠高于谷歌等傳統搜索引擎。
不過,值得注意的是,由于科技巨頭們并未正式披露過 AI 使用中的電力消耗數據,因此,目前關于 AI 耗電量的數據多為估算,并不一定是非常準确的數據。美國信息技術與創新基金會(ITIF)曾指出,個别不準确的研究高估了 AI 能耗。AI 訓練是一次性事件,它的使用是長期過程。人們應關注 AI 能耗的長期影響,并非爆發式增長。
有專家認為,目前大模型訓練成本中 60% 是電費,能源開支已經嚴重制約着大模型的迭代更新。
金沙江創投主管合夥人朱嘯虎近日也表示,可控核聚變實現前,我們并沒有足夠的算力實現真正的 AGI。幫人類降低 90% 的工作可能未來 3 到 5 年可以實現,但最後的 10% 可能需要大量的算力和能耗。
如何解決 AI 能耗之困?硬體優化和核聚變或是重要手段
雖然黃仁勳也非常擔憂能源供給,但他卻給出了一個更樂觀的看法:過去 10 年,AI 計算提高了 100 萬倍,而它消耗的成本、空間或能源并未增長 100 萬倍。
美國能源情報署發布的長期年度展望中估計,美國目前電力需求的年增長率不到 1%。而按新能源公司 NextEra Energy CEO 約翰•凱徹姆(John Ketchum)的估計,在 AI 技術的影響下,這一電力需求年增長率将加快至 1.8% 左右。
波士頓咨詢集團的報告則顯示,2022 年,數據中心用電量占美國總用電量(約 130 太瓦時)的 2.5%,預計到 2030 年将增加兩倍,達到 7.5%(約 390 太瓦時)。這相當于約 4000 萬個美國家庭的用電量,即全美三分之一家庭的用電量。該集團還預計,生成式 AI 将至少占美國新增用電量的 1%。
這意味着,即使數據中心、AI 新增用電量并不小,但還遠不到毀天滅地的地步。
而在成本方面,國際可再生能源署報告指出,過去十年間,全球風電和光伏發電項目平均度電成本分别累計下降超過了 60% 和 80%。上述業界人士也介紹說," 光伏的綜合成本跟火電差不多,風電一半區網域的綜合成本比火電低了。"
因此,随着 AI 技術一路狂飙,我們又将如何應對即将到來的能源需求熱潮?
钛媒體 App 根據一些行業專家的觀點總結來看,目前解決 AI 能耗問題有兩種方案:一是可以通過大模型或 AI 硬體優化降低能耗;二是尋找新的能源,比如核聚變、裂變資源等,以滿足 AI 能耗需求。
其中,在硬體優化方面,對于能耗較高的萬億級 AI 大模型,可以通過算法和模型優化,壓縮模型 token 大小及復雜度,以降低能源消耗規模;同時,企業也可以持續開發和更新能耗更低的 AI 硬體,如最新的英偉達 B200,AI PC 或 AI Phone 終端等;此外,通過優化數據中心的能效,提高電源使用效率,以降低能源消耗。
對此,中國企業資本聯盟副理事長柏文喜表示,未來,還需要進行技術創新和設備更新,以進一步提高發電效率、提高電網輸送能力和穩定性、優化電力資源配置、提高電力供應的靈活性、推廣分布式能源系統并減少能源輸送損耗,以此來應對算力發展帶來的能源需求挑戰。
中國數據中心工作組(CDCC)專家委員會副主任曲海峰認為,相關行業應該要重視提升數據中心用電能效,而不是抑制它的規模。數據中心并非要減少對能源的消耗,而是要提升能源消費的質量。
而在開發核聚變能源方面,由于可控核聚變由于原料資源豐富、釋放能量大、安全清潔、環保等優勢,能基本滿足人類對于未來理想終極能源的各種要求。
核聚變的能量來源目前主要有三種:宇宙能源,即太陽發光發熱;氫彈爆炸(不受控核聚變);人造太陽(受控核聚變能源裝置)。
據統計,當前世界共有 50 多個國家正在進行 140 餘項核聚變裝置的研發和建設,并取得一系列技術突破,IAEA 預計到 2050 年世界第一座核聚變發電廠有望建成并投入運行。
這種核聚變發電,将大大緩解全球因 AI 大模型需求造成的能源短缺情況。
2023 年 4 月,奧爾特曼就 " 未雨綢缪 ",以個人名義向核聚變初創公司 Helion Energy 投資 3.75 億美元(約合人民币 27.04 億元),并擔任公司董事長。同時,去年 7 月,奧特特曼還通過旗下公司 AltC 與其投資的核裂變初創公司 Oklo 合并,斬獲了一個估值約為 8.5 億美元(約合人民币 61.29 億元)的 IPO,ALCC 最新市值超過 400 億美元。
除了奧爾特曼這種重金投資核聚變公司,亞馬遜、谷歌等科技巨頭則直接大手筆采購清潔能源。
據彭 * 博數據顯示,僅在 2023 年,亞馬遜就購買了 8.8GW(吉瓦)的清潔能源電力,已經連續第 4 年成為全球最大的企業清潔能源買家。Meta(采購 3GW)和谷歌(采購 1GW)等科技公司則位列其後。
亞馬遜稱,其 90% 以上的數據中心電力都來源于清潔能源產生的電力,預計能在 2025 年實現 100% 使用綠色電力。
實際上,以美國為例。清潔能源、AI、數據中心、電動汽車、挖礦等多種產業的增長,讓原本陷入停滞的美國電力需求再度 " 起飛 "。但即使被譽為世界上 " 最大的機器 ",美國電網也似乎無法應對這突如其來的變化。
有分析師指出,美國 70% 的電網接入和輸配電設施已老化,某些地區電網傳輸線路不足。因此,美國電網需要大規模更新,如果不采取行動,到 2030 年美國将面臨一道難以逾越的國内供應缺口。
相對于美國,中國則對能源需求表達樂觀态度。"AI 再耗電,中國的體量和能力足以支撐,現在不進行大規模開發,是因為沒需求。" 一位風電行業人士表示,中國可規劃的容量足夠大,AI 要是有大量電力需求,我現在就能上項目當中去工作。
目前,中國風電、光伏產品已經出口到全球 200 多個國家和地區,累計出口額分别超過 334 億美元和 2453 億美元。
随着 AI 呈現爆發式增長,這場中美 AI 產業角逐,已經從大模型技術比拼,更新成為一場算力、能源、人力等多方位争奪戰。
随着核聚變能源或将到 2050 年落地,人類期望終結 AI 能耗這一具有挑戰性難題,進入無限發電時代。
(本文首發钛媒體 App,作者|林志佳。張盈對本文亦有貢獻)