今天小編分享的财經經驗:大模型的盡頭是電力?,歡迎閲讀。
圖片來源 @視覺中國
文|烏鴉智能説
在這場以大模型為名的千億美金級豪賭實驗,從來不缺少故事。從 ChatGPT 引爆那一刻起,AI 行業的競争從來不僅是技術的競争,也是一場資源的競争。到了今年,這場競争從算力延伸到了電力。
在今年短短不到三個月的時間,黃仁勳、奧特曼和馬斯克分别在不同場景的演講裏都表達了同一個觀點:AI 的未來很缺電。
據《紐約客》當時時間 9 日報道,荷蘭國家銀行數據專家 Alex de Vries 估計,OpenAI 旗下聊天機器人 ChatGPT 每天消耗超過 50 萬千瓦時的電力,用于處理約 2 億個用户請求,相當于美國家庭每天用電量的 1.7 萬多倍。
更重要的是,在互聯網時代邁向 AI 時代的過程中,數據中心的耗電增長曲線将從線性增長變成幾何式上升。假設生成式 AI 被集成到谷歌的每一個搜索中,屆時意味着谷歌每年将會有 29.2 太瓦時的電力消耗(292 億度電),相當于 2021 年美國全社會總用電量的 0.77%。
考慮到搜索只是一個 AI 應用場景,後續随着應用場景的增加,人工智能行業的耗電量将出現巨大增長。
從缺硅到缺電
今年以來,在 AI 大佬的講話裏,都有一個共同的主題:缺電。不久前,在一場公開演講裏,英偉達創始人黃仁勳表示,"AI 的盡頭是光伏和儲能,不要光想着算力,如果只想着計算機,需要燒掉 14 個地球的能源 "。
OpenAI 的創始人山姆 · 奧特曼也提出了類似的看法。奧特曼公開承認,人工智能行業正在走向能源危機。在瑞士達沃斯舉行的世界經濟論壇年會上,奧特曼警告説,下一波生成型人工智能系統消耗的電力将遠遠超出預期,能源系統将難以應對,未來 AI 的技術取決于能源,我們需要更多的光伏和儲能。
作為科技圈的大佬,馬斯克也成為了能源焦慮的吹風人。不久前,馬斯克在博世互聯世界 2024 大會上預言," 接下來陷入短缺的将是電力,到明年(2025 年),我們就沒有足夠的電力來運行所有的芯片了。"
這并非馬斯克第一次預測人工智能算力會面臨變壓器和電力供應的短缺,2023 年至今,馬斯克和其 xAI 團隊已至少三次提及過這一問題。去年 8 月,馬斯克就警告説,電力短缺造成的嚴重後果,可能會阻礙人工智能等能源密集型技術的發展。
有趣的是,上周騰訊科技發布的《朱嘯虎講了一個中國現實主義 AIGC 故事》裏,當談及未來 5 到 10 年能不能產生 AGI,朱嘯虎同樣表達了對算力、能耗等資源的擔憂:
" 從哲學角度看,智力級别的提升首先需要能量級别的提升。可控核聚變實現前,我不太相信地球有足夠的算力能夠實現真正的 AGI。幫人類降低 90% 的工作可能未來 3 到 5 年可以實現,但最後的 10% 可能需要天量的算力和能耗,這也是為什麼 Sam Altman 想融天量的資金!行百裏者半九十。"
所有大佬都認為 AI 的未來很缺電。那麼,大模型的耗電量究竟有多瘋狂?
單月耗電量大比拼,ChatGPT 等于 23.7 萬中國人
在 AI 行業的成本結構裏,電力成本是除了芯片成本外最核心的成本。一般來説,生成式 AI 的電力消耗主要來自兩方面:訓練構成 AI 系統核心的大型語言模型時所需的電力,以及大型語言模型執行邏輯推論(Inference)運算時的能耗。
由人工智能初創公司 Hugging Face 搭建的 BLOOM 模型 ,有 1760 億參數,光是前期訓練它,就得花掉 43.3 萬度電。2022 年,我國居民年人均用電量是 948 度電,BLOOM 訓練階段用的電就相當于 456 個人一年的用電量。GPT-3 的耗電量更誇張,訓練一次需要 128.7 度電,相當于 3000 輛特斯拉同時跑 32 公裏。
這還只是訓練階段的用電量,越往後走推理才是用電量的大頭。據 IDC 預測,2023 年 AI 伺服器訓練需求占比達 41.5%,随着大模型的應用,該比例在 2025 年将降低至 39.2%。
對于大模型在訓練階段的用電量,晚點做過一個測算:
按 ChatGPT 日咨詢量 2.7 億次、月咨詢量接近 80 億次計算,已知 1 張 A100 GPU 推理 1 個單詞大約需要 0.35 秒。假設每個提問長度約 30 個字 / 單詞,則 ChatGPT 每天需要處理 80 億字咨詢量,用一張 A100 GPU 來跑需要約 78 萬小時,對應每天需要約 3.24 萬張 A100 GPU。
前述 3.24 萬張 A100 GPU 大約等同于 4000 台英偉達 DGX A100 伺服器(搭載 8 張 A100 GPU),後者最大功率為 6.5 kW,單月耗電量約為 1872 萬 kWh。
每處理一次用户請求的耗電量,相當于 60 瓦的燈泡亮 140 秒。這樣一來,項目光是電費就得交近 200 萬美元。2022 年中國居民人均生活用電約 79kWh/ 月,ChatGPT 單月耗電量差不多跟 23.7 萬中國人相當。
如果生成式 AI 被進一步采用,耗電量可能會更多。在互聯網時代,僅僅用于數據存儲的數據中心每年耗電增速和耗電占比數據基本維持線性增長。據統計,2022 年全國數據中心總耗電量約 2700 億千瓦時,占全社會用電量的 3.1%,超過兩座三峽水電站年發電量。
但到了 AI 時代,能耗變成了幾何式上升的趨勢。舉個例子,假設生成式 AI 被集成到谷歌的每一個搜索中,屆時谷歌就會大幅增加對電力的需求。
據 SemiAnalysis 估算,在每次谷歌搜索中實施類似 ChatGPT 的人工智能将需要 51.28 萬個英偉達 A100 HGX 伺服器,總計 410.26 萬個 GPU,如果每台伺服器的電力需求為 6.5 千瓦,意味着每年 29.2 太瓦時的電力消耗(292 億度電),相當于 2021 年美國全社會總用電量的 0.77%。
考慮到搜索只是一個 AI 應用場景,後續随着 AI 應用的增加,人工智能行業的耗電量将出現巨大增長。 荷蘭國家銀行數據科學家亞歷克斯 · 德弗裏斯在一篇論文中估計,到 2027 年,整個人工智能行業每年将消耗 85 至 134 太瓦時 ( 1 太瓦時 =10 億千瓦時 ) 的電力。
為什麼大佬押注核聚變?
怎麼解決 AI 面臨的能源危機?大佬們很快找到了一個答案——核聚變。
據國際原子能機構給出的定義,核聚變是模仿太陽的原理,使兩個較輕的原子核結合成一個較重的原子核,結合期間釋放出大量能量。與化石能源相比,聚變反應不排放二氧化碳;并且與當前通常意義上的核能——核裂變能相比,它既不會產生核廢料,輻射也極少。
近年來,核聚變研究取得了不少積極進展。去年 2 月,設在英國牛津的歐共體聯合聚變中心(JET)實驗室科學家在實驗中產生了平均 11 兆瓦的功率輸出,足夠供應 1 萬個家庭使用。
由于核聚變存在巨大的想象空間,引得不少大佬下注。作為 AGI 的堅定信徒之一,奧特曼目前總共投了兩家能源公司—— Helion、Oklo。
其中,2021 年奧特曼以個人名義豪擲 3.75 億美元,領投了核聚變公司 Helion 價值 5 億美元的 E 輪融資,并稱這是自己有史以來 " 最大的賭注 "。除了阿爾特曼,Helion 還獲得了 " 硅谷創投教父 " 彼得 · 蒂爾、Facebook 聯合創始人達斯汀 · 莫斯科維茨、領英創始人裏德 · 霍夫曼、eBay 第一任總裁傑夫 · 斯科爾等人的 6 億美元投資。
公開資料顯示,Helion Energy 是一家核聚變初創公司。他們正在開發一種磁慣性聚變技術,通過非中子聚變產生氦 3 和聚變能,從而可以使用僅從水中提取的燃料產生低成本的清潔電能。
2023 年 5 月,微軟宣布和 Helion Energy 籤署了購電協定,将于 2028 年向 Helion 購買其核聚變發電廠的 50 兆瓦電力。在這份購電協定中 Helion 表示, 2028 年前上線的核聚變裝置,在一年内會把發電功率提升到 50 兆瓦以上,能夠撐起 40000 户家庭的供電。Helion 首席執行官大衞 · 柯特利説,公司的目标是有一天将成本降低到每千瓦時 1 美分,即 1 度電 0.07 元人民币。
除了奧特曼外,貝索斯則向加拿大的核聚變能源初創公司 General Fusion 進行了投資。據了解,General Fusion 通過使用兩種混合聚變技術(磁性和慣性約束),在磁場中約束氫同位素等離子,然後利用高壓,使之產生高温及高的密度。
有趣的是,在核聚變這條賽道,并沒有看到馬斯克的身影。原因是,馬斯克認為,最好的能源問題終極方案,是利用太陽能(風能本質也是太陽能的一種),而不是不計成本去搞人造太陽。
從大模型開閉源到未來能源的方向,馬斯克又一次做出了與奧特曼不同的選擇,競争還在繼續。