今天小编分享的科学经验:ChatGPT每年电费2亿?!日耗电量1.7万个家庭,网友:挺值!,欢迎阅读。
ChatGPT 居然这么费电?
最新的等式出现了:
ChatGPT 日耗电量≈ 1.7 万家庭日耗电量。
什么概念?一年光电费就要花 2 亿!
美国普通家庭平均单日用电 29 千瓦时,而 ChatGPT 的单日用电量超过了50 万千瓦时。
(美国商业用电一度约为 0.147 美元也就是 1.06 元,相当于一天 53 万元)
消息一出就直接冲上热搜第一了。
除了 OpenAI,谷歌也 " 不容小觑 ":
在谷歌搜索中应用生成式 AI 技术,谷歌每年的耗电量将高达 290 亿千瓦时,也就是每天约 7900 万度(?)。
而在未来,AI 这一 " 吃电巨兽 " 的食量还会更惊人。
数据统计:
到 2027 年,人工智能数据中心的用电量将和荷兰、瑞典等小国用电量相当。
有网友看完表示:
这是利好光伏和风电?
所以 AI 最后拼的是谁发电多、谁发电成本低?
AI 要耗多少电?
如上数据来自一篇论文《The growing energy footprint of artificial intelligence》。
作者是荷兰数字经济学家 Alex de Vries,他通过英伟达、OpenAI、谷歌等公开数据进行估算。
结果就得出了很多意想不到的结论。
首先,现在大模型训练时期的耗电量和推理阶段相比,已经不值一提了。
SemiAnalysis 数据显示,OpenAI 需要3617 台英伟达 HGX A100、共 28936 个 GPU 来支持 ChatGPT 推理。
ChatGPT 每天需要响应 1.95 亿次请求,预计每天需要消耗 564 兆瓦时电力,每个请求大约 2.9 瓦时。
而 GPT-3 整个训练阶段的耗电量预估为 1287 兆瓦时,是 ChatGPT 大约 4 天的消耗量。
谷歌报告也表示,2019-2021 年,与人工智能相关的能源消耗中有 60% 来自推理部分。
因此论文提出未来研究 AI 用电量时,更应该从全周期角度考量。
但这也与模型再训练频率、模型性能与功耗之间的平衡有关系。比如 BLOOM 在推理阶段的耗电量就显著降低。
其次,搜索引擎如果用上 AI,耗电量还会更高。
谷歌方面曾在去年 2 月表示,AI 响应请求的成本可能是普通搜索的 10 倍。
数据显示,使用一次谷歌搜索消耗的电量是0.3 瓦时。这和上面分析给出的数据相呼应。
如果要将大模型能力植入到谷歌搜索中,预计需要512821个 HGX A100,按照每台设备功耗为 6.5 千瓦来计算,每天将需要 80 吉瓦时的电力消耗,一年需要 29.2 太瓦时。
目前谷歌每天需要处理高达 90 亿次搜索,换算一下,平均每个请求要消耗 6.9-8.9 瓦时,已经是普通搜索的 20 倍 +。
同样的现象在英伟达的财报数据中也可以看到。
去年第二季度,英伟达收入创纪录,其中数据中心部门较上季度相比增长了 141%,这表示 AI 方面的需求扩增。
今年,英伟达 AI 伺服器出货量可能达到 150 万台,总功耗可能达到 9.75-15.3 吉瓦。这一数量级的伺服器,每年的用电量将达到 85.4-134 太瓦时。
不过 AI 用电量会一路飙升吗?
研究认为也不一定。
哪怕像谷歌这样在全球拥有数十亿用户的厂商,也会慎重考虑 AI 与搜索引擎的融合。硬體、軟體和电力成本压力下,厂商脚步或许没那么快。
硬體生产本身还受到掣肘,AI 热潮使得台积电 CoWoS 先进封装产能吃紧,但新建工厂真正可能开始批量生产要等到 2027 年,这或许也会影响英伟达的出货量。
以及模型本身的算法和架构也会让 AI 功耗在一定程度上降低。
最终研究认为,关于 AI 用电量的问题,过于悲观或乐观都不可取。
短期内,在各种资源因素影响下,AI 用电量增速会被抑制;但硬體和軟體的能效提高,显然也无法抵消长期的电力需求增长。
总之,作者认为在 AI 开发方面,还是不要铺张浪费的好。监管机构也需要考虑要求厂商披露相关数据,提高整个 AI 供应链的透明度,从而更好了解这一新兴技术的环境成本。
实际上,此前关于 AI 消耗资源的话题已经多次引发讨论。
有研究指出,到 2027 年,数据中心人工智能的用电量将与荷兰或瑞典等小国的用电量相当。
加州大学河滨分校研究表明,问 ChatGPT5-50 个问题,就可消耗 500 毫升水。
因为 AI 超算数据中心需要大量水来散热,微软也承认用水是训练模型的一大成本,从 2021 年到 2022 年,其全球用水量飙升了 34%,相比研究 AIGC 前急剧增加。
网友:也要看产出
除了微博,#ChatGPT 日耗电超 50 万度 # 的消息也在知乎冲上热榜第三。
尽管这一数据看起来惊人,但不少网友都表示:
我们还是需要比较一下投入产出。
知乎网友 @段小草就浅算了一下:
一天 50 万度电,1.7 万个美国家庭。但美国有 1.2 亿个家庭,也就是只需万分之一的家庭用电,就能支撑一个服务全球 TOP 1 的 AI 产品、服务几亿用户,这还是在浪费能源破坏环境吗?
言外之意,如下所说(来自知乎网友 @桔了个仔):
ChatGPT 创造的价值其实远超它的能耗。
和某些技术(咳咳,懂得都懂)的耗电量相比,它可能更不值一提了。
所以,有人(知乎网友 @玩吾伤智)直接就表示,这则消息应该这么理解:
震惊, 只需要 1.7 万普通家庭的电量即可满足 ChatGPT 的一日用电需求。(手动狗头)
咳咳,有意思的是,上面的答主 @段小草还提到了一篇论文,题为《The Carbon Emissions of Writing and lllustrating Are Lower for Al than for Humans》,讲的是AI 在画画和写作上的碳排放量一个比人类少 310 到 2900 倍,一个比人类少 130 到 1500 倍。
这样看来,AI 甚至算得上" 节能减排的先锋 "。(手动狗头)
呐,我们还是早点洗洗睡、关注 GPT-5 什么时候发吧。
奥特曼:我们需要可控核聚变
话又说回来,尽管比起收益,ChatGPT 一日 1.7 万个家庭的能耗还不值一提,但 AI 能耗确实也是一个值得关注的问题。
而这点,奥特曼早就在 " 担忧 " 了。
在今年 1 月的一场达沃斯会议中,他就表示:
人工智能的未来取决于清洁能源的突破。
△ 图源 Digwatch
具体而言,他认为:
随着技术越来越成熟,AI 将消耗越来越大量的电力,如果能源技术无法突破,就无法实现这一目标(即让 AI 技术释放全部潜力)。
而现在,公众还不是很了解这个需求究竟有多大,奥特曼本人表示也远超他的预期。
至于如何提升能源产量,他也直言:
需要可控核聚变,或者更便宜的太阳能及存储等等。
——说起可控核聚变,奥特曼其实早就押注了一家相关公司,名叫Helion。
他在它身上投资了 3.75 亿美元,这是他以个人名义投资的最大一笔。
除此之外,奥特曼的 " 爸爸 "微软也押注了这家公司。
据了解,Helion 成立于 2013 年,目前约 150+ 员工。他们预计将在 2028 年上线 50 兆瓦规模的可控核聚变发电项目,微软将率先采购。
原报告:
https://www.cell.com/joule/abstract/S2542-4351 ( 23 ) 00365-3
参考链接:
[ 1 ] https://weibo.com/1642634100/O4lb78n3U?refer_flag=1001030103_
[ 2 ] https://www.businessinsider.com/chatgpt-uses-17-thousand-times-more-electricity-than-us-household-2024-3
[ 3 ] https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai
[ 4 ] https://www.theverge.com/2024/1/19/24044070/sam-altman-says-the-future-of-ai-depends-on-breakthroughs-in-clean-energy
[ 5 ] https://www.zhihu.com/question/647926823