今天小编分享的互联网经验:ChatGPT 每天耗电超 50 万度,是美国普通家庭 1.7 万多倍,欢迎阅读。
据 The New Yorker 报道,热门聊天机器人 ChatGPT 每天需要处理超过 2 亿次请求,其电量消耗可能高达每天 50 万千瓦时。相比之下,美国普通家庭每天的平均用电量仅为 29 千瓦时,这意味着 ChatGPT 的日耗电量是普通家庭的 1.7 万倍以上。
更令人担忧的是,随着生成式人工智能的普及,其电量消耗可能会进一步激增。荷兰中央银行数据科学家 Alex de Vries 在一份发表于可持续能源期刊《焦耳》上的论文中计算得出,如果谷歌将生成式人工智能技术应用于所有搜索,其每年将消耗约 290 亿千瓦时电量,这相当于肯亞、危地马拉和克罗地亚一年的总发电量。
然而,目前评估蓬勃发展的 AI 行业究竟消耗了多少电量还存在困难。据 The Verge 报道,大型科技公司一直引领着 AI 发展,但它们对于自身能源消耗讳莫如深,同时不同的人工智能模型运行方式也存在巨大差异。
不过,de Vries 在论文中还是根据英伟达公布的数字做出了粗略计算,据 CNBC 报道援引 New Street Research 的数据,英伟达在图形处理器市场份额中占据了约 95%。de Vries 在论文中估计,到 2027 年,整个 AI 行业将每年消耗 85 到 134 太瓦时(注:terawatt,相当于 1340 亿千瓦时)的电量。
" 这相当于到 2027 年,人工智能的电量消耗可能占到全球电量的一半左右,"de Vries 告诉 The Verge," 我认为这是一个相当可观的数字。"
相比之下,世界上一些耗电量最大的企业也相形见绌。根据 Businessinsider 基于消费者能源解决方案报告的计算,三星的年耗电量接近 23 太瓦时,谷歌等科技巨头的数据中心、网络和用户设备每年耗电略高于 12 太瓦时,微软的耗电量则略高于 10 太瓦时。