今天小编分享的科技经验:聊10句天,ChatGPT要费半斤水?,欢迎阅读。
和 ChatGPT 或其他生成式 AI 聊天,居然会引发对水资源的耗费?
两个看似八竿子打不着的事件,近期却因为一份科技巨头的报告而被联系在了一起。谷歌近期发布的 2023 年环境报告显示,其去年的用水量同比显著增加了 20%,达到 56 亿加仑,而其中绝大部分都被用于为该公司的数据中心散热。
图片来源:视觉中国 -VCG41N1344498717
这并不是个例。2023 年初,由 OpenAI 打造的 ChatGPT 火遍全球,一跃成为人工智能领網域的现象级应用,也引发了全球互联网公司的 AIGC 军备竞赛。
要对 AI 进行大量训练,也就意味着需要更强的算力中心和与之匹配的散热能力。在 AI 快速进步的道路上,对水资源的消耗也不断加码更新。
对此,有专家告诉《每日经济新闻》记者,整体来看,当前数据中心耗水已经成为制约数据中心快速发展的因素之一,并呼吁尽快为数据中心用水建立一套规范、统一的标准与利用效率评价方法," 这将成为数据中心实现绿色低碳发展的又一关键标准工具 "。
AI 很 " 口渴 ":聊 10 句天,ChatGPT 可能要费半斤水
近日,科技巨头谷歌发布了 2023 年的环境报告,其中一项数据引发了行业和市场的广泛关注。
该报告显示,在 " 用水量 " 这一项,谷歌在 2022 年消耗了 56 亿加仑的水。
如果这样说大家没什么概念,我们可以做一个更直观的对比:有第三方统计显示,56 亿加仑,约等于国内某一线城市全年的用水量,或者是全球每天饮用水的 1/4。也有人称,这水量相当于 37 个高尔夫球场的用水量,大概能装满一个半西湖。
更令人担心的是,这一数字比谷歌去年的报告增加了 20%。虽然谷歌表示,其目标是在 2030 年补充其办公室和数据中心消耗的 120% 的淡水,不过根据这份报告,目前的补充率只有 6%,与目标相去甚远。
如此大的用水量,不禁令人好奇:作为一家科技公司,谷歌什么业务如此耗水?答案是:为数据中心散热。
报告显示,在 56 亿加仑耗水中,有 52 亿都被用于该公司的数据中心,清晰地显示了运行大型数据中心要付出的环境成本。
有专业人士指出,用水量增长 20% 与谷歌计算能力的增长大致一致,而谷歌计算能力的增长主要是由人工智能推动的。换句话来说,自去年 ChatGPT 和生成式人工智能技术火爆全球以来,谷歌的用水量也开始显著上升,而对 AI 的大量训练成了数据中心耗水的核心原因。
卡罗拉多大学与德克萨斯大学的研究人员在一篇《让 AI 更节水》的预印论文中也发布了训练 AI 的用水估算结果,显示训练 GPT-3 所需的清水量相当于填满一个核反应堆的冷却塔所需的水量。ChatGPT(在 GPT-3 推出之后)每与用户交流 25~50 个问题,就得 " 喝下 " 一瓶 500 毫升的水来降温。
除了谷歌,另一个巨头 Meta 在美国亚利桑那州建设了数据中心,仅 2022 年用水量超过 260 万立方米(约 6.97 亿加仑)。随着全球人工智能军备竞赛的持续更新和大量科技公司竞相建设新数据中心,其消耗的水量很可能会继续上升。
海水、湖水、北极圈,数据中心为节水拼了
大洋彼岸的科技巨头如此 " 吃电喝水 ",国内人工智能公司用水量情况如何呢?记者查阅了几家人工智能公司、数据中心的公开信息,发现关于它们用水情况信息很少。
" 此前我们对数据中心绿色节能的关注点主要在能源消耗方面,比如,耗电量以及电能利用效率指标是数据中心最受关注的标签,水作为自然资源,关注的不多,并且用水量指标受气候条件、温湿度、水质等各方面因素影响大,统计比较少。" 吕天文告诉记者。
近年来,随着数据中心的规模越来越大,以冷水系统作为冷源的大型数据中心的耗水量、水源问题开始引发关注,如何减少数据的耗水量,降低 WUE(水资源使用效率)值在业界被广泛讨论起来。" 整体来看,当前数据中心耗水已经成为制约数据中心快速发展的因素之一,国内很多地方已经将耗水作为了数据中心的重要考核指标。" 中国通信工业协会数据中心委员会常务副理事长、中国 IDC 圈创始人 CEO 黄超表示。
记者注意到,近日,北京市发展改革委修订印发了《关于进一步加强数据中心项目节能审查的若干规定》,其中就新增了关于引导数据中心充分利用再生水的内容:再生水输配管网覆盖范围内的数据中心,设备冷却水、机房加湿等非生活用水应采用再生水。
吕天文向记者介绍称,为了节约宝贵的自来水资源,很多企业尝试用各种方法为数据中心散热,例如,微软曾尝试部署海下数据中心,Facebook 数据中心选址北极圈附近,阿里云千岛湖数据中心使用深层湖水制冷," 但上述方法总是会带来新的问题,目前国内数据中心的用水主要使用的还是自来水,近几年政府层面更鼓励数据中心企业利用中水。"
AI竞赛更新,专家呼吁建立数据中心用水国标
今年以来,AIGC 的爆火使得科技公司竞赛正不断加码,国内大模型创业也进入狂飙,来自 AI 公司、大厂的创业派,以及来自高校、研究机构的学院派加速涌入 " 百模大战 ",科技部新一代人工智能发展研究中心发布的《中国人工智能大模型地图研究报告》显示,截至今年 5 月末,全国参数在 10 亿规模以上的大模型已发布 79 个。
数据中心作为传输、储存、处理数据资源的新型基础设施,其用水量随着 AI 竞赛的更新也迎来新一波增长,"AI 大模型训练需要算力更高,相应的能耗也就更大,AI 芯片和 AI 伺服器的发热量相比传统伺服器也更大。数据中心的水消耗最主要还是用来蒸发散热了,所以随着能耗、发热量的增加,耗水必然会增加。" 黄超向记者介绍称。
在采访中,吕天文建议相关部门尽快为数据中心用水建立一套规范、统一的标准与利用效率评价方法,这将成为数据中心实现绿色低碳发展的又一关键标准工具。
" 目前国内对 WUE 指标还没有广泛的统一标准,现在较多聚焦在 PUE 层面,但其它如芯片能耗的控制、算法层面的节能,以及我们讨论的耗水问题,都不是简单的 PUE 能够代表的。" 黄超表示,进一步节能至少需要在数据中心选址、供配电设计、可再生能源利用、余热回收、雨水 / 废水利用、芯片节能、軟體节能等全方面去做,最终实现在整体层面上的节能。
液冷有望逐步成为制冷领網域主力
在高密度、高能耗的数据中心庞大需求下,制冷领網域技术的革新也开始涌现,一个加速的趋势就是,液冷出现且有望逐步成为制冷领網域的主力。
冷液冷技术是指使用液体取代空气作为冷媒,与 CPU、芯片组、内存条以及扩展卡等发热部件进行热交换,带走热量的技术。相比于传统的风冷技术,液冷技术的制冷效率更高,可有效降低制冷系统的运行能耗,使数据中心 PUE 达到 1.3 以下。
" 我国幅员辽阔,各地气候条件差异大,各地数据中心的制冷需求也不尽相同,因此,制冷技术的普适性很重要。" 吕天文认为,液冷技术恰恰能无视海拔、地網域的差异,同时余热还可以创造经济价值。
从市场规模来看,根据赛迪顾问的数据,2019 年我国液冷数据中心市场规模为 260 亿元,预计 2025 年可达到 1283.2 亿元以上。记者注意到,出于数据安全的保护,数据中心基础设施的供应方面存在一定的地網域壁垒,目前国外厂商的产品的应用主要以其本国市场为主,国内市场的主要玩家有曙光数创、华为、阿里巴巴、浪潮信息、广东合一等。
吕天文告诉记者,得益于中国 AI 具体实践、5G 创新应用的快速推广,中国公司的液冷技术目前在国际竞争中处于前列,国外掌握液冷技术的企业比较分散,其产品还处于比较早期的技术性验证阶段,投入商用的相对较少。
他判断,由于风冷技术适用于中小规模的中低密度数据中心,因此不会完全被取代,未来,市场中风冷和液冷将会共同发展,出现一段共存的局面,长远来看,液冷产品的市场份额会不断扩大,逐渐成为主流。
黄超同样认为,当前液冷是面对 AI 高密度需求的最佳制冷方式," 但这项技术还处于起步阶段,面临初期部署成本高、产业链不完善、定制化要求高、机房建设要求高等众多问题,还需要产业进一步解决。" 他表示。