随着人工智能及其应用在全球各国的不断推开,能源消耗问题也日益凸显。面对可能激增的能耗需求,大型科技公司纷纷寻求解决之策。国际能源署认为,强化法规和技术改进,包括效率方面的提升,对于减缓数据中心能源消耗的激增至关重要。
行业跃进带来能耗翻番
富国银行最近发布的分析报告显示,在经历10年的电力增长平台期后,预计到2030年美国的电力需求将增长20%。仅人工智能数据中心就有望在美国增加约323太瓦时(1太瓦时=10亿千瓦时)的电力需求。而纽约市目前每年的用电量为48太瓦时。
波士顿咨询集团预计,到2030年底,美国数据中心的用电量将是2022年的三倍,而这一增幅主要来自AI模型训练和更高频的AI查询。
科技媒体Digital Information World的报告显示,数据中心为训练AI模型产生的能耗是常规云工作的三倍,预计到2030年,美国数据中心的电力需求将以每年约10%的速度增长。
国际能源署称,到2022年,美国2700个数据中心消耗的电力占该国总电力的4%以上,到2026年,这一比例会达到6%。高盛预计,到2030年,数据中心耗电将占美国总用电量的8%。
《日本经济新闻》近日报道称,随着数据中心的快速增长,其对电力的需求不断增加。不仅日本,韩国和东南亚的数据中心市场也在不断增长。
咨询机构IDC日本预测,今年日本数据中心运营商的总投资额可能超过5000亿日元,比去年增加50%,且如此大规模的投资水平有望一直保持到2027年。日本电力中央研究所的预测指出,日本数据中心的用电量到2040年将提升至105太瓦时,相当于2021年的5倍,这一数字到2050年还将进一步上升至211太瓦时。
斯坦福人工智能研究在《2023年AI指数报告》中测算,AI大语言模型GPT-3一次训练的耗电量就有1287兆瓦时,大概相当于3000辆特斯拉电动汽车共同开跑、每辆车跑20万英里所耗电量的总和。报告同时提出,AI大语言模型GPT-3一次训练,相当于排放了552吨二氧化碳。
美国《纽约时报》的报道显示,ChatGPT每天要响应大约2亿个请求,这一过程消耗超过50万度电。
国际能源署(IEA)在1月发布的报告中估计,2026年全球数据中心、人工智能和加密货币行业的电力消耗可能会翻倍,大大高于未来三年全球电力需求年均增长3.4%的增速。数据中心是许多地区电力需求增长的重要驱动力,2026年,数据中心的总用电量可能超过1000太瓦时。
科技企业面临挑战
发展人工智能带来的电力需求及碳排放激增,无疑给大型科技公司带来了挑战。
以谷歌为例,其用于人工智能训练的能量消耗占总用电量的10%至15%。投资研究机构新街研究估计,仅在AI方面,谷歌就需要大约40万台服务器,每天消耗62.4吉瓦时(1吉瓦时=1000千瓦时)、每年消耗22.8太瓦时的能源,相当于美国一个州首府所有家庭一年的用电量。
随着人工智能的持续发展,应用越来越普及,使用人数也不断增加,能源消耗将呈现爆炸式增长。
特斯拉CEO马斯克今年再次表达了他对电力供应的担忧。他预计,电力短缺可能会造成严重后果,阻碍AI的发展,就像缺芯阻碍科技和汽车行业一样。
有同样担忧的还有OpenAI首席执行官山姆·奥特曼。他表示,人工智能将消耗比人们预期更多的电力,未来的发展需要能源突破。
除了电力,人工智能的发展对其他资源的消耗也十分巨大。弗吉尼亚理工大学研究指出,Meta公司在2022年使用了超过260万立方米的水,主要是为数据中心提供冷却。
据美国《华尔街日报》报道,微软计划利用下一代核反应堆,即所谓的小型模块化反应堆(SMR),来支持其数据中心和AI项目。数年前,微软曾尝试部署海底数据中心,脸书数据中心则选址在寒冷的北极圈附近。
探索更多应对之策
为了减少碳排放,包括亚马逊、谷歌、微软和Meta在内的公司已经承诺用可再生能源为它们的数据中心供电。
美国能源巨头雪佛龙公司董事长兼CEO迈克尔·沃思5月6日预计,随着人工智能和数据中心用电量的激增,天然气的需求可能会超出预期。沃思称,美国汽车、供暖和制造业的电气化举措,叠加数据中心需求的增加,美国将需要可靠且负担得起的备用发电。
高盛今年4月发布的报告显示,为满足人工智能和数据中心带来的电力需求增长,天然气预计将占到增量的60%,剩余的40%由可再生能源加以满足。
咨询公司Rystad Energy4月的一份报告也看好天然气的使用。报告认为,仅靠太阳能和风能这种依赖于天气的能源,可能不足以满足科技公司发展人工智能的电力负荷。激增的电力负荷将需要一种能源来填补缺口,并在可再生能源发电不足的情况下满足激增的需求。行业认为天然气将成为首选。
电力公司一直在为数据中心的电力需求激增做准备。大型科技公司也在探索人工智能如何帮助电网更高效地运行。全球最大的数据中心公司之一Equinix的官员表示,他们一直在尝试使用燃料电池作为备用电源。
世界经济论坛官网刊文分析称,AI运行一般分两个主要阶段:训练阶段和推理阶段。在训练阶段,模型通过消化大量数据来学习和开发;经过训练后,它们进入推理阶段,用于解决使用者提出的问题。在这两个阶段限制能耗,可将AI运行总能耗降低12%到15%。
一些参与人工智能的公司乐观地表示,人工智能技术本身可以帮助解决高电耗问题。微软公司发言人就表示,人工智能“将成为推进可持续发展解决方案的有力工具”。(记者 周武英)