AI 的能源足迹:你可能没听过的故事
我们计算了 AI 的能源足迹,这是你可能没听过的故事
单个 AI 文本、图像和视频查询的排放量看起来很小,但当你把行业没有跟踪的部分加起来,并考虑到未来的发展方向时,就会发现问题很严重。
作者:
2025 年 5 月 20 日
AI 融入我们的生活是十多年来在线生活最重大的转变。现在,数亿人经常求助于聊天机器人来帮助完成作业、研究、编码或创建图像和视频。但是,是什么在为这一切提供动力?
今天,MIT Technology Review 的一项新分析对 AI 行业的能源使用量进行了前所未有的全面观察,精确到单个查询,以追踪其碳足迹的现状以及未来的发展方向,因为 AI 正朝着每天数十亿用户的方向发展。
这个故事是 MIT Technology Review 的系列文章“Power Hungry: AI and our energy future”的一部分,该系列文章关注人工智能革命的能源需求和碳成本。
我们采访了二十多位测量 AI 能源需求的专家,评估了不同的 AI 模型和提示,仔细研究了数百页的预测和报告,并向顶级 AI 模型制造商询问了他们的计划。最终,我们发现人们对 AI 能源消耗的普遍理解充满了漏洞。
我们从小处着手,因为了解单个查询的成本对于理解更大的图景至关重要。这是因为这些查询正在被构建到独立聊天机器人之外的更多应用程序中:从搜索到代理,再到我们用来跟踪健身、在线购物或预订航班的日常应用程序。为这场人工智能革命提供动力所需的能源是惊人的,世界上最大的科技公司已将利用更多能源作为首要任务,并试图在此过程中重塑我们的能源网络。
Meta 和 Microsoft 正在努力启动新的核电站。OpenAI 和 President Donald Trump 宣布了 Stargate 计划,该计划旨在花费 5000 亿美元(超过 Apollo 太空计划)来建造 多达 10 个数据中心(每个数据中心可能需要 5 吉瓦的电力,超过 New Hampshire 州的总电力需求)。Apple 宣布计划在未来 四年 内在美国的制造和数据中心上花费 $5000 亿美元。Google 预计将在 2025 年仅在 AI 基础设施上花费 750 亿美元。
这不仅仅是数字世界的常态。这是 AI 独有的,并且与 Big Tech 最近对电力的需求截然不同。从 2005 年到 2017 年,由于效率的提高,尽管建造了大量新的数据中心来服务于基于云的在线服务(从 Facebook 到 Netflix),但数据中心的用电量一直保持相当平稳。2017 年,AI 开始改变一切。数据中心开始建造专为 AI 设计的能源密集型硬件,这导致它们在 2023 年将其用电量翻了一番。最新的 报告 显示,美国目前所有能源的 4.4% 都用于数据中心。
数据中心所用电力的碳强度比美国平均水平高 48%。
鉴于 AI 的发展方向——更加个性化,能够代表我们进行推理和解决复杂问题,并且无处不在——我们今天的 AI 足迹很可能是有史以来最小的。根据 Lawrence Berkeley National Laboratory 12 月发布的 新预测,到 2028 年,数据中心一半以上的电力将用于 AI。届时,仅 AI 本身每年消耗的电力就可能相当于美国所有家庭的 22%。
与此同时,预计数据中心将继续趋向于使用更脏、碳密集度更高的能源形式(如天然气)来满足眼前的需求,从而留下排放云。所有这些增长都是为了仍在寻找立足点的新技术,并且在许多应用中(教育、医疗建议、法律分析)可能是错误的工具,或者至少有能源密集度较低的替代方案。
对 AI 能源使用的统计常常会中断对话——要么是责骂个人行为,要么是引发与更大的气候罪犯的比较。这两种反应都回避了重点:AI 是不可避免的,即使单个查询的影响很小,政府和公司现在也在围绕 AI 的需求塑造更大的能源未来。
我们正在采取不同的方法,通过一种旨在为未来许多决策提供信息的核算方式:数据中心的位置、为其提供动力的能源以及如何使 AI 日益增长的代价变得可见和可追究责任。
据估计,ChatGPT 现在是世界上访问量第五大的网站,仅次于 Instagram,领先于 X。
这是因为,尽管科技公司、公用事业提供商和联邦政府提出了雄心勃勃的 AI 愿景,但这种未来如何实现的细节仍然模糊不清。科学家、联邦资助的研究机构、活动家和能源公司认为,领先的 AI 公司和数据中心运营商对其活动的披露太少。构建和部署 AI 模型的公司在回答一个核心问题时大多保持沉默:与这些模型之一交互需要多少能源?以及什么样的能源将为 AI 的未来提供动力?
这使得即使是那些工作是预测能源需求的人也被迫拼凑一个缺少无数块的拼图,这使得几乎不可能规划 AI 对能源网格和排放的未来影响。更糟糕的是,公用事业公司与数据中心达成的协议可能会以更高的电费形式将 AI 革命的成本转嫁给我们其他人。
需要考虑的事情很多。要描述这个未来看起来像什么的大局,我们必须从头开始。
第一部分:制作模型
在你要求 AI 模型帮助你制定旅行计划或生成视频之前,该模型是在数据中心诞生的。
成排的服务器嗡嗡作响数月,摄取训练数据、处理数字和执行计算。这是一个耗时且昂贵的过程——据估计,训练 OpenAI 的 GPT-4 花费了超过 1 亿美元,并消耗了 50 吉瓦时的能源,足以为 San Francisco 供电三天。只有在消费者或客户“推理” AI 模型以获得答案或生成输出之后,模型制造商才希望收回其巨额成本并最终实现盈利。
Microsoft Azure 的研究员 Esha Choukse 说:“对于任何公司来说,从模型中赚钱——这只发生在推理上。”她研究了如何提高 AI 推理的效率。
与专家和 AI 公司的对话清楚地表明,推理而不是训练代表了 AI 能源需求的越来越大的比例,并且在不久的将来将继续如此。据估计,目前 AI 80-90% 的计算能力用于推理。
所有这些都发生在数据中心。在美国大约有 3,000 座 这样的建筑物,其中容纳着服务器和冷却系统,由云提供商和像 Amazon 或 Microsoft 这样的科技巨头运营,但 AI 初创公司也在使用。越来越多的中心——尽管不清楚具体有多少,因为关于此类设施的信息受到严密保护——是为了 AI 推理而建立的。
在每个中心,AI 模型都加载到包含称为图形处理单元或 GPU 的特殊芯片的服务器集群上,最著名的是 Nvidia 制造的名为 H100 的特定模型。
该芯片于 2022 年 10 月开始发货,仅在一个月前 ChatGPT 向公众发布。自那时以来,H100 的销量飙升,并且是 Nvidia 经常被评为世界上最有价值的上市公司之一的原因之一。
其他芯片包括 A100 和最新的 Blackwells。所有这些芯片的共同点是都需要大量的能量来运行其高级操作而不会过热。
单个 AI 模型可能位于十几个或更多的 GPU 上,而大型数据中心可能连接在一起超过 10,000 个这样的芯片。
与这些芯片紧密连接的是 CPU(向 GPU 提供信息的芯片)和风扇,以保持一切凉爽。
在几乎每次交换过程中,由于不完美的绝缘材料和服务器机架之间的长电缆,一些能量会被浪费,并且许多建筑物每天在其冷却操作中使用数百万加仑的水(通常是新鲜的饮用水)。
根据预期的使用情况,这些 AI 模型被加载到全球各个数据中心中的数百或数千个集群上,每个集群都有不同的能源组合为其供电。
然后将它们在线连接,只是在等待你用问题来 ping 它们。
第二部分:一个查询
如果你看过一些估计向 AI 模型提问的能源影响的图表,你可能会认为它就像测量汽车的燃油经济性或洗碗机的能源等级:一个可知道的值,并有一个共享的方法来计算它。你就错了。
实际上,模型的大小和类型、你生成的输出类型以及超出你控制的无数变量(例如,连接到你的请求发送到的数据中心的哪个能源网格以及处理请求的时间)可能会使一个查询的能源强度和排放量比另一个查询高数千倍。
当你查询大多数 AI 模型时,无论是在 Instagram 等应用程序中的手机上,还是在 ChatGPT 的 Web 界面上,你的问题被路由到数据中心之后发生的大部分事情仍然是一个秘密。诸如世界上哪个数据中心处理你的请求、这样做需要多少能量以及所用能源的碳强度等因素往往只有运行这些模型的公司才知道。
对于你习惯的大多数知名模型来说,情况都是如此,例如 OpenAI 的 ChatGPT、Google 的 Gemini 和 Anthropic 的 Claude,它们被称为“封闭式”。关键细节由制作它们的公司严密保守,因为它们被视为商业机密(并且可能也因为它们可能会导致不良的公关)。这些公司几乎没有动力发布这些信息,而且到目前为止,它们还没有这样做。
Salesforce 的 AI 可持续发展负责人 Boris Gamazaychikov 说:“封闭式 AI 模型提供商提供了一个完全的黑匣子。”他曾与 Hugging Face(一个为个人和公司提供工具、模型和库的 AI 平台提供商)的研究人员一起努力提高 AI 能源需求的透明度。如果没有公司更多的披露,不仅仅是我们没有好的估计——我们几乎没有任何依据。
如果没有公司更多的披露,不仅仅是我们没有好的估计——我们几乎没有任何依据。
那么,我们可以从哪里获得估计值呢?所谓的开源模型可以由研究人员下载和调整,他们可以访问特殊的工具来测量 H100 GPU 完成给定任务需要多少能量。此类模型也非常受欢迎。Meta 在 4 月份宣布,其 Llama 模型的下载量已超过 12 亿次,并且许多公司在使用 ChatGPT 之类的东西无法获得更多对输出的控制时,会使用开源模型。
但是,即使研究人员可以测量 GPU 消耗的功率,它仍然不包括 CPU、风扇和其他设备消耗的功率。Microsoft 的一篇 2024 年的论文 分析了推理大型语言模型的能源效率,发现将 GPU 使用的能量量翻倍可以大致估计整个操作的能源需求。
因此,目前,测量领先的开源模型(并添加对所有这些其他部分的估计)可以为我们提供关于单个 AI 查询正在使用多少能量的最佳图像。但是,请记住,人们今天使用 AI 的方式——编写购物清单或创建超现实主义视频——远比 AI 公司将我们推向的自主代理未来中使用的要简单得多。稍后会详细介绍。
这是我们的发现。
文本模型
让我们从你输入问题并以文字形式收到回复的模型开始。评估 AI 能源需求的主要小组之一位于 University of Michigan,由 博士候选人 Jae-Won Chung 和副教授 Mosharaf Chowdhury 领导。我们与该团队合作,专注于最广泛采用的开源模型之一 Meta 的 Llama 的能源需求。
我们的 Llama 队列中最小的模型 Llama 3.1 8B 具有 80 亿个参数——本质上是 AI 模型中可调节的“旋钮”,允许它进行预测。当在各种不同的文本生成提示(如制定 Istanbul 旅行行程或解释量子计算)上进行测试时,该模型每个响应需要约 57 焦耳,或者在考虑冷却、其他计算和其他需求时估计需要 114 焦耳。这很小——大约相当于骑电动自行车六英尺或运行微波炉十分之一秒所需的能量。
我们的文本生成队列中最大的 Llama 3.1 405B 具有 50 倍以上的参数。更多的参数通常意味着更好的答案,但每个响应需要更多的能量。平均而言,该模型每个响应需要 3,353 焦耳,或者估计总共需要 6,706 焦耳。这足以让一个人在电动自行车上行驶约 400 英尺或运行微波炉八秒钟。
你能给我讲个笑话吗?
|
当然!这是一个:
问:为什么泥怪决定订阅这本杂志?
答:因为他想了解所有科技方面的消息。
因此,模型大小是能源需求的一个巨大预测指标。一个原因是,一旦模型达到一定大小,它就必须在更多的芯片上运行,每个芯片都会增加所需的能量。我们测试的最大的模型有 4050 亿个参数,但其他的模型(如 DeepSeek)已经走得更远,拥有超过 6000 亿个参数。封闭源模型的参数计数未公开披露,只能估计。据 估计 GPT-4 拥有超过 1 万亿个参数。
但在所有这些情况下,提示本身也是一个巨大的因素。简单的提示(如要求讲几个笑话)通常比编写创意故事或食谱创意的更复杂的提示使用的能量少九倍。
生成图像
生成图像和视频的 AI 模型使用不同的架构,称为扩散。它们不是预测和生成单词,而是学习如何将噪声图像转换为(例如)大象的照片。它们通过学习训练数据中图片的轮廓和模式,并将这些信息存储在数百万或数十亿个参数中来实现这一点。视频生成器模型还学习如何在时间维度上执行此操作。
给定扩散模型所需的能量不取决于你的提示——生成沙丘上滑雪者的图像所需的能量与生成火星上宇航员耕种的图像所需的能量相同。相反,能量需求取决于模型的大小、图像分辨率以及扩散过程的“步骤”数量(更多步骤会导致更高的质量,但需要更多的能量)。
使用具有 20 亿个参数的领先开源图像生成器 Stable Diffusion 3 Medium 生成标准质量图像(1024 x 1024 像素)需要约 1,141 焦耳的 GPU 能量。与大型语言模型不同,对于扩散模型,没有关于 GPU 对总能量需求的贡献程度的估计,但专家建议我们坚持使用我们迄今为止使用的“加倍”方法,因为差异可能很微妙。这意味着估计总共需要 2,282 焦耳。将扩散步骤的数量加倍到 50 可以提高图像质量,这几乎会使所需的能量翻倍,达到约 4,402 焦耳。这相当于电动自行车行驶约 250 英尺,或运行微波炉约五秒半。这仍然低于最大的文本模型。
不错的。泥怪看起来像什么?
|
你想要一张图片?马上来!
生成图像...
如果你想象生成图像需要比生成文本更多的能量,这可能会令人惊讶。Chung 说:“大型 [文本] 模型有很多参数。”他测量了本文中提到的开源文本和图像生成器。“即使它们生成文本,它们也在做很多工作。”另一方面,图像生成器通常使用较少的参数。
制作视频
由开源模型 CogVideoX 生成的视频。
去年,OpenAI 首次推出了 Sora,这是一个令人眼花缭乱的 AI 高保真视频制作工具。其他封闭源视频模型也已经问世,例如 Google Veo2 和 Adobe 的 Firefly。
鉴于训练这些模型所需的惊人的资本和内容量,免费使用的开源模型在质量上通常会落后,这并不奇怪。尽管如此,根据 Hugging Face 研究人员的说法,最好的模型之一是 CogVideoX,由中国 AI 初创公司 Zhipu AI 和北京清华大学的研究人员制作。
Hugging Face 的 AI 和气候研究员 Sasha Luccioni 使用名为 Code Carbon 的工具测试了使用该模型生成视频所需的能量。
该模型的旧版本于 8 月发布,以每秒 8 帧的速度制作视频,分辨率很低,更像是 GIF 而不是视频。制作每个视频需要大约 109,000 焦耳。但是三个月后,该公司推出了一个更大、更高质量的模型,以每秒 16 帧的速度制作 5 秒的视频(此帧速率仍然不是高清的;它是好莱坞无声时代直到 1920 年代末使用的帧速率)。新模型在每个 5 秒视频上使用的能量是原来的 30 多倍:约 340 万焦耳,是生成高质量图像所需能量的 700 多倍。这相当于骑电动自行车 38 英里,或运行微波炉一个多小时。
可以肯定地说,领先的 AI 视频生成器(创建长达 30 秒的令人眼花缭乱和超逼真的视频)将使用更多的能量。随着这些生成器变得越来越大,它们还在添加允许你调整视频的特定元素并将多个镜头拼接成场景的功能——所有这些都会增加它们的能量需求。注意:AI 公司为这些数字辩护说,生成视频的足迹小于典型视频制作所需的电影拍摄和旅行。这种说法很难测试,并且没有考虑到如果 AI 视频变得便宜,视频生成可能会激增。
一天的提示
那么,对于一个有 AI 习惯的人来说,一天的能量消耗会是什么样子的呢?
3:30 假设你正在参加马拉松慈善跑,并组织一次募款活动来支持你的事业。你向 AI 模型询问了 15 个关于最佳募款方式的问题。
然后在你获得一个你满意的图像之前,你尝试制作了 10 个传单图像,并尝试了三个在 Instagram 上发布的 5 秒视频。
你将使用约 2.9 千瓦时的电力——足以在电动自行车上行驶超过 100 英里(或在平均电动汽车中行驶约 10 英里)或运行微波炉三个半小时以上。
这个计算方法有一个重要的警告。这些数字不能作为 ChatGPT 4o 等产品需要多少能量的代理。我们不知道 OpenAI 最新模型中有多少参数,有多少参数用于不同的模型架构,或者使用了哪些数据中心,以及 OpenAI 如何在所有这些系统中分配请求。你可以像许多人一样猜测,但这些猜测太近似了,以至于它们可能比有用更令人分心。
Luccioni 说:“我们应该停止尝试根据传闻来逆向工程数字,而应该对这些公司施加更大的压力,让它们实际分享真实的数字。”Luccioni 创建了 AI Energy Score,这是一种对模型的能源效率进行评级的方法。但是封闭源公司必须选择加入。Luccioni 说,很少有公司这样做。
第三部分:燃料和排放
现在我们已经估计了运行 AI 模型以生成文本、图像和视频所需的总能量,我们可以计算出这在导致气候变化的排放方面意味着什么。
首先,数据中心嗡嗡作响不一定是坏事。如果所有数据中心都连接到太阳能电池板并且仅在阳光照射时运行,那么世界对 AI 能源消耗的讨论就会少得多。事实并非如此。世界各地的大多数电网仍然严重依赖化石燃料。因此,电力使用会带来气候代价。
Mawson Infrastructure Group 的首席执行官 Rahul Mewawalla 说:“AI 数据中心需要持续供电,每天 24 小时,每年 365 天。”Mawson Infrastructure Group 建造和维护支持 AI 的高能数据中心。
这意味着数据中心不能依赖风能和太阳能等间歇性技术,而且平均而言,它们倾向于使用更脏的电力。Harvard's T.H. Chan School of Public Health 的一项预印本研究发现,数据中心使用的电力碳强度 比美国平均水平高 48%。部分原因是数据中心目前恰好集中在平均电网较脏的地方,例如包括 Virginia、West Virginia 和 Pennsylvania 的 Mid-Atlantic 地区的重煤电网。它们还不断运行,包括在可能没有清洁能源时。
数据中心不能依赖风能和太阳能等间歇性技术,而且平均而言,它们倾向于使用更脏的电力。
像 Meta、Amazon 和 Google 这样的科技公司通过宣布使用更多核能的目标来回应这一化石燃料问题。这三家公司已加入一项承诺,到 2050 年将世界核容量增加两倍。但是今天,核能仅占美国电力供应的 20%,并且为 AI 数据中心运营的一小部分提供动力——例如,天然气占 Virginia 发电量的一半以上,该州的数据中心比美国任何其他州都多。更重要的是,新的核运营需要数年甚至数十年的时间才能实现。
2024 年,包括天然气和煤炭在内的化石燃料占美国电力供应的近 60%。核能约占 20%,剩余 20% 大部分来自可再生能源。
电力供应的缺口,再加上为 AI 提供动力而建造数据中心的浪潮,通常意味着目光短浅的能源计划。4 月,通过卫星图像发现 Elon Musk 的 X 超级计算中心位于 Memphis 附近,该中心正在使用数十个 methane 天然气发电机,Southern Environmental Law Center 声称这些发电机 未经能源监管机构批准 来补充电网电力,并且违反了《清洁空气法》。
用于量化这些数据中心排放量的关键指标称为碳强度:每消耗一千瓦时的电力会产生多少克二氧化碳排放。要确定给定电网的碳强度,需要了解运行中每个发电厂产生的排放量,以及每个发电厂在任何给定时间为电网贡献的能量量。公用事业公司、政府机构和研究人员使用平均排放量估计值以及实时测量值来跟踪发电厂的污染情况。
这种强度因地区而异。美国电网是分散的,煤炭、天然气、可再生能源或核能的组合差异很大。例如,California 的电网比 West Virginia 的电网清洁得多。
一天中的时间也很重要。例如,来自 2024 年 4 月的数据显示,California 的电网可以在下午(当有大量太阳能可用时)从每千瓦时低于 70 克波动到在午夜时每千瓦时超过 300 克。
这种可变性意味着相同的活动可能具有非常不同的气候影响,具体取决于你的位置和你提出请求的时间。以那位慈善马拉松运动员为例。他们请求的文本、图像和视频回复加起来为 2.9 千瓦时的电力。在 California,产生这么多电力平均会产生约 650 克的二氧化碳污染。但是在 West Virginia 产生那么多电力可能会使总数膨胀到超过 1,150 克。
拐角处的 AI
到目前为止,我们已经看到响应查询所需的能量可能相对较小,但它可以根据查询的类型和所使用的模型而有很大差异。与给定电量相关的排放量也将取决于在何处以及何时处理查询。但是所有这些加起来是什么?
据 估计,ChatGPT 现在是世界上访问量第五大的网站,仅次于 Instagram,领先于 X。去年 12 月,OpenAI 表示 ChatGPT 每天收到 10 亿条消息,并且在该公司 3 月推出新的图像生成器后,它 表示 人们每天使用它生成 7800 万张图像,从 Studio Ghibli 风格的肖像到他们自己作为 Barbie 娃娃的图片。
鉴于 AI 的发展方向——更加个性化,能够代表我们进行推理和解决复杂问题,并且无处不在——我们今天的 AI 足迹很可能是有史以来最小的。
可以进行一些非常粗略的计算来估计能源影响。2 月,AI 研究公司 Epoch AI 发布了一份估计单个 ChatGPT 查询使用多少能量的估计报告——正如讨论的那样,该估计报告做出了许多无法验证的假设。尽管如此,他们计算出每条消息约为 0.3 瓦时,或 1,080 焦耳。这介于我们对最小和最大 Meta Llama 模型的估计之间(我们咨询的专家说,如果有什么不同,实际数字可能更高,而不是更低)。
每天 10 亿条消息,一年下来将意味着超过 109 吉瓦时的电力,足以为一个家庭的 10,400 个美国家庭供电一年。如果我们添加图像,并想象生成每个图像需要与我们高质量图像模型一样多的能量,那将意味着额外 35 吉瓦时,足以为一个家庭的另外 3,300 个家庭供电一年。这还不包括 OpenAI 的其他产品(如视频生成器)的能源需求,以及所有其他 AI 公司和初创公司的能源需求。
但问题是:这些估计并未捕捉到我们在不久的将来如何使用 AI。在未来,我们不会仅仅在一天中用一两个问题来 ping AI 模型,或者让它们生成一张照片。相反,领先的实验室正在竞相将我们带到一个 AI“代理”在没有我们监督它们的一举一动的情况下为我们执行任务的世界。我们将以语音模式与模型对话,与伙伴聊天 每天 2 小时,并以视频模式将我们的手机摄像头指向我们周围的环境。我们将把复杂的任务交给所谓的“推理模型”,这些模型在逻辑上完成任务,但 发现 简单问题需要 43 倍的能量,或者“深度研究”模型,这些模型花费数小时为我们创建报告。我们将拥有通过训练我们的数据和偏好来“个性化”的 AI 模型。
这个未来就在眼前:据报道,OpenAI 将为代理提供每月 20,000 美元的价格,并将在其所有模型中使用推理功能,并且 DeepSeek 通过一个通常为每个响应生成九页文本的模型将“思维链”推理推向主流。AI 模型正在被添加到从客户服务电话线到医生办公室的所有内容中,从而迅速增加了 AI 在国家能源消耗中的份额。
Luccioni 说:“我们拥有的珍贵数字可能只让我们稍微了解我们现在的处境,但在未来几年,一切都将变得不确定。”
我们交谈过的每位研究人员都说,我们无法通过简单地从今天 AI 查询中使用的能量来推断出未来的能源需求。事实上,领先的 AI 公司启动核电站和创建前所未有的规模的数据中心的举动表明,它们对未来的愿景将消耗比大量个人查询更多的能量。
Luccioni 说:“我们拥有的珍贵数字可能只让我们稍微了解我们现在的处境,但在未来几年,一切都将变得不确定。”“生成式 AI 工具实际上被强加给我们,当涉及到能源和气候时,越来越难以选择退出或做出明智的选择。”
要了解这场 AI 革命需要多少电力,以及它将来自何处,我们必须仔细阅读字里行间。
第四部分:未来的展望
Lawrence Berkeley National Laboratory 在 12 月发布了一份 报告,该实验室由能源部资助,并获得了 16 项 Nobel Prize,该报告试图衡量 AI 的扩散可能对能源需求产生的影响。
在分析有关数据中心作为一个整体的公开和专有数据,以及 AI 的具体需求时,研究人员得出了一个明确的结论。2024 年,美国的数据中心使用的电力约为 200 太瓦时,大致相当于 Thailand 一年的用电量。据估计,这些数据中心中专门用于 AI 的服务器使用了 53 到 76 太瓦时的电力。从高位来看,这足以为一个家庭的 720 多万个美国家庭供电一年。
如果我们假设大部分电力用于推理,这意味着去年美国在 AI 上使用的电力足以让地球上的每个人都与聊天机器人交换超过 4,000 条消息。当然,在现实中,普通个人用户并不对所有这些电力需求负责。其中大部分可能用于初创公司和科技巨头测试其模型、高级用户探索每个新功能以及能源密集型任务