谷歌人工智能消耗的能源可以达到与整个爱尔兰相当的水平。你在标题中读到了,我在这里重复一遍:数字不言而喻。随着人工智能的发展和扩展,该行业正面临着严峻的能源挑战。
越多的科技公司继续开发人工智能并将其集成到广泛的服务中,从简单的搜索引擎到最复杂的应用程序,相关的能源消耗就越将成为一个关键问题。问题是:我们如何摆脱这个困境?
定制人工智能芯片的兴起
这一趋势很明显并且正在不断增长:人工智能公司正在开发自己的芯片,以满足日益苛刻的系统需求。巨人喜欢 谷歌 e Amazon 他们已经拥有自己的定制人工智能芯片。 而且他们并不是唯一的:一直有传言说 微软 可能会在下个月推出其芯片硬件。
微软本身也投入巨资 OpenAI据一些消息来源称,该公司正处于开发自己的芯片的早期阶段,或者正在考虑收购一家半导体公司来制造芯片。
但这对我们的星球意味着什么? 这意味着它将在那里 显着增加 人工智能行业的能源足迹。
AI产业的能源足迹
我简单地说:如果生成式人工智能被集成到每个谷歌搜索中,该公司的能源需求将达到令人难以置信的高度。在 Joule 上发表的一篇文章中(我在这里链接),研究人员估计,集成一个类似于 ChatGPT 在 Google 要求的每次搜索中 多达 512,820 台 NVIDIA A100 HGX 服务器。 翻译成数字? 意思就是超越 4 万个 GPU。 计算一下:每台服务器的能源需求为 6,5 kW,每天的用电量为 80 GWh,年用电量为 29,2 TWh。 他们是像爱尔兰这样的整个国家的人。
当AI“喝”得更多时
人工智能工具有一个 初始训练阶段 其次是 推理阶段。虽然训练阶段是能源消耗最大的阶段,也是迄今为止人工智能可持续性研究的重点,但推理阶段是这些工具根据训练数据生成输出的阶段。
这个阶段经常被忽视,但却值得绝对关注。因为这个阶段会急剧增加,并且最终会超过前一个阶段。对各种人工智能系统“能源饥渴”的估计需要修改。
我们不能忽视这些系统所消耗的能源,技术进步和环境责任必须平衡:只有这样,我们才能真正让技术有机会改善我们的未来。