根据媒体报道,OpenAI 的流行聊天机器人 ChatGPT 每天消耗的电力可能超过 500,000 千瓦时。
作为参考,美国普通家庭的平均日用电量仅为 29 千瓦时。这意味着 ChatGPT 的能耗相当于普通家庭的近 17,000 倍。
随着生成式 AI 的进一步普及,其能耗可能会大幅增加。荷兰国家银行数据科学家 Alex de Vries 在一篇论文中估计,到 2027 年,整个 AI 行业的年耗电量将达到 85 至 134 太瓦时(1 太瓦时等于 10 亿千瓦时)。这一电量相当于肯尼亚、危地马拉和克罗地亚三国一年的总发电量。
然而,准确评估蓬勃发展的 AI 行业的实际电量消耗并非易事。尽管科技巨头在 AI 领域处于领先地位,但它们对于自身能源消耗情况却守口如瓶。
此外,不同的 AI 模型在运行方式上存在差异,这使得电量消耗的估算变得更加复杂。
根据 New Street Research 的数据,英伟达在图形处理器市场份额中占据了约 95%。de Vries 估计,到 2027 年,整个 AI 行业的电量消耗将达到 85 至 134 太瓦时之间。这是一个相当可观的数字,甚至可能占到全球电量的约一半。
(举报)