ChatGPT日耗电超50万度 究竟是怎么回事?
摘要:
3月10日消息,据媒体报道,OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力。作为参考,美...
3月10日消息,据媒体报道,OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力。
作为参考,美国普通家庭的日均用电量仅为29千瓦时,这意味着ChatGPT的能耗是普通家庭的近1.7万倍。
如果生成式AI被进一步采用,耗电量可能会更多。荷兰国家银行数据科学家Alex de Vries在一篇论文中估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。这个电量足以匹敌肯尼亚、危地马拉和克罗地亚三国的年总发电量。
不过,要准确评估蓬勃发展的AI行业的实际电量消耗并非易事,尽管大型科技公司在AI领域处于领先地位,但它们对于自身的能源消耗情况却讳莫如深。
此外,不同的人工智能模型在运行方式上也存在巨大差异,这使得电量消耗的估算变得更加复杂。
另据New Street Research的数据,英伟达在图形处理器市场份额中占据了约95%的份额。de Vries估计,到2027年,整个AI行业的电量消耗将达到85至134太瓦时之间。这是一个相当可观的数字,甚至可能占到全球电量的一半左右。
还没有评论,来说两句吧...