最好看的新闻,最实用的信息
11月25日 °C-°C
纽币 : 人民币=4.2252

日耗电50万度!GPT成“吃电狂魔” ,马斯克“电荒”预言成真?(组图)

2024-03-12 来源: 华尔街见闻 原文链接 评论0条

最近一段时间,公众开始注意到,当前蓬勃发展的生成式AI技术需要耗费大量的电力。

据《纽约客》当地时间9日报道,荷兰国家银行数据专家Alex de Vries估计,OpenAI旗下聊天机器人ChatGPT每天消耗超过50万千瓦时的电力,用于处理约2亿个用户请求,相当于美国家庭每天用电量的1.7万多倍。

谷歌的搜索引擎同样需要大量的电力。

据de Vries估计,若谷歌在每次搜索中都使用AIGC(生成式人工智能技术),其年耗电量将增至约290亿千瓦时,这一数字超过了许多国家的一年用电量,包括肯尼亚、危地马拉和克罗地亚。

而随着AI芯片的不断更新换代,其所需的电力也越来越多。

比如,据戴尔公司首席运营官Jeff Clarke近日透露,英伟达将于2025年推出载有“Blackwell”架构的B200产品,功耗或将达到1000W,较H100增加40%以上。

媒体的曝光在一定程度上呼应了一些AI大佬近的担忧。

日耗电50万度!GPT成“吃电狂魔” ,马斯克“电荒”预言成真?(组图) - 1AI大佬集体发声:太缺电了!

前不久马斯克在接受媒体采访时预言,AI行业经历将在明年迎来电力短缺,届时将“没有足够的电力来运行所有的芯片”。

很容易预测,接下来短缺的会是降压变压器。

你得给这些芯片供电。如果你的电力供应输出是100到300千伏,而它必须一路降压到0.6伏,这是一个很大的降压过程。

OpenAI创始人Sam Altman在世界经济论坛上也表示:

我们需要的能源确实比我们之前想象的要多得多。

随着生成式AI技术的快速蔓延,芯片对电力的需求大幅飙升。相关数据显示,十年前全球数据中心市场的耗电量为100亿瓦,而如今1000亿瓦的水平已十分常见。

另外,根据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增到10%。

按照当前的趋势,de Vries预计,到2027年整个AI行业每年将消耗85-134太瓦时(1太瓦时=10亿千瓦时)的电力。

de Vries表示,他对于人们在面对大量机器学习的同时,人类学习的缺失感到失望。

在我看来,从政策角度讲,短期到中期内,唯一现实的措施是要求企业披露(用电数据)。

加密货币领域耗费了相当长的时间才达到这一点,而人工智能没有能更早做到这一点,让我感到失望。

根据de Vries此前编制的比特币能耗指数,比特币挖矿如今每年消耗1450亿千瓦时的电力,这一数字比整个荷兰的年用电量还要多,发电导致的二氧化碳排放量达8100万吨,超过了如摩洛哥等国的年排放总量。

日耗电50万度!GPT成“吃电狂魔” ,马斯克“电荒”预言成真?(组图) - 2能源赛道迎来新一轮机会?

有策略师分析表示,AI技术发展利好能源资产:

越来越多的人开始意识到,大型人工智能服务器群将需要大量能源,这正在提高一些投资者的兴趣,开始将投资范围扩大至电力、油气在内的相关能源领域,核能也开始受到关注。

Altman也发表了类似观点:

未来AI的技术取决于能源,我们需要更多的光伏和储能。

我们需要的是核聚变,或者是大规模的、成本极低的太阳能加储能系统,规模之大前所未有。

挑战同样存在!

以美国为例,清洁能源、AI、数据中心、电动汽车、挖矿等多种产业的增长,让原本陷入停滞的美国电力需求再度“起飞”。但即使被誉为世界上“最大的机器”,美国电网也似乎无法应对这突如其来的变化。

有分析师指出,美国70%的电网接入和输配电设施已老化,某些地区电网传输线路不足。因此,美国电网需要大规模升级,如果不采取行动,到2030年美国将面临一道难以逾越的国内供应缺口。


关键词: AI技术电力耗费
今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(0)
暂无评论


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们

分享新闻电话: (02) 8999 8797

联系邮箱: [email protected] 商业合作: [email protected]网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:[email protected]