近日,AI芯片龙头英伟达的创始人兼CEO黄仁勋表示,AI的未来发展与状态和储能紧密相连。他强调:“不应仅仅关注计算力,而是需要更全面地考虑能源消耗问题。AI的尽头是光伏和储能。我们不能只想着算力,如果只考虑计算机,我们需要烧掉14个地球的能源。”
同时,近期OpenAl的创始人山姆·奥特曼也提出了类似的看法。他认为:“未来AI技术的发展将高度依赖于能源,特别是光伏和储能技术的进步。未来AI的技术取决于能源,我们需要更多的光伏和储能。”
ChatGPT日耗电超50万度
在OpenAI训练的AI聊天机器人ChatGPT大火之后,谷歌、Meta等科技巨头们加大了在生成式人工智能研发和应用领域的投入,这也给诸多领域带来了新的发展机遇,尤其是提供算力支持的芯片,英伟达H100、A100等供不应求,大幅推升了他们的营收和利润。
不过,生成式人工智能研发和应用的热潮,也有不利的一面,例如对电力的消耗。据《纽约客》杂志报道,ChatGPT每天需要处理约2亿次请求,日耗电量超过了50万千瓦时。报道中指出,根据2022年的数据,美国家庭的日均用电量是29千瓦时。50万千瓦时就已能满足17241个美国家庭一天的用电需求,是47个美国家庭一年的用电量。
如果将ChatGPT等生成式人工智能技术整合到热门的应用中,电力需求就将更大。根据发表在《焦耳》杂志上的一项研究表明,人工智能对环境的影响可能比之前认为的要大。研究发现,人工智能每年最终消耗的能源与荷兰、瑞典等国家一样大,甚至更多,可能会破坏全球减少碳排放的努力。
这篇论文的作者——阿姆斯特丹自由大学商业与经济学院的博士候选人德弗里斯(Alex de Vries)表示,基于技术的发展速度,这可能在短短几年内实现。
德弗里斯在他的研究中解释道,像ChatGPT这样的大型语言模型(LLM)需要大量的数据集来训练人工智能。他称,“如果你要花费大量资源,建立这些真正的大型模型,并尝试运营一段时间,那将是潜在的巨大能源浪费。”
AI模型经过训练阶段后,会过渡到推理阶段,然后根据新的输入生成信息。而推理阶段消耗的能源似乎更多。
研究公司SemiAnalysis表示,OpenAI公司需要3617台英伟达的HGX A100服务器,总共28936个图形处理单元(GPU)来支持ChatGPT,这意味着每天的能源需求就要达到564兆瓦时,这要比训练阶段的能源需求高得多。
德弗里斯还指出,谷歌报告显示,从2019年到2021年,其与AI相关的能源消耗中有60%来自所谓的生成推理阶段。
过去的工作常常关注的是AI训练所消耗的能量,但德弗里斯提醒道,需要有更多的工作来考虑AI的整个生命周期。
该研究论文指出,随着AI产品的广泛使用以及被更多公司采用,对AI芯片的需求正在上升。
英伟达生产的GPU芯片作为人工智能领域的命脉,该公司在2023年第二季度的收入为135亿美元,其数据中心业务较上一季度增长了141%,这一点足以证明人工智能产品需求的迅速增长。
德弗里斯告诉媒体:“考虑到未来几年的预期产量,到2027年,新制造的AI设备的用电量将与荷兰一样多,这也与瑞典、阿根廷等国的用电量处于同一范围。”
德弗里斯还承认:“最坏的情况就是,仅谷歌一家公司的AI就可以消耗与爱尔兰等国家一样多的电力。”
德弗里斯在论文中设想,如果将生成式人工智能集成到谷歌的每一个搜索中,那么届时谷歌就会大幅增加对电力的需求。
SemiAnalysis估计,在每个谷歌搜索中实现类似ChatGPT的AI,将需要51.28万个英伟达A100 HGX服务器,总计410.26万个GPU,每台服务器的电力需求为6.5千瓦,这将相当于每天80吉瓦时的电力消耗和每年29.2太瓦时的电力消耗。
另一家研究机构New Street Research也得出了类似的估计,认为谷歌将需要大约40万台服务器,这将导致每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。
不过,《纽约客》杂志在报道中也提到,由于在推进AI研发及应用的科技巨头们,并未披露电力消耗方面的数据,因而计算AI总的耗电量并不容易。亚历克斯·德弗里斯也是基于英伟达公开的数据,给出相关的预期的。
但无论AI领域的电力需求是否容易计算,这一领域的电力消耗在大幅增加都是不争的事实。而随着AI的发展,对电力的需求预计还将持续增加。
马斯克:AI缺芯之后是缺电
今年2月底,在“博世互联世界2024”大会上,马斯克最新采访表示:芯片短缺的情况可能已经过去,但AI和电动汽车正在以如此迅猛的速度扩张,明年全球将面临电力和变压器供应紧张的问题。
免责声明:本网站部 分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请立即联系管理
员,我们会予以更改或删除相关文章,保证您的权利。对使用本网站信息和服务所引起的后果,本网站不作任何承诺。