半岛彩票10月10日这篇论文的作者、阿姆斯特丹自由大学商业与经济学院的博士候选人德弗里斯(Alex de Vries)表示,基于技术的发展速度,这可能在短短几年内实现。
德弗里斯在他的研究中解释道,像ChatGPT这样的大型语言模型(LLM)需要大量的数据集来训练人工智能。他称,“如果你要花费大量资源,建立这些真正的大型模型,并尝试运营一段时间,那将是潜在的巨大能源浪费。”
人工智能模型经过训练阶段后,会过渡到推理阶段,然后根据新的输入生成信息。而推理阶段消耗的能源似乎更多。
研究公司SemiAnalysis表示,OpenAI公司需要3617台英伟达的HGX A100服务器,总共28936个图形处理单元(GPU)来支持ChatGPT,这意味着每天的能源需求就要达到564兆瓦时,这要比训练阶段的能源需求高得多。
德弗里斯还指出,谷歌报告显示,从2019年到2021年,其与人工智能相关的能源消耗中有60%来自所谓的生成推理阶段。
过去的工作常常关注的是人工智能训练所消耗的能量,但德弗里斯提醒道,需要有更多的工作来考虑人工智能的整个生命周期。
该研究论文指出,随着人工智能产品的广泛使用以及被更多公司采用,对人工智能芯片的需求正在上升。
英伟达生产的GPU芯片作为人工智能领域的命脉,该公司在2023年第二季度的收入为135亿美元,其数据中心业务较上一季度增长率了141%,这一点足以证明人工智能产品需求的迅速增长。
德弗里斯告诉媒体,“考虑到未来几年的预期产量,到2027年,新制造的人工智能设备的用电量将与荷兰一样多,这也与瑞典、阿根廷等国的用电量处于同一范围。”
德弗里斯还承认,“最坏的情况就是,仅谷歌一家公司的人工智能就可以消耗与爱尔兰等国家一样多的电力。”
德弗里斯在论文中设想,如果将生成式人工智能集成到谷歌的每一个搜索中,那么届时谷歌就会大幅增加对电力的需求。
SemiAnalysis估计,在每个谷歌搜索中实现类似ChatGPT的AI,将需要51.28万个英伟达A100 HGX服务器,总计410.26万个GPU,每台服务器的电力需求为6.5千瓦,这将相当于每天80吉瓦时的电力消耗和每年29.2太瓦时的电力消耗。
另一家研究机构New Street Research也得出了类似的估计,认为谷歌将需要大约40万台服务器,这将导致每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。
AI数据中心也要消耗大量的水来进行系统冷却。不过许多大型科技公司都没有披露AI训练和运营过程中的能耗或用水量,德弗里斯的这项研究也未涉及冷却所需的能源。
正在大力开发人工智能的微软在其最新的环境报告中透露,2022年公司用水量同比去年激增了34%,达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。外部研究人员认为这与微软的人工智能研究有关。
谷歌发布的2023年环境报告同样显示,其2022年消耗的水量高达212亿升,其中有约196亿升的水用于数据中心。
种种数据意味着全球应对气候变化的努力正在大倒退。根据国际能源署(IEA)的数据,每年能源生产就占全球温室气体排放量的四分之三以上。
研究人工智能的学者Kate Crawford教授评价道,“所以我们线世纪一个巨大的采掘业。”