AI的运转需要全球10%用电量,还威胁气候变化?
目前,该行业对人工智能的巨大能源需求发出了一些可怕的警告,称其为气候变化的下一大威胁。然而,新的芯片技术甚至人工智能本身可能有助于控制人工智能的功耗。
在最近旧金山的一次会议上,大型半导体供应商应用材料公司的首席执行官加里·迪克森做出了一个大胆的预测。他警告说,由于缺乏材料、芯片制造和设计方面的重大创新,到2025年,数据中心的人工智能可能会占到全球电力消耗的十分之一。
如今,全球数百万数据中心消耗的电力不到2%,这一统计数据包括在其庞大的服务器阵列上处理的各种工作负载。应用材料公司估计,运行人工智能的服务器目前仅占全球电力消耗的0.1%。
其他科技公司的高管也发出了警告。华为的安德斯·安德雷认为,到2025年,数据中心最终将消耗全球十分之一的电力,但他的估计涵盖了数据中心的所有用途,而不仅仅是人工智能。
落基山研究所的特别顾问Jonathan Koomey相对乐观。他预测,尽管人工智能相关活动呈爆炸式增长,但数据中心的能耗在未来几年将保持相对稳定。
这些截然不同的预测凸显了人工智能对大规模计算的未来影响的不确定性,以及对能源需求的最终影响。
毫无疑问,人工智能消耗大量电能。像深度学习模型这样的训练和运行需要处理大量数据,从而占用内存和处理器。人工智能研究机构OpenAI的一项研究显示,驱动大型人工智能模型所需的计算能力每三个半月翻一番。
应用材料公司自己也承认,其预测是最坏的情况,旨在强调软件和硬件缺乏新思维可能导致的情况。该公司企业战略和市场情报主管Sundeep Bajikar表示,该公司认为用于训练人工智能模型的信息组合会随着时间的推移而变化,视频和其他图像相对于文本和音频信息的比例会上升。视觉数据的计算量较大,因此需要消耗更多的能量。
随着自动驾驶汽车和嵌入其他智能设备的传感器等设备的兴起,人工智能模型也将处理更多的信息。超高速5G无线连接的普及将使数据中心之间的数据传输更加容易。
Baguikal指出,这些趋势和其他趋势突出表明,该行业迫切需要将材料和制造技术的创新带入人工智能时代。一些研究人员认为,人工智能的巨大功耗甚至可能成为一个主要的环境问题:麻省大学阿姆赫斯特分校的一个研究小组最近的一项研究表明,培训几种流行的大规模人工智能模型将导致排放量几乎是美国汽车使用寿命期间平均排放量的五倍。
然而,悲观的预测忽略了几个可能限制人工智能功耗的重要发展。其中之一是由Facebook和亚马逊等公司开创的“超大规模”数据中心的兴起。
该数据中心使用大量针对特定任务定制的基本服务器阵列。这些机器比传统数据中心的服务器更节能,因为后者需要处理更广泛的功能。当前向超大型数据中心的过渡,加上冷却和其他技术的进步,是过去几年中运行效率的提高基本抵消了新数据中心能耗的一个重要原因。
新的微芯片也会有所帮助。《应用材料》的预测假设人工智能的工作量将继续在现有硬件上运行,并且这些硬件的效率将在未来几年逐渐提高。然而,许多初创企业以及像英特尔和AMD这样的大公司都在开发利用光子学等技术的半导体,并大大提高了驱动神经网络和其他人工智能工具的能效。
Kumi说,危言耸听的预测也忽略了一点:对于某些类型的人工智能任务,如模式识别,模型提供粗略的输出结果就足够了。这意味着能量不需要将计算结果扩展到数百位小数。
具有讽刺意味的是,限制人工智能功耗的最大贡献可能实际上是人工智能本身。谷歌已经在使用2014年收购的DeepMind开发的技术来更有效地冷却其数据中心。人工智能通过向人工操作员提出建议,帮助公司降低了40%的冷却成本。现在它可以独立有效地运行数据中心的冷却系统。
人工智能还将用于优化数据中心运营的其他方面。此外,就像谷歌在冷却方面的成就一样,这将有利于各种工作负载。这并不意味着数据中心不会因为对人工智能魔法的需求增加而消耗更多的能量,但这是目前很难做出预测的另一个原因。
上一篇:露天烧烤污染知多少?
下一篇:追忆核物理先驱王普