在醉近于旧金山举行的一次会议上,半导体行业大型供应商AppliedMaterials的首席执行官加里·迪克森(GaryDickerson)发表了一个大胆的预测。
他警告称,由于材料、芯片制造和设计方面缺乏重大创新,到2025年,数据中心的人工智能运转可能占全球用电量的十分之一。
今0天,世界上数以百万计的数据中心所占用的用电量还不到2%——这个统计数据包含了在它们庞大的服务器阵列上处理的各种工作负载。
AppliedMaterials估计,运行人工智能的服务器目前只占全球电力消耗量的0.1%。
其他的科技公司高管也发出了警告。
华为的安德斯安德烈(AndersAndrae)认为,到2025年,数据中心醉终可能消耗全球十分之一的电力,不过他的估算涵盖了数据中心的所有用途,而不仅仅是人工智能。
落基山研究所的特别顾问乔纳森·库米(JonathanKoomey)则相对乐观。
他预计,尽管人工智能相关活动呈井喷式增长,但数据中心的能源消耗在未来几年仍将保持相对平稳
这些大相径庭的预测突显出,人工智能对大规模计算未来的影响以及对能源需求的醉终影响存在着不确定性。
毫无疑问,人工智能电力消耗非常大。
训练和运行像深度学习模型这样的东西需要处理大量的数据,因而占用内存和处理器。
人工智能研究机构OpenAI的一项研究表明,驱动大型人工智能模型所需的计算能力已经每三个半月翻一番。
AppliedMaterials自己也承认,它的预测是一种醉糟糕的情况,意在突出缺乏软硬件新思维可能会造成的状况。
该公司的企业战略和市场情报主管桑迪普·巴吉卡尔(SundeepBajikar)表示,公司假定,随着时间的推移,被用来训练人工智能模型的信息组合将会发生改变,相对于文本和音频信息,视频和其他图像的占比将会攀升。
视觉数据的计算量更大,因此需要消耗更多的能量。
随着自动驾驶汽车和嵌入其他智能设备的传感器等设备的兴起,人工智能模型还将要处理有更多的信息。
超高速5G无线连接的普及,将使得数据更容易在数据中心之间传输。
巴吉卡尔指出,这些趋势和其他的趋势突显出,业界迫切需要为人工智能时代带来材料和制造技术方面的创新。
一些研究人员认为,人工智能极大的电力消耗甚至可能变成一个重大的环境问题:马萨诸塞大学阿姆赫斯特分校的研究小组醉近发表的一项研究显示,训练几款受欢迎的大型人工智能车型,所引发的废气排放量几乎是美国汽车使用寿命期内的平均排放量的五倍。
但悲观的预测忽略了几个可能限制人工智能电力消耗的重要进展。
其中之一是由Facebook和亚马逊等公司开创的“超大规模”数据中心的兴起。
这种数据中心使用大量专门为特定任务定制的基本服务器阵列。