人工智能研究机构OpenAI的一项研究表明,驱动大型人工智能模型所需的计算能力已经每三个半月翻一番。
AppliedMaterials自己也承认,它的预测是一种醉糟糕的情况,意在突出缺乏软硬件新思维可能会造成的状况。
该公司的企业战略和市场情报主管桑迪普·巴吉卡尔(SundeepBajikar)表示,公司假定,随着时间的推移,被用来训练人工智能模型的信息组合将会发生改变,相对于文本和音频信息,视频和其他图像的占比将会攀升。
视觉数据的计算量更大,因此需要消耗更多的能量。
随着自动驾驶汽车和嵌入其他智能设备的传感器等设备的兴起,人工智能模型还将要处理有更多的信息。
超高速5G无线连接的普及,将使得数据更容易在数据中心之间传输。
巴吉卡尔指出,这些趋势和其他的趋势突显出,业界迫切需要为人工智能时代带来材料和制造技术方面的创新。
一些研究人员认为
人工智能极大的电力消耗甚至可能变成一个重大的环境问题:马萨诸塞大学阿姆赫斯特分校的研究小组醉近发表的一项研究显示,训练几款受欢迎的大型人工智能车型,所引发的废气排放量几乎是美国汽车使用寿命期内的平均排放量的五倍。
但悲观的预测忽略了几个可能限制人工智能电力消耗的重要进展。
其中之一是由Facebook和亚马逊等公司开创的“超大规模”数据中心的兴起。
这种数据中心使用大量专门为特定任务定制的基本服务器阵列。
这些机器比传统数据中心的服务器更加节能,因为后者需要处理更广泛的功能。
当前向超大规模数据中心的过渡,再加上冷却和其他技术的进步,是过去几年新数据中心的能源消耗基本上被运转效率提高所抵消的一个重要原因。
新型微芯片也会有所帮助。
AppliedMaterials的预测假定,人工智能的工作负载将继续在现有硬件上运行,这些硬件的效率在未来几年将会逐步提高。
但许多的初创企业以及英特尔、AMD等大公司