人工智能面临的一个重大问题是计算机内存与处理能力之间的交互。当算法运行时,数据在这两个组件之间快速流动。然而,AI模型依赖大量数据,这会产生瓶颈。
普渡大学和佐治亚理工学院周一在《科学前沿》期刊发表的一项新研究,提出了一种使用脑启发算法构建AI模型计算机架构的新方法。研究人员表示,以这种方式创建算法可以降低AI模型相关的能耗。
"语言处理模型在过去四年中规模增长了5000倍,"普渡大学计算机工程教授、该研究的主要作者Kaushik Roy在声明中说。"这种惊人的快速扩张使得AI尽可能高效变得至关重要。这意味着从根本上重新思考计算机的设计方式。"
当今大多数计算机都基于1945年的一个理念——冯·诺伊曼架构,该架构将处理和内存分离。这就是速度放缓发生的地方。随着全球越来越多的人使用数据密集型AI模型,计算机处理和内存容量之间的区别可能会成为一个更严重的问题。
IBM的研究人员在今年早些时候的一篇文章中指出了这个问题。计算机工程师遇到的问题被称为"内存墙"。
突破内存墙
内存墙指的是内存和处理能力之间的差距。本质上,计算机内存在跟上处理速度方面存在困难。这并不是一个新问题。弗吉尼亚大学的两名研究人员早在1990年代就创造了这个术语。
但现在AI已经普及,内存墙问题正在消耗使AI模型工作的底层计算机的时间和能量。论文的研究人员认为,我们可以尝试一种整合内存和处理的新计算机架构。
受我们大脑功能启发,论文中提到的AI算法被称为脉冲神经网络。过去对这些算法的常见批评是它们可能缓慢且不准确。然而,一些计算机科学家认为,这些算法在过去几年中已经显示出显著改进。
研究人员建议AI模型应该利用与脉冲神经网络相关的一个概念,即内存计算。这个概念在AI领域仍然相对较新。
"内存计算通过将计算能力直接整合到内存系统中,为内存墙问题提供了一个有希望的解决方案,"作者在论文摘要中写道。
医疗设备、交通和无人机是研究人员认为如果计算机处理和内存整合到单一系统中可以得到改进的几个领域。
"AI是21世纪最具变革性的技术之一。然而,要将其从数据中心转移到现实世界,我们需要大幅降低其能源使用,"普渡大学合著者和研究员Tanvi Sharma在声明中说。
"通过减少数据传输和更高效的处理,AI可以适配到小型、经济实惠且电池续航更长的设备中,"Sharma说。
Q&A
Q1:什么是内存墙问题?
A:内存墙指的是内存和处理能力之间的差距。本质上,计算机内存在跟上处理速度方面存在困难。这个概念由弗吉尼亚大学的研究人员在1990年代提出,现在随着AI的普及,这个问题正在消耗使AI模型工作的底层计算机的时间和能量。
Q2:脉冲神经网络有什么特点?
A:脉冲神经网络是受大脑功能启发的AI算法。过去这些算法的常见问题是可能缓慢且不准确,但一些计算机科学家认为,这些算法在过去几年中已经显示出显著改进,可以作为解决内存墙问题的有效途径。
Q3:内存计算如何帮助降低AI能耗?
A:内存计算通过将计算能力直接整合到内存系统中,减少了数据在处理和内存之间的传输,从而提高效率。这种方法可以让AI适配到小型、经济实惠且电池续航更长的设备中,大幅降低AI模型的能源使用。