人工智能程序耗电量通常很大。最新研究展示如何利用简单的低功耗芯片来产生计算机视觉。
人工智能虽然取得了惊人的进步,但是要达到目标通常需要大量的数据和计算机功能。现在,一些AI研究人员致力于使技术尽可能高效。
研究人员表明,可以将强大的AI视觉算法压缩到一个简单的低功耗计算机芯片上,该芯片可以使用电池运行数月。该技巧可能有助于将更高级的AI功能(例如图像和语音识别)带入家用电器和可穿戴设备以及医疗配件和工业传感器。它还可以通过减少将任何内容发送到云的需求来帮助保持数据的私密性和安全性。
麻省理工学院的助理教授宋汉(Song Han)说:“这一结果令我们感到非常兴奋。” 韩说,尽管这项工作目前只是实验室实验,但它“可以迅速转移到现实世界中的设备上。”
微控制器是内置于数十亿种产品中的相对简单,低成本,低功耗的计算机芯片,包括汽车引擎,电动工具,电视遥控器和医疗植入物。
研究人员本质上设计了一种减少深度学习算法的方法,即大型神经网络程序,它们宽松地模仿了神经元在大脑中的连接和发射方式。在过去的十年中,深度学习推动了AI的巨大进步,这是当前AI繁荣的基石。
深度学习算法通常在专门的计算机芯片上运行,这些芯片划分出更有效地训练和运行网络所需的并行计算。训练称为GPT-3的语言模型,该模型能够在给出提示时生成令人信服的语言,这相当于355年的全速运行的尖端AI芯片的等效性。此类用途导致GPU的销售蓬勃发展,适合深度学习的芯片以及用于智能手机和其他小工具的AI专用芯片的数量不断增长。
新研究方法有两部分。首先,研究人员使用一种算法来探索可能的神经网络架构,寻找适合微控制器计算约束的算法。另一部分是用于运行网络的紧凑,高效内存的软件库。该库是根据网络架构设计的,以消除冗余并解决微控制器内存不足的问题。“我们要做的就像在大海捞针中找到针头,”韩说。
研究人员创建了一种计算机视觉算法,能够以70%的精度识别图像中的1,000种对象。以前最好的低功耗算法仅实现了约54%的精度。与现有方法相比,它还需要21%的内存并减少67%的延迟。该团队针对深度学习算法表现出了相似的性能,该算法可听音频供稿中的特定“唤醒词”。韩说,通过改进所使用的方法,应该有可能进一步改进。
“这的确令人印象深刻,”亚利桑那州立大学副教授Jae-sun Seo说,他致力于资源受限的机器学习。
Seo说:“商业应用可能包括智能眼镜,可连续运行目标检测的增强现实设备。以及具有设备内语音识别功能的边缘设备,而无需连接到云。”
麻省理工学院-IBM Watson AI研究小组的成员约翰·科恩说,一些IBM客户对该技术感兴趣。他说,一种明显的用途是用于预测工业机械问题的传感器。当前,这些传感器需要无线联网,以便可以在功能更强大的系统上远程完成计算。
另一个重要的应用可能是在医疗设备中。韩说,他已经开始与麻省理工学院的同事合作,使用机器学习来连续监测血压。