MCUNet在现成的微控制器上嵌入了深度学习神经网络,以减少内存的使用。
人工智能是一项正在定期进行大量研究的技术。世界各地的研究人员都在努力使基于AI的应用更快,更好。多年来,人类遇到了人工智能导致的难题。为了缓解日常难题,麻省理工学院(MIT)和国立台湾大学的研究人员已合作,将深层神经网络嵌入微控制器中。这意味着可以在智能可穿戴设备和家用电器中实现微芯片形式的AI,从而导致物联网(设备)与AI之间的高级融合。题为“ MCUNet:物联网设备上的微型深度学习”的研究论文定于12月在神经信息处理系统大会上发表。研究人员希望通过这种方法在IoT设备的传感器执行数据分析,从而扩大AI应用程序的范围。
了解MCUnet
研究人员创建的设备称为MCUnet。它是一种神经网络架构,可在现成的微控制器上实现ImageNet规模的深度学习。ImageNet是一个图像数据库,每个节点由数千个图像描绘。在该模型中,联合优化了深度学习设计和推理库,以消除传统微控制器的上有限内存所面临的困难,并减少了内存使用量。
TinyNAS是一种深度学习设计,具有两阶段神经体系结构搜索(NAS)方法,可处理各种微控制器上微小且多样化的内存约束。研究指出,TinyNAS首先通过自动优化搜索空间以适应微小的资源限制,然后在优化的空间中进行神经体系结构搜索来解决该问题。TinyNAS通过缩放输入分辨率和模型宽度来生成不同的搜索空间,然后收集搜索空间内满意网络的计算FLOP分布以评估其优先级。在内存约束下较高的FLOP会产生更好的深度学习模型。实验表明,优化的空间可以提高NAS搜索模型的准确性。
研究人员指出,TinyEngine是一种内存高效的推理库,它消除了不必要的内存占用,因此搜索空间得到了扩展,以适应具有更高准确性和更大的深度的学习模型。由于推理库需要额外的运行内存,因此TinyEngine会编译基于代码生成器的方法,从而消除内存占用率并适应内存调度,而不是逐层优化以更好地制定策略以减少内存使用。最后,它执行专门的计算优化,包括针对不同层的循环切片,循环展开和操作融合,从而加快了推理速度。
研究人员观察到,与传统的深度学习相比,MCUNet通过系统算法协同设计更好地利用了资源。研究人员得出的结论是,现有模型在脱机微控制器上达到了纪录的70.7%的精度。