日前,麻省理工学院(MIT)的两位研究人员发现了一种方法,可以在不丧失任何计算能力的前提下,构造出只有其十分之一大小的人工智能。这一突破可能会让其他研究人员制造出更小、更快、和现有人工智能一样聪明的人工智能。当人们谈论人工智能时,他们主要指的是一类叫做人工神经网络的计算机程序。这些程序的设计是为了模仿我们自己的大脑是如何运作的,使他们非常聪明和创造性。它们可以识别照片的内容,在抽象的战略游戏中击败人类,甚至可以自己驾驶汽车。
这些程序的核心是由“神经元”组成的,就像我们的大脑一样。这些神经元与随机数目的其他神经元相连。每个单独的神经元只能执行少量的基本计算,但如果它们全部连接在一起,网络的计算能力基本上是无限的。
对于一个实体神经网络来说,最重要的是神经元之间的连接。良好的人际关系造就良好的人际关系,但糟糕的人际关系只会给你留下垃圾。建立这些联系的过程被称为训练,这与我们学习新东西时大脑所做的类似。
唯一的区别?我们的大脑会定期修剪那些不再有用的旧连接,这个过程被称为“修剪”。“我们一直在修剪旧的或废弃的连接,但大多数人工神经网络只修剪一次,就在训练结束时。”
因此,麻省理工学院的研究人员决定尝试一些新方法:在训练期间定期修剪网络。他们发现,这种方法生成的神经网络与使用标准方法训练的网络一样好,但这些经过修剪的网络要小90%左右,而且效率要高得多。他们也需要更少的训练时间和更准确。在不久的将来,研究人员可能会使用这种剪枝方法来设计更好的神经网络。这些网络功能强大,重量轻,因此人们可以在更小的电子设备上使用它们。随着时间的推移,我们可以让神经网络在几乎所有地方运行。