大脑的记忆能力启发了AI专家,使神经网络不再那么“健忘”

大脑的记忆能力启发了AI专家,使神经网络不再那么“健忘”_人工智能_智能芯片


马萨诸塞大学阿姆赫斯特分校和贝勒医学院的人工智能专家报告称,他们从一种被称为“重放”的人脑记忆机制中获得灵感,从而成功解决了他们提高人工智能能力的一个长期存在的重大障碍。


第一作者和博士后研究员Gido van de Ven和首席研究员安德烈亚斯Tolias贝勒,与哈Siegelmann在马萨诸塞大学阿默斯特,自然通讯中写到,他们已经开发出一种新方法来保护神经网络学习。


Siegelmann及其同事指出,深度神经网络是最近人工智能发展的主要驱动因素,但遗忘阻碍了进展。


他们说:“一种解决方案是存储以前遇到的例子,并在学习新东西时重温它们。尽管这样的‘重放’或‘彩排’可以解决灾难性遗忘,但对所有以前学过的任务进行不断的再训练效率非常低,而且需要存储的数据量会很快变得无法管理。”


与人工智能神经网络不同,人类能够在一生中不断积累信息,建立在早期经验的基础上。他们解释说,大脑中保护记忆不被遗忘的一个重要机制是再现那些记忆的神经元活动模式。


Siegelmann说,该团队的主要见解是“认识到大脑中的回放并不能存储数据。”相反,“大脑在一个更高、更抽象的层次上产生记忆的表征,而不需要产生详细的记忆。”受此启发,她和同事们创造了一个类似人工大脑的回放,其中没有存储任何数据。相反,就像大脑一样,这个网络产生了它以前所见的高水平的表征。


“抽象生成大脑回放”被证明是非常有效的,并且该团队表明,在学习新记忆的同时,回放一些生成的记忆就足以记住旧的记忆。他们指出,生成式重复不仅防止灾难性遗忘,而且为系统学习提供了一个新的、更流线型的路径,它允许系统从一种情况到另一种情况的泛化学习。


例如,“如果我们的具有生成回放功能的网络首先学会区分猫和狗,然后学会区分熊和狐狸,它也会在没有经过专门训练的情况下区分猫和狐狸。”值得注意的是,系统学习的越多,在学习新任务时就会变得越好。”van de Ven说。


他和他的同事们写道:“我们提出了一种新的、大脑激发的重播方式,在这种方式中,内部或隐藏的再现被重播,而这些再现是由网络自身的、情境调制的反馈连接产生的。”我们的方法在挑战连续学习基准上取得了最先进的性能,而无需存储数据,它为大脑中的抽象水平重放提供了一个新的模型。”


Van de Ven说:“我们的方法对重放可能促进大脑记忆巩固的方式做出了几个有趣的预测。我们已经在进行一项实验来验证其中一些预测。”


1
13
0
82

相关资讯

  1. 1、谷歌将与电信公司LGU+强强联手,成立韩国首个数据中心854
  2. 2、连接器塑料发展的最新趋势1111
  3. 3、萨里大学的研究人员发现了储能技术的“突破”充电时间缩短至10分钟2359
  4. 4、无反相机徕卡SL2谍照曝光或使用Q2同款传感器4045
  5. 5、萨瓦迪卡——华为云数据中心在泰国正式开服!2687
  6. 6、郭明錤:苹果明年将迎三款5GiPhone,主板面积或最大增加15%2282
  7. 7、博拉科技获数千万元A轮融资,主要用于工业互联网研发691
  8. 8、金士顿推企业级数据中心固态硬盘DC450R,提供可信赖的高性能2608
  9. 9、浙江智昌机器人完成2亿元B轮融资,打造工业4.0智能引擎3463
  10. 10、2018年第四季度全球服务器出货量同比增长5.0%871
全部评论(0)
我也有话说
0
收藏
点赞
顶部