来自伦敦帝国理工学院、剑桥大学和Google DeepMind等机构的人工智能研究人员正在寻找来自动物的灵感,以提高强化学习系统的性能。在CellPress Reviews上发表的一篇题为“Artificial Intelligence and the Common Sense of Animals”的论文中,研究人员认为,动物认知为强化学习提供了有用的评估基准和方法,它还可以为任务和环境的工程设计提供信息。
人工智能的研究人员和工程师们在设计算法时,一直在从生物神经网络寻找灵感,利用行为科学和神经科学的原理来指导算法的结构。然而,人工智能研究人员从神经科学/行为科学领域获得的大多数线索都是基于人类的。人工智能研究人员还没有从动物模型中获得很多灵感,动物认知是一种尚未开发的资源,有可能在强化学习领域取得重大突破。
深度强化学习系统是通过一个试错的过程来训练的,当强化学习代理接近完成预期目标时,奖励会加强。这与教导动物用食物作为奖励来完成一项期望的任务非常相似。生物学家和动物认知专家进行了许多实验,评估了各种不同动物的认知能力,包括狗、熊、松鼠、猪、乌鸦、海豚、猫、老鼠、大象和章鱼。许多动物展现出令人印象深刻的智力能力,一些动物,如大象和海豚甚至可能有一个心理理论。
看看有关动物认知的大量研究可能会启发人工智能研究人员从不同角度考虑问题。随着深度强化学习变得越来越强大和复杂,专门从事该领域的人工智能研究人员正在寻找新的方法来测试强化学习代理的认知能力。在这篇研究论文中,研究团队使用了灵长类动物和鸟类作为实验类型,提到他们的目的是设计能够完成类似任务的系统,赋予人工智能某种“常识”。。”
人工智能研究人员认为,常识并不是人类独有的特征,它取决于对物理世界基本属性的理解,比如物体如何占据一个点和空间,对物体运动有什么限制,以及对因果关系的识别。
为了使强化学习系统具有这些特性,研究人员认为,他们需要创建任务,这些任务与正确的体系结构相匹配时,将创建能够将所学原则转移到其他任务的代理。
研究团队继续解释说,虽然一些现代的RL代理可以学习解决多个任务,其中一些任务需要基本的学习原则的转移,但还不清楚RL 代理是否能够在“常识”中学习抽象的概念。如果有一个代理有可能学习这样一个概念,那么他们需要进行测试,以确定RL代理是否理解容器的概念。
DeepMind尤其乐于参与开发和测试强化学习代理的新的和不同的方法。最近,在10月早些时候举行的斯坦福会议上,DeepMind的神经科学研究主管Matthew Botvinick敦促机器学习研究人员和工程师在其他科学领域进行更多的合作。