据外媒报道, 英伟达(Nvidia)公司宣布其在人工智能(AI)研究中取得突破,使得研发人员可以使用模型创建完全人工合成的、交互式3D环境 ,此类模型都在真实世界视频中受过训练。该技术可为游戏、汽车、建筑、机器人或虚拟现实等快速创建虚拟世界。
英伟达研究人员利用神经网络,实时创建合成3D环境。与现在需要为虚拟世界中每个对象单独建模的方法相比,英伟达的方案更便宜、所需时间更短。
此次研究产生了一个简单的驾驶游戏,允许参与者在城市场景中进行导航,场景中的所有内容都使用神经网络,以交互式方式呈现,神经网络将传统图形引擎生成的3D世界的草图转换成视频。该神经网络已经学会模拟真实世界的状况,包括照明、材料和动态表现。
负责这一项目的英伟达Applied Deep Learning Research副总裁Bryan Catanzaro表示:“在25年来,英伟达一直在发明生成交互式图形的新方法,而这是我们第一次通过神经网络实现这一目标。神经网络,特别是生成模型,将改变图形的创建方式。这可以帮助开发者以更低的成本来创建新场景。”
由于虚拟场景完全由人工合成而生成,因此可以轻松编辑、删除或是添加对象。研究人员表示,英伟达的Tensor Core图形处理器(GPU)使该演示成为可能。神经网络的工作原理是首先对场景进行高级描述,例如描述对象所处位置及其一般特征,如图像的特定部分是否包括汽车或建筑物,或者物体边缘的位置,然后神经网络会根据其在真实世界视频中学到的知识丰富详细信息。