想象一下,在一张从未被拍过的照片或视频中,你的头可能出现在另一个人的身体上。你很可能是一个深度伪造的网络攻击的受害者——网络攻击者能够熟练地修改社交媒体平台上共享的图像和视频,欺骗人们相信他们看到的是真的。
随着这些攻击越来越复杂,需要更强的检测方法和更快的响应来应对这些威胁。这种类型的数字欺骗可能导致广泛的问题,包括个人隐私的破坏,例如盗用某人的肖像来销售产品,加剧国家之间的政治或宗教紧张关系,或在金融市场制造混乱。
最近,美国工程学院MU的I-Privacy实验室主任Dan Lin从国家科学基金会获得了近120万美元的奖金,用于设计一个人工智能计算机程序对伪造的在线照片、视频的实时检测。该项目的合作者、夏洛特北卡罗来纳大学计算机科学教授、图像处理专家范建平分享了这项资助。他们的目标是让人们更快地做出反应,防止这些虚假图像和视频在公共领域传播。
在计算机化大脑或人工智能的支持下,该程序只需要少量的深层次的假例子就可以建立它的知识库。然后,利用其自我学习和自我进化的能力,该程序将能够随着时间的推移检测不断发展的深度造假技术,从以前的操作中学习,做出更准确的检测,并防止在识别内容时出现错误。该项目计划用4年时间完成,并将包括一个移动应用程序,提醒智能手机用户在其下载的社交媒体平台上存在深度造假内容。
“我们希望探测器能够通过从其深层神经网络中提取先前的知识来进行自我学习,就像人脑一样,” Dan Lin说例如,当孩子们看到一张大象的照片,然后他们去动物园,他们可以很容易地把这张照片和动物联系起来。但是,这种分析对于机器来说是很难做到的。因此,我们希望能够让该程序通过关联其知识库中已存储的内容,对未知的深度伪造威胁进行有根据的猜测。”
在12岁那年,Dan Lin在一个夏令营帮助推广了一个计算机编程竞赛,从此她对计算机技术方面的兴趣开始增长。当时,她没有电脑,就让父母给她买一台。几年后,当她在新加坡完成博士学位时,她的导师建议她去拜访他在美国的合作者。在美国进行了多年与国家安全相关的研究之后,Dan Lin现在致力于寻找在互联网上保护人们隐私的方法。