随着面部识别技术在世界范围内的广泛应用,人们越来越关注这项技术在不同种族间的表现不平衡。
在9月29日发表在《IEEE Transactions on Biometrics,Behavior,and Identity Science》杂志上的一项研究中,德克萨斯大学达拉斯行为与脑科学学院(BBS)的研究人员概述了导致这些面部识别准确性缺陷的潜在因素,并为随着技术的进步评估算法提供了指南。
艾莉丝·奥图尔博士是该研究的资深作者,她把这项研究描述为“深刻而不令人满意”,因为它阐明了挑战的规模。
她说:“每个人都在寻找一个简单的解决方案,但事实上,我们概述了这些可能发生偏见的不同方式,而这些方式都不是相互排斥的,这使得这篇文章成为一篇警示性的文章。如果您试图修复一个算法,请注意发生了多少不同的情况。”
在美国国家标准与技术研究所(NIST)去年进行的一项研究中,这家政府机构发现,大多数面部识别算法比白人更容易误认少数种族,亚洲人、黑人和美洲土著人尤其面临危险。
根据他们的研究结果,达拉斯大学的科学家们得出结论,虽然在面部识别算法中,种族偏见并没有一个一刀切的解决方案,但是有一些特定的方法可以提高这项技术的性能。
该研究的主要作者、心理科学博士生杰奎琳•卡瓦佐斯将导致偏见的因素分为两类:数据驱动型和操作性定义型。前者影响算法本身的性能,后者则源于用户。
卡瓦佐斯说:“数据驱动因素集中在最常见的理论问题上,即图像训练库本身就是倾斜的。”使用的图像是否代表群体?不同种族的训练图像质量是否相同?种族或种族之间的运算法则有什么不同吗?
奥图尔补充道:“我们关于种族偏见的形象困难的讨论是一个相对较新的话题。我们发现,随着图像质量的降低,成对图像变得更加难以区分,种族偏见也变得更加明显。以前从未出现过。”
卡瓦佐斯解释说,操作偏差的引入取决于匹配和非匹配决策之间的阈值设置位置,以及选择何种类型的成对图像。
卡瓦佐斯说:“我们的论文证实了先前的研究成果:在什么地方设定相同身份与不同身份的标准会影响错误率,有时相同的阈值会给不同种族带来不同的错误率。”其次,你需要确保当你测试一个算法时,不同身份的成对图像应该总是在人口统计学上匹配;这保证了我们识别的准确性只基于身份。研究人员向参与者展示了两张不同的人的图像,这些人的人口统计学特征是相同的种族,相同的性别等等。如果算法不是同时以类似的方式呈现,算法性能可能会比实际情况更好,因为机器的任务更简单。”
虽然这项研究概述了在使用面部识别算法时应该如何评估种族偏见,但研究人员强调,这个问题不存在简单的解决方案。
“这篇论文的一个新颖之处在于它如何将所有这些因素结合在一起,”奥图尔说早期的工作集中在个别问题上。但你必须仔细研究它们才能知道使用这些算法的最佳方法。”
O'Toole相信他们的研究可以帮助用户理解哪些算法应该显示偏差,以及如何潜在地校正这种偏差。
“例如,你可以用各种方法来衡量一个算法的性能。一种度量可能表明算法有种族偏见,而另一种可能没有。此外,该算法可能会有偏差,在某种程度上,你没有明确衡量,”奥图尔说例如,有一项措施可能直接表明该算法是否可以诬告无辜者。它的目的可能是确定两幅图像中的人物在多大程度上必须出现在机器上,以表明他们是同一个人。另一个衡量标准可能集中在算法做出多少正确的标识上。这些衡量标准采用相同的算法,但它们很容易分离,在一种情况下指向偏差,在另一种情况下指向公平绩效。”
奥图尔说,她所在领域的研究人员仍在反对关于面部识别偏差的神话。一个是偏见是机器特有的问题。
她说:“把机器扔出窗外并不能使整个过程公平;人类和算法一样都有同样的挣扎。”
另一个挑战是要克服这样一种观念,即种族是一个全有或全无的描述者。
奥图尔说:“种族问题不应被视为一成不变的,也不应视为种族的有限列表。”事实上,从生物学上讲,种族是连续的,所以认为你可以说“种族公平”并为两个种族调整一个算法是不合理的。这可能对混血儿不利。”
虽然科学家们一致认为,如果一个人知道如何使用面部识别算法,那么这些算法就有可能有所帮助,而且新的算法在消除种族偏见方面取得了重大进展,但他们知道还有很多工作要做。
“这并不是说现在不应该像现在这样使用这些算法。但也有一些因素需要考虑,而且操作需要极其谨慎我们对这个问题的复杂性已经了解了很多,因此我们不得不承认,对于让每个人脸对一个人脸识别算法同样具有挑战性的问题,可能永远不会有一个解决方案。