由Alex Najibi.

我们通过一目了然地解锁我们的iPhone,并怀疑Facebook如何知道在那张照片中标记我们。但是面对识别,这些功能背后的技术不仅仅是噱头。它被雇用执法监测机场乘客筛选, 和就业和住房决定。尽管采用了广泛的采用,但最近的人脸识别禁止在包括波士顿和旧金山在内的几个城市的警察和地方机构使用。为什么?占主导地位生物识别学在使用中(指纹,虹膜,手掌,声音和面部),人脸识别最不准确,并且具有隐私问题的侵犯。

警方使用人脸识别将嫌疑人的照片与Mugshots和驾驶执照图像进行比较;据估计几乎一半美国成年人 - 超过11700万人,截至2016年 - 在执法使用的面部识别网络中有照片。这参与情况发生而不同意,甚至意识,并缺乏立法监督。然而,更令人不安地,目前这些技术的实施涉及显着的种族偏见,特别是对黑人美国人来说。即使准确,人脸识别赋予了一个历史悠久的执法系统种族主义和反活动主义监测并且可以扩大预先存在的不平等

面部识别算法的不公平

面部识别算法具有高分类准确性(超过90%),但这些结果并不普遍。一个成长的身体研究揭露发散错误率遍历人口统计组,准确性最差始终如一在谁的主题中女性,黑色和18-30岁。在Landmark 2018“性别色调”项目,交叉方法被应用于评估三个性别分类算法,包括由IBM和Microsoft开发的算法。受试者分为四类:较深皮肤的女性,较深皮肤黝黑的男性,较轻皮肤的女性,和呈肤色的雄性。所有三种算法在较暗皮肤的女性上表现最差,错误率高达34%,而不是呈皮肤呈现皮肤的男性(图1)独立评估由国家标准和技术研究所(NIST)已经证实了这些研究,发现跨189种算法的面部识别技术最不准确的颜色。

图1审核五个面部识别技术。这性别色调项目透露差异在不同肤色和性别的人脸识别技术的分类准确性。这些算法始终如一地表现出较深皮肤的女性最糟糕的准确性,并且对于较轻的肤色的男性来说是最高的。

这些引人注目的结果促使即时答复,围绕面部识别的持续讨论。IBM.微软通过修改测试队列和改进特定人口统计数据的数据收集来宣布减少偏差的步骤。一种性别色调重新审核确认了黑色女性的错误率下降,并调查了更多的算法,包括亚马逊的再识别,这也表现出对肤色较暗的女性的种族偏见(性别分类31%错误)。这一结果证实了美国公民自由联盟(ACLU)对重新识别的脸部匹配能力的早期评估,其中28位国会成员,不成比例地的颜色人不正确匹配与mugshot图像。但是,亚马逊的回应防守,声称审计员方法的问题而不是解决种族偏见。由于亚马逊将其技术销售到执法,这些差异是有关的。提供这些服务的公司有责任确保他们公平 - 无论是在他们的技术和申请中。

法律执法的种族歧视面临识别

面部识别中种族歧视的另一个关键来源在于它的利用。18TH.世纪纽约,“灯笼法”必修奴役的人在黑暗之后携带灯笼被公开可见。倡导者担心,即使人脸识别算法是公平的,技术也可以应用于同样的精神,符合现有的执法的种族业模式,不成比例地损害黑人社区。此外,人脸识别可能潜在地瞄准其他边缘化人群,例如无证移民通过冰,或穆斯林公民由NYPD。

歧视性执法实践在Minneapolis PD谋杀乔治弗洛伊德之后被突出显示。黑人美国人是更有可能被捕并被监禁小犯罪比白色的美国人。因此,黑人在Mugshot数据中持久化,面部识别用于进行预测。这种系统中的黑色存在会产生前馈回路,从而使种族主义政策策略导致黑人的逮捕,然后遭到未来监视。例如,NYPD维护了一个42,000“帮派附属公司”的数据库 - 99%黑色和拉丁申没有要求证明怀疑的帮派隶属关系。事实上,某些警察部门使用团伙成员识别作为生产力措施,激励虚假报告。对于参与者来说,包含在这些监控数据库中可以导致Harsher判决和更高的保释- 完全拒绝保释。

但是如何确认面部识别和监视危害黑人美国人的不公正应用?如下所示算法司法联盟,“面对监督威胁有权,包括隐私,言论自由,结社自由和适当的过程。”监视与之相关联行为变化包括自我审查和避免恐惧报应的激活主义;例如,人脸识别受雇于监视器并识别黑人生命物质抗议者。FBI有一个悠久的历史监测着突出的黑色活动家和领导人追踪和压制他们的努力。此外,持续监测诱导恐惧和心理伤害,渲染主题易受伤害有针对性的虐待并通过扩大政府监督系统习惯于拒绝访问的政府监督系统,以及身体伤害医疗保健和福利。在刑事司法环境中,本质识别技术在其准确性中固有偏见可以误识别嫌疑人,诱导无辜黑人美国人。

在一个引人注目的例子中,模型监视计划项目绿灯(PGL)在2016年颁布,在整个城市安装高清摄像机。直接向底特律PD进行流,可以对犯罪数据库,驾驶执照和州ID照片进行人脸识别进行测试的数据;几乎每个密歇根州居民在这个系统中。但PGL站同样地分布:监视与多数黑色区域相关,避免白和亚洲飞地(图2)。在采访居民时,批判性分析2019年报告的PGL认为,“监督和数据收集深入了解公共利益转移,不安全的住房,就业机会丧失,以及与这些监测系统接触的社区成员的监管和随后的刑事犯罪。”PGL说明如果没有监管他们的申请,人们如何长期监测系统会使种族不等式延续。

图2:人脸识别技术应用中的种族偏见。地点项目绿灯底特律合作伙伴(左)与来自的数据中主要的黑色社区重叠美国人口普查(正确的)。在这个城市的计划中,监控的冲程落在底特律的黑人居民身上。

建立一个更公平的面部识别景观

正在追求几个途径来解决这些不公平。一些目标技术算法性能。首先,算法可以在各种和代表数据集上训练,因为标准培训数据库是主要是白色和男性。包含在这些数据集中应要求每个人同意。其次,可以更公平地制作数据源(照片)。默认相机设置通常是未优化以捕获较深的肤色, 导致优质黑人美国人的数据库图像。建立以运行面部识别的图像质量标准,以及拍摄黑色受试者的设置,可以减少这种效果。第三,评估表现,常规和道德审计,特别是考虑到相交的身份(即,年轻,黝黑的和女性,例如),由NIST或其他独立来源能够掌握对剩余方法偏见的面部识别公司。

其他方法针对应用程序设置。立法可以监测人脸识别技术的使用,因为即使面部识别算法完全准确,它们对大规模监控和针对种族少数群体的选择性部署的贡献也必须进行缩减。倡导团体从事立法者,教育种族扫盲在人们面临识别和要求生产者的责任和透明度。例如,安全脸部承诺呼吁组织在其技术中解决偏见并评估其申请。这种努力已经取得了一些进展。2019年算法问责制行为赋权联邦贸易委员会规范公司,颁布义务评估算法培训,准确性和数据隐私的义务。此外,几个国会听证会专门考虑了面部识别的抗黑色歧视。谋杀乔治弗洛伊德之后的强大抗议也推动了重大变化。国会民主党介绍了一个警察改革法案包含抑制面部识别技术的规定。更令人惊讶的是科技反应:IBM停止其系统,亚马逊宣布了一年的警察使用重新冻结,微软将其脸部识别技术的销售停泊在警方,直至联邦法规进行了建立。这些进展支持呼吁更加渐进的立法,例如运动改革或废除警务。目前,公平面部识别的运动与公平刑事司法系统的运动交织在一起。

面部识别仍然是一个强大的技术,具有刑事司法和日常生活的重大影响。例如,存在不那么争议的人脸识别应用,辅助技术支持视力障碍的人。虽然我们专注于本文中的人脸识别,但讨论的问题和解决方案是部分更广泛的努力识别和消除人工智能和机器学习领域的不等式。所以下次我们解锁手机时,让我们记住,在面部识别内解决种族偏见,并且它的应用是使这些算法公平甚至更有影响的必要条件。


Alex Najibi是第5年的博士。哈佛大学工程与应用科学学院生物工业研究的候选人

想要查询更多的信息:

本文是我们的一部分科学政策与社会正义的特别版

9思想“面部识别技术中的种族歧视

  1. 谢谢U Alex Najibi与我们一起获得了如此伟大的分析份额,我以前从未意识到这一点。这一主题应该关注公平的世界。

  2. 本文是荒谬的,基于左翼幻想土地。自由主义者将用于“脱离草原”是惊人的。请退还我阅读这一废话的时间。

  3. 谢谢你和我们这样一个伟大的分析分享,我以前从未意识到这一点。这一主题应该关注公平的世界。

  4. 有趣的是,错误或缺乏准确性,是黑人女性。有什么科学理论为什么?我有兴趣阅读有理论和可能的解决方案的后续文章。

  5. 种族歧视?

    5种算法中的3种更多的努力识别比较暗的阳面更轻的较轻的母面。每个算法在较轻的面部和较暗的阳面之间具有真正的面部识别值。

    最低的正确识别率是用于较暗的母面,可以通过特征的平滑性结合来解释(解释雄性和女性较轻面孔之间正确识别的差异),在较暗的面上较低的对比度(脸部较浅)对比度的最大差距您具有:阴影,嘴唇,毛发,中音,......)以及较暗的颜色反射较少的光线,使图像变得更加柔和。

    尝试这项练习:试着在没有使用HDR的情况下获得一种肤色的夫妇(黑白)的良好照片......玩得开心!你最终会被击碎的黑人或大部分时间都烧伤。但我猜摄影也是压迫者。

发表评论

您的电子邮件地址不会被公开。必需的地方已做标记*