亚马逊向执法部门销售的人脸检测技术显示有偏见

2019-01-28 17:27:13 来源:安防知识网 作者:Tali Arbel
资讯频道文章B

[摘要] 人工智能可以模仿人类创造者进入日常生活的偏见。近日发布的这项新研究警告说,面部检测技术可能会导致滥用和威胁隐私和公民自由。

  麻省理工学院和多伦多大学的研究人员表示,亚马逊向执法部门推销的面部检测技术经常误认为女性,尤其是那些肤色较深的女性。

  由于担心歧视少数群体,隐私和民权倡导者呼吁亚马逊停止营销其Rekognition服务。一些亚马逊投资者也曾要求担心它会使亚马逊容易受到诉讼而要求该公司停止。

  研究人员表示,在他们的测试中,亚马逊的技术将黑皮肤女性称为男性的31%。皮肤较浅的女性在7%的时间里被误诊。肤色较深的男性的错误率为1%,而肤色较浅的男性则没有。

20180903664_87066723_xxl.jpg

图片来源于as图库

  人工智能可以模仿人类创造者进入日常生活的偏见。近日发布的这项新研究警告说,面部检测技术可能会导致滥用和威胁隐私和公民自由。

  亚马逊云计算部门人工智能总经理Matt Wood 表示,该研究使用的是“面部分析”而非“面部识别”技术。Wood说,面部分析“可以在视频或图像中发现面部,并指定佩戴眼镜等通用属性;识别是一种不同的技术,通过这种技术,个人面部与视频和图像中的面部相匹配。”

  在媒体网站近日帖子中,麻省理工学院媒体实验室研究员Joy Buolamwini回应说,公司应该检查所有分析人脸的系统是否有偏见。

  她写道:“如果你销售一种已被证明对人脸有偏见的系统,那么你的其他基于面部的产品也完全没有偏见是值得怀疑的。”

  美国公民自由联盟(AmeriCAN Civil Liberties Union)的律师雅各布•斯诺(Jacob Snow)表示,亚马逊的反应表明,它并没有认真对待“这项研究所揭示的真正严重的担忧”。

  多伦多大学的Buolamwini和Inioluwa Deborah Raji表示,他们研究亚马逊的技术,因为该公司已将其推向执法部门。Raji在LinkedIn帐户称,她目前是Google的人工智能研究人员,该公司与亚马逊竞争提供云计算服务。

  Buolamwini和Raji表示微软和IBM已经改进了他们的面部识别技术,因为研究人员在2017年5月的研究中发现了类似的问题。他们的第二项研究,包括亚马逊,于2018年8月完成。他们的论文将于周一在檀香山举行的人工智能会议上发表。

  伍德表示亚马逊自研究以来已对其技术进行了更新,并通过“零假阳性匹配”进行了自己的分析。

  亚马逊的网站认为Rekognition帮助俄勒冈州华盛顿县警长办公室加快了从数十万张照片记录中识别嫌疑人的时间。

  注:本文编译自外网


0 0
[责任编辑:黄文凤]

《安防知识网》一个服务号 二个订阅号 微信服务全面升级

不得转载声明: 凡文章来源标明“安防知识网”的文章著作权均为本站所有,禁止转载,除非取得了著作权人的书面同意且注明出处。违者本网保留追究相关法律责任的权利。

您可能需要

专栏推荐

阅读推荐

一种用于视频监控网络的新型车辆搜索系统 2019-01-28 16:58  来源:安防知识网|0
新京报:2018年中国智慧城市发展潜力报告 2019-01-28 17:41  来源:新京报|0