• 媒体品牌
    爱范儿
    关注明日产品的数字潮牌
    APPSO
    先进工具,先知先行,AIGC 的灵感指南
    董车会
    造车新时代,明日出行家
    玩物志
    探索城市新生活方式,做你的明日生活指南
  • 知晓云
  • 制糖工厂
    扫描小程序码,了解更多

人脸识别对深色皮肤和女性不友好,微软急忙纠正 “技术偏见”

公司

2018-06-27 17:53

在演唱会 “抓逃犯” 上屡建奇功的人脸识别,其实还是不成熟的技术,具体表现在对肤色和性别的歧视上。

微软发现,商用人脸识别识别肤色较浅的男性准确率最高,而失误率最严重的是肤色较深的女性。

这可算是人脸识别的 “技术偏见 ” 了。

这种偏见一旦在大范围应用中 “显现”,声讨种族和性别 “歧视” 的声音,将会淹没微软。

为了解决充满偏见的技术,微软 Face API 团队对其识别系统进行了三次重大改进。最新的人脸识别系统,识别肤色较深的人错误率降低了 20 倍,识别所有女性的失误率减低了 9 倍。

尽管有了改进,但目前的人脸识别,还不是完美的系统。微软认为,问题的根本解决办法还是训练数据库,需要收集更多的数据,包括不同肤色、发型和面部饰品等。

▲ 研究发现,微软和 IBM 的识别黑人女性出错率高. 图片来自:Daily Mail

中国人普遍的黄皮肤,刚好避开了 “最浅” 和 “最深” 的肤色。但我国也有外貌特征各异的少数民族,如果人脸识别对此产生技术偏见,就不是简单的 “开地图炮” 了,可能会引发严重的民族矛盾。

至于 “更大范围攻击” 的性别歧视话题,在我国也变得非常敏感,该庆幸人脸识别技术目前还没有惹来 “性别歧视骂战”。

偏见的锅不能完全甩给人工智能,技术也是反映真实社会的镜子。

微软研究实验室的高级研究员、AI 系统公平性专家 Hanna Wallach 在一份声明中回应:

如果我们训练机器学习系统使用有偏见的社会产生的数据,来模拟那个社会做出决定,那么这些系统必然会重现它的偏见。

例如,在一些社区中,黑人的犯罪率更高,AI 根据收集来的数据,更容易把肤色较深的人划分到 “逃犯” 的分类中。这是群体给个体的伤害,人脸识别只不过 “遵循了” 社会偏见。

▲ 微软人脸识别的情绪检测功能. 图片来自:thenextweb

相比起导致 “歧视”,研究团队更希望 AI 能检测和减轻偏见,以弥补现实社会中的不完美。

追捕逃犯用大范围攻击的 “种族炮” 和 “性别炮” 容易伤及无辜,人脸识别的方向是更精密的 “狙击枪”。

一直对人脸识别技术保持警惕的美国,其海关部门也要启用人脸识别系统,但收到强烈的反对。

关于人脸识别,最近亚马逊的幺蛾子也很多,先是美国公民自由联盟向亚马逊提交请愿信,接着 100 多名内部员工也要求首席执行官 Jeff Bezos 停止向美国警方出售人脸识别软件。目前,美国奥兰多市警察局与亚马逊的人脸识别合同已过期,双方还没决定续约。

“亚马逊人” 签署的部分内容

我们公司不应该在监控业务中; 我们不应该参与警务工作; 我们不应该从事支持监督和压迫边缘化人群的人;

▲ ICE 将启用微软人脸识别软件. 图片来自:Inc.

尽管微软员工与亚马逊员工的想法一致,坚决认为人脸识别软件侵犯人权,对美国最近的移民政策尤其不满,希望微软 CEO Satya Nadella 停止与 ICE (美国移民和海关执法部门) 签署协议,但目前仍没收到成效。

人脸识别技术到底带来了安全保障,还是带来了歧视,侵犯了个人自由?美国科技公司们的 “纠结”,也许值得我们思考,看演唱会被人脸识别,到底是不是妥当的?

题图来源:Gigaom

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中