机器会给你的照片打「坏人」标签?国外网红项目聚焦 AI 偏见

公司

2019-10-21 09:51

本文来自《纽约时报》,由全媒派编译,爱范儿经授权发布。

近日,麻省理工的博士生在两项独立研究中发现,虽然机器擅长识别人工智能生成的文本,但是很难分辨其中的真假。原因在于训练机器识别假新闻的数据库中充满了人类的偏见,因此,训练而成的人工智能也不可避免地带上了刻板印象。

人类偏见是人工智能界普遍存在的沉疴。ImageNetRoulette 数字艺术项目通过使用 AI 分析描述用户上传的图片,揭示出了这一严峻问题。本期全媒派(ID:quanmeipai)独家编译《纽约时报》对 ImageNetRoulette 项目的评论,为你呈现人工智能背后的「隐形偏见」。

一天清晨,当网友 Tabong Kima 正在刷推特时,他看到了一个名为#ImageNetRoulette 的实时热搜。

在这个热搜里,用户们把自拍上传到某个网站上,然后由人工智能来分析和描述它所看到的每一张脸。ImageNetRoulette 就是一家这样的网站,它把某位男性定义为「孤儿」,或是「不吸烟者」,如果是戴着眼镜的,则可能被贴上「书呆子、白痴、怪胎」的标签。

机器会给你的照片打“坏人”标签?国外网红项目聚焦AI偏见

▲一位 Twitter 网友上传了自己的照片,被 AI 识别为「强奸犯嫌疑人」(Rape Suspect),标签位于照片左上角

在 Kima 看到的推特信息中,这些标签有的准确,有的奇怪,有的离谱,但都是为了搞笑,于是他也加入了。但结果却让这个 24 岁的非裔美国人很不开心——他上传了一张自己的微笑照片,然后网站给他贴上了「不法分子」和「罪犯」的标签。

「可能是我不懂幽默吧,」他发了一条推特,「但我没觉得这有什么有趣的。」

注:截至发稿,该网站 imagenet-roulette.paglen.com 已经下线,现跳转到 www.excavating.ai。后者网页上发布了一篇由原项目创始人撰写的文章《挖掘人工智能:机器学习训练集中的图像政治》

机器会给你的照片打“坏人”标签?国外网红项目聚焦AI偏见

人工智能背后:偏见、种族、厌女症

事实上,Kima 的反应正是这家网站想看到的。ImageNetRoulette 是一个数字艺术项目,在人工智能迅速改变个人生活的当下,这个项目旨在揭露某些古怪的、无根据的、冒犯的行为,它们正在蔓延到人工智能技术中,包括被互联网公司、公安部门和其他政府机构广泛使用的面部识别服务。

机器会给你的照片打“坏人”标签?国外网红项目聚焦AI偏见

面部识别和其他 AI 技术都是通过分析海量数据来学习技能,而这些数据来自过去的网站和学术项目,不可避免地包含多年来未被注意到的细微偏差和其他缺陷。这也是美国艺术家 Trevor Paglen 和微软研究员 Kate Crawford 发起 ImageNetRoulette 项目的原因——他们希望更深层次地揭露这个问题。

「我们希望揭露偏见、种族主义和厌女症如何从一个系统转移到另一个系统,」Paglen 在电话采访中说:「重点在于让人们理解幕后的操作,看到我们(的信息)一直以来是如何被处理和分类的。」

作为本周米兰 Fondazione Prada 博物馆展览的一部分,这个网站主要关注的是知名的大型可视化数据库 ImageNet。2007 年,以李飞飞为首的研究人员开始讨论 ImageNet 项目,它在「深度学习」的兴起中发挥了重要的作用,这种技术使机器能够识别包括人脸在内的图像。

机器会给你的照片打“坏人”标签?国外网红项目聚焦AI偏见

▲「Training Humans」摄影展在米兰 Fondazione Prada 博物馆揭幕,展示人工智能系统如何通过训练来观看并给这个世界分类。

ImageNet 汇集了从互联网上提取的 1400 多万张照片,它探索了一种训练 AI 系统并评估其准确性的办法。通过分析各种各样不同的图像,例如花、狗、汽车,这些系统可以学习如何识别它们。

在关于人工智能的讨论中,鲜少被提及的一点是,ImageNet 也包含了数千人的照片,每一张都被归入某一类。有些标签直截了当,如「啦啦队」、「电焊工」和「童子军」;有些则带有明显的感情色彩,例如「失败者、无望成功的人、不成功的人」和「奴隶、荡妇、邋遢女人、流氓」。

Paglen 和 Crawford 发起了应用这些标签的 ImageNetRoulette 项目,以展示观点、偏见甚至冒犯性的看法如何影响人工智能,不论这些标签看起来是否无害。

偏见的蔓延

ImageNet 的标签被成千上万的匿名者使用,他们大多数来自美国,被斯坦福的团队雇佣。通过 Amazon Mechanical Turk 的众包服务,他们每给一张照片贴标签就能赚几分钱,每小时要浏览数百个标签。在这个过程中,偏见就被纳入了数据库,尽管我们不可能知道这些贴标签的人本身是否带有这样的偏见。

但他们定义了「失败者」、「荡妇」和「罪犯」应该长什么样。

这些标签最早来自另一个庞大的数据集,WordNet,是普林斯顿大学研究人员开发的一种机器可读的语义词典。然而,该词典包含了这些煽动性的标签,斯坦福大学 ImageNet 的研究者们可能还没有意识到这项研究出现了问题。

人工智能通常以庞大的数据集为基础进行训练,而即使是它的创造者们也并不能完全理解这些数据集。「人工智能总是以超大规模运作,这会带来一些后果,」Liz O’Sullivan 说道。他曾在人工智能初创公司 Clarifai 负责数据标签的监督工作,现在是民权和私人组织「技术监督计划」(STOP, 全称为 Surveillance Techonology Oversight Project)的成员,这个组织的目标是提高人们对人工智能系统问题的意识。

ImageNet 数据中的许多标签都是十分极端的。但是,同样的问题也可能发生在看似「无害」的标签上。毕竟,即使是「男人」和「女人」的定义,也有待商榷。

「给女性(无论是否成年)的照片贴标签时,可能不包括性别酷儿(nonbinary,即自我认为非二元性别的人士)或短发女性,」O’ Sullivan 表示,「于是,AI 模型里就只有长发女性。」

近几个月来,研究者们发现诸如亚马逊、微软和 IBM 等公司提供的面部识别服务,都有对女性和有色人种持有偏见。通过 IamgeNetRoulette 项目,Paglen 和 Crawford 希望能引起人们对这个问题的重视,而他们也的确做到了。随着这个项目在推特等网站上走红,ImageNetRoulette 项目近期每小时产生的标签数超过 10 万个。

「我们完全没想到,它会以这样的方式走红,」Crawford 与 Paglen 说道,「它让我们看到人们对这件事的真正看法,并且真正参与其中。」

热潮之后,隐忧重重

对有些人来说,这只是个玩笑。但另外一些人,例如 Kima,则能懂得 Crawford 和 Paglen 的用意。「他们做得很好,并不是说我以前没有意识到这个问题,但他们把问题揭露出来了」,Kima 说道。

然而,Paglen 和 Crawford 认为,问题也许比人们想象得更加严重。

机器会给你的照片打“坏人”标签?国外网红项目聚焦AI偏见

ImageNet 只是众多数据集中的一个。这些数据集被科技巨头、初创公司和学术实验室重复使用,训练出各种形式的人工智能。这些数据库中的任何纰漏,都有可能已经开始蔓延。

如今,许多公司和研究者都在试图消除这些弊端。为了应对偏见,微软和 IBM 升级了面部识别服务。今年一月,Paglen 和 Crawofrod 初次探讨 ImageNet 中的奇怪标签时,斯坦福大学的研究者们禁止了该数据集中所有人脸图像的下载。现在,他们表示将删除更多的人脸图像。

斯坦福大学的研究团队向《纽约时报》发表了一份声明,他们的长期目标是「解决数据集和算法中的公平性、问责制度和透明度问题。」

但对 Paglen 来说,一个更大的隐忧正在逼近——人工智能是从人类身上学习的,而人类是有偏见的生物。「我们对图像的贴标签方式是我们世界观的产物,」他说,「任何一种分类系统都会反映出分类者的价值观。」

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中

腾讯全媒体智库,捕捉全球内容风向,聚焦前沿传媒研究,链接行业先锋人士,发布重磅峰会、报告、招聘信息。在这里,定位未来。

本篇来自栏目

解锁订阅模式,获得更多专属优质内容