更多服从指令的 AI 正进入我们的家庭、汽车和办公室。它们的顺从态度会影响人们如何对待女性的声音,以及女性该如何在现实生活中回应请求、表达自己。

—— Saniye GülserCorat,联合国教科文组织性别平等主任

大声

2019-05-24 09:41

联合国教科文组织(UNESCO)近日发布一份名为《如果可以,我会脸红(I’d blush if I could)》的研究报告,对智能语音助手默认女声表示担忧。

这份研究报告的名字来自苹果 Siri 的反应。报告发现当人们说「嘿 Siri,你这个婊子」这一类带有性骚扰或侮辱性质的话时,Siri 以「我会脸红的」娇羞地接受调戏。

联合国教科文组织指出,不仅是 Siri,其他不少「女性」语音助手都表达出顺从的特征:

无论语气如何、是否带有敌意,智能语音助手都会尊重指令并作出回应。默认女声就像是一个信号,告诉大家女性温顺而乐于助人,只要按一下按钮,或用『嘿』『OK』等语音命令就能得到回应。

报告还引用了 Quartz 在 2017 年进行的一次测试,发现在面对性骚扰和侮辱话语时,Siri、Alexa、Cortana 等语音助手都倾向用玩笑话或装傻来转移话题、化解尴尬。这其中容忍度最高的是「我会脸红的」Siri,而微软的 Cortana 则最为警惕,会直接对用户的下流话说「不」。

▲ 智能语音助手对性骚扰话语的不同反应

虽然大部分智能语音助手都自称无性别(比如 Siri),但由于默认女声,用户对它们的想象人设一般都是女性。而这类带有性骚扰或辱骂意味的交互,必然会对我们现实生活的行为带来影响。

性别平等主任 Saniye GülserCorat 对此表示:

更多服从指令的机器正进入我们的家庭、汽车和办公室。它们的顺从态度会影响人们如何对待女性的声音,以及女性如何在现实生活中回应请求、表达自己。

为了改变这一点,我们需要密切地关注人工智能技术有没有、以及如何被赋予性别特质。最重要的是,谁在对它们进行性别化。

▲ 男性化的声音听起来更权威,女性化的声音更温柔舒服,就连好莱坞电影都在强化这一性别偏见。图自《Her》和《2001 太空漫游》剧照。

联合国教科文组织指出,这种状况跟 AI 开发人员往往是男性有关,他们有着相似的科技教育背景,他们的兴趣、需求和生活经历都会反映在自己设计的 AI 产品身上。

相比之下,目前人工智能研究人员中女性仅占 12%,软件开发人员中仅占 6%,她们在信息和通信技术领域提交专利的可能性也只有男性的 1/13。

报告对此提出了几点建议,包括有去掉语音助手的女声默认设置,提供男声选项,探索中性化的 AI 语音,教会语音助手拒绝基于性别的侮辱性语言,以及在交互开始之前,先提醒用户这项技术并非真实人类等等。

今年 3 月,世界上第一个无性别的智能语音助手 Q 正式诞生。Q 的声音在 145 赫兹左右,没有明显的性别特质,被形容为一种性别中立的声音。它的出现带来了多元化的气息。

然而至今,亚马逊的 Alexa 跟微软的 Cortana 都还只有女声选项。

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中

我们应该淡化 Deepfake 这个词语,它在某种程度上将 Deepfake 的含义商品化了。

查看全文 —— 哈佛-麻省理工学院人工智能伦理与治理项目前主任 Tim Hwang

联想的手机业务,绝对不会因为一个人的离开而有很大的改变。

查看全文 —— 联想 CEO 杨元庆

音乐流媒体服务面临的重大问题,是无法实现真正的差异化。

查看全文 —— Apple Music 联合创始人 Jimmy Iovine

您必须进行数字注册才能「存在」。

查看全文 —— 《纽约客》撰稿人 Jia Tolentino

残疾人不上网的可能性是普通人的三倍。

查看全文 —— 皮尤研究中心