更多服从指令的 AI 正进入我们的家庭、汽车和办公室。它们的顺从态度会影响人们如何对待女性的声音,以及女性该如何在现实生活中回应请求、表达自己。

—— Saniye GülserCorat,联合国教科文组织性别平等主任

大声

2019-05-24 09:41

联合国教科文组织(UNESCO)近日发布一份名为《如果可以,我会脸红(I’d blush if I could)》的研究报告,对智能语音助手默认女声表示担忧。

这份研究报告的名字来自苹果 Siri 的反应。报告发现当人们说「嘿 Siri,你这个婊子」这一类带有性骚扰或侮辱性质的话时,Siri 以「我会脸红的」娇羞地接受调戏。

联合国教科文组织指出,不仅是 Siri,其他不少「女性」语音助手都表达出顺从的特征:

无论语气如何、是否带有敌意,智能语音助手都会尊重指令并作出回应。默认女声就像是一个信号,告诉大家女性温顺而乐于助人,只要按一下按钮,或用『嘿』『OK』等语音命令就能得到回应。

报告还引用了 Quartz 在 2017 年进行的一次测试,发现在面对性骚扰和侮辱话语时,Siri、Alexa、Cortana 等语音助手都倾向用玩笑话或装傻来转移话题、化解尴尬。这其中容忍度最高的是「我会脸红的」Siri,而微软的 Cortana 则最为警惕,会直接对用户的下流话说「不」。

▲ 智能语音助手对性骚扰话语的不同反应

虽然大部分智能语音助手都自称无性别(比如 Siri),但由于默认女声,用户对它们的想象人设一般都是女性。而这类带有性骚扰或辱骂意味的交互,必然会对我们现实生活的行为带来影响。

性别平等主任 Saniye GülserCorat 对此表示:

更多服从指令的机器正进入我们的家庭、汽车和办公室。它们的顺从态度会影响人们如何对待女性的声音,以及女性如何在现实生活中回应请求、表达自己。

为了改变这一点,我们需要密切地关注人工智能技术有没有、以及如何被赋予性别特质。最重要的是,谁在对它们进行性别化。

▲ 男性化的声音听起来更权威,女性化的声音更温柔舒服,就连好莱坞电影都在强化这一性别偏见。图自《Her》和《2001 太空漫游》剧照。

联合国教科文组织指出,这种状况跟 AI 开发人员往往是男性有关,他们有着相似的科技教育背景,他们的兴趣、需求和生活经历都会反映在自己设计的 AI 产品身上。

相比之下,目前人工智能研究人员中女性仅占 12%,软件开发人员中仅占 6%,她们在信息和通信技术领域提交专利的可能性也只有男性的 1/13。

报告对此提出了几点建议,包括有去掉语音助手的女声默认设置,提供男声选项,探索中性化的 AI 语音,教会语音助手拒绝基于性别的侮辱性语言,以及在交互开始之前,先提醒用户这项技术并非真实人类等等。

今年 3 月,世界上第一个无性别的智能语音助手 Q 正式诞生。Q 的声音在 145 赫兹左右,没有明显的性别特质,被形容为一种性别中立的声音。它的出现带来了多元化的气息。

然而至今,亚马逊的 Alexa 跟微软的 Cortana 都还只有女声选项。

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中

从前年开始我们在做 AI Helpful,就是要让智能设备有用、好用。

查看全文 —— 云米科技创始人、CEO 陈小平

在吉利与魅族「联姻」后,领克的车机也已经进入第一梯队。

查看全文 —— 吉利汽车集团高级副总裁&领克汽车销售公司总经理 林杰

产品学苹果,商业学特斯拉,制造学丰田,组织学华为,变革学微软。(理想)当下的规模,好好学习最重要。

查看全文 —— 理想汽车 CEO 李想

英特尔将和联盟一起打造 AI LPL。

查看全文 —— 英特尔 张新宇

我们发现很多用户拍摄时,并不是基于构图的需要,而是基于看到的信息需要拍到。

查看全文 —— OPPO 影像产品总监 张璇