更多服从指令的 AI 正进入我们的家庭、汽车和办公室。它们的顺从态度会影响人们如何对待女性的声音,以及女性该如何在现实生活中回应请求、表达自己。

—— Saniye GülserCorat,联合国教科文组织性别平等主任

大声

05-24 09:41

联合国教科文组织(UNESCO)近日发布一份名为《如果可以,我会脸红(I’d blush if I could)》的研究报告,对智能语音助手默认女声表示担忧。

这份研究报告的名字来自苹果 Siri 的反应。报告发现当人们说「嘿 Siri,你这个婊子」这一类带有性骚扰或侮辱性质的话时,Siri 以「我会脸红的」娇羞地接受调戏。

联合国教科文组织指出,不仅是 Siri,其他不少「女性」语音助手都表达出顺从的特征:

无论语气如何、是否带有敌意,智能语音助手都会尊重指令并作出回应。默认女声就像是一个信号,告诉大家女性温顺而乐于助人,只要按一下按钮,或用『嘿』『OK』等语音命令就能得到回应。

报告还引用了 Quartz 在 2017 年进行的一次测试,发现在面对性骚扰和侮辱话语时,Siri、Alexa、Cortana 等语音助手都倾向用玩笑话或装傻来转移话题、化解尴尬。这其中容忍度最高的是「我会脸红的」Siri,而微软的 Cortana 则最为警惕,会直接对用户的下流话说「不」。

▲ 智能语音助手对性骚扰话语的不同反应

虽然大部分智能语音助手都自称无性别(比如 Siri),但由于默认女声,用户对它们的想象人设一般都是女性。而这类带有性骚扰或辱骂意味的交互,必然会对我们现实生活的行为带来影响。

性别平等主任 Saniye GülserCorat 对此表示:

更多服从指令的机器正进入我们的家庭、汽车和办公室。它们的顺从态度会影响人们如何对待女性的声音,以及女性如何在现实生活中回应请求、表达自己。

为了改变这一点,我们需要密切地关注人工智能技术有没有、以及如何被赋予性别特质。最重要的是,谁在对它们进行性别化。

▲ 男性化的声音听起来更权威,女性化的声音更温柔舒服,就连好莱坞电影都在强化这一性别偏见。图自《Her》和《2001 太空漫游》剧照。

联合国教科文组织指出,这种状况跟 AI 开发人员往往是男性有关,他们有着相似的科技教育背景,他们的兴趣、需求和生活经历都会反映在自己设计的 AI 产品身上。

相比之下,目前人工智能研究人员中女性仅占 12%,软件开发人员中仅占 6%,她们在信息和通信技术领域提交专利的可能性也只有男性的 1/13。

报告对此提出了几点建议,包括有去掉语音助手的女声默认设置,提供男声选项,探索中性化的 AI 语音,教会语音助手拒绝基于性别的侮辱性语言,以及在交互开始之前,先提醒用户这项技术并非真实人类等等。

今年 3 月,世界上第一个无性别的智能语音助手 Q 正式诞生。Q 的声音在 145 赫兹左右,没有明显的性别特质,被形容为一种性别中立的声音。它的出现带来了多元化的气息。

然而至今,亚马逊的 Alexa 跟微软的 Cortana 都还只有女声选项。

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中

我们在 90 年代犯的错误,如今被重新「发明」、重新犯错。

查看全文 —— SRLabs 的研究人员 Karsten Nohl

机器人比赛在国内或是全球可能都会有个问题:老师帮学生做的太多,在我们定位中老师是一个教练,真正上场踢球的应该是学生。

查看全文 —— Makeblock CEO 王建军

我的建筑主题之一就是人与地球的连接方式,当人们与地球连接时内心会充满平静。就这种联系而言,我觉得运动鞋比建筑更具可能性。

查看全文 —— 日本建筑师隈研吾

如果现在的科技趋势是将我们推向「一切都特别棒,但没有任何东西是我们的」,那些「真正是你的」科技产品也许能成为下一代的反潮流趋势。

查看全文 —— Alex Danco,作者

我们对虚拟角色的喜爱,并不在于其「逼真」。

查看全文 —— 《卫报》