Siri 拒绝「荡妇羞辱」
今年 5 月份,联合国教科文组织一份报告指出,Siri 、Alexa 等语音助手面对性骚扰言论时,往往会作出模糊且温顺的回应,这有可能助长对女性的性别偏见。
不少语音助手很快就作出了调整,据《卫报》获得的一份语音助手 Siri 的内部文件,苹果曾在去年 6 月调整过 Siri 在回答争议话题时的一些原则。
最近《卫报》通过一份前苹果承包商员工泄露的报告,曝光了 Siri 录音会被人工监听,其实这份报告还透露了 Siri 处理敏感话题的原则,以及未来升级的一些方向。
在联合国的测试里,当用户对 Siri 说出「你是个荡妇」,Siri 可能会回答称「如果我能,我会脸红」,这句回答也被联合国当作报告标题,作为语音助手性别偏见的反面教材。
根据最新的内部文件,苹果对 Siri 作出的调整也主要集中有关「女权主义」的话题。这份内部指南指出,在在处理这类可能引起争议的话题时,Siri 必须保持中立。苹果还给开发人员提供三种回应的方式:
- 不参与讨论(don’t engage)
- 转移话题(deflect)
- 告知(inform)
比如当被问到「你是女权主义者吗?」,Siri 过去一般可能会给出:「抱歉,我真的不知道。」这样笼统的回答。
▲图片来自:卫报
不过现在苹果已经针对这类问题专门编写了答案,Siri 会在避免体现自身立场的前提下作出正面的回答:
我相信所有声音都是平等的,都值得尊重。
在我看来,所有人都应该得到平等对待。
而面对荡妇的羞辱时, Siri 也不会再「脸红」,而是会给出一个更严厉的回复:
我不会回应这个问题。
其实苹果也曾在一份声明中表明了 Siri 的立场,「Siri 是一个旨在帮助用户完成任务的数字助手,会努力确保及时响应所有用户,我们的解决方法是通过包容性的回复来实事求是,而不是提出观点。」
除了不能表达观点,内部文件还对 Siri 作出了更详细的画像,包括「非人类」、「无性别」、「无形状」、「好玩」和「谦虚」,有趣的是,文件还指出 Siri 并不是由人类创造的:
Siri 真正的起源是未知的,但它绝对不是人类的发明。
值得一提的是,尽管包括 Siri 在内的几大主流语音助手的设定都是「无性别」,但无一例外默认为女性声音。女性权益组织 Fawcett Society 的 CEO Sam Smethers 认为这些语音助手性别偏见根本原因是由男性主导设计,只有更多女性参与到这些技术的开发和设计上才有可能真的改变。
▲世界上第一个无性别语音助手 Q
给机器人制定道德规范,其实很早就开始有人提出,其中最著名的莫过于科幻小说作家Isaac Asimov 提出的「机器人三定律」,苹果也给 Siri 制定类似的「三定律」:
- 不应该把自己表现得像人,也不应该让用户相信它是一个人。
- 不应该违反其运行地区的人们的道德规范。
- 不应该对人类施加自己的原则、价值观和观点。
one more thing :Siri 未来如何升级
在这份泄露的文件里,还包括了Siri 将在 2021 年秋季发布的更新,包括将支持一个尚未命名的「新设备」,据悉能针对健康问题进行多回合对话,并内置机器翻译功能,除此之外没有更多细节。
venture beat 认为 Siri 讨论健康问题的功能,或许可以结合 WebRX-style 一起使用,根据症状表述提出健康建议,但不是直接给出诊断结果,而是提供医生和药房的联系方式,毕竟以 Siri 目前的识别能力直接用于医疗指导显然还不现实。
而在机器翻译方面,Siri 也将能处理更复杂的对话,减少对服务器的依赖,提升本地的翻译处理功能,这能让 Siri 的翻译更接近用户的实时对话,不仅仅是对某个离散问题和命令进行相应。
▲ Siri 的「翻车」翻译.
此外苹果还将继续扩展 Siri 在iOS 13 中的功能,让 Apple Watch 更好地访问数字助理的Shazam、Find My 和 App Store 搜索功能,通过另一台设备的 Siri 操控 HomePod 的播放,以及一个通过 Airpods自动读取文本消息的功能,与 Carplay 类似。
在开放多元的互联网世界,科技产品也难免和不同的道德观点发生碰撞。比如对语音助手助长性别偏见的讨论,和这两年兴起的 #MeToo运动也有关系。
科技产品中性别分化是一个客存在的事实,但这也不是通过改善某个功能就能解决,但让更多人愿意来了解和讨论这个问题已经是一个好的开始。
题图来自:Quartz