如果你孩子的泰迪熊机器人记录私人对话,这是否可接受?如果你的性爱机器人有应用内购买,那又如何?

—— Kate Darling,机器人伦理学家

大声

2018-10-26 09:34

即便在不短的未来里,机器人应该还是会保持无感知,但我们一直以来都对它们有感情。

事情缘起于 Kate Darling 买的一个机械恐龙玩具。这个玩具具备了丰富的反馈功能,当用户抚摸或以其它方式和它互动,它会发出不同声音和做出动作。

▲ Pleo 恐龙机器人

Darling 发现,当你抓住恐龙的尾巴倒吊,它会发出特别可怜的声音,并展示出挣扎的动作,她认为这个效果做得非常好,还不禁和朋友分享它设计的巧妙。

但是,她没看多久,发现自己居然开始为小恐龙感到难过,于是赶紧放它下来,并安抚它。

这在 Darling 看来很奇怪。因为她不算特别有母爱,更重要的是,她了解这个玩具的组成,且知道这个小恐龙只是机械产物,没有感知。即便如此,她还是难以避免对它产生情感。

她让更多人进行了类似实验,发现人们都会对小恐龙有感情。她意识到:

原来,我们天生就会将意图和生命投射到物理空间中任何看似可自主运动的事物上。连你家扫地机器人都是。

她认为,我们和机器人的这种关系,很像人类和动物的关系,虽然机器人(暂时)没有生命。而我们,也很可能以我们对待动物的方式将机器人融入我们生活——一部分作为我们投射情感的伙伴,而另一部分则作为工具和产品。

当承认了这种关系,我们就要考虑机器人应用场景和规则的问题。

承认这种感情联系,可以帮助我们预测挑战。譬如,如果你的孩子的泰迪熊机器人记录私人对话,这是否可接受?如果你的性爱机器人有应用内购买,那又如何?

机器人 + 资本主义 = 围绕消费者保护和隐私的问题。

▲ 图片来自 Cyber Security Portal

除此以外,Darling 认为人和机器人情感联系的研究还具有更大意义。

我的问题不是「我们是否会同情机器人?」,而是「机器人会改变我们的同情心吗?」延伸来说,我们需要阻止孩子踢一只电子狗吗?不仅因为那是别人的财物,而是因为当他开始踢一只电子狗,他更有可能会踢一只真狗?

Darling 提出的讨论,是在与机器人的交互中,人类获得的到底是对暴力倾向的释放,还是对暴力倾向的培养?而这个答案,很可能将影响我们未来的规则。

在过去这十年里我所认识到的,近乎都和科技无关。这一切,都只是关于人类心理、同情心,以及我们和其它人/物联系的方式。

因为,当孩子对扫地机器人友善,而士兵忍不住想救自己的机器人同伴,一群人舍不得伤害机械恐龙玩具,这些机器人就不再只是算法。

它们反映的是我们自己的人性。

后评论

评论在审核通过后将对所有人可见

正在加载中

银行越来越像 IT 公司,也在跟 IT 公司竞争同样一批人才,这意味着我们必须提供相同甚至更好的工作氛围和福利。

查看全文 —— 财经媒体 CNBC

更多服从指令的 AI 正进入我们的家庭、汽车和办公室。它们的顺从态度会影响人们如何对待女性的声音,以及女性该如何在现实生活中回应请求、表达自己。

查看全文 —— Saniye GülserCorat,联合国教科文组织性别平等主任

虽然后续大量的实证研究都无法证明马斯洛需求层次理论,但是管理学的研究人员依然不愿意放弃它。

查看全文 —— 管理学学者 Todd Bridgman、Stephen Cummings 和 John Ballard

不要相信有「长期投资者」的存在。他们会在投资的时候和你说自己是「长期投资者」,一旦你遇到麻烦,他们就跑了。

查看全文 —— 阿里巴巴创始人 马云

和常识相反,威胁着就业和薪水的不是那些「非常棒」的自动化技术,而是那些「不咋地」的科技,后者只能对生产力进行很小的提升。

查看全文 —— Daron Acemoglu & Pascual Restrepo,经济学家