如果你孩子的泰迪熊机器人记录私人对话,这是否可接受?如果你的性爱机器人有应用内购买,那又如何?

—— Kate Darling,机器人伦理学家

大声

2018-10-26 09:34

即便在不短的未来里,机器人应该还是会保持无感知,但我们一直以来都对它们有感情。

事情缘起于 Kate Darling 买的一个机械恐龙玩具。这个玩具具备了丰富的反馈功能,当用户抚摸或以其它方式和它互动,它会发出不同声音和做出动作。

▲ Pleo 恐龙机器人

Darling 发现,当你抓住恐龙的尾巴倒吊,它会发出特别可怜的声音,并展示出挣扎的动作,她认为这个效果做得非常好,还不禁和朋友分享它设计的巧妙。

但是,她没看多久,发现自己居然开始为小恐龙感到难过,于是赶紧放它下来,并安抚它。

这在 Darling 看来很奇怪。因为她不算特别有母爱,更重要的是,她了解这个玩具的组成,且知道这个小恐龙只是机械产物,没有感知。即便如此,她还是难以避免对它产生情感。

她让更多人进行了类似实验,发现人们都会对小恐龙有感情。她意识到:

原来,我们天生就会将意图和生命投射到物理空间中任何看似可自主运动的事物上。连你家扫地机器人都是。

她认为,我们和机器人的这种关系,很像人类和动物的关系,虽然机器人(暂时)没有生命。而我们,也很可能以我们对待动物的方式将机器人融入我们生活——一部分作为我们投射情感的伙伴,而另一部分则作为工具和产品。

当承认了这种关系,我们就要考虑机器人应用场景和规则的问题。

承认这种感情联系,可以帮助我们预测挑战。譬如,如果你的孩子的泰迪熊机器人记录私人对话,这是否可接受?如果你的性爱机器人有应用内购买,那又如何?

机器人 + 资本主义 = 围绕消费者保护和隐私的问题。

▲ 图片来自 Cyber Security Portal

除此以外,Darling 认为人和机器人情感联系的研究还具有更大意义。

我的问题不是「我们是否会同情机器人?」,而是「机器人会改变我们的同情心吗?」延伸来说,我们需要阻止孩子踢一只电子狗吗?不仅因为那是别人的财物,而是因为当他开始踢一只电子狗,他更有可能会踢一只真狗?

Darling 提出的讨论,是在与机器人的交互中,人类获得的到底是对暴力倾向的释放,还是对暴力倾向的培养?而这个答案,很可能将影响我们未来的规则。

在过去这十年里我所认识到的,近乎都和科技无关。这一切,都只是关于人类心理、同情心,以及我们和其它人/物联系的方式。

因为,当孩子对扫地机器人友善,而士兵忍不住想救自己的机器人同伴,一群人舍不得伤害机械恐龙玩具,这些机器人就不再只是算法。

它们反映的是我们自己的人性。

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中

我们在打造南网的电鸿,行业的电鸿,生态的电鸿,更是开辟未来的电鸿。

查看全文 —— 南方电网公司数字化部副总经理 禤亮

我们决定在深蓝 L06 上磁流变技术的时候,基本上是没有经过思考,因为它又快又稳,为什么不选它?

查看全文 —— 深蓝L06全球市场总监 彭钱磊

我们跟华为这帮兄弟们,几个「界」也好,几个「境」也好,包括跟华为其他很多的合作伙伴,我们的初心是一致的,一起要把中国汽车的新能源化,中国汽车的智能化做好。

查看全文 —— 岚图汽车董事长 卢放

未来,英特尔会将不同的重要功能单元灵活组合,打造适应不同需求的芯片,若中国客户想「点菜」,我们也可以定制芯片。

查看全文 —— 英特尔中国区董事长王稚聪

原神上玩的好,其他游戏想玩但是没有,到时候市场上会举手,大家会被容易举手的吸引走。

查看全文 —— iQOO 副总裁罗峰