下载客户端
下载客户端
关于我们 寻求报道 加入我们
公司 2016-8-09 10:53

保护乘客还是行人?你来帮无人驾驶汽车决定!

无人驾驶汽车紧急情况下撞狗还是撞罪犯?撞婴儿还是撞老人?人工智能全权处理这种问题显然不够让人放心,麻省理工(MIT)则想到一个好主意——把道德选择进行众包。

近日,麻省理工学院发布了一款名为“道德机器(Moral Machine)”的调查平台,采集用户对于无人驾驶汽车的道德倾向,以作为研究未来无人车道德决策的数据样本。

被调查者要经受一系列考验,以确定各个道德维度上的倾向。比如,刹车失灵时,是撞死闯红灯的行人,还是绿灯通过的猫和狗。

self driving car ethics possibility

还有附带性别倾向的题目:是保护过马路的女性,还是保护车上的男性?

self driving car sexist

还有这种极个别情况:是保护车上的猫还是撞死罪犯?

self driving car ethics cat and criminal

爱范儿(微信号:ifanr)也参加了测试,得出的道德倾向从 9 个维度上进行解释,比如,年龄倾向、物种倾向、是否遵纪守法、保护乘客还是行人等等。

result of the test result of self driving car ethics

social value preference

此外,受访者还可以自己创造其他情形,并浏览其他人的创造的道德抉择。MIT 希望通过这种方式尽可能多的覆盖可能的情况。

MIT 表示,当今的人工智能在为人类提供越来越多的支持,在某些领域甚至有代替人类的倾向。在可见的未来,驾驶就是一项可以被机器替代的工作。

机器在未来不可避免地要自行做出平常人类才会面对的道德抉择,有些情况下,还会牵扯到人的生命。

在紧要关头该保护谁,该抛弃谁,这是这个社会不愿面对,但是必须要解决的问题。

我们也看到,在测试过程中,歧视、法律观念等等平常我们避而不谈的价值观争议被暴露无遗。而想要进一步推进无人驾驶,社会上的每个人都需要正视这些丑陋的现实,并为未来无人驾驶的道德决断提供一个普世的准则。

MIT 面对这个难题,选择了一条可能是最公正的路径——让成千上万的公众自己决定。

图片来自:Moral Machine

题图来自:The Daily Dot

爱范儿招聘新创组记者,简历请发 recruit@ifanr.com

职位要求:

  • 至少 1 年媒体从业经验;
  • 熟悉主流技术创新以及高速成长中的新技术、新模式,了解产业趋势以及技术如何影响人;
  • 能用有趣、浅显的语言解读新技术;
  • 无障碍地阅读外媒新闻

工作职责:

  • 负责新创领域(新产品、新技术、新模式)的报道;

  • 面对热点事件,独立操作大型或深度选题,包括策划、采访和写作

有好的产品或者项目希望我们报道,猛戳这里 寻求报道

文章评论(-)
后参与讨论
正在加载中

滴滴的美国伙伴先 Uber 一步推出了这个用户想要的功能

2016-8-09 11:12下一篇

【早报】iPhone 16GB 机型被 Google 黑/美团百度外卖被查/iPhone 7 双摄像头等信息已确定?

2016-8-09 08:12上一篇