科学家造了个 “噩梦机器”,这种 AI 会把人活活吓死吗?

新创

2016-10-25 18:23

编者注:本文部分图片可能会引起读者不适。

万圣节来临之际,麻省理工学的科学家们也应景地推出了一款能吓人的 AI——噩梦机器(Nightmare Machine)。

噩梦 AI

AI 开始学会吓人了?

虽然名字听上去很可怕,但噩梦机器的原理并不复杂,就是通过各种算法让计算机生成恐怖图片,计算机再根据用户的反馈判断恐怖程度,不断学习。

也就是说,让用户来告诉 AI 哪些画面会带来恐惧感,比如更多的牙齿、更浅的皮肤、更深的背景等。

在进行了足够多的机器学习后,理论上 AI 能够产生足以让人见之色变的图像。除此之外,研究人员还使用了 Google Deep Dream 的原理,让 AI 给各地著名景点加上了诡异的效果。

噩梦 AI

图片来自:Nightmare Machine 官网

从目前的效果来看,这个 AI 的学习能力相当不错,比如官方 Instagram 放出来的这张布拉德‧皮特的恐怖照:

布拉德皮特

图片来自:Nightmare Machine Instagram

如果你感兴趣,也可以登陆 “噩梦机器 ” 的页面进行投票,给 AI 上上课。

说到能吓人的 AI,就不能不提到这方面的鼻祖——Google Deep Dream,这货从今年 6 月起就开始了制造噩梦了。

fear-loathing-0

图片来自:The Verge

Deep Dream 是基于 Google 的图片生成技术(已开源),AI 在获取图片后,通过各层神经网络的处理,最后生成一件扭曲的后现代风格作品。

AI 会不会把人吓死?

然而,当 AI 开始学会吓人时,可能有人会担心:这是否意味着 AI 掌握了恐吓人类的技能,会吓人的 AI 算不算一种威胁?

事实上,无论是 Google 的 Deep Dream 也好,MIT 的噩梦机器也好,它们所涉及到只是与图像处理有关的算法,与 “恐怖” 无关。

噩梦 AI

图片来自:Deep Dream 官网截图

在 Deep Dream 中,图片经过卷积层时,第一层网络会识别出边缘、角等基础特征,经过层层变形(大概有 10-30 层),到了最后一层,这些基础形状已经被严重扭曲,特征也被放大,因而生成了类似抽象画的图像。

噩梦机器则用到了两项技术:风格转变(style transfer)和生成性对抗网络(generative adversarial networks)。

这两项技术去年才以论文的形式发表,前者主要是有关卷积网络自主收集图像数据的学习,后者则是基于艺术元素创作艺术图像的深层神经网络系统。

噩梦 AI

图片来自 Nightmare Machine 官网截图

此外,噩梦机器对于恐怖的判断,也需要依靠人类的反馈而进行学习,换句话说,目前的 AI,还在 “人类控制” 之下,远谈不上威胁。当然,仅凭三名科学家,就能够在短短一年内完成从理论到实际的应用,足以证明 AI 研究的飞速发展。

然而,你或许会质疑:没有自主意识的 AI ,要如何把握 “恐怖” 的分寸,万一把人吓死怎么办?

从 “噩梦机器” 页面中 “含有恐怖内容,并非所有用户都适合观看” 的提示可以看出,麻省理工的科学家们显然也考虑到了这个问题,但似乎也没有很好的解决办法,制作者也只能是尽到提醒义务,这与恐怖电影或是 “鬼屋” 游戏的做法类似。

噩梦 AI

图片来自 Nightmare Machine 官网截图

毕竟每个人对恐怖的承受能力不同,要知道即使是在人与人当中,因用力过猛把对方吓出毛病甚至导致死亡的事情也时有发生,如果 AI 已经发展到能够把握尺度的地步,那我们或许真的该担心了。

至于 Google 家的 Deep Dream,说是噩梦,倒不如说是 “梦境” 更合适,因为它只是将各种元素进行扭曲变形,也谈不上恐怖,比如像这样的:

噩梦 AI

图片来自:Deep Dream

还有像这样的:

dream_c38626c963

图片来自:Deep Dream

以当前 AI 的发展来看,担忧它学会吓人似乎有些小题大做,毕竟它充其量也就是生成几张让人不适的图片而已。

题图来自: Nightmare Machine 官网

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中