• 媒体品牌
    爱范儿
    关注明日产品的数字潮牌
    APPSO
    先进工具,先知先行,AIGC 的灵感指南
    董车会
    造车新时代,明日出行家
    玩物志
    探索城市新生活方式,做你的明日生活指南
  • 知晓云
  • 制糖工厂
    扫描小程序码,了解更多

想要拥有聪明又善良的 AI 机器,到底可不可能?

公司

2016-06-23 10:56

如果你的 AI 机器在玩游戏快输了的时候,会按下“暂停”键,让游戏永久暂停,你觉得是它是聪明还是狡猾?

随着技术的发展,这些“聪明”又“狡猾”的 AI 机器越来越多。

而人类也开始思考 AI 与人类在未来的关系,部分像霍金、马斯克这样的业界名人抱有非常谨慎和悲观的观点。即使现阶段而言,人类制造出来的 AI 还没有什么异常举动。

但是,很多人已经开始设想“如果”了——如果它们“叛变”,做出伤害人类的事情,该怎么办?比如电影中的那些形象:终结者,奥创等等。

age-of-ultronAA

能学习的机器人

提及 AI 机器人,Google 那个很会下围棋的 AlphaGo ,相信你并不会陌生。

人类开发设计出来的方法教会了 AI 怎么学习,如 AlphaGo 就通过“多层神经网络”的方法,学会了人类都想不到的围棋“招数”。

而现在 Google 将这些教会 AI 机器人学习等技术运用在其搜索引擎、机器人还有自动驾驶汽车中。

也就是说,人类为 AI 机器更“智能”而尝试了一些处理问题的新思路。正是这种尝试,让这些 AI 机器有了新的学习方式,但是最终”学会“了什么,我们还不知道。

Killer-robotQAA

一般情况下,这些 AI 机器”学会了“的事物在很大程度上是无害的,但是我们不能保证它们总是无害。

鉴于现在 AI 技术已经应用于医疗、自动驾驶等领域,如果 AI 机器真的”学会“什么不好的事物,它们很有可能给人类带来实质性的伤害。

robot_aaa

防止 AI 机器“叛变”的行动

为了解决 AI 可能存在的安全隐患,Google AI 智能专家和斯坦福大学,加州大学伯克利分校和伊隆 · 马斯克主导的 OpenAI 研究人员一起,建立一个“解决 AI 安全隐患”的系统。

Google AI 研究人员克里斯 · 奥拉(Chris Olah)在提案中写道:

“相比于之前对 AI 安全隐患的假设,对机器进行实际研究,并且开发出可行的、安全的 AI 操作系统才是至关紧要的。”

robot AIAI

研究人员们更担心机器人像那个会永久暂停游戏的机器人那样,学会一些没意义或者更具破坏性的事情,比如为了加快打扫效率打烂花瓶的机器人。他们在报告中表示,人类如果无法关闭计算机,它可能会以某种方式来摧毁我们生活中的所有。

奥拉和团队成员一起制定了一些具体的 AI “行为原则”:从“避免消极的副作用”

(不能打烂花瓶)到“安全探索”(不能把杂物扔在出口)。由于 AI 技术发展迅猛,研究人员仍在探索 AI 机器有可能存在的安全隐患。

maxresdefaulT dog

“有道德”的机器

事实上,研究 AI 机器安全问题的不止奥拉这个团队。开发出 AlphaGo 的 Google DeepMind 实验室正在研究一个 AI “终结开关”,来防止 AI 机器发生一些人类无法控制的事情。如果 AI 机器的行为超出人类要求范围,可以按下“终结开关”停止机器人行动。

目前,机器人还不懂得分辨行为的好坏。针对这个问题,西北大学 AI 研究人员 Forbus 和他的团队开发出“结构映射引擎”,用它给机器人讲一些简单的故事,希望用故事加强机器人的推理能力。如 Forbus 所说:

“理论上,你可以教会 AI 机器像人类一样去做事。”

Orig.src_.Susanne.Posel_

理论上,如果真的可以创造出一个“有道德”的机器,也还有一段很长的路要走。更何况,如果人类自己都不能讲清楚什么是道德,我们又怎么能创造出“有道德”的机器?

但是,现在更重要的问题是,究竟能不能创造出能学会辨别是非的 AI 机器?

 

题图来源:King of Wallpapers

插图来源:Occupy CorporatismForbesDigital TrendsYouTubeFunzimEw

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中