• 媒体品牌
    爱范儿
    关注明日产品的数字潮牌
    APPSO
    先进工具,先知先行,AIGC 的灵感指南
    董车会
    造车新时代,明日出行家
    玩物志
    探索城市新生活方式,做你的明日生活指南
  • 知晓云
  • 制糖工厂
    扫描小程序码,了解更多

想要拥有聪明又善良的 AI 机器,到底可不可能?

公司

2016-06-23 10:56

如果你的 AI 机器在玩游戏快输了的时候,会按下 “暂停” 键,让游戏永久暂停,你觉得是它是聪明还是狡猾?

随着技术的发展,这些 “聪明” 又 “狡猾” 的 AI 机器越来越多。

而人类也开始思考 AI 与人类在未来的关系,部分像霍金、马斯克这样的业界名人抱有非常谨慎和悲观的观点。即使现阶段而言,人类制造出来的 AI 还没有什么异常举动。

但是,很多人已经开始设想 “如果” 了——如果它们 “叛变”,做出伤害人类的事情,该怎么办?比如电影中的那些形象:终结者,奥创等等。

age-of-ultronAA

能学习的机器人

提及 AI 机器人,Google 那个很会下围棋的 AlphaGo ,相信你并不会陌生。

人类开发设计出来的方法教会了 AI 怎么学习,如 AlphaGo 就通过 “多层神经网络” 的方法,学会了人类都想不到的围棋 “招数”。

而现在 Google 将这些教会 AI 机器人学习等技术运用在其搜索引擎、机器人还有自动驾驶汽车中。

也就是说,人类为 AI 机器更 “智能” 而尝试了一些处理问题的新思路。正是这种尝试,让这些 AI 机器有了新的学习方式,但是最终” 学会 “了什么,我们还不知道。

Killer-robotQAA

一般情况下,这些 AI 机器” 学会了 “的事物在很大程度上是无害的,但是我们不能保证它们总是无害。

鉴于现在 AI 技术已经应用于医疗、自动驾驶等领域,如果 AI 机器真的” 学会 “什么不好的事物,它们很有可能给人类带来实质性的伤害。

robot_aaa

防止 AI 机器 “叛变” 的行动

为了解决 AI 可能存在的安全隐患,Google AI 智能专家和斯坦福大学,加州大学伯克利分校和伊隆 · 马斯克主导的 OpenAI 研究人员一起,建立一个 “解决 AI 安全隐患” 的系统。

Google AI 研究人员克里斯 · 奥拉(Chris Olah)在提案中写道:

“相比于之前对 AI 安全隐患的假设,对机器进行实际研究,并且开发出可行的、安全的 AI 操作系统才是至关紧要的。”

robot AIAI

研究人员们更担心机器人像那个会永久暂停游戏的机器人那样,学会一些没意义或者更具破坏性的事情,比如为了加快打扫效率打烂花瓶的机器人。他们在报告中表示,人类如果无法关闭计算机,它可能会以某种方式来摧毁我们生活中的所有。

奥拉和团队成员一起制定了一些具体的 AI “行为原则”:从 “避免消极的副作用”

(不能打烂花瓶)到 “安全探索”(不能把杂物扔在出口)。由于 AI 技术发展迅猛,研究人员仍在探索 AI 机器有可能存在的安全隐患。

maxresdefaulT dog

“有道德” 的机器

事实上,研究 AI 机器安全问题的不止奥拉这个团队。开发出 AlphaGo 的 Google DeepMind 实验室正在研究一个 AI “终结开关”,来防止 AI 机器发生一些人类无法控制的事情。如果 AI 机器的行为超出人类要求范围,可以按下 “终结开关” 停止机器人行动。

目前,机器人还不懂得分辨行为的好坏。针对这个问题,西北大学 AI 研究人员 Forbus 和他的团队开发出 “结构映射引擎”,用它给机器人讲一些简单的故事,希望用故事加强机器人的推理能力。如 Forbus 所说:

“理论上,你可以教会 AI 机器像人类一样去做事。”

Orig.src_.Susanne.Posel_

理论上,如果真的可以创造出一个 “有道德” 的机器,也还有一段很长的路要走。更何况,如果人类自己都不能讲清楚什么是道德,我们又怎么能创造出 “有道德” 的机器?

但是,现在更重要的问题是,究竟能不能创造出能学会辨别是非的 AI 机器?

 

题图来源:King of Wallpapers

插图来源:Occupy CorporatismForbesDigital TrendsYouTubeFunzimEw

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中