我不认为人工智能的进化必然是良性的。一旦机器人达到自我进化的阶段,我们就无法预测它们的目标是否与我们一致。

—— 史蒂芬·霍金

大声

2016-06-29 16:36

受益于人工智能进行交流的史蒂芬·霍金一次次地向人们警告,人工智能很危险。

在接受美国王牌脱口秀主持人拉里·金(Larry King)的采访时,这位英国物理学家表示,人工智能进化的速度比人类的角度更快,而这种进化可能朝着人们无法预知的方向发展。

我不认为人工智能的进化必然是良性的。一旦机器人达到自我进化的阶段,我们就无法预测它们的目标是否与我们一致。

人工智能究竟是天使还是恶魔?尽管业界各执一词,但存在这样一个共识:人工智能不能堕为一种专制力量,人类必须确保需人工智能的设计符合道德伦理规范。

说白了,就是技术不能落到坏人手上了。

于是避免人工智能失控的组织出现了——未来生命研究所(Future of Life Institute),这个由 Skype 联合创始人 Jaan Tallinn 和麻省理工学院教授 Max Tegmark 主导的组织,在去年召集了一众人工智能领域的专家签署了一封公开信:

我们认为,人工智能技术的健康发展,和给人类文明带来更多益处同样重要。我们发展人工智能系统必须在可控范围之内。

签署这封公开信的就有 Elon Musk 和霍金。

有趣的是,Elon Musk 曾在一次公开访谈说道:

就像所有的神话中画着法阵捧着圣水的邪恶巫师一样,每个巫师都声称自己可以控制恶魔,但没有一个最终成功的。

后评论

评论在审核通过后将对所有人可见

正在加载中

热爱 News Feed 与 Menu,正在努力让每天处理的信息量超过脂肪摄入量。

当公司以做到某些数额为目标时,他们就会做出很多在长期来看无益的事情。

查看全文 —— 沃伦·巴菲特

拼车是新的“领英”吗?

查看全文 —— Alyson Krueger,《纽约时报》作者

人对口味的偏爱是一种学习行为。经过培训,人可以喜欢新的食物。

查看全文 —— Madison Darbyshire,《金融时报》作者

那些潜在的犯人,其实也和一般人一样,容易受到干扰。要阻止犯罪,就让他们找点儿其它事干吧。

查看全文 —— Alan Burdick,《Why Time Flies: A Mostly Scientific Investigation》等书籍作者

一旦你听到了他们的故事,向他们提出那个神奇的问题:“你为什么会这样想的?”,这个世界就变得更开明了一点。

查看全文 —— Dylan Marron,作者 & 表演者