我不认为人工智能的进化必然是良性的。一旦机器人达到自我进化的阶段,我们就无法预测它们的目标是否与我们一致。

—— 史蒂芬·霍金

大声

2016-06-29 16:36

受益于人工智能进行交流的史蒂芬·霍金一次次地向人们警告,人工智能很危险。

在接受美国王牌脱口秀主持人拉里·金(Larry King)的采访时,这位英国物理学家表示,人工智能进化的速度比人类的角度更快,而这种进化可能朝着人们无法预知的方向发展。

我不认为人工智能的进化必然是良性的。一旦机器人达到自我进化的阶段,我们就无法预测它们的目标是否与我们一致。

人工智能究竟是天使还是恶魔?尽管业界各执一词,但存在这样一个共识:人工智能不能堕为一种专制力量,人类必须确保需人工智能的设计符合道德伦理规范。

说白了,就是技术不能落到坏人手上了。

于是避免人工智能失控的组织出现了——未来生命研究所(Future of Life Institute),这个由 Skype 联合创始人 Jaan Tallinn 和麻省理工学院教授 Max Tegmark 主导的组织,在去年召集了一众人工智能领域的专家签署了一封公开信:

我们认为,人工智能技术的健康发展,和给人类文明带来更多益处同样重要。我们发展人工智能系统必须在可控范围之内。

签署这封公开信的就有 Elon Musk 和霍金。

有趣的是,Elon Musk 曾在一次公开访谈说道:

就像所有的神话中画着法阵捧着圣水的邪恶巫师一样,每个巫师都声称自己可以控制恶魔,但没有一个最终成功的。

后评论

评论在审核通过后将对所有人可见

正在加载中

热爱 News Feed 与 Menu,正在努力让每天处理的信息量超过脂肪摄入量。

人类将面临的最大考验并非是失去工作,而是失去生活的意义。

查看全文 —— 李开复

「人的需求」不是纯粹、不受外界干扰的。它由人过去的经历塑造而成,其中,也包括了我们和科技之间的互动。我们需要一种更成熟的「以人为本」设计理念。

查看全文 —— Mark Rolston,frog design 前创意总监

即使(Uber 先合并一家打车公司)这样做,我觉得到最后也改变不了结局。因为中国互联网从来没有输过。

查看全文 —— 程维

科技公司成了最大的投资者,这可以促进经济发展。但由于它们体量之大,哪天泡沫破了,对社会和经济的影响也会比想象中严重。

查看全文 —— 《经济学人》

我们都是数据奴隶。

查看全文 —— Jennifer Lyn Morone,艺术家