未来机器人研究的挑战是从「我相信机器人会做到」变为「我相信机器人」。

—— 加州大学洛杉矶分校

大声

03-03 18:15

未来有一天,我们会全心全意的相信机器人吗?我们会把它当作家中普通的电器,当作一个可以全心信赖的生活助手吗?

至少从现在来看,一切还很难,人对机器人依然充满戒心。离这些技术极近,对 AI 机器人技术呈开放态度的马斯克自己也说

大家一般都会低估人工智能的能力,他们觉得那就是聪明人而已。实际上,人工智能比这个厉害得多,可能比最聪明的人还要聪明。面对这个状况我们应该做什么呢?我也不知道,我也不确定,但我希望 AI 会是好东西。

人们也不信任自动驾驶汽车,即使机器人不会疲劳、喝醉、分心驾驶,但人们并不在乎。AAA 在 2019 年 3 月开始的年度自动驾驶汽车调查发现,有 71% 的人对乘坐全自动驾驶汽车感到害怕。

面对人类的抵触,机器人——以及机器人背后的人类开始研究如何才能让人类产开心扉,信任机器人。

在这其中,研究者要面对的最大问题就是机器人远比其他事物智能的多,也就是说机器人会有自己决定要做的事(虽然也是人类设定要它做的事)。但如果它的自主性让人类难以理解它们在做什么,人们就很难信任它。

可解释人工智能(Explainable AI,简称 XAI)是人工智能研究中的一个分支,它研究如何让人工智能对人类用户更加透明可信。它致力于开发让人类认为值得信赖的人工智能系统,同时其系统也能很好地完成工作任务。

▲ 图片来自:Medium

加州大学洛杉矶分校的视觉认知学习和自治中心,研究者就对什么因素使机器更被信任,以及不同算法在多大程度上能帮助机器人得到信任更感兴趣:

在我们最新的研究中,我们尝试了不同的方式让机器人向人类解释它的动作。

有趣的是,最能培养人类信任的解释形式与最佳任务表现的学习算法并不对应。这表明机器人的性能和解释能力并不是天然相辅相成的——单独优化一个可能没法为另一个带来最好的结果。这种分歧要求机器人的设计过程中既要考虑良好的任务性能,又要考虑为人提供可信的解释。

研究者让机器人打开了一个带有安全锁的药瓶。在机器人开启药瓶前,有一个人戴着能记录人手姿势和力量的手套先开了一次瓶子。手套记录的信息帮助机器人用象征性和触觉的两种方式理解了人类的行为。象征性是有意义的表现,比如「抓」这个行为,而触觉是机器人的姿势和感觉,比如手指合拢。

研究者的实验表明,机器人如果能提供象征性和触觉的解释,就更能培养信任感。而文字的解释说明反倒没有比人亲自观察机器人执行任务更能培养信任,因为人类更喜欢机器人一步一步地向他们解释自己正在做什么,哪怕这个过程更加麻烦。

未来机器人研究的挑战是从「我相信机器人会做到」变为「我相信机器人」。

▲ 图片来自:PaymentsJournal

这个发现可能会对未来人工智能的信任问题起到关键作用。研究者 Edmonds 告诉《Inverse》这个问题在未来几年将会变得至关重要,因为技术在人们的生活中将会发挥越来越积极的作用。

我认为提供这些解释的目的之一是建立信任。

我的意思是,现在大多数机器学习和机器人技术基本上都是「黑匣子」。你真的不知道中间发生了什么。你所能理解的是输入和输出是什么,如果系统在输出上运行良好,那么你就不用担心中间会发生什么。

题图来自 Fast Company,iStock, AlfazetChronicles .

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中

美国之所以迫害字节跳动(TikTok),实际上是因为这个公司是中国的。

查看全文 —— 《连线》杂志主编 Nicholas Thompson

我以前在网易门户工作的时候,自己忍不住去看新闻评论,每次看了又会怄气怄很久。

查看全文 —— 产品经理纯银

我有永远讲真话而不是粉饰太平的名声,这可能是我最近很少上电视的原因之一。

查看全文 —— 安东尼・福奇

在这里你可以体验到更多特别的观看角度,例如从歌手的角度向外看,甚至是俯视的上帝视角。这样的体验可不是演唱会坐在几十排开外能感受到的。

查看全文 —— 腾讯音乐娱乐集团副总裁潘才俊

我们认为不仅仅一二三线城市,到了四五六线也可以进入(5G 手机)普及的时代了。

查看全文 —— 荣耀总裁赵明