英特尔实感技术模仿 “人眼” 看外物,我们还能模仿出整个人脑么?

公司

2016-04-13 22:48

可感知化是英特尔提出的一个新概念,英特尔也正通过 RealSense 实感技术让设备拥有像人眼一样的感知外物的能力。

如果你关注了 CES 2016,可以知道 Ninebot 的 Segway 平衡车加上这个技术套件变成了管家机器人。在最近很热的无人机话题上,采用了该项技术的 Yuneec Typhoon H 也部分实现了飞行自动避障。

当然它还可以被塞到手机中实现扫描 3D 建模、建立 VR 设备帮助用户实现混合现实场景甚至塞到镜子中识别你并帮助你实现 “镜中换衣”。

这样的例子不胜枚举,中心思想是当一个智能设备拥有了感知外物的能力,这个世界可能就要有些变化了。

目前英特尔拥有几种常见的 RealSense 实感摄像头套件,SR300 型号适合近距离使用;R200/LR200 则适合远距离使用;ZR300 适合远距离进行运动感知。

而英特尔愿意将这个阶段看做计算设备感知外物寒武纪大爆发的起始阶段。英特尔新技术事业部副总裁兼感知计算事业部总经理鲍克勤在沟通会上表示,“在大爆发期间,这些物种可以有眼睛看世界了,不仅仅是简单的了解光源,而是真正能够去有视觉看到整个的世界了。”

可参考的,人类感知系统大致可以分为传感——理解——交互——学习几个步骤,普通摄像头的拍摄仅仅实现了第一阶段,而 RealSense 实感摄像头则是要建立和人类感知相同的体系。

鲍克勤还认为机器深度学习研究像模仿人脑:如果把 RealSense 实感技术的捕捉事物比作人眼的 “看见”,那么终究在计算后端藏有一个类似于人脑的计算中枢。

所以在这方面参考人脑就有了些仿生研究的意味,但终究类脑处理器不是人脑,真实的情况是:人脑中一个神经元和上万个神经元产生联系;而就算我们把类人脑的驱动计算单元堆积到神经元那么多,我们的计算单元也只能一个处理单元和几个处理单元产生互动。

我们现在的类脑处理器是高度简化学习人脑的架构,但是人脑是非常非常复杂的。在人脑的大脑皮层当中神经元所形成的网络则极为复杂。

信息存储的方式和计算机是不一样的,人脑的记忆是非常复杂的记忆方式,比如你回想起你某一天的那一天的生活,你可能想到了当时当地你所闻到的气味,你听到的声音,以及你当时的心情是高兴还是悲伤。但是计算机它是单独来进行分立记忆的,不像神经元是通过网络记忆了整个事件,是一个故事。

这恐怕也是机器捕捉实体、深度学习的难处所在。

不过鲍克勤也认为,目前的研究还是进步的,也正是因为参考了大脑获取处理信息的方式。

就像 RealSense 实感技术已经有了落地的方案,比如 Savioke 就是实感摄像头技术的使用方,他们设计了用于酒店的 Relay 机器人,实感摄像头帮助它识别环境并在酒店内为房间中的客人配送物品。

此前 RealSense 实感技术也被放进了 Project Tango 的原型机,它可以帮助手机扫描外部实体环境构建 3D 模型。

甚至在我们最熟悉的 PC 产业里,一些主流的 OEM 品牌也都推出过搭载 RealSense 实感技术的产品。英特尔提出了可感知化的公司方向,这些就是它付诸的行动。

虽然如此,当我们谈及和接触任何一项新技术时会非常美妙,RealSense 实感技术技术新颖且很好玩,但推进起来确实存在一定挑战,比如市面上还并没有太多采用这种技术的解决方案在,它还真的缺乏一个好用的产品。

英特尔也坦诚实感技术的研究也是非常困难的,因为这里面有处理器也需要有光电感应能力,这么小尺寸的电路板还有成像能力,激光和投影、甚至校准的能力。

谈及实感技术的未来,鲍克勤认为:

未来我们希望把它做得越来越小,继续降低功耗,降低价格;当机器学习进入到后期,它应该会被放进任何的设备当中去,所有的设备都可以在这个设备上获益。

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中