iPhone 8 要用上 AR?微软、Google、英特尔早就这么干了

产品

2017-03-08 15:21

年年岁岁果相似,岁岁年年料不同。

每年关于新 iPhone 的新功能预测和爆料都非常多。或许是因为去年的 iPhone 7/7 Plus 新功能不够多,整体不让人满意;于是今年的 iPhone 8(暂且这么叫吧)新功能被传得满天飞,先是 OLED 屏幕、高屏占比设计,后是无线充电超长距离使用,现在又有一个新的功能被爆出:iPhone 8 会利用 3D 传感器和深度摄像头来提供增强现实(AR)功能。

有供应链内部人士向爱范儿(微信号:ifanr)表示:“苹果的确在准备上 AR 功能,富士康的生产线连双目立体视觉相关的 “光学标定” 都准备好了,这在之前是从来没有过的。”

不仅如此,甚至,9to5mac 援引巴克莱(Barclays)银行的报告称,苹果将使用 “飞行时间(Time of Flight,ToF)” 和 “结构光(Structured Light)” 两种技术来实现 AR 功能。

这里简单科普一下两种技术。

“飞行时间”(Time of Flight)技术是目前感知 3D 空间最简单的方法。这种技术的原理是,传感器发出经调制的近红外光,遇物体后反射,随后传感器通过计算光线发射和反射时间差或相位差来换算被拍摄景物的距离,以产生深度信息;然后再结合传统的相机拍摄,从而将物体的三维轮廓以不同颜色代表不同距离的地形图方式呈现出来。此前被联想和 Google 寄予厚望的 Project Tango 手机使用的便是 ToF 技术。

“结构光”(Structured Light)技术则要相对复杂一些。该技术将光栅或线光源等投射到被测物上,根据它们产生的畸变来解调出被测物的三维信息。

不过,和巴克莱银行的说法略有差异,该供应链内部人士称,苹果将在 iPhone 8 上使用的是 “结构光” 技术。据他的说法,iPhone 8 的 AR 模块用来做面部识别和手势识别,而 “结构光” 技术比起 “飞行时间” 技术,短距离的精度高,更适合在手机的前置摄像头上使用。

当然两者的功耗都是一个大问题,该内部人士称即使结构光的模块,功耗也很大,达到了 1W,这在电量本就捉襟见肘的手机上,还是显得太过凶猛。所以目前来看,要用手机进行环境建模还是比较费劲的,苹果 AR 模块的大应用很可能是在游戏中进行 3D 建模。

2013 年 11 月,苹果以 3.45 亿美元收购以色列 3D 传感器生产商 PrimeSense。而 PrimeSense 正是微软 Kinect 体感控制器的 3D 技术提供方。Kinect 可以将玩家的动作作为 Xbox 游戏的一部分,而体感控制器的传感器允许玩家无需使用控制器就可跟游戏系统相连。

早在 2010 年底,PrimeSense 与华硕合作开发出了 Xtion Pro,这款设备在 PC 上使用,其采用了和 Kinect 同样的 3D 传感器。2012 年,PrimeSense 推出了当时世界上体积最小的 3D 传感器 Capri,其分辨率是前代产品的 3 倍,而体型仅为前代的十分之一,环境光的检测性能则是前代的 50 倍。自从收购 PrimeSense 后,苹果一直在推动 PrimeSense 的 3D 体感控制器向小型化发展,希望可以将其装配到电视、PC 上。不出所料的是,其小型化的终极目标之一是将之用到 iPhone 上。当然,这场收购也使得微软 Kinect 体感控制器在后续的产品中改变了 3D 技术原理。

除了 PrimeSense 之外,苹果在这个行业还有所布局。同样据 9to5mac 的消息,2015 年时,苹果还收购了一家德国新创企业 Metaio。Metaio 主要研发 SLAM(同步定位与地图构建,Simultaneous localization and mapping)为基础的 AR 技术。此外,苹果还收购了以色列网络安全和面部识别公司 RealFace。这些收购显然是苹果对该行业的看好和准备。

科技网站 MacRumors 日前引述瑞银(UBS)分析师米卢诺维奇(Steven Milunovich)研究报告指出,iPhone 8 可能具备同步定位与地图构建(SLAM)技术(同步定位与地图构建,SLAM 或 Simultaneous localization and mapping,是一种概念:希望机器人从未知环境的未知地点出发,在运动过程中通过重复观测到的地图特征,比如墙角、柱子等,定位自身位置和姿态,再根据自身位置增量式的构建地图,从而达到同时定位和地图构建的目的),内建立体视觉应用的 3D 影像功能。

米卢诺维奇预期,未来 2 年到 3 年,苹果 iPhone 和 iPad 将内建支持 AR 技术的模块、3D 摄像头以及定制芯片组等关键零组件。米卢诺维奇并引述多名产业消息人士指出,苹果在以色列可能有超过 1000 位工程师,投入增强现实相关的技术研发计划。

对移动端 3D 深度视觉技术进行布局的厂家不止苹果,实际上,整个行业对 3D 视觉的布局比大家想象的多和早。据国内深度摄像头供应商图漾科技副总经理徐韬向爱范儿介绍,同为业界大拿的英特尔、微软、Google、索尼等公司也对该技术有所布局。

以 “结构光” 为工作原理的英特尔 RealSense 在国内外大型舞台上惊艳登场。上文提到的 Google 旗下 Project Tango 甚至已经有手机发布。

索尼则在 2015 年 10 月宣布收购比利时一家名为 SoftKinetic 的传感器技术初创公司。这家公司专门研究 Time-of-Flight 技术,该技术能判定目标物体到传感器的距离,甚至目标物体不同部分到摄像头的距离。索尼在收购 SoftKinetic 的公告中所称:

结合 SoftKinetic 的技术,索尼不仅要在图像领域,还要在更宽广的传感应用范围,发展下一代的图像传感器和解决方案。

而微软在该领域的探索更为复杂。微软在 2010 年时便和 PrimeSense 合作,推出了 Xbox 360 体感外设——Kinect。第一代 Kinect 采用的是结构光原理,但毕竟是第一代产品,产品的准确度、图像的分辨率和响应速度一直不理想。2012 年,微软先后收购了 ToF 相机公司 Canesta 和 3dv。次年,微软终止了与 PrimeSense 的合作,自行开发出 Kinect 2 代(Kinect One),这代产品的原理也改为了 ToF。

当然,话又说回去,毕竟 iPhone 8 还有好几个月才发布,这台手机最终搭载该技术仍旧不能百分之百保证,在发布之前临时取消某功能在此前也不是没有过的事情。不过,如果苹果在近期加入这个阵营的话,一个显而易见的作用是,移动端 3D 深度视觉技术的普及速度将得到大大加快。

据估算,到 2020 年,AR 市场的收入规模将达到 1200 亿美元,同期的 VR 市场则为 300 亿美元。所以,各个厂家都在该行业和技术进行大量投入,以及研发,也就不难理解了,毕竟移动端 3D 深度视觉技术得到普及是最终的大趋势。这也难怪苹果投身该行业的消息传出后,相关概念股的股价都活跃了起来

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中