用眼球来控制 iPhone 是个不错的想法,但解放双手还是没戏
众所周知,由于采用了能够采集 3D 深度信息的结构光设计,苹果为 iPhone X 添加了不少新的玩法,各种围绕面部的识别方案也成为很多人关注的话题。除了最常见的人脸解锁外,动态 Animoji 表情也衍生出很多鬼畜的表情和短视频,就连苹果自己也尝试用这些头像制作过几期宣传广告,比如像这样的:
在 iOS 12 里,苹果进一步增强了 Animoji 的识别范围,这次连“吐舌头”的动作都可以完美还原到定制头像上了。
但 3D 结构光的潜力显然远不止这些,基于新的 ARkit 2.0,脑洞大开的开发者们又想出了一个新玩法——用双眼来代替手指,直接“操作”iPhone。
名为 Matt Moss 的学生开发者最近在自己的 Twitter 上展示了一个测试视频,从视频中我们可以看到,iPhone X 屏幕中出现了一个光标,而这个光标的“移动”操作则是完全由眼球控制的,此外只要开发者眨一下眼睛,光标也会判定为是“点击”,随即便会进入到新的菜单页面。
根据 Mashable 的报道称,这个所谓的“眼球追踪”功能是苹果在 ARkit 2.0 中新加入的功能:“最初我只是想做个 Demo 来试试看这个功能的可操作性。”
但很显然,配合 3D 结构光更为精准的识别,现在眼球追踪的准确度已经远比前几年那种鸡肋的表现要出色得多。同时这也意味着,现在手机摄像头不仅能用来自拍,同时也能准确判断出你的注意力在屏幕的哪个位置,这也为定制广告和应用服务提供了更丰富的想象空间。
但如果谈论的交互上的实用性,我想大部分人还是更愿意用手指来戳屏幕,为什么呢?
之所以会这么说,或许和三星 Galaxy 系列曾经“翻过的车”有关。早在 Galaxy S4 时代,三星就在手机中加入了一系列眼部和头部控制的功能:如果手机检测到你的视线离开屏幕,正在播放的视频就会自动暂停,此外还可以根据你的头部倾斜角度来滚动屏幕等。
这功能当时起初听上去感觉还是挺酷炫的,但实际用起来可能就成了下面这个样子:
所以,为了你的颈椎考虑,如果你真的打算靠“动动眼珠子”来取代双手,我觉得还是尽早打消这个念头吧。反而是对行动不便的残障人士来说,眼球追踪技术更能展现出它应有的价值和意义。
具体的案例微软已经给出来了,如今 Windows 10 系统便自带了用眼球“操作”电脑的“Eye Control”特性,可以让身体不便的人实现用眼睛来“打字”。
回到苹果这项隐藏的小功能上,值得注意的是,苹果在去年专门收购了一家专注于 VR 头盔和 AR 眼镜视觉追踪技术的德国企业 SensoMotoric Istruments,此举也被业内认为是苹果在为神秘的 AR 设备做技术积累。加上还有一系列手势和眼球追踪专利,说不定在未来苹果的虚拟现实产品中,我们也能看到一些意想不到的新玩法。
题图来源:Cyndi K