基于新的ARkit 2.0又想出了一个新玩法——用双眼来代替手指,直接“操作”iPhone

电子说

1.3w人已加入

描述

众所周知,由于采用了能够采集3D深度信息的结构光设计,苹果为iPhone X添加了不少新的玩法,各种围绕面部的识别方案也成为很多人关注的话题。

除了最常见的人脸解锁外,动态Animoji表情也衍生出很多鬼畜的表情和短视频,就连苹果自己也尝试用这些头像制作过几期宣传广告,比如像这样的:

在 iOS 12 里,苹果进一步增强了Animoji的识别范围,这次连“吐舌头”的动作都可以完美还原到定制头像上了。

但3D结构光的潜力显然远不止这些,基于新的ARkit 2.0,脑洞大开的开发者们又想出了一个新玩法——用双眼来代替手指,直接“操作”iPhone。

名为Matt Moss的学生开发者最近在自己的Twitter上展示了一个测试视频,从视频中我们可以看到,iPhone X屏幕中出现了一个光标,而这个光标的“移动”操作则是完全由眼球控制的,此外只要开发者眨一下眼睛,光标也会判定为是“点击”,随即便会进入到新的菜单页面。

根据Mashable的报道称,这个所谓的“眼球追踪”功能是苹果在ARkit 2.0中新加入的功能:“最初我只是想做个Demo来试试看这个功能的可操作性。”

但很显然,配合3D结构光更为精准的识别,现在眼球追踪的准确度已经远比前几年那种鸡肋的表现要出色得多。同时这也意味着,现在手机摄像头不仅能用来自拍,同时也能准确判断出你的注意力在屏幕的哪个位置,这也为定制广告和应用服务提供了更丰富的想象空间。

但如果谈论的交互上的实用性,我想大部分人还是更愿意用手指来戳屏幕,为什么呢?

之所以会这么说,或许和三星Galaxy系列曾经“翻过的车”有关。早在Galaxy S4时代,三星就在手机中加入了一系列眼部和头部控制的功能:如果手机检测到你的视线离开屏幕,正在播放的视频就会自动暂停,此外还可以根据你的头部倾斜角度来滚动屏幕等。

这功能当时起初听上去感觉还是挺酷炫的,但实际用起来可能就成了下面这个样子:

所以,为了你的颈椎考虑,如果你真的打算靠“动动眼珠子”来取代双手,我觉得还是尽早打消这个念头吧。反而是对行动不便的残障人士来说,眼球追踪技术更能展现出它应有的价值和意义。

具体的案例微软已经给出来了,如今Windows 10系统便自带了用眼球“操作”电脑的“Eye Control”特性,可以让身体不便的人实现用眼睛来“打字”。

回到苹果这项隐藏的小功能上,值得注意的是,苹果在去年专门收购了一家专注于VR头盔和AR眼镜视觉追踪技术的德国企业 SensoMotoric Istruments,此举也被业内认为是苹果在为神秘的AR设备做技术积累。加上还有一系列手势和眼球追踪专利,说不定在未来苹果的虚拟现实产品中,我们也能看到一些意想不到的新玩法。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分