Google“黑科技”,Pixel 4 或将实现指尖级的隔空操作

电子说

1.2w人已加入

描述

Pixel 4 将会搭载 Google 研究了多年的 Project Soli 技术。 2015 年 Google 在 I/O 大会上正式公布了他们的手势操作项目 Project Soli,并将当天的气氛推向了一个高潮。

手势操作这种东西不是很常见了吗?像早前的 LeapMotion 以及早已投入使用的 BMW 车机系统等都实现了对手势隔空操作的支持。 难道是 I/O 大会的人见识短浅,大惊小怪么?并不是,因为你如果在现场,你也会感到惊讶的。我们直接来看看演示。

从上面的演示中可以看出,Project Soli 与我们之前看到的那些「大开大合」的手掌和手指手势不太一样,它最大的特点就是可以识别指尖的细微动作,例如上面的模拟按按钮、转动旋钮、拨动滑竿等。 我们都知道,一般一项技术取得了大幅度的领先,那么这项技术大概率是在实现原理上走了另外一条路。Project Soli 自然也不例外。 目前,市面上的手势追踪技术有多种解决方案,包括以 Kinect 为代表的深度感应技术以及以 LeapMotion 为代表的红外线投影技术。 而 Project Soli 则是利用了微型毫米波雷达来对手势进行监测,然后再将收录回来的雷达信号进行一系列的处理,并最终识别成各种交互手势。

这种监测手段的最大优势就是毫米波雷达可以追踪到亚毫米精准度的高速运动。这也是上面演示的这些微小的指尖动作操控能够得以实现的原因。 而另一个优势则是在于功耗上面。因为不用像深度感应技术那样需要计算大量的深度数据,所以 Project Soli 的功耗可以大幅度下降,这也使得将这种技术放到手机、甚至是手表这些移动设备上成为可能。

事实上,在 2016 年的 I/O 大会上,Google 就已经将 Project Soli 整合到了一只 LG 的智能手表中。从演示中我们也可以看到,用户隔空就可以对手表进行操作。 虽然手势还是相对有点粗糙,只有滑动、旋转、点按,与概念视频中的复杂手势还有一定的差距。但是对于智能手表来说,能够将操控从只有一点几英寸的屏幕中解放出来,在使用体验上,已经是巨大的提升了。

毫无疑问,智能手表将是目前 Project Soli 的最佳用武之地,而相比起手表,我们在手机上使用手势操作的需求可能并没有那么大。但是从各方面的消息来看,大众消费者很有可能将会在今年 10 月份发布的 Pixel 4 手机中首次迎来 Project Soli。

该消息最早是由 XDA 论坛所提出。他们的开发人员在 Android Q 的测试版中发现了一些细节,这些细节显示全新的 Pixel 将会包含一款名为「感知传感器」的芯片,另外他们也在系统中发现了一些基于「感知传感器」的「下一首」、「静音」控制代码。

另外,Google 在去年的一系列技术使用申请也似乎在暗示 Project Soli 即将进入消费市场。 首先是在 3 月,Google 正式获得了使用雷达波束来进行 3D 空间动作捕捉的审批。 然后在 12 月,Google 又获得了联邦通信委员会的批准,允许搭载 Project Soli 的产品在飞机上使用毫米波雷达。 在审批文件中,联邦通信委员会的技术主管 Julius Knapp 还特别强调,由于这项技术可以实现无接触操控,将会让不少残障用户受益。因此,这项技术属于「对公众利益有利」,所以即便可能存在极小的风险,他们也依然认为这项技术可以通过审批。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分