谷歌推出支持多人AR体验的ARcore

电子说

1.2w人已加入

描述

今天凌晨,一年一度的Google I/O开发者大会在美国旧金山如期开幕,今年大会的主角,是贯穿全场的AI技术。

撇开Android P的智能助手不谈,新版 Google Lens 加入实时摄像头识别功能,通过分析画面中出现的物体,提供适合的搜索建议、Google Photos通过分析照片内容,向用户提供智能操作建议,实现自动调整照片等后期功能、摩斯密码结合AI识别帮助残障人士与别人的沟通等等技术都是不错的亮点。但我们这次要说的,还是谷歌的ARCore1.2和谷歌地图AR功能的更新。

ARCore1.2

首先,与ARCore 1.0只能检测到水平面不同,更新后的1.2版本可以检测墙面和垂直面。也就是说,更新之后,用户可以进行诸如将虚拟家具放在房子墙壁上、把照片挂在墙上之类的操作。

另一项新功能被称为“增强图像”,可以通过将手机摄像头指向特定对象来启动AR体验,实际上的功能与QQ火炬或者支付宝AR功能差不多。它可以识别多达1,000个2D图像,从而使ARCore能够在不需要方形AR标记的情况下识别诸如产品框或电影海报之类的东西。

最重要的是AR云的更新,这也意味着ARCqre将可以支持多人AR体验。

AR云基于ARCore的运动跟踪功能,简单来说,通过寻找虚拟物体的特殊点并创建稀疏点云来起作用。这些稀疏点云会上传存储在Google的云中,当用户需要共享虚拟物体时,只需要从云端将稀疏点云信息发送至指定的设备即可。

因此,如果用户和同伴在两台不同的设备上打开了相同的AR应用程序,则可以在同一位置看到相同的虚拟对象。也就是说,基于AR的多人游戏将成为可能。

另外,虽然ARCore仍然是一个仅限Android的增强现实框架,但是Google开发了一个可以在iOS的ARKit上运行的特殊的云定位库。因此,在iOS中,系统将使用所有内置的ARKit功能,并将数据同步到云端。也就是说,无论开发者使用的是哪种平台,都可以在Android和iOS之间同步AR数据以共享体验。

谷歌地图的AR功能

谷歌地图将会更新一种基于视觉定位系统(VPS)的增强现实导航功能,此外, 谷歌地图开发团队设计了一个动画 AR 图像, 以帮助引导用户到他们的目的地。

这个视觉定位系统(VPS)实际上是谷歌在去年的会议上公布的, 第一代 VPS 基于现在已经失效的Tango平台, 作为室内导航的一个解决方案,它在估计定位和方向的基础上观测地标比GPS具备更高的精度。

VSP是一种vSLAM技术。简单地说,VPS就是利用IMU和视觉特征点结合运算定位的技术,通过将IMU的空间信息和特征点变换的信息结合起来计算摄像头的位置变化,这样得到的变化数据非常精确,定位精度可以达到几厘米。它也同样适用于户外,同样通过对特征点的识别计算位置变化。

现在, 谷歌正在将这项技术应用到地图上, 在使用中,可以将传感器采集的视觉数据与谷歌的街景地图进行比较,从而识别地标建筑,籍此找到用户的位置,并引导用户到达目的地。

另外,谷歌地图同样也得到了AI的加持。用户可以在谷歌地图中选择餐厅或饮品店的满意度,以此表明用户对食物或饮料的满意程度。谷歌地图将基于机器学习和用户的评价,预测出用户对于食物和饮料的偏好,在用户尝试新的餐厅时给出最佳的推荐。

别的AR开发平台同样也具备ARCore更新的其它功能,谷歌地图的新功能其实也不少见,但ARCore的云技术应该算是一个突破,多人的AR交互很可能带动AR更快进入消费者视野,或许能成为AR发展的一个突破点。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分