谷歌ARCore的Depth API用单个摄像头能创建深度图

电子说

1.2w人已加入

描述

Android增强现实(AR)取得重大进步,近日谷歌正在为开发工具包ARCore添加Depth API,这项新功能仅用单个摄像头就可以创建深度图,而不像之前需要从两个摄像头或ToF传感器。当移动摄像头时,它会自动捕捉多个图像,然后比较这些图像来估计你与每个像素的距离。

这个功能让人印象深刻,但谷歌对API的预期用途甚至更好:用于遮挡,让数字对象看起来与真实对象重叠,比单纯的AR覆盖更无缝地融合了增强现实世界。从今天开始,Scene Viewer(一种用于搜索中的AR的Google开发人员工具)将为超过2亿台使用ARCore的Android设备提供遮挡功能。

在AR中有无数的深度映射和遮挡的潜在应用,谷歌已经表明他们中的一些人将如何工作,包括更新Houzz应用程序,使该程序更好的将数字样本家具模型在实际空间中真实地演示,同时使数字对象能够与它们交互并从中得到反馈。

尽管Depth API支持没有传统深度传感器的单摄像头设备,但它也预计ToF传感器将实现更快的动态遮挡,从而能够将数字对象的某些部分隐藏在真实运动对象之后。最近三代iPhone都配备了前置深度传感器,以及近期一些三星和LG设备也开始增加飞行时间后置摄像头,预计其他公司在2020年效仿他们的做法。

有兴趣访问新的Depth API的开发人员将需要响应谷歌对合作者的呼吁,因为该软件显然还没有普及到每一个人。用户可以在Play Store提供的最新版本的Android Houzz应用程序中看到这些新功能的运行情况。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分