随着越来越多的智能手机和可穿戴设备供应商在其设计中整合第三方深度传感模块,预计从明年起就能看到更多超越iPhone X与iOS平台以外的3D传感应用以及“非苹”生态系统的形成…
高通的主动式深度传感模块(右)配备深度超过10,000点的深度图,能检测深度相距0.1毫米(mm)的变化。
该相机模块可为室内和户外环境提供实时深度传感并生成3D点云(point-cloud)。该计算机视觉相机模块预计将在2018年第一季起出现在许多产品中。
高通将低功耗的Spectra ISP技术整合于其移动处理器中,进一步提升移动设备的应用能力。
深度传感的测距与功率
深度传感器采用飞行时间(ToF)技术,并利用已知的光速解析与物体之间的距离。红外光点投射在物体上作为点云,接着传感器读取场变形,并收集深度信息。
英特尔的R200 RealSense开发工具包包含RGB相机和深度传感器,并采用立体红外线(IR)产生深度。
过去几个月来,针对消费型AR的单视场多视点技术——分别为iOS和Android提供ARKit和ARCore开发平台的不同形式),让独立开发商和亚马逊(Amazon)等主要玩家倍感振奋。Solotko说:“AR体验十分吸引人且非常有帮助,大幅扩展了移动开发人员所能提供的体验。”
微软(Microsoft)也一直积极地收购和开发AR/VR的IP,很早就在HoloLens混合实境(MR)智能眼镜中采用移动深度传感器解决方案,以及微软Windows混合实境中基于相机的解决方案。
英特尔(Intel)则为基于手势的接口提供了RealSense开发平台,并为深度传感技术累积了丰富的软件堆栈与设计IP。然而,根据Solotko,目前还不清楚该技术最终将应用在何处——笔记本电脑?整合型头戴式显示器?还是基于英特尔芯片的移动设备上?
全部0条评论
快来发表一下你的评论吧 !