如何从高层次上了解苹果AR头显Vision Pro

vr|ar|虚拟现实

169人已加入

描述

多年来,关于苹果可能进入AR/VR市场的传言一直不绝于耳。虽然其他公司推出的头显评价褒贬不一,但它们并没有引起消费者的广泛采用,许多业内人士都乐观等待着苹果公司发布头显。

最近,苹果公司在WWDC23上发布了苹果Vision Pro,这是该公司首款“空间计算机”。这款苹果的新产品充满了全新的技术创新,使其与过去的头显设备区别开来。这篇文章将从高层次上了解Vision Pro,并讨论为该公司的第一台空间计算机提供动力的芯片。

Vision Pro:高级概述

Apple Vision Pro是一款混合现实头显,这意味着它可以同时作为VR头显(完全沉浸式)和AR头显(部分沉浸式)使用。谈到Apple Vision Pro,我们可以讨论的技术有很多,但由于是电子工程师,我们将更关注硬件。

该设备采用了由复杂硬件支持的无数传感器。为了解用户周围的物理世界,该头显配备了一系列传感器,包括两个主前置摄像头、四个朝下摄像头、两个侧向摄像头、一个3D摄像头和一个激光雷达扫描仪。为了与用户的眼睛接触,该产品在设备内部配备了一系列红外摄像头和LED照明器。

Vision Pro引入了两个处理器来处理这些传感,同时支持Vision OS,这两个处理器分别是M2和全新的R1。在视觉上,每只眼睛都有一个定制的mcro-OLED显示屏,每只眼睛的分辨率都高于4K电视。

微软的Holo Lens或Meta Quest等竞争对手将硬件完全包含在头显中,而苹果Vision Pro的电池与头显是分开的。该设备的电池放在用户的口袋里,通过USB线连接到头显上。通过将电池从耳机中分离出来,苹果公司使设备更轻,并防止其过热——这两个都是AR/VR头显的常见问题。

R1芯片

迄今为止,AR/VR头显面临的最大障碍之一是,由于处理数据和视觉数据之间的延迟,用户会感到恶心。苹果公司声称已经用其新的内部R1芯片解决了Apple Vision Pro的这个问题。

该公司没有透露关于R1芯片的很多细节,但该芯片已经被证实是苹果定制的芯片解决方案,专门用于传感器处理和融合。据苹果公司介绍,R1同时处理来自12个摄像头、5个传感器和6个麦克风的输入,延迟极低,消除了感知和体验数据之间的滞后。据说,R1还能在12毫秒内将新图像传输到用户的眼睛,比人类眼睛眨眼的速度快8倍。

R1与Apple Vision Pro中的Apple M2 SoC一起工作,其中M2负责非传感器计算的繁重工作。M2最高可实现15.8 TOPS的AI计算,内存带宽达到100 GB/s。

就是它了吗?

长期以来,AR/VR一直被吹捧为潜在的下一波计算浪潮,但到目前为止,还没有一家公司生产出能让其成为现实的产品。很难说苹果的Vision Pro是否会改变AR头显的发展轨迹,但如果曾经有一家公司拥有足够的资源、精神和技术来实现这一目标,那一定是苹果。

编辑:黄飞

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分