英伟达图灵显卡有助于帮助VR实现完全的沉浸感

vr|ar|虚拟现实

169人已加入

描述

在过去数十年里,VR体验已经从科幻小说和研究实验室走向了家庭和办公室。但即便是今天最佳的VR体验都尚未实现完全的沉浸感。

英伟达最新的图灵显卡有望帮助VR朝向这个目标迈进一大步。英伟达在上周的SIGGRAPH大会和今天的科隆游戏展上宣布,图灵显卡将实时光线追踪、人工智能和全新渲染技术相结合,推动VR达到新的沉浸感和逼真感。

实时光线追踪

图灵通过引入RT核心而实现了逼真的视觉保真度。这种处理器专门用于加速光线与环境中对象相交位置的计算,从而首次在游戏和应用程序中实现实时光线追踪。

这种光学计算复制了光线的行为方式,并创建了令人惊叹的逼真图像,能够支持VR开发者更好地模拟真实世界的环境。

图灵的RT核心同时能够通过NVIDIA VRWorks Audio SDK来模拟声音。今天的VR体验提供了位置准确的音频质量。但它们无法满足计算需求,无法充分反映环境的大小、形状和材质特性,尤其是动态方面。

与前一代相比,WRWorks Audio能够在RTX平台提速6倍。光线追踪的音频技术能够实时创建虚拟环境的物理逼真声学图像。

在SIGGRAPH大会上,英伟达演示了VRWorks Audio与NVIDIA Holodeck的集成,说明了技术是如何在开发复杂虚拟环境时创建更逼真的音频,并且加快音频工作流程。

人工智能加速VR环境

深度学习是一种GPU加速的AI方法,其有潜能解决VR面临的一些视觉和感知挑战。人工智能可以进一步增强图形,可以改善位置追踪和眼动追踪,并且提高角色动画的真实感。

图灵架构的Tensor Core可以每秒提供高达500万亿个张量(Tensor)操作,加速推理并在高级渲染技术中启用AI,从而令虚拟环境更加逼真。

更先进的VR渲染技术

图灵同时搭载了一系列的渲染技术,能够提高VR的性能和视觉质量。

Variable Rate Shading(VRS,可变速率着色)能够优化渲染。主要方法是在场景的详细区域中应用更多着色性能,并在较少可感知细节的场景中限制计算。这可以降低场景外围区域的着色率(用户不太可能留意的区域,尤其是当与眼动追踪相结合时),从而用于注视点渲染。

Multi-View Rendering(多视图渲染)能够支持提供超宽视场和斜面显示屏的下一代头显,这样用户就能感知一个无边框的虚拟世界。Multi-View Rendering(多视角渲染)是Single Pass Stereo(单通道立体视觉)的下一代版本,可以将单个渲染通道的投影视图数量增加四倍。而且这四倍的视图现在都独立于位置,并且能够沿任何轴移动。通过渲染四个投影视图,系统可以加速搭载极宽视场的斜面(非共面)头显。

更方便的VR连接性

图灵是英伟达首款支持USB Type-C和VirtualLink的显卡系列。对于VirtualLink,这是旨在通过单条轻量级USB-C数据线来驱动下一代VR头显的全新开放行业标准。

今天的VR头显在设置上十分复杂,涉及多条笨重的数据线。VirtualLink通过一根数据线来提供电源、显示和数据,同时包含大量带宽以满足未来头显的需求,从而简化了VR设置过程。单条连接器同时可以将VR带向较小的设备,如轻薄型笔记本电脑,后者只提供一个小巧的USB-C连接器。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分