NVIDIA推出CV-CUDA 加速AI计算机视觉工作流

描述

CV-CUDA 结合加速型图像预处理和后处理算法和工具,在成本不变的情况下将图像处理数量提高为原本的 10 倍。

为了帮助更快、更高效地大规模处理图像,NVIDIA 推出了 CV-CUDA,这是一个用于构建加速型端到端计算机视觉和图像处理管道的开源库。

互联网流量以视频为主。此类视频将越来越多地被 AI 特效和计算机图形所增强。

与此同时,迅猛增长的社交媒体和视频共享服务遇到了难题,包括云计算成本不断增长,以及基于 AI 的成像处理和计算机视觉管线遭遇瓶颈,这进一步提高了复杂性。

CV-CUDA 可为 AI 特效加速,例如重照明、重置、模糊背景和超高分辨率。

尽管 NVIDIA GPU 已为 AI 计算机视觉工作流的推理部分实现了加速。但使用传统计算机视觉工具进行预处理和后处理仍需耗费大量时间和计算能力。

而 CV-CUDA 则为开发者提供了 50 多种高性能计算机视觉算法,一种可轻松实现自定义内核的开发框架,以及诸多零复制接口,从而消除 AI 工作流中的瓶颈。

这能带来更高的吞吐量,以及更低的云计算成本。CV-CUDA 的流处理量相当于基于单个 GPU 的流处理量的 10 倍。

上述这些都能帮助开发者加速处理视频内容创作、3D 世界、基于图像的推荐系统、图像识别和视频会议。

视频内容创作平台必须每天处理、增强和审核数以百万计的视频流,并确保移动端用户不论在任何手机上运行应用,都能获得最优体验。

对于构建 3D 世界或元宇宙应用程序的人而言,CV-CUDA 有望支持为其构建或扩展 3D 世界及其组件的任务提供强大助力。

在图像理解和识别方面,CV-CUDA 可以显著加速以超大规模运行的流水线,让移动用户能够畅享响应灵敏的精密图像识别应用。

在视频会议领域,CV-CUDA 可以支持基于增强现实的复杂功能。这些功能可能涉及到需要无数预处理和后处理步骤的复杂 AI 工作流。

CV-CUDA 通过手动优化的 CUDA 内核加速预处理和后处理制作流程,并原生集成于 C/C++、Python 和常见的深度学习框架(例如 PyTorch)中。

CV-CUDA 将成为 NVIDIA Omniverse(专用于 3D 工作流的虚拟世界仿真和协作平台)中加速 AI 工作流的核心技术之一。

开发者可在 12 月抢先体验代码,测试版将于明年 3 月发布。

审核编辑:汤梓红

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分