NVIDIA NGC新功能助于简化和加速端到端工作流

描述

  NVIDIA NGC catalog 是 GPU 优化的深度学习、机器学习和 HPC 应用程序的中心。通过高性能软件 containers 、 预训练模型 、特定于行业的 SDK 和 Jupyter 笔记本 ,这些内容有助于简化和加速端到端工作流。

  帮助您简化工作流程并在 NGC 上更快地构建解决方案的新功能、软件和更新包括:

  一键部署

  使用你最喜欢的工具 Jupyter Notebook 开发人工智能,使用 NGC catalog 的新 一键部署功能 简化了软件部署。

  只需进入 NGC 目录 中的软件页面,点击“部署到顶点 AI ”即可开始。在引擎盖下,这个功能:以最佳配置在谷歌云 顶点人工智能工作台 上启动 JupyterLab 实例;预加载软件依赖项;一次下载 NGC 笔记本。您还可以在启动实例之前更改配置。

  发布亮点:

  Jupyter 笔记本用于流行的人工智能用例。

  一键部署在 Google Cloud Vertex AI 工作台上运行 NGC Jupyter 笔记本电脑。

  自动设置,具有最佳配置、预加载的依赖项和随时可以运行的笔记本电脑。

  数据科学家可以专注于构建生产级模型,以加快上市时间。

  点击一下就可以部署 人工智能软件和笔记本的收藏 。

  注册我们的 来临的线上研讨会 ,了解如何使用我们的新功能更快地构建和运行机器学习应用程序。

  NVIDIA 虚拟机映像

  虚拟机映像( VMI )或 AMI (在 AWS 的情况下)类似于在云平台上的虚拟机监控程序上运行的操作系统。

  NVIDIA GPU 优化 VMI 提供了跨 IaaS 平台的标准化映像,因此开发者只需在 NVIDIA-Certified Systems 或任何 GPU 云实例上开发一次 AI 应用程序,就可以在任何云上部署应用程序,而无需更改代码。

  NVIDIA VMI 可从各自的云市场获得,在 NGC 目录中的 NVIDIA AI 软件上进行测试,以提供优化的性能,并每季度更新一次最新的驱动程序、安全补丁和对最新 GPU 的支持。

  组织可能会购买 NVIDIA AI 软件的企业支持,这样开发者就可以将技术问题外包,转而专注于构建和运行 AI 。

  在 AWS 、 Azure 和 谷歌云 上使用 NVIDIA VMI 构建您的 AI 。

  深度学习软件

  最流行的培训和推理深度学习框架每月更新一次。拉取以下内容的最新版本( v22.04 ):

  PyTorch

  TensorFlow

  NVIDIA Triton 推理服务器

  TensorRT

  新的语音和计算机视觉模型

  我们不断增加各种各样的语言模型。以下是一些新型号的列表。

  STT Hi 合规器 :用印地语字符和空格转录语音。

  Riva 符合 ASR 西班牙语 :用小写西班牙语字母转录语音。

  EfficientNet v2-S :一系列图像分类模型,可达到最先进的精度,更小、更快一个数量级。

  GatorTron-S :一个 Megatron BERT 模型,根据综合临床出院总结进行培训。

  BioMegatron345m :这种 NeMo 模型在一系列生物医学下游任务中提供了改进的结果。

  关于作者

  Chintan Patel是NVIDIA的高级产品经理,致力于将GPU加速的解决方案引入HPC社区。 他负责NVIDIA GPU Cloud注册表中HPC应用程序容器的管理和提供。 在加入NVIDIA之前,他曾在Micrel,Inc.担任产品管理,市场营销和工程职位。他拥有圣塔克拉拉大学的MBA学位以及UC Berkeley的电气工程和计算机科学学士学位。

  审核编辑:郭婷

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分