OpenVINO™ 2022.2新版本有哪些亮眼的新特性

描述

 

 

 

 

 

金秋已至。伴着凉爽的秋风一起到来的,还有 OpenVINO 工具套件刚刚推出的最新版本 OpenVINO 2022.2。除了能支持英特尔今年新推出的一系列独立显卡进行 AI 模型的推理加速及部署外,2022.2的新版本中还有哪些亮眼的新特性呢?让我们一起来看看吧。

 

01

更广泛的模型和硬件支持

新增包括英特尔独立显卡等的硬件支持,并减少动态输入时的内存消耗、提升 NLP 应用效率。

02

更好的性能及可移植性

通过跨 CPU、GPU 等的自动设备发现(automatic device discovery)功能、负载平衡和动态推理并行,立即提高性能。

03

更多的集成

与深度学习框架实现更好的集成,以最少的代码更改,更好地与框架保持一致。

下面让我们一起来详细了解一下这些主要的新特性。

01

更广泛的模型和硬件支持

OpenVINO 2022.2 新版本提供了更广法的模型和硬件支持,包括:

01

新增:支持英特尔 第13代酷睿 台式机处理器(代号为 Raptor Lake);

02

新增:支持用于深度学习推理工作负载的独立显卡,包括英特尔 数据中心 GPU Flex 系列和英特尔 Arc,可用于智能云、边缘和媒体分析工作负载;

 

03

新增:对第四代英特尔 至强 可扩展处理器(代号为Sapphire Rapids)的预览支持,测试您的模型性能;

04

优化减少动态输入时 CPU 的内存消耗,从而更高效支持自然语言处理(NLP)的应用。

 

02

更好的性能及可移植性

通过跨 CPU、GPU 等的自动设备发现、负载平衡和动态推理并行性,立即看到性能提升。

01

新增:在 AUTO 功能中引入新的性能倾向选择“Cumulative

throughput”,使多个加速器(例如多个 GPU)可被添加到 AUTO 的自动发现、配置的基本功能中,能够被同时使用,以最大限度地提高推理性能。

 

02

推出英特尔 FPGA AI Suite,在这个易于使用的软件包中实现实时、低延迟和低功耗的深度学习推理。

03

更多的集成

面向尚未安装本机 OpenVINO 工具套件的用户,提供了更多的与深度学习框架的集成,使得开发者使用和维护代码更加简单方便,同时保持更新时需要修改的代码最少。

01

最近更新的 OpenVINO Execution Provider for ONNX Runtime 通过轻松添加 OpenVINO,为 ONNX 运行时开发人员提供了更多性能优化选择。

02

新增:通过 OpenVINO 与 PyTorch ONNX Runtime 的融合(OpenVINO Torch-ORT),加速 PyTorch 模型推理。现在,PyTorch 开发人员可以更无缝地与 OpenVINO 集成,并通过更少的代码更改获得性能提升。OpenVINO 与 TensorFlow 的集成现在支持更深入的学习模型和改进的推理性能。

03

OpenVINO 与 TensorFlow 的集成现在支持更深入的学习模型和改进的推理性能。

以上就是OpenVINO 2022.2新版本的主要新特性介绍,除此之外,新版本中还增加了一些新的算子的支持,增加了对集成显卡的优化等等。  

      审核编辑:彭静
打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分