NVIDIA TensorRT 是一个用于深度学习推理的 SDK 。 TensorRT 提供 api 和解析器来从所有主要的深度学习框架中导入经过训练的模型。然后生成可部署在数据中心、汽车和嵌入式环境中的优化运行时引擎。
这篇文章简单介绍了如何使用 TensorRT 。您将学习如何在 GPU 上部署深度学习应用程序,从而提高吞吐量并减少推理过程中的延迟。它使用 C ++示例来将您通过将 PyTorch 模型转换成 ONX 模型并将其导入 TensorRT ,应用优化,并为数据中心环境生成高性能运行时引擎。
TensorRT 支持 C ++和 Python ;如果使用了两者,工作流讨论可能是有用的。如果您喜欢使用 Pyth
深度学习应用于广泛的应用,如自然语言处理、推荐系统、图像和视频分析。随着越来越多的应用程序在生产中使用深度学习,对准确性和性能的要求导致了模型复杂性和规模的强劲增长。
安全关键型应用(如汽车)对深度学习模型的吞吐量和延迟提出了严格的要求。对于包括推荐系统在内的一些消费者应用程序也是如此。
TensorRT 旨在帮助这些用例部署深度学习。通过对每一个主要框架的支持, TensorRT 通过强大的优化、降低精度的使用和高效的内存使用,帮助以低延迟处理大量数据。
为了继续这篇文章,您需要一台具有 CUDA -TensorRT 功能的计算机,或者一个安装了 GPUs 的云实例。在 Linux 上,最容易开始的地方是从 GPU 容器注册表下载带有 TensorRT 集成的 GPU – 加速的 PyTorch 集装箱 。
示例应用程序使用来自 Kaggle 的 脑 MRI 分割数据 的输入数据来执行推断。
简单 TensorRT 示例
以下是此示例应用程序的四个步骤:
将预训练图像分割 PyTorch 模型转换为 ONNX 。
将 ONNX 模型导入到 TensorRT 中。
应用优化并生成引擎。
对 GPU 执行推理。
导入 ONNX 模型包括从磁盘上保存的文件加载它,并将其从其本机框架或格式转换为 TensorRT 网络。 盒子 是一个表示深度学习模型的标准,使其能够在框架之间进行转换。
许多框架,如 Caffe2 、 Chainer 、 CNTK 、 paddlate 、 PyTorch 和 MXNet 都支持 ONNX 格式。接下来,根据输入模型、目标 GPU 平台和其他指定的配置参数,构建优化的 TensorRT 引擎。最后一步是向 TensorRT 引擎提供输入数据以执行推理。
应用程序在 TensorRT 中使用以下组件:
ONX parser : 将一个经过 PyTorch 训练的模型转换成 ONNX 格式作为输入,并在 TensorRT 中填充一个网络对象。
建设者: 使用 TensorRT 中的网络并生成针对目标平台优化的引擎。
发动机: 获取输入数据,执行推断,并发出推断输出。
记录器: 与生成器和引擎关联,以在构建和推理阶段捕获错误、警告和其他信息。
将预训练图像分割 PyTorch 模型转换为 ONNX
从 NGC 注册表中的 PyTorch 集装箱 开始,预先安装框架和 CUDA 组件,准备就绪。成功安装 PyTorch 容器后,运行以下命令下载运行此示例应用程序所需的所有内容(示例代码、测试输入数据和引用输出)、更新依赖项,并使用提供的 makefile 编译应用程序。
接下来,准备输入数据以进行推断。从 Kaggle 目录下载所有图像。将文件名中没有_ mask 的任何三个映像复制到/ unet 目录,然后实用工具。 py 来自 脑分割 -PyTorch 存储库的文件。准备三张图片作为后面文章的输入数据。准备输入“ 0 ”。 pb 和输出_ 0 。 pb 文件供以后使用,请运行以下代码示例:
就这样,输入数据就可以进行推断了。从应用程序的简化版本 simpleONNX _ 1 。 cpp 开始并在此基础上进行构建。后续版本可在同一文件夹 simpleonx _ 2 。 cpp 和 simpleonx 。 cpp 。
将 ONNX 模型导入到 TensorRT ,生成引擎并进行推理
使用经过训练的模型和作为输入传递的输入数据运行示例应用程序。数据以 ONNX 协议文件的形式提供。示例应用程序将从 TensorRT 生成的输出与同一文件夹中可用的 ONNX 。 pb 文件的参考值进行比较,并在提示符上总结结果。
导入 UNet ONNX 模型并生成引擎可能需要几秒钟的时间。它还生成便携式灰度图( PGM )格式的输出图像,如下所示:输出。 pgm .
就这样,你有一个用 TensorRT 优化并运行在你的 GPU 上的应用程序。图 2 显示了一个示例测试用例的输出。
图 2 :使用 TensorRT 对大脑 MRI 图像进行推断。
下面是前面示例应用程序中使用的几个关键代码示例。
下面代码示例中的 main 函数首先声明一个 CUDA 引擎来保存网络定义和经过训练的参数。引擎是在 createCudaEngine 函数中生成的,该函数将指向 ONNX 模型的路径作为输入。
函数解析 ONNX 模型并将其保存在 createCudaEngine 对象中。要处理 U-Net 模型的输入图像和形状张量的动态输入尺寸,必须从 建设者 类创建一个优化配置文件,如下面的代码示例所示。
优化配置文件 允许您设置外形的最佳输入、最小和最大尺寸。构建器选择一个内核,该内核将导致输入张量维度的最低运行时间,并且对于最小和最大维度之间范围内的所有输入张量维度都有效。它还将网络对象转换为 TensorRT 引擎。
下面代码示例中的 setMaxBatchSize 函数用于指定 TensorRT 引擎预期的最大批处理大小。 setMaxWorkspaceSize 函数允许您在引擎构建阶段增加 GPU 内存占用。
此应用程序在下面的代码示例所示的函数 launchInference 中异步地向 GPU 发送推理请求。输入从主机( CPU )复制到 launchInference 内的设备( GPU ),然后使用 enqueue 函数执行推理,结果异步复制回来。
CUDA 使用异步流 GPU 管理流。异步推理执行通常通过重叠计算来提高性能,因为它最大化了 GPU 的利用率。 enqueue 函数将推理请求放在 CUDA 流上,并将批大小、指向输入和输出的指针以及用于内核执行的 CUDA 流作为输入。使用 cudaMemcpyAsync 从主机到设备执行异步数据传输,反之亦然。
在调用 launchInference 之后使用 cudaStreamSynchronize 函数可以确保在访问结果之前完成 GPU 计算。可以使用 ICUDA 发动机 类中的函数查询输入和输出的数量以及每个输入和输出的值和维数。示例最后将参考输出与 TensorRT 生成的推论进行比较,并将差异打印到提示。
批量输入
此应用程序示例期望单个输入,并在对其执行推理后返回输出。实际应用通常是批量输入,以获得更高的性能和效率。一批形状和大小相同的输入可以在神经网络的不同层上并行计算。
较大的批处理通常能够更有效地使用 GPU 资源。例如,在 Volta 和 TuringGPUs 上,使用 32 倍倍数的批处理大小可能特别快速有效,因为 TensorRT 可以使用特殊的核来进行矩阵乘法和充分利用张量核的全连接层。
使用以下代码在命令行上将图像传递给应用程序。在本例中,作为输入参数在命令行上传递的图像(。 pb 文件)的数量决定了批处理的大小。使用 test _ data _ set _ x 从所有目录获取所有输入的_ 0 。 pb 文件。下面的命令不是只读取一个输入,而是读取文件夹中所有可用的输入。
目前,下载的数据有三个输入目录,因此批处理大小为 3 。此版本的示例分析应用程序并将结果打印到提示符。有关更多信息,请参阅下一节,概要介绍应用程序。
接下来,使用 setMaxBatchSize 函数指定 TensorRT 引擎预期的最大批处理大小。然后,构建器通过选择在目标平台上最大化其性能的算法来生成一个针对该批处理大小进行调整的引擎。虽然引擎不接受较大的批处理大小,但允许在运行时使用较小的批处理大小。
最大 值的选择取决于应用程序以及任何给定时间的预期推理流量(例如,图像的数量)。一个常见的做法是构建多个针对不同批量大小优化的引擎(使用不同的 最大 值),然后在运行时选择最优化的引擎。
未指定时,默认批处理大小为 1 ,这意味着引擎不处理大于 1 的批大小。按以下代码示例所示设置此参数:
分析应用程序
现在您已经看到了一个示例,下面是如何度量它的性能。网络推理最简单的性能度量是输入到网络和输出返回之间经过的时间,称为 延迟。
对于嵌入式平台上的许多应用程序,延迟是至关重要的,而消费者应用程序需要服务质量。较低的延迟使这些应用程序更好。此示例使用 GPU 上的时间戳测量应用程序的平均延迟。在 CUDA 中有很多方法可以评测您的应用程序。有关详细信息,请参见 如何在 CUDA C / C ++中实现性能度量 。
CUDA 为 创造 、 破坏 和 记录 事件提供轻量级事件 API 函数,并计算它们之间的时间。应用程序可以在 CUDA 流中记录事件,一个在启动推理之前,另一个在推理完成后,如下面的代码示例所示。
在某些情况下, MIG ht 关心在推理开始之前和推理完成之后在 GPU 和 CPU 之间传输数据所需的时间。有一些技术可以将数据预取到 GPU 中,也可以将计算与数据传输重叠,从而显著地隐藏数据传输开销。函数 cudaEventElapsedTime 测量在 CUDA 流中遇到这两个事件之间的时间。
使用上一节开头的代码示例运行此示例并查看分析输出。要评测应用程序,请将推理启动包装在 simpleONNX _ 2 。 cpp 中的函数 doInference 中。这个例子包括一个更新的函数调用。
许多应用程序对为脱机处理而积累和批处理的大量输入数据执行推断。每秒可能的最大推断数被称为 吞吐量 ,是这些应用程序的一个有价值的指标。
您可以通过为更大的特定批处理大小生成优化的引擎来测量吞吐量,运行推断,并测量每秒可处理的批处理数。使用每秒的批数和批大小来计算每秒的推断数,但这超出了本文的范围。
优化应用程序
现在,您已经知道如何批量运行推理并分析应用程序,请对其进行优化。 TensorRT 的关键优势在于其灵活性和技术的使用,包括混合精度、在所有 GPU 平台上的高效优化,以及跨多种模型类型进行优化的能力。
在本节中,我们将介绍一些提高吞吐量和减少应用程序延迟的技术。有关详细信息,请参见 TensorRT 性能最佳实践 。
以下是一些常见的技巧:
使用混合精度计算
更改工作区大小
重新使用 TensorRT 引擎
使用混合精度计算
TensorRT 默认情况下使用 FP32 算法进行推理,以获得最高的推理精度。但是,在许多情况下,可以使用 FP16 和 INT8 精度进行推理,对结果的准确性影响最小。
使用降低的精度来表示模型可以使您在内存中适合更大的模型,并在降低精度的数据传输要求较低的情况下实现更高的性能。您还可以将 FP32 和 FP16 精度中的计算与 TensorRT 混合使用,称为混合精度,或者对权重、激活和执行层使用 INT8 量化精度。
对于支持快速 FP16 数学的设备,通过将 setFp16Mode 参数设置为 true 来启用 FP16 内核。
setFp16Mode 参数向构建器表明,较低的计算精度是可以接受的。 TensorRT 如果 FP16 优化内核在所选配置和目标平台上表现更好,则使用它们。
启用此模式后,可以在 FP16 或 FP32 中指定权重,并自动转换为计算所需的适当精度。您还可以灵活地为输入和输出张量指定 16 位浮点数据类型,这超出了本文的范围。
更改工作区大小
TensorRT 允许您在引擎构建阶段使用 setMaxWorkspaceSize 函数增加 GPU 内存占用。增加限制可能会影响同时共享 GPU 的应用程序的数量。将此限制设置得太低可能会过滤掉一些算法并创建一个次优引擎。 TensorRT 只分配所需的内存,即使在 IBuilder::setMaxWorkspaceSize 中设置的内存量要高得多。因此,应用程序应该允许 TensorRT 生成器尽可能多的工作空间。 TensorRT 分配不超过这个值,通常更少。
这个例子使用 1GB ,这让 TensorRT 选择任何可用的算法。
重新使用 TensorRT 引擎
构建引擎时, builder 对象为所选平台和配置选择最优化的内核。从网络定义文件构建引擎可能非常耗时,并且不应在每次执行推断时重复,除非模型、平台或配置发生更改。
图 3 显示,您可以在生成后转换引擎的格式,并将其存储在磁盘上以供以后重用,称为 序列化引擎 。反序列化发生在将引擎从磁盘加载到内存中并继续使用它进行推理时。
图 3 。序列化和反序列化 TensorRT 引擎。
运行时对象反序列化引擎。
而不是每次都创建引擎, simpleonx 。 cpp 包含 getCudaEngine 函数来加载并使用引擎(如果存在)。如果引擎不可用,它将创建引擎并将其保存在当前目录中,名称为 unet _ batch4 。 engine 。在这个例子尝试构建一个新引擎之前,如果当前目录中有这个引擎,它会选择它。
要强制使用更新的配置和参数构建新引擎,请在重新运行代码示例之前,使用 makeclean _ engines 命令删除存储在磁盘上的所有现有序列化引擎。
将此保存的引擎用于不同的批处理大小。下面的代码示例获取输入数据,与批处理大小变量重复相同的次数,然后将附加的输入传递给示例。第一次运行创建引擎,第二次运行尝试反序列化引擎。
现在您已经了解了如何使用 TensorRT 加快简单应用程序的推理速度。我们用 TensorRT 7 测量了 NVIDIA Titan VGPUs 的早期性能。
下一步行动
真实世界的应用程序有更高的计算需求,更大的深度学习模型,更多的数据处理需求,以及更严格的延迟限制。 TensorRT 为计算量大的深度学习应用程序提供了高性能的优化,是一个非常宝贵的推理工具。
希望这篇文章让您熟悉了使用 TensorRT 获得惊人性能所需的关键概念。这里有一些想法可以应用您所学的,使用其他模型,并通过更改本文中介绍的参数来探索设计和性能权衡的影响。
TensorRT 支持矩阵 为 TensorRT api 、解析器和层提供了受支持的特性和软件。这个例子使用 C ++, TensorRT 同时提供 C ++和 Python API 。若要运行此帖子中包含的示例应用程序,请参见 TensorRT 开发者指南 中的 API 和 Python 和 C ++代码示例。
使用参数 setFp16Mode 将模型的允许精度更改为 true / false ,并分析应用程序以查看性能差异。
更改运行时用于推断的批处理大小,并查看这如何影响模型和数据集的性能(延迟、吞吐量)。
将 最大值 参数从 64 改为 4 ,可以看到在前五个内核中选择了不同的内核。使用 Nprof 公司 查看分析结果中的内核。
本文未涉及的一个主题是在 TensorRT 中以 INT8 精度精确地执行推理。 TensorRT 自动转换 FP32 网络以进行部署,同时降低精度损失。为了实现这一目标, TensorRT 使用了一种校准过程,在用有限的 8 位整数表示来近似 FP32 网络时,可以将信息损失最小化。有关详细信息,请参见 基于 TensorRT 3 的自主车辆快速 INT8 推理 。
有许多资源可以帮助您加速图像/视频、语音应用程序和推荐系统的应用程序。这些工具从代码示例、自行掌握进度的深度学习机构实验室和教程到用于分析和调试应用程序的开发工具。
TensorRT 简介 (网络研讨会)
TensorRT 最佳实践指南
TensorRT 4 概述
TensorRT 4 的神经机器翻译
使用 TensorRT 进行 8 位推理
使用 TensorRT 优化` NMT
关于作者
About Houman Abbasian是 NVIDIA 的高级深度学习软件工程师。他一直致力于开发和生产 NVIDIA 在自动驾驶车辆中的深度学习解决方案,提高 DNN 的推理速度、精度和功耗,并实施和试验改进 NVIDIA 汽车 DNN 的新思想。他在渥太华大学获得计算机科学博士学位,专注于机器学习
About Josh Park是 NVIDIA 的汽车解决方案架构师经理。到目前为止,他一直在研究使用 DL 框架的深度学习解决方案,例如在 multi-GPUs /多节点服务器和嵌入式系统上的 TensorFlow 。此外,他一直在评估和改进各种 GPUs + x86 _ 64 / aarch64 的训练和推理性能。他在韩国大学获得理学学士和硕士学位,并在德克萨斯农工大学获得计算机科学博士学位
About Siddharth Sharma是NVIDIA 加速计算的高级技术营销经理。在加入NVIDIA 之前, Siddharth 是 Mathworks Simulink 和 Stateflow 的产品营销经理,与汽车和航空航天公司密切合作,采用基于模型的设计来创建控制软件。
About Sirisha Rella 是 NVIDIA 的技术产品营销经理,专注于计算机视觉、语音和基于语言的深度学习应用。 Sirisha 获得了密苏里大学堪萨斯城分校的计算机科学硕士学位,是国家科学基金会大学习中心的研究生助理。
审核编辑:郭婷
全部0条评论
快来发表一下你的评论吧 !