旧版笔记本¶
有许多笔记本展示了 Torch-TensorRT 中不同的模型转换/功能/前端
笔记本¶
使用 Torch-TensorRT 编译 CitriNet¶
Citrinet 是一种用于语音转文本识别任务的声学模型。它是 QuartzNet 的一个版本,扩展了 ContextNet,利用了子词编码(通过 Word Piece 分词)和 Squeeze-and-Excitation (SE) 机制,因此比 QuartzNet 模型更小。CitriNet 模型接收音频片段并将其转录为字母、字节对或词块序列。
本笔记本演示了使用 Torch-TensorRT 优化预训练 CitriNet 模型并运行它以测试获得的加速比的步骤。
使用 Torch-TensorRT 编译 EfficientNet¶
EfficientNet 是一种前馈 CNN,旨在通过使用一种“利用简单而高效的复合系数统一缩放深度/宽度/分辨率所有维度的缩放方法”来实现比替代架构更好的性能和准确性。
本笔记本演示了使用 Torch-TensorRT 优化预训练 EfficientNet 模型并运行它以测试获得的加速比的步骤。
使用 Torch-TensorRT 加速 Hugging Face BERT Transformer 进行掩码语言建模 (MLM)¶
“BERT 是一种 Transformer 模型,以自监督方式在大量英文语料库上进行了预训练。通过这种方式,模型学习到英文的内部表示,然后可以用于提取对下游任务有用的特征:例如,如果您有一个带标签的句子数据集,您可以使用 BERT 模型产生的特征作为输入来训练一个标准分类器。” (https://hugging-face.cn/bert-base-uncased)
本笔记本演示了使用 Torch-TensorRT 在 Hugging Face 的预训练 BERT Transformer 上编译 TorchScript 模块并运行它以测试获得的加速比的步骤。
在 C++ 中使用 Torch-TensorRT 提供模型服务¶
本示例展示了如何加载预训练的 ResNet-50 模型,将其转换为 Torch-TensorRT 优化模型(通过 Torch-TensorRT Python API),将模型保存为 torchscript 模块,最后使用 PyTorch C++ API 加载并提供模型服务。
使用 Torch-TensorRT 编译 ResNet50¶
本笔记本演示了使用 Torch-TensorRT 在预训练的 ResNet-50 网络上编译 TorchScript 模块并运行它以测试获得的加速比的步骤。
在 Torch-TensorRT 中使用动态形状¶
在 Torch TensorRT 中使用动态形状张量非常简单。假设您正在使用 torch_tensorrt.compile(...)
函数编译 torchscript 模块。此函数的一个参数是 input
,它根据预期的形状、数据类型和张量格式定义模块的输入:torch_tensorrt.Input.
对于本演示,我们只需要三个关键字参数:min_shape、opt_shape` 和 max_shape。
torch_tensorrt.Input(
min_shape=(1, 224, 224, 3),
opt_shape=(1, 512, 512, 3),
max_shape=(1, 1024, 1024, 3),
dtype=torch.int32
format=torch.channel_last
)
...
在本示例中,我们将使用一个简单的 ResNet 模型来演示 API 的用法。
在 Torch-TensorRT 中使用 FX 前端¶
本示例的目的是演示使用 FX 将 PyTorch 模型方便地降级到 TensorRT 的整体流程。
使用 Torch-TensorRT FX 前端编译 PyTorch 模型¶
本示例的目的是演示通过 FX 使用现有基于 FX 的工具将 PyTorch 模型降级到 TensorRT 的整体流程
使用 Torch-TensorRT 编译 LeNet¶
本笔记本演示了使用 Torch-TensorRT 在简单的 LeNet 网络上编译 TorchScript 模块的步骤。
在 Torch-TensorRT 中使用量化加速深度学习模型¶
模型量化是一种流行的优化方法,它可以减小模型大小,从而加速推理,并为在计算能力较低的设备(如 Jetson)上部署提供可能性。简而言之,量化是将输入值映射的过程
从一个较大的集合映射到较小集合中的输出值。在本笔记本中,我们演示了在 Torch-TensorRT 中量化深度学习模型时可以采用的工作流程。本笔记本以 Mobilenetv2 为例,展示了在 Imagenet 数据集的子集 Imagenette(包含 10 个类别)上执行分类任务的过程。
使用 Torch-TensorRT 进行对象检测 (SSD)¶
本笔记本演示了使用 Torch-TensorRT 在预训练的 SSD 网络上编译 TorchScript 模块并运行它以测试获得的加速比的步骤。
使用 Torch-TensorRT 部署 INT8 量化感知训练模型¶
量化感知训练 (QAT) 通过量化权重和激活层来模拟训练过程中的量化。这有助于减少我们将以 FP32 训练的网络转换为 INT8 以实现更快推理时发生的精度损失。QAT 在图中引入了额外的节点,这些节点将用于学习权重和激活层的动态范围。在本笔记本中,我们演示了在 Torch-TensorRT 中从训练到推理 QAT 模型的以下步骤。