使用 Torch-TensorRT 编译导出的程序¶
Pytorch 2.1 引入了 torch.export
API,可以将 Pytorch 程序中的图导出到 ExportedProgram
对象中。Torch-TensorRT dynamo 前端编译这些 ExportedProgram
对象,并使用 TensorRT 对其进行优化。以下是如何使用 dynamo 前端的一个简单示例
import torch
import torch_tensorrt
model = MyModel().eval().cuda()
inputs = [torch.randn((1, 3, 224, 224), dtype=torch.float32).cuda()]
exp_program = torch.export.export(model, tuple(inputs))
trt_gm = torch_tensorrt.dynamo.compile(exp_program, inputs) # Output is a torch.fx.GraphModule
trt_gm(*inputs)
注意
torch_tensorrt.dynamo.compile
是用户与 Torch-TensorRT dynamo 前端交互的主要 API。模型的输入类型应为 ExportedProgram
(理想情况下是 torch.export.export
或 torch_tensorrt.dynamo.trace
(在下面的部分中讨论)的输出),输出类型为 torch.fx.GraphModule
对象。
可自定义设置¶
用户可以使用许多选项来自定义其 TensorRT 优化设置。一些常用的选项如下所示
inputs
- 对于静态形状,这可以是 torch 张量的列表或 torch_tensorrt.Input 对象的列表。对于动态形状,这应该是一个torch_tensorrt.Input
对象的列表。enabled_precisions
- TensorRT 构建器在优化期间可以使用的一组精度。truncate_long_and_double
- 将长整型和双精度值分别截断为整型和浮点型。torch_executed_ops
- 强制由 Torch 执行的操作符。min_block_size
- 必须作为 TensorRT 段执行的连续操作符的最小数量。
完整的选项列表可以 在这里 找到
注意
我们目前在 Dynamo 中不支持 INT 精度。目前,我们的 Torchscript IR 中存在对该功能的支持。我们计划在下一个版本中为 dynamo 实现类似的支持。
幕后¶
在幕后,torch_tensorrt.dynamo.compile
对图执行以下操作。
降级 - 应用降级传递以添加/删除操作符以进行最佳转换。
分区 - 根据
min_block_size
和torch_executed_ops
字段将图划分为 Pytorch 和 TensorRT 段。转换 - 在此阶段,Pytorch 操作符将转换为 TensorRT 操作符。
优化 - 转换后,我们将构建 TensorRT 引擎并将其嵌入到 pytorch 图中。
跟踪¶
torch_tensorrt.dynamo.trace
可用于跟踪 Pytorch 图并生成 ExportedProgram
。这在内部执行一些操作符分解以进行后续优化。ExportedProgram
然后可以与 torch_tensorrt.dynamo.compile
API 一起使用。如果您的模型中存在动态输入形状,则可以使用此 torch_tensorrt.dynamo.trace
以动态形状导出模型。或者,您也可以直接使用 torch.export
并带有约束条件。
import torch
import torch_tensorrt
inputs = [torch_tensorrt.Input(min_shape=(1, 3, 224, 224),
opt_shape=(4, 3, 224, 224),
max_shape=(8, 3, 224, 224),
dtype=torch.float32)]
model = MyModel().eval()
exp_program = torch_tensorrt.dynamo.trace(model, inputs)