使用 Torch-TensorRT 编译导出的程序¶
Pytorch 2.1 引入了 torch.export
API,可以将 Pytorch 程序中的图导出到 ExportedProgram
对象中。Torch-TensorRT dynamo 前端编译这些 ExportedProgram
对象,并使用 TensorRT 对其进行优化。以下是 dynamo 前端的简单用法
import torch
import torch_tensorrt
model = MyModel().eval().cuda()
inputs = [torch.randn((1, 3, 224, 224), dtype=torch.float32).cuda()]
exp_program = torch.export.export(model, tuple(inputs))
trt_gm = torch_tensorrt.dynamo.compile(exp_program, inputs) # Output is a torch.fx.GraphModule
trt_gm(*inputs)
注意
torch_tensorrt.dynamo.compile
是用户与 Torch-TensorRT dynamo 前端交互的主要 API。模型的输入类型应为 ExportedProgram
(理想情况下是 torch.export.export
或 torch_tensorrt.dynamo.trace
的输出,将在下面章节中讨论),输出类型为 torch.fx.GraphModule
对象。
可自定义的设置¶
用户有很多选项可以自定义使用 TensorRT 进行优化的设置。以下是一些常用的选项
inputs
- 对于静态形状,这可以是 torch 张量列表或 torch_tensorrt.Input 对象列表。对于动态形状,这应该是torch_tensorrt.Input
对象列表。enabled_precisions
- TensorRT 构建器在优化期间可以使用的精度集。truncate_long_and_double
- 将 long 和 double 值截断为 int 和 float。torch_executed_ops
- 强制由 Torch 执行的运算符。min_block_size
- 作为 TensorRT 段执行所需的连续运算符的最小数量。
可以在此处找到完整的选项列表
注意
我们目前在 Dynamo 中不支持 INT 精度。目前在我们的 Torchscript IR 中存在对此的支持。我们计划在下一个版本中为 dynamo 实现类似的支持。
底层原理¶
在底层,torch_tensorrt.dynamo.compile
对图执行以下操作。
Lowering - 应用 lowering pass 以添加/删除运算符以进行最佳转换。
Partitioning - 根据
min_block_size
和torch_executed_ops
字段将图划分为 Pytorch 和 TensorRT 段。Conversion - 在此阶段,Pytorch 运算符被转换为 TensorRT 运算符。
Optimization - 转换后,我们构建 TensorRT 引擎并将其嵌入到 pytorch 图中。
Tracing¶
torch_tensorrt.dynamo.trace
可用于跟踪 Pytorch 图并生成 ExportedProgram
。这在内部执行一些运算符的分解,以便进行下游优化。ExportedProgram
随后可以与 torch_tensorrt.dynamo.compile
API 一起使用。如果您的模型中具有动态输入形状,则可以使用此 torch_tensorrt.dynamo.trace
导出具有动态形状的模型。或者,您也可以直接使用 torch.export
和约束。
import torch
import torch_tensorrt
inputs = [torch_tensorrt.Input(min_shape=(1, 3, 224, 224),
opt_shape=(4, 3, 224, 224),
max_shape=(8, 3, 224, 224),
dtype=torch.float32)]
model = MyModel().eval()
exp_program = torch_tensorrt.dynamo.trace(model, inputs)