编写 TorchScript 转换器¶
背景¶
在 JIT IR 中,操作表示为图中的节点。节点具有输入和输出,由 torch::jit::Values
表示,它们是流入和流出节点的数据的类型化抽象表示。TensorRT 通过使用 nvinfer1::ILayers
和 nvinfer1::ITensors
来表示其图,它们分别是节点和值的类似物。转换器的目标是创建新的 ILayers 和子图来执行节点指定的操作,并将生成的 ITensors 和 Values 关联起来。
转换器¶
转换器应该是使用输入列表(nvinfer1::ITensors
或 torch::jit::IValues
)来构建等效于 LibTorch 操作的层的函数。
可以使用 RegisterNodeConversionPatterns
辅助类注册转换器,在其中实例化一个 RegisterNodeConversionPatterns 对象并在其上调用模式函数(如下所示),该函数接受一个字符串,该字符串描述将导致运行转换器的操作的函数模式,以及一个将执行实际转换的 lambda 或函数
请注意,模式函数可以链接
auto acthardtanh TORCHTRT_UNUSED = RegisterNodeConversionPatterns()
.pattern({
"aten::hardtanh(Tensor self, Scalar min_val=-1, Scalar max_val=1) -> (Tensor)",
[](ConversionCtx* ctx, const torch::jit::Node* n, args& args) -> bool {
auto in = args[0].ITensor();
auto min = args[1].unwrapToDouble();
auto max = args[2].unwrapToDouble();
auto new_layer = ctx->net->addActivation(*in, nvinfer1::ActivationType::kCLIP);
TORCHTRT_CHECK(new_layer, "Unable to create layer for aten::hardtanh");
new_layer->setAlpha(min);
new_layer->setBeta(max);
new_layer->setName(util::node_info(n).c_str());
auto out_tensor = ctx->AssociateValueAndTensor(n->outputs()[0], new_layer->getOutput(0));
LOG_DEBUG("Output shape: " << out_tensor->getDimensions());
return true;
}
});
转换器契约¶
转换器保证了什么¶
在 args 中,每个节点输入值都将有一个条目,可以是 ITensor 或 IValue
输入将根据函数模式的顺序提供
转换器的职责¶
必须保证参数是某种类型,以便在不进行检查的情况下解包 Arg 联合体,通常可以预期输入张量参数为 ITensors
必须保证任何权重或静态值在转换结束前都是有效的
一个有用的工具是下面描述的 Weights 辅助类
转换器应为节点的每个输出生成一个 IValue 或 ITensor。编译器将检查这一点,并在存在未关联 ITensors 或 IValues 的 Values 时生成警告。
输出必须进行注释
在转换上下文的
value_tensor_map
中,JIT 节点的输出值与新的 TRT 层输出张量之间必须存在关联
命名您的层
当我们能够跟踪哪些层和节点相互对应时,调试起来更容易得多。我们目前使用的系统是使用节点的“节点信息”作为层的名称
命名您的张量
使用输出值的调试名称作为新 ITensor 的名称(同样用于调试)
转换上下文¶
转换上下文维护转换的状态,它管理网络定义、两个映射(一个存储 Values 和 IValues 之间的关联(evaluated_value_map),另一个存储 Values 和 ITensors 之间的关联),以及需要一直持续到转换结束的任何类型的内存。您将在转换器中交互的主要 API 是直接访问网络定义以添加层 ctx->net
和数据关联函数 ctx->AssociateValueAndTensor()
和 ctx->AssociateValueAndIValue()
,您将使用它们将层添加到 TRT 层并记录节点输出和静态值或 TensorRT 层输出的对。
参数¶
提供给转换器的参数是可以检查的 nvinfer1::ITensors
和 torch::jit::IValues
联合体(即 TensorRT 图中的抽象数据流和静态值)。可以保证您将为节点的每个输入值提供一些参数。它们根据函数模式的顺序提供。可以预期输入(即传递到 PyTorch 中模块的 forward 函数的参数)将是 ITensors,但 Arg 类也具有在不确定时安全检查参数的机制。Args 还具有深度解包方法,如果您知道它是安全的,则可以让您直接获取 IValue 中的基础数据。如果 IValue 可能为 None,您还可以传入一个后备值。IValues 已扩展为能够仅在 TensorLists 的情况下保存围绕 ITensors 的包装器。您可以通过类似于以下模式从 IValue 获取 ITensor:ivalue.toCustomClass<TensorContainer>()->tensor()
。您可以通过使用 ivalue.isTensor()
或 ivalue.isCustomClass()
来判断 IValue 是否包含张量或 ITensor。
权重¶
权重在构建时使用,因此需要保证任何权重在转换阶段结束前都是有效的。TensorRT 还使用自己的权重结构来保存权重。转换器可以使用一个围绕此类的包装器,该包装器抽象了许多内容。
权重包装器类可以接受 at::Tensors
或单个值(目前)。在构造这些权重时,您还需要传递转换上下文,因为在内部,权重类将分配由转换上下文管理的内存来存储张量数据的副本。当转换上下文析构函数被销毁时,此数据将被释放,因此转换器实际上无需考虑它。
从输入数据的形状生成的元数据在与 TensorRT 交互时变得有用,例如输入映射的数量、输出映射的数量和内核形状。
其他建议¶
在处理权重和其他静态值时,您可以充分利用完整的 aten 库。这意味着您可以在转换期间完成相当多的工作以产生高效的转换。一个很好的例子是 batch_norm 转换器,其中转换器在创建 TensorRT 层之前与 PyTorch 融合操作。