• 文档 >
  • 编写 TorchScript 转换器
快捷方式

编写 TorchScript 转换器

背景

在 JIT IR 中,运算表示为图中的节点。节点具有输入和输出,由 torch::jit::Values 表示,它们是流入和流出节点的数据的类型化抽象表示。TensorRT 通过使用 nvinfer1::ILayersnvinfer1::ITensors 来表示其图,它们分别类似于节点和值。转换器的目标是创建新的 ILayer 和子图,这些 ILayer 和子图执行节点指定的运算,并将生成的 ITensor 和值关联在一起。

转换器

转换器应该是使用输入列表(nvinfer1::ITensorstorch::jit::IValues)构造与 LibTorch 运算等效层的函数。

可以使用 RegisterNodeConversionPatterns 辅助类注册转换器,您可以在其中实例化 RegisterNodeConversionPatterns 对象,并对其调用 pattern 函数(如下所示),该函数接受一个字符串,该字符串描述了将导致运行转换器的运算的函数模式,以及一个 lambda 或函数,该 lambda 或函数将执行实际转换

请注意,可以链接 pattern 函数

auto acthardtanh TORCHTRT_UNUSED = RegisterNodeConversionPatterns()
    .pattern({
        "aten::hardtanh(Tensor self, Scalar min_val=-1, Scalar max_val=1) -> (Tensor)",
        [](ConversionCtx* ctx, const torch::jit::Node* n, args& args) -> bool {
            auto in = args[0].ITensor();
            auto min = args[1].unwrapToDouble();
            auto max = args[2].unwrapToDouble();

            auto new_layer = ctx->net->addActivation(*in, nvinfer1::ActivationType::kCLIP);
            TORCHTRT_CHECK(new_layer, "Unable to create layer for aten::hardtanh");

            new_layer->setAlpha(min);
            new_layer->setBeta(max);

            new_layer->setName(util::node_info(n).c_str());
            auto out_tensor = ctx->AssociateValueAndTensor(n->outputs()[0], new_layer->getOutput(0));

            LOG_DEBUG("Output shape: " << out_tensor->getDimensions());
            return true;
        }
    });

转换器约定

转换器保证什么

  1. 在 args 中,每个节点输入值都将有一个条目,ITensor 或 IValue

  2. 输入将按照函数模式的顺序提供

转换器的职责

  1. 必须保证 Args 是某种类型,才能在不检查的情况下解包 Arg 联合,通常输入张量参数可以预期为 ITensor

  2. 必须保证任何权重或静态值在转换结束时间之前有效

    1. 一个有用的工具是下面描述的 Weights 辅助类

  3. 转换器应为节点的每个输出生成一个 IValue 或 ITensor。编译器将检查这一点,如果存在没有关联 ITensor 或 IValue 的值,则会生成警告。

  4. 输出必须进行注释

    1. 在转换上下文中,JIT 节点的输出值与新的 TRT 层的输出张量之间必须存在 value_tensor_map 中的关联

  5. 命名您的层

    1. 当我们能够跟踪哪些层和节点相互对应时,调试会容易得多。我们当前使用的系统是将节点的“节点信息”用作层的名称

  6. 命名您的张量

    1. 使用输出值调试名称作为新 ITensor 的名称(再次用于调试)

转换上下文

转换上下文维护转换状态,它管理网络定义、两个映射(一个存储值和 IValue 之间的关联(evaluated_value_map),另一个存储值和 ITensor 之间的关联)以及需要在转换结束之前存在的任何类型的内存。您将在转换器中使用的主要 API 是直接访问网络定义以添加层 ctx->net 和数据关联函数 ctx->AssociateValueAndTensor()ctx->AssociateValueAndIValue(),您将使用它们将层添加到 TRT 层并记录节点输出和静态值或 TensorRT 层输出的对。

Args

提供给转换器的参数是 nvinfer1::ITensorstorch::jit::IValues 的可检查联合(即,TensorRT 图和静态值中的抽象数据流)。您可以保证,对于节点的每个输入值,您都会有一些参数。它们按照函数模式的顺序提供。可以预期,输入(意味着将传递到 PyTorch 中模块的前向函数中的参数)将是 ITensor,但 Arg 类也具有在解包之前安全检查参数的机制(如果您不确定)。Args 还具有深度解包方法,可让您直接访问 IValue 中的基础数据(如果您知道它是安全的)。如果 IValue 有可能是 None,您还可以传入回退值。IValue 已扩展为能够仅在 TensorList 的情况下保存 ITensor 周围的包装器。您可以通过类似于以下模式从 IValue 获取 ITensor:ivalue.toCustomClass<TensorContainer>()->tensor()。您可以通过使用 ivalue.isTensor()ivalue.isCustomClass() 来判断 IValue 是否包含 Tensor 或 ITensor。

权重

权重在构建时使用,因此需要保证任何权重在转换阶段结束之前都存在。TensorRT 也使用其自己的权重结构来保存权重。有一个围绕此类可用于转换器的包装器,它抽象了其中的许多内容。

权重包装器类可以接受 at::Tensors 或奇异值(现在)。您还需要在构造这些权重时传递转换上下文,因为在内部,权重类将分配由转换上下文管理的内存来存储张量数据的副本。当转换上下文析构函数被销毁时,此数据将被释放,因此转换器实际上不需要考虑它。

从输入数据的形状生成元数据,这在与 TensorRT 交互时变得很有用,例如输入映射的数量、输出映射的数量和内核形状。

其他建议

在处理权重和其他静态值时,您可以使用完整的 aten 库。这意味着您可以在转换时做相当多的工作来产生高效的转换。一个很好的例子是 batch_norm 转换器,其中转换器在创建 TensorRT 层之前使用 PyTorch 进行运算融合。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源