快捷方式

TorchDynamo API,用于细粒度追踪

注意

在本文档中,torch.compiler.compiletorch.compile 可互换使用。这两个版本在您的代码中均可使用。

torch.compile 对整个用户模型执行 TorchDynamo 追踪。但是,模型代码的一小部分可能无法由 torch.compiler 处理。在这种情况下,您可能希望在该特定部分禁用编译器,同时对模型的其余部分运行编译。本节介绍用于定义代码中要跳过编译的部分的现有 API 以及相关用例。

下表列出了可用于定义可以禁用编译的代码部分的 API

用于控制细粒度追踪的 TorchDynamo API

API

描述

何时使用?

torch.compiler.disable

在装饰的函数以及递归调用的函数上禁用 Dynamo。

如果模型的一小部分无法使用 torch.compile 处理,则非常适合解除用户的阻塞。

torch._dynamo.disallow_in_graph

不允许在 TorchDynamo 图中出现标记的操作。TorchDynamo 会导致图中断,并在 eager(非编译)模式下运行该操作。nn这适用于操作,而 torch.compiler.disable 适用于装饰函数。

如果像 torch.ops.fbgemm.* 这样的自定义操作导致 torch.compile 函数出现问题,则此 API 非常适合调试和解除阻塞。

torch.compiler.allow_in_graph

带注释的可调用对象按原样进入 TorchDynamo 图。例如,TorchDynamo Dynamo 的黑盒。nn请注意,AOT Autograd 将会追踪它,因此 allow_in_graph 只是一个 Dynamo 级别的概念。

此 API 适用于模型中具有已知 TorchDynamo 难以支持的特性的部分,例如钩子或 autograd.Function。但是,每次使用 allow_in_graph 都必须仔细筛选(无图中断,无闭包)。

torch._dynamo.graph_break

添加图中断。图中断前后的代码都将通过 TorchDynamo。

部署中很少有用 - 如果您认为需要此功能,则很可能您需要 disabledisallow_in_graph

torch.compiler.is_compiling

指示图是否作为 torch.compile() 或 torch.export() 的一部分执行/追踪。

torch.compiler.is_dynamo_compiling

指示是否通过 TorchDynamo 追踪图。它比 torch.compiler.is_compiling() 标志更严格,因为它仅在使用 TorchDynamo 时才设置为 True。

torch.compiler.disable

torch.compiler.disable 在装饰的函数帧以及从装饰的函数帧递归调用的所有函数帧上禁用编译。

TorchDynamo 拦截每个 Python 函数帧的执行。因此,假设您有一个代码结构(如下图所示),其中函数 fn 调用函数 a_fnb_fna_fn 调用 aa_fnab_fn。当您使用 PyTorch eager 模式而不是 torch.compile 时,这些函数帧按原样运行。使用 torch.compile,TorchDynamo 拦截这些函数帧中的每一个(以绿色表示)

Callstack diagram of different apis.

假设函数 a_fn 导致 torch.compile 出现问题。这是模型中非关键部分。您可以在函数 a_fn 上使用 compiler.disable。如上所示,TorchDynamo 将停止查看源自 a_fn 调用的帧(白色表示原始 Python 行为)。

要跳过编译,您可以使用 @torch.compiler.disable 装饰有问题的函数。

如果您不想更改源代码,也可以使用非装饰器语法。但是,我们建议您尽可能避免这种样式。在这里,您必须注意原始函数的所有用户现在都在使用修补后的版本。

torch._dynamo.disallow_in_graph

torch._dynamo.disallow_in_graph 不允许运算符(而不是函数)出现在 TorchDynamo 提取的图中。请注意,这适用于运算符,而不适用于像 _dynamo.disable 那样的通用函数。

假设您使用 PyTorch 编译模型。TorchDynamo 能够提取图,但是您看到下游编译器失败。例如,元内核丢失,或者为特定运算符错误地设置了某些 Autograd 调度键。然后,您可以将该运算符标记为 disallow_in_graph,TorchDynamo 将导致图中断,并使用 PyTorch eager 模式运行该运算符。

关键是您必须找到相应的 Dynamo 级别运算符,而不是 ATen 级别运算符。请参阅文档的“限制”部分以了解更多信息。

警告

torch._dynamo.disallow_in_graph 是一个全局标志。如果您要比较不同的后端编译器,则在切换到其他编译器时,可能必须为不允许的运算符调用 allow_in_graph

torch.compiler.allow_in_graph

当相关的函数帧具有一些已知的难以支持的 TorchDynamo 特性(例如钩子和 autograd.Function)时,torch.compiler.allow_in_graph 非常有用,并且您确信下游 PyTorch 组件(例如 AOTAutograd)可以安全地追踪装饰的函数。当函数使用 allow_in_graph 装饰时,TorchDynamo 会将其视为黑盒,并按原样放入生成的图中。

警告

allow_in_graph 完全跳过装饰的函数上的 TorchDynamo,省略所有 TorchDynamo 安全检查,包括图中断、处理闭包等。请谨慎使用 allow_in_graph。PyTorch 下游组件(例如 AOTAutograd)依赖 TorchDynamo 来处理复杂的 Python 特性,但是 allow_in_graph 会绕过 TorchDynamo。使用 allow_in_graph 可能会导致健全性和难以调试的问题。

限制

所有现有 API 均在 TorchDynamo 级别应用。因此,这些 API 只能看到 TorchDynamo 看到的内容。这可能会导致令人困惑的情况。

例如,torch._dynamo.disallow_in_graph 不适用于 ATen 运算符,因为它们对 AOT Autograd 可见。例如,torch._dynamo.disallow_in_graph(torch.ops.aten.add) 在上面的示例中将不起作用。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源