• 教程 >
  • 使用 torch.compiler.set_stance 进行动态编译控制
快捷方式

使用 torch.compiler.set_stance 进行动态编译控制

作者: William Wen

torch.compiler.set_stance 是一个 torch.compiler API,使您能够在对模型进行不同调用时更改 torch.compile 的行为,而无需将 torch.compile 重新应用于您的模型。

本食谱提供了一些关于如何使用 torch.compiler.set_stance 的示例。

先决条件

  • torch >= 2.6

描述

torch.compiler.set_stance 可以用作装饰器、上下文管理器或原始函数,以更改在对模型进行不同调用时 torch.compile 的行为。

在下面的示例中,"force_eager" 姿态忽略所有 torch.compile 指令。

import torch


@torch.compile
def foo(x):
    if torch.compiler.is_compiling():
        # torch.compile is active
        return x + 1
    else:
        # torch.compile is not active
        return x - 1


inp = torch.zeros(3)

print(foo(inp))  # compiled, prints 1
tensor([1., 1., 1.])

示例装饰器用法

@torch.compiler.set_stance("force_eager")
def bar(x):
    # force disable the compiler
    return foo(x)


print(bar(inp))  # not compiled, prints -1
tensor([-1., -1., -1.])

示例上下文管理器用法

with torch.compiler.set_stance("force_eager"):
    print(foo(inp))  # not compiled, prints -1
tensor([-1., -1., -1.])

示例原始函数用法

torch.compiler.set_stance("force_eager")
print(foo(inp))  # not compiled, prints -1
torch.compiler.set_stance("default")

print(foo(inp))  # compiled, prints 1
tensor([-1., -1., -1.])
tensor([1., 1., 1.])

torch.compile 姿态只能在任何 torch.compile 区域外部更改。尝试在其他位置执行此操作将导致错误。

@torch.compile
def baz(x):
    # error!
    with torch.compiler.set_stance("force_eager"):
        return x + 1


try:
    baz(inp)
except Exception as e:
    print(e)


@torch.compiler.set_stance("force_eager")
def inner(x):
    return x + 1


@torch.compile
def outer(x):
    # error!
    return inner(x)


try:
    outer(inp)
except Exception as e:
    print(e)
Attempt to trace forbidden callable <function set_stance at 0x7fd5e807d870>

from user code:
   File "/var/lib/workspace/recipes_source/torch_compiler_set_stance_tutorial.py", line 85, in baz
    with torch.compiler.set_stance("force_eager"):

Set TORCH_LOGS="+dynamo" and TORCHDYNAMO_VERBOSE=1 for more information


You can suppress this exception and fall back to eager by setting:
    import torch._dynamo
    torch._dynamo.config.suppress_errors = True

Attempt to trace forbidden callable <function inner at 0x7fd4a27bb0a0>

from user code:
   File "/var/lib/workspace/recipes_source/torch_compiler_set_stance_tutorial.py", line 103, in outer
    return inner(x)

Set TORCH_LOGS="+dynamo" and TORCHDYNAMO_VERBOSE=1 for more information


You can suppress this exception and fall back to eager by setting:
    import torch._dynamo
    torch._dynamo.config.suppress_errors = True
其他姿态包括
  • "default":默认姿态,用于正常编译。

  • "eager_on_recompile":当需要重新编译时,以 eager 模式运行代码。如果存在对输入有效的缓存编译代码,仍将使用它。

  • "fail_on_recompile":重新编译函数时引发错误。

有关更多姿态和选项,请参阅 torch.compiler.set_stance 文档页面。将来也可能会添加更多姿态/选项。

示例

防止重新编译

某些模型不希望进行任何重新编译 - 例如,您可能始终具有相同形状的输入。由于重新编译可能很昂贵,我们可能希望在尝试重新编译时出错,以便我们可以检测并修复重新编译的情况。"fail_on_recompilation" 姿态可用于此目的。

@torch.compile
def my_big_model(x):
    return torch.relu(x)


# first compilation
my_big_model(torch.randn(3))

with torch.compiler.set_stance("fail_on_recompile"):
    my_big_model(torch.randn(3))  # no recompilation - OK
    try:
        my_big_model(torch.randn(4))  # recompilation - error
    except Exception as e:
        print(e)
Detected recompile when torch.compile stance is 'fail_on_recompile'

如果出错过于破坏性,我们可以改用 "eager_on_recompile",这将导致 torch.compile 回退到 eager 模式而不是出错。如果我们不希望频繁发生重新编译,但这确实需要重新编译时,我们宁愿支付 eager 运行的成本,而不是重新编译的成本,那么这可能很有用。

@torch.compile
def my_huge_model(x):
    if torch.compiler.is_compiling():
        return x + 1
    else:
        return x - 1


# first compilation
print(my_huge_model(torch.zeros(3)))  # 1

with torch.compiler.set_stance("eager_on_recompile"):
    print(my_huge_model(torch.zeros(3)))  # 1
    print(my_huge_model(torch.zeros(4)))  # -1
    print(my_huge_model(torch.zeros(3)))  # 1
tensor([1., 1., 1.])
tensor([1., 1., 1.])
tensor([-1., -1., -1., -1.])
tensor([1., 1., 1.])

衡量性能提升

torch.compiler.set_stance 可用于比较 eager 模式与编译模式的性能,而无需定义单独的 eager 模型。

# Returns the result of running `fn()` and the time it took for `fn()` to run,
# in seconds. We use CUDA events and synchronization for the most accurate
# measurements.
def timed(fn):
    start = torch.cuda.Event(enable_timing=True)
    end = torch.cuda.Event(enable_timing=True)
    start.record()
    result = fn()
    end.record()
    torch.cuda.synchronize()
    return result, start.elapsed_time(end) / 1000


@torch.compile
def my_gigantic_model(x, y):
    x = x @ y
    x = x @ y
    x = x @ y
    return x


inps = torch.randn(5, 5), torch.randn(5, 5)

with torch.compiler.set_stance("force_eager"):
    print("eager:", timed(lambda: my_gigantic_model(*inps))[1])

# warmups
for _ in range(3):
    my_gigantic_model(*inps)

print("compiled:", timed(lambda: my_gigantic_model(*inps))[1])
eager: 0.00016115200519561766
compiled: 0.00016368000209331514

更快崩溃

在使用 "force_eager" 姿态进行编译迭代之前,先运行 eager 迭代,可以帮助我们在尝试非常长的编译之前捕获与 torch.compile 无关的错误。

@torch.compile
def my_humongous_model(x):
    return torch.sin(x, x)


try:
    with torch.compiler.set_stance("force_eager"):
        print(my_humongous_model(torch.randn(3)))
    # this call to the compiled model won't run
    print(my_humongous_model(torch.randn(3)))
except Exception as e:
    print(e)
sin() takes 1 positional argument but 2 were given

结论

在本食谱中,我们学习了如何使用 torch.compiler.set_stance API 来修改在对模型进行不同调用时 torch.compile 的行为,而无需重新应用它。本食谱演示了如何使用 torch.compiler.set_stance 作为装饰器、上下文管理器或原始函数来控制编译姿态,例如 force_eagerdefaulteager_on_recompile 和 “fail_on_recompile”。

有关更多信息,请参阅:torch.compiler.set_stance API 文档

脚本的总运行时间: ( 0 分钟 13.738 秒)

由 Sphinx-Gallery 生成的图库


评价本教程

© 版权所有 2024, PyTorch。

使用 Sphinx 构建,主题由 theme 提供,由 Read the Docs 提供支持。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源