快捷方式

dual_level

class torch.autograd.forward_ad.dual_level[来源][来源]

用于前向 AD 的上下文管理器,所有前向 AD 计算都必须发生在 dual_level 上下文中。

注意

dual_level 上下文适当地进入和退出双重级别以控制当前的前向 AD 级别,此级别默认情况下由此 API 中的其他函数使用。

我们目前不计划支持嵌套的 dual_level 上下文,因此仅支持单个前向 AD 级别。要计算更高阶的前向梯度,可以使用 torch.func.jvp()

示例

>>> x = torch.tensor([1])
>>> x_t = torch.tensor([1])
>>> with dual_level():
...     inp = make_dual(x, x_t)
...     # Do computations with inp
...     out = your_fn(inp)
...     _, grad = unpack_dual(out)
>>> grad is None
False
>>> # After exiting the level, the grad is deleted
>>> _, grad_after = unpack_dual(out)
>>> grad is None
True

有关如何使用此 API 的详细步骤,请参阅 前向模式 AD 教程

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源