dual_level¶
- class torch.autograd.forward_ad.dual_level[来源][来源]¶
用于前向 AD 的上下文管理器,所有前向 AD 计算都必须发生在
dual_level
上下文中。注意
dual_level
上下文适当地进入和退出双重级别以控制当前的前向 AD 级别,此级别默认情况下由此 API 中的其他函数使用。我们目前不计划支持嵌套的
dual_level
上下文,因此仅支持单个前向 AD 级别。要计算更高阶的前向梯度,可以使用torch.func.jvp()
。示例
>>> x = torch.tensor([1]) >>> x_t = torch.tensor([1]) >>> with dual_level(): ... inp = make_dual(x, x_t) ... # Do computations with inp ... out = your_fn(inp) ... _, grad = unpack_dual(out) >>> grad is None False >>> # After exiting the level, the grad is deleted >>> _, grad_after = unpack_dual(out) >>> grad is None True
有关如何使用此 API 的详细步骤,请参阅 前向模式 AD 教程。