快捷方式

启用梯度

class torch.enable_grad(orig_func=None)[source]

启用梯度计算的上下文管理器。

启用梯度计算,如果它已通过 no_gradset_grad_enabled 禁用。

此上下文管理器是线程局部的;它不会影响其他线程中的计算。

也可用作装饰器。

注意

enable_grad 是可以局部启用或禁用梯度的几种机制之一,请参阅 局部禁用梯度计算,以获取有关它们如何比较的更多信息。

注意

此 API 不适用于 前向模式 AD

示例:
>>> x = torch.tensor([1.], requires_grad=True)
>>> with torch.no_grad():
...     with torch.enable_grad():
...         y = x * 2
>>> y.requires_grad
True
>>> y.backward()
>>> x.grad
tensor([2.])
>>> @torch.enable_grad()
... def doubler(x):
...     return x * 2
>>> with torch.no_grad():
...     z = doubler(x)
>>> z.requires_grad
True
>>> @torch.enable_grad()
... def tripler(x):
...     return x * 3
>>> with torch.no_grad():
...     z = tripler(x)
>>> z.requires_grad
True

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源