快捷方式

no_grad

class torch.no_grad(orig_func=None)[source]

禁用梯度计算的上下文管理器。

在您确定不会调用 Tensor.backward() 的情况下,禁用梯度计算对于推理很有用。它将减少对计算的内存消耗,否则这些计算将具有 requires_grad=True

在此模式下,即使输入具有 requires_grad=True,每个计算的结果也将具有 requires_grad=False。有一个例外!所有工厂函数或创建新张量并接受 requires_grad 关键字参数的函数都不会受此模式影响。

此上下文管理器是线程本地化的;它不会影响其他线程中的计算。

也用作装饰器。

注意

No-grad 是可以本地启用或禁用梯度的几种机制之一,请参阅 本地禁用梯度计算,以获取有关它们如何比较的更多信息。

注意

此 API 不适用于 前向模式 AD。如果您想为计算禁用前向 AD,可以解包您的对偶张量。

示例:
>>> x = torch.tensor([1.], requires_grad=True)
>>> with torch.no_grad():
...     y = x * 2
>>> y.requires_grad
False
>>> @torch.no_grad()
... def doubler(x):
...     return x * 2
>>> z = doubler(x)
>>> z.requires_grad
False
>>> @torch.no_grad()
... def tripler(x):
...     return x * 3
>>> z = tripler(x)
>>> z.requires_grad
False
>>> # factory function exception
>>> with torch.no_grad():
...     a = torch.nn.Parameter(torch.rand(10))
>>> a.requires_grad
True

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源