快捷方式

torch.autograd.Function.backward

static Function.backward(ctx, *grad_outputs)[source]

定义一个公式,用于通过反向模式自动微分来微分运算。

此函数将被所有子类重写。(定义此函数等同于定义 vjp 函数。)

它必须接受一个上下文 ctx 作为第一个参数,后跟与 forward() 返回值数量相同的输出(对于前向函数的非张量输出,将传入 None),并且它应该返回与 forward() 输入数量相同的张量。每个参数是相对于给定输出的梯度,每个返回值应该是相对于相应输入的梯度。如果输入不是张量或是不需要梯度的张量,您可以直接为该输入传递 None 作为梯度。

上下文可用于检索在前向传播期间保存的张量。它还有一个属性 ctx.needs_input_grad,作为一个布尔值元组,表示每个输入是否需要梯度。例如,如果 backward() 的第一个输入 forward() 需要计算相对于输出的梯度,则 backward() 将具有 ctx.needs_input_grad[0] = True

返回类型

Any

文档

访问 PyTorch 的综合开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得您的问题解答

查看资源