torch.Tensor.register_post_accumulate_grad_hook¶
- Tensor.register_post_accumulate_grad_hook(hook)[源代码]¶
注册在梯度累积后运行的反向传播钩子。
在所有张量的梯度累积完成后,将调用此钩子,这意味着该张量的 .grad 字段已更新。后累积梯度钩子**仅适用于叶子张量**(没有 .grad_fn 字段的张量)。在非叶子张量上注册此钩子将导致错误!
此钩子应具有以下签名
hook(param: Tensor) -> None
请注意,与其他 autograd 钩子不同,此钩子作用于需要梯度的张量,而不是梯度本身。钩子可以就地修改和访问其张量参数,包括其 .grad 字段。
此函数返回一个句柄,该句柄具有一个方法
handle.remove()
,用于从模块中删除钩子。注意
有关此钩子何时执行以及其执行相对于其他钩子的顺序,请参阅反向传播钩子执行。由于此钩子在反向传播过程中运行,因此它将在 no_grad 模式下运行(除非 create_graph 为 True)。如果需要,可以在钩子中使用 torch.enable_grad() 重新启用 autograd。
示例
>>> v = torch.tensor([0., 0., 0.], requires_grad=True) >>> lr = 0.01 >>> # simulate a simple SGD update >>> h = v.register_post_accumulate_grad_hook(lambda p: p.add_(p.grad, alpha=-lr)) >>> v.backward(torch.tensor([1., 2., 3.])) >>> v tensor([-0.0100, -0.0200, -0.0300], requires_grad=True) >>> h.remove() # removes the hook