torch.optim.Optimizer.register_state_dict_pre_hook¶
- Optimizer.register_state_dict_pre_hook(hook, prepend=False)[源代码][源代码]¶
注册一个 state_dict 预钩子,它将在调用
state_dict()
之前被调用。它应该具有以下签名
hook(optimizer) -> None
optimizer
参数是正在使用的优化器实例。在self
上调用state_dict
之前,将使用参数self
调用钩子。注册的钩子可用于在进行state_dict
调用之前执行预处理。- 参数
hook (Callable) – 要注册的用户定义的钩子。
prepend (bool) – 如果为 True,则提供的预
hook
将在state_dict
上所有已注册的预钩子之前触发。否则,提供的hook
将在所有已注册的预钩子之后触发。(默认值:False)
- 返回
一个句柄,可用于通过调用
handle.remove()
删除添加的钩子- 返回类型
torch.utils.hooks.RemoveableHandle