快捷方式

torch.optim.Optimizer.register_state_dict_pre_hook

Optimizer.register_state_dict_pre_hook(hook, prepend=False)[source][source]

注册一个 state dict 预钩子 (pre-hook),它将在调用 state_dict() 之前被调用。

它应具有以下签名

hook(optimizer) -> None

参数 optimizer 是正在使用的优化器实例。钩子将在对 self 调用 state_dict 之前,以参数 self 调用。注册的钩子可用于在调用 state_dict 之前执行预处理。

参数
  • hook (Callable) – 用户定义的要注册的钩子。

  • prepend (bool) – 如果为 True,提供的预 hook 将在所有已注册的针对 state_dict 的预钩子之前触发。否则,提供的 hook 将在所有已注册的预钩子之后触发。(默认值:False)

返回值

一个句柄,可以通过调用 handle.remove() 来移除添加的钩子

返回类型

torch.utils.hooks.RemoveableHandle

文档

查阅 PyTorch 的完整开发者文档

查看文档

教程

获取针对初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源