快捷方式

torch.optim.Optimizer.register_load_state_dict_pre_hook

Optimizer.register_load_state_dict_pre_hook(hook, prepend=False)[源代码][源代码]

注册一个 load_state_dict 预钩子,它将在调用 load_state_dict() 之前被调用。它应该具有以下签名

hook(optimizer, state_dict) -> state_dict or None

optimizer 参数是正在使用的优化器实例,state_dict 参数是用户传递给 load_state_dictstate_dict 的浅拷贝。钩子可以就地修改 state_dict,或者选择性地返回一个新的。如果返回 state_dict,它将被用于加载到优化器中。

钩子将在调用 selfstate_dict 参数以及在 self 上调用 load_state_dict 之前被调用。注册的钩子可以用于在进行 load_state_dict 调用之前执行预处理。

参数
  • hook (Callable) – 要注册的用户定义的钩子。

  • prepend (bool) – 如果为 True,则提供的 pre hook 将在 load_state_dict 上所有已注册的预钩子之前触发。否则,提供的 hook 将在所有已注册的预钩子之后触发。(默认值:False)

返回值

一个句柄,可以通过调用 handle.remove() 来删除添加的钩子

返回类型

torch.utils.hooks.RemoveableHandle

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得您的问题解答

查看资源