快捷方式

OptimizerHook

torchrl.trainers.OptimizerHook(optimizer: Optimizer, loss_components: Optional[Sequence[str]] = None)[源代码]

为一个或多个损失组件添加优化器。

参数:
  • optimizer (optim.Optimizer) – 用于应用于损失组件的优化器。

  • loss_components (Sequence[str], 可选) – Loss TensorDict 中应应用优化器的相应值的键。如果省略,优化器将应用于所有名称以 loss_ 开头的组件。

示例

>>> optimizer_hook = OptimizerHook(optimizer, ["loss_actor"])
>>> trainer.register_op("optimizer", optimizer_hook)
register(trainer, name='optimizer') None[源代码]

在训练器中注册 hook 到默认位置。

参数:
  • trainer (Trainer) – 必须注册 hook 的训练器。

  • name (str) – hook 的名称。

注意

要在除默认位置之外的其他位置注册 hook,请使用 register_op()

文档

访问 PyTorch 全面的开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源