快捷方式

LogScalar

class torchrl.trainers.LogScalar(logname='r_training', log_pbar: bool = False, reward_key: Optional[Union[str, tuple]] = None)[源代码]

奖励记录器钩子。

参数:
  • logname (str, 可选) – 要记录的奖励名称。默认值为 "r_training"

  • log_pbar (bool, 可选) – 如果为 True,奖励值将记录在进度条上。默认值为 False

  • reward_key (strtuple, 可选) – 在输入 batch 中查找奖励的键。默认为 ("next", "reward")

示例

>>> log_reward = LogScalar(("next", "reward"))
>>> trainer.register_op("pre_steps_log", log_reward)
register(trainer: Trainer, name: str = 'log_reward')[源代码]

在训练器的默认位置注册钩子。

参数:
  • 训练器 (Trainer) – 必须注册钩子的训练器。

  • 名称 (str) – 钩子的名称。

注意

要在默认位置以外的其他位置注册钩子,请使用 register_op()

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源