ClipPPOLoss¶
- class torchrl.objectives.ClipPPOLoss(*args, **kwargs)[源代码]¶
裁剪 PPO 损失。
- 裁剪的重要性加权损失计算如下
loss = -min( weight * advantage, min(max(weight, 1-eps), 1+eps) * advantage)
- 参数:
actor_network (ProbabilisticTensorDictSequential) – 策略算子。
critic_network (ValueOperator) – 价值算子。
- 关键字参数:
clip_epsilon (标量, 可选) – 裁剪 PPO 损失方程中的权重裁剪阈值。默认值:0.2
entropy_bonus (bool, 可选) – 如果
True
,则会在损失中添加熵奖励,以鼓励探索性策略。samples_mc_entropy (int, 可选) – 如果从策略算子检索到的分布没有熵的闭式公式,则将使用蒙特卡洛估计。
samples_mc_entropy
将控制用于计算此估计的样本数量。默认为1
。entropy_coef (标量, 可选) – 计算总损失时的熵乘数。默认为
0.01
。critic_coef (标量, 可选) – 计算总损失时的评论家损失乘数。默认为
1.0
。将critic_coef
设置为None
以从前向输出中排除价值损失。loss_critic_type (str, 可选) – 价值差异的损失函数。可以是 “l1”、“l2” 或 “smooth_l1” 之一。默认为
"smooth_l1"
。normalize_advantage (bool, 可选) – 如果
True
,则优势将在使用前进行归一化。默认为False
。separate_losses (bool, 可选) – 如果
True
,则策略和评论家之间的共享参数将仅在策略损失上进行训练。默认为False
,即梯度会传播到策略和评论家损失的共享参数。advantage_key (str, 可选) – [已弃用,请改用 set_keys(advantage_key=advantage_key)] 输入 tensordict 键,期望在此处写入优势。默认为
"advantage"
。value_target_key (str, 可选) – [已弃用,请改用 set_keys(value_target_key=value_target_key)] 输入 tensordict 键,期望在此处写入目标状态值。默认为
"value_target"
。value_key (str, 可选) – [已弃用,请改用 set_keys(value_key)] 输入 tensordict 键,期望在此处写入状态值。默认为
"state_value"
。functional (bool, 可选) – 模块是否应函数化。函数化允许元 RL 等功能,但使得无法使用分布式模型 (DDP、FSDP, …),并且会带来一些成本。默认为
True
。reduction (str, 可选) – 指定应用于输出的归约:
"none"
|"mean"
|"sum"
。"none"
:不应用归约,"mean"
:输出的总和将除以输出中的元素数量,"sum"
:输出将被求和。默认值:"mean"
。clip_value (bool 或 float, 可选) – 如果提供
float
,它将用于计算相对于输入 tensordict 价值估计的价值预测的裁剪版本,并使用它来计算价值损失。裁剪的目的是限制极端价值预测的影响,帮助稳定训练并防止大型更新。但是,如果价值估计是由当前版本的价值估计器完成的,则它将不起作用。如果改为提供True
,则clip_epsilon
参数将用作裁剪阈值。如果未提供或False
,则不会执行裁剪。默认为False
。
注意
如果 actor 和价值函数共享参数,则可以通过仅将价值网络的头部传递给 PPO 损失模块来避免多次调用公共模块
>>> common = SomeModule(in_keys=["observation"], out_keys=["hidden"]) >>> actor_head = SomeActor(in_keys=["hidden"]) >>> value_head = SomeValue(in_keys=["hidden"]) >>> # first option, with 2 calls on the common module >>> model = ActorValueOperator(common, actor_head, value_head) >>> loss_module = ClipPPOLoss(model.get_policy_operator(), model.get_value_operator()) >>> # second option, with a single call to the common module >>> loss_module = ClipPPOLoss(ProbabilisticTensorDictSequential(model, actor_head), value_head)
无论是否激活 separate_losses,这都将起作用。
- forward(tensordict: TensorDictBase = None) TensorDictBase [源代码]¶
它旨在读取输入 TensorDict 并返回另一个 tensordict,其中损失键名为 “loss*”。
然后,训练器可以使用损失的组件来记录整个训练过程中的各种损失值。输出 tensordict 中存在的其他标量也将被记录。
- 参数:
tensordict – 具有计算损失所需值的输入 tensordict。
- 返回:
一个新的 tensordict,没有批次维度,包含各种损失标量,这些标量将被命名为 “loss*”。损失必须使用此名称返回,因为它们将在反向传播之前被训练器读取。