快捷方式

DTLoss

class torchrl.objectives.DTLoss(*args, **kwargs)[源代码]

TorchRL 在线决策 Transformer 损失的实现。

在“决策 Transformer:通过序列建模进行强化学习”“Decision Transformer: Reinforcement Learning via Sequence Modeling” <https://arxiv.org/abs/2106.01345>中提出

参数:

actor_network (ProbabilisticActor) – 随机 Actor

关键字参数:
  • loss_function (str) – 要使用的损失函数。默认为 "l2"

  • reduction (str, 可选) – 指定要应用于输出的缩减:"none" | "mean" | "sum""none":不应用缩减,"mean":输出的总和将除以输出中的元素数,"sum":输出将求和。默认值:"mean"

forward(tensordict: TensorDictBase) TensorDictBase[源代码]

计算在线决策 Transformer 的损失。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源