快捷方式

DTLoss

class torchrl.objectives.DTLoss(*args, **kwargs)[源代码]

TorchRL 实现的在线 Decision Transformer 损失函数。

“Decision Transformer: Reinforcement Learning via Sequence Modeling” <https://arxiv.org/abs/2106.01345> 中提出

参数:

actor_network (ProbabilisticActor) – 随机执行者网络

关键字参数:
  • loss_function (str) – 要使用的损失函数。默认为 "l2"

  • reduction (str, optional) – 指定应用于输出的归约方式:"none" | "mean" | "sum""none":不应用归约,"mean":输出的总和除以输出中的元素数量,"sum":对输出求和。默认为 "mean"

default_keys

_AcceptedKeys 的别名

forward(tensordict: TensorDictBase = None) TensorDictBase[源代码]

计算在线 Decision Transformer 的损失。

文档

查阅全面的 PyTorch 开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获取问题解答

查看资源