快捷方式

OnlineDTActor

class torchrl.modules.OnlineDTActor(state_dim: int, action_dim: int, transformer_config: Optional[Union[Dict, DTConfig]] = None, device: Optional[Union[device, str, int]] = None)[source]

在线决策 Transformer Actor 类。

用于在线决策 Transformer 的 Actor 类,用于从高斯分布中采样动作,如 “在线决策 Transformer” 中所述。

返回用于从高斯分布中采样动作的均值和标准差。

参数:

示例

>>> model = OnlineDTActor(state_dim=4, action_dim=2,
...     transformer_config=OnlineDTActor.default_config())
>>> observation = torch.randn(32, 10, 4)
>>> action = torch.randn(32, 10, 2)
>>> return_to_go = torch.randn(32, 10, 1)
>>> mu, std = model(observation, action, return_to_go)
>>> mu.shape
torch.Size([32, 10, 2])
>>> std.shape
torch.Size([32, 10, 2])
classmethod default_config()[source]

OnlineDTActor 的默认配置。

forward(observation: Tensor, action: Tensor, return_to_go: Tensor) Tuple[Tensor, Tensor][source]

定义每次调用时执行的计算。

应由所有子类重写。

注意

尽管前向传递的配方需要在该函数中定义,但应该在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行注册的钩子,而后者会静默地忽略它们。

文档

访问 PyTorch 的综合开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源