快捷方式

DiscreteActionProjection

class torchrl.envs.transforms.DiscreteActionProjection(num_actions_effective: int, max_actions: int, action_key: NestedKey = 'action', include_forward: bool = True)[source]

将离散动作从高维空间投影到低维空间。

给定一个编码为 one-hot 向量的离散动作(从 1 到 N)和一个最大动作索引 num_actions(其中 num_actions < N),转换动作,使 action_out 最多为 num_actions。

如果输入动作 > num_actions,它将被替换为 0 到 num_actions-1 之间的随机值。否则,将保留相同的动作。这旨在用于应用于具有不同动作空间的多个离散控制环境的策略。

调用 DiscreteActionProjection.forward(例如,从回放缓冲区或在 nn.Modules 序列中)将调用 "in_keys" 上的 transform num_actions_effective -> max_actions,而对 _call 的调用将被忽略。实际上,转换后的 envs 被指示仅为内部 base_env 更新输入键,但原始输入键将保持不变。

参数:
  • num_actions_effective (int) – 考虑的最大动作数。

  • max_actions (int) – 此模块可以读取的最大动作数。

  • action_key (NestedKey, optional) – 动作的键名。默认为 “action”。

  • include_forward (bool, optional) – 如果 True,当模块被回放缓冲区或 nn.Module 链调用时,调用 forward 也会将动作从一个域映射到另一个域。默认为 True。

示例

>>> torch.manual_seed(0)
>>> N = 3
>>> M = 2
>>> action = torch.zeros(N, dtype=torch.long)
>>> action[-1] = 1
>>> td = TensorDict({"action": action}, [])
>>> transform = DiscreteActionProjection(num_actions_effective=M, max_actions=N)
>>> _ = transform.inv(td)
>>> print(td.get("action"))
tensor([1])
transform_input_spec(input_spec: Composite)[source]

转换输入规范,使结果规范与转换映射匹配。

参数:

input_spec (TensorSpec) – 转换前的规范

返回:

转换后期望的规范

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得您的问题解答

查看资源