快捷方式

VmasWrapper

torchrl.envs.VmasWrapper(*args, **kwargs)[source]

Vmas 环境包装器。

GitHub: https://github.com/proroklab/VectorizedMultiAgentSimulator

Paper: https://arxiv.org/abs/2207.03530

参数:

env (vmas.simulator.environment.environment.Environment) – 要包装的 vmas 环境。

关键字参数:
  • num_envs (int) – 向量化仿真环境的数量。VMAS 使用 PyTorch 执行向量化仿真。此参数指示应在批次中仿真的向量化环境数量。它还将决定环境的批次大小。

  • device (torch.device, optional) – 用于仿真的设备。默认为默认设备。VMAS 创建的所有张量都将放置在此设备上。

  • continuous_actions (bool, optional) – 是否使用连续动作。默认为 True。如果为 False,动作将是离散的。动作的数量和大小取决于所选场景。有关更多信息,请参见 VMAS 仓库。

  • max_steps (int, optional) – 任务的时间范围。默认为 None(无限时间范围)。每个 VMAS 场景都可以终止或不终止。如果指定了 max_steps,则每当达到此时间范围时,场景也会终止(并且设置 "terminated" 标志)。与 gym 的 TimeLimit transform 或 torchrl 的 StepCounter 不同,此参数不会在 tensordict 中设置 "truncated" 条目。

  • categorical_actions (bool, optional) – 如果环境动作是离散的,是否将它们转换为分类或独热表示。默认为 True

  • group_map (MarlGroupMapType or Dict[str, List[str]], optional) – 如何在 tensordicts 中对智能体进行分组以进行输入/输出。默认情况下,如果智能体名称遵循 "<name>_<int>" 的约定,它们将按 "<name>" 分组。如果不遵循此约定,它们将全部放入一个名为 "agents" 的组中。否则,可以指定分组映射或从一些预设选项中选择。有关更多信息,请参见 MarlGroupMapType

变量:
  • group_map (Dict[str, List[str]]) – 如何在 tensordicts 中对智能体进行分组以进行输入/输出。有关更多信息,请参见 MarlGroupMapType

  • agent_names (list of str) – 环境中智能体的名称

  • agent_names_to_indices_map (Dict[str, int]) – 将智能体名称映射到其在环境中的索引的字典

  • unbatched_action_spec (TensorSpec) – 没有向量化维度的规范版本

  • unbatched_observation_spec (TensorSpec) – 没有向量化维度的规范版本

  • unbatched_reward_spec (TensorSpec) – 没有向量化维度的规范版本

  • het_specs (bool) – 环境是否具有任何延迟加载的规范

  • het_specs_map (Dict[str, bool]) – 将每个组映射到一个标志,表示该组是否具有延迟加载的规范的字典

  • available_envs (List[str]) – 可供构建的场景列表。

警告

VMAS 返回一个单独的 done 标志,它不区分环境何时达到 max_steps 和何时终止。如果您认为 truncation 信号是必需的,请将 max_steps 设置为 None 并使用 StepCounter transform。

示例

>>>  env = VmasWrapper(
...      vmas.make_env(
...          scenario="flocking",
...          num_envs=32,
...          continuous_actions=True,
...          max_steps=200,
...          device="cpu",
...          seed=None,
...          # Scenario kwargs
...          n_agents=5,
...      )
...  )
>>>  print(env.rollout(10))
TensorDict(
    fields={
        agents: TensorDict(
            fields={
                action: Tensor(shape=torch.Size([32, 10, 5, 2]), device=cpu, dtype=torch.float32, is_shared=False),
                info: TensorDict(
                    fields={
                        agent_collision_rew: Tensor(shape=torch.Size([32, 10, 5, 1]), device=cpu, dtype=torch.float32, is_shared=False),
                        agent_distance_rew: Tensor(shape=torch.Size([32, 10, 5, 1]), device=cpu, dtype=torch.float32, is_shared=False)},
                    batch_size=torch.Size([32, 10, 5]),
                    device=cpu,
                    is_shared=False),
                observation: Tensor(shape=torch.Size([32, 10, 5, 18]), device=cpu, dtype=torch.float32, is_shared=False)},
            batch_size=torch.Size([32, 10, 5]),
            device=cpu,
            is_shared=False),
        done: Tensor(shape=torch.Size([32, 10, 1]), device=cpu, dtype=torch.bool, is_shared=False),
        next: TensorDict(
            fields={
                agents: TensorDict(
                    fields={
                        info: TensorDict(
                            fields={
                                agent_collision_rew: Tensor(shape=torch.Size([32, 10, 5, 1]), device=cpu, dtype=torch.float32, is_shared=False),
                                agent_distance_rew: Tensor(shape=torch.Size([32, 10, 5, 1]), device=cpu, dtype=torch.float32, is_shared=False)},
                            batch_size=torch.Size([32, 10, 5]),
                            device=cpu,
                            is_shared=False),
                        observation: Tensor(shape=torch.Size([32, 10, 5, 18]), device=cpu, dtype=torch.float32, is_shared=False),
                        reward: Tensor(shape=torch.Size([32, 10, 5, 1]), device=cpu, dtype=torch.float32, is_shared=False)},
                    batch_size=torch.Size([32, 10, 5]),
                    device=cpu,
                    is_shared=False),
                done: Tensor(shape=torch.Size([32, 10, 1]), device=cpu, dtype=torch.bool, is_shared=False),
                terminated: Tensor(shape=torch.Size([32, 10, 1]), device=cpu, dtype=torch.bool, is_shared=False)},
            batch_size=torch.Size([32, 10]),
            device=cpu,
            is_shared=False),
        terminated: Tensor(shape=torch.Size([32, 10, 1]), device=cpu, dtype=torch.bool, is_shared=False)},
    batch_size=torch.Size([32, 10]),
    device=cpu,
    is_shared=False)

© 版权所有 2022, Meta。

使用 Sphinx 构建,主题由 Read the Docs 提供。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源