快捷方式

MeltingpotEnv

torchrl.envs.MeltingpotEnv(*args, **kwargs)[源代码]

Meltingpot 环境包装器。

GitHub: https://github.com/google-deepmind/meltingpot

论文: https://arxiv.org/abs/2211.13746

Melting Pot 评估了对涉及熟悉和不熟悉个体的新社会情况的泛化能力,并旨在测试广泛的社会互动,例如:合作、竞争、欺骗、互惠、信任、固执等。Melting Pot 为研究人员提供了一套超过 50 个多智能体强化学习基质(多智能体游戏)来训练智能体,以及超过 256 个独特的测试场景来评估这些训练好的智能体。

参数:

substrate (strml_collections.config_dict.ConfigDict) – 要构建的 Meltingpot 基质。可以是 available_envs 中的字符串,也可以是基质的 ConfigDict

关键字参数:
  • max_steps (int, 可选) – 任务的范围。默认为 None(无限范围)。每个 Meltingpot 基质可以是终止的或非终止的。如果指定了 max_steps,则无论何时达到此范围,场景也会终止(并设置 "terminated" 标志)。与 gym 的 TimeLimit 转换或 torchrl 的 StepCounter 不同,此参数不会在 tensordict 中设置 "truncated" 项。

  • categorical_actions (bool, 可选) – 如果环境动作是离散的,则是否将其转换为分类或独热编码。默认为 True

  • group_map (MarlGroupMapTypeDict[str, List[str]], 可选) – 如何在输入/输出的 tensordict 中对智能体进行分组。默认情况下,它们将被全部放置在一个名为 "agents" 的组中。否则,可以指定一个组映射或从一些预制选项中选择。有关更多信息,请参阅 MarlGroupMapType

变量:
  • group_map (Dict[str, List[str]]) – 如何在输入/输出的 tensordict 中对智能体进行分组。有关更多信息,请参阅 MarlGroupMapType

  • agent_names (字符串列表) – 环境中智能体的名称

  • agent_names_to_indices_map (Dict[str, int]) – 将智能体名称映射到其在环境中的索引的字典

  • available_envs (字符串列表) – 可用于构建的场景列表。

警告

Meltingpot 返回一个单独的 done 标志,该标志不区分环境何时达到 max_steps 和终止。如果你认为 truncation 信号是必要的,请将 max_steps 设置为 None 并使用 StepCounter 转换。

示例

>>> from torchrl.envs.libs.meltingpot import MeltingpotEnv
>>> env_torchrl = MeltingpotEnv("commons_harvest__open")
>>> print(env_torchrl.rollout(max_steps=5))
TensorDict(
    fields={
        RGB: Tensor(shape=torch.Size([5, 144, 192, 3]), device=cpu, dtype=torch.uint8, is_shared=False),
        agents: TensorDict(
            fields={
                action: Tensor(shape=torch.Size([5, 7]), device=cpu, dtype=torch.int64, is_shared=False),
                observation: TensorDict(
                    fields={
                        COLLECTIVE_REWARD: Tensor(shape=torch.Size([5, 7, 1]), device=cpu, dtype=torch.float64, is_shared=False),
                        READY_TO_SHOOT: Tensor(shape=torch.Size([5, 7, 1]), device=cpu, dtype=torch.float64, is_shared=False),
                        RGB: Tensor(shape=torch.Size([5, 7, 88, 88, 3]), device=cpu, dtype=torch.uint8, is_shared=False)},
                    batch_size=torch.Size([5, 7]),
                    device=cpu,
                    is_shared=False)},
            batch_size=torch.Size([5, 7]),
            device=cpu,
            is_shared=False),
        done: Tensor(shape=torch.Size([5, 1]), device=cpu, dtype=torch.bool, is_shared=False),
        next: TensorDict(
            fields={
                RGB: Tensor(shape=torch.Size([5, 144, 192, 3]), device=cpu, dtype=torch.uint8, is_shared=False),
                agents: TensorDict(
                    fields={
                        observation: TensorDict(
                            fields={
                                COLLECTIVE_REWARD: Tensor(shape=torch.Size([5, 7, 1]), device=cpu, dtype=torch.float64, is_shared=False),
                                READY_TO_SHOOT: Tensor(shape=torch.Size([5, 7, 1]), device=cpu, dtype=torch.float64, is_shared=False),
                                RGB: Tensor(shape=torch.Size([5, 7, 88, 88, 3]), device=cpu, dtype=torch.uint8, is_shared=False)},
                            batch_size=torch.Size([5, 7]),
                            device=cpu,
                            is_shared=False),
                        reward: Tensor(shape=torch.Size([5, 7, 1]), device=cpu, dtype=torch.float64, is_shared=False)},
                    batch_size=torch.Size([5, 7]),
                    device=cpu,
                    is_shared=False),
                done: Tensor(shape=torch.Size([5, 1]), device=cpu, dtype=torch.bool, is_shared=False),
                terminated: Tensor(shape=torch.Size([5, 1]), device=cpu, dtype=torch.bool, is_shared=False)},
            batch_size=torch.Size([5]),
            device=cpu,
            is_shared=False),
        terminated: Tensor(shape=torch.Size([5, 1]), device=cpu, dtype=torch.bool, is_shared=False)},
    batch_size=torch.Size([5]),
    device=cpu,
    is_shared=False)

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源