MeltingpotEnv¶
- torchrl.envs.MeltingpotEnv(*args, **kwargs)[源代码]¶
Meltingpot 环境包装器。
GitHub: https://github.com/google-deepmind/meltingpot
论文: https://arxiv.org/abs/2211.13746
Melting Pot 评估了对涉及熟悉和不熟悉个体的新社会情况的泛化能力,并旨在测试广泛的社会互动,例如:合作、竞争、欺骗、互惠、信任、固执等。Melting Pot 为研究人员提供了一套超过 50 个多智能体强化学习基质(多智能体游戏)来训练智能体,以及超过 256 个独特的测试场景来评估这些训练好的智能体。
- 参数:
substrate (str 或 ml_collections.config_dict.ConfigDict) – 要构建的 Meltingpot 基质。可以是
available_envs
中的字符串,也可以是基质的 ConfigDict- 关键字参数:
max_steps (int, 可选) – 任务的范围。默认为
None
(无限范围)。每个 Meltingpot 基质可以是终止的或非终止的。如果指定了max_steps
,则无论何时达到此范围,场景也会终止(并设置"terminated"
标志)。与 gym 的TimeLimit
转换或 torchrl 的StepCounter
不同,此参数不会在 tensordict 中设置"truncated"
项。categorical_actions (bool, 可选) – 如果环境动作是离散的,则是否将其转换为分类或独热编码。默认为
True
。group_map (MarlGroupMapType 或 Dict[str, List[str]], 可选) – 如何在输入/输出的 tensordict 中对智能体进行分组。默认情况下,它们将被全部放置在一个名为
"agents"
的组中。否则,可以指定一个组映射或从一些预制选项中选择。有关更多信息,请参阅MarlGroupMapType
。
- 变量:
group_map (Dict[str, List[str]]) – 如何在输入/输出的 tensordict 中对智能体进行分组。有关更多信息,请参阅
MarlGroupMapType
。agent_names (字符串列表) – 环境中智能体的名称
agent_names_to_indices_map (Dict[str, int]) – 将智能体名称映射到其在环境中的索引的字典
available_envs (字符串列表) – 可用于构建的场景列表。
警告
Meltingpot 返回一个单独的
done
标志,该标志不区分环境何时达到max_steps
和终止。如果你认为truncation
信号是必要的,请将max_steps
设置为None
并使用StepCounter
转换。示例
>>> from torchrl.envs.libs.meltingpot import MeltingpotEnv >>> env_torchrl = MeltingpotEnv("commons_harvest__open") >>> print(env_torchrl.rollout(max_steps=5)) TensorDict( fields={ RGB: Tensor(shape=torch.Size([5, 144, 192, 3]), device=cpu, dtype=torch.uint8, is_shared=False), agents: TensorDict( fields={ action: Tensor(shape=torch.Size([5, 7]), device=cpu, dtype=torch.int64, is_shared=False), observation: TensorDict( fields={ COLLECTIVE_REWARD: Tensor(shape=torch.Size([5, 7, 1]), device=cpu, dtype=torch.float64, is_shared=False), READY_TO_SHOOT: Tensor(shape=torch.Size([5, 7, 1]), device=cpu, dtype=torch.float64, is_shared=False), RGB: Tensor(shape=torch.Size([5, 7, 88, 88, 3]), device=cpu, dtype=torch.uint8, is_shared=False)}, batch_size=torch.Size([5, 7]), device=cpu, is_shared=False)}, batch_size=torch.Size([5, 7]), device=cpu, is_shared=False), done: Tensor(shape=torch.Size([5, 1]), device=cpu, dtype=torch.bool, is_shared=False), next: TensorDict( fields={ RGB: Tensor(shape=torch.Size([5, 144, 192, 3]), device=cpu, dtype=torch.uint8, is_shared=False), agents: TensorDict( fields={ observation: TensorDict( fields={ COLLECTIVE_REWARD: Tensor(shape=torch.Size([5, 7, 1]), device=cpu, dtype=torch.float64, is_shared=False), READY_TO_SHOOT: Tensor(shape=torch.Size([5, 7, 1]), device=cpu, dtype=torch.float64, is_shared=False), RGB: Tensor(shape=torch.Size([5, 7, 88, 88, 3]), device=cpu, dtype=torch.uint8, is_shared=False)}, batch_size=torch.Size([5, 7]), device=cpu, is_shared=False), reward: Tensor(shape=torch.Size([5, 7, 1]), device=cpu, dtype=torch.float64, is_shared=False)}, batch_size=torch.Size([5, 7]), device=cpu, is_shared=False), done: Tensor(shape=torch.Size([5, 1]), device=cpu, dtype=torch.bool, is_shared=False), terminated: Tensor(shape=torch.Size([5, 1]), device=cpu, dtype=torch.bool, is_shared=False)}, batch_size=torch.Size([5]), device=cpu, is_shared=False), terminated: Tensor(shape=torch.Size([5, 1]), device=cpu, dtype=torch.bool, is_shared=False)}, batch_size=torch.Size([5]), device=cpu, is_shared=False)