快捷方式

BraxEnv

torchrl.envs.BraxEnv(*args, **kwargs)[source]

使用环境名称构建的 Google Brax 环境包装器。

Brax 提供了一个基于 Jax 的矢量化和可微分仿真框架。TorchRL 的包装器在 Jax 到 Torch 的转换过程中会产生一些开销,但计算图仍可在仿真轨迹之上构建,允许通过 rollout 进行反向传播。

GitHub: https://github.com/google/brax

论文: https://arxiv.org/abs/2106.13281

参数:
  • env_name (str) – 要包装的环境的名称。必须是 available_envs 的一部分。

  • categorical_action_encoding (bool, optional) – 如果 True,分类规范将被转换为等效的 TorchRL 类型 (torchrl.data.Categorical),否则将使用 one-hot 编码 (torchrl.data.OneHot)。默认为 False

关键字参数:
  • from_pixels (bool, optional) – 暂不支持。

  • frame_skip (int, optional) – 如果提供,表示同一动作要重复多少步。返回的观测值将是序列中的最后一个观测值,而奖励将是所有步奖励的总和。

  • device (torch.device, optional) – 如果提供,表示数据要转换到的设备。默认为 torch.device("cpu")

  • batch_size (torch.Size, optional) – 环境的批量大小。在 brax 中,这表示矢量化环境的数量。默认为 torch.Size([])

  • allow_done_after_reset (bool, optional) – 如果 True,则允许环境在调用 reset() 后立即处于完成(done)状态。默认为 False

变量:

available_envs – 可构建的环境

示例

>>> from torchrl.envs import BraxEnv
>>> import torch
>>> device = "cuda" if torch.cuda.is_available() else "cpu"
>>> env = BraxEnv("ant", device=device)
>>> env.set_seed(0)
>>> td = env.reset()
>>> td["action"] = env.action_spec.rand()
>>> td = env.step(td)
>>> print(td)
TensorDict(
    fields={
        action: Tensor(torch.Size([8]), dtype=torch.float32),
        done: Tensor(torch.Size([1]), dtype=torch.bool),
        next: TensorDict(
            fields={
                observation: Tensor(torch.Size([87]), dtype=torch.float32)},
            batch_size=torch.Size([]),
            device=cpu,
            is_shared=False),
        observation: Tensor(torch.Size([87]), dtype=torch.float32),
        reward: Tensor(torch.Size([1]), dtype=torch.float32),
        state: TensorDict(...)},
    batch_size=torch.Size([]),
    device=cpu,
    is_shared=False)
>>> print(env.available_envs)
['acrobot', 'ant', 'fast', 'fetch', ...]

为了利用 Brax 的优势,通常会同时执行多个环境。在以下示例中,我们迭代测试不同的批量大小,并报告短时 rollout 的执行时间

示例

>>> import torch
>>> from torch.utils.benchmark import Timer
>>> device = "cuda" if torch.cuda.is_available() else "cpu"
>>> for batch_size in [4, 16, 128]:
...     timer = Timer('''
... env.rollout(100)
... ''',
...     setup=f'''
... from torchrl.envs import BraxEnv
... env = BraxEnv("ant", batch_size=[{batch_size}], device="{device}")
... env.set_seed(0)
... env.rollout(2)
... ''')
...     print(batch_size, timer.timeit(10))
4
env.rollout(100)
setup: [...]
310.00 ms
1 measurement, 10 runs , 1 thread

16 env.rollout(100) setup: […] 268.46 ms 1 次测量, 10 次运行, 1 个线程

128 env.rollout(100) setup: [...] 433.80 ms 1 次测量, 10 次运行, 1 个线程

可以直接通过 rollout 进行反向传播并优化策略

>>> from torchrl.envs import BraxEnv
>>> from tensordict.nn import TensorDictModule
>>> from torch import nn
>>> import torch
>>>
>>> env = BraxEnv("ant", batch_size=[10], requires_grad=True)
>>> env.set_seed(0)
>>> torch.manual_seed(0)
>>> policy = TensorDictModule(nn.Linear(27, 8), in_keys=["observation"], out_keys=["action"])
>>>
>>> td = env.rollout(10, policy)
>>>
>>> td["next", "reward"].mean().backward(retain_graph=True)
>>> print(policy.module.weight.grad.norm())
tensor(213.8605)

© 版权所有 2022, Meta。

使用 Sphinx 和 Read the Docs 提供的主题构建。

文档

查阅 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并解答您的疑问

查看资源