快捷方式

RoboHiveEnv

torchrl.envs.RoboHiveEnv(*args, **kwargs)[源代码]

RoboHive 健身房环境的包装器。

RoboHive 是一个环境/任务集合,使用 MuJoCo 物理引擎进行模拟,并使用 OpenAI-Gym API 公开。

Github:https://github.com/vikashplus/robohive/

文档:https://github.com/vikashplus/robohive/wiki

论文:https://arxiv.org/abs/2310.06828

警告

RoboHive 需要 gym 0.13。

参数:
  • env_name (str) – 要构建的环境名称。必须是 available_envs 中的一个

  • categorical_action_encoding (bool, 可选) – 如果为 True,则分类规范将转换为 TorchRL 等效项 (torchrl.data.DiscreteTensorSpec),否则将使用独热编码 (torchrl.data.OneHotTensorSpec)。默认为 False

关键字参数:
  • from_pixels (bool, 可选) – 如果为 True,则将尝试从环境中返回像素观察结果。默认情况下,这些观察结果将写入 "pixels" 条目下。使用的方法因 gym 版本而异,可能涉及 wrappers.pixel_observation.PixelObservationWrapper。默认为 False

  • pixels_only (bool, 可选) – 如果为 True,则仅返回像素观察结果(默认情况下在输出 tensordict 中的 "pixels" 条目下)。如果为 False,则在 from_pixels=True 时将返回观察结果(例如,状态)和像素。默认为 True

  • from_depths (bool, 可选) – 如果为 True,则将尝试从环境中返回深度观察结果。默认情况下,这些观察结果将写入 "depths" 条目下。需要 from_pixelsTrue。默认为 False

  • frame_skip (int, 可选) – 如果提供,则指示要重复相同动作的步数。返回的观察结果将是序列的最后一个观察结果,而奖励将是跨步骤的奖励总和。

  • device (torch.device, 可选) – 如果提供,则数据要转换到的设备。默认为 torch.device("cpu")

  • batch_size (torch.Size, 可选) – 只有 torch.Size([]) 才能与 RoboHiveEnv 一起使用,因为类中不支持矢量化环境。要一次执行多个环境,请参阅 ParallelEnv

  • allow_done_after_reset (bool, 可选) – 如果为 True,则允许环境在调用 reset() 后立即为 done。默认为 False

变量:

available_envs (list) – 要构建的环境列表。

示例

>>> from torchrl.envs import RoboHiveEnv
>>> env = RoboHiveEnv(RoboHiveEnv.available_envs[0])
>>> env.rollout(3)

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源