RoboHiveEnv¶
- torchrl.envs.RoboHiveEnv(*args, **kwargs)[源代码]¶
RoboHive 健身房环境的包装器。
RoboHive 是一个环境/任务集合,使用 MuJoCo 物理引擎进行模拟,并使用 OpenAI-Gym API 公开。
Github:https://github.com/vikashplus/robohive/
文档:https://github.com/vikashplus/robohive/wiki
论文:https://arxiv.org/abs/2310.06828
警告
RoboHive 需要 gym 0.13。
- 参数:
env_name (str) – 要构建的环境名称。必须是
available_envs
中的一个categorical_action_encoding (bool, 可选) – 如果为
True
,则分类规范将转换为 TorchRL 等效项 (torchrl.data.DiscreteTensorSpec
),否则将使用独热编码 (torchrl.data.OneHotTensorSpec
)。默认为False
。
- 关键字参数:
from_pixels (bool, 可选) – 如果为
True
,则将尝试从环境中返回像素观察结果。默认情况下,这些观察结果将写入"pixels"
条目下。使用的方法因 gym 版本而异,可能涉及wrappers.pixel_observation.PixelObservationWrapper
。默认为False
。pixels_only (bool, 可选) – 如果为
True
,则仅返回像素观察结果(默认情况下在输出 tensordict 中的"pixels"
条目下)。如果为False
,则在from_pixels=True
时将返回观察结果(例如,状态)和像素。默认为True
。from_depths (bool, 可选) – 如果为
True
,则将尝试从环境中返回深度观察结果。默认情况下,这些观察结果将写入"depths"
条目下。需要from_pixels
为True
。默认为False
。frame_skip (int, 可选) – 如果提供,则指示要重复相同动作的步数。返回的观察结果将是序列的最后一个观察结果,而奖励将是跨步骤的奖励总和。
device (torch.device, 可选) – 如果提供,则数据要转换到的设备。默认为
torch.device("cpu")
。batch_size (torch.Size, 可选) – 只有
torch.Size([])
才能与RoboHiveEnv
一起使用,因为类中不支持矢量化环境。要一次执行多个环境,请参阅ParallelEnv
。allow_done_after_reset (bool, 可选) – 如果为
True
,则允许环境在调用reset()
后立即为done
。默认为False
。
- 变量:
available_envs (list) – 要构建的环境列表。
示例
>>> from torchrl.envs import RoboHiveEnv >>> env = RoboHiveEnv(RoboHiveEnv.available_envs[0]) >>> env.rollout(3)