快捷方式

LazyStackStorage

class torchrl.data.replay_buffers.LazyStackStorage(max_size: int | None = None, *, compilable: bool = False, stack_dim: int = - 1)[source]

一个返回 LazyStackTensorDict 实例的 ListStorage。

该存储允许将异构结构索引为单个 TensorDict 表示。它使用 LazyStackedTensorDict,后者对不连续的 tensordicts 列表进行操作,在查询时才惰性地堆叠项。这意味着该存储采样速度快,但数据访问可能较慢(因为它需要堆叠)。形状异构的张量也可以存储在该存储中并堆叠在一起。由于存储表示为列表,存储在内存中的张量数量将随缓冲区大小线性增长。

如果可能,还可以通过 densify() 创建嵌套张量(参见 nested)。

参数:

max_size (int, 可选) – 存储中存储的最大元素数量。如果未提供,则创建一个无限制的存储。

关键字参数:
  • compilable (bool, 可选) – 如果为 True,则该存储将与 compile() 兼容,代价是无法在多进程设置中执行。

  • stack_dim (int, 可选) – 按 TensorDict 批量大小计算的堆叠维度。默认为 -1

示例

>>> import torch
>>> from torchrl.data import ReplayBuffer, LazyStackStorage
>>> from tensordict import TensorDict
>>> _ = torch.manual_seed(0)
>>> rb = ReplayBuffer(storage=LazyStackStorage(max_size=1000, stack_dim=-1))
>>> data0 = TensorDict(a=torch.randn((10,)), b=torch.rand(4), c="a string!")
>>> data1 = TensorDict(a=torch.randn((11,)), b=torch.rand(4), c="another string!")
>>> _ = rb.add(data0)
>>> _ = rb.add(data1)
>>> rb.sample(10)
LazyStackedTensorDict(
    fields={
        a: Tensor(shape=torch.Size([10, -1]), device=cpu, dtype=torch.float32, is_shared=False),
        b: Tensor(shape=torch.Size([10, 4]), device=cpu, dtype=torch.float32, is_shared=False),
        c: NonTensorStack(
            ['another string!', 'another string!', 'another st...,
            batch_size=torch.Size([10]),
            device=None)},
    exclusive_fields={
    },
    batch_size=torch.Size([10]),
    device=None,
    is_shared=False,
    stack_dim=0)
attach(buffer: Any) None

此函数将一个采样器附加到此存储。

从此存储读取的缓冲区必须通过调用此方法作为附加实体包含进来。这保证了当存储中的数据发生变化时,即使存储与其他缓冲区共享(例如 Priority Samplers),组件也会知晓这些变化。

参数:

buffer – 从此存储读取的对象。

dump(*args, **kwargs)

dumps() 的别名。

load(*args, **kwargs)

loads() 的别名。

save(*args, **kwargs)

dumps() 的别名。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并解答您的疑问

查看资源