快捷方式

NonTensorData

tensordict.NonTensorData(data: 'Any', _metadata: 'dict | None' = None, _is_non_tensor: 'bool' = True, *, batch_size, device=None, names=None)
属性 batch_size: Size

检索 tensor 类的批大小。

返回值:

批大小 (torch.Size)

属性 device: device

检索 tensor 类的设备类型。

类方法 from_tensordict(tensordict, non_tensordict=None, safe=True)

用于实例化新的 tensor 类对象的 Tensor 类包装器。

参数:
  • tensordict (TensorDict) – 张量类型字典

  • non_tensordict (dict) – 包含非张量和嵌套 tensor 类对象的字典

get(key: NestedKey, default: Any = _NoDefault.ZERO)

获取与输入键关联的值。

参数:
  • key (str, tuple of str) – 要查询的键。如果是 str 元组,则等同于 getattr 的链式调用。

  • default – 如果在 tensorclass 中找不到键,则为默认值。

返回值:

与输入键关联的值

类方法 load(prefix: str | pathlib.Path, *args, **kwargs) T

从磁盘加载 tensordict。

此类方法是 load_memmap() 的代理。

load_(prefix: str | pathlib.Path, *args, **kwargs)

在当前 tensordict 中从磁盘加载 tensordict。

此类方法是 load_memmap_() 的代理。

类方法 load_memmap(prefix: str | pathlib.Path, device: Optional[device] = None, non_blocking: bool = False, *, out: Optional[TensorDictBase] = None) T

从磁盘加载内存映射的 tensordict。

参数:
  • prefix (strPath to folder) – 应从中获取已保存 tensordict 的文件夹路径。

  • device (torch.deviceequivalent, optional) – 如果提供,数据将被异步转换为该设备。支持 “meta” 设备,在这种情况下,数据不会被加载,但会创建一组空的“meta”张量。这对于在不实际打开任何文件的情况下了解模型的总大小和结构非常有用。

  • non_blocking (bool, optional) – 如果 True,则在设备上加载张量后不会调用同步。默认为 False

  • out (TensorDictBase, optional) – 应在其中写入数据的可选 tensordict。

示例

>>> from tensordict import TensorDict
>>> td = TensorDict.fromkeys(["a", "b", "c", ("nested", "e")], 0)
>>> td.memmap("./saved_td")
>>> td_load = TensorDict.load_memmap("./saved_td")
>>> assert (td == td_load).all()

此方法还允许加载嵌套的 tensordict。

示例

>>> nested = TensorDict.load_memmap("./saved_td/nested")
>>> assert nested["e"] == 0

tensordict 也可以在 “meta” 设备上加载,或者作为伪张量加载。

示例

>>> import tempfile
>>> td = TensorDict({"a": torch.zeros(()), "b": {"c": torch.zeros(())}})
>>> with tempfile.TemporaryDirectory() as path:
...     td.save(path)
...     td_load = TensorDict.load_memmap(path, device="meta")
...     print("meta:", td_load)
...     from torch._subclasses import FakeTensorMode
...     with FakeTensorMode():
...         td_load = TensorDict.load_memmap(path)
...         print("fake:", td_load)
meta: TensorDict(
    fields={
        a: Tensor(shape=torch.Size([]), device=meta, dtype=torch.float32, is_shared=False),
        b: TensorDict(
            fields={
                c: Tensor(shape=torch.Size([]), device=meta, dtype=torch.float32, is_shared=False)},
            batch_size=torch.Size([]),
            device=meta,
            is_shared=False)},
    batch_size=torch.Size([]),
    device=meta,
    is_shared=False)
fake: TensorDict(
    fields={
        a: FakeTensor(shape=torch.Size([]), device=cpu, dtype=torch.float32, is_shared=False),
        b: TensorDict(
            fields={
                c: FakeTensor(shape=torch.Size([]), device=cpu, dtype=torch.float32, is_shared=False)},
            batch_size=torch.Size([]),
            device=cpu,
            is_shared=False)},
    batch_size=torch.Size([]),
    device=cpu,
    is_shared=False)
load_state_dict(state_dict: dict[str, Any], strict=True, assign=False, from_flatten=False)

尝试在目标 tensorclass 上就地加载 state_dict。

maybe_to_stack()

如果 NonTensorData 对象具有非空的批大小,则将其转换为 NonTensorStack 对象。

memmap(prefix: Optional[str] = None, copy_existing: bool = False, *, num_threads: int = 0, return_early: bool = False, share_non_tensor: bool = False, existsok: bool = True) T

将所有张量写入新 tensordict 中对应的内存映射张量。

参数:
  • prefix (str) – 将存储内存映射张量的目录前缀。目录树结构将模仿 tensordict 的结构。

  • copy_existing (bool) – 如果为 False(默认),则当 tensordict 中的条目已经是存储在磁盘上且具有关联文件的张量,但未根据前缀保存在正确位置时,将引发异常。如果为 True,则任何现有张量都将被复制到新位置。

关键字参数:
  • num_threads (int, optional) – 用于写入 memmap 张量的线程数。默认为 0

  • return_early (bool, optional) – 如果 Truenum_threads>0,则该方法将返回 tensordict 的 future。

  • share_non_tensor (bool, optional) – 如果 True,则非张量数据将在进程之间共享,并且在单个节点内的任何 worker 上执行的写入操作(例如,就地更新或设置)都将更新所有其他 worker 上的值。如果非张量叶节点的数量很高(例如,共享大量非张量数据堆栈),则可能会导致 OOM 或类似错误。默认为 False

  • existsok (bool, optional) – 如果 False,则当同一路径中已存在张量时,将引发异常。默认为 True

然后 TensorDict 被锁定,这意味着任何非就地写入操作都将引发异常(例如,重命名、设置或删除条目)。一旦 tensordict 被解锁,内存映射属性将变为 False,因为不再保证跨进程标识。

返回值:

如果 return_early=False,则为包含存储在磁盘上的张量的新 tensordict,否则为 TensorDictFuture 实例。

注意

以这种方式序列化对于深度嵌套的 tensordict 可能会很慢,因此不建议在训练循环内调用此方法。

memmap_(prefix: Optional[str] = None, copy_existing: bool = False, *, num_threads: int = 0, return_early: bool = False, share_non_tensor: bool = False, existsok: bool = True) T

将所有张量就地写入对应的内存映射张量。

参数:
  • prefix (str) – 将存储内存映射张量的目录前缀。目录树结构将模仿 tensordict 的结构。

  • copy_existing (bool) – 如果为 False(默认),则当 tensordict 中的条目已经是存储在磁盘上且具有关联文件的张量,但未根据前缀保存在正确位置时,将引发异常。如果为 True,则任何现有张量都将被复制到新位置。

关键字参数:
  • num_threads (int, optional) – 用于写入 memmap 张量的线程数。默认为 0

  • return_early (bool, optional) – 如果 Truenum_threads>0,则该方法将返回 tensordict 的 future。可以使用 future.result() 查询结果 tensordict。

  • share_non_tensor (bool, optional) – 如果 True,则非张量数据将在进程之间共享,并且在单个节点内的任何 worker 上执行的写入操作(例如,就地更新或设置)都将更新所有其他 worker 上的值。如果非张量叶节点的数量很高(例如,共享大量非张量数据堆栈),则可能会导致 OOM 或类似错误。默认为 False

  • existsok (bool, optional) – 如果 False,则当同一路径中已存在张量时,将引发异常。默认为 True

然后 TensorDict 被锁定,这意味着任何非就地写入操作都将引发异常(例如,重命名、设置或删除条目)。一旦 tensordict 被解锁,内存映射属性将变为 False,因为不再保证跨进程标识。

返回值:

如果 return_early=False,则为 self,否则为 TensorDictFuture 实例。

注意

以这种方式序列化对于深度嵌套的 tensordict 可能会很慢,因此不建议在训练循环内调用此方法。

memmap_like(prefix: Optional[str] = None, copy_existing: bool = False, *, existsok: bool = True, num_threads: int = 0, return_early: bool = False, share_non_tensor: bool = False) T

创建一个内容为空的内存映射 tensordict,其形状与原始 tensordict 相同。

参数:
  • prefix (str) – 将存储内存映射张量的目录前缀。目录树结构将模仿 tensordict 的结构。

  • copy_existing (bool) – 如果为 False(默认),则当 tensordict 中的条目已经是存储在磁盘上且具有关联文件的张量,但未根据前缀保存在正确位置时,将引发异常。如果为 True,则任何现有张量都将被复制到新位置。

关键字参数:
  • num_threads (int, optional) – 用于写入 memmap 张量的线程数。默认为 0

  • return_early (bool, optional) – 如果 Truenum_threads>0,则该方法将返回 tensordict 的 future。

  • share_non_tensor (bool, optional) – 如果 True,则非张量数据将在进程之间共享,并且在单个节点内的任何 worker 上执行的写入操作(例如,就地更新或设置)都将更新所有其他 worker 上的值。如果非张量叶节点的数量很高(例如,共享大量非张量数据堆栈),则可能会导致 OOM 或类似错误。默认为 False

  • existsok (bool, optional) – 如果 False,则当同一路径中已存在张量时,将引发异常。默认为 True

然后 TensorDict 被锁定,这意味着任何非就地写入操作都将引发异常(例如,重命名、设置或删除条目)。一旦 tensordict 被解锁,内存映射属性将变为 False,因为不再保证跨进程标识。

返回值:

如果 return_early=False,则为数据存储为内存映射张量的新 TensorDict 实例,否则为 TensorDictFuture 实例。

注意

这是在磁盘上写入一组大型缓冲区的推荐方法,因为 memmap_() 将复制信息,这对于大型内容来说可能很慢。

示例

>>> td = TensorDict({
...     "a": torch.zeros((3, 64, 64), dtype=torch.uint8),
...     "b": torch.zeros(1, dtype=torch.int64),
... }, batch_size=[]).expand(1_000_000)  # expand does not allocate new memory
>>> buffer = td.memmap_like("/path/to/dataset")
memmap_refresh_()

如果内存映射的 tensordict 具有 saved_path,则刷新其内容。

如果没有路径与之关联,此方法将引发异常。

属性 names: Size

检索 tensor 类的维度名称。

返回值:

名称 (str 列表)

save(prefix: Optional[str] = None, copy_existing: bool = False, *, num_threads: int = 0, return_early: bool = False, share_non_tensor: bool = False) T

将 tensordict 保存到磁盘。

此函数是 memmap() 的代理。

set(key: NestedKey, value: Any, inplace: bool = False, non_blocking: bool = False)

设置新的键值对。

参数:
  • key (str, str 元组) – 要设置的键的名称。如果是 str 元组,则等同于链式调用 getattr,最后调用 setattr。

  • value (Any) – 要存储在 tensorclass 中的值

  • inplace (bool, 可选) – 如果 True,set 将尝试就地更新值。如果 False 或键不存在,则值将直接写入其目标位置。

返回值:

self

state_dict(destination=None, prefix='', keep_vars=False, flatten=False) dict[str, Any]

返回一个 state_dict 字典,该字典可用于保存和加载来自 tensorclass 的数据。

tolist()

如果批大小为非空,则将数据转换为列表。

如果批大小为空,则返回数据。

unbind(dim: int)

返回沿指定维度解绑的索引 tensorclass 实例的元组。

生成的 tensorclass 实例将共享初始 tensorclass 实例的存储。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得您的问题解答

查看资源