PairwiseDataset¶
- class torchrl.data.PairwiseDataset(chosen_data: 'RewardData', rejected_data: 'RewardData', *, batch_size, device=None, names=None)[源代码]¶
-
- classmethod from_dataset(split, dataset_name: Optional[str] = None, max_length: int = 550, root_dir: Optional[str] = None, from_disk: bool = False, num_workers: Optional[int] = None)[源代码]¶
从数据集名称返回
PairwiseDataset
。- 参数:
split (str) –
"train"
或"valid"
,取决于所需的数据分割。dataset_name (str, 可选) – 要处理的数据集的名称。默认为
"CarperAI/openai_summarize_comparisons"
。max_length (int, 可选) – 数据集序列的最大长度。默认为 550。
root_dir (path, 可选) – 数据集存储的路径。默认为
"$HOME/.cache/torchrl/data"
from_disk (bool, 可选) – 如果为
True
,将使用datasets.load_from_disk()
。否则,将使用datasets.load_dataset()
。默认为False
。
- 返回: 包含内存映射的
PairwiseDataset
实例 所需数据集的版本。
示例
>>> data = PairwiseDataset.from_dataset("train") >>> print(data) PairwiseDataset( chosen_data=RewardData( attention_mask=MemoryMappedTensor(shape=torch.Size([92534, 550]), device=cpu, dtype=torch.int64, is_shared=False), input_ids=MemoryMappedTensor(shape=torch.Size([92534, 550]), device=cpu, dtype=torch.int64, is_shared=False), rewards=None, end_scores=None, batch_size=torch.Size([92534]), device=None, is_shared=False), rejected_data=RewardData( attention_mask=MemoryMappedTensor(shape=torch.Size([92534, 550]), device=cpu, dtype=torch.int64, is_shared=False), input_ids=MemoryMappedTensor(shape=torch.Size([92534, 550]), device=cpu, dtype=torch.int64, is_shared=False), rewards=None, end_scores=None, batch_size=torch.Size([92534]), device=None, is_shared=False), batch_size=torch.Size([92534]), device=None, is_shared=False) >>> # data can be sampled from using regular indexing >>> sub_data = data[:3]
- classmethod from_tensordict(tensordict, non_tensordict=None)¶
张量类包装器,用于实例化新的张量类对象。
- 参数:
tensordict (TensorDict) – 张量类型字典
non_tensordict (dict) – 包含非张量和嵌套张量类对象的字典
- get(key: NestedKey, default: Any = _NoDefault.ZERO)¶
获取与输入键关联存储的值。
- 参数:
key (str, str 元组) – 要查询的键。如果是 str 元组,则等同于链式调用 getattr。
default – 如果在张量类中未找到键,则为默认值。
- 返回:
与输入键关联存储的值
- classmethod load(prefix: str | pathlib.Path, *args, **kwargs) T ¶
从磁盘加载 tensordict。
此类方法是
load_memmap()
的代理。
- load_(prefix: str | pathlib.Path, *args, **kwargs)¶
在当前 tensordict 中从磁盘加载 tensordict。
此类方法是
load_memmap_()
的代理。
- classmethod load_memmap(prefix: str | pathlib.Path, device: Optional[device] = None, non_blocking: bool = False, *, out: Optional[TensorDictBase] = None) T ¶
从磁盘加载内存映射的 tensordict。
- 参数:
prefix (str 或 文件夹路径) – 应从中获取已保存 tensordict 的文件夹的路径。
device (torch.device 或 等效项, 可选) – 如果提供,数据将异步转换为该设备。支持 “meta” 设备,在这种情况下,数据不会加载,但会创建一组空的“meta”张量。这对于了解总模型大小和结构而无需实际打开任何文件很有用。
non_blocking (bool, 可选) – 如果为
True
,则在设备上加载张量后不会调用 synchronize。默认为False
。out (TensorDictBase, 可选) – 应该在其中写入数据的可选 tensordict。
示例
>>> from tensordict import TensorDict >>> td = TensorDict.fromkeys(["a", "b", "c", ("nested", "e")], 0) >>> td.memmap("./saved_td") >>> td_load = TensorDict.load_memmap("./saved_td") >>> assert (td == td_load).all()
此方法还允许加载嵌套的 tensordict。
示例
>>> nested = TensorDict.load_memmap("./saved_td/nested") >>> assert nested["e"] == 0
tensordict 也可以在 “meta” 设备上加载,或者作为伪张量加载。
示例
>>> import tempfile >>> td = TensorDict({"a": torch.zeros(()), "b": {"c": torch.zeros(())}}) >>> with tempfile.TemporaryDirectory() as path: ... td.save(path) ... td_load = TensorDict.load_memmap(path, device="meta") ... print("meta:", td_load) ... from torch._subclasses import FakeTensorMode ... with FakeTensorMode(): ... td_load = TensorDict.load_memmap(path) ... print("fake:", td_load) meta: TensorDict( fields={ a: Tensor(shape=torch.Size([]), device=meta, dtype=torch.float32, is_shared=False), b: TensorDict( fields={ c: Tensor(shape=torch.Size([]), device=meta, dtype=torch.float32, is_shared=False)}, batch_size=torch.Size([]), device=meta, is_shared=False)}, batch_size=torch.Size([]), device=meta, is_shared=False) fake: TensorDict( fields={ a: FakeTensor(shape=torch.Size([]), device=cpu, dtype=torch.float32, is_shared=False), b: TensorDict( fields={ c: FakeTensor(shape=torch.Size([]), device=cpu, dtype=torch.float32, is_shared=False)}, batch_size=torch.Size([]), device=cpu, is_shared=False)}, batch_size=torch.Size([]), device=cpu, is_shared=False)
- load_state_dict(state_dict: dict[str, Any], strict=True, assign=False, from_flatten=False)¶
尝试在目标张量类上就地加载 state_dict。
- memmap(prefix: Optional[str] = None, copy_existing: bool = False, *, num_threads: int = 0, return_early: bool = False, share_non_tensor: bool = False, existsok: bool = True) T ¶
将所有张量写入新 tensordict 中对应的内存映射张量。
- 参数:
prefix (str) – 内存映射张量将存储在其中的目录前缀。目录树结构将模仿 tensordict 的结构。
copy_existing (bool) – 如果为 False(默认值),则当 tensordict 中的条目已经是存储在磁盘上的张量且具有关联文件,但未根据前缀保存在正确位置时,将引发异常。如果为
True
,则任何现有张量都将被复制到新位置。
- 关键字参数:
num_threads (int, 可选) – 用于写入内存映射张量的线程数。默认为 0。
return_early (bool, 可选) – 如果
True
且num_threads>0
,则该方法将返回 tensordict 的 future。share_non_tensor (bool, 可选) – 如果为
True
,则非张量数据将在进程和写入操作之间共享(例如,就地更新或设置),并且单个节点中任何工作进程上的操作都将更新所有其他工作进程上的值。如果非张量叶节点的数量很高(例如,共享大量非张量数据堆栈),则可能会导致 OOM 或类似错误。默认为False
。existsok (bool, 可选) – 如果为
False
,则如果张量已存在于同一路径中,将引发异常。默认为True
。
然后,TensorDict 将被锁定,这意味着任何非就地写入操作都将引发异常(例如,重命名、设置或删除条目)。一旦 tensordict 解锁,内存映射属性将变为
False
,因为不再保证跨进程标识。- 返回:
如果
return_early=False
,则返回一个新的 tensordict,其中张量存储在磁盘上,否则返回TensorDictFuture
实例。
注意
以这种方式序列化对于深度嵌套的 tensordict 可能会很慢,因此不建议在训练循环中调用此方法。
- memmap_(prefix: Optional[str] = None, copy_existing: bool = False, *, num_threads: int = 0, return_early: bool = False, share_non_tensor: bool = False, existsok: bool = True) T ¶
将所有张量写入对应的内存映射张量,就地操作。
- 参数:
prefix (str) – 内存映射张量将存储在其中的目录前缀。目录树结构将模仿 tensordict 的结构。
copy_existing (bool) – 如果为 False(默认值),则当 tensordict 中的条目已经是存储在磁盘上的张量且具有关联文件,但未根据前缀保存在正确位置时,将引发异常。如果为
True
,则任何现有张量都将被复制到新位置。
- 关键字参数:
num_threads (int, 可选) – 用于写入内存映射张量的线程数。默认为 0。
return_early (bool, 可选) – 如果
True
且num_threads>0
,则该方法将返回 tensordict 的 future。可以使用 future.result() 查询结果 tensordict。share_non_tensor (bool, 可选) – 如果为
True
,则非张量数据将在进程和写入操作之间共享(例如,就地更新或设置),并且单个节点中任何工作进程上的操作都将更新所有其他工作进程上的值。如果非张量叶节点的数量很高(例如,共享大量非张量数据堆栈),则可能会导致 OOM 或类似错误。默认为False
。existsok (bool, 可选) – 如果为
False
,则如果张量已存在于同一路径中,将引发异常。默认为True
。
然后,TensorDict 将被锁定,这意味着任何非就地写入操作都将引发异常(例如,重命名、设置或删除条目)。一旦 tensordict 解锁,内存映射属性将变为
False
,因为不再保证跨进程标识。- 返回:
如果
return_early=False
,则返回 self,否则返回TensorDictFuture
实例。
注意
以这种方式序列化对于深度嵌套的 tensordict 可能会很慢,因此不建议在训练循环中调用此方法。
- memmap_like(prefix: Optional[str] = None, copy_existing: bool = False, *, existsok: bool = True, num_threads: int = 0, return_early: bool = False, share_non_tensor: bool = False) T ¶
创建一个无内容的内存映射 tensordict,其形状与原始 tensordict 相同。
- 参数:
prefix (str) – 内存映射张量将存储在其中的目录前缀。目录树结构将模仿 tensordict 的结构。
copy_existing (bool) – 如果为 False(默认值),则当 tensordict 中的条目已经是存储在磁盘上的张量且具有关联文件,但未根据前缀保存在正确位置时,将引发异常。如果为
True
,则任何现有张量都将被复制到新位置。
- 关键字参数:
num_threads (int, 可选) – 用于写入内存映射张量的线程数。默认为 0。
return_early (bool, 可选) – 如果
True
且num_threads>0
,则该方法将返回 tensordict 的 future。share_non_tensor (bool, 可选) – 如果为
True
,则非张量数据将在进程和写入操作之间共享(例如,就地更新或设置),并且单个节点中任何工作进程上的操作都将更新所有其他工作进程上的值。如果非张量叶节点的数量很高(例如,共享大量非张量数据堆栈),则可能会导致 OOM 或类似错误。默认为False
。existsok (bool, 可选) – 如果为
False
,则如果张量已存在于同一路径中,将引发异常。默认为True
。
然后,TensorDict 将被锁定,这意味着任何非就地写入操作都将引发异常(例如,重命名、设置或删除条目)。一旦 tensordict 解锁,内存映射属性将变为
False
,因为不再保证跨进程标识。- 返回:
如果
return_early=False
,则返回一个新的TensorDict
实例,其中数据存储为内存映射张量,否则返回TensorDictFuture
实例。
注意
这是在磁盘上写入一组大型缓冲区的推荐方法,因为
memmap_()
将复制信息,对于大型内容来说可能很慢。示例
>>> td = TensorDict({ ... "a": torch.zeros((3, 64, 64), dtype=torch.uint8), ... "b": torch.zeros(1, dtype=torch.int64), ... }, batch_size=[]).expand(1_000_000) # expand does not allocate new memory >>> buffer = td.memmap_like("/path/to/dataset")
- memmap_refresh_()¶
如果内存映射的 tensordict 具有
saved_path
,则刷新其内容。如果未与其关联任何路径,则此方法将引发异常。
- save(prefix: Optional[str] = None, copy_existing: bool = False, *, num_threads: int = 0, return_early: bool = False, share_non_tensor: bool = False) T ¶
将 tensordict 保存到磁盘。
此函数是
memmap()
的代理。
- set(key: NestedKey, value: Any, inplace: bool = False, non_blocking: bool = False)¶
设置一个新的键值对。
- 参数:
key (str, str 的元组) – 要设置的键的名称。如果是 str 的元组,则等同于链式调用 getattr,后跟最终的 setattr。
value (Any) – 要存储在 tensorclass 中的值
inplace (bool, 可选) – 如果
True
,set 将尝试就地更新值。如果False
或键不存在,则值将简单地写入其目标位置。
- 返回:
self
- state_dict(destination=None, prefix='', keep_vars=False, flatten=False) dict[str, Any] ¶
返回一个 state_dict 字典,该字典可用于保存和加载 tensorclass 中的数据。
- to_tensordict() TensorDict ¶
将 tensorclass 转换为常规 TensorDict。
复制所有条目。Memmap 和共享内存张量将转换为常规张量。
- 返回:
一个新的 TensorDict 对象,其中包含与 tensorclass 相同的值。
- unbind(dim: int)¶
返回一个索引 tensorclass 实例的元组,这些实例沿指示的维度解绑。
生成的 tensorclass 实例将共享初始 tensorclass 实例的存储。