快捷方式

get_dataloader

class torchrl.data.get_dataloader(batch_size: int, block_size: int, tensorclass_type: Type, device: torch.device, dataset_name: str | None = None, infinite: bool = True, prefetch: int = 0, split: str = 'train', root_dir: str | None = None, from_disk: bool = False, num_workers: int | None = None)[源代码]

创建一个数据集并从中返回一个数据加载器。

参数:
  • batch_size (int) – 数据加载器样本的批次大小。

  • block_size (int) – 数据加载器中序列的最大长度。

  • tensorclass_type (tensorclass 类) – 具有 from_dataset() 方法的 tensorclass,该方法必须接受三个关键字参数:split(见下文)、max_length(用于训练的块大小)和 dataset_name(指示数据集的字符串)。还应支持 root_dirfrom_disk 参数。

  • device (torch.device等效项) – 应将样本转换为的设备。

  • dataset_name (str, 可选) – 数据集名称。如果未提供,并且 tensorclass 支持它,则将为所使用的 tensorclass 收集默认数据集名称。

  • infinite (bool, 可选) – 如果为 True,则迭代将是无限的,因此 next(iterator) 将始终返回一个值。默认为 True

  • prefetch (int, 可选) – 如果使用多线程数据加载,则要预取的项目数量。

  • split (str, 可选) – 数据分割。要么是 "train",要么是 "valid"。默认为 "train"

  • root_dir (路径, 可选) – 存储数据集的路径。默认为 "$HOME/.cache/torchrl/data"

  • from_disk (bool, 可选) – 如果为 True,则将使用 datasets.load_from_disk()。否则,将使用 datasets.load_dataset()。默认为 False

  • num_workers (int, 可选) – datasets.dataset.map() 的工作线程数量,该方法在标记化期间被调用。默认为 max(os.cpu_count() // 2, 1)

示例

>>> from torchrl.data.rlhf.reward import PairwiseDataset
>>> dataloader = get_dataloader(
...     batch_size=256, block_size=550, tensorclass_type=PairwiseDataset, device="cpu")
>>> for d in dataloader:
...     print(d)
...     break
PairwiseDataset(
    chosen_data=RewardData(
        attention_mask=Tensor(shape=torch.Size([256, 550]), device=cpu, dtype=torch.int64, is_shared=False),
        input_ids=Tensor(shape=torch.Size([256, 550]), device=cpu, dtype=torch.int64, is_shared=False),
        rewards=None,
        end_scores=None,
        batch_size=torch.Size([256]),
        device=cpu,
        is_shared=False),
    rejected_data=RewardData(
        attention_mask=Tensor(shape=torch.Size([256, 550]), device=cpu, dtype=torch.int64, is_shared=False),
        input_ids=Tensor(shape=torch.Size([256, 550]), device=cpu, dtype=torch.int64, is_shared=False),
        rewards=None,
        end_scores=None,
        batch_size=torch.Size([256]),
        device=cpu,
        is_shared=False),
    batch_size=torch.Size([256]),
    device=cpu,
    is_shared=False)

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源