快捷方式

torch.utils.data

PyTorch 数据加载工具的核心是 torch.utils.data.DataLoader 类。它表示一个数据集上的 Python 可迭代对象,支持以下功能:

这些选项由 DataLoader 的构造函数参数配置,其签名如下:

DataLoader(dataset, batch_size=1, shuffle=False, sampler=None,
           batch_sampler=None, num_workers=0, collate_fn=None,
           pin_memory=False, drop_last=False, timeout=0,
           worker_init_fn=None, *, prefetch_factor=2,
           persistent_workers=False)

以下部分详细描述了这些选项的作用和用法。

数据集类型

DataLoader 构造函数最重要的参数是 dataset,它表示要从中加载数据的数据集对象。PyTorch 支持两种不同类型的数据集:

映射风格数据集

映射风格数据集是实现了 __getitem__()__len__() 协议的数据集,表示从(可能非整数的)索引/键到数据样本的映射。

例如,通过 dataset[idx] 访问这样的数据集时,可以从磁盘上的文件夹读取第 idx 张图像及其对应的标签。

详情请参阅 Dataset

可迭代风格数据集

可迭代风格数据集是 IterableDataset 子类的实例,它实现了 __iter__() 协议,并表示数据样本上的一个可迭代对象。此类数据集特别适用于随机读取开销很大甚至不可能的情况,以及批量大小取决于获取的数据的情况。

例如,调用 iter(dataset) 时,此类数据集可以返回一个数据流,数据源可以是数据库、远程服务器,甚至是实时生成的日志。

详情请参阅 IterableDataset

注意

IterableDataset多进程数据加载一起使用时,同一个数据集对象会在每个 worker 进程上复制,因此必须对副本进行不同的配置以避免数据重复。有关如何实现此目的,请参阅 IterableDataset 文档。

数据加载顺序和 Sampler

对于可迭代风格数据集,数据加载顺序完全由用户定义的可迭代对象控制。这使得实现分块读取和动态批量大小(例如,每次生成一个批量样本)更加容易。

本节的其余部分涉及映射风格数据集的情况。torch.utils.data.Sampler 类用于指定数据加载中使用的索引/键序列。它们表示数据集索引上的可迭代对象。例如,在随机梯度下降 (SGD) 的常见情况下,Sampler 可以随机排列索引列表并每次生成一个,或者为 mini-batch SGD 生成少量索引。

将根据 DataLoadershuffle 参数自动构建一个顺序或随机采样器。或者,用户可以使用 sampler 参数指定自定义的 Sampler 对象,该对象每次生成要获取的下一个索引/键。

可以作为 batch_sampler 参数传递一个自定义的 Sampler,它每次生成一个批量索引列表。也可以通过 batch_sizedrop_last 参数启用自动批量处理。有关更多详细信息,请参阅下一节

注意

samplerbatch_sampler 都不兼容可迭代风格数据集,因为此类数据集没有键或索引的概念。

加载批量和非批量数据

DataLoader 支持通过参数 batch_sizedrop_lastbatch_samplercollate_fn(它有一个默认函数)自动将单个获取的数据样本整理成批次。

自动批量处理(默认)

这是最常见的情况,对应于获取一个 mini-batch 数据并将其整理成批量样本,即包含一个维度作为批量维度(通常是第一个维度)的 Tensor。

batch_size(默认为 1)不是 None 时,数据加载器将生成批量样本而不是单个样本。batch_sizedrop_last 参数用于指定数据加载器如何获取数据集键的批次。对于映射风格数据集,用户也可以指定 batch_sampler,它每次生成一个键列表。

注意

batch_sizedrop_last 参数本质上用于从 sampler 构建一个 batch_sampler。对于映射风格数据集,sampler 由用户提供或根据 shuffle 参数构建。对于可迭代风格数据集,sampler 是一个无限的虚拟采样器。有关采样器的更多详细信息,请参阅本节

注意

当使用多进程可迭代风格数据集获取数据时,drop_last 参数会丢弃每个 worker 数据集副本的最后一个非完整批次。

在使用采样器中的索引获取样本列表后,将使用作为 collate_fn 参数传入的函数将样本列表整理成批次。

在这种情况下,从映射风格数据集加载大致等同于:

for indices in batch_sampler:
    yield collate_fn([dataset[i] for i in indices])

从可迭代风格数据集加载大致等同于:

dataset_iter = iter(dataset)
for indices in batch_sampler:
    yield collate_fn([next(dataset_iter) for _ in indices])

可以使用自定义的 collate_fn 来自定义整理过程,例如沿第一个维度以外的维度进行整理,填充各种长度的序列,或添加对自定义数据类型的支持。有关 collate_fn 的更多信息,请参阅本节

禁用自动批量处理

在某些情况下,用户可能希望在数据集代码中手动处理批量处理,或者只加载单个样本。例如,直接加载批量数据(例如,从数据库批量读取或读取连续内存块)可能更便宜,或者批量大小依赖于数据,或者程序设计用于处理单个样本。在这些场景下,可能最好不要使用自动批量处理(即使用 collate_fn 整理样本),而是让数据加载器直接返回 dataset 对象的每个成员。

batch_sizebatch_sampler 均为 None 时(batch_sampler 的默认值已经是 None),自动批量处理被禁用。从 dataset 获取的每个样本都将由作为 collate_fn 参数传入的函数处理。

禁用自动批量处理时,默认的 collate_fn 只是简单地将 NumPy 数组转换为 PyTorch Tensor,而保留其他所有内容不变。

在这种情况下,从映射风格数据集加载大致等同于:

for index in sampler:
    yield collate_fn(dataset[index])

从可迭代风格数据集加载大致等同于:

for data in iter(dataset):
    yield collate_fn(data)

有关 collate_fn 的更多信息,请参阅本节

使用 collate_fn

当自动批量处理启用或禁用时,collate_fn 的用法略有不同。

禁用自动批量处理时collate_fn 会针对每个单独的数据样本调用,其输出从数据加载器迭代器中生成。在这种情况下,默认的 collate_fn 只是简单地将 NumPy 数组转换为 PyTorch Tensor。

启用自动批量处理时collate_fn 每次都以数据样本列表的形式调用。它应该将输入的样本整理成一个批次,以便从数据加载器迭代器中生成。本节的其余部分描述了默认 collate_fn (default_collate()) 的行为。

例如,如果每个数据样本包含一个 3 通道图像和一个整数类别标签,即数据集的每个元素都返回一个元组 (image, class_index),则默认的 collate_fn 会将这样的元组列表整理成一个包含批量图像张量和批量类别标签张量的单个元组。特别是,默认的 collate_fn 具有以下特性:

  • 它始终将一个新的维度作为批量维度添加到最前面。

  • 它自动将 NumPy 数组和 Python 数值转换为 PyTorch Tensor。

  • 它保留数据结构,例如,如果每个样本是一个字典,它会输出一个具有相同键集但值为批量 Tensor(如果值不能转换为 Tensor 则为列表)的字典。对于 listtuplenamedtuple 等也是如此。

用户可以使用自定义的 collate_fn 来实现自定义批量处理,例如沿第一个维度以外的维度进行整理,填充各种长度的序列,或添加对自定义数据类型的支持。

如果 DataLoader 的输出维度或类型与您的预期不同,您可能需要检查您的 collate_fn

单进程和多进程数据加载

默认情况下,DataLoader 使用单进程数据加载。

在 Python 进程内部,全局解释器锁 (GIL) 阻止了 Python 代码在线程之间真正的完全并行化。为了避免数据加载阻塞计算代码,PyTorch 提供了一个简单的开关,只需将参数 num_workers 设置为正整数即可执行多进程数据加载。

单进程数据加载(默认)

在此模式下,数据获取在初始化 DataLoader 的同一进程中完成。因此,数据加载可能会阻塞计算。但是,当用于进程间共享数据的资源(例如共享内存、文件描述符)有限时,或者当整个数据集很小并且可以完全加载到内存中时,此模式可能更受欢迎。此外,单进程加载通常显示更易读的错误跟踪,因此对于调试很有用。

多进程数据加载

将参数 num_workers 设置为正整数将开启多进程数据加载,并指定加载 worker 进程的数量。

警告

几次迭代后,加载器 worker 进程将消耗与父进程相同的 CPU 内存量,用于访问父进程中 worker 进程访问的所有 Python 对象。如果 Dataset 包含大量数据(例如,您在 Dataset 构造时加载非常大的文件名列表)和/或您使用大量 worker,这可能会带来问题(总内存使用量为 worker 数量 * 父进程大小)。最简单的解决方法是用非引用计数表示(例如 Pandas、Numpy 或 PyArrow 对象)替换 Python 对象。请参阅 issue #13246,了解有关此问题发生原因和如何解决这些问题的示例代码的更多详细信息。

在此模式下,每次创建 DataLoader 的迭代器时(例如,当您调用 enumerate(dataloader) 时),会创建 num_workers 个 worker 进程。此时,datasetcollate_fnworker_init_fn 会传递给每个 worker,并在其中用于初始化和获取数据。这意味着数据集访问及其内部 IO、转换(包括 collate_fn)都在 worker 进程中运行。

torch.utils.data.get_worker_info() 在 worker 进程中返回各种有用的信息(包括 worker ID、数据集副本、初始种子等),在主进程中返回 None。用户可以在数据集代码和/或 worker_init_fn 中使用此函数来单独配置每个数据集副本,并确定代码是否在 worker 进程中运行。例如,这在数据集分片中特别有用。

对于映射风格数据集,主进程使用 sampler 生成索引并将其发送给 worker。因此,任何洗牌随机化都在主进程中完成,主进程通过分配要加载的索引来指导加载。

对于可迭代风格的数据集,由于每个工作进程都会获得一个 dataset 对象的副本,简单的多进程加载常常会导致数据重复。利用 torch.utils.data.get_worker_info() 和/或 worker_init_fn,用户可以独立配置每个副本。(参见 IterableDataset 文档了解如何实现)。出于类似原因,在多进程加载中,drop_last 参数会丢弃每个工作进程的可迭代风格数据集副本中的最后一个非完整批次。

当迭代结束时,或者当迭代器被垃圾回收时,工作进程就会关闭。

警告

通常不建议在多进程加载中返回 CUDA 张量,因为在多进程中使用 CUDA 和共享 CUDA 张量存在许多微妙之处(参见 多进程中的 CUDA)。相反,我们推荐使用自动内存锁定(即设置 pin_memory=True),这能够实现数据到支持 CUDA 的 GPU 的快速传输。

平台特定的行为

由于工作进程依赖 Python 的 multiprocessing 模块,工作进程的启动行为在 Windows 和 Unix 上是不同的。

  • 在 Unix 上,fork() 是默认的 multiprocessing 启动方法。使用 fork(),子工作进程通常可以通过克隆的地址空间直接访问 dataset 和 Python 参数函数。

  • 在 Windows 或 MacOS 上,spawn() 是默认的 multiprocessing 启动方法。使用 spawn(),会启动另一个解释器,运行主脚本,然后是接收通过 pickle 序列化传递的 datasetcollate_fn 和其他参数的内部工作函数。

这种单独的序列化意味着在使用多进程数据加载时,您应该采取两个步骤来确保与 Windows 兼容

  • 将您主脚本的大部分代码包装在 if __name__ == '__main__': 块中,以确保在启动每个工作进程时它不会再次运行(很可能导致错误)。您可以将您的数据集和 DataLoader 实例创建逻辑放在这里,因为它不需要在工作进程中重新执行。

  • 确保所有自定义的 collate_fnworker_init_fndataset 代码都声明为顶级定义,在 __main__ 检查之外。这确保它们在工作进程中可用。(这是必需的,因为函数仅作为引用被 pickle,而不是 bytecode)。

多进程数据加载中的随机性

默认情况下,每个工作进程的 PyTorch 种子将被设置为 base_seed + worker_id,其中 base_seed 是主进程使用其 RNG 生成的长整型(因此必须消耗一个 RNG 状态)或指定的 generator。然而,初始化工作进程时,其他库的种子可能会重复,导致每个工作进程返回相同的随机数。(参见 FAQ 中的本节)。

worker_init_fn 中,您可以通过 torch.utils.data.get_worker_info().seedtorch.initial_seed() 访问为每个工作进程设置的 PyTorch 种子,并在加载数据之前使用它为其他库设置种子。

内存锁定

当数据源自锁定(页锁定)内存时,从主机到 GPU 的复制会快得多。有关何时以及如何通常使用锁定内存的更多详细信息,请参见使用锁定内存缓冲区

对于数据加载,将 pin_memory=True 传递给 DataLoader 会自动将获取的数据张量放入锁定内存中,从而实现数据到支持 CUDA 的 GPU 的快速传输。

默认的内存锁定逻辑只识别张量以及包含张量的映射和可迭代对象。默认情况下,如果锁定逻辑看到一个批次是自定义类型(如果您有一个返回自定义批次类型的 collate_fn,就会发生这种情况),或者如果您的批次的每个元素是自定义类型,锁定逻辑将无法识别它们,并将直接返回该批次(或这些元素),而不锁定内存。要为自定义批次或数据类型启用内存锁定,请在您的自定义类型上定义一个 pin_memory() 方法。

参见下面的示例。

示例

class SimpleCustomBatch:
    def __init__(self, data):
        transposed_data = list(zip(*data))
        self.inp = torch.stack(transposed_data[0], 0)
        self.tgt = torch.stack(transposed_data[1], 0)

    # custom memory pinning method on custom type
    def pin_memory(self):
        self.inp = self.inp.pin_memory()
        self.tgt = self.tgt.pin_memory()
        return self

def collate_wrapper(batch):
    return SimpleCustomBatch(batch)

inps = torch.arange(10 * 5, dtype=torch.float32).view(10, 5)
tgts = torch.arange(10 * 5, dtype=torch.float32).view(10, 5)
dataset = TensorDataset(inps, tgts)

loader = DataLoader(dataset, batch_size=2, collate_fn=collate_wrapper,
                    pin_memory=True)

for batch_ndx, sample in enumerate(loader):
    print(sample.inp.is_pinned())
    print(sample.tgt.is_pinned())
class torch.utils.data.DataLoader(dataset, batch_size=1, shuffle=None, sampler=None, batch_sampler=None, num_workers=0, collate_fn=None, pin_memory=False, drop_last=False, timeout=0, worker_init_fn=None, multiprocessing_context=None, generator=None, *, prefetch_factor=None, persistent_workers=False, pin_memory_device='', in_order=True)[source][source]

数据加载器结合了数据集和采样器,并提供了给定数据集上的可迭代对象。

DataLoader 支持单进程或多进程加载的 map 风格和可迭代风格数据集,支持定制加载顺序以及可选的自动批处理(整理)和内存锁定。

更多详细信息,请参见 torch.utils.data 文档页面。

参数
  • dataset (Dataset) – 要从中加载数据的数据集。

  • batch_size (int, optional) – 每个批次要加载多少个样本(默认值:1)。

  • shuffle (bool, optional) – 设置为 True 可在每个 epoch 重新打乱数据(默认值:False)。

  • sampler (Sampler or Iterable, optional) – 定义了从数据集中抽取样本的策略。可以是实现了 __len__ 的任何 Iterable。如果指定,则不能指定 shuffle

  • batch_sampler (Sampler or Iterable, optional) – 类似于 sampler,但一次返回一批索引。与 batch_sizeshufflesamplerdrop_last 互斥。

  • num_workers (int, optional) – 用于数据加载的子进程数。0 表示数据将在主进程中加载(默认值:0)。

  • collate_fn (Callable, optional) – 将样本列表合并以形成张量的小批次。在从 map 风格数据集进行批处理加载时使用。

  • pin_memory (bool, optional) – 如果为 True,数据加载器将在返回张量之前将其复制到设备/CUDA 锁定内存中。如果您的数据元素是自定义类型,或者您的 collate_fn 返回的批次是自定义类型,请参见下面的示例。

  • drop_last (bool, optional) – 如果数据集大小不能被批次大小整除,设置为 True 可丢弃最后一个不完整的批次。如果为 False 且数据集大小不能被批次大小整除,则最后一个批次会较小(默认值:False)。

  • timeout (numeric, optional) – 如果为正数,则为从工作进程收集批次的超时时间。应始终为非负数(默认值:0)。

  • worker_init_fn (Callable, optional) – 如果不为 None,将在每个工作子进程上调用此函数,输入为工作进程 ID(一个介于 [0, num_workers - 1] 的整数),在设置种子之后、加载数据之前(默认值:None)。

  • multiprocessing_context (str or multiprocessing.context.BaseContext, optional) – 如果为 None,将使用操作系统的默认多进程上下文(默认值:None)。

  • generator (torch.Generator, optional) – 如果不为 None,此 RNG 将由 RandomSampler 用于生成随机索引,并由多进程用于为工作进程生成 base_seed(默认值:None)。

  • prefetch_factor (int, optional, keyword-only arg) – 每个工作进程预加载的批次数。2 意味着所有工作进程总共预加载 2 * num_workers 个批次(默认值取决于 num_workers 的设置值。如果 num_workers=0,默认值为 None。否则,如果 num_workers > 0,默认值为 2)。

  • persistent_workers (bool, optional) – 如果为 True,数据加载器在数据集被消费一次后不会关闭工作进程。这使得工作进程的 Dataset 实例保持活动状态(默认值:False)。

  • pin_memory_device (str, optional) – 如果 pin_memoryTrue 时,进行 pin_memory 的设备。如果未给出,当前加速器将作为默认值。不建议使用此参数,并且可能会被弃用。

  • in_order (bool, optional) – 如果为 False,数据加载器将不会强制要求批次以先进先出的顺序返回。仅当 num_workers > 0 时适用(默认值:True)。

警告

如果使用 spawn 启动方法,worker_init_fn 不能是无法 pickle 的对象,例如 lambda 函数。有关 PyTorch 中多进程的更多详细信息,请参见多进程最佳实践

警告

len(dataloader) 的启发式方法基于所用采样器的长度。当 datasetIterableDataset 时,它会基于 len(dataset) / batch_size 返回一个估计值,并根据 drop_last 进行适当的四舍五入,而无论多进程加载配置如何。这代表了 PyTorch 所能做出的最佳猜测,因为 PyTorch 相信用户的数据集代码能够正确处理多进程加载以避免数据重复。

然而,如果分片导致多个工作进程的最后一个批次不完整,这个估计仍然可能不准确,因为 (1) 一个原本完整的批次可能会被分成多个不完整批次,并且 (2) 当设置了 drop_last 时,可能会丢弃超过一个批次的样本。遗憾的是,PyTorch 通常无法检测到这种情况。

有关这两种类型数据集的更多详细信息,请参见数据集类型,以及IterableDataset 如何与多进程数据加载交互。

警告

在数据不平衡的情况下,将 in_order 设置为 False 可能会损害可重复性,并可能导致输入训练器的数据分布不均匀。

class torch.utils.data.Dataset[source][source]

一个表示 Dataset 的抽象类。

所有表示从键到数据样本的映射的数据集都应该继承此类。所有子类都应该重写 __getitem__() 方法,支持根据给定的键获取数据样本。子类还可以选择重写 __len__() 方法,许多 Sampler 实现和 DataLoader 的默认选项都期望此方法返回数据集的大小。子类还可以选择实现 __getitems__() 方法,以加速批量样本加载。此方法接受一个批次的样本索引列表,并返回样本列表。

注意

DataLoader 默认构造一个索引采样器,该采样器产生整数索引。为了使其与具有非整数索引/键的 map 风格数据集一起使用,必须提供自定义采样器。

class torch.utils.data.IterableDataset[source][source]

一个可迭代的数据集。

所有表示数据样本的可迭代对象的数据集都应该继承此类。当数据来自流时,这种形式的数据集特别有用。

所有子类都应该重写 __iter__() 方法,它将返回此数据集中样本的迭代器。

当子类与 DataLoader 一起使用时,数据集中的每个项将从 DataLoader 迭代器中生成。当 num_workers > 0 时,每个工作进程将拥有数据集对象的不同副本,因此通常需要独立配置每个副本以避免工作进程返回重复的数据。在工作进程中调用 get_worker_info() 时,会返回关于该工作进程的信息。它可以用于数据集的 __iter__() 方法或 DataLoaderworker_init_fn 选项中,以修改每个副本的行为。

示例 1:在 __iter__() 中将工作负载分摊到所有工作进程

>>> class MyIterableDataset(torch.utils.data.IterableDataset):
...     def __init__(self, start, end):
...         super(MyIterableDataset).__init__()
...         assert end > start, "this example code only works with end >= start"
...         self.start = start
...         self.end = end
...
...     def __iter__(self):
...         worker_info = torch.utils.data.get_worker_info()
...         if worker_info is None:  # single-process data loading, return the full iterator
...             iter_start = self.start
...             iter_end = self.end
...         else:  # in a worker process
...             # split workload
...             per_worker = int(math.ceil((self.end - self.start) / float(worker_info.num_workers)))
...             worker_id = worker_info.id
...             iter_start = self.start + worker_id * per_worker
...             iter_end = min(iter_start + per_worker, self.end)
...         return iter(range(iter_start, iter_end))
...
>>> # should give same set of data as range(3, 7), i.e., [3, 4, 5, 6].
>>> ds = MyIterableDataset(start=3, end=7)

>>> # Single-process loading
>>> print(list(torch.utils.data.DataLoader(ds, num_workers=0)))
[tensor([3]), tensor([4]), tensor([5]), tensor([6])]

>>> # Multi-process loading with two worker processes
>>> # Worker 0 fetched [3, 4].  Worker 1 fetched [5, 6].
>>> print(list(torch.utils.data.DataLoader(ds, num_workers=2)))
[tensor([3]), tensor([5]), tensor([4]), tensor([6])]

>>> # With even more workers
>>> print(list(torch.utils.data.DataLoader(ds, num_workers=12)))
[tensor([3]), tensor([5]), tensor([4]), tensor([6])]

示例 2:使用 worker_init_fn 将工作负载分摊到所有工作进程

>>> class MyIterableDataset(torch.utils.data.IterableDataset):
...     def __init__(self, start, end):
...         super(MyIterableDataset).__init__()
...         assert end > start, "this example code only works with end >= start"
...         self.start = start
...         self.end = end
...
...     def __iter__(self):
...         return iter(range(self.start, self.end))
...
>>> # should give same set of data as range(3, 7), i.e., [3, 4, 5, 6].
>>> ds = MyIterableDataset(start=3, end=7)

>>> # Single-process loading
>>> print(list(torch.utils.data.DataLoader(ds, num_workers=0)))
[3, 4, 5, 6]
>>>
>>> # Directly doing multi-process loading yields duplicate data
>>> print(list(torch.utils.data.DataLoader(ds, num_workers=2)))
[3, 3, 4, 4, 5, 5, 6, 6]

>>> # Define a `worker_init_fn` that configures each dataset copy differently
>>> def worker_init_fn(worker_id):
...     worker_info = torch.utils.data.get_worker_info()
...     dataset = worker_info.dataset  # the dataset copy in this worker process
...     overall_start = dataset.start
...     overall_end = dataset.end
...     # configure the dataset to only process the split workload
...     per_worker = int(math.ceil((overall_end - overall_start) / float(worker_info.num_workers)))
...     worker_id = worker_info.id
...     dataset.start = overall_start + worker_id * per_worker
...     dataset.end = min(dataset.start + per_worker, overall_end)
...

>>> # Mult-process loading with the custom `worker_init_fn`
>>> # Worker 0 fetched [3, 4].  Worker 1 fetched [5, 6].
>>> print(list(torch.utils.data.DataLoader(ds, num_workers=2, worker_init_fn=worker_init_fn)))
[3, 5, 4, 6]

>>> # With even more workers
>>> print(list(torch.utils.data.DataLoader(ds, num_workers=12, worker_init_fn=worker_init_fn)))
[3, 4, 5, 6]
class torch.utils.data.TensorDataset(*tensors)[source][source]

封装张量的数据集。

每个样本将通过沿第一个维度索引张量来检索。

参数

*tensors (Tensor) – 具有相同第一维大小的张量。

class torch.utils.data.StackDataset(*args, **kwargs)[source][source]

将多个数据集堆叠而成的数据集。

当输入数据复杂且由多个数据集组成时,此类有助于将其不同部分组合起来。

示例

>>> images = ImageDataset()
>>> texts = TextDataset()
>>> tuple_stack = StackDataset(images, texts)
>>> tuple_stack[0] == (images[0], texts[0])
>>> dict_stack = StackDataset(image=images, text=texts)
>>> dict_stack[0] == {'image': images[0], 'text': texts[0]}
参数
  • *args (Dataset) – 作为元组返回的用于堆叠的数据集。

  • **kwargs (Dataset) – 作为字典返回的用于堆叠的数据集。

class torch.utils.data.ConcatDataset(datasets)[source][source]

将多个数据集连接而成的数据集。

此类有助于组合不同的现有数据集。

参数

datasets (sequence) – 要连接的数据集列表。

class torch.utils.data.ChainDataset(datasets)[source][source]

用于连接多个 IterableDataset 的数据集。

此类有助于组合不同的现有数据集流。连接操作是即时完成的,因此使用此类连接大型数据集将非常高效。

参数

数据集 (datasets) (IterableDataset 的 iterable) – 需要链式组合的数据集

class torch.utils.data.Subset(dataset, indices)[source][source]

数据集在指定索引处的子集。

参数
  • dataset (Dataset) – 整个数据集

  • indices (sequence) – 为子集选择的整个集合中的索引

torch.utils.data._utils.collate.collate(batch, *, collate_fn_map=None)[source][source]

处理批处理中集合类型元素的通用整理(collate)函数。

此函数还开放了函数注册表,用于处理特定的元素类型。default_collate_fn_map 为张量、NumPy 数组、数字和字符串提供了默认的整理函数。

参数
  • batch – 需要整理的单个批次

  • collate_fn_map (Optional[dict[Union[type, tuple[type, ...]], Callable]]) – 可选字典,将元素类型映射到相应的整理(collate)函数。如果元素类型不在该字典中,此函数将按照插入顺序遍历字典的每个键,如果元素类型是该键的子类,则调用相应的整理函数。

示例

>>> def collate_tensor_fn(batch, *, collate_fn_map):
...     # Extend this function to handle batch of tensors
...     return torch.stack(batch, 0)
>>> def custom_collate(batch):
...     collate_map = {torch.Tensor: collate_tensor_fn}
...     return collate(batch, collate_fn_map=collate_map)
>>> # Extend `default_collate` by in-place modifying `default_collate_fn_map`
>>> default_collate_fn_map.update({torch.Tensor: collate_tensor_fn})

注意

每个整理函数都需要一个用于批处理的位置参数和一个用于整理函数字典的关键字参数 collate_fn_map

torch.utils.data.default_collate(batch)[source][source]

接收一批数据,并将批处理中的元素放入一个具有额外外部维度(批大小)的张量中。

确切的输出类型可以是 torch.Tensortorch.TensorSequencetorch.Tensor 的 Collection,或者保持不变,具体取决于输入类型。当 DataLoader 中定义了 batch_sizebatch_sampler 时,这被用作整理的默认函数。

以下是通用输入类型(基于批处理中元素的类型)到输出类型的映射

  • torch.Tensor -> torch.Tensor (增加了一个外部维度:批大小)

  • NumPy Arrays -> torch.Tensor

  • float -> torch.Tensor

  • int -> torch.Tensor

  • str -> str (不变)

  • bytes -> bytes (不变)

  • Mapping[K, V_i] -> Mapping[K, default_collate([V_1, V_2, …])]

  • NamedTuple[V1_i, V2_i, …] -> NamedTuple[default_collate([V1_1, V1_2, …]), default_collate([V2_1, V2_2, …]), …]

  • Sequence[V1_i, V2_i, …] -> Sequence[default_collate([V1_1, V1_2, …]), default_collate([V2_1, V2_2, …]), …]

参数

batch – 需要整理的单个批次

示例

>>> # Example with a batch of `int`s:
>>> default_collate([0, 1, 2, 3])
tensor([0, 1, 2, 3])
>>> # Example with a batch of `str`s:
>>> default_collate(['a', 'b', 'c'])
['a', 'b', 'c']
>>> # Example with `Map` inside the batch:
>>> default_collate([{'A': 0, 'B': 1}, {'A': 100, 'B': 100}])
{'A': tensor([  0, 100]), 'B': tensor([  1, 100])}
>>> # Example with `NamedTuple` inside the batch:
>>> Point = namedtuple('Point', ['x', 'y'])
>>> default_collate([Point(0, 0), Point(1, 1)])
Point(x=tensor([0, 1]), y=tensor([0, 1]))
>>> # Example with `Tuple` inside the batch:
>>> default_collate([(0, 1), (2, 3)])
[tensor([0, 2]), tensor([1, 3])]
>>> # Example with `List` inside the batch:
>>> default_collate([[0, 1], [2, 3]])
[tensor([0, 2]), tensor([1, 3])]
>>> # Two options to extend `default_collate` to handle specific type
>>> # Option 1: Write custom collate function and invoke `default_collate`
>>> def custom_collate(batch):
...     elem = batch[0]
...     if isinstance(elem, CustomType):  # Some custom condition
...         return ...
...     else:  # Fall back to `default_collate`
...         return default_collate(batch)
>>> # Option 2: In-place modify `default_collate_fn_map`
>>> def collate_customtype_fn(batch, *, collate_fn_map=None):
...     return ...
>>> default_collate_fn_map.update(CustomType, collate_customtype_fn)
>>> default_collate(batch)  # Handle `CustomType` automatically
torch.utils.data.default_convert(data)[source][source]

将每个 NumPy 数组元素转换为 torch.Tensor

如果输入是 SequenceCollectionMapping,它会尝试将内部的每个元素转换为 torch.Tensor。如果输入不是 NumPy 数组,则保持不变。当 DataLoader 中未定义 batch_samplerbatch_size 时,这被用作整理的默认函数。

通用的输入类型到输出类型的映射与 default_collate() 类似。有关更多详细信息,请参阅那里的描述。

参数

data – 需要转换的单个数据点

示例

>>> # Example with `int`
>>> default_convert(0)
0
>>> # Example with NumPy array
>>> default_convert(np.array([0, 1]))
tensor([0, 1])
>>> # Example with NamedTuple
>>> Point = namedtuple('Point', ['x', 'y'])
>>> default_convert(Point(0, 0))
Point(x=0, y=0)
>>> default_convert(Point(np.array(0), np.array(0)))
Point(x=tensor(0), y=tensor(0))
>>> # Example with List
>>> default_convert([np.array([0, 1]), np.array([2, 3])])
[tensor([0, 1]), tensor([2, 3])]
torch.utils.data.get_worker_info()[source][source]

返回有关当前 DataLoader 迭代器工作进程的信息。

在 worker 中调用时,此函数返回一个保证具有以下属性的对象:

  • id: 当前 worker ID。

  • num_workers: worker 总数。

  • seed: 为当前 worker 设置的随机种子。此值由主进程 RNG 和 worker ID 确定。有关更多详细信息,请参阅 DataLoader 的文档。

  • dataset: 进程中数据集对象的副本。请注意,这与主进程中的对象是不同的对象。

在主进程中调用时,此函数返回 None

注意

在传递给 DataLoaderworker_init_fn 中使用时,此方法可用于以不同方式设置每个 worker 进程,例如,使用 worker_id 配置 dataset 对象,使其仅读取分片数据集的特定部分,或使用 seed 为数据集代码中使用的其他库设置种子。

返回类型

Optional[WorkerInfo]

torch.utils.data.random_split(dataset, lengths, generator=<torch._C.Generator object>)[source][source]

将数据集随机拆分为给定长度的互不重叠的新数据集。

如果给定一个总和为 1 的分数列表,则长度将根据提供的每个分数自动计算为 floor(frac * len(dataset))。

计算长度后,如果存在任何余数,将以循环方式向长度分配 1 个计数,直到没有余数。

可以选择固定生成器以获得可复现的结果,例如:

示例

>>> generator1 = torch.Generator().manual_seed(42)
>>> generator2 = torch.Generator().manual_seed(42)
>>> random_split(range(10), [3, 7], generator=generator1)
>>> random_split(range(30), [0.3, 0.3, 0.4], generator=generator2)
参数
  • dataset (Dataset) – 需要拆分的数据集

  • lengths (sequence) – 需要生成的拆分的长度或分数

  • generator (Generator) – 用于随机排列的生成器。

返回类型

list[torch.utils.data.dataset.Subset[~_T]]

class torch.utils.data.Sampler(data_source=None)[source][source]

所有 Sampler 的基类。

每个 Sampler 子类都必须提供 __iter__() 方法,提供一种迭代数据集元素索引或索引列表(批处理)的方式,并且可以提供 __len__() 方法,返回返回的迭代器的长度。

参数

data_source (Dataset) – 此参数未使用,并将在 2.2.0 中移除。您仍可能拥有使用它的自定义实现。

示例

>>> class AccedingSequenceLengthSampler(Sampler[int]):
>>>     def __init__(self, data: List[str]) -> None:
>>>         self.data = data
>>>
>>>     def __len__(self) -> int:
>>>         return len(self.data)
>>>
>>>     def __iter__(self) -> Iterator[int]:
>>>         sizes = torch.tensor([len(x) for x in self.data])
>>>         yield from torch.argsort(sizes).tolist()
>>>
>>> class AccedingSequenceLengthBatchSampler(Sampler[List[int]]):
>>>     def __init__(self, data: List[str], batch_size: int) -> None:
>>>         self.data = data
>>>         self.batch_size = batch_size
>>>
>>>     def __len__(self) -> int:
>>>         return (len(self.data) + self.batch_size - 1) // self.batch_size
>>>
>>>     def __iter__(self) -> Iterator[List[int]]:
>>>         sizes = torch.tensor([len(x) for x in self.data])
>>>         for batch in torch.chunk(torch.argsort(sizes), len(self)):
>>>             yield batch.tolist()

注意

DataLoader 并非严格要求 __len__() 方法,但在涉及 DataLoader 长度的任何计算中都期望此方法。

class torch.utils.data.SequentialSampler(data_source)[source][source]

顺序采样元素,始终按相同顺序。

参数

data_source (Dataset) – 从中采样的数据集

class torch.utils.data.RandomSampler(data_source, replacement=False, num_samples=None, generator=None)[source][source]

随机采样元素。如果不允许替换,则从打乱的数据集中采样。

如果允许替换,用户可以指定 num_samples 进行抽取。

参数
  • data_source (Dataset) – 从中采样的数据集

  • replacement (bool) – 如果为 True,则按需有放回采样,默认值为 False

  • num_samples (int) – 抽样的数量,默认值为 `len(dataset)`。

  • generator (Generator) – 采样时使用的生成器。

class torch.utils.data.SubsetRandomSampler(indices, generator=None)[source][source]

从给定的索引列表中随机采样元素,不允许替换。

参数
  • indices (sequence) – 索引序列

  • generator (Generator) – 采样时使用的生成器。

class torch.utils.data.WeightedRandomSampler(weights, num_samples, replacement=True, generator=None)[source][source]

以给定的概率(权重)从 [0,..,len(weights)-1] 中采样元素。

参数
  • weights (sequence) – 权重序列,不必总和为一

  • num_samples (int) – 抽样的数量

  • replacement (bool) – 如果为 True,则有放回采样。否则,则无放回采样,这意味着当某行的样本索引被抽取后,该行不能再次抽取该索引。

  • generator (Generator) – 采样时使用的生成器。

示例

>>> list(WeightedRandomSampler([0.1, 0.9, 0.4, 0.7, 3.0, 0.6], 5, replacement=True))
[4, 4, 1, 4, 5]
>>> list(WeightedRandomSampler([0.9, 0.4, 0.05, 0.2, 0.3, 0.1], 5, replacement=False))
[0, 1, 4, 3, 2]
class torch.utils.data.BatchSampler(sampler, batch_size, drop_last)[source][source]

包装另一个 sampler 以生成 mini-batch 索引。

参数
  • sampler (Sampler or Iterable) – 基础 sampler。可以是任何可迭代对象

  • batch_size (int) – mini-batch 的大小。

  • drop_last (bool) – 如果为 True,如果最后一个批次的大小小于 batch_size,则 sampler 将丢弃最后一个批次

示例

>>> list(BatchSampler(SequentialSampler(range(10)), batch_size=3, drop_last=False))
[[0, 1, 2], [3, 4, 5], [6, 7, 8], [9]]
>>> list(BatchSampler(SequentialSampler(range(10)), batch_size=3, drop_last=True))
[[0, 1, 2], [3, 4, 5], [6, 7, 8]]
class torch.utils.data.distributed.DistributedSampler(dataset, num_replicas=None, rank=None, shuffle=True, seed=0, drop_last=False)[source][source]

将数据加载限制到数据集子集的 sampler。

它在使用 torch.nn.parallel.DistributedDataParallel 时尤其有用。在这种情况下,每个进程可以将 DistributedSampler 实例作为 DataLoader sampler 传递,并加载原始数据集中独属于它的子集。

注意

假设数据集大小恒定,并且其任何实例始终以相同顺序返回相同元素。

参数
  • dataset (Dataset) – 用于采样的训练集。

  • num_replicas (int, optional) – 参与分布式训练的进程数。默认情况下,从当前的分布式组中检索 world_size

  • rank (int, optional) – 当前进程在 num_replicas 中的 rank。默认情况下,从当前的分布式组中检索 rank

  • shuffle (bool, optional) – 如果为 True(默认),sampler 将打乱索引。

  • seed (int, optional) – 如果 shuffle=True,用于打乱 sampler 的随机种子。此数字在分布式组中的所有进程之间应相同。默认值:0

  • drop_last (bool, optional) – 如果为 True,则 sampler 将丢弃数据尾部,使其可以均匀地分配给副本数。如果为 False,sampler 将添加额外索引,使数据可以均匀地分配给副本。默认值:False

警告

在分布式模式下,在创建 DataLoader 迭代器之前,在每个 epoch 开始时调用 set_epoch() 方法对于在多个 epoch 中使打乱正常工作是必要的。否则,将始终使用相同的顺序。

示例

>>> sampler = DistributedSampler(dataset) if is_distributed else None
>>> loader = DataLoader(dataset, shuffle=(sampler is None),
...                     sampler=sampler)
>>> for epoch in range(start_epoch, n_epochs):
...     if is_distributed:
...         sampler.set_epoch(epoch)
...     train(loader)

文档

访问 PyTorch 的综合开发者文档

查看文档

教程

获取针对初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源