torch.utils.data¶
PyTorch 数据加载实用程序的核心是 torch.utils.data.DataLoader
类。它表示数据集上的 Python 迭代器,并支持:
这些选项通过 DataLoader
的构造函数参数进行配置,其签名为:
DataLoader(dataset, batch_size=1, shuffle=False, sampler=None,
batch_sampler=None, num_workers=0, collate_fn=None,
pin_memory=False, drop_last=False, timeout=0,
worker_init_fn=None, *, prefetch_factor=2,
persistent_workers=False)
以下章节详细描述了这些选项的效果和用法。
数据集类型¶
DataLoader
构造函数最重要的参数是 dataset
,它指示要从中加载数据的数据集对象。PyTorch 支持两种不同类型的数据集:
映射式数据集¶
映射式数据集是实现了 __getitem__()
和 __len__()
协议的数据集,它表示从(可能非整数)索引/键到数据样本的映射。
例如,当使用 dataset[idx]
访问此类数据集时,它可以从磁盘上的文件夹中读取第 idx
个图像及其对应的标签。
有关更多详细信息,请参阅 Dataset
。
迭代式数据集¶
迭代式数据集是 IterableDataset
子类的实例,它实现了 __iter__()
协议,并表示数据样本上的迭代器。这种类型的数据集特别适用于随机读取成本高昂甚至不可能,并且批大小取决于获取的数据的情况。
例如,当调用 iter(dataset)
时,此类数据集可以返回从数据库、远程服务器甚至实时生成的日志中读取的数据流。
有关更多详细信息,请参阅 IterableDataset
。
注意
当将 IterableDataset
与 多进程数据加载 一起使用时。相同的数据集对象会在每个工作进程上复制,因此必须对副本进行不同的配置以避免数据重复。有关如何实现此目的,请参阅 IterableDataset
文档。
数据加载顺序和 Sampler
¶
对于 迭代式数据集,数据加载顺序完全由用户定义的迭代器控制。 这使得更容易实现分块读取和动态批大小(例如,通过在每次迭代中生成批处理样本)。
本节的其余部分涉及 映射式数据集 的情况。 torch.utils.data.Sampler
类用于指定数据加载中使用的索引/键的顺序。 它们表示数据集索引上的可迭代对象。 例如,在随机梯度下降 (SGD) 的常见情况下,Sampler
可以随机排列索引列表并一次生成一个索引,或者生成少量索引用于小批量 SGD。
将根据 DataLoader
的 shuffle
参数自动构造顺序或打乱的采样器。 或者,用户可以使用 sampler
参数来指定自定义 Sampler
对象,该对象在每次迭代时生成要获取的下一个索引/键。
可以传递一次生成一批索引列表的自定义 Sampler
作为 batch_sampler
参数。 还可以通过 batch_size
和 drop_last
参数启用自动批处理。 有关此方面的更多详细信息,请参阅 下一节。
注意
sampler
和 batch_sampler
均与迭代式数据集不兼容,因为此类数据集没有键或索引的概念。
加载批处理和非批处理数据¶
DataLoader
支持通过参数 batch_size
、drop_last
、batch_sampler
和 collate_fn
(具有默认函数)自动将单独获取的数据样本整理成批次。
自动批处理(默认)¶
这是最常见的情况,对应于获取小批量数据并将它们整理成批处理样本,即,包含张量,其中一个维度是批处理维度(通常是第一个)。
当 batch_size
(默认为 1
)不是 None
时,数据加载器会生成批处理样本而不是单独的样本。 batch_size
和 drop_last
参数用于指定数据加载器如何获取数据集键的批次。 对于映射式数据集,用户可以选择指定 batch_sampler
,它一次生成一个键列表。
注意
batch_size
和 drop_last
参数本质上用于从 sampler
构造 batch_sampler
。 对于映射式数据集,sampler
要么由用户提供,要么根据 shuffle
参数构造。 对于迭代式数据集,sampler
是一个虚拟的无限采样器。 有关采样器的更多详细信息,请参阅 本节。
在使用采样器中的索引获取样本列表后,将使用作为 collate_fn
参数传递的函数将样本列表整理成批次。
在这种情况下,从映射式数据集加载大致等效于:
for indices in batch_sampler:
yield collate_fn([dataset[i] for i in indices])
从迭代式数据集加载大致等效于:
dataset_iter = iter(dataset)
for indices in batch_sampler:
yield collate_fn([next(dataset_iter) for _ in indices])
自定义 collate_fn
可用于自定义整理,例如,将顺序数据填充到批次的最大长度。 有关 collate_fn
的更多信息,请参阅 本节。
禁用自动批处理¶
在某些情况下,用户可能希望在数据集代码中手动处理批处理,或者只是加载单个样本。 例如,直接加载批处理数据可能更便宜(例如,从数据库批量读取或读取连续的内存块),或者批大小取决于数据,或者程序被设计为处理单个样本。 在这些情况下,最好不要使用自动批处理(其中 collate_fn
用于整理样本),而是让数据加载器直接返回 dataset
对象的每个成员。
当 batch_size
和 batch_sampler
均为 None
时(batch_sampler
的默认值已为 None
),自动批处理被禁用。 从 dataset
获取的每个样本都使用作为 collate_fn
参数传递的函数进行处理。
当自动批处理被禁用时,默认的 collate_fn
仅将 NumPy 数组转换为 PyTorch 张量,并保持其他所有内容不变。
在这种情况下,从映射式数据集加载大致等效于:
for index in sampler:
yield collate_fn(dataset[index])
从迭代式数据集加载大致等效于:
for data in iter(dataset):
yield collate_fn(data)
有关 collate_fn
的更多信息,请参阅 本节。
使用 collate_fn
¶
当自动批处理启用或禁用时,collate_fn
的使用略有不同。
当自动批处理被禁用时,collate_fn
会使用每个单独的数据样本调用,并且输出从数据加载器迭代器中生成。 在这种情况下,默认的 collate_fn
仅将 NumPy 数组转换为 PyTorch 张量。
当自动批处理启用时,collate_fn
会在每次迭代时使用数据样本列表调用。 它应将输入样本整理成批次,以便从数据加载器迭代器中生成。 本节的其余部分描述了默认 collate_fn
(default_collate()
) 的行为。
例如,如果每个数据样本都由一个 3 通道图像和一个整数类标签组成,即数据集的每个元素都返回一个元组 (image, class_index)
,则默认的 collate_fn
会将此类元组的列表整理成一个包含批处理图像张量和批处理类标签张量的单个元组。 特别是,默认的 collate_fn
具有以下属性:
它始终预先添加一个新维度作为批处理维度。
它自动将 NumPy 数组和 Python 数值转换为 PyTorch 张量。
它保留数据结构,例如,如果每个样本都是一个字典,则它会输出一个字典,该字典具有相同的键集,但以批处理张量作为值(或者如果值无法转换为张量,则为列表)。
list
、tuple
、namedtuple
等也是如此。
用户可以使用自定义的 collate_fn
来实现自定义批处理,例如,沿第一个维度以外的维度进行整理、填充各种长度的序列或添加对自定义数据类型的支持。
如果您遇到 DataLoader
的输出的维度或类型与您的预期不同的情况,您可能需要检查您的 collate_fn
。
单进程和多进程数据加载¶
DataLoader
默认使用单进程数据加载。
在 Python 进程中,全局解释器锁 (GIL) 阻止了跨线程真正完全并行化 Python 代码。 为了避免数据加载阻塞计算代码,PyTorch 提供了一个简单的开关,只需将参数 num_workers
设置为正整数即可执行多进程数据加载。
单进程数据加载(默认)¶
在这种模式下,数据获取在初始化 DataLoader
的同一进程中完成。 因此,数据加载可能会阻塞计算。 但是,当用于在进程之间共享数据的资源(例如,共享内存、文件描述符)受到限制,或者当整个数据集很小并且可以完全加载到内存中时,此模式可能是首选。 此外,单进程加载通常显示更易于理解的错误跟踪,因此对于调试很有用。
多进程数据加载¶
将参数 num_workers
设置为正整数将启用多进程数据加载,并使用指定数量的加载器工作进程。
警告
经过多次迭代后,对于父进程中从工作进程访问的所有 Python 对象,加载器工作进程将消耗与父进程相同数量的 CPU 内存。 如果数据集包含大量数据(例如,您在数据集构造时加载非常大的文件名列表)和/或您使用大量工作进程(总内存使用量为 工作进程数 * 父进程大小
),这可能会成为问题。 最简单的解决方法是将 Python 对象替换为非引用计数的表示形式,例如 Pandas、Numpy 或 PyArrow 对象。 请查看 问题 #13246,以获取有关为什么会发生这种情况以及如何解决这些问题的示例代码的更多详细信息。
在这种模式下,每次创建 DataLoader
的迭代器时(例如,当您调用 enumerate(dataloader)
时),都会创建 num_workers
工作进程。 此时,dataset
、collate_fn
和 worker_init_fn
将传递给每个工作进程,在这些进程中使用它们来初始化和获取数据。 这意味着数据集访问及其内部 IO、转换(包括 collate_fn
)在工作进程中运行。
torch.utils.data.get_worker_info()
在工作进程中返回各种有用的信息(包括工作进程 ID、数据集副本、初始种子等),并在主进程中返回 None
。 用户可以在数据集代码和/或 worker_init_fn
中使用此函数来单独配置每个数据集副本,并确定代码是否在工作进程中运行。 例如,这在分片数据集时特别有用。
对于映射式数据集,主进程使用 sampler
生成索引,并将它们发送给工作进程。 因此,任何随机打乱都在主进程中完成,主进程通过将索引分配给加载来指导加载。
对于迭代式数据集,由于每个工作进程都获得 dataset
对象的副本,因此简单的多进程加载通常会导致数据重复。 使用 torch.utils.data.get_worker_info()
和/或 worker_init_fn
,用户可以独立配置每个副本。 (有关如何实现此目的,请参阅 IterableDataset
文档。) 出于类似的原因,在多进程加载中,drop_last
参数会丢弃每个工作进程的迭代式数据集副本的最后一个非完整批次。
一旦达到迭代结束,或者迭代器变为垃圾回收状态,工作进程就会关闭。
警告
通常不建议在多进程加载中返回 CUDA 张量,因为在多进程中使用 CUDA 和共享 CUDA 张量存在许多微妙之处(请参阅 多进程中的 CUDA)。 相反,我们建议使用 自动内存固定 (即,设置 pin_memory=True
),这可以实现到启用 CUDA 的 GPU 的快速数据传输。
平台特定行为¶
由于工作进程依赖于 Python multiprocessing
,因此与 Unix 相比,Windows 上的工作进程启动行为有所不同。
在 Unix 系统中,
fork()
是默认的multiprocessing
启动方法。使用fork()
,子 worker 通常可以直接通过克隆的地址空间访问dataset
和 Python 参数函数。在 Windows 或 MacOS 系统中,
spawn()
是默认的multiprocessing
启动方法。使用spawn()
,会启动另一个解释器来运行你的主脚本,然后运行内部 worker 函数,该函数通过pickle
序列化接收dataset
、collate_fn
和其他参数。
这种单独的序列化意味着你应该采取两个步骤来确保在使用多进程数据加载时与 Windows 兼容
将你的大部分主脚本代码包裹在
if __name__ == '__main__':
代码块中,以确保它在每个 worker 进程启动时不会再次运行(很可能会产生错误)。你可以将你的 dataset 和DataLoader
实例创建逻辑放在这里,因为它不需要在 worker 中重新执行。确保任何自定义的
collate_fn
、worker_init_fn
或dataset
代码都声明为顶级定义,在__main__
检查之外。这确保了它们在 worker 进程中可用。(这是必需的,因为函数仅作为引用而不是bytecode
进行 pickle 序列化。)
多进程数据加载中的随机性¶
默认情况下,每个 worker 的 PyTorch 种子将设置为 base_seed + worker_id
,其中 base_seed
是主进程使用其 RNG 生成的长整数(因此,强制消耗 RNG 状态)或指定的 generator
。但是,其他库的种子可能会在初始化 worker 时被复制,导致每个 worker 返回相同的随机数。(请参阅 FAQ 中的 此部分。)
在 worker_init_fn
中,你可以使用 torch.utils.data.get_worker_info().seed
或 torch.initial_seed()
访问为每个 worker 设置的 PyTorch 种子,并使用它在数据加载之前为其他库设置种子。
内存固定¶
当从固定(页锁定)内存发起时,主机到 GPU 的复制速度要快得多。有关何时以及如何通常使用固定内存的更多详细信息,请参阅 使用固定内存缓冲区。
对于数据加载,将 pin_memory=True
传递给 DataLoader
将自动将获取的数据 Tensor 放入固定内存中,从而实现更快的数据传输到启用 CUDA 的 GPU。
默认的内存固定逻辑仅识别 Tensor 以及包含 Tensor 的映射和可迭代对象。默认情况下,如果固定逻辑看到一个批次是自定义类型(如果你有一个返回自定义批次类型的 collate_fn
,则会发生这种情况),或者如果你的批次的每个元素都是自定义类型,则固定逻辑将无法识别它们,并且它将返回该批次(或这些元素)而不固定内存。要为自定义批次或数据类型启用内存固定,请在你的自定义类型上定义一个 pin_memory()
方法。
请参阅下面的示例。
示例
class SimpleCustomBatch:
def __init__(self, data):
transposed_data = list(zip(*data))
self.inp = torch.stack(transposed_data[0], 0)
self.tgt = torch.stack(transposed_data[1], 0)
# custom memory pinning method on custom type
def pin_memory(self):
self.inp = self.inp.pin_memory()
self.tgt = self.tgt.pin_memory()
return self
def collate_wrapper(batch):
return SimpleCustomBatch(batch)
inps = torch.arange(10 * 5, dtype=torch.float32).view(10, 5)
tgts = torch.arange(10 * 5, dtype=torch.float32).view(10, 5)
dataset = TensorDataset(inps, tgts)
loader = DataLoader(dataset, batch_size=2, collate_fn=collate_wrapper,
pin_memory=True)
for batch_ndx, sample in enumerate(loader):
print(sample.inp.is_pinned())
print(sample.tgt.is_pinned())
- class torch.utils.data.DataLoader(dataset, batch_size=1, shuffle=None, sampler=None, batch_sampler=None, num_workers=0, collate_fn=None, pin_memory=False, drop_last=False, timeout=0, worker_init_fn=None, multiprocessing_context=None, generator=None, *, prefetch_factor=None, persistent_workers=False, pin_memory_device='', in_order=True)[source][source]¶
数据加载器结合了 dataset 和 sampler,并提供了在给定 dataset 上的可迭代对象。
DataLoader
支持 map-style 和 iterable-style 的 dataset,具有单进程或多进程加载、自定义加载顺序以及可选的自动批处理(collation)和内存固定。有关更多详细信息,请参阅
torch.utils.data
文档页面。- 参数
dataset (Dataset) – 从中加载数据的数据集。
batch_size (int, optional) – 每批加载多少个样本(默认值:
1
)。shuffle (bool, optional) – 设置为
True
以在每个 epoch 重新洗牌数据(默认值:False
)。sampler (Sampler 或 Iterable, optional) – 定义从 dataset 中抽取样本的策略。可以是任何实现了
__len__
的Iterable
。如果指定,则不能指定shuffle
。batch_sampler (Sampler 或 Iterable, optional) – 类似于
sampler
,但一次返回一批索引。与batch_size
、shuffle
、sampler
和drop_last
互斥。num_workers (int, optional) – 用于数据加载的子进程数。
0
表示数据将在主进程中加载。(默认值:0
)collate_fn (Callable, optional) – 合并样本列表以形成 Tensor 小批量。当从 map-style dataset 使用批处理加载时使用。
pin_memory (bool, optional) – 如果为
True
,数据加载器将在返回 Tensor 之前将它们复制到设备/CUDA 固定内存中。如果你的数据元素是自定义类型,或者你的collate_fn
返回的批次是自定义类型,请参阅下面的示例。drop_last (bool, optional) – 设置为
True
以丢弃最后一个不完整的批次(如果 dataset 大小不能被批次大小整除)。如果为False
且 dataset 的大小不能被批次大小整除,则最后一个批次将更小。(默认值:False
)timeout (numeric, optional) – 如果为正数,则为从 worker 收集批次的超时值。应始终为非负数。(默认值:
0
)worker_init_fn (Callable, optional) – 如果不是
None
,则将在每个 worker 子进程上调用此函数,输入为 worker id([0, num_workers - 1]
中的整数),在播种之后和数据加载之前。(默认值:None
)multiprocessing_context (str 或 multiprocessing.context.BaseContext, optional) – 如果为
None
,将使用操作系统的默认 多进程上下文。(默认值:None
)generator (torch.Generator, optional) – 如果不是
None
,则 RandomSampler 将使用此 RNG 生成随机索引,多进程将使用此 RNG 生成 worker 的base_seed
。(默认值:None
)prefetch_factor (int, optional, keyword-only arg) – 每个 worker 预先加载的批次数。
2
表示所有 worker 总共预取 2 * num_workers 个批次。(默认值取决于 num_workers 的设置值。如果 num_workers=0,则默认值为None
。否则,如果num_workers > 0
,则默认值为2
)。persistent_workers (bool, optional) – 如果为
True
,数据加载器在 dataset 被消耗一次后不会关闭 worker 进程。这允许保持 worker 的 Dataset 实例处于活动状态。(默认值:False
)pin_memory_device (str, optional) – 如果
pin_memory
为True
,则将pin_memory
固定到的设备。in_order (bool, optional) – 如果为
False
,则数据加载器不会强制批次以先进先出的顺序返回。仅当num_workers > 0
时适用。(默认值:True
)
警告
如果使用
spawn
启动方法,则worker_init_fn
不能是不可 pickle 化的对象,例如 lambda 函数。有关 PyTorch 中多进程的更多详细信息,请参阅 多进程最佳实践。警告
len(dataloader)
启发式方法基于所用 sampler 的长度。当dataset
是IterableDataset
时,它会返回基于len(dataset) / batch_size
的估计值,并根据drop_last
进行适当的舍入,而与多进程加载配置无关。这表示 PyTorch 可以做出的最佳猜测,因为 PyTorch 信任用户dataset
代码可以正确处理多进程加载以避免重复数据。但是,如果分片导致多个 worker 具有不完整的最后一个批次,则此估计值仍然可能不准确,因为 (1) 否则完整的批次可以被分成多个批次,并且 (2) 当设置
drop_last
时,可以丢弃超过一个批次的样本。不幸的是,PyTorch 通常无法检测到这种情况。有关这两种 dataset 类型的更多详细信息以及
IterableDataset
如何与 多进程数据加载 交互,请参阅 Dataset 类型。警告
有关随机种子相关问题,请参阅 可重复性、我的数据加载器 worker 返回相同的随机数 和 多进程数据加载中的随机性 注释。
警告
在数据不平衡的情况下,将 in_order 设置为 False 可能会损害可重复性,并可能导致馈送到训练器的倾斜数据分布。
- class torch.utils.data.Dataset[source][source]¶
表示
Dataset
的抽象类。所有表示从键到数据样本的映射的 dataset 都应子类化它。所有子类都应重写
__getitem__()
,支持为给定键获取数据样本。子类还可以选择重写__len__()
,许多Sampler
实现和DataLoader
的默认选项都希望它返回 dataset 的大小。子类还可以选择实现__getitems__()
,以加速批处理样本的加载。此方法接受批处理样本的索引列表,并返回样本列表。注意
DataLoader
默认情况下构造一个索引 sampler,该 sampler 生成整数索引。为了使其与具有非整数索引/键的 map-style dataset 一起使用,必须提供自定义 sampler。
- class torch.utils.data.IterableDataset[source][source]¶
可迭代的 Dataset。
所有表示数据样本的可迭代对象的 dataset 都应子类化它。当数据来自流时,这种形式的 dataset 特别有用。
所有子类都应重写
__iter__()
,它将返回此 dataset 中样本的迭代器。当子类与
DataLoader
一起使用时,dataset 中的每个项目都将从DataLoader
迭代器中产生。当num_workers > 0
时,每个 worker 进程都将具有 dataset 对象的不同副本,因此通常希望独立配置每个副本,以避免 worker 返回重复数据。当在 worker 进程中调用时,get_worker_info()
返回有关 worker 的信息。它可以在 dataset 的__iter__()
方法或DataLoader
的worker_init_fn
选项中使用,以修改每个副本的行为。示例 1:在
__iter__()
中跨所有 worker 拆分工作负载>>> class MyIterableDataset(torch.utils.data.IterableDataset): ... def __init__(self, start, end): ... super(MyIterableDataset).__init__() ... assert end > start, "this example code only works with end >= start" ... self.start = start ... self.end = end ... ... def __iter__(self): ... worker_info = torch.utils.data.get_worker_info() ... if worker_info is None: # single-process data loading, return the full iterator ... iter_start = self.start ... iter_end = self.end ... else: # in a worker process ... # split workload ... per_worker = int(math.ceil((self.end - self.start) / float(worker_info.num_workers))) ... worker_id = worker_info.id ... iter_start = self.start + worker_id * per_worker ... iter_end = min(iter_start + per_worker, self.end) ... return iter(range(iter_start, iter_end)) ... >>> # should give same set of data as range(3, 7), i.e., [3, 4, 5, 6]. >>> ds = MyIterableDataset(start=3, end=7) >>> # Single-process loading >>> print(list(torch.utils.data.DataLoader(ds, num_workers=0))) [tensor([3]), tensor([4]), tensor([5]), tensor([6])] >>> # Mult-process loading with two worker processes >>> # Worker 0 fetched [3, 4]. Worker 1 fetched [5, 6]. >>> print(list(torch.utils.data.DataLoader(ds, num_workers=2))) [tensor([3]), tensor([5]), tensor([4]), tensor([6])] >>> # With even more workers >>> print(list(torch.utils.data.DataLoader(ds, num_workers=12))) [tensor([3]), tensor([5]), tensor([4]), tensor([6])]
示例 2:使用
worker_init_fn
跨所有 worker 拆分工作负载>>> class MyIterableDataset(torch.utils.data.IterableDataset): ... def __init__(self, start, end): ... super(MyIterableDataset).__init__() ... assert end > start, "this example code only works with end >= start" ... self.start = start ... self.end = end ... ... def __iter__(self): ... return iter(range(self.start, self.end)) ... >>> # should give same set of data as range(3, 7), i.e., [3, 4, 5, 6]. >>> ds = MyIterableDataset(start=3, end=7) >>> # Single-process loading >>> print(list(torch.utils.data.DataLoader(ds, num_workers=0))) [3, 4, 5, 6] >>> >>> # Directly doing multi-process loading yields duplicate data >>> print(list(torch.utils.data.DataLoader(ds, num_workers=2))) [3, 3, 4, 4, 5, 5, 6, 6] >>> # Define a `worker_init_fn` that configures each dataset copy differently >>> def worker_init_fn(worker_id): ... worker_info = torch.utils.data.get_worker_info() ... dataset = worker_info.dataset # the dataset copy in this worker process ... overall_start = dataset.start ... overall_end = dataset.end ... # configure the dataset to only process the split workload ... per_worker = int(math.ceil((overall_end - overall_start) / float(worker_info.num_workers))) ... worker_id = worker_info.id ... dataset.start = overall_start + worker_id * per_worker ... dataset.end = min(dataset.start + per_worker, overall_end) ... >>> # Mult-process loading with the custom `worker_init_fn` >>> # Worker 0 fetched [3, 4]. Worker 1 fetched [5, 6]. >>> print(list(torch.utils.data.DataLoader(ds, num_workers=2, worker_init_fn=worker_init_fn))) [3, 5, 4, 6] >>> # With even more workers >>> print(list(torch.utils.data.DataLoader(ds, num_workers=12, worker_init_fn=worker_init_fn))) [3, 4, 5, 6]
- class torch.utils.data.TensorDataset(*tensors)[source][source]¶
包装 Tensor 的 Dataset。
每个样本将通过沿第一维索引 Tensor 来检索。
- 参数
*tensors (Tensor) – 具有相同第一维大小的 Tensor。
- class torch.utils.data.StackDataset(*args, **kwargs)[source][source]¶
作为多个 dataset 堆叠的 Dataset。
此类对于组装复杂输入数据的不同部分(以 dataset 形式给出)很有用。
示例
>>> images = ImageDataset() >>> texts = TextDataset() >>> tuple_stack = StackDataset(images, texts) >>> tuple_stack[0] == (images[0], texts[0]) >>> dict_stack = StackDataset(image=images, text=texts) >>> dict_stack[0] == {'image': images[0], 'text': texts[0]}
- class torch.utils.data.ConcatDataset(datasets)[source][source]¶
作为多个 dataset 连接的 Dataset。
此类对于组装不同的现有 dataset 很有用。
- 参数
datasets (sequence) – 要连接的 dataset 列表
- class torch.utils.data.ChainDataset(datasets)[source][source]¶
用于链接多个
IterableDataset
的 Dataset。此类对于组装不同的现有 dataset 流很有用。链接操作是即时完成的,因此使用此类连接大规模 dataset 将是高效的。
- 参数
datasets (iterable of IterableDataset) – 要链接在一起的 dataset
- class torch.utils.data.Subset(dataset, indices)[source][source]¶
指定索引处的 dataset 子集。
- 参数
dataset (Dataset) – 整个 Dataset
indices (sequence) – 在整个集合中为子集选择的索引
- torch.utils.data._utils.collate.collate(batch, *, collate_fn_map=None)[source][source]¶
通用整理函数,用于处理每个批次中元素集合类型。
该函数还打开函数注册表以处理特定的元素类型。default_collate_fn_map 为 Tensor、NumPy 数组、数字和字符串提供默认的整理函数。
- 参数
示例
>>> def collate_tensor_fn(batch, *, collate_fn_map): ... # Extend this function to handle batch of tensors ... return torch.stack(batch, 0) >>> def custom_collate(batch): ... collate_map = {torch.Tensor: collate_tensor_fn} ... return collate(batch, collate_fn_map=collate_map) >>> # Extend `default_collate` by in-place modifying `default_collate_fn_map` >>> default_collate_fn_map.update({torch.Tensor: collate_tensor_fn})
注意
每个整理函数都需要一个用于批次的位置参数和一个用于整理函数字典的关键字参数 collate_fn_map。
- torch.utils.data.default_collate(batch)[source][source]¶
接收一批数据,并将批次内的元素放入具有额外外部维度(批次大小)的 Tensor 中。
确切的输出类型可以是
torch.Tensor
、torch.Tensor
的 Sequence、torch.Tensor
的 Collection,或者保持不变,具体取决于输入类型。当在DataLoader
中定义 batch_size 或 batch_sampler 时,这用作默认的整理函数。以下是基于批次内元素类型的通用输入类型到输出类型映射
torch.Tensor
->torch.Tensor
(添加了外部维度批次大小)NumPy 数组 ->
torch.Tensor
float ->
torch.Tensor
int ->
torch.Tensor
str -> str(不变)
bytes -> bytes(不变)
Mapping[K, V_i] -> Mapping[K, default_collate([V_1, V_2, …])]
NamedTuple[V1_i, V2_i, …] -> NamedTuple[default_collate([V1_1, V1_2, …]), default_collate([V2_1, V2_2, …]), …]
Sequence[V1_i, V2_i, …] -> Sequence[default_collate([V1_1, V1_2, …]), default_collate([V2_1, V2_2, …]), …]
- 参数
batch – 要整理的单个批次
示例
>>> # Example with a batch of `int`s: >>> default_collate([0, 1, 2, 3]) tensor([0, 1, 2, 3]) >>> # Example with a batch of `str`s: >>> default_collate(['a', 'b', 'c']) ['a', 'b', 'c'] >>> # Example with `Map` inside the batch: >>> default_collate([{'A': 0, 'B': 1}, {'A': 100, 'B': 100}]) {'A': tensor([ 0, 100]), 'B': tensor([ 1, 100])} >>> # Example with `NamedTuple` inside the batch: >>> Point = namedtuple('Point', ['x', 'y']) >>> default_collate([Point(0, 0), Point(1, 1)]) Point(x=tensor([0, 1]), y=tensor([0, 1])) >>> # Example with `Tuple` inside the batch: >>> default_collate([(0, 1), (2, 3)]) [tensor([0, 2]), tensor([1, 3])] >>> # Example with `List` inside the batch: >>> default_collate([[0, 1], [2, 3]]) [tensor([0, 2]), tensor([1, 3])] >>> # Two options to extend `default_collate` to handle specific type >>> # Option 1: Write custom collate function and invoke `default_collate` >>> def custom_collate(batch): ... elem = batch[0] ... if isinstance(elem, CustomType): # Some custom condition ... return ... ... else: # Fall back to `default_collate` ... return default_collate(batch) >>> # Option 2: In-place modify `default_collate_fn_map` >>> def collate_customtype_fn(batch, *, collate_fn_map=None): ... return ... >>> default_collate_fn_map.update(CustomType, collate_customtype_fn) >>> default_collate(batch) # Handle `CustomType` automatically
- torch.utils.data.default_convert(data)[source][source]¶
将每个 NumPy 数组元素转换为
torch.Tensor
。如果输入是 Sequence、Collection 或 Mapping,它会尝试将内部的每个元素转换为
torch.Tensor
。如果输入不是 NumPy 数组,则保持不变。当 batch_sampler 和 batch_size 均未在DataLoader
中定义时,这将用作默认的整理函数。从通用输入类型到输出类型的映射类似于
default_collate()
的映射。有关更多详细信息,请参见那里的描述。- 参数
data – 要转换的单个数据点
示例
>>> # Example with `int` >>> default_convert(0) 0 >>> # Example with NumPy array >>> default_convert(np.array([0, 1])) tensor([0, 1]) >>> # Example with NamedTuple >>> Point = namedtuple('Point', ['x', 'y']) >>> default_convert(Point(0, 0)) Point(x=0, y=0) >>> default_convert(Point(np.array(0), np.array(0))) Point(x=tensor(0), y=tensor(0)) >>> # Example with List >>> default_convert([np.array([0, 1]), np.array([2, 3])]) [tensor([0, 1]), tensor([2, 3])]
- torch.utils.data.get_worker_info()[source][source]¶
返回关于当前
DataLoader
迭代器工作进程的信息。当在工作进程中调用时,这将返回一个保证具有以下属性的对象
id
: 当前工作进程 ID。num_workers
: 工作进程总数。seed
: 为当前工作进程设置的随机种子。此值由主进程 RNG 和工作进程 ID 确定。有关更多详细信息,请参见DataLoader
的文档。dataset
: 此进程中数据集对象的副本。请注意,这将是与主进程中不同的对象在不同的进程中。
当在主进程中调用时,这将返回
None
。注意
当在传递给
DataLoader
的worker_init_fn
中使用时,此方法可用于以不同方式设置每个工作进程,例如,使用worker_id
来配置dataset
对象以仅读取分片数据集的特定部分,或使用seed
为数据集代码中使用的其他库设定种子。- 返回类型
Optional[WorkerInfo]
- torch.utils.data.random_split(dataset, lengths, generator=<torch._C.Generator object>)[source][source]¶
将数据集随机拆分为给定长度的非重叠新数据集。
如果给出总和为 1 的分数列表,则长度将自动计算为每个给定分数的 floor(frac * len(dataset))。
计算长度后,如果存在任何余数,则将在循环方式中将 1 计数分配给长度,直到没有余数为止。
可以选择修复生成器以获得可重现的结果,例如
示例
>>> generator1 = torch.Generator().manual_seed(42) >>> generator2 = torch.Generator().manual_seed(42) >>> random_split(range(10), [3, 7], generator=generator1) >>> random_split(range(30), [0.3, 0.3, 0.4], generator=generator2)
- class torch.utils.data.Sampler(data_source=None)[source][source]¶
所有 Sampler 的基类。
每个 Sampler 子类都必须提供一个
__iter__()
方法,该方法提供了一种迭代数据集元素的索引或索引列表(批次)的方式,并且可以提供一个__len__()
方法,该方法返回返回的迭代器的长度。- 参数
data_source (Dataset) – 此参数未使用,将在 2.2.0 中删除。您可能仍然有利用它的自定义实现。
示例
>>> class AccedingSequenceLengthSampler(Sampler[int]): >>> def __init__(self, data: List[str]) -> None: >>> self.data = data >>> >>> def __len__(self) -> int: >>> return len(self.data) >>> >>> def __iter__(self) -> Iterator[int]: >>> sizes = torch.tensor([len(x) for x in self.data]) >>> yield from torch.argsort(sizes).tolist() >>> >>> class AccedingSequenceLengthBatchSampler(Sampler[List[int]]): >>> def __init__(self, data: List[str], batch_size: int) -> None: >>> self.data = data >>> self.batch_size = batch_size >>> >>> def __len__(self) -> int: >>> return (len(self.data) + self.batch_size - 1) // self.batch_size >>> >>> def __iter__(self) -> Iterator[List[int]]: >>> sizes = torch.tensor([len(x) for x in self.data]) >>> for batch in torch.chunk(torch.argsort(sizes), len(self)): >>> yield batch.tolist()
注意
__len__()
方法不是DataLoader
严格要求的,但在任何涉及DataLoader
长度的计算中都是预期的。
- class torch.utils.data.SequentialSampler(data_source)[source][source]¶
按顺序采样元素,始终保持相同的顺序。
- 参数
data_source (Dataset) – 要从中采样的数据集
- class torch.utils.data.RandomSampler(data_source, replacement=False, num_samples=None, generator=None)[source][source]¶
随机采样元素。如果无放回,则从打乱的数据集中采样。
如果有放回,则用户可以指定
num_samples
来抽取。
- class torch.utils.data.SubsetRandomSampler(indices, generator=None)[source][source]¶
从给定的索引列表中随机采样元素,无放回。
- 参数
indices (sequence) – 索引序列
generator (Generator) – 采样中使用的生成器。
- class torch.utils.data.WeightedRandomSampler(weights, num_samples, replacement=True, generator=None)[source][source]¶
从
[0,..,len(weights)-1]
中按给定的概率(权重)采样元素。- 参数
示例
>>> list(WeightedRandomSampler([0.1, 0.9, 0.4, 0.7, 3.0, 0.6], 5, replacement=True)) [4, 4, 1, 4, 5] >>> list(WeightedRandomSampler([0.9, 0.4, 0.05, 0.2, 0.3, 0.1], 5, replacement=False)) [0, 1, 4, 3, 2]
- class torch.utils.data.BatchSampler(sampler, batch_size, drop_last)[source][source]¶
包装另一个采样器以产生索引的小批量。
- 参数
示例
>>> list(BatchSampler(SequentialSampler(range(10)), batch_size=3, drop_last=False)) [[0, 1, 2], [3, 4, 5], [6, 7, 8], [9]] >>> list(BatchSampler(SequentialSampler(range(10)), batch_size=3, drop_last=True)) [[0, 1, 2], [3, 4, 5], [6, 7, 8]]
- class torch.utils.data.distributed.DistributedSampler(dataset, num_replicas=None, rank=None, shuffle=True, seed=0, drop_last=False)[source][source]¶
将数据加载限制为数据集子集的采样器。
它与
torch.nn.parallel.DistributedDataParallel
结合使用时特别有用。在这种情况下,每个进程可以将DistributedSampler
实例作为DataLoader
采样器传递,并加载专用于它的原始数据集的子集。注意
假设数据集的大小是恒定的,并且它的任何实例始终以相同的顺序返回相同的元素。
- 参数
dataset (Dataset) – 用于采样的数据集。
num_replicas (int, optional) – 参与分布式训练的进程数。默认情况下,
world_size
是从当前分布式组中检索的。rank (int, optional) – 当前进程在
num_replicas
中的排名。默认情况下,rank
是从当前分布式组中检索的。shuffle (bool, optional) – 如果
True
(默认),则采样器将打乱索引。seed (int, optional) – 如果
shuffle=True
,则用于打乱采样器的随机种子。此数字在分布式组中的所有进程中应相同。默认值:0
。drop_last (bool, optional) – 如果
True
,则采样器将丢弃数据的尾部,以使其在副本数之间均匀分配。 如果False
,则采样器将添加额外的索引,以使数据在副本之间均匀分配。默认值:False
。
警告
在分布式模式下,在每次 epoch 开始时、在创建
DataLoader
迭代器之前调用set_epoch()
方法是必要的,以使洗牌在多个 epoch 中正常工作。否则,将始终使用相同的顺序。示例
>>> sampler = DistributedSampler(dataset) if is_distributed else None >>> loader = DataLoader(dataset, shuffle=(sampler is None), ... sampler=sampler) >>> for epoch in range(start_epoch, n_epochs): ... if is_distributed: ... sampler.set_epoch(epoch) ... train(loader)