DistributedDataParallel¶
- class torch.nn.parallel.DistributedDataParallel(module, device_ids=None, output_device=None, dim=0, broadcast_buffers=True, process_group=None, bucket_cap_mb=None, find_unused_parameters=False, check_reduction=False, gradient_as_bucket_view=False, static_graph=False, delay_all_reduce_named_params=None, param_to_hook_all_reduce=None, mixed_precision=None, device_mesh=None)[source][source]¶
基于模块级别的
torch.distributed
实现分布式数据并行。此容器通过同步每个模型副本之间的梯度来提供数据并行性。要跨其同步的设备由输入
process_group
指定,默认情况下为整个 world。请注意,DistributedDataParallel
不会分块或以其他方式分片参与 GPU 之间的输入;用户负责定义如何执行此操作,例如通过使用 DistributedSampler。另请参阅:基础知识 和 使用 nn.parallel.DistributedDataParallel 而不是多进程或 nn.DataParallel。
torch.nn.DataParallel
中对输入的相同约束也适用。创建此类需要预先通过调用
torch.distributed.init_process_group()
初始化torch.distributed
。事实证明,对于单节点多 GPU 数据并行训练,
DistributedDataParallel
比torch.nn.DataParallel
快得多。要在具有 N 个 GPU 的主机上使用
DistributedDataParallel
,您应该启动N
个进程,确保每个进程专门处理从 0 到 N-1 的单个 GPU。这可以通过为每个进程设置CUDA_VISIBLE_DEVICES
或通过调用来完成>>> torch.cuda.set_device(i)
其中 i 从 0 到 N-1。在每个进程中,您应该参考以下内容来构建此模块
>>> torch.distributed.init_process_group( >>> backend='nccl', world_size=N, init_method='...' >>> ) >>> model = DistributedDataParallel(model, device_ids=[i], output_device=i)
为了在每个节点上启动多个进程,您可以使用
torch.distributed.launch
或torch.multiprocessing.spawn
。注意
有关分布式训练相关的所有功能的简要介绍,请参阅 PyTorch 分布式概述。
注意
DistributedDataParallel
可以与torch.distributed.optim.ZeroRedundancyOptimizer
结合使用,以减少每个 rank 的优化器状态内存占用。有关更多详细信息,请参阅 ZeroRedundancyOptimizer 食谱。注意
当使用 GPU 时,
nccl
后端是目前最快且强烈推荐的后端。这适用于单节点和多节点分布式训练。注意
此模块还支持混合精度分布式训练。这意味着您的模型可以具有不同类型的参数,例如
fp16
和fp32
的混合类型,对这些混合类型参数的梯度缩减将正常工作。注意
如果您在一个进程中使用
torch.save
来检查模块,并在其他一些进程中使用torch.load
来恢复它,请确保为每个进程正确配置map_location
。如果没有map_location
,torch.load
会将模块恢复到保存模块的设备。注意
当模型在具有
batch=N
的M
个节点上训练时,如果损失在批次中的实例之间求和(而不是像通常那样求平均值)(因为不同节点之间的梯度被平均),则梯度将比在具有batch=M*N
的单个节点上训练的相同模型小M
倍。当您想要获得与本地训练对应部分数学上等效的训练过程时,应考虑到这一点。但在大多数情况下,您可以将 DistributedDataParallel 包装的模型、DataParallel 包装的模型和单个 GPU 上的普通模型视为相同(例如,对于等效批次大小使用相同的学习率)。注意
参数永远不会在进程之间广播。该模块对梯度执行 all-reduce 步骤,并假定它们将在所有进程中以相同的方式被优化器修改。缓冲区(例如 BatchNorm 统计信息)在每次迭代中从 rank 0 进程中的模块广播到系统中的所有其他副本。
注意
如果您将 DistributedDataParallel 与 分布式 RPC 框架 结合使用,则应始终使用
torch.distributed.autograd.backward()
计算梯度,并使用torch.distributed.optim.DistributedOptimizer
优化参数。示例
>>> import torch.distributed.autograd as dist_autograd >>> from torch.nn.parallel import DistributedDataParallel as DDP >>> import torch >>> from torch import optim >>> from torch.distributed.optim import DistributedOptimizer >>> import torch.distributed.rpc as rpc >>> from torch.distributed.rpc import RRef >>> >>> t1 = torch.rand((3, 3), requires_grad=True) >>> t2 = torch.rand((3, 3), requires_grad=True) >>> rref = rpc.remote("worker1", torch.add, args=(t1, t2)) >>> ddp_model = DDP(my_model) >>> >>> # Setup optimizer >>> optimizer_params = [rref] >>> for param in ddp_model.parameters(): >>> optimizer_params.append(RRef(param)) >>> >>> dist_optim = DistributedOptimizer( >>> optim.SGD, >>> optimizer_params, >>> lr=0.05, >>> ) >>> >>> with dist_autograd.context() as context_id: >>> pred = ddp_model(rref.to_here()) >>> loss = loss_func(pred, target) >>> dist_autograd.backward(context_id, [loss]) >>> dist_optim.step(context_id)
注意
DistributedDataParallel 目前对使用
torch.utils.checkpoint()
进行梯度检查点提供有限支持。如果检查点使用 use_reentrant=False 完成(推荐),DDP 将按预期工作,没有任何限制。但是,如果检查点使用 use_reentrant=True 完成(默认),则当模型中没有未使用的参数且每个层最多检查点一次时,DDP 将按预期工作(确保您没有将 find_unused_parameters=True 传递给 DDP)。我们目前不支持层被检查点多次的情况,或者检查点模型中存在未使用参数的情况。注意
为了让非 DDP 模型从 DDP 模型加载状态字典,在加载之前,需要应用
consume_prefix_in_state_dict_if_present()
来去除 DDP 状态字典中的前缀“module.”。警告
构造函数、forward 方法和输出的微分(或此模块输出的函数)是分布式同步点。如果不同的进程可能正在执行不同的代码,请考虑到这一点。
警告
此模块假定所有参数在创建时都已在模型中注册。之后不应添加或删除任何参数。缓冲区也同样适用。
警告
此模块假定每个分布式进程的模型中注册的所有参数都具有相同的顺序。模块本身将按照模型注册参数的相反顺序执行梯度
allreduce
。换句话说,用户有责任确保每个分布式进程都具有完全相同的模型,因此参数注册顺序也完全相同。警告
此模块允许具有非行主序连续步长的参数。例如,您的模型可能包含一些参数,它们的
torch.memory_format
是torch.contiguous_format
,而另一些参数的格式是torch.channels_last
。但是,不同进程中的对应参数必须具有相同的步长。警告
此模块不适用于
torch.autograd.grad()
(即,只有当梯度要累积在参数的.grad
属性中时,它才有效)。警告
如果您计划将此模块与
nccl
后端或gloo
后端(使用 Infiniband)以及使用多个 worker 的 DataLoader 一起使用,请将多进程启动方法更改为forkserver
(仅限 Python 3)或spawn
。不幸的是,Gloo(使用 Infiniband)和 NCCL2 不是 fork 安全的,如果您不更改此设置,则可能会遇到死锁。警告
在用
DistributedDataParallel
包装模型后,您永远不应尝试更改模型的参数。因为,当用DistributedDataParallel
包装模型时,DistributedDataParallel
的构造函数将在构造时在模型本身的所有参数上注册额外的梯度缩减函数。如果您之后更改模型的参数,则梯度缩减函数不再与正确的参数集匹配。警告
将
DistributedDataParallel
与 分布式 RPC 框架 结合使用是实验性的,可能会发生变化。- 参数
module (Module) – 要并行化的模块
device_ids (list of int or torch.device) –
CUDA 设备。 1) 对于单设备模块,
device_ids
可以包含正好一个设备 ID,该 ID 表示此进程对应的输入模块所在的唯一 CUDA 设备。或者,device_ids
也可以是None
。 2) 对于多设备模块和 CPU 模块,device_ids
必须为None
。当两种情况下的
device_ids
均为None
时,前向传递的输入数据和实际模块都必须放置在正确的设备上。(默认值:None
)output_device (int or torch.device) – 单设备 CUDA 模块的输出设备位置。对于多设备模块和 CPU 模块,它必须为
None
,并且模块本身决定输出位置。(默认值:单设备模块的device_ids[0]
)broadcast_buffers (bool) – 启用在
forward
函数开始时同步(广播)模块缓冲区的标志。(默认值:True
)process_group – 用于分布式数据 all-reduction 的进程组。如果为
None
,将使用默认进程组,该进程组由torch.distributed.init_process_group()
创建。(默认值:None
)bucket_cap_mb –
DistributedDataParallel
会将参数分桶到多个桶中,以便每个桶的梯度缩减可能与反向计算重叠。bucket_cap_mb
控制以兆字节 (MiB) 为单位的桶大小。如果为None
,将使用 25 MiB 的默认大小。(默认值:None
)find_unused_parameters (bool) – 从包装模块的
forward
函数的返回值中包含的所有张量遍历自动求导图。不接收作为此图一部分的梯度的参数会被抢先标记为准备好进行缩减。此外,可能在包装模块的forward
函数中使用但不是损失计算的一部分,因此也不会接收梯度的参数也会被抢先标记为准备好进行缩减。(默认值:False
)check_reduction – 此参数已弃用。
gradient_as_bucket_view (bool) – 设置为
True
时,梯度将是指向allreduce
通信桶的不同偏移量的视图。这可以减少峰值内存使用量,其中保存的内存大小将等于总梯度大小。此外,它避免了在梯度和allreduce
通信桶之间复制的开销。当梯度是视图时,无法在梯度上调用detach_()
。如果遇到此类错误,请通过参考torch/optim/optimizer.py
中的zero_grad()
函数作为解决方案来修复它。请注意,梯度将在第一次迭代后成为视图,因此应在第一次迭代后检查峰值内存节省。static_graph (bool) –
设置为
True
时,DDP 知道训练图是静态的。静态图意味着 1) 在整个训练循环中,已使用和未使用的参数集不会更改;在这种情况下,用户是否设置find_unused_parameters = True
都无关紧要。 2) 图的训练方式在整个训练循环中不会改变(意味着没有依赖于迭代的控制流)。当 static_graph 设置为True
时,DDP 将支持过去无法支持的情况:1) 可重入反向传播。 2) 多次激活检查点。 3) 当模型有未使用参数时进行激活检查点。 4) 存在位于前向函数之外的模型参数。 5) 当存在未使用参数时,可能会提高性能,因为当 static_graph 设置为True
时,DDP 不会在每次迭代中搜索图以检测未使用参数。要检查是否可以将 static_graph 设置为True
,一种方法是在之前的模型训练结束时检查 ddp 日志数据,如果ddp_logging_data.get("can_set_static_graph") == True
,则大多数情况下您也可以将static_graph = True
设置为 True。- 示例:
>>> model_DDP = torch.nn.parallel.DistributedDataParallel(model) >>> # Training loop >>> ... >>> ddp_logging_data = model_DDP._get_ddp_logging_data() >>> static_graph = ddp_logging_data.get("can_set_static_graph")
delay_all_reduce_named_params (list of tuple of str and torch.nn.Parameter) – 命名参数列表,当
param_to_hook_all_reduce
中指定的参数的梯度准备就绪时,将延迟这些命名参数的 all reduce。DDP 的其他参数不适用于此参数中指定的命名参数,因为这些命名参数将被 DDP reducer 忽略。param_to_hook_all_reduce (torch.nn.Parameter) – 用于挂钩
delay_all_reduce_named_params
中指定的参数的延迟 all reduce 的参数。
- 变量
module (Module) – 要并行化的模块。
示例
>>> torch.distributed.init_process_group(backend='nccl', world_size=4, init_method='...') >>> net = torch.nn.parallel.DistributedDataParallel(model)
- join(divide_by_initial_world_size=True, enable=True, throw_on_early_termination=False)[source][source]¶
用于在 DDP 中跨进程使用不均匀输入进行训练的上下文管理器。
此上下文管理器将跟踪已加入的 DDP 进程,并通过插入集体通信操作来“shadow”前向和后向传递,以匹配非加入 DDP 进程创建的操作。这将确保每个集体调用都有已加入 DDP 进程的相应调用,从而防止在跨进程使用不均匀输入进行训练时可能发生的挂起或错误。或者,如果将标志
throw_on_early_termination
指定为True
,则一旦一个 rank 耗尽输入,所有训练器都将抛出错误,从而允许根据应用程序逻辑捕获和处理这些错误。一旦所有 DDP 进程都已加入,上下文管理器将广播与最后一个加入的进程对应的模型到所有进程,以确保所有进程的模型相同(DDP 保证了这一点)。
要使用此上下文管理器启用跨进程使用不均匀输入进行训练,只需将此上下文管理器包装在您的训练循环周围即可。无需对模型或数据加载进行进一步修改。
警告
如果此上下文管理器包装的模型或训练循环具有额外的分布式集体操作,例如模型前向传递中的
SyncBatchNorm
,则必须启用标志throw_on_early_termination
。这是因为此上下文管理器不知道非 DDP 集体通信。此标志将导致当任何一个 rank 耗尽输入时,所有 rank 都抛出错误,从而允许跨所有 rank 捕获和恢复这些错误。- 参数
divide_by_initial_world_size (bool) – 如果为
True
,则将梯度除以启动 DDP 训练的初始world_size
。如果为False
,将计算有效 world size(尚未耗尽输入的 rank 数),并在 allreduce 期间将梯度除以该值。设置divide_by_initial_world_size=True
以确保每个输入样本(包括不均匀输入)在它们对全局梯度的贡献方面具有相同的权重。这是通过始终将梯度除以初始world_size
来实现的,即使我们遇到不均匀输入时也是如此。如果您将其设置为False
,我们将梯度除以剩余的节点数。这确保了与在较小的world_size
上训练的奇偶校验,尽管这也意味着不均匀输入将对全局梯度做出更多贡献。通常,您会希望在训练作业的最后几个输入不均匀的情况下将其设置为True
。在极端情况下,如果输入数量存在很大差异,则将其设置为False
可能会提供更好的结果。enable (bool) – 是否启用不均匀输入检测。在您知道参与进程之间的输入均匀的情况下,传入
enable=False
以禁用。默认值为True
。throw_on_early_termination (bool) – 当至少一个 rank 耗尽输入时,是抛出错误还是继续训练。如果为
True
,则会在第一个 rank 到达数据末尾时抛出错误。如果为False
,将继续以较小的有效 world size 进行训练,直到所有 rank 都加入。请注意,如果指定了此标志,则标志divide_by_initial_world_size
将被忽略。默认值为False
。
示例
>>> import torch >>> import torch.distributed as dist >>> import os >>> import torch.multiprocessing as mp >>> import torch.nn as nn >>> # On each spawned worker >>> def worker(rank): >>> dist.init_process_group("nccl", rank=rank, world_size=2) >>> torch.cuda.set_device(rank) >>> model = nn.Linear(1, 1, bias=False).to(rank) >>> model = torch.nn.parallel.DistributedDataParallel( >>> model, device_ids=[rank], output_device=rank >>> ) >>> # Rank 1 gets one more input than rank 0. >>> inputs = [torch.tensor([1]).float() for _ in range(10 + rank)] >>> with model.join(): >>> for _ in range(5): >>> for inp in inputs: >>> loss = model(inp).sum() >>> loss.backward() >>> # Without the join() API, the below synchronization will hang >>> # blocking for rank 1's allreduce to complete. >>> torch.cuda.synchronize(device=rank)
- join_hook(**kwargs)[source][source]¶
DDP join hook 通过镜像前向和后向传播中的通信,从而支持在不均匀输入上进行训练。
- 参数
kwargs (dict) – 一个
dict
,包含用于在运行时修改 join hook 行为的任何关键字参数;所有共享相同 join 上下文管理器的Joinable
实例都会被转发相同的kwargs
值。
- 该 hook 支持以下关键字参数
- divide_by_initial_world_size (bool, 可选)
如果
True
,则梯度除以 DDP 启动时的初始 world size。 如果False
,则梯度除以有效的 world size(即,未加入进程的数量),这意味着不均匀的输入对全局梯度的贡献更大。 通常,如果不均匀程度较小,则应将其设置为True
,但在极端情况下可以将其设置为False
以获得可能更好的结果。 默认为True
。
- no_sync()[source][source]¶
用于禁用跨 DDP 进程的梯度同步的上下文管理器。
在此上下文中,梯度将累积在模块变量上,这些变量稍后将在退出上下文的第一个前向-后向传播中同步。
示例
>>> ddp = torch.nn.parallel.DistributedDataParallel(model, pg) >>> with ddp.no_sync(): >>> for input in inputs: >>> ddp(input).backward() # no synchronization, accumulate grads >>> ddp(another_input).backward() # synchronize grads
警告
前向传播应包含在上下文管理器内,否则梯度仍将同步。
- register_comm_hook(state, hook)[source][source]¶
注册通信 hook,用于用户定义的跨多个 worker 的 DDP 梯度聚合。
此 hook 对于研究人员尝试新想法非常有用。 例如,此 hook 可用于实现多种算法,如 GossipGrad 和梯度压缩,这些算法在运行 Distributed DataParallel 训练时涉及不同的参数同步通信策略。
- 参数
state (object) –
传递给 hook 以在训练过程中维护任何状态信息。 示例包括梯度压缩中的错误反馈、GossipGrad 中要与之通信的下一个 peer 等。
它由每个 worker 本地存储,并由该 worker 上的所有梯度张量共享。
hook (Callable) –
具有以下签名的可调用对象:
hook(state: object, bucket: dist.GradBucket) -> torch.futures.Future[torch.Tensor]
一旦 bucket 准备就绪,就会调用此函数。 Hook 可以执行任何需要的处理,并返回一个 Future,指示任何异步工作(例如:allreduce)的完成。 如果 hook 不执行任何通信,它仍然必须返回一个已完成的 Future。 Future 应保存 grad bucket 张量的新值。 一旦 bucket 准备就绪,c10d reducer 将调用此 hook 并使用 Future 返回的张量,并将梯度复制到各个参数。 请注意,future 的返回类型必须是单个张量。
我们还提供了一个名为
get_future
的 API,用于检索与c10d.ProcessGroup.Work
完成关联的 Future。get_future
当前支持 NCCL,也支持 GLOO 和 MPI 上的大多数操作,除了 peer to peer 操作(send/recv)。
警告
Grad bucket 的张量不会预先除以 world_size。 对于 allreduce 等操作,用户负责除以 world_size。
警告
DDP 通信 hook 只能注册一次,并且应在调用 backward 之前注册。
警告
hook 返回的 Future 对象应包含一个张量,该张量与 grad bucket 内的张量具有相同的形状。
警告
get_future
API 支持 NCCL,以及部分 GLOO 和 MPI 后端(不支持像 send/recv 这样的对等操作),并将返回一个torch.futures.Future
。- 示例:
以下是一个 noop hook 的示例,它返回相同的张量。
>>> def noop(state: object, bucket: dist.GradBucket) -> torch.futures.Future[torch.Tensor]: >>> fut = torch.futures.Future() >>> fut.set_result(bucket.buffer()) >>> return fut >>> ddp.register_comm_hook(state=None, hook=noop)
- 示例:
以下是 Parallel SGD 算法的示例,其中梯度在 allreduce 之前被编码,然后在 allreduce 之后被解码。
>>> def encode_and_decode(state: object, bucket: dist.GradBucket) -> torch.futures.Future[torch.Tensor]: >>> encoded_tensor = encode(bucket.buffer()) # encode gradients >>> fut = torch.distributed.all_reduce(encoded_tensor).get_future() >>> # Define the then callback to decode. >>> def decode(fut): >>> decoded_tensor = decode(fut.value()[0]) # decode gradients >>> return decoded_tensor >>> return fut.then(decode) >>> ddp.register_comm_hook(state=None, hook=encode_and_decode)