DDP 通信钩子¶
DDP 通信钩子是一个通用接口,通过覆盖 DistributedDataParallel 中的原始 allreduce 操作,来控制如何在工作进程之间通信梯度。PyTorch 提供了一些内置的通信钩子,用户可以轻松应用这些钩子来优化通信。此外,钩子接口还可以支持用户定义的通信策略,以满足更高级的用例。
如何使用通信钩子?¶
要使用通信钩子,用户只需在训练循环之前让 DDP 模型注册钩子,如下所示。
torch.nn.parallel.DistributedDataParallel.register_comm_hook()
通信钩子对什么进行操作?¶
通信钩子提供了一种灵活的方式来执行 allreduce 梯度。因此,它主要操作在 allreduce 之前每个副本上的梯度,这些梯度被分桶以增加通信和计算之间的重叠。特别是,torch.distributed.GradBucket
表示一个要进行 allreduce 的梯度张量桶。
- class torch.distributed.GradBucket¶
此类主要将扁平化的梯度张量(由
buffer()
返回)传递给 DDP 通信钩子。此张量可以进一步分解为该桶内每个参数张量的列表(由get_per_parameter_tensors()
返回),以应用逐层操作。
- torch.distributed.GradBucket.index(self: torch._C._distributed_c10d.GradBucket) int ¶
警告
由于桶在第一次迭代后会重建,因此不应依赖训练开始时的索引。
- 返回
存储几个连续层梯度的桶的索引。所有梯度都被分桶。
- torch.distributed.GradBucket.buffer(self: torch._C._distributed_c10d.GradBucket) torch.Tensor ¶
- 返回
一个扁平化的 1D
torch.Tensor
缓冲区,可以进一步分解为该桶内每个参数张量的列表。
- torch.distributed.GradBucket.gradients(self: torch._C._distributed_c10d.GradBucket) list[torch.Tensor] ¶
- 返回
一个
torch.Tensor
列表。列表中的每个张量对应一个梯度。
- torch.distributed.GradBucket.is_last(self: torch._C._distributed_c10d.GradBucket) bool ¶
- 返回
此桶是否是迭代中最后一个要进行 allreduce 的桶。这也意味着此桶对应于前向传播中的前几层。
- torch.distributed.GradBucket.set_buffer(self: torch._C._distributed_c10d.GradBucket, buffer: torch.Tensor) None ¶
用输入张量缓冲区替换桶中的张量。
- torch.distributed.GradBucket.parameters(self: torch._C._distributed_c10d.GradBucket) list[torch.Tensor] ¶
- 返回
一个
torch.Tensor
列表。列表中的每个张量对应一个模型参数。
默认通信钩子¶
默认通信钩子是简单的无状态钩子,因此 register_comm_hook
中的输入状态要么是进程组,要么是 None
。输入 bucket
是一个 torch.distributed.GradBucket
对象。
- torch.distributed.algorithms.ddp_comm_hooks.default_hooks.allreduce_hook(process_group, bucket)[source][source]¶
使用
GradBucket
张量调用allreduce
。一旦梯度张量在所有工作进程中聚合,其
then
回调会取平均值并返回结果。如果用户注册此 DDP 通信钩子,则 DDP 结果预计与未注册钩子的情况相同。因此,这不会改变 DDP 的行为,用户可以使用它作为参考或修改此钩子以记录有用的信息或用于任何其他目的,同时不影响 DDP 行为。
- 示例:
>>> ddp_model.register_comm_hook(process_group, allreduce_hook)
- torch.distributed.algorithms.ddp_comm_hooks.default_hooks.fp16_compress_hook(process_group, bucket)[source][source]¶
通过将
GradBucket
转换为torch.float16
并除以进程组大小来进行压缩。此 DDP 通信钩子实现了一种简单的梯度压缩方法,该方法将
GradBucket
张量转换为半精度浮点格式 (torch.float16
),然后将其除以进程组大小。它对这些float16
梯度张量执行 allreduce 操作。一旦压缩后的梯度张量完成 allreduce,链式回调decompress
会将其转换回输入数据类型(例如float32
)。- 示例:
>>> ddp_model.register_comm_hook(process_group, fp16_compress_hook)
- torch.distributed.algorithms.ddp_comm_hooks.default_hooks.bf16_compress_hook(process_group, bucket)[source][source]¶
警告:此 API 是实验性的,需要 NCCL 版本高于 2.9.6。
此 DDP 通信钩子实现了一种简单的梯度压缩方法,该方法将
GradBucket
张量转换为半精度 Brain 浮点格式 (torch.bfloat16
),然后将其除以进程组大小。它对这些bfloat16
梯度张量执行 allreduce 操作。一旦压缩后的梯度张量完成 allreduce,链式回调decompress
会将其转换回输入数据类型(例如float32
)。- 示例:
>>> ddp_model.register_comm_hook(process_group, bf16_compress_hook)
此外,还提供了一个通信钩子包装器,以支持 fp16_compress_hook()
或 bf16_compress_hook()
作为包装器,可以与其他通信钩子组合使用。
- torch.distributed.algorithms.ddp_comm_hooks.default_hooks.fp16_compress_wrapper(hook)[source][source]¶
将输入张量转换为
torch.float16
,将钩子的结果转换回输入 dtype。此包装器将给定 DDP 通信钩子的输入梯度张量转换为半精度浮点格式 (
torch.float16
),并将给定钩子的结果张量转换回输入数据类型,例如float32
。因此,fp16_compress_hook
等效于fp16_compress_wrapper(allreduce_hook)
。- 示例:
>>> state = PowerSGDState(process_group=process_group, matrix_approximation_rank=1, start_powerSGD_iter=10) >>> ddp_model.register_comm_hook(state, fp16_compress_wrapper(powerSGD_hook))
- 返回类型
Callable[[Any, GradBucket], Future[Tensor]]
- torch.distributed.algorithms.ddp_comm_hooks.default_hooks.bf16_compress_wrapper(hook)[source][source]¶
警告:此 API 是实验性的,需要 NCCL 版本高于 2.9.6。
此包装器将给定 DDP 通信钩子的输入梯度张量转换为半精度 Brain 浮点格式 <https://en.wikipedia.org/wiki/Bfloat16_floating-point_format> `_ (``torch.bfloat16`),并将给定钩子的结果张量转换回输入数据类型,例如
float32
。因此,
bf16_compress_hook
等效于bf16_compress_wrapper(allreduce_hook)
。- 示例:
>>> state = PowerSGDState(process_group=process_group, matrix_approximation_rank=1, start_powerSGD_iter=10) >>> ddp_model.register_comm_hook(state, bf16_compress_wrapper(powerSGD_hook))
- 返回类型
Callable[[Any, GradBucket], Future[Tensor]]
PowerSGD 通信钩子¶
PowerSGD (Vogels et al., NeurIPS 2019) 是一种梯度压缩算法,可以提供非常高的压缩率并加速带宽受限的分布式训练。此算法需要维护一些超参数和内部状态。因此,PowerSGD 通信钩子是一个有状态的钩子,用户需要提供如下定义的状态对象。
PowerSGD 状态¶
- class torch.distributed.algorithms.ddp_comm_hooks.powerSGD_hook.PowerSGDState(process_group, matrix_approximation_rank=1, start_powerSGD_iter=1000, min_compression_rate=2, use_error_feedback=True, warm_start=True, orthogonalization_epsilon=0, random_seed=0, compression_stats_logging_frequency=10000, batch_tensors_with_same_shape=False)[source][source]¶
存储训练期间所有梯度的算法超参数和内部状态。
特别是,
matrix_approximation_rank
和start_powerSGD_iter
是用户应该调整的主要超参数。为了性能,我们建议保持二进制超参数use_error_feedback
和warm_start
为开启状态。matrix_approximation_rank
控制压缩后的低秩张量的大小,这决定了压缩率。秩越低,压缩越强。1.1. 如果
matrix_approximation_rank
太低,完整模型质量将需要更多训练步骤才能达到,或者永远无法达到,并导致精度损失。1.2. 增加
matrix_approximation_rank
会显着增加压缩的计算成本,并且精度可能不会在超过某个matrix_approximation_rank
阈值后进一步提高。
为了调整
matrix_approximation_rank
,我们建议从 1 开始并以 2 的倍数增加(例如指数网格搜索,1、2、4、...),直到达到令人满意的精度。通常只使用较小的值 1-4。对于某些 NLP 任务(如原始论文的附录 D 所示),此值已增加到 32。start_powerSGD_iter
将 PowerSGD 压缩延迟到步骤start_powerSGD_iter
,并且原始 allreduce 在步骤start_powerSGD_iter
之前运行。这种原始 allreduce + PowerSGD 的混合方案可以有效地提高精度,即使使用相对较小的matrix_approximation_rank
也是如此。这是因为训练阶段的开始通常对不准确的梯度非常敏感,过早压缩梯度可能会使训练快速进入次优轨迹,这可能会对精度产生不可挽回的影响。
为了调整
start_powerSGD_iter
,我们建议从总训练步骤的 10% 开始,并逐渐增加,直到达到令人满意的精度。如果训练中有预热阶段,则start_powerSGD_iter
通常应不小于预热步骤的数量。min_compression_rate
是压缩层时所需的最小压缩率。由于压缩带来的计算开销,仅当带宽可以充分节省时,张量才值得压缩,其中(num_rows + num_cols) * matrix_approximation_rank * min_compression_rate < num_rows * num_cols
。如果无法满足指定的压缩率阈值,则将直接 allreduce 张量而不进行压缩。
一旦 PowerSGD 压缩开始,压缩统计信息将每
compression_stats_logging_frequency
次迭代记录一次。orthogonalization_epsilon
可以是一个非常小的值(例如 1e-8),添加到正交化步骤中的每个归一化矩阵列,以防止任何列都为 0 时出现除以零错误。如果这已经可以避免(例如,通过批量归一化),建议使用 0 的 epsilon 以获得精度。batch_tensors_with_same_shape
控制是否在批量操作中压缩和解压缩具有相同形状的张量,以实现更高的并行性。请注意,您还应该增加桶大小(即 DDP 构造函数中的bucket_cap_mb
参数),以使更多相同形状的张量出现在同一个桶中,但这可能会减少计算和通信之间的重叠,并由于堆叠相同形状的张量而增加内存占用。如果压缩/解压缩计算是瓶颈,则设置为True
。
警告
如果启用了错误反馈或预热,则 DDP 中允许的
start_powerSGD_iter
的最小值是 2。 这是因为 DDP 中还有另一个内部优化会在迭代 1 时重建 buckets,这可能会与重建过程之前记忆化的任何张量冲突。
PowerSGD 钩子¶
警告
PowerSGD 通常需要与模型梯度大小相同的额外内存来启用错误反馈,这可以补偿有偏差的压缩通信并提高准确性。
警告
PowerSGD 钩子可能与 Apex 自动混合精度包冲突。 请使用 PyTorch 原生自动混合精度包代替。
- torch.distributed.algorithms.ddp_comm_hooks.powerSGD_hook.powerSGD_hook(state, bucket)[source][source]¶
实现 PowerSGD 算法。
此 DDP 通信钩子实现了 论文中描述的 PowerSGD 梯度压缩算法。 一旦梯度张量在所有 worker 上聚合,此钩子将按如下方式应用压缩
将输入的展平 1D 梯度张量视为每个参数张量的列表,并将所有张量分为两组
1.1 应该在 allreduce 之前压缩的张量,因为压缩可以充分节省带宽。
1.2 其余张量将直接进行 allreduce 而不进行压缩,包括所有向量张量(用于偏差)。
处理未压缩的张量
2.1. 为这些未压缩的张量分配连续内存,并将所有未压缩的张量作为一个批次进行 allreduce,无需压缩;
2.2. 将各个未压缩的张量从连续内存复制回输入张量。
处理应通过 PowerSGD 压缩进行压缩的张量
3.1. 对于每个张量 M,创建两个低秩张量 P 和 Q 以分解 M,使得 M = PQ^T,其中 Q 从标准正态分布初始化并正交化;
3.2. 计算 Ps 中的每个 P,它等于 MQ;
3.3. 将 Ps 作为一个批次进行 Allreduce;
3.4. 正交化 Ps 中的每个 P;
3.5. 计算 Qs 中的每个 Q,它近似等于 M^TP;
3.6. 将 Qs 作为一个批次进行 Allreduce;
3.7. 计算所有压缩张量中的每个 M,它近似等于 PQ^T。
请注意,此通信钩子在前
state.start_powerSGD_iter
次迭代中强制执行 vanilla allreduce。 这不仅让用户可以更好地控制加速和准确性之间的权衡,还有助于抽象化 DDP 内部优化的一些复杂性,以供未来的通信钩子开发者使用。- 参数
state (PowerSGDState) – 配置压缩率并支持错误反馈、热启动等的 State 信息。要调整压缩配置,主要需要调整
matrix_approximation_rank
、start_powerSGD_iter
和min_compression_rate
。bucket (dist.GradBucket) – 存储 1D 展平梯度张量的 Bucket,该张量批量处理多个每变量张量。 请注意,由于 DDP 通信钩子仅支持单进程单设备模式,因此此 bucket 中仅存储一个张量。
- 返回
通信的未来处理程序,它会就地更新梯度。
- 返回类型
- 示例:
>>> state = PowerSGDState(process_group=process_group, matrix_approximation_rank=1, start_powerSGD_iter=10, min_compression_rate=0.5) >>> ddp_model.register_comm_hook(state, powerSGD_hook)
- torch.distributed.algorithms.ddp_comm_hooks.powerSGD_hook.batched_powerSGD_hook(state, bucket)[source][source]¶
实现简化的 PowerSGD 算法。
此 DDP 通信钩子实现了 论文中描述的简化 PowerSGD 梯度压缩算法。 此变体不逐层压缩梯度,而是压缩批量处理所有梯度的展平输入张量。 因此,它比
powerSGD_hook()
更快,但通常会导致准确性大大降低,除非matrix_approximation_rank
为 1。警告
在此处增加
matrix_approximation_rank
可能不一定会提高准确性,因为在没有列/行对齐的情况下批量处理每参数张量可能会破坏低秩结构。 因此,用户应始终首先考虑powerSGD_hook()
,并且仅当在matrix_approximation_rank
为 1 时可以实现令人满意的准确性时,才考虑此变体。一旦梯度张量在所有 worker 上聚合,此钩子将按如下方式应用压缩
将输入的展平 1D 梯度张量视为具有 0 填充的方形张量 M;
创建两个低秩张量 P 和 Q 以分解 M,使得 M = PQ^T,其中 Q 从标准正态分布初始化并正交化;
计算 P,它等于 MQ;
Allreduce P;
正交化 P;
计算 Q,它近似等于 M^TP;
Allreduce Q;
计算 M,它近似等于 PQ^T。
将输入张量截断为原始长度。
请注意,此通信钩子在前
state.start_powerSGD_iter
次迭代中强制执行 vanilla allreduce。 这不仅让用户可以更好地控制加速和准确性之间的权衡,还有助于抽象化 DDP 内部优化的一些复杂性,以供未来的通信钩子开发者使用。- 参数
state (PowerSGDState) – 配置压缩率并支持错误反馈、热启动等的 State 信息。要调整压缩配置,主要需要调整
matrix_approximation_rank
和start_powerSGD_iter
。bucket (dist.GradBucket) – 存储 1D 展平梯度张量的 Bucket,该张量批量处理多个每变量张量。 请注意,由于 DDP 通信钩子仅支持单进程单设备模式,因此此 bucket 中仅存储一个张量。
- 返回
通信的未来处理程序,它会就地更新梯度。
- 返回类型
- 示例:
>>> state = PowerSGDState(process_group=process_group, matrix_approximation_rank=1) >>> ddp_model.register_comm_hook(state, batched_powerSGD_hook)
调试通信钩子¶
顾名思义,调试通信钩子仅用于调试和性能优化目的。
警告
调试通信钩子不一定会输出正确的结果。
- torch.distributed.algorithms.ddp_comm_hooks.debugging_hooks.noop_hook(_, bucket)[source][source]¶
返回一个包装输入的 future,因此它是一个不产生任何通信开销的空操作。
此钩子应仅用于 allreduce 优化的余量分析,而不是正常的梯度同步。 例如,如果在注册此钩子后仅观察到不到 10% 的训练时间加速,则通常意味着 allreduce 不是这种情况下的性能瓶颈。 如果 GPU 跟踪不易检索,或者跟踪分析因某些因素(例如 allreduce 和计算之间的重叠或跨 rank 的不同步)而变得复杂,则这种工具尤其有用。
- 示例:
>>> ddp_model.register_comm_hook(None, noop_hook)
通信钩子的检查点¶
有状态的通信钩子可以作为模型检查点的一部分保存,以启用训练器重启。 要使钩子可序列化,应定义 __setstate__
和 __getstate__
。
警告
__getstate__
应从返回的字典中排除不可序列化的属性。
警告
__setstate__
应正确初始化从提供的 state
中排除的不可序列化属性。
PowerSGDState
实现了 __setstate__
和 __getstate__
,可以用作参考。
- class torch.distributed.algorithms.ddp_comm_hooks.powerSGD_hook.PowerSGDState[source][source]
这是一个保存和重新加载 PowerSGD 状态和钩子的简单端到端示例。
import os
import sys
import tempfile
import torch
import torch.distributed as dist
import torch.nn as nn
import torch.optim as optim
import torch.multiprocessing as mp
from torch.nn.parallel import DistributedDataParallel
from torch.distributed.algorithms.ddp_comm_hooks import powerSGD_hook as powerSGD
class SimpleModel(nn.Module):
def __init__(self):
super().__init__()
self.fc1 = nn.Linear(24,24)
self.relu = nn.ReLU()
self.fc2 = nn.Linear(24,12)
def forward(self, x):
return self.fc2(self.relu(self.fc1(x)))
def setup(rank, world_size):
os.environ['MASTER_ADDR'] = 'localhost'
os.environ['MASTER_PORT'] = '12355'
# initialize the process group
dist.init_process_group("nccl", rank=rank, world_size=world_size)
def cleanup():
dist.destroy_process_group()
def run_demo(demo_fn, world_size):
mp.spawn(
demo_fn,
args=(world_size,),
nprocs=world_size,
join=True)
def demo_serialization(rank, world_size):
setup(rank, world_size)
CHECKPOINT = tempfile.gettempdir() + "/checkpoint.pt"
model = SimpleModel().to(rank)
ddp_model = DistributedDataParallel(model, device_ids=[rank])
powersgd_hook = powerSGD.powerSGD_hook
powersgd_state = powerSGD.PowerSGDState(process_group=None)
optimizer = optim.SGD(ddp_model.parameters(), lr=0.001)
ddp_model.register_comm_hook(powersgd_state, powersgd_hook)
state = {
'state_dict': ddp_model.state_dict(),
'comm_hook': powersgd_hook,
'comm_hook_state': powersgd_state}
if rank == 0:
torch.save(state, CHECKPOINT)
dist.barrier()
map_location = {'cuda:%d' % 0: 'cuda:%d' % rank}
checkpoint = torch.load(CHECKPOINT, map_location=map_location)
new_ddp_model = DistributedDataParallel(SimpleModel().to(rank), device_ids=[rank])
new_ddp_model.load_state_dict(checkpoint['state_dict'])
powersgd_hook = checkpoint['comm_hook']
powersgd_state = checkpoint['comm_hook_state']
new_ddp_model.register_comm_hook(powersgd_state, powersgd_hook)
if rank == 0:
os.remove(CHECKPOINT)
cleanup()
if __name__ == "__main__":
n_gpus = torch.cuda.device_count()
assert n_gpus >= 2, f"Requires at least 2 GPUs to run, but got {n_gpus}"
world_size = n_gpus
run_demo(demo_serialization, world_size)