CommDebugMode 入门¶
创建于:2024 年 8 月 19 日 | 最后更新:2024 年 10 月 08 日 | 最后验证:2024 年 11 月 05 日
作者: Anshul Sinha
在本教程中,我们将探讨如何将 CommDebugMode
与 PyTorch 的 DistributedTensor (DTensor) 结合使用进行调试,方法是跟踪分布式训练环境中的集合运算。
先决条件¶
Python 3.8 - 3.11
PyTorch 2.2 或更高版本
CommDebugMode
是什么以及为什么它有用¶
随着模型尺寸持续增加,用户正在寻求利用各种并行策略组合来扩展分布式训练。然而,现有解决方案之间缺乏互操作性构成了一个重大挑战,这主要是由于缺乏可以桥接这些不同并行策略的统一抽象。为了解决这个问题,PyTorch 提出了 DistributedTensor(DTensor),它抽象了分布式训练中张量通信的复杂性,提供了无缝的用户体验。然而,当处理现有并行解决方案和使用像 DTensor 这样的统一抽象开发并行解决方案时,底层集合通信发生的内容和时间缺乏透明度可能会使高级用户难以识别和解决问题。为了解决这个挑战,CommDebugMode
,一个 Python 上下文管理器,将作为 DTensor 的主要调试工具之一,使用户能够查看在使用 DTensor 时集合运算何时以及为何发生,从而有效地解决这个问题。
使用 CommDebugMode
¶
以下是如何使用 CommDebugMode
# The model used in this example is a MLPModule applying Tensor Parallel
comm_mode = CommDebugMode()
with comm_mode:
output = model(inp)
# print the operation level collective tracing information
print(comm_mode.generate_comm_debug_tracing_table(noise_level=0))
# log the operation level collective tracing information to a file
comm_mode.log_comm_debug_tracing_table_to_file(
noise_level=1, file_name="transformer_operation_log.txt"
)
# dump the operation level collective tracing information to json file,
# used in the visual browser below
comm_mode.generate_json_dump(noise_level=2)
这是噪声级别为 0 时 MLPModule 的输出
Expected Output:
Global
FORWARD PASS
*c10d_functional.all_reduce: 1
MLPModule
FORWARD PASS
*c10d_functional.all_reduce: 1
MLPModule.net1
MLPModule.relu
MLPModule.net2
FORWARD PASS
*c10d_functional.all_reduce: 1
要使用 CommDebugMode
,您必须将运行模型的代码包装在 CommDebugMode
中,并调用您想要用于显示数据的 API。您还可以使用 noise_level
参数来控制显示信息的详细程度。以下是每个噪声级别显示的内容
在上面的示例中,您可以看到集合运算 all_reduce 在 MLPModule
的前向传播中发生一次。此外,您可以使用 CommDebugMode
来精确定位 all-reduce 运算发生在 MLPModule
的第二个线性层中。
以下是交互式模块树可视化,您可以使用它上传自己的 JSON 转储
结论¶
在本食谱中,我们学习了如何使用 CommDebugMode
来调试分布式张量和使用 PyTorch 进行通信集合的并行解决方案。您可以在嵌入式可视化浏览器中使用自己的 JSON 输出。
有关 CommDebugMode
的更多详细信息,请参阅 comm_mode_features_example.py