快捷方式

is_distributed

torchtune.training.is_distributed() bool[源]

检查初始化 torch.distributed 所需的所有环境变量是否已设置,以及 distributed 是否已正确安装。这表明是分布式运行。https://pytorch.ac.cn/docs/stable/distributed.html#environment-variable-initialization

检查以下条件

  • torch.distributed 可用

  • master port 和 master address 环境变量已设置

  • world size 大于 1

  • rank 环境变量已设置

返回值

如果以上所有条件都满足,则返回 True,否则返回 False。

返回类型

bool

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源