快速入门¶
要在所有节点上启动一个容错作业,请运行以下命令。
torchrun
--nnodes=NUM_NODES
--nproc-per-node=TRAINERS_PER_NODE
--max-restarts=NUM_ALLOWED_FAILURES
--rdzv-id=JOB_ID
--rdzv-backend=c10d
--rdzv-endpoint=HOST_NODE_ADDR
YOUR_TRAINING_SCRIPT.py (--arg1 ... train script args...)
要启动一个弹性作业,请在至少 MIN_SIZE
个节点上以及最多 MAX_SIZE
个节点上运行以下命令。
torchrun
--nnodes=MIN_SIZE:MAX_SIZE
--nproc-per-node=TRAINERS_PER_NODE
--max-restarts=NUM_ALLOWED_FAILURES_OR_MEMBERSHIP_CHANGES
--rdzv-id=JOB_ID
--rdzv-backend=c10d
--rdzv-endpoint=HOST_NODE_ADDR
YOUR_TRAINING_SCRIPT.py (--arg1 ... train script args...)
注意
TorchElastic 将故障视为成员身份变化。当一个节点失败时,这被视为一个“缩减”事件。当失败的节点被调度器替换时,这是一个“扩容”事件。因此,对于容错作业和弹性作业,都使用 --max-restarts
来控制放弃之前重新启动的总次数,无论重新启动是由故障还是缩放事件引起的。
HOST_NODE_ADDR
,格式为 <主机>[:<端口>](例如 node1.example.com:29400),指定了应实例化和托管 C10d rendezvous 后端的节点和端口。它可以是训练集群中的任何节点,但理想情况下应选择带宽较高的节点。
注意
如果未指定端口号,HOST_NODE_ADDR
默认为 29400。
注意
可以传递 --standalone
选项来启动带有 sidecar rendezvous 后端的单节点作业。使用 --standalone
选项时,您不必传递 --rdzv-id
、--rdzv-endpoint
和 --rdzv-backend
。
注意
在此处了解更多关于编写分布式训练脚本的信息。here。
如果 torchrun
不满足您的需求,您可以直接使用我们的 API 进行更强大的定制。首先请查看 elastic agent API。elastic agent API。