快捷方式

get_lr

torchtune.training.get_lr(optimizer: Union[Optimizer, OptimizerInBackwardWrapper]) float[源代码]

full_finetune_distributed 和 full_finetune_single_device 假设所有优化器具有相同的学习率 (LR),此处用于验证所有学习率是否相同,如果相同则返回学习率。

参数

optimizer (Union[torch.optim.Optimizer, OptimizerInBackwardWrapper]) – 一个通用的优化器输入,可以是通用优化器,也可以是基于 optimizer_in_backward 的优化器包装器。

返回值

输入优化器的学习率。

返回类型

lr (float)

抛出异常

RuntimeError – 如果输入优化器的学习率不相同。

文档

访问 PyTorch 全面的开发者文档

查看文档

教程

获取针对初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源