快捷方式

LambdaLR

class torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1)[源][源]

设置初始学习率。

每个参数组的学习率设置为初始学习率乘以给定函数的值。当 last_epoch=-1 时,使用初始学习率。

参数
  • optimizer (Optimizer) – 包装的优化器。

  • lr_lambda (function列表) – 一个函数,根据整数参数 epoch 计算乘法因子;或此类函数的列表,optimizer.param_groups 中的每个组对应一个函数。

  • last_epoch (int) – 上一个周期的索引。默认值:-1。

示例

>>> # Assuming optimizer has two groups.
>>> lambda1 = lambda epoch: epoch // 30
>>> lambda2 = lambda epoch: 0.95 ** epoch
>>> scheduler = LambdaLR(optimizer, lr_lambda=[lambda1, lambda2])
>>> for epoch in range(100):
>>>     train(...)
>>>     validate(...)
>>>     scheduler.step()
get_last_lr()[源]

返回当前调度器计算的最后一个学习率。

返回类型

列表[浮点数]

get_lr()[源][源]

计算学习率。

load_state_dict(state_dict)[源][源]

加载调度器的状态。

保存或加载调度器时,请确保也保存或加载优化器的状态。

参数

state_dict (字典) – 调度器状态。应该是调用 state_dict() 返回的对象。

state_dict()[源][源]

字典 形式返回调度器的状态。

它包含 self.__dict__ 中除优化器之外的每个变量的条目。学习率 lambda 函数只有在它们是可调用对象(而不是普通函数或 lambda 表达式)时才会保存。

保存或加载调度器时,请确保也保存或加载优化器的状态。

step(epoch=None)[源]

执行一步。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取适合初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源