快捷方式

torch.nn.utils.clip_grad_value_

torch.nn.utils.clip_grad_value_(parameters, clip_value, foreach=None)[源代码][源代码]

将可迭代参数的梯度裁剪到指定值。

梯度会被就地修改。

参数
  • parameters (Iterable[Tensor] or Tensor) – Tensor 的可迭代对象或单个 Tensor,其梯度将被归一化

  • clip_value (float) – 梯度的最大允许值。梯度被裁剪到范围 [-clip_value,clip_value]\left[\text{-clip\_value}, \text{clip\_value}\right]

  • foreach (bool) – 使用更快的基于 foreach 的实现。如果 None,则对 CUDA 和 CPU 原生张量使用 foreach 实现,并为其他设备类型静默回退到较慢的实现。默认值:None

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源