快捷方式

torch.nn.utils.clip_grad_value_

torch.nn.utils.clip_grad_value_(parameters, clip_value, foreach=None)[源代码]

将可迭代参数的梯度裁剪在指定值处。

梯度在原地修改。

参数
  • parameters (Iterable[Tensor] or Tensor) – 将要对其进行梯度归一化的张量可迭代对象或单个张量

  • clip_value (float) – 梯度允许的最大值。梯度在 [-clip_value,clip_value]\left[\text{-clip\_value}, \text{clip\_value}\right] 范围内进行裁剪。

  • foreach (bool) – 如果使用基于 foreach 的更快实现 None,则对 CUDA 和 CPU 本地张量使用 foreach 实现,并对其他设备类型静默回退到慢速实现。默认值:None

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答问题

查看资源