torch.nn.utils.clip_grad_value_¶ torch.nn.utils.clip_grad_value_(parameters, clip_value, foreach=None)[源代码][源代码]¶ 将可迭代参数的梯度裁剪到指定值。 梯度会被就地修改。 参数 parameters (Iterable[Tensor] or Tensor) – Tensor 的可迭代对象或单个 Tensor,其梯度将被归一化 clip_value (float) – 梯度的最大允许值。梯度被裁剪到范围 [-clip_value,clip_value]\left[\text{-clip\_value}, \text{clip\_value}\right][-clip_value,clip_value] foreach (bool) – 使用更快的基于 foreach 的实现。如果 None,则对 CUDA 和 CPU 原生张量使用 foreach 实现,并为其他设备类型静默回退到较慢的实现。默认值:None