torch.nn.utils.clip_grad_value_¶ torch.nn.utils.clip_grad_value_(parameters, clip_value, foreach=None)[源代码]¶ 将可迭代参数的梯度裁剪在指定值处。 梯度在原地修改。 参数 parameters (Iterable[Tensor] or Tensor) – 将要对其进行梯度归一化的张量可迭代对象或单个张量 clip_value (float) – 梯度允许的最大值。梯度在 [-clip_value,clip_value]\left[\text{-clip\_value}, \text{clip\_value}\right][-clip_value,clip_value] 范围内进行裁剪。 foreach (bool) – 如果使用基于 foreach 的更快实现 None,则对 CUDA 和 CPU 本地张量使用 foreach 实现,并对其他设备类型静默回退到慢速实现。默认值:None