torch.Tensor.retain_grad¶ Tensor.retain_grad() → None¶ 在 backward() 期间,使此张量能够在其 grad 中填充。对于叶张量,这将是一个无操作。