快捷方式

L1Unstructured

class torch.nn.utils.prune.L1Unstructured(amount)[source]

通过将 L1 范数最低的单元清零来修剪(当前未修剪的)张量中的单元。

参数

amount (int or float) – 要修剪的参数数量。如果为 float,则应介于 0.0 和 1.0 之间,表示要修剪的参数的比例。如果为 int,则表示要修剪的参数的绝对数量。

classmethod apply(module, name, amount, importance_scores=None)[source]

动态添加修剪并重新参数化张量。

添加前向预钩子,该钩子可以动态启用修剪,并根据原始张量和修剪掩码重新参数化张量。

参数
  • module (nn.Module) – 包含要修剪的张量的模块

  • name (str) – 要进行修剪的 module 中的参数名称。

  • amount (int or float) – 要修剪的参数数量。如果为 float,则应介于 0.0 和 1.0 之间,表示要修剪的参数的比例。如果为 int,则表示要修剪的参数的绝对数量。

  • importance_scores (torch.Tensor) – 用于计算修剪掩码的重要性分数张量(与模块参数的形状相同)。此张量中的值表示要修剪的参数中对应元素的重要性。如果未指定或为 None,则将使用模块参数代替。

apply_mask(module)

仅处理要修剪的参数与生成的掩码之间的乘法。

从模块中获取掩码和原始张量,并返回张量的修剪版本。

参数

module (nn.Module) – 包含要修剪的张量的模块

返回值

输入张量的修剪版本

返回类型

pruned_tensor (torch.Tensor)

prune(t, default_mask=None, importance_scores=None)

计算并返回输入张量 t 的修剪版本。

根据 compute_mask() 中指定的修剪规则。

参数
  • t (torch.Tensor) – 要修剪的张量(与 default_mask 的维度相同)。

  • importance_scores (torch.Tensor) – 用于计算修剪 t 的掩码的重要性分数张量(与 t 的形状相同)。此张量中的值表示要修剪的 t 中对应元素的重要性。如果未指定或为 None,则将使用张量 t 代替。

  • default_mask (torch.Tensor, optional) – 来自上一次修剪迭代的掩码(如果有)。在确定修剪应作用于张量的哪个部分时应考虑。如果为 None,则默认为全为一的掩码。

返回值

张量 t 的修剪版本。

remove(module)

从模块中删除剪枝重新参数化。

已剪枝的参数名为 name 会永久保持剪枝状态,名为 name+'_orig' 的参数将从参数列表中移除。类似地,名为 name+'_mask' 的缓冲区将从缓冲区中移除。

注意

剪枝本身不会被撤销或反转!

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源