快捷方式

RandomStructured

class torch.nn.utils.prune.RandomStructured(amount, dim=-1)[source][source]

随机剪枝张量中整个(当前未剪枝的)通道。

参数
  • amount (intfloat) – 要剪枝的参数量。如果 float,则应介于 0.0 和 1.0 之间,并表示要剪枝的参数的比例。如果 int,则表示要剪枝的参数的绝对数量。

  • dim (int, optional) – 定义要剪枝的通道的维度索引。默认值:-1。

classmethod apply(module, name, amount, dim=-1)[source][source]

动态添加剪枝和张量的重参数化。

添加前向预钩子,以实现动态剪枝以及根据原始张量和剪枝掩码对张量进行重参数化。

参数
  • module (nn.Module) – 包含要剪枝的张量的模块

  • name (str) – module 中将执行剪枝的参数名称。

  • amount (intfloat) – 要剪枝的参数量。如果 float,则应介于 0.0 和 1.0 之间,并表示要剪枝的参数的比例。如果 int,则表示要剪枝的参数的绝对数量。

  • dim (int, optional) – 定义要剪枝的通道的维度索引。默认值:-1。

apply_mask(module)[source]

简单地处理被剪枝的参数与生成的掩码之间的乘法。

从模块中获取掩码和原始张量,并返回张量的剪枝版本。

参数

module (nn.Module) – 包含要剪枝的张量的模块

返回

输入张量的剪枝版本

返回类型

pruned_tensor (torch.Tensor)

compute_mask(t, default_mask)[source][source]

计算并返回输入张量 t 的掩码。

从基本 default_mask 开始(如果张量尚未被剪枝,则应为全 1 掩码),生成一个随机掩码,应用在 default_mask 之上,方法是随机将张量的指定维度上的通道归零。

参数
  • t (torch.Tensor) – 表示要剪枝的参数的张量

  • default_mask (torch.Tensor) – 来自先前剪枝迭代的基础掩码,在新掩码应用后需要遵守。与 t 相同的维度。

返回

要应用于 t 的掩码,与 t 具有相同的维度

返回类型

mask (torch.Tensor)

引发

IndexError – 如果 self.dim >= len(t.shape)

prune(t, default_mask=None, importance_scores=None)[source]

计算并返回输入张量 t 的剪枝版本。

根据 compute_mask() 中指定的剪枝规则。

参数
  • t (torch.Tensor) – 要剪枝的张量(与 default_mask 具有相同的维度)。

  • importance_scores (torch.Tensor) – 重要性分数张量(与 t 具有相同的形状),用于计算剪枝 t 的掩码。此张量中的值指示正在剪枝的 t 中相应元素的重要性。如果未指定或为 None,则将使用张量 t 代替。

  • default_mask (torch.Tensor, optional) – 来自先前剪枝迭代的掩码(如果有)。在确定剪枝应作用于张量的哪一部分时要考虑。如果为 None,则默认为全 1 掩码。

返回

张量 t 的剪枝版本。

remove(module)[source]

从模块中删除剪枝重参数化。

名为 name 的剪枝参数将永久保持剪枝状态,并且名为 name+'_orig' 的参数将从参数列表中删除。同样,名为 name+'_mask' 的缓冲区将从缓冲区中删除。

注意

剪枝本身不会撤消或反转!

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源