快捷方式

torch.nn.utils.prune.global_unstructured

torch.nn.utils.prune.global_unstructured(parameters, pruning_method, importance_scores=None, **kwargs)[源代码]

通过应用指定的 pruning_method,全局修剪对应于 parameters 中所有参数的张量。

通过以下方式就地修改模块:

  1. 添加一个名为 name+'_mask' 的命名缓冲区,该缓冲区对应于修剪方法应用于参数 name 的二进制掩码。

  2. 将参数 name 替换为其修剪后的版本,同时原始(未修剪)参数存储在名为 name+'_orig' 的新参数中。

参数
  • parameters ((module, name) 元组的可迭代对象) – 以全局方式修剪模型的参数,即在决定修剪哪些参数之前聚合所有权重。module 必须是 nn.Module 类型,name 必须是字符串。

  • pruning_method (函数) – 来自此模块的有效修剪函数,或用户实现的自定义函数,该函数满足实现指南并具有 PRUNING_TYPE='unstructured'

  • importance_scores (字典) – 一个字典,将 (module, name) 元组映射到相应参数的重要性分数张量。张量的形状应与参数相同,并用于计算修剪的掩码。如果未指定或为 None,则将使用参数代替其重要性分数。

  • kwargs – 其他关键字参数,例如:amount (int 或 float):跨指定参数修剪的参数数量。如果为 float,则应在 0.0 和 1.0 之间,表示要修剪的参数的比例。如果为 int,则表示要修剪的参数的绝对数量。

引发

TypeError – 如果 PRUNING_TYPE != 'unstructured'

注意

由于全局结构化修剪在范数未按参数大小归一化的情况下没有太大意义,因此我们现在将全局修剪的范围限制在非结构化方法上。

示例

>>> from torch.nn.utils import prune
>>> from collections import OrderedDict
>>> net = nn.Sequential(OrderedDict([
...     ('first', nn.Linear(10, 4)),
...     ('second', nn.Linear(4, 1)),
... ]))
>>> parameters_to_prune = (
...     (net.first, 'weight'),
...     (net.second, 'weight'),
... )
>>> prune.global_unstructured(
...     parameters_to_prune,
...     pruning_method=prune.L1Unstructured,
...     amount=10,
... )
>>> print(sum(torch.nn.utils.parameters_to_vector(net.buffers()) == 0))
tensor(10)

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源