快捷方式

线性

class torch.ao.nn.quantized.Linear(in_features, out_features, bias_=True, dtype=torch.qint8)[源代码]

具有量化张量作为输入和输出的量化线性模块。我们采用与 torch.nn.Linear 相同的接口,请参阅 https://pytorch.ac.cn/docs/stable/nn.html#torch.nn.Linear 以获取文档。

类似于 Linear,属性将在模块创建时随机初始化,并将在以后被覆盖。

变量
  • weight (张量) – 模块的不可学习量化权重,形状为 (out_features,in_features)(\text{out\_features}, \text{in\_features}).

  • bias (张量) – 模块的不可学习偏差,形状为 (out_features)(\text{out\_features}). 如果 biasTrue,则值将初始化为零。

  • scale – 输出量化张量的 scale 参数,类型:double

  • zero_point – 输出量化张量的 zero_point 参数,类型:long

示例

>>> m = nn.quantized.Linear(20, 30)
>>> input = torch.randn(128, 20)
>>> input = torch.quantize_per_tensor(input, 1.0, 0, torch.quint8)
>>> output = m(input)
>>> print(output.size())
torch.Size([128, 30])
classmethod from_float(mod, use_precomputed_fake_quant=False)[源代码]

从观察到的浮点模块创建量化模块

参数
  • mod (模块) – 浮点模块,由 torch.ao.quantization 实用程序生成或由用户提供

  • use_precomputed_fake_quant (布尔) – 如果为 True,则模块将重用来自预计算的假量化模块的最小值/最大值。

classmethod from_reference(ref_qlinear, output_scale, output_zero_point)[源代码]

从参考量化模块创建(fbgemm/qnnpack)量化模块

参数
  • ref_qlinear (模块) – 参考量化线性模块,由 torch.ao.quantization 实用程序生成或由用户提供

  • output_scale (浮点) – 输出张量的比例

  • output_zero_point (整数) – 输出张量的零点

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源