快捷方式

LinearReLU¶

class torch.ao.nn.intrinsic.qat.LinearReLU(in_features, out_features, bias=True, qconfig=None)[源][源]

一个由 Linear 和 ReLU 模块融合而成的 LinearReLU 模块,附加了用于权重的 FakeQuantize 模块,用于量化感知训练。

我们采用了与 torch.nn.Linear 相同的接口。

torch.ao.nn.intrinsic.LinearReLU 类似,FakeQuantize 模块已初始化为默认值。

变量

weight (torch.Tensor) – 权重的假量化模块

示例

>>> m = nn.qat.LinearReLU(20, 30)
>>> input = torch.randn(128, 20)
>>> output = m(input)
>>> print(output.size())
torch.Size([128, 30])

文档

访问 PyTorch 的综合开发者文档

查看文档

教程

获取针对初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并解答疑问

查看资源