LinearReLU¶
- class torch.ao.nn.intrinsic.quantized.LinearReLU(in_features, out_features, bias=True, dtype=torch.qint8)[source]¶
一个由线性层和 ReLU 层融合而成的 LinearReLU 模块
我们采用与
torch.ao.nn.quantized.Linear
相同的接口。- 变量
torch.ao.nn.quantized.Linear (相同于) –
示例
>>> m = nn.intrinsic.LinearReLU(20, 30) >>> input = torch.randn(128, 20) >>> output = m(input) >>> print(output.size()) torch.Size([128, 30])