快捷方式

LinearReLU

class torch.ao.nn.intrinsic.quantized.dynamic.LinearReLU(in_features, out_features, bias=True, dtype=torch.qint8)[来源][来源]

一个由 Linear 和 ReLU 模块融合而成的 LinearReLU 模块,可用于动态量化。支持 FP16 和 INT8 量化。

我们采用与 torch.ao.nn.quantized.dynamic.Linear 相同的接口。

变量

torch.ao.nn.quantized.dynamic.Linear (同上) –

示例

>>> m = nn.intrinsic.quantized.dynamic.LinearReLU(20, 30)
>>> input = torch.randn(128, 20)
>>> output = m(input)
>>> print(output.size())
torch.Size([128, 30])

文档

查阅全面的 PyTorch 开发者文档

查看文档

教程

获取适合初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并解答您的疑问

查看资源