快捷方式

Embedding

class torch.ao.nn.quantized.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None, dtype=torch.quint8)[source][source]

一个量化的 Embedding 模块,输入为量化后的 packed 权重。我们采用了与 torch.nn.Embedding 相同的接口,更多文档请参考 https://pytorch.ac.cn/docs/stable/generated/torch.nn.Embedding.html

Embedding 类似,属性在模块创建时会随机初始化,之后会被覆盖。

变量

weight (Tensor) – 模块的非可学习量化权重,形状为 (num_embeddings,embedding_dim)(\text{num\_embeddings}, \text{embedding\_dim})

示例:
>>> m = nn.quantized.Embedding(num_embeddings=10, embedding_dim=12)
>>> indices = torch.tensor([9, 6, 5, 7, 8, 8, 9, 2, 8])
>>> output = m(indices)
>>> print(output.size())
torch.Size([9, 12])
classmethod from_float(mod, use_precomputed_fake_quant=False)[source][source]

从 float 模块创建一个量化 embedding 模块

参数

mod (Module) – 一个 float 模块,可以由 torch.ao.quantization 工具生成,也可以由用户提供


© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,主题由 Read the Docs 提供。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源