快捷方式

prepare_qat

torch.ao.quantization.prepare_qat(model, mapping=None, inplace=False)[源][源]

为量化校准或量化感知训练 (QAT) 准备模型的副本,并将其转换为量化版本。

量化配置应预先分配给各个子模块的 .qconfig 属性。

参数
  • model – 要进行就地修改的输入模型

  • mapping – 映射浮点模块到要替换的量化模块的字典。

  • inplace – 就地执行模型转换,原模块会被修改

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源