prepare_qat¶ 类 torch.ao.quantization.prepare_qat(model, mapping=None, inplace=False)[源][源]¶ 为量化校准或量化感知训练 (QAT) 准备模型的副本,并将其转换为量化版本。 量化配置应预先分配给各个子模块的 .qconfig 属性。 参数 model – 要进行就地修改的输入模型 mapping – 映射浮点模块到要替换的量化模块的字典。 inplace – 就地执行模型转换,原模块会被修改