评价此页

prepare_qat#

class torch.ao.quantization.prepare_qat(model, mapping=None, inplace=False)[source]#

将模型副本准备好进行量化校准或量化感知训练,并将其转换为量化版本。

应预先在各个子模块的 .qconfig 属性中分配量化配置。

参数
  • model – 要就地修改的输入模型

  • mapping – 将浮点模块映射到要替换的量化模块的字典。

  • inplace – 就地执行模型转换,原始模块将被修改