评价此页

swap_module#

class torch.ao.quantization.swap_module(mod, mapping, custom_module_class_mapping, use_precomputed_fake_quant=False)[源]#

如果模块有量化对应的模块,并且该模块已附加了“观察者”,则交换该模块。

参数
  • mod – 输入模块

  • mapping – 一个将 nn 模块映射到 nnq 模块的字典

返回

mod 对应的量化模块