快捷方式

FromIntXQuantizationAwareTrainingConfig

class torchao.quantization.qat.FromIntXQuantizationAwareTrainingConfig[source]

用于将带有假量化模块(如 FakeQuantizedLinear()FakeQuantizedEmbedding())的模型转换回具有原始相应模块(无假量化)的模型。此配置应与 quantize_() 一起使用。

使用示例

from torchao.quantization import quantize_
quantize_(
    model_with_fake_quantized_linears,
    FromIntXQuantizationAwareTrainingConfig(),
)

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

为初学者和高级开发者提供深入的教程

查看教程

资源

查找开发资源并让您的问题得到解答

查看资源