FromIntXQuantizationAwareTrainingConfig¶
- class torchao.quantization.qat.FromIntXQuantizationAwareTrainingConfig[source]¶
用于将带有假量化模块(如
FakeQuantizedLinear()
和FakeQuantizedEmbedding()
)的模型转换回具有原始相应模块(无假量化)的模型。此配置应与quantize_()
一起使用。使用示例
from torchao.quantization import quantize_ quantize_( model_with_fake_quantized_linears, FromIntXQuantizationAwareTrainingConfig(), )