FromIntXQuantizationAwareTrainingConfig¶
- class torchao.quantization.qat.FromIntXQuantizationAwareTrainingConfig[source]¶
(已弃用) 请使用
QATConfig
代替。用于将带有伪量化模块(如
FakeQuantizedLinear()
和FakeQuantizedEmbedding()
)的模型转换回带有原始相应模块(无伪量化)的模型。此配置应与quantize_()
一起使用。使用示例
from torchao.quantization import quantize_ quantize_( model_with_fake_quantized_linears, FromIntXQuantizationAwareTrainingConfig(), )