快捷方式

Int4WeightOnlyEmbeddingQATQuantizer

class torchao.quantization.qat.Int4WeightOnlyEmbeddingQATQuantizer(group_size: int = 256, scale_precision: dtype = torch.float32, zero_point_precision: dtype = torch.int32)[source]

用于对模型执行 QAT 的量化器,其中 embedding 层具有 int4 按通道假量化的分组权重。

convert(model: Module, *args: Any, **kwargs: Any) Module[source]

将所有 Int4WeightOnlyQATEmbedding 模块与 Int4WeightOnlyEmbedding 交换。

prepare(model: Module, *args: Any, **kwargs: Any) Module[source]

nn.Embedding 模块与 Int4WeightOnlyQATEmbedding 交换。

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

为初学者和高级开发者提供深入的教程

查看教程

资源

查找开发资源并让您的问题得到解答

查看资源