快捷方式

dequantize_affine

torchao.quantization.dequantize_affine(input: Tensor, block_size: Tuple[int, ...], scale: Tensor, zero_point: Optional[Tensor], input_dtype: dtype, quant_min: Optional[Union[int, float]] = None, quant_max: Optional[Union[int, float]] = None, *, output_dtype: dtype = torch.float32) Tensor[源代码]
参数:
  • input (torch.Tensor) – 量化后的张量,应与 dtype 参数匹配

  • block_size – (List[int]): 量化的粒度,表示共享相同 qparam 的张量元素的尺寸。例如,当尺寸与输入张量维度相同时,我们使用逐张量量化。

  • scale (Tensor) – 仿射量化的量化参数

  • zero_point (Tensor) – 仿射量化的量化参数

  • input_dtype (torch.dtype) – 输出张量所需的 dtype(例如 torch.uint8)

  • quant_min (Optional[int]) – 输入张量的最小量化值

  • quant_max (Optional[int]) – 输入张量的最大量化值

  • output_dtype (torch.dtype) – 输出张量的 dtype,默认为 fp32

  • domain (zero_point 的默认值为整数) –

  • quantization (在进行反量化时,zero point 被加到量化整数值上) –

输出

反量化后的张量,具有所需的 dtype 或 fp32

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

为初学者和高级开发者提供深入的教程

查看教程

资源

查找开发资源并让您的问题得到解答

查看资源