dequantize_affine¶
- torchao.quantization.dequantize_affine(input: Tensor, block_size: Tuple[int, ...], scale: Tensor, zero_point: Optional[Tensor], input_dtype: dtype, quant_min: Optional[Union[int, float]] = None, quant_max: Optional[Union[int, float]] = None, *, output_dtype: dtype = torch.float32) Tensor [源代码]¶
- 参数:
input (torch.Tensor) – 量化后的张量,应与 dtype 参数匹配
block_size – (List[int]): 量化的粒度,表示共享相同 qparam 的张量元素的尺寸。例如,当尺寸与输入张量维度相同时,我们使用逐张量量化。
scale (Tensor) – 仿射量化的量化参数
zero_point (Tensor) – 仿射量化的量化参数
input_dtype (torch.dtype) – 输出张量所需的 dtype(例如 torch.uint8)
quant_min (Optional[int]) – 输入张量的最小量化值
quant_max (Optional[int]) – 输入张量的最大量化值
output_dtype (torch.dtype) – 输出张量的 dtype,默认为 fp32
domain (zero_point 的默认值为整数) –
quantization (在进行反量化时,zero point 被加到量化整数值上) –
- 输出
反量化后的张量,具有所需的 dtype 或 fp32