快捷方式

dequantize_affine

torchao.quantization.dequantize_affine(input: Tensor, block_size: Tuple[int, ...], scale: Tensor, zero_point: Optional[Tensor], input_dtype: dtype, quant_min: Optional[Union[int, float]] = None, quant_max: Optional[Union[int, float]] = None, zero_point_domain: ZeroPointDomain = ZeroPointDomain.INT, *, output_dtype: dtype = torch.float32) Tensor[source]
参数:
  • input (torch.Tensor) – 量化张量,应与 dtype 参数的数据类型匹配

  • block_size – (List[int]): 量化粒度,这意味着共享相同量化参数的张量元素的大小。例如,当大小与输入张量维度相同时,我们使用逐张量量化。

  • scale (Tensor) – 仿射量化的量化参数

  • zero_point (Tensor) – 仿射量化的量化参数

  • input_dtype (torch.dtype) – 请求的输出张量数据类型 (例如 torch.uint8)

  • quant_min (Optional[int]) – 输入张量的最小量化值

  • quant_max (Optional[int]) – 输入张量的最大量化值

  • output_dtype (torch.dtype) – 输出张量的数据类型,默认为 fp32

  • zero_point_domain (ZeroPointDomain) – zero_point 所在的域,如果 zero_point 在整数域中,则应为整数或浮点数;如果在整数域中,则在量化期间将零点添加到量化的整数值;如果 zero_point 在浮点域中,则在量化期间从浮点(非量化)值中减去零点;默认为 ZeroPointDomain.INT

输出

反量化张量,具有请求的数据类型或 fp32

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源