评价此页

leaky_relu#

class torch.ao.nn.quantized.functional.leaky_relu(input, negative_slope=0.01, inplace=False, scale=None, zero_point=None)[source]#

Quantized version of the. leaky_relu(input, negative_slope=0.01, inplace=False, scale, zero_point) -> Tensor

逐元素应用,LeakyReLU(x)=max(0,x)+negative_slopemin(0,x)\text{LeakyReLU}(x) = \max(0, x) + \text{negative\_slope} * \min(0, x)

参数
  • input (Tensor) – 量化输入

  • negative_slope (float) – 负输入的斜率

  • inplace (bool) – 输入张量的原地修改

  • scale (Optional[float]) – 输出张量的尺度(scale)和零点(zero point)。

  • zero_point (Optional[int]) – 输出张量的尺度(scale)和零点(zero point)。

有关更多详细信息,请参阅 LeakyReLU