Quantized version of the. leaky_relu(input, negative_slope=0.01, inplace=False, scale, zero_point) -> Tensor
逐元素应用,LeakyReLU(x)=max(0,x)+negative_slope∗min(0,x)
- 参数
input (Tensor) – 量化输入
negative_slope (float) – 负输入的斜率
inplace (bool) – 输入张量的原地修改
scale (Optional[float]) – 输出张量的尺度(scale)和零点(zero point)。
zero_point (Optional[int]) – 输出张量的尺度(scale)和零点(zero point)。
有关更多详细信息,请参阅 LeakyReLU
。