快捷方式

leaky_relu

class torch.ao.nn.quantized.functional.leaky_relu(input, negative_slope=0.01, inplace=False, scale=None, zero_point=None)[源代码]

. leaky_relu(input, negative_slope=0.01, inplace=False, scale, zero_point) -> Tensor 的量化版本

应用逐元素运算,LeakyReLU(x)=max(0,x)+negative_slopemin(0,x)\text{LeakyReLU}(x) = \max(0, x) + \text{negative\_slope} * \min(0, x)

参数
  • input (张量) – 量化输入

  • negative_slope (浮点数) – 负输入的斜率

  • inplace (布尔值) – 对输入张量的就地修改

  • scale (可选[浮点数]) – 输出张量的比例和零点。

  • zero_point (可选[整数]) – 输出张量的比例和零点。

有关更多详细信息,请参见 LeakyReLU

文档

访问 PyTorch 的综合开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源