快捷方式

LeakyReLU

class torch.nn.LeakyReLU(negative_slope=0.01, inplace=False)[源代码]

按元素应用 LeakyReLU 函数。

LeakyReLU(x)=max(0,x)+negative_slopemin(0,x)\text{LeakyReLU}(x) = \max(0, x) + \text{negative\_slope} * \min(0, x)

或者

LeakyReLU(x)={x, if x0negative_slope×x, otherwise \text{LeakyReLU}(x) = \begin{cases} x, & \text{ if } x \geq 0 \\ \text{negative\_slope} \times x, & \text{ otherwise } \end{cases}
参数
  • negative_slope (float) – 控制负斜率的角度(用于负输入值)。默认值:1e-2

  • inplace (bool) – 可选地就地执行操作。默认值:False

形状
  • 输入:()(*) 其中 * 表示任何数量的额外维度

  • 输出:()(*),与输入形状相同

../_images/LeakyReLU.png

示例

>>> m = nn.LeakyReLU(0.1)
>>> input = torch.randn(2)
>>> output = m(input)

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源