快捷方式

AlphaDropout

torch.nn.AlphaDropout(p=0.5, inplace=False)[source][source]

对输入应用 Alpha Dropout。

Alpha Dropout 是一种 Dropout 类型,它保持自归一化特性。对于均值为零和单位标准差的输入,Alpha Dropout 的输出保持输入的原始均值和标准差。Alpha Dropout 与 SELU 激活函数密切相关,SELU 激活函数确保输出具有零均值和单位标准差。

在训练期间,它使用伯努利分布的样本,以概率 p 随机屏蔽输入张量的一些元素。要屏蔽的元素在每次前向调用时随机化,并进行缩放和移位以保持零均值和单位标准差。

在评估期间,该模块仅计算恒等函数。

更多详细信息可以在论文 Self-Normalizing Neural Networks 中找到。

参数
  • p (float) – 元素被丢弃的概率。默认值:0.5

  • inplace (bool, 可选) – 如果设置为 True,将进行原地操作

形状
  • 输入: ()(*)。输入可以是任意形状

  • 输出: ()(*)。输出与输入形状相同

示例

>>> m = nn.AlphaDropout(p=0.2)
>>> input = torch.randn(20, 16)
>>> output = m(input)

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得解答

查看资源