FeatureAlphaDropout¶
- class torch.nn.FeatureAlphaDropout(p=0.5, inplace=False)[source][source]¶
随机地屏蔽整个通道。
通道是一个特征图,例如,批输入中第 个样本的第 个通道是输入张量的张量 )。与常规 Dropout 中将激活设置为零不同,激活被设置为 SELU 激活函数的负饱和值。更多细节可以在论文 自归一化神经网络 中找到 。
对于每次前向调用,每个元素将以概率
p
独立地为每个样本进行屏蔽,使用来自伯努利分布的样本。要屏蔽的元素在每次前向调用时都是随机的,并且经过缩放和移位以保持零均值和单位方差。通常,输入来自
nn.AlphaDropout
模块。正如论文 使用卷积网络的高效对象定位 中所述,如果特征图内的相邻像素强相关(早期卷积层中通常如此),则 i.i.d. dropout 将不会正则化激活,否则只会导致有效的学习率降低。
在这种情况下,
nn.AlphaDropout()
将有助于促进特征图之间的独立性,并且应该改用它。- 形状
输入: 或 。
输出: 或 (与输入形状相同)。
示例
>>> m = nn.FeatureAlphaDropout(p=0.2) >>> input = torch.randn(20, 16, 4, 32, 32) >>> output = m(input)