torch.nn.functional.feature_alpha_dropout¶
- torch.nn.functional.feature_alpha_dropout(input, p=0.5, training=False, inplace=False)[source][source]¶
随机屏蔽掉整个通道(通道是特征图)。
例如,批次输入中第 个样本的第 个通道是输入张量 。与常规 Dropout 中将激活值设置为零不同,激活值被设置为 SELU 激活函数的负饱和值。
每个元素将在每次前向调用中以概率
p
独立地进行掩码,使用来自伯努利分布的样本。要掩码的元素在每次前向调用时随机化,并进行缩放和移位以保持零均值和单位方差。有关详细信息,请参阅
FeatureAlphaDropout
。