torch.nn.functional.feature_alpha_dropout#
- torch.nn.functional.feature_alpha_dropout(input, p=0.5, training=False, inplace=False)[source]#
随机掩码掉整个通道(通道即特征图)。
例如,批输入中第 个样本的第 个通道是输入张量的一个张量 。与常规 Dropout 将激活设置为零不同,此处的激活被设置为 SELU 激活函数的负饱和值。
使用来自伯努利分布的样本,每个元素将以
p
的概率在每次前向调用时独立地被掩码。被掩码的元素将在每次前向调用时随机生成,并进行缩放和移位,以保持零均值和单位方差。有关详细信息,请参阅
FeatureAlphaDropout
。