torch.nn.functional.silu¶
- torch.nn.functional.silu(input, inplace=False)[源代码][源代码]¶
逐元素地应用 Sigmoid Linear Unit (SiLU) 函数。
SiLU 函数也称为 swish 函数。
注意
参见 Gaussian Error Linear Units (GELUs),其中最初提出了 SiLU(Sigmoid Linear Unit),并参见 Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement Learning 和 Swish: a Self-Gated Activation Function,其中 SiLU 在之后被实验验证。
有关更多详细信息,请参见
SiLU
。- 返回类型