torch.nn.functional.silu¶
- torch.nn.functional.silu(input, inplace=False)[源文件][源文件]¶
逐元素应用 Sigmoid 线性单元 (SiLU) 函数。
SiLU 函数也称为 swish 函数。
注意
参见 Gaussian Error Linear Units (GELUs)(SiLU (Sigmoid 线性单元) 最初在此提出),另参见 Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement Learning 和 Swish: a Self-Gated Activation Function(SiLU 后来在此进行实验)。
更多详细信息请参阅
SiLU
。- 返回类型