快捷方式

torch.nn.functional.silu

torch.nn.functional.silu(input, inplace=False)[源代码][源代码]

逐元素地应用 Sigmoid Linear Unit (SiLU) 函数。

SiLU 函数也称为 swish 函数。

silu(x)=xσ(x),where σ(x) is the logistic sigmoid.\text{silu}(x) = x * \sigma(x), \text{where } \sigma(x) \text{ is the logistic sigmoid.}

注意

参见 Gaussian Error Linear Units (GELUs),其中最初提出了 SiLU(Sigmoid Linear Unit),并参见 Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement LearningSwish: a Self-Gated Activation Function,其中 SiLU 在之后被实验验证。

有关更多详细信息,请参见 SiLU

返回类型

Tensor

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源