快捷方式

torch.nn.functional.silu

torch.nn.functional.silu(input, inplace=False)[源文件][源文件]

逐元素应用 Sigmoid 线性单元 (SiLU) 函数。

SiLU 函数也称为 swish 函数。

silu(x)=xσ(x),where σ(x) is the logistic sigmoid.\text{silu}(x) = x * \sigma(x), \text{where } \sigma(x) \text{ is the logistic sigmoid.}

注意

参见 Gaussian Error Linear Units (GELUs)(SiLU (Sigmoid 线性单元) 最初在此提出),另参见 Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement LearningSwish: a Self-Gated Activation Function(SiLU 后来在此进行实验)。

更多详细信息请参阅 SiLU

返回类型

Tensor

文档

查阅 PyTorch 的全面开发者文档

查阅文档

教程

获取适合初学者和高级开发者的深度教程

查阅教程

资源

查找开发资源并解答问题

查阅资源