SiLU¶
- class torch.nn.SiLU(inplace=False)[源码][源码]¶
逐元素地应用 Sigmoid Linear Unit (SiLU) 函数。
SiLU 函数也称为 swish 函数。
注意
请参阅 Gaussian Error Linear Units (GELUs) 其中首次提出了 SiLU (Sigmoid Linear Unit),并请参阅 Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement Learning 和 Swish: a Self-Gated Activation Function 其中后来对 SiLU 进行了实验。
- 形状
输入: , 其中 表示任意数量的维度。
输出: , 与输入形状相同。
示例
>>> m = nn.SiLU() >>> input = torch.randn(2) >>> output = m(input)