快捷方式

torch.nn.functional.gelu

torch.nn.functional.gelu(input, approximate='none') Tensor

当 approximate 参数为 'none' 时,按元素应用以下函数 GELU(x)=xΦ(x)\text{GELU}(x) = x * \Phi(x)

其中 Φ(x)\Phi(x) 是高斯分布的累积分布函数。

当 approximate 参数为 'tanh' 时,Gelu 通过以下公式近似计算:

GELU(x)=0.5x(1+Tanh(2/π(x+0.044715x3)))\text{GELU}(x) = 0.5 * x * (1 + \text{Tanh}(\sqrt{2 / \pi} * (x + 0.044715 * x^3)))

参见 高斯误差线性单元 (GELUs)

文档

查阅 PyTorch 的完整开发者文档

查看文档

教程

获取针对初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源