快捷方式

torch.nn.functional.gelu

torch.nn.functional.gelu(input, approximate='none') Tensor

当 approximate 参数为 ‘none’ 时,它逐元素地应用函数 GELU(x)=xΦ(x)\text{GELU}(x) = x * \Phi(x)

其中 Φ(x)\Phi(x) 是高斯分布的累积分布函数。

当 approximate 参数为 ‘tanh’ 时,Gelu 使用以下公式估算:

GELU(x)=0.5x(1+Tanh(2/π(x+0.044715x3)))\text{GELU}(x) = 0.5 * x * (1 + \text{Tanh}(\sqrt{2 / \pi} * (x + 0.044715 * x^3)))

请参阅 Gaussian Error Linear Units (GELUs)

文档

访问 PyTorch 的综合开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得您的问题解答

查看资源