快捷方式

Softmax

torch.nn.Softmax(dim=None)[源代码][源代码]

将 Softmax 函数应用于 n 维输入 Tensor。

对其进行重新缩放,使 n 维输出 Tensor 的元素位于范围 [0,1] 内,且总和为 1。

Softmax 的定义如下:

Softmax(xi)=exp(xi)jexp(xj)\text{Softmax}(x_{i}) = \frac{\exp(x_i)}{\sum_j \exp(x_j)}

当输入 Tensor 是一个稀疏 Tensor 时,未指定的值被视为 -inf

形状
  • 输入: ()(*) 其中 * 表示任意数量的额外维度

  • 输出: ()(*),与输入具有相同的形状

返回

一个与输入具有相同维度和形状,且值在 [0, 1] 范围内的 Tensor

参数

dim (int) – 计算 Softmax 的维度(因此沿着 dim 的每个切片总和为 1)。

返回类型

None

注意

此模块不直接与 NLLLoss 一起使用,NLLLoss 期望在 Softmax 和自身之间计算 Log。请改用 LogSoftmax(它更快,且具有更好的数值特性)。

示例

>>> m = nn.Softmax(dim=1)
>>> input = torch.randn(2, 3)
>>> output = m(input)

文档

查阅 PyTorch 全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并解答疑问

查看资源