快捷方式

torch.nn.functional.softmax

torch.nn.functional.softmax(input, dim=None, _stacklevel=3, dtype=None)[源代码]

应用 softmax 函数。

softmax 定义为

Softmax(xi)=exp(xi)jexp(xj)\text{Softmax}(x_{i}) = \frac{\exp(x_i)}{\sum_j \exp(x_j)}

它应用于沿 dim 的所有切片,并将重新缩放它们,以便元素位于范围 [0, 1] 内,并且总和为 1。

有关更多详细信息,请参阅 Softmax

参数
  • input (张量) – 输入

  • dim (int) – 将计算 softmax 的维度。

  • dtype (torch.dtype,可选) – 返回张量的所需数据类型。如果指定,则在执行操作之前将输入张量转换为 dtype。这有助于防止数据类型溢出。默认值:None。

返回类型

张量

注意

此函数不直接与 NLLLoss 配合使用,后者期望在 Softmax 和自身之间计算 Log。请改用 log_softmax(它更快且具有更好的数值特性)。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获取问题的解答

查看资源