快捷方式

RNNTLoss

class torchaudio.transforms.RNNTLoss(blank: int = -1, clamp: float = -1.0, reduction: str = 'mean', fused_log_softmax: bool = True)[source]

使用循环神经网络进行序列转导 [Graves, 2012] 计算 RNN 转导损失。

This feature supports the following devices: CPU, CUDA This API supports the following properties: Autograd, TorchScript

RNN 转导损失通过定义所有长度的输出序列的分布,以及通过联合建模输入-输出和输出-输出依赖关系来扩展 CTC 损失。

参数:
  • blank (int, 可选) – 空白标签(默认值:-1

  • clamp (float, 可选) – 梯度钳位(默认值:-1

  • reduction (字符串, 可选) – 指定要应用于输出的减少:"none" | "mean" | "sum"。(默认值:"mean"

  • fused_log_softmax (bool) – 如果在损失外部调用 log_softmax 则设置为 False(默认值:True

示例
>>> # Hypothetical values
>>> logits = torch.tensor([[[[0.1, 0.6, 0.1, 0.1, 0.1],
>>>                          [0.1, 0.1, 0.6, 0.1, 0.1],
>>>                          [0.1, 0.1, 0.2, 0.8, 0.1]],
>>>                         [[0.1, 0.6, 0.1, 0.1, 0.1],
>>>                          [0.1, 0.1, 0.2, 0.1, 0.1],
>>>                          [0.7, 0.1, 0.2, 0.1, 0.1]]]],
>>>                       dtype=torch.float32,
>>>                       requires_grad=True)
>>> targets = torch.tensor([[1, 2]], dtype=torch.int)
>>> logit_lengths = torch.tensor([2], dtype=torch.int)
>>> target_lengths = torch.tensor([2], dtype=torch.int)
>>> transform = transforms.RNNTLoss(blank=0)
>>> loss = transform(logits, targets, logit_lengths, target_lengths)
>>> loss.backward()
forward(logits: Tensor, targets: Tensor, logit_lengths: Tensor, target_lengths: Tensor)[source]
参数:
  • logits (张量) – 维度为 (batch, max seq length, max target length + 1, class) 的张量,包含来自连接器的输出

  • targets (张量) – 维度为 (batch, max target length) 的张量,包含零填充的目标

  • logit_lengths (张量) – 维度为 (batch) 的张量,包含来自编码器的每个序列的长度

  • target_lengths (张量) – 维度为 (batch) 的张量,包含每个序列的目标长度

返回值:

应用了减少选项的损失。如果 reduction"none",则大小为 (batch),否则为标量。

返回类型:

张量

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源