RNNTLoss¶
- class torchaudio.transforms.RNNTLoss(blank: int = -1, clamp: float = -1.0, reduction: str = 'mean', fused_log_softmax: bool = True)[source]¶
从 使用循环神经网络进行序列转导 [Graves, 2012] 计算 RNN 转导损失。
RNN 转导损失通过定义所有长度的输出序列的分布,以及通过联合建模输入-输出和输出-输出依赖关系来扩展 CTC 损失。
- 参数:
- 示例
>>> # Hypothetical values >>> logits = torch.tensor([[[[0.1, 0.6, 0.1, 0.1, 0.1], >>> [0.1, 0.1, 0.6, 0.1, 0.1], >>> [0.1, 0.1, 0.2, 0.8, 0.1]], >>> [[0.1, 0.6, 0.1, 0.1, 0.1], >>> [0.1, 0.1, 0.2, 0.1, 0.1], >>> [0.7, 0.1, 0.2, 0.1, 0.1]]]], >>> dtype=torch.float32, >>> requires_grad=True) >>> targets = torch.tensor([[1, 2]], dtype=torch.int) >>> logit_lengths = torch.tensor([2], dtype=torch.int) >>> target_lengths = torch.tensor([2], dtype=torch.int) >>> transform = transforms.RNNTLoss(blank=0) >>> loss = transform(logits, targets, logit_lengths, target_lengths) >>> loss.backward()
- forward(logits: Tensor, targets: Tensor, logit_lengths: Tensor, target_lengths: Tensor)[source]¶
- 参数:
logits (张量) – 维度为 (batch, max seq length, max target length + 1, class) 的张量,包含来自连接器的输出
targets (张量) – 维度为 (batch, max target length) 的张量,包含零填充的目标
logit_lengths (张量) – 维度为 (batch) 的张量,包含来自编码器的每个序列的长度
target_lengths (张量) – 维度为 (batch) 的张量,包含每个序列的目标长度
- 返回值:
应用了减少选项的损失。如果
reduction
为"none"
,则大小为 (batch),否则为标量。- 返回类型:
张量