RNNTLoss¶
- class torchaudio.transforms.RNNTLoss(blank: int = -1, clamp: float = -1.0, reduction: str = 'mean', fused_log_softmax: bool = True)[源代码]¶
已弃用
警告
该类已从 2.8 版本开始弃用。它将在 2.9 版本中移除。此次弃用是旨在将 TorchAudio 迁移到维护阶段的大规模重构工作的一部分。请参阅 https://github.com/pytorch/audio/issues/3902 获取更多信息。
- 根据Sequence Transduction with Recurrent Neural Networks计算 RNN Transducer 损失
[Graves, 2012].
RNN Transducer 损失通过定义一个关于所有长度的输出序列的分布,并联合建模输入-输出和输出-输出依赖关系来扩展 CTC 损失。
- 参数 (Args)
blank (int, optional): blank 标签 (默认:
-1
) clamp (float, optional): 梯度的夹值 (默认:-1
) reduction (string, optional): 指定应用于输出的约简方式"none"
|"mean"
|"sum"
。(默认:"mean"
)fused_log_softmax (bool): 如果在损失函数外调用 log_softmax,则设置为 False (默认:
True
)- 示例
>>> # Hypothetical values >>> logits = torch.tensor([[[[0.1, 0.6, 0.1, 0.1, 0.1], >>> [0.1, 0.1, 0.6, 0.1, 0.1], >>> [0.1, 0.1, 0.2, 0.8, 0.1]], >>> [[0.1, 0.6, 0.1, 0.1, 0.1], >>> [0.1, 0.1, 0.2, 0.1, 0.1], >>> [0.7, 0.1, 0.2, 0.1, 0.1]]]], >>> dtype=torch.float32, >>> requires_grad=True) >>> targets = torch.tensor([[1, 2]], dtype=torch.int) >>> logit_lengths = torch.tensor([2], dtype=torch.int) >>> target_lengths = torch.tensor([2], dtype=torch.int) >>> transform = transforms.RNNTLoss(blank=0) >>> loss = transform(logits, targets, logit_lengths, target_lengths) >>> loss.backward()
- forward(logits: Tensor, targets: Tensor, logit_lengths: Tensor, target_lengths: Tensor)[源代码]¶
- 参数
logits (Tensor) – 维度为 (batch, max seq length, max target length + 1, class) 的 Tensor,包含来自 joiner 的输出
targets (Tensor) – 维度为 (batch, max target length) 的 Tensor,包含带有零填充的目标
logit_lengths (Tensor) – 维度为 (batch) 的 Tensor,包含来自编码器的每个序列的长度
target_lengths (Tensor) – 维度为 (batch) 的 Tensor,包含每个序列的目标长度
- 返回
应用了约简选项的损失。如果
reduction
为"none"
,则大小为 (batch),否则为标量。- 返回类型
张量