评价此页

torch.nn.utils.rnn.pad_packed_sequence#

torch.nn.utils.rnn.pad_packed_sequence(sequence, batch_first=False, padding_value=0.0, total_length=None)[源码]#

填充一个已打包的可变长度序列批次。

它是 pack_padded_sequence() 的逆操作。

返回的 Tensor 的数据大小将是 T x B x * (如果 batch_firstFalse) 或 B x T x * (如果 batch_firstTrue) ,其中 T 是最长序列的长度,B 是批次大小。

示例

>>> from torch.nn.utils.rnn import pack_padded_sequence, pad_packed_sequence
>>> seq = torch.tensor([[1, 2, 0], [3, 0, 0], [4, 5, 6]])
>>> lens = [2, 1, 3]
>>> packed = pack_padded_sequence(
...     seq, lens, batch_first=True, enforce_sorted=False
... )
>>> packed
PackedSequence(data=tensor([4, 1, 3, 5, 2, 6]), batch_sizes=tensor([3, 2, 1]),
               sorted_indices=tensor([2, 0, 1]), unsorted_indices=tensor([1, 2, 0]))
>>> seq_unpacked, lens_unpacked = pad_packed_sequence(packed, batch_first=True)
>>> seq_unpacked
tensor([[1, 2, 0],
        [3, 0, 0],
        [4, 5, 6]])
>>> lens_unpacked
tensor([2, 1, 3])

注意

total_length 对于在 Module 中包装的 DataParallel 实现 pack sequence -> recurrent network -> unpack sequence 模式非常有用。详情请参见 本 FAQ 部分

参数
  • sequence (PackedSequence) – 要填充的批次

  • batch_first (bool, optional) – 如果为 True,输出格式为 B x T x *,否则为 T x B x *

  • padding_value (float, optional) – 填充元素的取值。

  • total_length (int, optional) – 如果不为 None,则输出将填充到长度为 total_length。如果 total_length 小于 sequence 中的最大序列长度,此方法将抛出 ValueError

返回

包含填充序列的 Tensor 和包含批次中每个序列长度的 Tensor 的元组。批次元素将按原始传递给 pack_padded_sequencepack_sequence 时的顺序重新排序。

返回类型

tuple[torch.Tensor, torch.Tensor]