torch.nn.utils.rnn.pad_packed_sequence¶
- torch.nn.utils.rnn.pad_packed_sequence(sequence, batch_first=False, padding_value=0.0, total_length=None)[source][source]¶
填充打包的变长序列批次。
它是
pack_padded_sequence()
的逆操作。返回的 Tensor 数据大小将是
T x B x *
(如果batch_first
是False
) 或B x T x *
(如果batch_first
是True
),其中T
是最长序列的长度,B
是批次大小。示例
>>> from torch.nn.utils.rnn import pack_padded_sequence, pad_packed_sequence >>> seq = torch.tensor([[1, 2, 0], [3, 0, 0], [4, 5, 6]]) >>> lens = [2, 1, 3] >>> packed = pack_padded_sequence(seq, lens, batch_first=True, enforce_sorted=False) >>> packed PackedSequence(data=tensor([4, 1, 3, 5, 2, 6]), batch_sizes=tensor([3, 2, 1]), sorted_indices=tensor([2, 0, 1]), unsorted_indices=tensor([1, 2, 0])) >>> seq_unpacked, lens_unpacked = pad_packed_sequence(packed, batch_first=True) >>> seq_unpacked tensor([[1, 2, 0], [3, 0, 0], [4, 5, 6]]) >>> lens_unpacked tensor([2, 1, 3])
注意
total_length
对于实现在DataParallel
包装的Module
中实现pack sequence -> recurrent network -> unpack sequence
模式很有用。详情请参见 此常见问题部分。- 参数
sequence (PackedSequence) – 要填充的批次
batch_first (bool, optional) – 如果为
True
,输出格式为B x T x *
;否则为T x B x *
。padding_value (float, optional) – 填充元素的值。
total_length (int, optional) – 如果不为
None
,输出将被填充到total_length
长度。如果total_length
小于sequence
中最长序列的长度,此方法将抛出ValueError
。
- 返回
包含填充后序列的 Tensor 元组,以及包含批次中每个序列长度列表的 Tensor。批次元素将按照最初传递给
pack_padded_sequence
或pack_sequence
时的顺序重新排序。- 返回类型