torch.Tensor.resize_¶
- Tensor.resize_(*sizes, memory_format=torch.contiguous_format) Tensor ¶
将
self
张量调整为指定大小。如果元素数量大于当前存储大小,则会调整底层存储大小以适应新的元素数量。如果元素数量较小,则底层存储大小不会改变。现有元素将被保留,但任何新内存都将未初始化。警告
这是一个底层方法。存储被重新解释为 C 连续的,忽略当前的步幅(除非目标大小等于当前大小,在这种情况下,张量保持不变)。对于大多数用途,您可能更希望使用
view()
,它会检查连续性,或者reshape()
,它会在需要时复制数据。要在原地使用自定义步幅更改大小,请参阅set_()
。注意
如果
torch.use_deterministic_algorithms()
和torch.utils.deterministic.fill_uninitialized_memory
都设置为True
,则新元素将被初始化以防止因使用结果作为操作的输入而导致的不确定性行为。浮点值和复数值设置为 NaN,整数值设置为最大值。- 参数
sizes (torch.Size 或 int...) – 所需大小
memory_format (
torch.memory_format
, 可选) – Tensor 的所需内存格式。默认值:torch.contiguous_format
。请注意,如果self.size()
与sizes
匹配,则self
的内存格式将不受影响。
示例
>>> x = torch.tensor([[1, 2], [3, 4], [5, 6]]) >>> x.resize_(2, 2) tensor([[ 1, 2], [ 3, 4]])