快捷方式

torch.Tensor.resize_

Tensor.resize_(*sizes, memory_format=torch.contiguous_format) Tensor

self 张量调整为指定大小。如果元素数量大于当前存储大小,则会调整底层存储大小以适应新的元素数量。如果元素数量较小,则底层存储大小不会改变。现有元素将被保留,但任何新内存都将未初始化。

警告

这是一个底层方法。存储被重新解释为 C 连续的,忽略当前的步幅(除非目标大小等于当前大小,在这种情况下,张量保持不变)。对于大多数用途,您可能更希望使用 view(),它会检查连续性,或者 reshape(),它会在需要时复制数据。要在原地使用自定义步幅更改大小,请参阅 set_()

注意

如果 torch.use_deterministic_algorithms()torch.utils.deterministic.fill_uninitialized_memory 都设置为 True,则新元素将被初始化以防止因使用结果作为操作的输入而导致的不确定性行为。浮点值和复数值设置为 NaN,整数值设置为最大值。

参数
  • sizes (torch.Sizeint...) – 所需大小

  • memory_format (torch.memory_format, 可选) – Tensor 的所需内存格式。默认值:torch.contiguous_format。请注意,如果 self.size()sizes 匹配,则 self 的内存格式将不受影响。

示例

>>> x = torch.tensor([[1, 2], [3, 4], [5, 6]])
>>> x.resize_(2, 2)
tensor([[ 1,  2],
        [ 3,  4]])

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得您的问题解答

查看资源