上采样¶
- class torch.nn.Upsample(size=None, scale_factor=None, mode='nearest', align_corners=None, recompute_scale_factor=None)[source]¶
对给定的多通道 1D(时间)、2D(空间)或 3D(体积)数据进行上采样。
假定输入数据的形式为 minibatch x channels x [optional depth] x [optional height] x width。因此,对于空间输入,我们期望一个 4D 张量,对于体积输入,我们期望一个 5D 张量。
可用于上采样的算法有最近邻和线性、双线性、双三次和三线性,分别对应 3D、4D 和 5D 输入张量。
您可以给出
scale_factor
或目标输出size
来计算输出大小。(您不能同时给出两者,因为这模棱两可)- 参数
size (int 或 Tuple[int] 或 Tuple[int, int] 或 Tuple[int, int, int], 可选) – 输出空间大小
scale_factor (float 或 Tuple[float] 或 Tuple[float, float] 或 Tuple[float, float, float], 可选) – 空间大小的乘数。如果它是一个元组,则必须与输入大小匹配。
mode (str, 可选) – 上采样算法:
'nearest'
、'linear'
、'bilinear'
、'bicubic'
和'trilinear'
之一。默认:'nearest'
align_corners (bool, 可选) – 如果为
True
,则对齐输入和输出张量的角像素,从而保留这些像素的值。当mode
为'linear'
、'bilinear'
、'bicubic'
或'trilinear'
时,此操作才会生效。默认:False
recompute_scale_factor (bool, 可选) – 重新计算 scale_factor 以用于插值计算。如果 recompute_scale_factor 为
True
,则必须传入 scale_factor,并且 scale_factor 用于计算输出 size。计算出的输出 size 将用于推断用于插值的新的比例因子。请注意,当 scale_factor 为浮点数时,它可能与重新计算的 scale_factor 不同,因为存在舍入和精度问题。如果 recompute_scale_factor 为False
,则将直接使用 size 或 scale_factor 进行插值。
- 形状
输入:, 或
输出:, 或 , 其中
警告
当
align_corners = True
时,线性插值模式(linear、bilinear、bicubic 和 trilinear)不会按比例对齐输出和输入像素,因此输出值可能取决于输入大小。 这是这些模式在 0.3.1 版本之前默认的行为。 从那时起,默认行为是align_corners = False
。 请参见下面的具体示例,了解这将如何影响输出。注意
如果需要降采样/一般调整大小,应该使用
interpolate()
。示例
>>> input = torch.arange(1, 5, dtype=torch.float32).view(1, 1, 2, 2) >>> input tensor([[[[1., 2.], [3., 4.]]]]) >>> m = nn.Upsample(scale_factor=2, mode='nearest') >>> m(input) tensor([[[[1., 1., 2., 2.], [1., 1., 2., 2.], [3., 3., 4., 4.], [3., 3., 4., 4.]]]]) >>> m = nn.Upsample(scale_factor=2, mode='bilinear') # align_corners=False >>> m(input) tensor([[[[1.0000, 1.2500, 1.7500, 2.0000], [1.5000, 1.7500, 2.2500, 2.5000], [2.5000, 2.7500, 3.2500, 3.5000], [3.0000, 3.2500, 3.7500, 4.0000]]]]) >>> m = nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True) >>> m(input) tensor([[[[1.0000, 1.3333, 1.6667, 2.0000], [1.6667, 2.0000, 2.3333, 2.6667], [2.3333, 2.6667, 3.0000, 3.3333], [3.0000, 3.3333, 3.6667, 4.0000]]]]) >>> # Try scaling the same data in a larger tensor >>> input_3x3 = torch.zeros(3, 3).view(1, 1, 3, 3) >>> input_3x3[:, :, :2, :2].copy_(input) tensor([[[[1., 2.], [3., 4.]]]]) >>> input_3x3 tensor([[[[1., 2., 0.], [3., 4., 0.], [0., 0., 0.]]]]) >>> m = nn.Upsample(scale_factor=2, mode='bilinear') # align_corners=False >>> # Notice that values in top left corner are the same with the small input (except at boundary) >>> m(input_3x3) tensor([[[[1.0000, 1.2500, 1.7500, 1.5000, 0.5000, 0.0000], [1.5000, 1.7500, 2.2500, 1.8750, 0.6250, 0.0000], [2.5000, 2.7500, 3.2500, 2.6250, 0.8750, 0.0000], [2.2500, 2.4375, 2.8125, 2.2500, 0.7500, 0.0000], [0.7500, 0.8125, 0.9375, 0.7500, 0.2500, 0.0000], [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000]]]]) >>> m = nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True) >>> # Notice that values in top left corner are now changed >>> m(input_3x3) tensor([[[[1.0000, 1.4000, 1.8000, 1.6000, 0.8000, 0.0000], [1.8000, 2.2000, 2.6000, 2.2400, 1.1200, 0.0000], [2.6000, 3.0000, 3.4000, 2.8800, 1.4400, 0.0000], [2.4000, 2.7200, 3.0400, 2.5600, 1.2800, 0.0000], [1.2000, 1.3600, 1.5200, 1.2800, 0.6400, 0.0000], [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000]]]])