Fold¶
- class torch.nn.Fold(output_size, kernel_size, dilation=1, padding=0, stride=1)[source][source]¶
将滑动局部块数组组合成一个大的包含张量。
考虑一个批处理的
input
张量,其中包含滑动局部块(例如,图像的补丁),形状为 ,其中 是批处理维度, 是一个块内的值的数量(一个块有 个空间位置,每个位置包含一个 通道向量), 是块的总数。(这与Unfold
的输出形状完全相同。)此操作通过对重叠值求和,将这些局部块组合成形状为 的大型output
张量。与Unfold
类似,参数必须满足其中 是所有空间维度。
output_size
描述了滑动局部块的大型包含张量的空间形状。当多个输入形状映射到相同数量的滑动块时,例如当stride > 0
时,它对于消除歧义很有用。
padding
、stride
和dilation
参数指定了如何检索滑动块。stride
控制滑动块的步幅。padding
控制在重塑之前,在每个维度的padding
个点的两侧添加的隐式零填充量。dilation
控制内核点之间的间距;也称为 à trous 算法。它比较难以描述,但此链接很好地可视化了dilation
的作用。
- 参数
如果
output_size
、kernel_size
、dilation
、padding
或stride
是 int 或长度为 1 的元组,则它们的值将在所有空间维度上复制。对于两个输出空间维度的情况,此操作有时称为
col2im
。
注意
Fold
通过对所有包含块中的所有值求和来计算结果大型张量中的每个组合值。Unfold
通过从大型张量复制来提取局部块中的值。因此,如果块重叠,则它们不是彼此的逆运算。一般来说,折叠和展开操作的关系如下。考虑使用相同参数创建的
Fold
和Unfold
实例>>> fold_params = dict(kernel_size=..., dilation=..., padding=..., stride=...) >>> fold = nn.Fold(output_size=..., **fold_params) >>> unfold = nn.Unfold(**fold_params)
那么对于任何(受支持的)
input
张量,以下等式成立fold(unfold(input)) == divisor * input
其中
divisor
是一个张量,它仅取决于input
的形状和 dtype>>> input_ones = torch.ones(input.shape, dtype=input.dtype) >>> divisor = fold(unfold(input_ones))
当
divisor
张量不包含零元素时,fold
和unfold
操作互为逆运算(直到常数除数)。警告
当前仅支持未批处理的(3D)或批处理的(4D)类似图像的输出张量。
- 形状
输入: 或
输出: 或 如上所述
示例
>>> fold = nn.Fold(output_size=(4, 5), kernel_size=(2, 2)) >>> input = torch.randn(1, 3 * 2 * 2, 12) >>> output = fold(input) >>> output.size() torch.Size([1, 3, 4, 5])