Fold¶
- class torch.nn.Fold(output_size, kernel_size, dilation=1, padding=0, stride=1)[源][源]¶
将一组滑动的局部块组合成一个大的包含张量。
考虑一个包含滑动局部块(例如图像块)的批量
input
张量,其形状为 ,其中 是批量维度, 是块内的值数量(一个块有 个空间位置,每个位置包含一个 通道向量), 是块的总数量。(这与Unfold
的输出形状完全相同。)此操作通过对重叠的值求和,将这些局部块组合到形状为 的大output
张量中。与Unfold
类似,参数必须满足其中 表示所有空间维度。
output_size
描述了包含滑动局部块的大张量的空间形状。当多个输入形状映射到相同数量的滑动块时(例如,stride > 0
时),它有助于解决歧义。
padding
、stride
和dilation
参数指定了如何检索滑动块。stride
控制滑动块的步长。padding
控制在重塑之前,每个维度在两侧添加padding
数量的隐式零填充。dilation
控制核点之间的间距;也称为 à trous 算法。这很难描述,但这个 链接 有一个很好的可视化展示了dilation
的作用。
- 参数
如果
output_size
、kernel_size
、dilation
、padding
或stride
是 int 或长度为 1 的 tuple,则其值将应用于所有空间维度。对于两个输出空间维度的情况,此操作有时称为
col2im
。
注意
Fold
通过对所有包含块中的所有值求和来计算结果大张量中的每个组合值。Unfold
通过从大张量复制来提取局部块中的值。因此,如果块重叠,它们不是彼此的逆运算。通常,折叠 (folding) 和展开 (unfolding) 操作之间的关系如下。考虑使用相同参数创建的
Fold
和Unfold
实例>>> fold_params = dict(kernel_size=..., dilation=..., padding=..., stride=...) >>> fold = nn.Fold(output_size=..., **fold_params) >>> unfold = nn.Unfold(**fold_params)
那么对于任何(支持的)
input
张量,以下等式成立fold(unfold(input)) == divisor * input
其中
divisor
是一个仅取决于input
形状和 dtype 的张量>>> input_ones = torch.ones(input.shape, dtype=input.dtype) >>> divisor = fold(unfold(input_ones))
当
divisor
张量不包含零元素时,fold
和unfold
操作互为逆运算(常数因子除外)。警告
目前,仅支持非批量 (3D) 或批量 (4D) 图像状输出张量。
- 形状
输入: 或
输出: 或 如上所述
示例
>>> fold = nn.Fold(output_size=(4, 5), kernel_size=(2, 2)) >>> input = torch.randn(1, 3 * 2 * 2, 12) >>> output = fold(input) >>> output.size() torch.Size([1, 3, 4, 5])