Fold#
- class torch.nn.modules.fold.Fold(output_size, kernel_size, dilation=1, padding=0, stride=1)[源代码]#
将一组滑动局部块组合成一个大的包含 Tensor。
考虑一个包含滑动局部块的批量输入张量,例如图像块,其形状为 ,其中 是批次维度, 是块内的值数(一个块有 个空间位置,每个位置包含一个 通道向量),并且 是块的总数。(这与
Unfold
的输出形状完全相同。)此操作通过对重叠值求和,将这些局部块合并到一个形状为 的大output
张量中。其中 遍历所有空间维度。
output_size
描述了滑动局部块的包含张量的空间形状。当多个输入形状映射到相同数量的滑动块时,例如在stride > 0
时,它有助于消除歧义。
参数
padding
、stride
和dilation
指定了如何提取滑动块。stride
控制滑动块的步幅。padding
控制在重塑之前,每个维度上的padding
个点两侧的隐式零填充量。dilation
控制核点之间的间距;也称为空洞卷积算法。这个概念比较难描述,但 这个链接 有一个dilation
作用的可视化。
- 参数
如果
output_size
,kernel_size
,dilation
,padding
或stride
是一个整数或长度为 1 的元组,则它们的值将复制到所有空间维度。对于两个输出空间维度的情形,此操作有时被称为
col2im
。
注意
Fold
通过对所有包含块的值进行求和来计算结果大张量中的每个组合值。Unfold
通过从大张量中复制来提取局部块中的值。因此,如果块重叠,它们就不是彼此的逆运算。通常,折叠和展开操作的关系如下。考虑使用相同参数创建的
Fold
和Unfold
实例>>> fold_params = dict(kernel_size=..., dilation=..., padding=..., stride=...) >>> fold = nn.Fold(output_size=..., **fold_params) >>> unfold = nn.Unfold(**fold_params)
那么对于任何(受支持的)
input
张量,以下等式成立:fold(unfold(input)) == divisor * input
其中
divisor
是一个仅取决于input
的形状和 dtype 的张量。>>> input_ones = torch.ones(input.shape, dtype=input.dtype) >>> divisor = fold(unfold(input_ones))
当
divisor
张量不包含零元素时,则fold
和unfold
操作是彼此的逆运算( up to constant divisor)。警告
目前,仅支持非批处理(3D)或批处理(4D)的图像式输出张量。
- 形状
输入: 或
输出: 或 如上所述
示例
>>> fold = nn.Fold(output_size=(4, 5), kernel_size=(2, 2)) >>> input = torch.randn(1, 3 * 2 * 2, 12) >>> output = fold(input) >>> output.size() torch.Size([1, 3, 4, 5])