评价此页

MaxPool1d#

class torch.nn.MaxPool1d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)[源代码]#

对由多个输入平面组成的输入信号应用 1D 最大池化。

在最简单的情况下,输入尺寸为(N,C,L)(N, C, L) 且输出尺寸为(N,C,Lout)(N, C, L_{out}) 的层输出值可以精确描述为

out(Ni,Cj,k)=maxm=0,,kernel_size1input(Ni,Cj,stride×k+m)out(N_i, C_j, k) = \max_{m=0, \ldots, \text{kernel\_size} - 1} input(N_i, C_j, stride \times k + m)

如果 padding 非零,则输入两侧隐式填充负无穷。 dilation 是滑动窗口内元素的步长。这个 链接 有一个很棒的池化参数可视化。

注意

当 ceil_mode=True 时,如果滑动窗口从左侧填充或输入开始,则允许它们超出边界。从右侧填充区域开始的滑动窗口将被忽略。

参数
  • kernel_size (Union[int, tuple[int]]) – 滑动窗口的大小,必须 > 0。

  • stride (Union[int, tuple[int]]) – 滑动窗口的步长,必须 > 0。默认值为 kernel_size

  • padding (Union[int, tuple[int]]) – 两侧要添加的隐式负无穷填充,必须 >= 0 且 <= kernel_size / 2。

  • dilation (Union[int, tuple[int]]) – 滑动窗口内元素之间的步长,必须 > 0。

  • return_indices (bool) – 如果为 True,则返回最大值的 argmax。这对于后续使用 torch.nn.MaxUnpool1d 很有用。

  • ceil_mode (bool) – 如果为 True,将使用 ceil 而不是 floor 来计算输出形状。这确保了输入张量的每个元素都被滑动窗口覆盖。

形状
  • 输入: (N,C,Lin)(N, C, L_{in})(C,Lin)(C, L_{in})

  • 输出: (N,C,Lout)(N, C, L_{out})(C,Lout)(C, L_{out})

    其中 ceil_mode = False

    Lout=Lin+2×paddingdilation×(kernel_size1)1stride+1L_{out} = \left\lfloor \frac{L_{in} + 2 \times \text{padding} - \text{dilation} \times (\text{kernel\_size} - 1) - 1}{\text{stride}}\right\rfloor + 1

    其中 ceil_mode = True

    Lout=Lin+2×paddingdilation×(kernel_size1)1+(stride1)stride+1L_{out} = \left\lceil \frac{L_{in} + 2 \times \text{padding} - \text{dilation} \times (\text{kernel\_size} - 1) - 1 + (stride - 1)}{\text{stride}}\right\rceil + 1
  • 确保最后一个池化操作从图像内部开始,使得 Lout=Lout1L_{out} = L_{out} - 1(Lout1)stride>=Lin+padding(L_{out} - 1) * \text{stride} >= L_{in} + \text{padding}

示例

>>> # pool of size=3, stride=2
>>> m = nn.MaxPool1d(3, stride=2)
>>> input = torch.randn(20, 16, 50)
>>> output = m(input)
forward(input)[源代码]#

执行前向传播。