快捷方式

SqueezeExcitation

class torchvision.ops.SqueezeExcitation(input_channels: int, squeeze_channels: int, activation: ~typing.Callable[[...], ~torch.nn.modules.module.Module] = <class 'torch.nn.modules.activation.ReLU'>, scale_activation: ~typing.Callable[[...], ~torch.nn.modules.module.Module] = <class 'torch.nn.modules.activation.Sigmoid'>)[source]

此块实现了来自 https://arxiv.org/abs/1709.01507 的 Squeeze-and-Excitation 块(参见图 1)。参数 activationscale_activation 对应于公式 3 中的 deltasigma

参数:
  • input_channels (int) – 输入图像中的通道数

  • squeeze_channels (int) – 压缩通道数

  • activation (Callable[..., torch.nn.Module], optional) – delta 激活。默认为 torch.nn.ReLU

  • scale_activation (Callable[..., torch.nn.Module]) – sigma 激活。默认为 torch.nn.Sigmoid

forward(input: Tensor) Tensor[source]

定义每次调用时执行的计算。

所有子类都应重写此方法。

注意

虽然 forward pass 的实现需要在该函数内定义,但由于前者负责运行注册的钩子,而后者会默默忽略它们,因此应该在之后调用 Module 实例,而不是这个函数。

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

为初学者和高级开发者提供深入的教程

查看教程

资源

查找开发资源并让您的问题得到解答

查看资源