快捷方式

ps_roi_align

torchvision.ops.ps_roi_align(input: Tensor, boxes: Tensor, output_size: int, spatial_scale: float = 1.0, sampling_ratio: int = - 1) Tensor[源代码]

执行 Light-Head R-CNN 中提到的位置敏感区域(RoI)对齐算子。

参数:
  • input (Tensor[N, C, H, W]) – 输入张量,即具有 N 个元素的批次。每个元素包含 C 个维度为 H x W 的特征图。

  • boxes (Tensor[K, 5] 或 List[Tensor[L, 4]]) – 区域将从中提取的边界框坐标,格式为 (x1, y1, x2, y2)。坐标必须满足 0 <= x1 < x20 <= y1 < y2。如果传递单个张量,则第一列应包含批次中对应元素的索引,即 [0, N - 1] 中的一个数字。如果传递张量列表,则每个张量将对应批次中元素 i 的边界框。

  • output_size (intTuple[int, int]) – 汇集后输出的尺寸(以 bin 或像素为单位),格式为 (height, width)。

  • spatial_scale (float) – 将边界框坐标映射到输入坐标的缩放因子。例如,如果您的边界框定义在 224x224 图像的尺度上,而您的输入是一个 112x112 的特征图(由原始图像缩小 0.5 倍得到),则应将此参数设置为 0.5。默认值:1.0

  • sampling_ratio (int) – 用于计算每个汇集输出 bin 的输出值的插值网格中的采样点数。如果大于 0,则每个 bin 使用 sampling_ratio x sampling_ratio 个采样点。如果小于等于 0,则使用自适应数量的网格点(计算方式为 ceil(roi_width / output_width),高度同理)。默认值:-1

返回:

汇集后的 RoIs

返回类型:

Tensor[K, C / (output_size[0] * output_size[1]), output_size[0], output_size[1]]

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

为初学者和高级开发者提供深入的教程

查看教程

资源

查找开发资源并让您的问题得到解答

查看资源