ps_roi_align¶
- torchvision.ops.ps_roi_align(input: Tensor, boxes: Tensor, output_size: int, spatial_scale: float = 1.0, sampling_ratio: int = - 1) Tensor [源代码]¶
执行 Light-Head R-CNN 中提到的位置敏感区域兴趣 (RoI) 对齐运算符。
- 参数:
输入 (Tensor[N, C, H, W]) – 输入张量,即包含
N
个元素的批次。每个元素包含C
个维度为H x W
的特征图。框 (Tensor[K, 5] 或 List[Tensor[L, 4]]) – 以 (x1, y1, x2, y2) 格式表示的框坐标,其中将从这些坐标中获取区域。坐标必须满足
0 <= x1 < x2
和0 <= y1 < y2
。如果传递单个张量,则第一列应包含批次中相应元素的索引,即[0, N - 1]
中的数字。如果传递张量列表,则每个张量将对应于批次中元素 i 的框。输出大小 (int 或 Tuple[int, int]) – 池化执行后输出的大小(以 bin 或像素为单位),作为 (高度,宽度)。
空间比例 (float) – 将框坐标映射到输入坐标的比例因子。例如,如果您的框在 224x224 图像的比例尺上定义,而您的输入是一个 112x112 特征图(来自原始图像的 0.5x 缩放),您需要将其设置为 0.5。默认值:1.0
采样率 (int) – 用于计算每个池化输出 bin 的输出值的插值网格中的采样点数。如果 > 0,则每个 bin 使用恰好
sampling_ratio x sampling_ratio
个采样点。如果 <= 0,则使用自适应数量的网格点(计算为ceil(roi_width / output_width)
,高度也是如此)。默认值:-1
- 返回:
池化的 RoI
- 返回类型:
Tensor[K, C / (output_size[0] * output_size[1]), output_size[0], output_size[1]]