快捷方式

ScaleJitter

class torchvision.transforms.v2.ScaleJitter(target_size: Tuple[int, int], scale_range: Tuple[float, float] = (0.1, 2.0), interpolation: Union[InterpolationMode, int] = InterpolationMode.BILINEAR, antialias: Optional[bool] = True)[source]

根据 “Simple Copy-Paste is a Strong Data Augmentation Method for Instance Segmentation” 对输入执行大规模抖动。

如果输入是 torch.TensorTVTensor (例如 Image, Video, BoundingBoxes 等),它可以具有任意数量的前导批次维度。例如,图像可以具有 [..., C, H, W] 形状。边界框可以具有 [..., 4] 形状。

参数:
  • target_size (python:int 元组) – 目标大小。此参数定义抖动的基础比例,例如 min(target_size[0] / width, target_size[1] / height)

  • scale_range (python:float 元组, 可选) – 比例范围的最小值和最大值。默认值,(0.1, 2.0)

  • interpolation (InterpolationMode, 可选) – 期望的插值枚举,由 torchvision.transforms.InterpolationMode 定义。默认值为 InterpolationMode.BILINEAR。如果输入是 Tensor,则仅支持 InterpolationMode.NEARESTInterpolationMode.NEAREST_EXACTInterpolationMode.BILINEARInterpolationMode.BICUBIC。也接受相应的 Pillow 整数常量,例如 PIL.Image.BILINEAR

  • antialias (bool, 可选) –

    是否应用抗锯齿。它仅影响具有双线性或双三次模式的张量,否则将被忽略:在 PIL 图像上,始终对双线性或双三次模式应用抗锯齿;在其他模式下(对于 PIL 图像和张量),抗锯齿没有意义,并且此参数将被忽略。可能的值为

    • True (默认值):将对双线性或双三次模式应用抗锯齿。其他模式不受影响。这可能是您想要使用的。

    • False:将不会对任何模式下的张量应用抗锯齿。PIL 图像在双线性或双三次模式下仍然会进行抗锯齿处理,因为 PIL 不支持无抗锯齿。

    • None:对于张量等效于 False,对于 PIL 图像等效于 True。此值出于遗留原因而存在,除非您真的知道自己在做什么,否则可能不想使用它。

    在 v0.17 中,默认值从 None 更改为 True,以使 PIL 和 Tensor 后端保持一致。

make_params(flat_inputs: List[Any]) Dict[str, Any][source]

用于覆盖自定义变换的方法。

请参阅 如何编写自己的 v2 变换

transform(inpt: Any, params: Dict[str, Any]) Any[source]

用于覆盖自定义变换的方法。

请参阅 如何编写自己的 v2 变换

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源