图像变换和增强¶
Torchvision 在 torchvision.transforms
和 torchvision.transforms.v2
模块中支持常见的计算机视觉变换。变换可用于变换或增强数据,以用于不同任务(图像分类、检测、分割、视频分类)的训练或推理。
# Image Classification
import torch
from torchvision.transforms import v2
H, W = 32, 32
img = torch.randint(0, 256, size=(3, H, W), dtype=torch.uint8)
transforms = v2.Compose([
v2.RandomResizedCrop(size=(224, 224), antialias=True),
v2.RandomHorizontalFlip(p=0.5),
v2.ToDtype(torch.float32, scale=True),
v2.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
])
img = transforms(img)
# Detection (re-using imports and transforms from above)
from torchvision import tv_tensors
img = torch.randint(0, 256, size=(3, H, W), dtype=torch.uint8)
boxes = torch.randint(0, H // 2, size=(3, 4))
boxes[:, 2:] += boxes[:, :2]
boxes = tv_tensors.BoundingBoxes(boxes, format="XYXY", canvas_size=(H, W))
# The same transforms can be used!
img, boxes = transforms(img, boxes)
# And you can pass arbitrary input structures
output_dict = transforms({"image": img, "boxes": boxes})
变换通常作为 transform
或 transforms
参数传递给 数据集。
从这里开始¶
无论您是 Torchvision 变换的新手,还是已经经验丰富,我们建议您从 v2 变换入门 开始,以详细了解使用新 v2 变换可以做什么。
然后,浏览本页面下方部分以获取一般信息和性能提示。可用的变换和函数在 API 参考 中列出。
更多信息和教程也可以在我们的 示例库 中找到,例如 v2 变换:端到端目标检测/分割示例 或 如何编写您自己的 v2 变换。
支持的输入类型和约定¶
大多数变换都接受 PIL 图像和张量输入。支持 CPU 和 CUDA 张量。两种后端(PIL 或张量)的结果应该非常接近。一般来说,我们建议依赖张量后端 以获得性能。可以使用 转换变换 在 PIL 图像之间转换,或用于转换数据类型和范围。
预期张量图像的形状为 (C, H, W)
,其中 C
是通道数,H
和 W
分别代表高度和宽度。大多数变换支持批量张量输入。批量张量图像是一个形状为 (N, C, H, W)
的张量,其中 N
是批量中的图像数量。 v2 变换通常接受任意数量的领先维度 (..., C, H, W)
并可以处理批量图像或批量视频。
数据类型和预期值范围¶
张量图像值的预期范围由张量数据类型隐式定义。数据类型为浮点的张量图像的预期值为 [0, 1]
。数据类型为整数的张量图像的预期值为 [0, MAX_DTYPE]
,其中 MAX_DTYPE
是该数据类型可以表示的最大值。通常,数据类型为 torch.uint8
的图像的预期值为 [0, 255]
。
使用 ToDtype
转换输入的数据类型和范围。
V1 或 V2?我应该使用哪一个?¶
TL;DR 我们建议您使用 torchvision.transforms.v2
中的变换,而不是 torchvision.transforms
中的变换。它们更快,并且可以做更多的事情。只需更改导入,您就可以使用了。今后,只会针对 v2 变换考虑新功能和改进。
在 Torchvision 0.15(2023 年 3 月)中,我们发布了一组新的变换,它们位于 torchvision.transforms.v2
命名空间中。与 v1 变换(位于 torchvision.transforms
中)相比,这些变换具有许多优势。
它们可以变换图像, **还可以** 变换边界框、掩码或视频。这为图像分类以外的任务提供了支持:检测、分割、视频分类等。请参阅 v2 变换入门 和 v2 变换:端到端目标检测/分割示例。
它们支持更多变换,例如
CutMix
和MixUp
。请参阅 如何使用 CutMix 和 MixUp。它们 更快。
它们支持任意输入结构(字典、列表、元组等)。
将来的改进和功能将仅添加到 v2 变换中。
这些变换与 v1 变换 **完全向后兼容**,因此如果您已经使用来自 torchvision.transforms
的变换,您只需将导入更新为 torchvision.transforms.v2
即可。在输出方面,由于实现差异,可能会存在微不足道的差异。
性能注意事项¶
我们建议您遵循以下准则以从变换中获得最佳性能
依赖来自
torchvision.transforms.v2
的 v2 变换使用张量而不是 PIL 图像
使用
torch.uint8
数据类型,尤其是对于调整大小使用双线性或双三次模式进行调整大小
典型的变换管道可能如下所示
from torchvision.transforms import v2
transforms = v2.Compose([
v2.ToImage(), # Convert to tensor, only needed if you had a PIL image
v2.ToDtype(torch.uint8, scale=True), # optional, most input are already uint8 at this point
# ...
v2.RandomResizedCrop(size=(224, 224), antialias=True), # Or Resize(antialias=True)
# ...
v2.ToDtype(torch.float32, scale=True), # Normalize expects float input
v2.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
])
在典型的训练环境中,使用 torch.utils.data.DataLoader
并设置 num_workers > 0
,上述操作应为您提供最佳性能。
变换对输入步幅/内存格式很敏感。一些变换在通道优先图像上速度更快,而另一些则更喜欢通道最后。像 torch
运算符一样,大多数变换会保留输入的内存格式,但由于实现细节,这可能并不总是被遵守。如果你追求最佳性能,可能需要进行一些实验。在单个变换上使用 torch.compile()
也可以帮助剔除内存格式变量(例如在 Normalize
上)。请注意,我们讨论的是 **内存格式**,而不是 张量形状.
请注意,像 Resize
和 RandomResizedCrop
这样的调整大小变换通常更喜欢通道最后输入,并且目前 **不会** 从 torch.compile()
中受益。
变换类、函数和内核¶
变换可以作为类使用,例如 Resize
,也可以作为函数使用,例如 torchvision.transforms.v2.functional
命名空间中的 resize()
。这非常类似于 torch.nn
包,它在 torch.nn.functional
中定义了类和函数等效项。
这些函数支持 PIL 图像、纯张量或 TVTensors,例如 resize(image_tensor)
和 resize(boxes)
都是有效的。
注意
像 RandomCrop
这样的随机变换会在每次调用时随机采样一些参数。它们的函数对应项 (crop()
) 不会进行任何随机采样,因此参数化略有不同。变换类的 get_params()
类方法可用于在使用函数 API 时执行参数采样。
torchvision.transforms.v2.functional
命名空间还包含我们称之为“内核”的内容。这些是实现特定类型核心功能的低级函数,例如 resize_bounding_boxes
或 `resized_crop_mask
。它们是公开的,但没有文档说明。查看 代码 查看哪些可用(注意,以下划线开头的那些 **不** 是公开的!)。内核只有在你需要像边界框或掩码这样的类型的 torchscript 支持 时才会真正有用。
Torchscript 支持¶
大多数变换类和函数支持 torchscript。对于组合变换,使用 torch.nn.Sequential
而不是 Compose
transforms = torch.nn.Sequential(
CenterCrop(10),
Normalize((0.485, 0.456, 0.406), (0.229, 0.224, 0.225)),
)
scripted_transforms = torch.jit.script(transforms)
警告
v2 变换支持 torchscript,但如果你在 v2 **类** 变换上调用 torch.jit.script()
,你实际上会得到它的 (脚本化的) v1 等效项。由于 v1 和 v2 之间的实现差异,这可能会导致脚本化执行和急切执行之间略有不同的结果。
如果你真的需要对 v2 变换进行 torchscript 支持,我们建议对 torchvision.transforms.v2.functional
命名空间中的 **函数** 进行脚本化,以避免意外。
还要注意,这些函数仅支持纯张量的 torchscript,这些张量始终被视为图像。如果你需要对其他类型(如边界框或掩码)进行 torchscript 支持,你可以依赖 低级内核.
对于要与 torch.jit.script
一起使用的任何自定义变换,它们应该从 torch.nn.Module
派生。
另见:Torchscript 支持.
V2 API 参考 - 推荐¶
几何¶
调整大小¶
|
将输入调整为给定的大小。 |
|
根据 "Simple Copy-Paste is a Strong Data Augmentation Method for Instance Segmentation" 对输入执行大规模抖动。 |
|
随机调整输入的大小。 |
|
随机调整输入的大小。 |
函数
|
有关详细信息,请参阅 |
裁剪¶
|
在随机位置裁剪输入。 |
|
裁剪输入的随机部分,并将其调整为给定的大小。 |
|
来自 "SSD: Single Shot MultiBox Detector" 的随机 IoU 裁剪变换。 |
|
从中心裁剪输入。 |
|
将图像或视频裁剪成四个角和中心裁剪。 |
|
将图像或视频裁剪成四个角和中心裁剪,加上它们的翻转版本(默认使用水平翻转)。 |
函数
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
其他¶
以给定概率水平翻转输入。 |
|
以给定概率垂直翻转输入。 |
|
|
在所有边上用给定的“pad”值填充输入。 |
|
来自 "SSD: Single Shot MultiBox Detector" 的“放大”变换。 |
|
将输入旋转角度。 |
|
对输入进行随机仿射变换,保持中心不变。 |
|
以给定概率对输入执行随机透视变换。 |
|
用弹性变换变换输入。 |
函数
有关详细信息,请参见 |
|
有关详细信息,请参见 |
|
|
有关详细信息,请参见 |
|
有关详细信息,请参见 |
|
有关详细信息,请参见 |
|
有关详细信息,请参见 |
|
有关详细信息,请参见 |
颜色¶
|
随机改变图像或视频的亮度、对比度、饱和度和色调。 |
随机排列图像或视频的通道 |
|
|
如 SSD: Single Shot MultiBox Detector 中所用,随机扭曲图像或视频。 |
|
将图像或视频转换为灰度。 |
|
将图像或视频转换为 RGB(如果它们尚未为 RGB)。 |
|
以 p(默认值为 0.1)的概率随机将图像或视频转换为灰度。 |
|
使用随机选择的 Gaussian 模糊内核对图像进行模糊。 |
|
将高斯噪声添加到图像或视频中。 |
|
以给定概率反转给定图像或视频的颜色。 |
|
通过减少每个颜色通道的位数,以给定概率对图像或视频进行色调分离。 |
|
以给定概率对图像或视频进行太阳化处理,方法是反转高于阈值的像素值。 |
|
以给定概率调整图像或视频的锐度。 |
以给定概率自动对比给定图像或视频的像素。 |
|
|
以给定概率均衡给定图像或视频的直方图。 |
函数
|
根据给定的排列顺序排列输入的通道。 |
|
有关详细信息,请参见 |
有关详细信息,请参见 |
|
|
有关详细信息,请参见 |
|
有关详细信息,请参见 |
|
请参见 |
|
请参见 |
|
有关详细信息,请参见 |
|
有关详细信息,请参见 |
|
|
有关详细信息,请参见 |
|
|
|
|
有关详细信息,请参见 |
|
调整亮度。 |
|
调整饱和度。 |
|
调整色调 |
|
调整伽马。 |
组合¶
|
将多个转换组合在一起。 |
|
以给定概率随机应用转换列表。 |
|
随机应用从列表中随机选择的单个转换。 |
|
按随机顺序应用转换列表。 |
其他¶
使用离线计算的方阵变换矩阵和均值向量来变换张量图像或视频。 |
|
|
使用均值和标准差规范化张量图像或视频。 |
|
随机选择输入图像或视频中的矩形区域,并擦除其像素。 |
|
将用户定义的函数作为转换应用。 |
|
删除退化/无效的边界框及其相应的标签和掩码。 |
将边界框限制到其相应的图像尺寸。 |
|
|
从视频的时间维度统一子采样 |
|
对给定图像应用 JPEG 压缩和解压缩。 |
函数
|
有关详细信息,请参见 |
|
有关详细信息,请参见 |
|
删除退化/无效的边界框,并返回相应的索引掩码。 |
|
有关详细信息,请参见 |
有关详细信息,请参见 |
|
|
有关详细信息,请参见 |
转换¶
注意
注意,下面的一些转换将在执行转换时缩放值,而另一些可能不会进行任何缩放。 缩放是指例如 uint8
-> float32
将 [0, 255] 范围映射到 [0, 1](反之亦然)。 请参见 数据类型和预期值范围。
将张量、ndarray 或 PIL 图像转换为 |
|
将所有 TVTensor 转换为纯张量,删除关联的元数据(如果有)。 |
|
将 PIL 图像转换为相同类型张量 - 这不会缩放值。 |
|
|
将张量或 ndarray 转换为 PIL 图像 |
|
将输入转换为特定数据类型,可选地为图像或视频缩放值。 |
|
将边界框坐标转换为给定的 |
函数
|
有关详细信息,请参见 |
将 |
|
|
将张量或 ndarray 转换为 PIL 图像。 |
|
详情请参阅 |
详情请参阅 |
已弃用
[已弃用] 使用 |
|
|
[已弃用] 使用 to_image() 和 to_dtype() 代替。 |
|
[已弃用] 使用 |
|
[已弃用] 使用 to_dtype() 代替。 |
自动增强¶
AutoAugment 是一种常见的图像数据增强技术,可以提高图像分类模型的精度。虽然数据增强策略与它们训练的数据集直接相关,但实证研究表明,ImageNet 策略应用于其他数据集时可以显著提高性能。在 TorchVision 中,我们实现了 3 种在以下数据集上学习的策略:ImageNet、CIFAR10 和 SVHN。新的变换可以单独使用,也可以与现有的变换混合使用。
|
基于 "AutoAugment: Learning Augmentation Strategies from Data" 的 AutoAugment 数据增强方法。 |
|
基于 "RandAugment: Practical automated data augmentation with a reduced search space" 的 RandAugment 数据增强方法。 |
|
使用 TrivialAugment Wide 进行数据集无关的数据增强,如 "TrivialAugment: Tuning-free Yet State-of-the-Art Data Augmentation" 中所述。 |
|
基于 "AugMix: A Simple Data Processing Method to Improve Robustness and Uncertainty" 的 AugMix 数据增强方法。 |
CutMix - MixUp¶
CutMix 和 MixUp 是特殊的变换,旨在应用于批次而不是单个图像,因为它们将图像对组合在一起。它们可以在数据加载器之后(样本被批处理后)使用,也可以作为整理函数的一部分。有关详细的使用示例,请参见 如何使用 CutMix 和 MixUp。
|
将 CutMix 应用于提供的图像和标签批次。 |
|
将 MixUp 应用于提供的图像和标签批次。 |
开发者工具¶
|
装饰一个内核以将其注册到一个函数和一个 (自定义) tv_tensor 类型。 |
V1 API 参考¶
几何¶
|
将输入图像调整为给定大小。 |
|
在随机位置裁剪给定的图像。 |
|
裁剪图像的随机部分并将其调整为给定大小。 |
|
在中心裁剪给定的图像。 |
|
将给定的图像裁剪为四个角和中心裁剪。 |
|
将给定的图像裁剪为四个角和中心裁剪,加上它们的翻转版本(默认使用水平翻转)。 |
|
使用给定的“pad”值在给定图像的所有边上进行填充。 |
|
将图像旋转角度。 |
|
图像的随机仿射变换,保持中心不变。 |
|
以给定的概率对给定的图像执行随机透视变换。 |
|
使用弹性变换变换张量图像。 |
|
以给定的概率随机水平翻转给定的图像。 |
|
以给定的概率随机垂直翻转给定的图像。 |
颜色¶
|
随机改变图像的亮度、对比度、饱和度和色调。 |
|
将图像转换为灰度。 |
|
以 p 的概率(默认值为 0.1)随机将图像转换为灰度。 |
|
使用随机选择的 Gaussian 模糊对图像进行模糊处理。 |
|
以给定的概率随机反转给定图像的颜色。 |
|
通过减少每个颜色通道的位数,以给定的概率随机地将图像进行色调分离。 |
|
以给定的概率随机地对图像进行太阳化,方法是反转所有高于阈值的像素值。 |
|
以给定的概率随机调整图像的锐度。 |
|
以给定的概率随机地对给定图像的像素进行自动对比度调整。 |
|
以给定的概率随机地均衡给定图像的直方图。 |
组合¶
|
将多个转换组合在一起。 |
|
以给定概率随机应用转换列表。 |
|
随机应用从列表中随机选择的单个转换。 |
|
按随机顺序应用转换列表。 |
其他¶
|
使用方形变换矩阵和离线计算的均值向量变换张量图像。 |
|
使用均值和标准差归一化张量图像。 |
|
随机选择一个矩形区域,并在 torch.Tensor 图像中擦除其像素。 |
|
将用户定义的 lambda 作为变换应用。 |
转换¶
注意
注意,下面的一些转换将在执行转换时缩放值,而另一些可能不会进行任何缩放。 缩放是指例如 uint8
-> float32
将 [0, 255] 范围映射到 [0, 1](反之亦然)。 请参见 数据类型和预期值范围。
|
将张量或 ndarray 转换为 PIL 图像 |
|
将 PIL Image 或 ndarray 转换为张量,并相应地缩放值。 |
将 PIL 图像转换为相同类型张量 - 这不会缩放值。 |
|
|
将张量图像转换为给定的 |
自动增强¶
AutoAugment 是一种常见的图像数据增强技术,可以提高图像分类模型的精度。虽然数据增强策略与它们训练的数据集直接相关,但实证研究表明,ImageNet 策略应用于其他数据集时可以显著提高性能。在 TorchVision 中,我们实现了 3 种在以下数据集上学习的策略:ImageNet、CIFAR10 和 SVHN。新的变换可以单独使用,也可以与现有的变换混合使用。
|
在不同数据集上学习的自动增强策略。 |
|
基于 "AutoAugment: Learning Augmentation Strategies from Data" 的 AutoAugment 数据增强方法。 |
|
基于 "RandAugment: Practical automated data augmentation with a reduced search space" 的 RandAugment 数据增强方法。 |
|
使用 TrivialAugment Wide 进行数据集无关的数据增强,如 "TrivialAugment: Tuning-free Yet State-of-the-Art Data Augmentation" 中所述。 |
|
基于 "AugMix: A Simple Data Processing Method to Improve Robustness and Uncertainty" 的 AugMix 数据增强方法。 |
函数式变换¶
|
调整图像的亮度。 |
|
调整图像的对比度。 |
|
对图像执行伽马校正。 |
|
调整图像的色调。 |
|
调整图像的色彩饱和度。 |
|
调整图像的锐度。 |
|
在图像上应用仿射变换,保持图像中心不变。 |
|
通过重新映射每个通道的像素,使最低像素变为黑色,最亮像素变为白色,从而最大化图像的对比度。 |
|
在中心裁剪给定的图像。 |
|
将张量图像转换为给定的 |
|
在指定位置和输出大小处裁剪给定图像。 |
|
通过对输入应用非线性映射,使输出的灰度值均匀分布,从而均衡图像的直方图。 |
|
使用给定值擦除输入的张量图像。 |
|
将给定的图像裁剪为四个角和中心裁剪。 |
|
使用给定的内核对图像进行高斯模糊。 |
|
返回图像的尺寸,为 [通道数,高度,宽度]。 |
返回图像的通道数。 |
|
|
返回图像的大小,为 [宽度,高度]。 |
|
水平翻转给定图像。 |
|
反转 RGB/灰度图像的颜色。 |
|
使用均值和标准差归一化浮点张量图像。 |
|
使用给定的“pad”值在给定图像的所有边上进行填充。 |
|
执行给定图像的透视变换。 |
|
将 |
|
通过减少每个颜色通道的位数来海报化图像。 |
|
将输入图像调整为给定大小。 |
|
裁剪给定图像并将其调整为所需大小。 |
|
将 RGB 图像转换为图像的灰度版本。 |
|
将图像旋转角度。 |
|
通过反转所有高于阈值的像素值,使 RGB/灰度图像曝光。 |
|
从给定图像生成十个裁剪图像。 |
|
将任何模式(RGB、HSV、LAB 等)的 PIL 图像转换为图像的灰度版本。 |
|
将张量或 ndarray 转换为 PIL 图像。 |
|
将 |
|
垂直翻转给定的图像。 |