转换图像、视频、边界框等¶
Torchvision 在 torchvision.transforms.v2
模块中支持常见的计算机视觉转换。转换可用于转换和增强训练或推理的数据。支持以下对象:
纯张量图像、
Image
或 PIL 图像视频,作为
Video
轴对齐和旋转的边界框,作为
BoundingBoxes
分割和检测掩码,作为
Mask
关键点,作为
KeyPoints
。
# Image Classification
import torch
from torchvision.transforms import v2
H, W = 32, 32
img = torch.randint(0, 256, size=(3, H, W), dtype=torch.uint8)
transforms = v2.Compose([
v2.RandomResizedCrop(size=(224, 224), antialias=True),
v2.RandomHorizontalFlip(p=0.5),
v2.ToDtype(torch.float32, scale=True),
v2.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
])
img = transforms(img)
# Detection (re-using imports and transforms from above)
from torchvision import tv_tensors
img = torch.randint(0, 256, size=(3, H, W), dtype=torch.uint8)
boxes = torch.randint(0, H // 2, size=(3, 4))
boxes[:, 2:] += boxes[:, :2]
boxes = tv_tensors.BoundingBoxes(boxes, format="XYXY", canvas_size=(H, W))
# The same transforms can be used!
img, boxes = transforms(img, boxes)
# And you can pass arbitrary input structures
output_dict = transforms({"image": img, "boxes": boxes})
转换通常作为 Datasets 的 transform
或 transforms
参数传递。
从这里开始¶
无论您是 Torchvision 转换的新手,还是已经熟练使用它们,我们都鼓励您从 开始使用 v2 转换 入手,以了解有关新 v2 转换功能的更多信息。
然后,浏览本页面下方的各部分,获取一般信息和性能提示。可用的转换和函数列在 API 参考 中。
更多信息和教程也可以在我们的 示例库 中找到,例如 Torchvision 转换 v2:端到端目标检测/分割示例 或 如何编写自己的 v2 转换。
支持的输入类型和约定¶
大多数转换都接受 PIL 图像和张量输入。CPU 和 CUDA 张量都支持。两种后端(PIL 或张量)的结果应该非常接近。一般来说,我们建议 为了性能 依赖张量后端。 转换转换 可用于在 PIL 图像之间转换,或用于转换数据类型和范围。
张量图像的形状应为 (C, H, W)
,其中 C
是通道数,H
和 W
分别表示高度和宽度。大多数转换都支持批量张量输入。张量图像的批次是形状为 (N, C, H, W)
的张量,其中 N
是批次中的图像数量。v2 转换(v2)通常接受任意数量的前导维度 (..., C, H, W)
,并且可以处理批量图像或批量视频。
数据类型和预期值范围¶
张量图像值的预期范围由张量数据类型隐式定义。具有浮点数据类型的张量图像应具有 [0, 1]
中的值。具有整数数据类型的张量图像应具有 [0, MAX_DTYPE]
中的值,其中 MAX_DTYPE
是该数据类型可表示的最大值。通常,数据类型为 torch.uint8
的图像应具有 [0, 255]
中的值。
使用 ToDtype
来转换输入的数据类型和范围。
V1 还是 V2?应该使用哪个?¶
简而言之:我们建议使用 torchvision.transforms.v2
转换而不是 torchvision.transforms
中的转换。它们更快,功能也更多。只需更改导入即可。将来,新功能和改进将仅为 v2 转换进行考虑。
在 Torchvision 0.15(2023 年 3 月)中,我们在 torchvision.transforms.v2
命名空间中发布了一组新的转换。与 v1 转换(在 torchvision.transforms
中)相比,这些转换具有许多优点:
它们可以转换图像以及边界框、掩码、视频和关键点。这为图像分类以外的任务提供了支持:检测、分割、视频分类、姿态估计等。请参阅 开始使用 v2 转换 和 Torchvision 转换 v2:端到端目标检测/分割示例。
它们支持更多转换,如
CutMix
和MixUp
。请参阅 如何使用 CutMix 和 MixUp 了解详细信息。它们更快。
它们支持任意输入结构(字典、列表、元组等)。
未来的改进和功能将仅添加到 v2 转换中。
这些转换完全向后兼容 v1 转换,因此如果您已经在使用 torchvision.transforms
中的转换,您只需将导入更新为 torchvision.transforms.v2
。在输出方面,由于实现差异,可能存在微小的差异。
性能注意事项¶
为了从转换中获得最佳性能,我们建议遵循以下指南:
依赖
torchvision.transforms.v2
中的 v2 转换使用张量而不是 PIL 图像
使用
torch.uint8
数据类型,尤其是在调整大小时使用双线性或双三次模式进行 resize
典型的转换流水线可能如下所示:
from torchvision.transforms import v2
transforms = v2.Compose([
v2.ToImage(), # Convert to tensor, only needed if you had a PIL image
v2.ToDtype(torch.uint8, scale=True), # optional, most input are already uint8 at this point
# ...
v2.RandomResizedCrop(size=(224, 224), antialias=True), # Or Resize(antialias=True)
# ...
v2.ToDtype(torch.float32, scale=True), # Normalize expects float input
v2.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
])
以上应该能在典型的训练环境中为您提供最佳性能,该环境依赖于具有 num_workers > 0
的 torch.utils.data.DataLoader
。
转换往往对输入步幅/内存格式敏感。某些转换在通道优先图像上会更快,而另一些则更喜欢通道最后。像 torch
运算符一样,大多数转换会保留输入的内存格式,但这可能由于实现细节而并非总是得到遵守。如果您追求最佳性能,您可能需要做一些实验。对单个转换使用 torch.compile()
可能也有助于消除内存格式变量(例如,在 Normalize
上)。请注意,我们讨论的是内存格式,而不是 张量形状。
请注意,像 Resize
和 RandomResizedCrop
这样的 resize 转换通常更喜欢通道最后的输入,并且目前不会从 torch.compile()
中受益。
转换类、函数和内核¶
转换以类的形式提供,例如 Resize
,也以函数的形式提供,例如 torchvision.transforms.v2.functional
命名空间中的 resize()
。这非常类似于 torch.nn
包,该包在 torch.nn.functional
中同时定义了类和函数等价物。
函数支持 PIL 图像、纯张量或 TVTensors,例如 resize(image_tensor)
和 resize(boxes)
都是有效的。
注意
随机转换(如 RandomCrop
)每次调用时都会随机采样一个参数。它们的函数对应项(crop()
)不进行任何随机采样,因此参数略有不同。转换类的 get_params()
类方法可用于在使用函数式 API 时执行参数采样。
此外,torchvision.transforms.v2.functional
命名空间还包含我们称之为“内核”的内容。这些是实现特定类型核心功能的低级函数,例如 resize_bounding_boxes
或 resized_crop_mask
。它们是公共的,但未被记录。请查看 代码 以查看哪些可用(请注意,以_开头的是不公开的!)。内核仅在您想要torchscript 支持以用于边界框或掩码等类型时才真正有用。
Torchscript 支持¶
大多数转换类和函数都支持 torchscript。要组合转换,请使用 torch.nn.Sequential
而不是 Compose
。
transforms = torch.nn.Sequential(
CenterCrop(10),
Normalize((0.485, 0.456, 0.406), (0.229, 0.224, 0.225)),
)
scripted_transforms = torch.jit.script(transforms)
警告
v2 转换支持 torchscript,但如果您对 v2 **类**转换调用 torch.jit.script()
,您将实际上得到其(scripted)v1 等价物。由于 v1 和 v2 之间的实现差异,这可能导致脚本执行和即时执行之间的结果略有不同。
如果您确实需要 v2 转换的 torchscript 支持,我们建议对 torchvision.transforms.v2.functional
命名空间中的函数进行脚本化,以避免意外。
另请注意,函数仅支持纯张量(始终被视为图像)的 torchscript。如果您需要对边界框或掩码等其他类型的 torchscript 支持,您可以依赖底层内核。
要与 torch.jit.script
一起使用的任何自定义转换,应从 torch.nn.Module
派生。
另请参阅:Torchscript 支持。
V2 API 参考 - 推荐¶
几何¶
调整大小¶
|
将输入调整到给定大小。 |
|
根据 “Simple Copy-Paste is a Strong Data Augmentation Method for Instance Segmentation” 对输入执行大尺度抖动。 |
|
随机调整输入大小。 |
|
随机调整输入大小。 |
函数
|
有关详细信息,请参阅 |
裁剪¶
|
从随机位置裁剪输入。 |
|
随机裁剪输入的一部分并将其调整为给定大小。 |
|
来自 “SSD: Single Shot MultiBox Detector” 的随机 IoU 裁剪转换。 |
|
从中心裁剪输入。 |
|
将图像或视频裁剪为四个角和中心裁剪。 |
|
将图像或视频裁剪为四个角和中心裁剪,外加这些的翻转版本(默认使用水平翻转)。 |
函数
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
其他¶
以给定的概率水平翻转输入。 |
|
以给定的概率垂直翻转输入。 |
|
|
在所有边上用给定的“填充”值填充输入。 |
|
来自 “SSD: Single Shot MultiBox Detector” 的“Zoom out”转换。 |
|
按角度旋转输入。 |
|
保持中心不变的随机仿射变换输入。 |
|
以给定的概率执行输入的随机透视变换。 |
|
使用弹性变换转换输入。 |
函数
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
颜色¶
|
随机改变图像或视频的亮度、对比度、饱和度和色调。 |
随机排列图像或视频的通道 |
|
|
随机扭曲图像或视频,如 SSD: Single Shot MultiBox Detector 中所述。 |
|
将图像或视频转换为灰度。 |
|
将图像或视频转换为 RGB(如果它们本身不是 RGB)。 |
|
以给定的概率(默认为 0.1)随机将图像或视频转换为灰度。 |
|
使用随机选择的高斯模糊核模糊图像。 |
|
向图像或视频添加高斯噪声。 |
|
以给定的概率反转给定图像或视频的颜色。 |
|
通过减少每个颜色通道的位数,以给定的概率对图像或视频进行镶嵌化处理。 |
|
通过反转高于阈值的所有像素值,以给定的概率对图像或视频进行曝光过度处理。 |
|
以给定的概率调整图像或视频的清晰度。 |
以给定的概率自动对比图像或视频的像素。 |
|
|
以给定的概率均衡图像或视频的直方图。 |
函数
|
根据给定的排列顺序重新排列输入的通道。 |
|
有关详细信息,请参阅 |
有关详细信息,请参阅 |
|
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
请参阅 |
|
请参阅 |
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
|
有关详细信息,请参阅 |
|
|
|
|
有关详细信息,请参阅 |
|
调整亮度。 |
|
调整饱和度。 |
|
调整色调 |
|
调整伽马。 |
组合¶
|
将多个转换组合在一起。 |
|
以给定的概率随机应用一系列变换。 |
|
随机从列表中选择一个转换并应用。 |
|
以随机顺序应用一系列转换。 |
杂项¶
使用平方变换矩阵和离线计算的均值向量转换张量图像或视频。 |
|
|
使用均值和标准差对张量图像或视频进行归一化。 |
|
随机选择输入图像或视频中的一个矩形区域并擦除其像素。 |
|
将用户定义的函数作为转换应用。 |
|
删除退化/无效的边界框及其相应的标签和掩码。 |
|
移除图像区域外的关键点及其相应的标签(如果有)。 |
|
将边界框限制在其对应的图像尺寸内。 |
将关键点限制在其对应的图像尺寸内。 |
|
|
从视频的时间维度均匀地抽取 |
|
对给定的图像应用 JPEG 压缩和解压缩。 |
函数
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
|
删除退化/无效的边界框并返回相应的索引掩码。 |
|
移除图像区域外的关键点及其相应的标签(如果有)。 |
|
有关详细信息,请参阅 |
|
有关详细信息,请参阅 |
有关详细信息,请参阅 |
|
|
有关详细信息,请参阅 |
转换¶
注意
请注意,以下某些转换转换会缩放值,而另一些可能不会进行任何缩放。缩放是指例如 uint8
-> float32
会将 [0, 255] 范围映射到 [0, 1](反之亦然)。请参阅 数据类型和预期值范围。
将张量、ndarray 或 PIL Image 转换为 |
|
将所有 TVTensor 转换为纯张量,移除关联的元数据(如果有)。 |
|
将 PIL Image 转换为相同类型的张量 - 此操作不缩放值。 |
|
|
将张量或 ndarray 转换为 PIL 图像 |
|
将输入转换为指定的数据类型,并可以选择为图像或视频缩放值。 |
|
将边界框坐标转换为给定的 |
函数
|
有关详细信息,请参阅 |
将 PIL 图像转换为相同类型的张量。 |
|
|
将张量或 ndarray 转换为 PIL Image。 |
|
有关详细信息,请参阅 |
有关详细信息,请参阅 |
已弃用
[已弃用] 请使用 |
|
|
[已弃用] 请使用 to_image() 和 to_dtype() 代替。 |
|
[已弃用] 请使用 |
|
[已弃用] 请使用 to_dtype() 代替。 |
自动增强¶
AutoAugment 是一种常见的数据增强技术,可以提高图像分类模型的准确性。尽管数据增强策略与其训练数据集直接相关,但经验研究表明,ImageNet 策略在应用于其他数据集时可以带来显著的改进。在 TorchVision 中,我们实现了三个在以下数据集上学习到的策略:ImageNet、CIFAR10 和 SVHN。新的转换可以单独使用,也可以与现有转换混合搭配。
|
基于 “AutoAugment: Learning Augmentation Strategies from Data” 的 AutoAugment 数据增强方法。 |
|
基于 “RandAugment: Practical automated data augmentation with a reduced search space” 的 RandAugment 数据增强方法。 |
|
独立于数据集的数据增强,采用 TrivialAugment Wide,如 “TrivialAugment: Tuning-free Yet State-of-the-Art Data Augmentation” 所述。 |
|
基于 “AugMix: A Simple Data Processing Method to Improve Robustness and Uncertainty” 的 AugMix 数据增强方法。 |
CutMix - MixUp¶
CutMix 和 MixUp 是特殊的转换,用于处理批次而不是单个图像,因为它们会组合成对的图像。这些可以在数据加载器之后(一旦样本被批处理),或者作为 collate 函数的一部分使用。有关详细用法示例,请参阅 如何使用 CutMix 和 MixUp。
|
将 CutMix 应用于提供的图像和标签批次。 |
|
将 MixUp 应用于提供的图像和标签批次。 |
开发者工具¶
实现您自己的 v2 转换的基类。 |
|
装饰一个内核,将其注册到一个函数和一个(自定义)tv_tensor 类型。 |
|
返回高度和宽度。 |
|
返回通道、高度和宽度。 |
|
返回输入中的边界框。 |
|
返回输入中的关键点。 |
V1 API 参考¶
几何¶
|
将输入图像调整为给定大小。 |
|
从随机位置裁剪给定图像。 |
|
随机裁剪图像的一部分并将其调整为给定大小。 |
|
从中心裁剪给定图像。 |
|
将给定图像裁剪为四个角和中心裁剪。 |
|
将给定图像裁剪为四个角和中心裁剪,外加这些的翻转版本(默认使用水平翻转)。 |
|
在所有边上用给定的“填充”值填充给定图像。 |
|
按角度旋转图像。 |
|
保持中心不变的图像随机仿射变换。 |
|
以给定的概率对给定图像执行随机透视变换。 |
|
使用弹性变换转换张量图像。 |
|
以给定的概率随机水平翻转给定图像。 |
|
以给定的概率随机垂直翻转给定图像。 |
颜色¶
|
随机改变图像的亮度、对比度、饱和度和色调。 |
|
将图像转换为灰度。 |
|
以给定的概率(默认为 0.1)随机将图像转换为灰度。 |
|
使用随机选择的高斯模糊模糊图像。 |
|
以给定的概率随机反转给定图像的颜色。 |
|
通过在给定概率下随机地减少每个颜色通道的比特数来实现图像的色调分离。 |
|
通过在给定概率下随机地反转高于阈值的所有像素值来对图像进行曝光处理。 |
|
通过在给定概率下随机地调整图像的锐度。 |
|
通过在给定概率下随机地自动调整给定图像的像素对比度。 |
|
通过在给定概率下随机地均衡给定图像的直方图。 |
组合¶
|
将多个转换组合在一起。 |
|
以给定的概率随机应用一系列变换。 |
|
随机从列表中选择一个转换并应用。 |
|
以随机顺序应用一系列转换。 |
杂项¶
|
使用离线计算的方阵变换矩阵和均值向量转换张量图像。 |
|
使用均值和标准差对张量图像进行归一化。 |
|
随机选择torch.Tensor图像中的一个矩形区域并擦除其像素。 |
|
将用户定义的lambda函数作为变换应用。 |
转换¶
注意
请注意,以下某些转换转换会缩放值,而另一些可能不会进行任何缩放。缩放是指例如 uint8
-> float32
会将 [0, 255] 范围映射到 [0, 1](反之亦然)。请参阅 数据类型和预期值范围。
|
将张量或 ndarray 转换为 PIL 图像 |
|
将 PIL 图像或 ndarray 转换为张量并相应地缩放值。 |
将 PIL Image 转换为相同类型的张量 - 此操作不缩放值。 |
|
|
将张量图像转换为指定的 |
自动增强¶
AutoAugment 是一种常见的数据增强技术,可以提高图像分类模型的准确性。尽管数据增强策略与其训练数据集直接相关,但经验研究表明,ImageNet 策略在应用于其他数据集时可以带来显著的改进。在 TorchVision 中,我们实现了三个在以下数据集上学习到的策略:ImageNet、CIFAR10 和 SVHN。新的转换可以单独使用,也可以与现有转换混合搭配。
|
在不同数据集上学习到的AutoAugment策略。 |
|
基于 “AutoAugment: Learning Augmentation Strategies from Data” 的 AutoAugment 数据增强方法。 |
|
基于 “RandAugment: Practical automated data augmentation with a reduced search space” 的 RandAugment 数据增强方法。 |
|
独立于数据集的数据增强,采用 TrivialAugment Wide,如 “TrivialAugment: Tuning-free Yet State-of-the-Art Data Augmentation” 所述。 |
|
基于 “AugMix: A Simple Data Processing Method to Improve Robustness and Uncertainty” 的 AugMix 数据增强方法。 |
函数式变换¶
|
调整图像的亮度。 |
|
调整图像的对比度。 |
|
对图像执行伽马校正。 |
|
调整图像的色相。 |
|
调整图像的色彩饱和度。 |
|
调整图像的锐度。 |
|
对图像应用仿射变换,保持图像中心不变。 |
|
通过重新映射每个通道的像素来最大化图像对比度,使最低值变为黑色,最高值变为白色。 |
|
从中心裁剪给定图像。 |
|
将张量图像转换为指定的 |
|
在指定位置和输出大小处裁剪给定图像。 |
|
通过对输入应用非线性映射来均衡图像的直方图,以便在输出中创建均匀分布的灰度值。 |
|
使用给定值擦除输入张量图像。 |
|
将给定图像裁剪为四个角和中心裁剪。 |
|
使用给定核对图像执行高斯模糊。 |
|
以[通道数, 高度, 宽度]的格式返回图像的尺寸。 |
返回图像的通道数。 |
|
|
以[宽度, 高度]的格式返回图像的大小。 |
|
水平翻转给定图像。 |
|
反转RGB/灰度图像的颜色。 |
|
使用均值和标准差对浮点张量图像进行归一化。 |
|
在所有边上用给定的“填充”值填充给定图像。 |
|
对给定图像执行透视变换。 |
|
将 PIL 图像转换为相同类型的张量。 |
|
通过减少每个颜色通道的比特数来使图像的色调分离。 |
|
将输入图像调整为给定大小。 |
|
裁剪给定图像并将其调整为所需大小。 |
|
将RGB图像转换为灰度版本。 |
|
按角度旋转图像。 |
|
通过反转高于阈值的所有像素值来对RGB/灰度图像进行曝光处理。 |
|
从给定图像生成十个裁剪后的图像。 |
|
将任何模式(RGB, HSV, LAB等)的PIL图像转换为灰度版本。 |
|
将张量或 ndarray 转换为 PIL Image。 |
|
将 |
|
垂直翻转给定图像。 |