• 文档 >
  • 转换图像、视频、框等
快捷方式

转换图像、视频、边界框等

Torchvision 在 torchvision.transforms.v2 模块中支持常见的计算机视觉转换。转换可用于转换和增强训练或推理的数据。支持以下对象:

  • 纯张量图像、Image 或 PIL 图像

  • 视频,作为 Video

  • 轴对齐和旋转的边界框,作为 BoundingBoxes

  • 分割和检测掩码,作为 Mask

  • 关键点,作为 KeyPoints

# Image Classification
import torch
from torchvision.transforms import v2

H, W = 32, 32
img = torch.randint(0, 256, size=(3, H, W), dtype=torch.uint8)

transforms = v2.Compose([
    v2.RandomResizedCrop(size=(224, 224), antialias=True),
    v2.RandomHorizontalFlip(p=0.5),
    v2.ToDtype(torch.float32, scale=True),
    v2.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
])
img = transforms(img)
# Detection (re-using imports and transforms from above)
from torchvision import tv_tensors

img = torch.randint(0, 256, size=(3, H, W), dtype=torch.uint8)
boxes = torch.randint(0, H // 2, size=(3, 4))
boxes[:, 2:] += boxes[:, :2]
boxes = tv_tensors.BoundingBoxes(boxes, format="XYXY", canvas_size=(H, W))

# The same transforms can be used!
img, boxes = transforms(img, boxes)
# And you can pass arbitrary input structures
output_dict = transforms({"image": img, "boxes": boxes})

转换通常作为 Datasetstransformtransforms 参数传递。

从这里开始

无论您是 Torchvision 转换的新手,还是已经熟练使用它们,我们都鼓励您从 开始使用 v2 转换 入手,以了解有关新 v2 转换功能的更多信息。

然后,浏览本页面下方的各部分,获取一般信息和性能提示。可用的转换和函数列在 API 参考 中。

更多信息和教程也可以在我们的 示例库 中找到,例如 Torchvision 转换 v2:端到端目标检测/分割示例如何编写自己的 v2 转换

支持的输入类型和约定

大多数转换都接受 PIL 图像和张量输入。CPU 和 CUDA 张量都支持。两种后端(PIL 或张量)的结果应该非常接近。一般来说,我们建议 为了性能 依赖张量后端。 转换转换 可用于在 PIL 图像之间转换,或用于转换数据类型和范围。

张量图像的形状应为 (C, H, W),其中 C 是通道数,HW 分别表示高度和宽度。大多数转换都支持批量张量输入。张量图像的批次是形状为 (N, C, H, W) 的张量,其中 N 是批次中的图像数量。v2 转换(v2)通常接受任意数量的前导维度 (..., C, H, W),并且可以处理批量图像或批量视频。

数据类型和预期值范围

张量图像值的预期范围由张量数据类型隐式定义。具有浮点数据类型的张量图像应具有 [0, 1] 中的值。具有整数数据类型的张量图像应具有 [0, MAX_DTYPE] 中的值,其中 MAX_DTYPE 是该数据类型可表示的最大值。通常,数据类型为 torch.uint8 的图像应具有 [0, 255] 中的值。

使用 ToDtype 来转换输入的数据类型和范围。

V1 还是 V2?应该使用哪个?

简而言之:我们建议使用 torchvision.transforms.v2 转换而不是 torchvision.transforms 中的转换。它们更快,功能也更多。只需更改导入即可。将来,新功能和改进将仅为 v2 转换进行考虑。

在 Torchvision 0.15(2023 年 3 月)中,我们在 torchvision.transforms.v2 命名空间中发布了一组新的转换。与 v1 转换(在 torchvision.transforms 中)相比,这些转换具有许多优点:

这些转换完全向后兼容 v1 转换,因此如果您已经在使用 torchvision.transforms 中的转换,您只需将导入更新为 torchvision.transforms.v2。在输出方面,由于实现差异,可能存在微小的差异。

性能注意事项

为了从转换中获得最佳性能,我们建议遵循以下指南:

  • 依赖 torchvision.transforms.v2 中的 v2 转换

  • 使用张量而不是 PIL 图像

  • 使用 torch.uint8 数据类型,尤其是在调整大小时

  • 使用双线性或双三次模式进行 resize

典型的转换流水线可能如下所示:

from torchvision.transforms import v2
transforms = v2.Compose([
    v2.ToImage(),  # Convert to tensor, only needed if you had a PIL image
    v2.ToDtype(torch.uint8, scale=True),  # optional, most input are already uint8 at this point
    # ...
    v2.RandomResizedCrop(size=(224, 224), antialias=True),  # Or Resize(antialias=True)
    # ...
    v2.ToDtype(torch.float32, scale=True),  # Normalize expects float input
    v2.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
])

以上应该能在典型的训练环境中为您提供最佳性能,该环境依赖于具有 num_workers > 0torch.utils.data.DataLoader

转换往往对输入步幅/内存格式敏感。某些转换在通道优先图像上会更快,而另一些则更喜欢通道最后。像 torch 运算符一样,大多数转换会保留输入的内存格式,但这可能由于实现细节而并非总是得到遵守。如果您追求最佳性能,您可能需要做一些实验。对单个转换使用 torch.compile() 可能也有助于消除内存格式变量(例如,在 Normalize 上)。请注意,我们讨论的是内存格式,而不是 张量形状

请注意,像 ResizeRandomResizedCrop 这样的 resize 转换通常更喜欢通道最后的输入,并且目前不会torch.compile() 中受益。

转换类、函数和内核

转换以类的形式提供,例如 Resize,也以函数的形式提供,例如 torchvision.transforms.v2.functional 命名空间中的 resize()。这非常类似于 torch.nn 包,该包在 torch.nn.functional 中同时定义了类和函数等价物。

函数支持 PIL 图像、纯张量或 TVTensors,例如 resize(image_tensor)resize(boxes) 都是有效的。

注意

随机转换(如 RandomCrop)每次调用时都会随机采样一个参数。它们的函数对应项(crop())不进行任何随机采样,因此参数略有不同。转换类的 get_params() 类方法可用于在使用函数式 API 时执行参数采样。

此外,torchvision.transforms.v2.functional 命名空间还包含我们称之为“内核”的内容。这些是实现特定类型核心功能的低级函数,例如 resize_bounding_boxesresized_crop_mask。它们是公共的,但未被记录。请查看 代码 以查看哪些可用(请注意,以_开头的是公开的!)。内核仅在您想要torchscript 支持以用于边界框或掩码等类型时才真正有用。

Torchscript 支持

大多数转换类和函数都支持 torchscript。要组合转换,请使用 torch.nn.Sequential 而不是 Compose

transforms = torch.nn.Sequential(
    CenterCrop(10),
    Normalize((0.485, 0.456, 0.406), (0.229, 0.224, 0.225)),
)
scripted_transforms = torch.jit.script(transforms)

警告

v2 转换支持 torchscript,但如果您对 v2 **类**转换调用 torch.jit.script(),您将实际上得到其(scripted)v1 等价物。由于 v1 和 v2 之间的实现差异,这可能导致脚本执行和即时执行之间的结果略有不同。

如果您确实需要 v2 转换的 torchscript 支持,我们建议对 torchvision.transforms.v2.functional 命名空间中的函数进行脚本化,以避免意外。

另请注意,函数仅支持纯张量(始终被视为图像)的 torchscript。如果您需要对边界框或掩码等其他类型的 torchscript 支持,您可以依赖底层内核

要与 torch.jit.script 一起使用的任何自定义转换,应从 torch.nn.Module 派生。

另请参阅:Torchscript 支持

V1 API 参考

几何

Resize(size[, interpolation, max_size, ...])

将输入图像调整为给定大小。

RandomCrop(size[, padding, pad_if_needed, ...])

从随机位置裁剪给定图像。

RandomResizedCrop(size[, scale, ratio, ...])

随机裁剪图像的一部分并将其调整为给定大小。

CenterCrop(size)

从中心裁剪给定图像。

FiveCrop(size)

将给定图像裁剪为四个角和中心裁剪。

TenCrop(size[, vertical_flip])

将给定图像裁剪为四个角和中心裁剪,外加这些的翻转版本(默认使用水平翻转)。

Pad(padding[, fill, padding_mode])

在所有边上用给定的“填充”值填充给定图像。

RandomRotation(degrees[, interpolation, ...])

按角度旋转图像。

RandomAffine(degrees[, translate, scale, ...])

保持中心不变的图像随机仿射变换。

RandomPerspective([distortion_scale, p, ...])

以给定的概率对给定图像执行随机透视变换。

ElasticTransform([alpha, sigma, ...])

使用弹性变换转换张量图像。

RandomHorizontalFlip([p])

以给定的概率随机水平翻转给定图像。

RandomVerticalFlip([p])

以给定的概率随机垂直翻转给定图像。

颜色

ColorJitter([brightness, contrast, ...])

随机改变图像的亮度、对比度、饱和度和色调。

Grayscale([num_output_channels])

将图像转换为灰度。

RandomGrayscale([p])

以给定的概率(默认为 0.1)随机将图像转换为灰度。

GaussianBlur(kernel_size[, sigma])

使用随机选择的高斯模糊模糊图像。

RandomInvert([p])

以给定的概率随机反转给定图像的颜色。

RandomPosterize(bits[, p])

通过在给定概率下随机地减少每个颜色通道的比特数来实现图像的色调分离。

RandomSolarize(threshold[, p])

通过在给定概率下随机地反转高于阈值的所有像素值来对图像进行曝光处理。

RandomAdjustSharpness(sharpness_factor[, p])

通过在给定概率下随机地调整图像的锐度。

RandomAutocontrast([p])

通过在给定概率下随机地自动调整给定图像的像素对比度。

RandomEqualize([p])

通过在给定概率下随机地均衡给定图像的直方图。

组合

Compose(transforms)

将多个转换组合在一起。

RandomApply(transforms[, p])

以给定的概率随机应用一系列变换。

RandomChoice(transforms[, p])

随机从列表中选择一个转换并应用。

RandomOrder(transforms)

以随机顺序应用一系列转换。

杂项

LinearTransformation(transformation_matrix, ...)

使用离线计算的方阵变换矩阵和均值向量转换张量图像。

Normalize(mean, std[, inplace])

使用均值和标准差对张量图像进行归一化。

RandomErasing([p, scale, ratio, value, inplace])

随机选择torch.Tensor图像中的一个矩形区域并擦除其像素。

Lambda(lambd)

将用户定义的lambda函数作为变换应用。

转换

注意

请注意,以下某些转换转换会缩放值,而另一些可能不会进行任何缩放。缩放是指例如 uint8 -> float32 会将 [0, 255] 范围映射到 [0, 1](反之亦然)。请参阅 数据类型和预期值范围

ToPILImage([mode])

将张量或 ndarray 转换为 PIL 图像

ToTensor()

将 PIL 图像或 ndarray 转换为张量并相应地缩放值。

PILToTensor()

将 PIL Image 转换为相同类型的张量 - 此操作不缩放值。

ConvertImageDtype(dtype)

将张量图像转换为指定的dtype并相应地缩放值。

自动增强

AutoAugment 是一种常见的数据增强技术,可以提高图像分类模型的准确性。尽管数据增强策略与其训练数据集直接相关,但经验研究表明,ImageNet 策略在应用于其他数据集时可以带来显著的改进。在 TorchVision 中,我们实现了三个在以下数据集上学习到的策略:ImageNet、CIFAR10 和 SVHN。新的转换可以单独使用,也可以与现有转换混合搭配。

AutoAugmentPolicy(value)

在不同数据集上学习到的AutoAugment策略。

AutoAugment([policy, interpolation, fill])

基于 “AutoAugment: Learning Augmentation Strategies from Data” 的 AutoAugment 数据增强方法。

RandAugment([num_ops, magnitude, ...])

基于 “RandAugment: Practical automated data augmentation with a reduced search space” 的 RandAugment 数据增强方法。

TrivialAugmentWide([num_magnitude_bins, ...])

独立于数据集的数据增强,采用 TrivialAugment Wide,如 “TrivialAugment: Tuning-free Yet State-of-the-Art Data Augmentation” 所述。

AugMix([severity, mixture_width, ...])

基于 “AugMix: A Simple Data Processing Method to Improve Robustness and Uncertainty” 的 AugMix 数据增强方法。

函数式变换

adjust_brightness(img, brightness_factor)

调整图像的亮度。

adjust_contrast(img, contrast_factor)

调整图像的对比度。

adjust_gamma(img, gamma[, gain])

对图像执行伽马校正。

adjust_hue(img, hue_factor)

调整图像的色相。

adjust_saturation(img, saturation_factor)

调整图像的色彩饱和度。

adjust_sharpness(img, sharpness_factor)

调整图像的锐度。

affine(img, angle, translate, scale, shear)

对图像应用仿射变换,保持图像中心不变。

autocontrast(img)

通过重新映射每个通道的像素来最大化图像对比度,使最低值变为黑色,最高值变为白色。

center_crop(img, output_size)

从中心裁剪给定图像。

convert_image_dtype(image[, dtype])

将张量图像转换为指定的dtype并相应地缩放值。此函数不支持PIL Image。

crop(img, top, left, height, width)

在指定位置和输出大小处裁剪给定图像。

equalize(img)

通过对输入应用非线性映射来均衡图像的直方图,以便在输出中创建均匀分布的灰度值。

erase(img, i, j, h, w, v[, inplace])

使用给定值擦除输入张量图像。

five_crop(img, size)

将给定图像裁剪为四个角和中心裁剪。

gaussian_blur(img, kernel_size[, sigma])

使用给定核对图像执行高斯模糊。

get_dimensions(img)

以[通道数, 高度, 宽度]的格式返回图像的尺寸。

get_image_num_channels(img)

返回图像的通道数。

get_image_size(img)

以[宽度, 高度]的格式返回图像的大小。

hflip(img)

水平翻转给定图像。

invert(img)

反转RGB/灰度图像的颜色。

normalize(tensor, mean, std[, inplace])

使用均值和标准差对浮点张量图像进行归一化。

pad(img, padding[, fill, padding_mode])

在所有边上用给定的“填充”值填充给定图像。

perspective(img, startpoints, endpoints[, ...])

对给定图像执行透视变换。

pil_to_tensor(pic)

将 PIL 图像转换为相同类型的张量。

posterize(img, bits)

通过减少每个颜色通道的比特数来使图像的色调分离。

resize(img, size[, interpolation, max_size, ...])

将输入图像调整为给定大小。

resized_crop(img, top, left, height, width, size)

裁剪给定图像并将其调整为所需大小。

rgb_to_grayscale(img[, num_output_channels])

将RGB图像转换为灰度版本。

rotate(img, angle[, interpolation, expand, ...])

按角度旋转图像。

solarize(img, threshold)

通过反转高于阈值的所有像素值来对RGB/灰度图像进行曝光处理。

ten_crop(img, size[, vertical_flip])

从给定图像生成十个裁剪后的图像。

to_grayscale(img[, num_output_channels])

将任何模式(RGB, HSV, LAB等)的PIL图像转换为灰度版本。

to_pil_image(pic[, mode])

将张量或 ndarray 转换为 PIL Image。

to_tensor(pic)

PIL Imagenumpy.ndarray转换为张量。

vflip(img)

垂直翻转给定图像。

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

为初学者和高级开发者提供深入的教程

查看教程

资源

查找开发资源并让您的问题得到解答

查看资源