评价此页

自定义 Python 算子#

创建于:2024 年 6 月 18 日 | 最后更新:2025 年 3 月 19 日 | 最后验证:2024 年 11 月 5 日

您将学到什么
  • 如何将用 Python 编写的自定义算子与 PyTorch 集成

  • 如何使用 torch.library.opcheck 测试自定义算子

先决条件
  • PyTorch 2.4 或更高版本

PyTorch 提供了大量适用于张量的算子库(例如 torch.addtorch.sum 等)。但是,您可能希望在 PyTorch 中使用一个新的自定义算子,也许是由第三方库编写的。本教程演示如何包装 Python 函数,使其表现得像 PyTorch 原生算子。您可能希望在 PyTorch 中创建自定义算子的原因包括

  • 将任意 Python 函数视为相对于 torch.compile 的不透明可调用对象(即,防止 torch.compile 跟踪到该函数中)。

  • 为任意 Python 函数添加训练支持

使用 torch.library.custom_op() 创建 Python 自定义算子。使用 C++ TORCH_LIBRARY API 创建 C++ 自定义算子(这些可以在无 Python 环境中工作)。有关更多详细信息,请参阅 自定义算子着陆页

请注意,如果您的操作可以表示为现有 PyTorch 算子的组合,那么通常不需要使用自定义算子 API——所有内容(例如 torch.compile、训练支持)都应该可以正常工作。

示例:将 PIL 的 crop 包装到自定义算子中#

假设我们正在使用 PIL 的 crop 操作。

import torch
from torchvision.transforms.functional import to_pil_image, pil_to_tensor
import PIL
import IPython
import matplotlib.pyplot as plt

def crop(pic, box):
    img = to_pil_image(pic.cpu())
    cropped_img = img.crop(box)
    return pil_to_tensor(cropped_img).to(pic.device) / 255.

def display(img):
    plt.imshow(img.numpy().transpose((1, 2, 0)))

img = torch.ones(3, 64, 64)
img *= torch.linspace(0, 1, steps=64) * torch.linspace(0, 1, steps=64).unsqueeze(-1)
display(img)
python custom ops
cropped_img = crop(img, (10, 10, 50, 50))
display(cropped_img)
python custom ops

crop 无法通过 torch.compile 开箱即用地有效处理:torch.compile 会对它无法处理的函数产生 “图中断”,而图中断对性能不利。以下代码通过引发错误 (torch.compilefullgraph=True 发生图中断时会引发错误) 来演示这一点。

@torch.compile(fullgraph=True)
def f(img):
    return crop(img, (10, 10, 50, 50))

# The following raises an error. Uncomment the line to see it.
# cropped_img = f(img)

为了将 crop 封装起来以供 torch.compile 使用,我们需要做两件事

  1. 将函数包装到 PyTorch 自定义算子中。

  2. 为算子添加一个“FakeTensor 内核”(也称为“元内核”)。给定一些 FakeTensors 输入(不具有存储的虚拟张量),此函数应返回具有正确张量元数据(形状/步幅/dtype/设备)的虚拟张量。

from typing import Sequence

# Use torch.library.custom_op to define a new custom operator.
# If your operator mutates any input Tensors, their names must be specified
# in the ``mutates_args`` argument.
@torch.library.custom_op("mylib::crop", mutates_args=())
def crop(pic: torch.Tensor, box: Sequence[int]) -> torch.Tensor:
    img = to_pil_image(pic.cpu())
    cropped_img = img.crop(box)
    return (pil_to_tensor(cropped_img) / 255.).to(pic.device, pic.dtype)

# Use register_fake to add a ``FakeTensor`` kernel for the operator
@crop.register_fake
def _(pic, box):
    channels = pic.shape[0]
    x0, y0, x1, y1 = box
    result = pic.new_empty(y1 - y0, x1 - x0, channels).permute(2, 0, 1)
    # The result should have the same metadata (shape/strides/``dtype``/device)
    # as running the ``crop`` function above.
    return result

之后,crop 现在可以工作而不会出现图中断

@torch.compile(fullgraph=True)
def f(img):
    return crop(img, (10, 10, 50, 50))

cropped_img = f(img)
display(img)
python custom ops
display(cropped_img)
python custom ops

为 crop 添加训练支持#

使用 torch.library.register_autograd 为算子添加训练支持。最好不要直接使用 torch.autograd.Functionautograd.Function 与 PyTorch 算子注册 API 的某些组合可能导致(并且确实导致)与 torch.compile 组合时的静默错误。

如果您不需要训练支持,则无需使用 torch.library.register_autograd。如果您最终使用没有自动梯度注册的 custom_op 进行训练,我们将引发错误消息。

crop 的梯度公式基本上是 PIL.paste(我们将把推导留作练习给读者)。让我们首先将 paste 包装到自定义算子中

@torch.library.custom_op("mylib::paste", mutates_args=())
def paste(im1: torch.Tensor, im2: torch.Tensor, coord: Sequence[int]) -> torch.Tensor:
    assert im1.device == im2.device
    assert im1.dtype == im2.dtype
    im1_pil = to_pil_image(im1.cpu())
    im2_pil = to_pil_image(im2.cpu())
    PIL.Image.Image.paste(im1_pil, im2_pil, coord)
    return (pil_to_tensor(im1_pil) / 255.).to(im1.device, im1.dtype)

@paste.register_fake
def _(im1, im2, coord):
    assert im1.device == im2.device
    assert im1.dtype == im2.dtype
    return torch.empty_like(im1)

现在让我们使用 register_autograd 指定 crop 的梯度公式

def backward(ctx, grad_output):
    grad_input = grad_output.new_zeros(ctx.pic_shape)
    grad_input = paste(grad_input, grad_output, ctx.coords)
    return grad_input, None

def setup_context(ctx, inputs, output):
    pic, box = inputs
    ctx.coords = box[:2]
    ctx.pic_shape = pic.shape

crop.register_autograd(backward, setup_context=setup_context)

请注意,反向传播必须是 PyTorch 可以理解的算子的组合,这就是为什么我们将 paste 包装到自定义算子中而不是直接使用 PIL 的 paste 的原因。

img = img.requires_grad_()
result = crop(img, (10, 10, 50, 50))
result.sum().backward()
display(img.grad)
python custom ops

这是正确的梯度,裁剪区域为 1(白色),未使用区域为 0(黑色)。

测试 Python 自定义算子#

使用 torch.library.opcheck 测试自定义算子是否已正确注册。这不会测试梯度在数学上是否正确;请为这些编写单独的测试(手动测试或 torch.autograd.gradcheck)。

要使用 opcheck,请传递一组示例输入进行测试。如果您的算子支持训练,则示例应包括需要 grad 的张量。如果您的算子支持多个设备,则示例应包括来自每个设备的张量。

examples = [
    [torch.randn(3, 64, 64), [0, 0, 10, 10]],
    [torch.randn(3, 91, 91, requires_grad=True), [10, 0, 20, 10]],
    [torch.randn(3, 60, 60, dtype=torch.double), [3, 4, 32, 20]],
    [torch.randn(3, 512, 512, requires_grad=True, dtype=torch.double), [3, 4, 32, 45]],
]

for example in examples:
    torch.library.opcheck(crop, example)

可变 Python 自定义算子#

您还可以将修改其输入的 Python 函数包装到自定义算子中。修改输入的函数很常见,因为许多低级内核就是这样编写的;例如,计算 sin 的内核可能会接收输入和输出张量,并将 input.sin() 写入输出张量。

我们将使用 numpy.sin 演示一个可变 Python 自定义算子的示例。

import numpy as np

@torch.library.custom_op("mylib::numpy_sin", mutates_args={"output"}, device_types="cpu")
def numpy_sin(input: torch.Tensor, output: torch.Tensor) -> None:
    assert input.device == output.device
    assert input.device.type == "cpu"
    input_np = input.numpy()
    output_np = output.numpy()
    np.sin(input_np, out=output_np)

由于算子不返回任何内容,因此无需注册 FakeTensor 内核(元内核)使其与 torch.compile 一起工作。

@torch.compile(fullgraph=True)
def f(x):
    out = torch.empty(3)
    numpy_sin(x, out)
    return out

x = torch.randn(3)
y = f(x)
assert torch.allclose(y, x.sin())

这是一个 opcheck 运行,告诉我们我们确实正确地注册了算子。例如,如果我们忘记将输出添加到 mutates_argsopcheck 会报错。

example_inputs = [
    [torch.randn(3), torch.empty(3)],
    [torch.randn(0, 3), torch.empty(0, 3)],
    [torch.randn(1, 2, 3, 4, dtype=torch.double), torch.empty(1, 2, 3, 4, dtype=torch.double)],
]

for example in example_inputs:
    torch.library.opcheck(numpy_sin, example)

结论#

在本教程中,我们学习了如何使用 torch.library.custom_op 创建一个与 PyTorch 子系统(如 torch.compile 和自动梯度)一起工作的 Python 自定义算子。

本教程提供了自定义算子的基本介绍。有关更多详细信息,请参阅

脚本总运行时间:(0 分钟 3.465 秒)