评价此页

torch.func.jacrev#

torch.func.jacrev(func, argnums=0, *, has_aux=False, chunk_size=None, _preallocate_and_copy=False)[源代码]#

使用反向模式自动微分计算 func 相对于 argnum 索引处的参数(们)的雅可比矩阵。

注意

使用 chunk_size=1 等同于通过 for 循环逐行计算 Jacobian,即 vmap() 的约束不适用。

参数
  • func (function) – A Python function that takes one or more arguments, one of which must be a Tensor, and returns one or more Tensors

  • argnums (intTuple[int]) – 可选,整数或整数元组,指定要计算其 Jacobian 的参数。默认为:0。

  • has_aux (bool) – 指示 func 返回一个 (output, aux) 元组的标志,其中第一个元素是要微分的函数的输出,第二个元素是不会被微分的辅助对象。默认为:False。

  • chunk_size (Noneint) – 如果为 None(默认),则使用最大块大小(等同于对 vjp 进行单个 vmap 来计算 Jacobian)。如果为 1,则逐行通过 for 循环计算 Jacobian。如果不是 None,则一次计算 chunk_size 行的 Jacobian(等同于进行多次 vmap over vjp)。如果您在计算 Jacobian 时遇到内存问题,请尝试指定一个非 None 的 chunk_size。

返回

返回一个函数,该函数接受与 func 相同的输入,并返回 func 相对于 argnums 中指定参数的 Jacobian。如果 has_aux True,则返回的函数将返回一个 (jacobian, aux) 元组,其中 jacobian 是 Jacobian,auxfunc 返回的辅助对象。

A basic usage with a pointwise, unary operation will give a diagonal array as the Jacobian

>>> from torch.func import jacrev
>>> x = torch.randn(5)
>>> jacobian = jacrev(torch.sin)(x)
>>> expected = torch.diag(torch.cos(x))
>>> assert torch.allclose(jacobian, expected)

If you would like to compute the output of the function as well as the jacobian of the function, use the has_aux flag to return the output as an auxiliary object

>>> from torch.func import jacrev
>>> x = torch.randn(5)
>>>
>>> def f(x):
>>>   return x.sin()
>>>
>>> def g(x):
>>>   result = f(x)
>>>   return result, result
>>>
>>> jacobian_f, f_x = jacrev(g, has_aux=True)(x)
>>> assert torch.allclose(f_x, f(x))

jacrev() 可以与 vmap 组合以生成批量 Jacobian。

>>> from torch.func import jacrev, vmap
>>> x = torch.randn(64, 5)
>>> jacobian = vmap(jacrev(torch.sin))(x)
>>> assert jacobian.shape == (64, 5, 5)

此外,jacrev() 可以与自身组合以生成 Hessian。

>>> from torch.func import jacrev
>>> def f(x):
>>>   return x.sin().sum()
>>>
>>> x = torch.randn(5)
>>> hessian = jacrev(jacrev(f))(x)
>>> assert torch.allclose(hessian, torch.diag(-x.sin()))

默认情况下,jacrev() 计算相对于第一个输入的 Jacobian。但是,您可以使用 argnums 来计算相对于其他参数的 Jacobian。

>>> from torch.func import jacrev
>>> def f(x, y):
>>>   return x + y ** 2
>>>
>>> x, y = torch.randn(5), torch.randn(5)
>>> jacobian = jacrev(f, argnums=1)(x, y)
>>> expected = torch.diag(2 * y)
>>> assert torch.allclose(jacobian, expected)

Additionally, passing a tuple to argnums will compute the Jacobian with respect to multiple arguments

>>> from torch.func import jacrev
>>> def f(x, y):
>>>   return x + y ** 2
>>>
>>> x, y = torch.randn(5), torch.randn(5)
>>> jacobian = jacrev(f, argnums=(0, 1))(x, y)
>>> expectedX = torch.diag(torch.ones_like(x))
>>> expectedY = torch.diag(2 * y)
>>> assert torch.allclose(jacobian[0], expectedX)
>>> assert torch.allclose(jacobian[1], expectedY)

注意

将 PyTorch 的 torch.no_gradjacrev 一起使用。情况 1:在函数内部使用 torch.no_grad

>>> def f(x):
>>>     with torch.no_grad():
>>>         c = x ** 2
>>>     return x - c

在这种情况下,jacrev(f)(x) 将尊重内部的 torch.no_grad

情况 2:在 torch.no_grad 上下文管理器内部使用 jacrev

>>> with torch.no_grad():
>>>     jacrev(f)(x)

在这种情况下,jacrev 将尊重内部的 torch.no_grad,但不会尊重外部的。这是因为 jacrev 是一个“函数变换”:其结果不应依赖于 f 外部的上下文管理器的结果。