torch.func.jacrev#
- torch.func.jacrev(func, argnums=0, *, has_aux=False, chunk_size=None, _preallocate_and_copy=False)[源代码]#
使用反向模式自动微分计算
func
相对于argnum
索引处的参数(们)的雅可比矩阵。注意
使用
chunk_size=1
等同于通过 for 循环逐行计算 Jacobian,即vmap()
的约束不适用。- 参数
func (function) – A Python function that takes one or more arguments, one of which must be a Tensor, and returns one or more Tensors
argnums (int 或 Tuple[int]) – 可选,整数或整数元组,指定要计算其 Jacobian 的参数。默认为:0。
has_aux (bool) – 指示
func
返回一个(output, aux)
元组的标志,其中第一个元素是要微分的函数的输出,第二个元素是不会被微分的辅助对象。默认为:False。chunk_size (None 或 int) – 如果为 None(默认),则使用最大块大小(等同于对 vjp 进行单个 vmap 来计算 Jacobian)。如果为 1,则逐行通过 for 循环计算 Jacobian。如果不是 None,则一次计算
chunk_size
行的 Jacobian(等同于进行多次 vmap over vjp)。如果您在计算 Jacobian 时遇到内存问题,请尝试指定一个非 None 的 chunk_size。
- 返回
返回一个函数,该函数接受与
func
相同的输入,并返回func
相对于argnums
中指定参数的 Jacobian。如果has_aux 为 True
,则返回的函数将返回一个(jacobian, aux)
元组,其中jacobian
是 Jacobian,aux
是func
返回的辅助对象。
A basic usage with a pointwise, unary operation will give a diagonal array as the Jacobian
>>> from torch.func import jacrev >>> x = torch.randn(5) >>> jacobian = jacrev(torch.sin)(x) >>> expected = torch.diag(torch.cos(x)) >>> assert torch.allclose(jacobian, expected)
If you would like to compute the output of the function as well as the jacobian of the function, use the
has_aux
flag to return the output as an auxiliary object>>> from torch.func import jacrev >>> x = torch.randn(5) >>> >>> def f(x): >>> return x.sin() >>> >>> def g(x): >>> result = f(x) >>> return result, result >>> >>> jacobian_f, f_x = jacrev(g, has_aux=True)(x) >>> assert torch.allclose(f_x, f(x))
jacrev()
可以与 vmap 组合以生成批量 Jacobian。>>> from torch.func import jacrev, vmap >>> x = torch.randn(64, 5) >>> jacobian = vmap(jacrev(torch.sin))(x) >>> assert jacobian.shape == (64, 5, 5)
此外,
jacrev()
可以与自身组合以生成 Hessian。>>> from torch.func import jacrev >>> def f(x): >>> return x.sin().sum() >>> >>> x = torch.randn(5) >>> hessian = jacrev(jacrev(f))(x) >>> assert torch.allclose(hessian, torch.diag(-x.sin()))
默认情况下,
jacrev()
计算相对于第一个输入的 Jacobian。但是,您可以使用argnums
来计算相对于其他参数的 Jacobian。>>> from torch.func import jacrev >>> def f(x, y): >>> return x + y ** 2 >>> >>> x, y = torch.randn(5), torch.randn(5) >>> jacobian = jacrev(f, argnums=1)(x, y) >>> expected = torch.diag(2 * y) >>> assert torch.allclose(jacobian, expected)
Additionally, passing a tuple to
argnums
will compute the Jacobian with respect to multiple arguments>>> from torch.func import jacrev >>> def f(x, y): >>> return x + y ** 2 >>> >>> x, y = torch.randn(5), torch.randn(5) >>> jacobian = jacrev(f, argnums=(0, 1))(x, y) >>> expectedX = torch.diag(torch.ones_like(x)) >>> expectedY = torch.diag(2 * y) >>> assert torch.allclose(jacobian[0], expectedX) >>> assert torch.allclose(jacobian[1], expectedY)
注意
将 PyTorch 的
torch.no_grad
与jacrev
一起使用。情况 1:在函数内部使用torch.no_grad
。>>> def f(x): >>> with torch.no_grad(): >>> c = x ** 2 >>> return x - c
在这种情况下,
jacrev(f)(x)
将尊重内部的torch.no_grad
。情况 2:在
torch.no_grad
上下文管理器内部使用jacrev
。>>> with torch.no_grad(): >>> jacrev(f)(x)
在这种情况下,
jacrev
将尊重内部的torch.no_grad
,但不会尊重外部的。这是因为jacrev
是一个“函数变换”:其结果不应依赖于f
外部的上下文管理器的结果。