自动微分包 - torch.autograd#
创建日期:2016 年 12 月 23 日 | 最后更新日期:2025 年 6 月 12 日
torch.autograd
提供了实现任意标量值函数自动微分的类和函数。
它只需要对现有代码进行最少的更改——您只需使用 requires_grad=True
关键字声明需要计算梯度的 Tensor
。目前,我们仅支持浮点 Tensor
类型(half, float, double 和 bfloat16)以及复数 Tensor
类型(cfloat, cdouble)的自动微分。
前向模式自动微分#
警告
此 API 处于 beta 阶段。尽管函数签名非常可能不会改变,但在我们认为其稳定之前,计划对其算子覆盖范围进行改进。
有关如何使用此 API 的详细步骤,请参阅前向模式 AD 教程。
前向 AD 的上下文管理器,所有前向 AD 计算都必须发生在 |
|
将张量值与其切线关联起来,创建一个“对偶张量”用于前向 AD 梯度计算。 |
|
解压“对偶张量”以获取其张量值和前向 AD 梯度。 |
|
进入一个新的前向 grad 级别。 |
|
退出前向 grad 级别。 |
|
由 |
功能性高级 API#
警告
此 API 处于 beta 阶段。尽管函数签名非常可能不会改变,但在我们认为其稳定之前,计划对其进行重大的性能改进。
本节包含 autograd 的高级 API,它建立在上述基本 API 之上,允许您计算雅可比矩阵、海森矩阵等。
此 API 与仅接受张量作为输入并仅返回张量的用户提供的函数配合使用。如果您的函数接受非张量参数或未设置 requires_grad 的张量,您可以使用 lambda 来捕获它们。例如,对于一个接受三个输入的函数 f
,其中一个是我们想要其雅可比矩阵的张量,另一个张量应被视为常量,还有一个布尔标志,例如 f(input, constant, flag=flag)
,您可以使用 functional.jacobian(lambda x: f(x, constant, flag=flag), input)
。
计算给定函数的雅可比矩阵。 |
|
计算给定标量函数的海森矩阵。 |
|
计算向量 |
|
计算给定函数在输入点处雅可比矩阵与向量 |
|
计算向量 |
|
计算标量函数的海森矩阵与向量 |
局部禁用梯度计算#
有关 no-grad 和 inference 模式之间差异以及其他可能与之混淆的相关机制的更多信息,请参阅 本地禁用梯度计算。有关用于本地禁用梯度的函数列表,请参阅 本地禁用梯度计算。
默认梯度布局#
当非稀疏 param
在 torch.autograd.backward()
或 torch.Tensor.backward()
中接收到非稀疏梯度时,param.grad
会按如下方式累加。
如果 param.grad
最初为 None
如果
param
的内存是非重叠且稠密的,则.grad
会以与param
匹配的步幅创建(从而匹配param
的布局)。否则,
.grad
会以行主序连续的步幅创建。
如果 param
已经有一个非稀疏的 .grad
属性
如果
create_graph=False
,backward()
会原地累加到.grad
中,这会保留其步幅。如果
create_graph=True
,backward()
会将.grad
替换为一个新张量.grad + new grad
,该新张量会尝试(但不保证)匹配预先存在的.grad
的步幅。
建议采用默认行为(在第一次 backward()
之前让 .grad
s 为 None
,以便根据 1 或 2 创建其布局,并根据 3 或 4 随时间保留)以获得最佳性能。调用 model.zero_grad()
或 optimizer.zero_grad()
不会影响 .grad
布局。
事实上,在每个累加阶段之前将所有 .grad
s 重置为 None
,例如
for iterations...
...
for param in model.parameters():
param.grad = None
loss.backward()
这样它们每次都根据 1 或 2 被重新创建,是 model.zero_grad()
或 optimizer.zero_grad()
的一个有效替代方案,对于某些网络可能会提高性能。
手动梯度布局#
如果您需要手动控制 .grad
的步幅,请在第一次 backward()
之前将 param.grad =
赋值为一个具有所需步幅的零张量,并且永不将其重置为 None
。3 保证您的布局在 create_graph=False
的情况下得以保留。4 表明即使 create_graph=True
,您的布局也 *可能* 会被保留。
张量的原地操作#
在 autograd 中支持原地操作是一件困难的事情,我们不鼓励在大多数情况下使用它们。Autograd 的积极缓冲区释放和重用使其非常高效,并且很少有原地操作实际能显著降低内存使用量。除非您在内存压力很大,否则您可能永远不需要使用它们。
原地正确性检查#
所有 Tensor
都会跟踪应用到它们的原地操作,如果实现检测到一个张量在某个函数中为 backward 保存,但之后又被原地修改,则在 backward 传递开始时会引发错误。这确保了如果您使用原地函数且没有看到任何错误,您可以确信计算出的梯度是正确的。
Variable (已弃用)#
警告
Variable API 已弃用:使用 autograd 和张量不再需要 Variable。Autograd 自动支持 requires_grad
设置为 True
的张量。下面是一个关于变化之处的快速指南。
Variable(tensor)
和Variable(tensor, requires_grad)
仍按预期工作,但它们返回张量而不是 Variable。var.data
与tensor.data
相同。像
var.backward(), var.detach(), var.register_hook()
这样的方法现在以相同的名称作用于张量。
此外,现在可以使用诸如 torch.randn()
、torch.zeros()
、torch.ones()
等工厂方法来创建具有 requires_grad=True
的张量,如下所示:
autograd_tensor = torch.randn((2, 3, 4), requires_grad=True)
张量 autograd 函数#
|
此属性默认情况下为 |
|
如果需要为此张量计算梯度,则为 |
|
所有 |
|
计算当前张量相对于图叶的梯度。 |
|
返回一个从当前图分离的新张量。 |
|
从创建它的图中分离张量,使其成为叶子。 |
|
注册一个反向钩子。 |
|
注册一个在梯度累积后运行的反向钩子。 |
|
启用此张量以在 |
Function#
- class torch.autograd.Function(*args, **kwargs)[source]#
创建自定义 autograd.Function 的基类。
要创建自定义 autograd.Function,请继承此类并实现
forward()
和backward()
静态方法。然后,要在前向传播中使用自定义算子,请调用类方法apply
。请勿直接调用forward()
。为确保正确性和最佳性能,请确保您正在对
ctx
调用正确的方法,并使用torch.autograd.gradcheck()
验证您的 backward 函数。有关如何使用此类,请参阅 扩展 torch.autograd。
示例
>>> class Exp(Function): >>> @staticmethod >>> def forward(ctx, i): >>> result = i.exp() >>> ctx.save_for_backward(result) >>> return result >>> >>> @staticmethod >>> def backward(ctx, grad_output): >>> result, = ctx.saved_tensors >>> return grad_output * result >>> >>> # Use it by calling the apply method: >>> output = Exp.apply(input)
定义自定义自动微分函数的前向传播。 |
|
定义使用反向模式自动微分来区分操作的公式。 |
|
定义使用前向模式自动微分来区分操作的公式。 |
|
定义此 autograd.Function 在 |
上下文方法混合#
在创建新的 Function
时,以下方法可用于 ctx
。
将给定张量标记为在就地操作中已修改。 |
|
将输出标记为不可微分。 |
|
保存给定张量以供将来调用 |
|
设置是否实例化 grad 张量。 |
自定义函数实用程序#
backward 方法的装饰器。
用于构建 PyTorch 实用程序的基类自定义 Function
此类用于内部 autograd 工作。 |
|
此类仅出于向后兼容性原因而存在。 |
|
此类仅出于向后兼容性原因而存在。 |
数值梯度检查#
通过有限差分法计算的梯度与 |
|
通过有限差分法计算的梯度与 |
|
|
分析器#
Autograd 包括一个分析器,可让您检查模型中 CPU 和 GPU 上不同算子的成本。目前实现了三种模式——仅 CPU(使用 profile
)。基于 nvprof(同时注册 CPU 和 GPU 活动)(使用 emit_nvtx
)。以及基于 vtune 分析器(使用 emit_itt
)。
- class torch.autograd.profiler.profile(enabled=True, *, use_cuda=False, use_device=None, record_shapes=False, with_flops=False, profile_memory=False, with_stack=False, with_modules=False, use_kineto=False, use_cpu=True, experimental_config=None, acc_events=False, custom_trace_id_callback=None)[source]#
上下文管理器,用于管理 autograd 分析器状态并保存结果摘要。
注意
这是后端,大多数人应该使用
torch.profiler
代替。它只是在后台记录 C++ 中执行的函数事件,并将这些事件暴露给 Python。您可以将任何代码包装其中,它只会报告 PyTorch 函数的运行时。注意:分析器是线程本地的,并且会自动传播到异步任务中。
- 参数
enabled (bool, optional) – 将此设置为 False 会使此上下文管理器无效(no-op)。
use_cuda (bool, optional) – 使用 cudaEvent API 启用 CUDA 事件计时。(将弃用)
use_device (str, optional) – 启用设备事件计时。使用 cuda 时,每个张量操作会增加大约 4us 的开销。有效设备选项为“cuda”、“xpu”、“mtia”和“privateuseone”。
record_shapes (bool, optional) – 如果设置了形状记录,将收集输入维度的信息。这允许您查看哪些维度在底层使用过,并使用 prof.key_averages(group_by_input_shape=True) 按它们进行分组。请注意,形状记录可能会歪曲您的分析数据。建议使用单独的运行(带形状记录和不带形状记录)来验证计时。最底层事件(在嵌套函数调用的情况下)的自 CPU 时间可能会因形状收集而被人为增加。
with_flops (bool, optional) – 如果设置了 with_flops,分析器将使用算子的输入形状估算 FLOPs(浮点运算)值。这允许您估算硬件性能。目前,此选项仅适用于矩阵乘法和二维卷积算子。
profile_memory (bool, optional) – 跟踪张量内存分配/去分配。
with_stack (bool, optional) – 记录算子的源信息(文件名和行号)。
with_modules (bool) – 记录与算子调用栈对应的模块层次结构(包括函数名)。例如,如果模块 A 的 forward 调用了模块 B 的 forward,而模块 B 包含一个 aten::add 算子,那么 aten::add 的模块层次结构就是 A.B。请注意,目前此支持仅适用于 TorchScript 模型,而不适用于 eager 模式模型。
use_kineto (bool, optional) – 实验性的,启用 Kineto 分析器进行分析。
use_cpu (bool, optional) – 分析 CPU 事件;将其设置为
False
需要use_kineto=True
,并且可用于降低 GPU 仅分析的开销。experimental_config (_ExperimentalConfig) – Kineto 等分析器库使用的实验性选项集。注意,不保证向后兼容性。
acc_events (bool) – 启用跨多个分析周期累加 FunctionEvents。
警告
启用内存分析或源属性会产生额外的分析器开销。
警告
不应递归调用此上下文管理器,即不允许嵌套实例。
警告
由于一些 CUDA 多进程限制(请参阅 多进程中的 CUDA),不能使用
use_device = 'cuda'
的分析器来基准测试num_workers > 0
的 DataLoaders。如果要基准测试数据加载,请使用use_device = None
或num_workers = 0
。示例
>>> x = torch.randn((1, 1), requires_grad=True) >>> with torch.autograd.profiler.profile() as prof: >>> for _ in range(100): # any normal python code, really! >>> y = x ** 2 >>> y.backward() >>> # NOTE: some columns were removed for brevity >>> print(prof.key_averages().table(sort_by="self_cpu_time_total")) ----------------------------------- --------------- --------------- --------------- Name Self CPU total CPU time avg Number of Calls ----------------------------------- --------------- --------------- --------------- mul 32.048ms 32.048ms 200 pow 27.041ms 27.041ms 200 PowBackward0 9.727ms 55.483ms 100 torch::autograd::AccumulateGrad 9.148ms 9.148ms 100 torch::autograd::GraphRoot 691.816us 691.816us 100 ----------------------------------- --------------- --------------- ---------------
将 EventList 导出为 Chrome 跟踪工具文件。 |
|
按键平均所有函数事件。 |
|
返回在 CPU 上花费的总时间。 |
|
平均所有事件。 |
|
如果一个键出现一次以上,则引发错误。 |
|
提供一个用于全局递增步数的抽象。 |
|
上下文管理器/函数装饰器,在运行 autograd 分析器时为代码块/函数添加标签。 |
|
用于访问 interval 中 mem_records 的加速结构。 |
|
- class torch.autograd.profiler.emit_nvtx(enabled=True, record_shapes=False)[source]#
上下文管理器,使每个 autograd 算子都发出 NVTX 范围。
当在 nvprof 下运行程序时,此功能非常有用。
nvprof --profile-from-start off -o trace_name.prof -- <regular command here>
不幸的是, nvprof 没有办法强制将收集到的数据刷新到磁盘,因此对于 CUDA 分析,必须使用此上下文管理器来注释 nvprof 跟踪,并在进程退出后再检查。然后,可以使用 NVIDIA Visual Profiler (nvvp) 可视化时间线,或者
torch.autograd.profiler.load_nvprof()
可以加载结果并在 Python REPL 等环境中进行检查。- 参数
enabled (bool, optional) – 将
enabled=False
设置为使此上下文管理器无效。默认值:True
。record_shapes (bool, optional) – 如果
record_shapes=True
,则包装每个 autograd 算子的 nvtx 范围将附加关于该算子接收的张量参数大小的信息,格式如下:[[arg0.size(0), arg0.size(1), ...], [arg1.size(0), arg1.size(1), ...], ...]
非张量参数将用[]
表示。参数将按它们在后端算子中接收的顺序排列。请注意,此顺序可能与它们在 Python 端传递的顺序不符。另请注意,形状记录可能会增加 nvtx 范围创建的开销。默认值:False
。
示例
>>> with torch.cuda.profiler.profile(): ... model(x) # Warmup CUDA memory allocator and profiler ... with torch.autograd.profiler.emit_nvtx(): ... model(x)
前向-后向相关性
在 Nvidia Visual Profiler 中查看使用
emit_nvtx
创建的分析时,将每个后向传递算子与相应的转发传递算子关联起来可能很困难。为了简化这项任务,emit_nvtx
会向其生成的范围附加序列号信息。在前向传递期间,每个函数范围都用
seq=<N>
进行装饰。seq
是一个计数器,每次创建新的后向 Function 对象并为其保留时递增。因此,与每个前向函数范围关联的seq=<N>
注释告诉您,如果此前向函数创建了后向 Function 对象,则该后向对象将接收序列号 N。在后向传递期间,包装每个 C++ 后向 Function 的apply()
调用的顶级范围用stashed seq=<M>
进行装饰。M
是后向对象创建时使用的序列号。通过比较后向中的stashed seq
号与前向中的seq
号,您可以追溯是哪个前向算子创建了每个后向 Function。在后向传递期间执行的任何函数都用
seq=<N>
进行装饰。在默认后向(create_graph=False
)期间,此信息无关紧要,事实上,对于所有此类函数,N
可能只是 0。只有与后向 Function 对象的apply()
方法相关的顶级范围才有意义,作为将这些 Function 对象与早期前向传递关联的一种方式。二次后向
另一方面,如果正在进行带有
create_graph=True
的后向传递(换句话说,如果您正在为二次后向做准备),则后向期间执行的每个函数都会获得一个非零的、有用的seq=<N>
。这些函数本身可能会创建 Function 对象,以便稍后在二次后向中执行,就像原始前向函数那样。后向和二次后向之间的关系在概念上与前向和后向之间的关系相同:函数仍然发出当前序列号标记的范围,它们创建的 Function 对象仍然会隐藏这些序列号,并且在最终的二次后向期间,Function 对象的apply()
范围仍会用stashed seq
号进行标记,这些号可以与后向传递中的 seq 号进行比较。
- class torch.autograd.profiler.emit_itt(enabled=True, record_shapes=False)[source]#
上下文管理器,使每个 autograd 算子都发出 ITT 范围。
当在 Intel(R) VTune Profiler 下运行程序时,此功能非常有用。
vtune <--vtune-flags> <regular command here>
仪器和跟踪技术 (ITT) API 使您的应用程序能够在不同 Intel 工具中生成和控制执行期间的跟踪数据收集。此上下文管理器用于注释 Intel(R) VTune Profiling 跟踪。借助此上下文管理器,您将能够在 Intel(R) VTune Profiler GUI 中看到带标签的范围。
- 参数
enabled (bool, optional) – 将
enabled=False
设置为使此上下文管理器无效。默认值:True
。record_shapes (bool, optional) – 如果
record_shapes=True
,则包装每个 autograd 算子的 itt 范围将附加关于该算子接收的张量参数大小的信息,格式如下:[[arg0.size(0), arg0.size(1), ...], [arg1.size(0), arg1.size(1), ...], ...]
非张量参数将用[]
表示。参数将按它们在后端算子中接收的顺序排列。请注意,此顺序可能与它们在 Python 端传递的顺序不符。另请注意,形状记录可能会增加 itt 范围创建的开销。默认值:False
。
示例
>>> with torch.autograd.profiler.emit_itt(): ... model(x)
打开 nvprof 跟踪文件并解析 autograd 注释。 |
调试和异常检测#
- class torch.autograd.detect_anomaly(check_nan=True)[source]#
启用 autograd engine 异常检测的上下文管理器。
这做了两件事:
启用检测后运行前向传递,将允许后向传递打印出创建失败的后向函数的那个前向操作的堆栈跟踪。
如果
check_nan
为True
,任何生成“nan”值的后向计算都将引发错误。默认值为True
。
警告
应仅为调试启用此模式,因为不同的测试会减慢您的程序执行速度。
示例
>>> import torch >>> from torch import autograd >>> class MyFunc(autograd.Function): ... @staticmethod ... def forward(ctx, inp): ... return inp.clone() ... ... @staticmethod ... def backward(ctx, gO): ... # Error during the backward pass ... raise RuntimeError("Some error in backward") ... return gO.clone() >>> def run_fn(a): ... out = MyFunc.apply(a) ... return out.sum() >>> inp = torch.rand(10, 10, requires_grad=True) >>> out = run_fn(inp) >>> out.backward() Traceback (most recent call last): File "<stdin>", line 1, in <module> File "/your/pytorch/install/torch/_tensor.py", line 93, in backward torch.autograd.backward(self, gradient, retain_graph, create_graph) File "/your/pytorch/install/torch/autograd/__init__.py", line 90, in backward allow_unreachable=True) # allow_unreachable flag File "/your/pytorch/install/torch/autograd/function.py", line 76, in apply return self._forward_cls.backward(self, *args) File "<stdin>", line 8, in backward RuntimeError: Some error in backward >>> with autograd.detect_anomaly(): ... inp = torch.rand(10, 10, requires_grad=True) ... out = run_fn(inp) ... out.backward() Traceback of forward call that caused the error: File "tmp.py", line 53, in <module> out = run_fn(inp) File "tmp.py", line 44, in run_fn out = MyFunc.apply(a) Traceback (most recent call last): File "<stdin>", line 4, in <module> File "/your/pytorch/install/torch/_tensor.py", line 93, in backward torch.autograd.backward(self, gradient, retain_graph, create_graph) File "/your/pytorch/install/torch/autograd/__init__.py", line 90, in backward allow_unreachable=True) # allow_unreachable flag File "/your/pytorch/install/torch/autograd/function.py", line 76, in apply return self._forward_cls.backward(self, *args) File "<stdin>", line 8, in backward RuntimeError: Some error in backward
- class torch.autograd.set_detect_anomaly(mode, check_nan=True)[source]#
根据其参数
mode
打开或关闭 autograd engine 异常检测的上下文管理器。set_detect_anomaly
将根据其参数mode
启用或禁用 autograd 异常检测。它可用作上下文管理器或函数。有关异常检测行为的详细信息,请参阅上面的
detect_anomaly
。
打开或关闭多线程后向的上下文管理器。 |
Autograd 图#
Autograd 提供的方法允许检查图并干预后向传递中的行为。
一个 torch.Tensor
的 grad_fn
属性如果张量是 autograd 记录的操作(即,grad_mode 已启用且至少一个输入需要梯度)的输出,则包含一个 torch.autograd.graph.Node
,否则为 None
。
返回名称。 |
|
返回元数据。 |
|
注册后向钩子。 |
|
注册前向钩子。 |
|
更新 autograd 元数据,跟踪给定张量是否被原地修改。 |
某些操作需要在前向传递期间保存中间结果才能执行后向传递。这些中间结果保存在 grad_fn
的属性上,可以访问。例如:
>>> a = torch.tensor([0., 0., 0.], requires_grad=True)
>>> b = a.exp()
>>> print(isinstance(b.grad_fn, torch.autograd.graph.Node))
True
>>> print(dir(b.grad_fn))
['__call__', '__class__', '__delattr__', '__dir__', '__doc__', '__eq__', '__format__', '__ge__', '__getattribute__', '__gt__', '__hash__', '__init__', '__init_subclass__', '__le__', '__lt__', '__ne__', '__new__', '__reduce__', '__reduce_ex__', '__repr__', '__setattr__', '__sizeof__', '__str__', '__subclasshook__', '_raw_saved_result', '_register_hook_dict', '_saved_result', 'metadata', 'name', 'next_functions', 'register_hook', 'register_prehook', 'requires_grad']
>>> print(torch.allclose(b.grad_fn._saved_result, b))
True
您还可以使用钩子定义这些保存的张量应如何打包/解包。一个常见的应用是利用钩子来交换计算与内存,将这些中间结果保存到磁盘或 CPU,而不是将其保留在 GPU 上。如果您注意到模型在评估时适合 GPU,但在训练时不适合,这特别有用。另请参阅 保存张量的钩子。
- class torch.autograd.graph.saved_tensors_hooks(pack_hook, unpack_hook)[source]#
上下文管理器,用于为保存的张量设置一对打包/解包钩子。
使用此上下文管理器来定义操作的中间结果在保存之前应如何打包,以及在检索时如何解包。
在此上下文中,每当操作保存一个张量用于后向(这包括使用
save_for_backward()
保存的中间结果,以及 PyTorch 定义的操作记录的中间结果)时,都会调用pack_hook
函数。pack_hook
的输出随后存储在计算图中,而不是原始张量。unpack_hook
在需要访问保存的张量时被调用,即在执行torch.Tensor.backward()
或torch.autograd.grad()
时。它接受pack_hook
返回的 *打包* 对象作为参数,并应返回一个在值、大小、dtype 和设备上与原始张量(传递给相应的pack_hook
)相同的张量。钩子应具有以下签名:
pack_hook(tensor: Tensor) -> Any
unpack_hook(Any) -> Tensor
其中
pack_hook
的返回值可作为unpack_hook
的有效输入。一般来说,您希望
unpack_hook(pack_hook(t))
在值、大小、dtype 和设备方面等于t
。示例
>>> def pack_hook(x): ... print("Packing", x) ... return x.detach() >>> >>> def unpack_hook(x): ... print("Unpacking", x) ... return x >>> >>> a = torch.ones(5, requires_grad=True) >>> b = torch.ones(5, requires_grad=True) * 2 >>> with torch.autograd.graph.saved_tensors_hooks(pack_hook, unpack_hook): ... y = a * b Packing tensor([1., 1., 1., 1., 1.], requires_grad=True) Packing tensor([2., 2., 2., 2., 2.], grad_fn=<MulBackward0>) >>> y.sum().backward() Unpacking tensor([1., 1., 1., 1., 1.], requires_grad=True) Unpacking tensor([2., 2., 2., 2., 2.], grad_fn=<MulBackward0>)
警告
对任一钩子的输入执行原地操作可能会导致未定义的行为。
警告
一次只允许一对钩子。在递归嵌套此上下文管理器时,仅应用最内层的一对钩子。
警告
为避免引用循环,
pack_hook
的返回值不能包含对输入张量的引用。例如,使用 lambda x: x.detach() 而不是 lambda x: x 作为 pack 钩子。
- class torch.autograd.graph.save_on_cpu(pin_memory=False, device_type='cuda')[source]#
上下文管理器,在该管理器下,前向传递保存的张量将存储在 CPU 上,然后在后向传递时检索。
在此上下文管理器中执行操作时,前向传递期间在图中保存的中间结果将被移动到 CPU,然后在后向传递需要时复制回原始设备。如果图已在 CPU 上,则不会执行张量复制。
使用此上下文管理器来交换计算与 GPU 内存使用(例如,当您的模型在评估期间不适合 GPU 内存但训练时适合)。
示例
>>> a = torch.randn(5, requires_grad=True, device="cuda") >>> b = torch.randn(5, requires_grad=True, device="cuda") >>> c = torch.randn(5, requires_grad=True, device="cuda") >>> >>> def f(a, b, c): ... prod_1 = a * b # a and b are saved on GPU ... with torch.autograd.graph.save_on_cpu(): ... prod_2 = prod_1 * c # prod_1 and c are saved on CPU ... y = prod_2 * a # prod_2 and a are saved on GPU ... return y >>> >>> y = f(a, b, c) >>> del a, b, c # for illustration only >>> # the content of a, b, and prod_2 are still alive on GPU >>> # the content of prod_1 and c only live on CPU >>> y.sum().backward() # all CPU tensors are moved back to GPU, for backward >>> # all intermediary tensors are released (deleted) after the call to backward
- class torch.autograd.graph.disable_saved_tensors_hooks(error_message)[source]#
禁用保存的张量默认钩子功能的上下文管理器。
如果您正在创建一个与保存的张量默认钩子不兼容的功能,则此功能很有用。
- 参数
error_message (str) – 当保存的张量默认钩子被使用时,而它们已被禁用,则会引发带有此错误消息的 RuntimeError。
- 返回类型
Generator[None, None, None]
示例
>>> message = "saved tensors default hooks are disabled" >>> with torch.autograd.graph.disable_saved_tensors_hooks(message): ... # Raises RuntimeError: saved tensors default hooks are disabled ... with torch.autograd.graph.save_on_cpu(): ... pass
- class torch.autograd.graph.register_multi_grad_hook(tensors, fn, *, mode='all')[source]#
注册多梯度后向钩子。
支持两种模式:“
all
”和“any
”。在“
all
”模式下,钩子将在与tensors
中每个张量相关的梯度计算完成后被调用。如果一个张量在tensors
中但不是图的一部分,或者如果一个张量对于当前.backward()
或.grad()
调用中指定的任何inputs
的梯度计算是不必要的,那么该张量将被忽略,钩子也不会等待其梯度计算完成。在所有非忽略张量的梯度计算完成后,
fn
将使用这些梯度被调用。None
将传递给未计算梯度的张量。在“
any
”模式下,钩子将在第一个与tensors
中张量相关的梯度计算完成后被调用。钩子将使用该梯度作为其参数。钩子不应修改其参数。
此函数返回一个带有
handle.remove()
方法的句柄,该方法会移除钩子。注意
有关此钩子的执行时间以及其执行顺序(相对于其他钩子)的更多信息,请参阅 后向钩子执行。
示例
>>> import torch >>> >>> a = torch.rand(2, 3, requires_grad=True) >>> b = torch.rand(2, 3, requires_grad=True) >>> c = a * b >>> d = a * b >>> >>> def fn(grads): ... print([g is not None for g in grads]) ... >>> torch.autograd.graph.register_multi_grad_hook((a, b, c, d), fn) >>> >>> c.sum().backward(retain_graph=True) [True, True, True, False] >>> c.sum().backward(inputs=(a,), retain_graph=True) [True, False, True, False] >>>
- 返回类型
RemovableHandle
- class torch.autograd.graph.allow_mutation_on_saved_tensors[source]#
允许在为后向保存的张量上进行变异的上下文管理器。
在此上下文管理器下,为后向保存的张量在变异时会被克隆,因此原始版本仍然可以在后向传递中使用。通常,变异一个为后向保存的张量会在后向传递中使用它时引发错误。
为确保正确行为,前向和后向都应在相同的上下文管理器下运行。
- 返回
一个 _AllowMutationOnSavedContext 对象,用于存储此上下文管理器管理的 State。此对象可用于调试目的。上下文管理器管理的 State 在退出时会自动清除。
- 返回类型
Generator[_AllowMutationOnSavedContext, None, None]
示例
>>> import torch >>> with torch.autograd.graph.allow_mutation_on_saved_tensors(): ... # forward ... a = torch.ones(2, 3, requires_grad=True) ... b = a.clone() ... out = (b**2).sum() ... b.sin_() ... # backward ... out.sum().backward() ... tensor([[0.8415, 0.8415, 0.8415], [0.8415, 0.8415, 0.8415]], grad_fn=<SinBackward0>)
- class torch.autograd.graph.GradientEdge(node, output_nr, ownership_token=None)[source]#
表示 autograd 图中给定梯度边的对象。
要获取将计算给定张量梯度的梯度边,您可以执行
edge = autograd.graph.get_gradient_edge(tensor)
。