评价此页

torch.autograd.graph.Node.register_hook#

abstract Node.register_hook(fn)[源码]#

注册一个反向传播钩子。

每次计算 Node 的梯度时都会调用此钩子。钩子应具有以下签名:

hook(grad_inputs: Tuple[Tensor], grad_outputs: Tuple[Tensor]) -> Tuple[Tensor] or None

钩子不应该修改其参数,但可以选择返回一个新的梯度,该梯度将替代 `grad_inputs`。

此函数返回一个句柄,其中包含一个方法 handle.remove(),用于从模块中移除该钩子。

注意

有关此 hook 何时执行以及如何与其他 hook 排序执行的信息,请参阅 反向传播 hook 的执行

注意

在 Node 已开始执行的极少数情况下注册钩子,不能保证 `grad_outputs` 的内容(它可能如常或为空,取决于其他因素)。钩子仍可以选择返回一个新的梯度来替代 `grad_inputs`,这与 `grad_outputs` 无关。

示例

>>> import torch
>>> a = torch.tensor([0., 0., 0.], requires_grad=True)
>>> b = a.clone()
>>> assert isinstance(b.grad_fn, torch.autograd.graph.Node)
>>> handle = b.grad_fn.register_hook(lambda gI, gO: (gO[0] * 2,))
>>> b.sum().backward(retain_graph=True)
>>> print(a.grad)
tensor([2., 2., 2.])
>>> handle.remove() # Removes the hook
>>> a.grad = None
>>> b.sum().backward(retain_graph=True)
>>> print(a.grad)
tensor([1., 1., 1.])
返回类型

RemovableHandle