torch.nn.utils.clip_grad_norm#
- torch.nn.utils.clip_grad_norm(parameters, max_norm, norm_type=2.0, error_if_nonfinite=False, foreach=None)[source]#
对可迭代参数的梯度范数进行裁剪。
警告
此方法已弃用,请使用
torch.nn.utils.clip_grad_norm_()
。- 返回类型
对可迭代参数的梯度范数进行裁剪。
警告
此方法已弃用,请使用 torch.nn.utils.clip_grad_norm_()
。