torch.nn.utils.clip_grad_norm#
- torch.nn.utils.clip_grad_norm(parameters, max_norm, norm_type=2.0, error_if_nonfinite=False, foreach=None)[source]#
对可迭代参数的梯度范数进行裁剪。
警告
此方法现已弃用,推荐使用
torch.nn.utils.clip_grad_norm_()
。- 返回类型
对可迭代参数的梯度范数进行裁剪。
警告
此方法现已弃用,推荐使用 torch.nn.utils.clip_grad_norm_()
。