评价此页

torch.optim.adagrad.adagrad#

torch.optim.adagrad.adagrad(params, grads, state_sums, state_steps, fused=None, grad_scale=None, found_inf=None, has_sparse_grad=False, foreach=None, differentiable=False, has_complex=False, *, lr, weight_decay, lr_decay, eps, maximize)[源码]#

执行 Adagrad 算法计算的功能 API。

有关详细信息,请参阅 Adagrad