快捷方式

torchrl.trainers.algorithms.configs.utils.AdamaxConfig

class torchrl.trainers.algorithms.configs.utils.AdamaxConfig(lr: float = 0.002, betas: tuple[float, float] = (0.9, 0.999), eps: float = 1e-08, weight_decay: float = 0.0, _target_: str = 'torch.optim.Adamax', _partial_: bool = True)[源]

Adamax 优化器的配置。

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

为初学者和高级开发者提供深入的教程

查看教程

资源

查找开发资源并让您的问题得到解答

查看资源