快捷方式

DTLoss

class torchrl.objectives.DTLoss(*args, **kwargs)[source]

TorchRL 对在线决策 Transformer 损失的实现。

呈现在 “Decision Transformer: Reinforcement Learning via Sequence Modeling” <https://arxiv.org/abs/2106.01345>

参数:

actor_network (ProbabilisticActor) – 随机 actor

关键字参数:
  • loss_function (str) – 要使用的损失函数。默认为 "l2"

  • reduction (str, optional) – 指定要应用于输出的归约:"none" | "mean" | "sum""none":不进行归约,"mean":输出的总和将除以输出中的元素数量,"sum":将对输出进行求和。默认:"mean"

default_keys

别名:_AcceptedKeys

forward(tensordict: TensorDictBase = None) TensorDictBase[source]

计算在线决策 Transformer 的损失。

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

为初学者和高级开发者提供深入的教程

查看教程

资源

查找开发资源并让您的问题得到解答

查看资源