快捷方式

TD1Estimator

class torchrl.objectives.value.TD1Estimator(*args, **kwargs)[源代码]

\(\infty\)-时间差(TD(1))对优势函数的估计。

关键字参数:
  • gamma (scalar) – 指数平均折扣。

  • value_network (TensorDictModule) – 用于检索值估计的值运算符。

  • average_rewards (bool, 可选) – 如果为 True,则在计算 TD 之前会对奖励进行标准化。

  • differentiable (bool, optional) –

    如果为 True,则梯度将通过值函数的计算进行传播。默认为 False

    注意

    使函数调用不可微分的正确方法是使用 torch.no_grad() 上下文管理器/装饰器对其进行装饰,或为函数式模块传递已分离的参数。

  • skip_existing (bool, optional) – 如果为 True,值网络将跳过输出已存在于 tensordict 中的模块。默认为 None,即 tensordict.nn.skip_existing() 的值不受影响。

  • advantage_key (str or tuple of str, optional) – [已弃用] 优势项的键。默认为 "advantage"

  • value_target_key (str or tuple of str, optional) – [已弃用] 优势项的键。默认为 "value_target"

  • value_key (str or tuple of str, optional) – [已弃用] 要从输入 tensordict 读取的值键。默认为 "state_value"

  • shifted (bool, optional) – 如果为 True,则通过一次值网络调用来估计值和下一个值。这更快,但仅在(1)“下一个”值仅偏移一个时间步(例如,多步值估计时并非如此)并且(2)时间 tt+1 使用的参数相同(当使用目标参数时并非如此)时有效。默认为 False

  • device (torch.device, optional) – 缓冲区的实例化设备。默认为 torch.get_default_device()

  • time_dim (int, optional) – 输入 tensordict 中对应时间的维度。如果未提供,则默认为标记为 "time" 的维度(如果存在),否则默认为最后一个维度。可以在调用 value_estimate() 时覆盖。

  • deactivate_vmap (bool, 可选) – 是否禁用 vmap 调用并用普通 for 循环替换它们。默认为 False

forward(tensordict=None, *, params: TensorDictBase | None = None, target_params: TensorDictBase | None = None)[源代码]

在 tensordict 中给定数据,计算 TD(1) 优势。

如果提供了函数式模块,则可以将包含参数(以及如果相关的话,目标参数)的嵌套 TensorDict 传递给模块。

参数:

tensordict (TensorDictBase) – 包含计算值估计和 TDEstimate 所需数据(一个观测键、"action"("next", "reward")("next", "done")("next", "terminated")"next" tensordict 状态,如环境返回)的 TensorDict。传递给此模块的数据应结构化为 [*B, T, *F],其中 B 是批次大小,T 是时间维度,F 是特征维度。tensordict 的形状必须为 [*B, T]

关键字参数:
  • params (TensorDictBase, optional) – 包含要传递给函数式值网络模块的参数的嵌套 TensorDict。

  • target_params (TensorDictBase, optional) – 包含要传递给函数式值网络模块的目标参数的嵌套 TensorDict。

返回:

一个更新的 TensorDict,其中包含构造函数中定义的 advantage 和 value_error 键。

示例

>>> from tensordict import TensorDict
>>> value_net = TensorDictModule(
...     nn.Linear(3, 1), in_keys=["obs"], out_keys=["state_value"]
... )
>>> module = TDEstimate(
...     gamma=0.98,
...     value_network=value_net,
... )
>>> obs, next_obs = torch.randn(2, 1, 10, 3)
>>> reward = torch.randn(1, 10, 1)
>>> done = torch.zeros(1, 10, 1, dtype=torch.bool)
>>> terminated = torch.zeros(1, 10, 1, dtype=torch.bool)
>>> tensordict = TensorDict({"obs": obs, "next": {"obs": next_obs, "done": done, "reward": reward, "terminated": terminated}}, [1, 10])
>>> _ = module(tensordict)
>>> assert "advantage" in tensordict.keys()

该模块也支持非 tensordict(即解包的 tensordict)输入

示例

>>> value_net = TensorDictModule(
...     nn.Linear(3, 1), in_keys=["obs"], out_keys=["state_value"]
... )
>>> module = TDEstimate(
...     gamma=0.98,
...     value_network=value_net,
... )
>>> obs, next_obs = torch.randn(2, 1, 10, 3)
>>> reward = torch.randn(1, 10, 1)
>>> done = torch.zeros(1, 10, 1, dtype=torch.bool)
>>> terminated = torch.zeros(1, 10, 1, dtype=torch.bool)
>>> advantage, value_target = module(obs=obs, next_reward=reward, next_done=done, next_obs=next_obs, next_terminated=terminated)
value_estimate(tensordict, target_params: TensorDictBase | None = None, next_value: torch.Tensor | None = None, time_dim: int | None = None, **kwargs)[源代码]

获取值估计,通常用作值网络的 Tdget 值。

如果状态值键存在于 tensordict.get(("next", self.tensor_keys.value)) 下,则将使用此值,而无需调用值网络。

参数:
  • tensordict (TensorDictBase) – 包含要读取数据的 tensordict。

  • target_params (TensorDictBase, optional) – 包含要传递给函数式值网络模块的目标参数的嵌套 TensorDict。

  • next_value (torch.Tensor, optional) – 下一个状态或状态-动作对的值。与 target_params 互斥。

  • **kwargs – 要传递给值网络的关键字参数。

返回:对应于状态值的一个张量。

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

为初学者和高级开发者提供深入的教程

查看教程

资源

查找开发资源并让您的问题得到解答

查看资源