DiscreteActionProjection¶
- class torchrl.envs.transforms.DiscreteActionProjection(num_actions_effective: int, max_actions: int, action_key: NestedKey = 'action', include_forward: bool = True)[source]¶
将离散动作从高维空间投影到低维空间。
给定一个编码为独热向量的离散动作(从 1 到 N)和一个最大动作索引 num_actions(num_actions < N),转换动作,使得 action_out 最多为 num_actions。
如果输入动作大于 num_actions,则将其替换为 0 到 num_actions-1 之间的随机值。否则,保持相同的动作。这旨在与应用于具有不同动作空间的多个离散控制环境的策略一起使用。
调用 DiscreteActionProjection.forward(例如,从回放缓冲区或 nn.Modules 序列中)将在
"in_keys"
上调用num_actions_effective -> max_actions 的变换,而调用 _call 将被忽略。事实上,经过变换的环境会被指示仅为内部 base_env 更新输入键,但原始输入键将保持不变。- 参数:
num_actions_effective (int) – 考虑的最大动作数量。
max_actions (int) – 此模块可以读取的最大动作数量。
action_key (NestedKey, optional) – 动作的键名。默认为“action”。
include_forward (bool, optional) – 如果为
True
,当模块由回放缓冲区或 nn.Module 链调用时,forward 调用还将把动作从一个域映射到另一个域。默认为 True。
示例
>>> torch.manual_seed(0) >>> N = 3 >>> M = 2 >>> action = torch.zeros(N, dtype=torch.long) >>> action[-1] = 1 >>> td = TensorDict({"action": action}, []) >>> transform = DiscreteActionProjection(num_actions_effective=M, max_actions=N) >>> _ = transform.inv(td) >>> print(td.get("action")) tensor([1])
- transform_input_spec(input_spec: Composite)[source]¶
转换输入规范,使结果规范与转换映射匹配。
- 参数:
input_spec (TensorSpec) – 转换前的规范
- 返回:
转换后的预期规范