KLPENPPOLoss¶
- class torchrl.objectives.KLPENPPOLoss(*args, **kwargs)[source]¶
KL 惩罚 PPO 损失。
- KL 惩罚损失的公式如下:
loss = loss - beta * KL(old_policy, new_policy)
“beta”参数是动态调整的,以匹配新旧策略之间的目标 KL 散度,从而有利于两者之间保持一定程度的距离,同时防止它们相距太远。
- 参数:
actor_network (ProbabilisticTensorDictSequential) – 策略算子。
critic_network (ValueOperator) – 值算子。
- 关键字参数:
dtarg (scalar, optional) – 目标 KL 散度。默认为
0.01
。samples_mc_kl (int, optional) – 用于计算 KL 散度的样本数量(如果找不到解析公式)。默认为
1
。beta (scalar, optional) – 初始 KL 散度乘数。默认为
1.0
。decrement (scalar, optional) – 如果 KL < dtarg,beta 应减少多少。有效范围:decrement <= 1.0 默认值:
0.5
。increment (scalar, optional) – 如果 KL > dtarg,beta 应增加多少。有效范围:increment >= 1.0 默认值:
2.0
。entropy_bonus (bool, optional) – 如果为
True
,则会向损失添加熵奖励,以鼓励探索性策略。默认为True
。samples_mc_entropy (int, optional) – 如果从策略算子检索到的分布没有熵的封闭公式,则会使用蒙特卡洛估计。
samples_mc_entropy
将控制用于计算此估计的样本数量。默认为1
。entropy_coeff – scalar | Mapping[str, scalar], optional):计算总损失时的熵乘数。 * Scalar:应用于每个动作头总熵的一个值。 * Mapping
{head_name: coeff}
为每个动作头的熵提供单独的系数。默认为0.01
。critic_coeff (scalar, optional) – 计算总损失时的 critic 损失乘数。默认为
1.0
。loss_critic_type (str, optional) – 值差异的损失函数。可以是“l1”、“l2”或“smooth_l1”之一。默认为
"smooth_l1"
。normalize_advantage (bool, optional) – 如果为
True
,则在用于优势之前对其进行标准化。默认为False
。normalize_advantage_exclude_dims (Tuple[int], optional) – 要从优势标准化中排除的维度。负维度是有效的。这在多代理(或多目标)设置中很有用,其中代理(或目标)维度可以从归约中排除。默认值:()。
separate_losses (bool, optional) – 如果为
True
,则策略和 critic 之间的共享参数将仅在策略损失上进行训练。默认为False
,即梯度会传播到策略和 critic 损失的共享参数上。advantage_key (str, optional) – [已弃用,请改用 set_keys(advantage_key=advantage_key)] 预期写入优势的输入 tensordict 键。默认为
"advantage"
。value_target_key (str, optional) – [已弃用,请改用 set_keys(value_target_key=value_target_key) instead] 预期写入目标状态值的输入 tensordict 键。默认为
"value_target"
。value_key (str, optional) – [已弃用,请改用 set_keys(value_key) instead] 预期写入状态值的输入 tensordict 键。默认为
"state_value"
。functional (bool, optional) – 模块是否应功能化。功能化允许元 RL 等功能,但无法使用分布式模型(DDP、FSDP 等),并且会产生少量开销。默认为
True
。reduction (str, optional) – 指定应用于输出的归约:
"none"
|"mean"
|"sum"
。"none"
:不应用归约,"mean"
:输出的总和将除以输出中的元素数量,"sum"
:输出将被求和。默认值:"mean"
。clip_value (
float
, optional) – 如果提供,则用于计算值预测的裁剪版本与输入 tensordict 值估计之间的差异,并使用它来计算值损失。裁剪的目的是限制极端值预测的影响,有助于稳定训练并防止大的更新。但是,如果值估计是由当前版本的值估计器完成的,则它不会产生任何影响。默认为None
。device (torch.device, optional) –
缓冲区的设备。默认为
None
。注意
策略/ critic 的参数和缓冲区不会被转换为该设备,以确保存储与传递给其他组件(如数据收集器)的存储匹配。
注意
如果 actor 和 value function 共享参数,可以通过仅将 value network 的 head 传递给 PPO 损失模块来避免多次调用公共模块
>>> common = SomeModule(in_keys=["observation"], out_keys=["hidden"]) >>> actor_head = SomeActor(in_keys=["hidden"]) >>> value_head = SomeValue(in_keys=["hidden"]) >>> # first option, with 2 calls on the common module >>> model = ActorValueOperator(common, actor_head, value_head) >>> loss_module = KLPENPPOLoss(model.get_policy_operator(), model.get_value_operator()) >>> # second option, with a single call to the common module >>> loss_module = KLPENPPOLoss(ProbabilisticTensorDictSequential(model, actor_head), value_head)
无论是否激活 separate_losses,这都将起作用。
- forward(tensordict: TensorDictBase = None) TensorDict [source]¶
它旨在读取一个输入的 TensorDict 并返回另一个包含名为“loss*”的损失键的 tensordict。
将损失分解为其组成部分可以被训练器用于在训练过程中记录各种损失值。输出 tensordict 中存在的其他标量也将被记录。
- 参数:
tensordict – 一个输入的 tensordict,包含计算损失所需的值。
- 返回:
一个没有批处理维度的新 tensordict,其中包含各种损失标量,这些标量将被命名为“loss*”。重要的是,损失必须以这个名称返回,因为它们将在反向传播之前被训练器读取。