SmoothL1Loss#
- class torch.nn.SmoothL1Loss(size_average=None, reduce=None, reduction='mean', beta=1.0)[源代码]#
创建一个准则,当元素级绝对误差小于 beta 时使用平方项,否则使用 L1 项。它比
torch.nn.MSELoss对离群点不那么敏感,并且在某些情况下可以防止梯度爆炸(例如,请参阅 Ross Girshick 的论文 Fast R-CNN)。对于大小为 的批次,未约简的损失可以描述为
替换
如果 reduction 不是 none,则
注意
Smooth L1 loss 可以看作是
L1Loss的精确形式,但将 的部分替换为二次函数,使其在 处的斜率为 1。二次函数段平滑了 附近的 L1 损失。注意
Smooth L1 loss 与
HuberLoss密切相关,相当于 (请注意,Smooth L1 的 beta 超参数也称为 Huber 的 delta)。这导致了以下差异:- 参数
size_average (bool, optional) – 已弃用 (参见
reduction)。默认情况下,损失值在批次中的每个损失元素上取平均值。请注意,对于某些损失,每个样本有多个元素。如果字段size_average设置为False,则损失值在每个小批次中而是求和。当reduce为False时忽略。默认值:Truereduce (bool, optional) – 已弃用 (参见
reduction)。默认情况下,损失值在每个小批次中根据size_average对观测值进行平均或求和。当reduce为False时,返回每个批次元素的损失值,并忽略size_average。默认值:Truereduction (str, optional) – 指定要应用于输出的归约:
'none'|'mean'|'sum'。'none':不进行归约,'mean':输出的总和将除以输出中的元素数量,'sum':将输出相加。注意:size_average和reduce正在被弃用,在此期间,指定这两个参数中的任何一个都将覆盖reduction。默认值:'mean'beta (float, optional) – 指定在 L1 和 L2 loss 之间切换的阈值。该值必须是非负数。默认值:1.0
- 形状
输入: ,其中 表示任意数量的维度。
目标:,与输入形状相同。
输出:标量。如果
reduction为'none',则 ,形状与输入相同。