SmoothL1Loss#
- class torch.nn.SmoothL1Loss(size_average=None, reduce=None, reduction='mean', beta=1.0)[source]#
创建一个标准,当元素级误差的绝对值小于beta时使用平方项,否则使用L1项。它比
torch.nn.MSELoss
对异常值不太敏感,在某些情况下可以防止梯度爆炸(例如,请参阅Ross Girshick的论文 Fast R-CNN)。对于大小为 的批次,未约减的损失可描述为:
替换
如果reduction不是none,则
注意
平滑L1损失可以看作是精确的
L1Loss
,但是将部分替换为二次函数,使其在时的斜率为1。二次段平滑了L1损失在附近的区域。注意
Smooth L1 loss与
HuberLoss
密切相关,相当于(请注意,Smooth L1的beta超参数也称为Huber的delta)。这导致了以下区别:- 参数
size_average (bool, optional) – 已弃用(参见
reduction
)。默认情况下,损失会根据批次中的每个损失元素进行平均。请注意,对于某些损失,每个样本有多个元素。如果将size_average
字段设置为False
,则损失会按每个小批量求和。如果reduce
为False
,则忽略此参数。默认为True
reduce (bool, optional) – 已弃用(参见
reduction
)。默认情况下,损失会根据size_average
在观测值上进行平均或求和。当reduce
为False
时,返回每个批次元素的损失,并忽略size_average
。默认为True
reduction (str, optional) – 指定要应用于输出的缩减方式:
'none'
|'mean'
|'sum'
。'none'
:不应用缩减;'mean'
:输出的总和除以输出中的元素数量;'sum'
:输出将被求和。注意:size_average
和reduce
正在被弃用,在此期间,指定这两个参数中的任何一个都会覆盖reduction
。默认为'mean'
beta (float, optional) – 指定在L1和L2损失之间切换的阈值。该值必须为非负数。默认为1.0
- 形状
输入:,其中表示任意数量的维度。
目标:,形状与输入相同。
输出:标量。如果
reduction
为'none'
,则,形状与输入相同。